Baixe o app para aproveitar ainda mais
Prévia do material em texto
✬ ✫ ✩ ✪ Revisa˜o de a´lgebra linear Obs. Apenas uma pequena parte deste material sera´ utilizado em sala de aula. O objetivo deste cap´ıtulo e´ fornecer a base matema´tica para a ana´lise e s´ıntese de sistemas de controle. No estudo de a´lgebra linear a noc¸a˜o de conjunto e´ um conceito fundamental. Def. Um conjunto e´ definido como sendo uma colec¸a˜o de objetos e e´ explicitado listando-se seus elementos. F = {0, 1, 2, · · · } Uma outra forma de explicitar um conjunto e´ evidenciando alguma propriedade comum de seus elementos: F = {x ∈ R / x ≥ 0} Conjuntos de interesse particular: R : conjunto dos nu´meros reais C : conjunto dos nu´meros complexos EEL 6001: Teoria de Sistemas Lineares I algebra.tex 1 ✬ ✫ ✩ ✪ Corpos nume´ricos Def. Um corpo nume´rico e´ um conjunto, denotado por F , de elementos escalares e duas operac¸o˜es: adic¸a˜o e multiplicac¸a˜o - ambas definidas sobre F , satisfazendo as seguintes propriedades: 1. ∀α, β ∈ F , α+ β ∈ F , αβ ∈ F 2. Os nu´meros 0 e 1 sa˜o elementos de F tais que: • α+ 0 = α ∀α ∈ F • 1α = α ∀α ∈ F 3. ∀α ∈ F enta˜o ∃ − α ∈ F 4. ∀α �= 0 ∈ F enta˜o ∃ 1 α ∈ F 5. Associatividade: ∀α, β, γ ∈ F • (α+ β) + γ = α + (β + γ) • (αβ)γ = α(βγ) 6. Comutatividade : ∀α, β ∈ F • α+ β = β + α • αβ = αβ 7. Distributividade: ∀α, β, γ ∈ F • (α+ β)γ = αγ + βγ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 2 ✬ ✫ ✩ ✪ Corpos nume´ricos Exemplos: 1. S = {0, 1} com as definic¸o˜es usuais de soma e de multiplicac¸a˜o na˜o formam um corpo pois: 1 + 1 = 2 Entretanto, se redefinirmos as operac¸o˜es: sendo: 0 + 0 = 0 ; 1 + 1 = 1 ; 1 + 0 = 1 0.1 = 0 ; 0.0 = 0 ; 1.1 = 1 Com essas operac¸o˜es S = {0, 1} forma um corpo. 2. Considere o conjunto M2×2 de todas as matrizes 2× 2 da forma: M = x −y y x onde x, y sa˜o nu´meros reais arbitra´rios. A soma e de multiplicac¸a˜o de matrizes sa˜o as usuais. Sejam os elementos neutros da soma e da multiplicac¸a˜o: 0 = 0 0 0 0 ; I = 1 0 0 1 Verificar que forma um corpo. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 3 ✬ ✫ ✩ ✪ Espac¸os lineares Consistem de um conjunto X de elementos chamados vetores. • Operac¸o˜es soma vetorial e multiplicac¸a˜o por escalar. • Elemento nulo 0 ∈ X Propriedades: 1. x+ y = y + x , ∀ x, y ∈ X (comutativa) 2. (x+ y) + z = x+ (y + z) , ∀ x, y, z ∈ X (associativa) 3. 0 + x = x , ∀ x ∈ X 4. ∀ x ∈ X , ∃ (−x) ∈ X tal que x+ (−x) = 0 5. (αβ)x = α(βx) , ∀ α, β ∈ R , ∀ x ∈ X 6. α(x+ y) = αx+ αy , ∀ α ∈ R , ∀ x, y ∈ X 7. (α + β)x = αx+ βx , ∀ α, β ∈ R , ∀ x ∈ X 8. 1x = x , ∀ x ∈ X EEL 6001: Teoria de Sistemas Lineares I algebra.tex 4 ✬ ✫ ✩ ✪ Exemplos • Espac¸o X = Rn, com as operac¸o˜es de adic¸a˜o vetorial e multiplicac¸a˜o por escalar definidas de maneira convencional • Y = {0} , 0 ∈ Rn • Z = span(v1, v2, . . . , vk) , vi ∈ Rn , i = 1, . . . , k span(v1, v2, . . . , vk) = { α1v1 + · · ·+ αkvk : αi ∈ R } • W = { f : R+ → Rn , f diferencia´vel } (f1 + f2)(t) = f1(t) + f2(t) (soma) (αf)(t) = αf(t) (multiplicac¸a˜o por escalar) Note que um elemento em W e´ uma trajeto´ria no Rn • V = { x ∈ W : x˙ = Ax } Os elementos de V sa˜o trajeto´rias do Rn soluc¸o˜es do sistema linear x˙ = Ax • Espac¸o dos polinoˆmios em s de grau menor ou igual a n EEL 6001: Teoria de Sistemas Lineares I algebra.tex 5 ✬ ✫ ✩ ✪ Subespac¸os lineares Um subespac¸o vetorial e´ um subconjunto que e´ tambe´m um espac¸o vetorial Definic¸a˜o W e´ um subespac¸o vetorial de (V ,F) se as seguintes condic¸o˜es sa˜o verificadas: • 0 ∈ W • ∀w1, w2 ∈ W enta˜o w1 + w2 ∈ W • ∀α ∈ F e ∀w ∈ W enta˜o αw ∈ W Exemplos: • X ,Y ,Z sa˜o subespac¸os do Rn • V e´ um subespac¸o de W • x ∈ R2 : x = x1 αx1 e´ um subespac¸o do R2 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 6 ✬ ✫ ✩ ✪ Independeˆncia linear. Base e Representac¸o˜es • Os paraˆmetros considerados neste curso sa˜o nu´meros reais (a menos que seja especificado diferentemente). Matrizes: A (n×m), B (m× r), C (l × n), D (r × p) Seja ai a i-e´sima coluna de A e bj a j-e´sima linha de B: AB = [ a1 a2 · · · am ] b1 b2 ... bm = a1b1 + a2b2 + · · ·+ ambm CA = C [ a1 a2 · · · am ] = [ Ca1 Ca2 · · · Cam ] EEL 6001: Teoria de Sistemas Lineares I algebra.tex 7 ✬ ✫ ✩ ✪ BD = b1 b2 ... bm D = b1D b2D ... bmD aibi: matriz n por r (vetor n× 1 multiplicado por vetor 1× r) biai: so´ esta´ definido para n = r (escalar) • Espac¸o real de dimensa˜o n: Rn Cada vetor x ∈ Rn e´ uma eˆnupla de nu´meros reais x = x1 x2 ... xn EEL 6001: Teoria de Sistemas Lineares I algebra.tex 8 ✬ ✫ ✩ ✪ Um conjunto de vetores {x1, x2, . . . , xn}, xi ∈ Rn, e´ linearmente dependente (LD) se e somente se existem escalares α1, α2, . . . , αn,na˜o todos nulos, tais que α1x1 + α2x2 + · · ·+ αnxn = 0 Se a igualdade for verdadeira apenas para α1 = α2 = · · · = αn = 0 diz-se enta˜o que o conjunto {x1, x2, . . . , xn} e´ linearmente independente (LI). Se um conjunto de vetores {x1, x2, . . . , xn} e´ linearmente dependente, existe pelo menos um αi diferente de zero e (por exemplo, se α1 �= 0) x1 = − 1 α1 [α2x2 + α3x3 · · ·+ αnxn] isto e´, um dos vetores (mas na˜o necessariamente qualquer um) pode ser escrito como uma combinac¸a˜o linear dos demais. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 9 ✬ ✫ ✩ ✪ Equivalentemente, os vetores sa˜o LI se α1x1 + α2x2 + · · ·+ αnxn = β1x1 + β2x2 + · · ·+ βnxn =⇒ α1 = β1 ; α2 = β2 ; · · · ; αn = βn Ou ainda, se nenhum vetor xi puder ser expresso como combinac¸a˜o linear dos demais. O conceito de dependeˆncia linear depende do tipo (corpo) do escalar considerado. Considere o conjunto das func¸o˜es racionais em s { s s+ 1 , 1 s+ 2 } Na˜o existem escalares reais α1, α2 na˜o todos nulos tais que α1 s s+ 1 + α2 1 s+ 2 = 0 No entanto, para escalares pertencentes ao corpo das func¸o˜es racionais em s, a igualdade vale se α1 = − 1 s+ 2 ; α2 = s s+ 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 10 ✬ ✫ ✩ ✪ Dimensa˜o A dimensa˜o de um espac¸o vetorial e´ o nu´mero ma´ximo de vetores LI desse espac¸o. • Assim, no Rn ha´ no ma´ximo n verores LI. • A dimensa˜o de um espac¸o vetorial pode ser infinita: considere o espac¸o das func¸o˜es cont´ınuas no intervalo [a, b]. Em particular, as func¸o˜es t, t2, t3, . . .. ∞∑ i=1 αit i = 0 ⇐⇒ α1 = α2 = · · · = 0 Um conjunto de vetores LI do Rn e´ uma base se qualquer vetor x ∈ Rn puder ser expresso de forma u´nica como uma combinac¸a˜o linear destes vetores. • Em um espac¸o de dimensa˜o n, qualquer conjunto de n vetores LI forma uma base • Quaisquer duas bases de um espac¸o n-dimensional possuem o mesmo nu´mero de elementos. Seja {q1, q2, . . . , qn} uma base para o Rn, enta˜o qualquer vetor x ∈ Rn pode ser escrito de maneira u´nica como x = α1q1 + α2q2 + · · ·+ αnqn EEL 6001: Teoria de Sistemas Lineares I algebra.tex 11 ✬ ✫ ✩ ✪ Definindo a matriz quadrada Q (n× n) Q � [ q1 q2 · · · qn ] x = Q α1 α2 ... αn = Qα α � [ α1 α2 · · · αn ]′ e´ a representac¸a˜o de x na base {q1, q2, . . . , qn}. A qualquer vetor x ∈ Rn, pode-se associar a base ortonormal e1 = 1 0 0 ... 0 0 , e2 = 0 1 0 ... 0 0 , . . . , en = 0 0 0 ... 0 1 EEL6001: Teoria de Sistemas Lineares I algebra.tex 12 ✬ ✫ ✩ ✪ Um vetor x na base ortonormal {e1, e2, . . . , en} se escreve x = x1 x2 ... xn = x1e1 + x2e2 + · · ·+ xnen = In x1 x2 ... xn =⇒ se confunde com sua representac¸a˜o. Exemplo: Considere o conjunto dos polinoˆmios de grau menor do que 4. Base: e1 = s 3; e2 = s 2; e3 = s; e4 = 1 Se x = s3 + 4s2 − 4s+ 10, enta˜o x = [ e1 e2 e3 e4 ] 1 4 −4 10 , [ 1 4 −4 10 ]′ e´ a representac¸a˜o de x na base escolhida. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 13 ✬ ✫ ✩ ✪ Mudanc¸a de Base Se β e β¯ sa˜o as representac¸o˜es de um vetor x ∈ Rn em relac¸a˜o a`s bases {e1, e2, . . . , en} e {e¯1, e¯2, . . . , e¯n}, enta˜o x = [ e1 e2 · · · en ] β = [ e¯1 e¯2 · · · e¯n ] β¯ → representar ei em termos de {e¯1, e¯2, . . . , e¯n} ou vice-versa. Seja pi = p1i p2i ... pni a representac¸a˜o de ei na base {e¯1, e¯2, . . . , e¯n}: ei = [ e¯1 e¯2 · · · e¯n ] p1i p2i ... pni � Epi , i = 1, 2, . . . , n EEL 6001: Teoria de Sistemas Lineares I algebra.tex 14 ✬ ✫ ✩ ✪ Usando notac¸a˜o matricial [ e1 e2 · · · en ] = [ Ep1 Ep2 · · · Epn ] = E [ p1 p2 · · · pn ] = [ e¯1 e¯2 · · · e¯n ] p11 p12 · · · p1n p21 p22 · · · p2n ... ... . . . ... pn1 pn2 · · · pnn � [ e¯1 e¯2 · · · e¯n ] P x = [ e¯1 e¯2 · · · e¯n ] Pβ = [ e¯1 e¯2 · · · e¯n ] β¯ Como a representac¸a˜o e´ u´nica: β¯ = Pβ Analogamente, representando e¯i na base {e1, e2, . . . , en}, obte´m-se β = Qβ¯ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 15 ✬ ✫ ✩ ✪ → conhecida a representac¸a˜o de um vetor numa base, a representac¸a˜o em outra base pode ser automaticamente determinada: β¯ = Pβ = PQβ¯ , ∀β¯ PQ = I → P = Q−1 Exemplo: polinoˆmios de grau menor do que 4. Base: e¯1 = s 3 − s; e¯2 = s2 − s; e¯3 = s− 1; e¯4 = 1 Se x = s3 + 4s2 − 4s+ 10, enta˜o x = [ e¯1 e¯2 e¯3 e¯4 ] 1 4 1 11 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 16 ✬ ✫ ✩ ✪ Operadores lineares Transformac¸a˜o Linear Uma func¸a˜o f : X → Y e´ um operador linear se f(α1x1 + α2x2) = α1f(x1) + α2f(x2) para quaisquer escalares α1, α2 e x1, x2 ∈ X . y = f(x) ; x ∈ X (domı´nio) , y ∈ Y (range) Exemplo: Seja g uma func¸a˜o cont´ınua sobre [0, T ]. A transformac¸a˜o y(t) = ∫ T 0 g(t− τ)x(τ)dτ e´ linear, levando do espac¸o das func¸o˜es cont´ınuas no intervalo [0, T ] para o mesmo espac¸o. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 17 ✬ ✫ ✩ ✪ Teorema: Sejam X e Y espac¸os lineares de dimensa˜o n e m, respectivamente. Sejam {x1, x2, . . . , xn} vetores LI de X . Enta˜o, o operador linear L : X → Y e´ unicamente determinado pelos n pares yi = L(xi), i = 1, 2, . . . , n. Ale´m disso, com relac¸a˜o a` base {x1, x2, . . . , xn} de X e a` base {u1, u2, . . . , um} de Y , L pode ser representado por uma matriz A m× n. A i-e´sima coluna de A e´ a representac¸a˜o de yi na base {u1, u2, . . . , um}. Prova: Como L e´ linear, L(x) = L(α1x1 + α2x2 + · · ·+ αnxn) = α1L(x1) + α2L(x2) + · · ·+ αnL(xn) = α1y1 + α2y2 + · · ·+ αnyn Seja a1i a2i ... ami a representac¸a˜o de yi na base {u1, . . . , um} yi = [ u1 u2 · · · um ] a1i a2i ... ami , i = 1, 2, . . . , n EEL 6001: Teoria de Sistemas Lineares I algebra.tex 18 ✬ ✫ ✩ ✪ Neste caso, L( [ x1 x2 · · · xn ] ) = [ y1 y2 · · · yn ] = [ u1 u2 · · · um ] a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn � [ u1 u2 · · · um ] A Em relac¸a˜o a`s bases {x1, x2, . . . , xn} e {u1, u2, . . . , um}, y = L(x)[ u1 u2 · · · um ] β = L( [ x1 x2 · · · xn ] α) = [ u1 u2 · · · um ] Aα =⇒ β = Aα Para se descrever a transformac¸a˜o, na˜o ha´ diferenc¸a entre especificar x, y ou α, β. E´ claro que A (representac¸a˜o da transformac¸a˜o linear) depende das bases escolhidas. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 19 ✬ ✫ ✩ ✪ Transformac¸a˜o de Similaridade Considere a transformac¸a˜o linear L : X → Y , com a mesma base para o domı´nio X e o range Y . {e1, e2, . . . , en} → A , {e¯1, e¯2, . . . , e¯n} → A¯ x L y (= L(x))[ e1 · · · en ] α [ e¯1 · · · e¯n ] α¯ β (= Aα) β¯ (= A¯α¯) A A¯ PP Q Q = P−1 β¯ = A¯α¯ ; β¯ = Pβ = PAα = PAP−1α¯ =⇒ A¯α¯ = PAP−1α¯ , ∀α EEL 6001: Teoria de Sistemas Lineares I algebra.tex 20 ✬ ✫ ✩ ✪ A¯ = PAP−1 = Q−1AQ A = P−1A¯P = QA¯Q−1 =⇒ Q = P−1 A, A¯ : matrizes similares PAP−1, P−1A¯P : Transformac¸o˜es de Similaridade Todas as representac¸o˜es de um operador linear sa˜o similares. Uma matriz A ∈ Rn×n pode ser vista como a representac¸a˜o de um operador linear ou como o operador linear propriamente dito. Exemplo de transformac¸a˜o linear: A transformac¸a˜o que rotaciona um ponto no plano de 90o no sentido anti-hora´rio x1 x2 = y1 x3 y2 y3 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 21 ✬ ✫ ✩ ✪ Em relac¸a˜o a` base {x1, x2} y1 = L(x1) = [ x1 x2 ] 0 1 y2 = L(x2) = [ x1 x2 ] −1 0 Portanto, A = 0 −1 1 0 A representac¸a˜o de y3 com relac¸a˜o a` base {x1, x2} e´ β = Aα = 0 −1 1 0 1.5 0.5 = −0.5 1.5 1.5 0.5 e´ a representac¸a˜o de x3 na base {x1, x2} EEL 6001: Teoria de Sistemas Lineares I algebra.tex 22 ✬ ✫ ✩ ✪ Matriz como Operador Linear Seja a func¸a˜o linear L : Rn → Rn descrita pela matriz A ∈ Rn×n y = L(x) = A(α1x1 + α2x2 + · · ·+ αnxn) = α1Ax1 + α2Ax2 + · · ·+ αnAxn =⇒ yi = Axi, i = 1 · · ·n Na base ortonormal, xi = ei e, portanto, yi = Aei = ai (i-e´sima coluna de A) que coincide com sua representac¸a˜o na base ortonormal unita´ria (representac¸a˜o de A = A) Exemplo A = 3 2 −1 −2 1 0 4 3 1 ; b = 0 0 1 Considere os vetores {b, Ab, A2b} (sa˜o LI): Ab = −1 0 1 ; A2b = −4 2 −3 ; A3b = −5 10 −13 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 23 ✬ ✫ ✩ ✪ A¯ e´ a representac¸a˜o de A na base {b, Ab, A2b}: A(b) = [ b Ab A2b ] 0 1 0 A(Ab) = [ b Ab A2b ] 0 0 1 A(A2b) = [ b Ab A2b ] 17 −15 5 =⇒ A¯ = 0 0 17 1 0 −15 0 1 5 (Forma Companheira) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 24 ✬ ✫ ✩ ✪ Representac¸a˜o de A ∈ Rn×n na base {q1, q2, . . . , qn} A¯ = Q−1AQ ; Q � [ q1 q2 · · · qn ] i-e´sima coluna de Q: =⇒ representac¸a˜o de qi na base ortonormal {e1, . . . , en} = qi A¯ = Q−1AQ → QA¯ = AQ ou, como Q = [ q1 q2 · · · qn ] , [ q1 q2 · · · qn ] A¯ = [ Aq1 Aq2 · · · Aqn ] a¯i e´ a i-e´sima coluna de A¯, representac¸a˜o de Aq i na base {q1, . . . , qn}. Uma escolha adequada da base {q1, q2, . . . , qn} pode levar a representac¸o˜es importantes. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 25 ✬ ✫ ✩ ✪ Seja A ∈ Rn×n. Se existir um vetor b ∈ Rn×1 tal que o conjunto de n vetores {b, Ab, A2b, . . . , An−1b} seja linearmente independente e se An = β1b+ β2Ab+ · · ·+ βnAn−1b enta˜o a representac¸a˜o de A na base {b, Ab, A2b, . . . , An−1b} e´ dada por (forma companheira) A¯ = 0 0· · · 0 β1 1 0 · · · 0 β2 0 1 · · · 0 β3 ... ... . . . ... ... 0 0 · · · 0 βn−1 0 0 · · · 1 βn EEL 6001: Teoria de Sistemas Lineares I algebra.tex 26 ✬ ✫ ✩ ✪ Ortonormalizac¸a˜o Um vetor x esta´ normalizado se sua norma Euclidiana e´ igual a 1, ou seja, x′x = 1. Dois vetores x1 e x2 sa˜o ortogonais se x ′ 1x2 = x ′ 2x1 = 0. Um conjunto de vetores {x1, x2, . . . , xn} e´ ortonormal se x′ixj = 0 se i �= j1 se i = j Dado um conjunto de vetores LI {x1, x2, . . . , xn}, pode-se obter um conjunto de vetores ortonormais atrave´s do procedimento de ortonormalizac¸a˜o de Schmidt: u1 = x1 q1 = u1/‖u1‖ u2 = x2 − (q′1x2)q1 q2 = u2/‖u2‖ ... ... un = xn − n−1∑ k=1 (q′kxn)qk qn = un/‖un‖ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 27 ✬ ✫ ✩ ✪ A primeira equac¸a˜o apenas normaliza o vetor x1 Na segunda equac¸a˜o, (q′1x2)q1 e´ a projec¸a˜o do vetor x2 ao longo de q1, e x2 − (q′1x2)q1 e´ necesssariamente ortogonal ao vetor q1. x1 = u1 x2 q1 q2 u2 Se um conjunto de vetores u1, u2, . . . , un e´ ortonormal enta˜o U � [ u1 u2 · · · un ] ; U ′U = In EEL 6001: Teoria de Sistemas Lineares I algebra.tex 28 ✬ ✫ ✩ ✪ Propriedades: Se y = Ux, enta˜o n∑ i=1 y2i = n∑ i=1 x2i , ou ‖y‖2 = ‖Ux‖2 = (Ux)′(Ux) = x′U ′Ux = x′x = ‖x‖2 Em outras palavras, y = Ux e´ um mapeamento isome´trico (a multiplicac¸a˜o por U na˜o altera a norma) Se y = Ux e y˜ = Ux˜ enta˜o 〈 y, y˜ 〉 = 〈 x, x˜ 〉 (a multiplicac¸a˜o por U na˜o altera o produto interno) pois 〈 y, y˜ 〉 = 〈 Ux, Ux˜ 〉 = (Ux)′(Ux˜) = x′U ′Ux = 〈 x, x˜ 〉 e tambe´m na˜o altera o aˆngulo ∠ 〈 y, y˜ 〉 = ∠ 〈 x, x˜ 〉 Se U e´ ortonormal, a transformac¸a˜o linear y = Ux preserva a norma dos vetores ‖Ux‖ = ‖x‖ e preserva o aˆngulo entre vetores ∠ 〈 Ux, Ux˜ 〉 = ∠ 〈 x, x˜ 〉 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 29 ✬ ✫ ✩ ✪ Exemplos: Transformac¸o˜es de rotac¸a˜o ou reflexa˜o de vetores (de fato, toda matriz ortogonal descreve ou uma rotac¸a˜o ou uma reflexa˜o). • No R2, a transformac¸a˜o que roda um vetor (sentido anti-hora´rio) de θ e´ dada por y = Uθx ; Uθ = cos θ − sin θ sin θ cos θ e1 e2 u1u2 θ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 30 ✬ ✫ ✩ ✪ • A reflexa˜o de um vetor na reta x2 = x1 tan( θ2) e´ dada por y = Rθx ; Rθ = cos θ sin θ sin θ − cos θ e1 e2 u1 u2 θ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 31 ✬ ✫ ✩ ✪ O procedimento de ortonormalizac¸a˜o pode ser descrito como uma transformac¸a˜o linear. Considere a matriz X formada pelos vetores linearmente independentes {x1, x2, . . . , xn} X = [ x1 x2 · · · xn ] Deseja-se determinar uma matriz F tal que [ q1 q2 · · · qn ] � Q = XF A condic¸a˜o de que os vetores {q1, q2, . . . , qn} sejam ortonormais pode ser escrita na forma Q′Q = I =⇒ F ′RF = I ; R � X ′X Sistema com n(n+ 1)/2 restric¸o˜es e n2 inco´gnitas (n(n− 1)/2 elementos de F sa˜o arbitra´rios) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 32 ✬ ✫ ✩ ✪ • Uma soluc¸a˜o particular pode ser obtida pela fatorizac¸a˜o de Cholesky da matriz R, que produz uma matriz triangular superior L tal que R = L′L. Assim, F ′RF = F ′L′LF = (LF )′(LF ) = I e F = L−1 aparece como soluc¸a˜o o´bvia. • A fatorizac¸a˜o de Schur aplicada a` matriz R produz uma matriz unita´ria V e uma matriz diagonal Ω composta pelos autovalores de R tal que R = V ΩV ′, sugerindo como soluc¸a˜o F = V Ω−0.5V ′ � R−0.5 A escolha da transformac¸a˜o F que ortonormaliza X pode ser ditada por algum crite´rio espec´ıfico. Por exemplo, o objetivo pode ser encontrar Q soluc¸a˜o do problema min Tr (X −Q)′(X −Q) sujeito a Q′Q = I que equivale a minimizar a norma (ao quadrado) de xi − qi, i = 1, . . . , n. Com isso, busca-se uma transformac¸a˜o que tente preservar o ma´ximo poss´ıvel os vetores originais. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 33 ✬ ✫ ✩ ✪ Re-escrevendo em termos de F : min Tr (X −XF )′(X −XF ) sujeito a F ′X ′XF = I Desenvolvendo os termos que compo˜em a func¸a˜o objetivo min Tr(X ′X + F ′X ′XF − F ′X ′X −X ′XF ) sujeito a F ′X ′XF = I Substituindo a restric¸a˜o e lembrando que os termos constantes na func¸a˜o objetivo na˜o influenciam na soluc¸a˜o F : min Tr (−F ′X ′X −X ′XF ) = max Tr (2X ′XF ) sujeito a F ′X ′XF = I EEL 6001: Teoria de Sistemas Lineares I algebra.tex 34 ✬ ✫ ✩ ✪ Procedimentos cla´ssicos para resolver problemas de otimizac¸a˜o com restric¸o˜es podem ser usados. • Escrevendo a func¸a˜o Lagrangeano L (F,Λ) (onde Λ e´ a varia´vel dual sime´trica associada a` restric¸a˜o original do problema) L (F,Λ) = Tr [ 2X ′XF + Λ(F ′X ′XF − I) ] As condic¸o˜es de estacionariedade sa˜o dadas por ∂L ∂F = 2(R +RΛF ) = 2R(I+ ΛF ) = 0 ∂L ∂Λ = (F ′X ′XF − I) = 0 Resolvendo em termos de F e de Λ: F = −Λ−1 =⇒ (−Λ−1)X ′X(−Λ−1) = I =⇒ X ′X = Λ2 Λ = +(X ′X)0.5 −(X ′X)0.5 =⇒ F = −(X ′X)−0.5 +(X ′X)−0.5 A func¸a˜o objetivo original e´ dada por min Tr (−2X ′XF ) = max Tr (2X ′XF ) e o o´timo e´ obtido para F = (X ′X)−0.5. • Note que a soluc¸a˜o F = −(X ′X)−0.5 fornece a mesma base ortonormalizada Q (apenas trocando o sinal dos vetores) e pode ser interpretada como a transformac¸a˜o F que maximiza a diferenc¸a entre as normas (ao quadrado) dos vetores de cada base. A soluc¸a˜o o´tima deste problema de otimizac¸a˜o e´ a mesma obtida pela decomposic¸a˜o de Schur. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 35 ✬ ✫ ✩ ✪ Exemplo: considere os vetores LI x1 = 1 1 1 , x2 = 1 2 3 , x3 = 0 1 −1 X � [ x1 x2 x3 ] Procedimento interativo: u1 = x1 ; q1 = u1 ‖u1‖ = 1√ 3 1 1 1 = 0.5774 0.5774 0.5774 u2 = x2 − (u′1x2)u1 ; q2 = u2 ‖u2‖ = −0.7071 0.0000 0.7071 u3 = x3 − (u′2x3)u2 − (u′1x3)u1 ; q3 = u3 ‖u3‖ = −0.4082 0.8165 −0.4082 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 36 ✬ ✫ ✩ ✪ Usando Cholesky na matriz R = X ′X: L = chol(R) = 1.7321 3.4641 0 0 1.4142 −0.7071 0 0 1.2247 , L′L = R Q = XL−1 = [ u1 u2 u3 ] Q′Q = I [Q,L] = qr(X) (decomposic¸a˜o triangular ortonormal) Usando Schur: [V,Ω] = schur(R) , R−0.5 = V Ω−0.5V ′ Q2 = XR −0.5 = 0.9908 −0.0890 −0.1021 0.1348 0.5758 0.8064 0.0130 0.8127 −0.5825 Q′2Q2 = I EEL 6001: Teoria de Sistemas Lineares I algebra.tex 37 ✬ ✫ ✩ ✪ Exemplo: considere os vetores LI no plano x1, x2 X = [ x1 x2 ] = 1 2 3 0.5 Schmidt: Q = [ q1 q2 ] = 0.32 0.95 0.95 −0.32 Schur: U = [ u1 u2 ] = 0.1 1 1 −0.1 x1 x2 q1 q2 u1 u2 −u1 −u2 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 38 ✬ ✫ ✩ ✪ Sistema de equac¸o˜es alge´bricas lineares a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn x1 x2 ... xn = y1 y2 ... ym (Ax = y) A (m× n) , x (n× 1) , y (m× 1) aij, yi ∈ R : dados do sistema; xi ∈ R : inco´gnitas Treˆs situac¸o˜es: m > n, m = n ou m < n • Problema: dados A e y 1. ∃x : Ax = y? 2. Se existe soluc¸a˜o, qual o nu´mero de soluc¸o˜es LI? Range da matriz A ∈ Rm×n e´ definido como o conjunto de todas as poss´ıveis combinac¸o˜es lineares das colunas de A R(A) � { y = Ax : x∈ Rn } ⊆ Rm EEL 6001: Teoria de Sistemas Lineares I algebra.tex 39 ✬ ✫ ✩ ✪ Rank da matriz A ∈ Rm×n e´ definido como a dimensa˜o do range de A (ou, equivalentemente, como o nu´mero de colunas LI em A) e denotado ρ(A). Espac¸o nulo da matriz A consiste no conjunto de vetores x ∈ Rn tais que Ax = 0. A dimensa˜o do espac¸o nulo e´ chamada de nulidade da matriz A e denotada ν(A). N (A) � { x ∈ Rn : Ax = 0 } Note que y = Ax pode ser escrito y = x1a1 + x2a2 + · · ·+ xnan e portanto xi ∈ R, i = 1, . . . , n sa˜o as ponderac¸o˜es das colunas de A = [ a1 a2 · · · an ] EEL 6001: Teoria de Sistemas Lineares I algebra.tex 40 ✬ ✫ ✩ ✪ Propriedades • Para A ∈ Rm×n ν(A) = n− ρ(A) rank A = nu´mero de colunas LI de A = nu´mero de linhas LI de A ≤ min (n,m) • N (A) e R(A) sa˜o espac¸os lineares; (N (A) e´ um subespac¸o do Rn e R(A) e´ um subespac¸o do Rm) • Se ν(A) = 0, N (A) = {0} e as seguintes afirmac¸o˜es sa˜o equivalentes: · x pode ser determinado de maneira u´nica de y = Ax · colunas de A sa˜o LI · det(A′A) �= 0 • Se ν(A) = k, Ax = 0 possui k soluc¸o˜es LI EEL 6001: Teoria de Sistemas Lineares I algebra.tex 41 ✬ ✫ ✩ ✪ Exemplo: Considere a matriz A ∈ R3×5 dada por A = 0 1 1 2 −1 1 2 3 4 −1 2 0 2 0 2 = [ a1 a2 a3 a4 a5 ] Ax = x1 0 1 2 + x2 1 2 0 + x3 1 3 2 + x4 2 4 0 + x5 −1 −1 2 a3 = a1 + a2 ; a4 = 2a2 a5 = a3 − a4 = a1 + a2 − 2a2 = a1 − a2 Ax = (x1 + x3 + x5) 0 1 2 + (x2 + x3 + 2x4 − x5) 1 2 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 42 ✬ ✫ ✩ ✪ Como a1, a2 sa˜o LI =⇒ ρ(A) = 2 Ax = 0 ⇐⇒ x1 + x3 + x5 = 0x2 + x3 + 2x4 − x5 = 0 Nu´mero de Equac¸o˜es = ρ(A) = 2 Nu´mero de Inco´gnitas = 5 Nu´mero de Graus de Liberdade = 3 Poss´ıveis soluc¸o˜es LI: v1 = −1 −1 1 0 0 ; v2 = 0 −2 0 1 0 , v3 = −1 1 0 0 1 {v1, v2, v3} formam uma base de N (A) ; ν(A) = 3 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 43 ✬ ✫ ✩ ✪ Teorema • Dada uma matriz A ∈ Rm×n e um vetor y ∈ Rm×1, existe uma soluc¸a˜o x ∈ Rn×1 da equac¸a˜o y = Ax se e somente se y ∈ R(A) ou, equivalentemente, ρ(A) = ρ( [ A y ] ) • Dada uma matriz A, uma soluc¸a˜o x de y = Ax existe para todo y se e somente se ρ(A) = m (rank completo de linhas). Teorema (parametrizac¸a˜o de todas as soluc¸o˜es) • Dada uma matriz A ∈ Rm×n e um vetor y ∈ Rm×1, seja xp uma soluc¸a˜o x ∈ Rn×1 da equac¸a˜o y = Ax e seja k = n− ρ(A) = ν(A) a nulidade de A. Se ρ(A) = n (rank completo de colunas) a soluc¸a˜o xp e´ u´nica. Se k > 0, enta˜o para todo αi ∈ R, i = 1, . . . , k o vetor x = xp + α1n1 + α2n2 + · · ·+ αknk sendo {n1, . . . , nk} uma base de N (A) e´ uma soluc¸a˜o de Ax = y. De fato, Axp + k∑ i=1 αiAni = Axp + 0 = y EEL 6001: Teoria de Sistemas Lineares I algebra.tex 44 ✬ ✫ ✩ ✪ Desigualdade de Sylvester: para A ∈ Rq×n e B ∈ Rn×p ρ(A) + ρ(B)− n ≤ ρ(AB) ≤ min (ρ(A), ρ(B)) p ρ(B) N (B) R(B) n d ρ(A) ν(A) N (A) R(A)}R(AB)q AB ν(B) R p R n R q • domı´nio de AB = R(B); • R(AB) = subespac¸o de R(A); • ρ(AB) ≤ min (ρ(A), ρ(B)); • ρ(AB) = ρ(B)− d ; ν(A) = n− ρ(A) ⇒ d ≤ n− ρ(A); • ρ(AB) ≥ ρ(A) + ρ(B)− n Se B e´ uma matriz n× n na˜o singular ρ(A) + ρ(B)− n = ρ(A) ≤ ρ(AB) ≤ min (ρ(A), n) ≤ ρ(A) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 45 ✬ ✫ ✩ ✪ Seja A ∈ Rm×n. Enta˜o ρ(AC) = ρ(A) ; ρ(DA) = ρ(A) para quaisquer matrizes C ∈ Rn×n e D ∈ Rm×m na˜o singulares. • O rank de uma matriz na˜o se altera ao ser pre´ ou po´s-multiplicada por uma matriz na˜o singular. Seja A ∈ Cm×n e A∗ sua conjugada transposta. Enta˜o, • ρ(A) = n ⇐⇒ ρ(A∗A) = n ; det(A∗A) �= 0 • ρ(A) = m ⇐⇒ ρ(AA∗) = m ; det(AA∗) �= 0 A∗A n× n ; AA∗ m×m Observe que ρ(A) = n implica • n ≤ m • Aα = 0 ⇒ α = 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 46 ✬ ✫ ✩ ✪ Inversa Se A ∈ Rn×n (matriz quadrada), A e´ invers´ıvel ou na˜o-singular se det(A) �= 0. Condic¸o˜es equivalentes: • as colunas de A formam uma base para o Rn • as linhas de A formam uma base para o Rn • a equac¸a˜o y = Ax tem uma soluc¸a˜o u´nica x = A−1y para todo y ∈ Rn. Em particular, a u´nica soluc¸a˜o de Ax = nesse caso e´ x = 0 • AA−1 = A−1A = I • N (A) = {0} • R(A) = Rn • det(A′A) = det(AA′) �= 0 A−1 = 1 det(A) Adj (A) Adj (A): matriz adjunta da matriz A Adj (A) = [Co (A)]′ Co (A): matriz cofatora de A, composta pelos cofatores Cij da matriz A. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 47 ✬ ✫ ✩ ✪ Considere o sistema y = Ax com A ∈ Rm×n e m > n (matriz retangular em pe´), isto e´, o sistema tem mais equac¸o˜es do que inco´gnitas (pode na˜o ter soluc¸a˜o). Soluc¸a˜o aproximada: define-se um erro e = Ax− y e busca-se a soluc¸a˜o xa que minimiza ‖e‖, chamada soluc¸a˜o aproximada de mı´nimos quadrados de Ax = y. xa e´ o ponto no R(A) que esta´ mais pro´ximo de y, ou seja, Axa e´ a projec¸a˜o de y no R(A). min ‖e‖2 = min (Ax− y)′(Ax− y) Derivando-se a func¸a˜o objetivo (em relac¸a˜o a x) e igualando a 0 2x′A′A− 2y′A = 0 Assumindo que A tem rank completo (e portanto A′A e´ invers´ıvel) xa = (A ′A)−1A′y EEL 6001: Teoria de Sistemas Lineares I algebra.tex 48 ✬ ✫ ✩ ✪ Note que xa e´ uma func¸a˜o linear de y, e xa = A −1y se A e´ quadrada. xa e´ a soluc¸a˜o exata de y = Ax se y ∈ R(A). A† � (A′A)−1A′ e´ chamada de pseudo-inversa de A A projec¸a˜o de y no R(A) e´ linear, dada por Axa = A(A′A)−1A′y e A(A′A)−1A′ e´ chamada matriz de projec¸a˜o. O erro e = Axa − y = [ A(A′A)−1A′ − I ] y e´ ortogonal ao R(A): 〈 e, Ax 〉 = y′ [ A(A′A)−1A′ − I ]′ Ax = 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 49 ✬ ✫ ✩ ✪ Estimador Mı´nimos Quadrados Muitos problemas de reconstruc¸a˜o, inversa˜o ou estimac¸a˜o podem ser colocados na forma y = Ax+∆ onde x e´ o vetor a ser estimado ou reconstru´ıdo; y e´ o vetor de medidas e ∆ e´ o vetor de ru´ıdos ou erros de medida. Problema: encontre a estimativa xˆ que minimiza a diferenc¸a entre os valores medidos y e o que deveria ser obtido se ∆ = 0. Soluc¸a˜o: xˆ = (A′A)−1A′y Considere o sistema y = Ax com A ∈ Rm×n e m < n (matriz retangular deitada), isto e´, o sistema tem mais varia´veis do que equac¸o˜es (va´rias escolhas de x podem levar ao mesmo y). Assumindo que A tem rank completo de linhas m, o conjunto de todas as soluc¸o˜es tem a forma { x : Ax = y } = { xp + z : z ∈ N (A) } sendo xp uma soluc¸a˜o particular qualquer. Os vetores z do espac¸o nulo de A caracterizam as va´rias soluc¸o˜es para o problema (N (A) = n−m graus de liberdade). Uma soluc¸a˜o (de mı´nima norma) e´ dada por xm = A ′(AA′)−1y (como A tem rank completo de linhas, AA′ e´ invers´ıvel). De fato, para qualquer outra soluc¸a˜o x tem-se A(x−mm) = 0 e (x− xm)′xm = (x− xm)′A′(AA′)−1y = = [ A(x− xm) ]′ (AA′)−1y = 0 =⇒ (x− xm) ⊥ xm ‖x‖2 = ‖xm + x− xm‖2 = ‖xm‖2 + ‖x− xm‖2 ≥ ‖xm‖2 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 50 ✬ ✫ ✩ ✪ A matriz A′(AA′)−1 e´ chamada de pseudo-inversa de A (rank completo de linhas). Note que xm e´ ortogonal a N (A) (xm e´ a projec¸a˜o de 0 no conjunto de soluc¸o˜es {x : Ax = y}). O mesmo resultado poderia ser obtido com multiplicadores de Lagrange. min x′x sujeito a Ax = y Introduzindo o multiplicador de Lagrande λ e escrevendo o Lagrangeano L (x, λ) = x′x+ λ′(Ax− y) As condic¸o˜es de otimalidadesa˜o ∂L ∂x = 2x′ + λ′A = 0 ∂L ∂λ = (Ax− y)′ = 0 =⇒ x = −A′λ/2 ; λ = −2(AA′)−1y =⇒ x = A′(AA′)−1y EEL 6001: Teoria de Sistemas Lineares I algebra.tex 51 ✬ ✫ ✩ ✪ Autovalores, autovetores. Formas de Jordan Um escalar λ ∈ C e´ um autovalor (valor pro´prio) de A ∈ Rn×n se existe um vetor x ∈ Cn na˜o nulo tal que Ax = λx Qualquer vetor x ∈ C que satisfac¸a Ax = λx e´ chamado de autovetor (vetor pro´prio) de A associado a λ (mais precisamente, esta e´ a definic¸a˜o para autovetores a` direita de A). • Ax = λx pode ser visto como (A− λI)x = 0 • ∃x ∈ Cn, x �= 0 : (A− λI)x = 0 ⇔ det(A− λI) = 0 • ∆(λ) � det(λI− A) : polinoˆmio (moˆnico) caracter´ıstico de A • ∆(λ) = 0 : equac¸a˜o caracter´ıstica de A • Grau de ∆(λ) = n e portanto A ∈ Rn×n possui n autovalores. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 52 ✬ ✫ ✩ ✪ Exemplo: Considere a matriz A A = a11 a12 a21 a22 ; A− λI = a11 − λ a12 a21 a22 − λ det (A− λI) = (λ− a11)(λ− a22)− a12a21 = λ2 − (a11 + a22)λ− (a12a21 − a11a22) = λ2 −Tr(A)λ+ det(A) det(A) = n∑ j=1 aijCoij ; Coij : cofator de aij Coij = (−1)i+jMij ; Mij : det de A sem a linha i e a coluna j EEL 6001: Teoria de Sistemas Lineares I algebra.tex 53 ✬ ✫ ✩ ✪ Note que λ ∈ C e´ um autovalor de A ∈ Rn×n se ∆(λ) = det(λI− A) = 0 Essa condic¸a˜o e´ equivalente a` existeˆncia de y ∈ C tal que y′A = λy′ =⇒ y′(λI− A) = 0 e qualquer y que satisfac¸a a relac¸a˜o acima e´ chamado de autovetor a` esquerda de A (associado ao autovalor λ). • Se v ∈ Cn e´ um autovetor associado a λ ∈ C, enta˜o v¯ (complexo conjugado de v) e´ um autovetor associado a λ¯. • Se v e´ um autovetor de A, a transformac¸a˜o linear A aplicada sobre v produz um escalonamento de λ (na direc¸a˜o v). • Matrizes na forma companheira 0 0 0 −α4 1 0 0 −α3 0 1 0 −α2 0 0 1 −α1 ; −α1 −α2 −α3 −α4 1 0 0 0 0 1 0 0 0 0 1 0 e suas transpostas teˆm o seguinte polinoˆmio caracter´ıstico: ∆(λ) = λ4 + α1λ 3 + α2λ 2 + α3λ+ α4 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 54 ✬ ✫ ✩ ✪ Autovalores distintos Teorema: Sejam λ1, λ2, . . . , λn autovalores distintos de A e vi um autovetor de A associado ao autovalor λi, i = 1, 2, . . . , n. Enta˜o, o conjunto de autovetores {v1, v2, . . . , vn} e´ LI. Prova: Primeiramente, note que (A− λjI)vi = (λi − λj)vi , j �= i= 0 , j = i Supondo (por absurdo) que {v1, v2, . . . , vn} e´ LD, existem escalares α1, α2, . . . , αn na˜o todos nulos tais que n∑ i=1 αivi = 0 Sem perda de generalidade, assuma α1 �= 0. Enta˜o, (A− λnI) n∑ i=1 αivi = n−1∑ i=1 αi(λi − λn)vi (A− λn−1I)(A− λnI) n∑ i=1 αivi = n−2∑ i=1 αi(λi − λn)(λi − λn−1)vi ... α1(λ1 − λ2)(λ1 − λ3) · · · (λ1 − λn)v1 = 0 Como λi �= λj, j = 2, 3, . . . , n, α1 = 0, o que contradiz a hipo´tese inicial. Como conclusa˜o, {v1, v2, . . . , vn} LI → Base do Cn EEL 6001: Teoria de Sistemas Lineares I algebra.tex 55 ✬ ✫ ✩ ✪ Forma Diagonal Seja A¯ a representac¸a˜o de A na base formada pelos autovetores {v1, v2, . . . , vn}. A i-e´sima coluna de A¯ = representac¸a˜o de Avi = λivi na base {v1, v2, . . . , vn}. Enta˜o, Avi = [ v1 v2 · · · vi · · · vn ] 0 0 ... λi ... 0 A¯ = λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λn = Q −1AQ Q = [ v1 v2 · · · vn ] =⇒ Existe uma representac¸a˜o diagonal se todos os autovalores de A sa˜o distintos. • Q define uma transformac¸a˜o de similaridade que diagonaliza a matriz A • Portanto, se Q = [ v1 v2 · · · vn ] e´ tal que A¯ = Q−1AQ e´ uma matriz diagonal, enta˜o AQ = QA¯ =⇒ Avi = λivi , i = 1 · · ·n e {v1, v2, . . . vn} sa˜o autovetores LI de A. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 56 ✬ ✫ ✩ ✪ Exemplo A = 1 0 −1 0 2 0 0 0 3 , λ1 = 1, λ2 = 2, λ3 = 3 (A− λ1I)v1 = 0 0 0 −1 0 1 0 0 0 2 v11 v21 v31 = 0 −v31 = 0 v21 = 0 2v31 = 0 → v1 = 1 0 0 (A− λ2I)v2 = 0 −1 0 −1 0 0 0 0 0 1 v12 v22 v32 = 0 −v12 − v32 = 0 v32 = 0 → v2 = 0 1 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 57 ✬ ✫ ✩ ✪ (A− λ3I)v3 = 0 −2 0 −1 0 −1 0 0 0 0 v13 v23 v33 = 0 −2v13 − v33 = 0 −v23 = 0 → v13 = −0.5v33 ; v3 = −0.5 0 1 {v1, v2, v3} sa˜o LI A¯ = 1 0 0 0 2 0 0 0 3 , Q = [ v1 v2 v3 ] Considere entretanto A = 1 0 −1 0 1 0 0 0 2 , λ1 = λ2 = 1, λ3 = 2 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 58 ✬ ✫ ✩ ✪ (A− λ1I)v1 = 0 =⇒ 0 0 −1 0 0 0 0 0 1 v11 v21 v31 = 0 Soluc¸o˜es LI: v1 = 1 0 0 , v2 = 0 1 0 (A− λ3I)v3 = 0 =⇒ −1 0 −1 0 −1 0 0 0 0 v13 v23 v33 = 0 ; v3 = −1 0 1 , Q = [ v1 v2 v3 ] • Multiplicidade Geome´trica (MG) de λ1 : 2 (nu´mero de soluc¸o˜es LI associadas ao autovalor) • No caso geral, tem-se: Multiplicidade Geome´trica (MG) ≤ Multiplicidade Alge´brica (MA) • Se a Multiplicidade Geome´trica for menor que a Multiplicidade Alge´brica, enta˜o na˜o e´ poss´ıvel determinar autovetores {v1, v2, v3} LI. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 59 ✬ ✫ ✩ ✪ Autovalores complexos Considere a matriz A = −1 1 1 0 4 −13 0 1 0 Polinoˆmio caracter´ıstico: (λ+ 1)(λ2 − 4λ+ 13) Autovalores: −1, 2 + j3 e 2− j3 Note que autovalores complexos sempre aparecem em pares complexo conjugados para matrizes com coeficientes reais. Autovetores: 1 0 0 ; j −3 + j2 j ; −j −3− j2 −j EEL 6001: Teoria de Sistemas Lineares I algebra.tex 60 ✬ ✫ ✩ ✪ Q = 1 j −j 0 −3 + j2 −3− j2 0 j −j ; A¯ = −1 0 0 0 2 + j3 0 0 0 2− j3 • Para autovalores na˜o distintos, nem sempre e´ poss´ıvel obter A¯ na forma diagonal: A = 5 1 0 5 , λ1 = λ2 = 5 , MA = 2 (A− λ1I)v1 = 0 ⇒ 0 1 0 0 v11 v21 = 0 v1 = 1 0 MG = 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 61 ✬ ✫ ✩ ✪ Forma Canoˆnica de Jordan Define-se como Jk(λ) o bloco de Jordan de dimensa˜o k × k associado ao autovalor λ, dado por Jk(λ) = λ 1 0 · · · 0 0 λ 1 · · · 0 ... ... ... . . . ... 0 0 0 · · · 1 0 0 0 · · · λ ∈ Ck×k Para qualquer matriz A ∈ Rn×n existe uma matriz na˜o singular Q tal que A¯ = Q−1AQ = Jk1(λ1) Jk2(λ2) . . . Jkr(λr) k1 + · · ·+ kr = n sendo que A tem r autovalores distintos λ1, . . . , λr entre n poss´ıveis. Associados aos r autovalores distintos, pode-se determinar r autovetores LI {v1, v2, . . . , vr} a partir de (A− λiI)vi = 0 , i = 1, 2, . . . , r • A¯ e´ em geral bidiagonal superior, sendo diagonal no caso de n blocos de Jordan de tamanho k = 1 • A forma de Jordan e´ u´nica para uma dada matriz A (salvo eventuais permutac¸o˜es entre os blocos) • Pode haver mu´ltiplos blocos associados ao mesmo autovalor EEL 6001: Teoria de Sistemas Lineares I algebra.tex 62 ✬ ✫ ✩ ✪ Os autovetores associados ao bloco de Jordan Jki(λi) verificam: [ vi1 vi2 · · · viki ] λi 1 0 · · · 0 0 λi 1 · · · 0 ... ... ... . . . ... 0 0 0 · · · 1 0 0 0 · · · λi = A [ vi1 vi2 · · · viki ] Definindo vi1 � vi (autovetor associado ao autovalor λi) tem-se λivi1 = Avi1 =⇒ (A− λiI)vi1 = 0 vi1 + λivi2 = Avi2 =⇒ (A− λiI)vi2 = vi1 ... vi(ki−1) + λiviki = Aviki =⇒ (A− λiI)viki = vi(ki−1) • Note que sempre existe vi1 �= 0 tal que (A− λiI)vi1 = 0 (definic¸a˜o de autovetor) • Da equac¸a˜o que define vi2 tem-se (A− λiI)(A− λiI)vi2 = (A− λiI)vi1 = 0 (A− λiI) 2vi2 = 0 (A− λiI)vi2 �= 0 =⇒ Autovetor Generalizado de λi v e´ um autovetor generalizado de grau 9 de A associado ao autovalor λ se (A− λI)�v = 0 (A− λI)�−1v �= 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 63 ✬ ✫ ✩ ✪ Note que um autovetor generalizado v de grau 1 satisfaz (A− λI)v = 0 ; v �= 0 e portanto e´ um autovetor. • O nu´mero de blocos de Jordan associados ao autovalor λ e´ dado por ν(A− λI) • A forma canoˆnica de Jordan e´ u´til do ponto de vista conceitual, na˜o sendo usada para ca´lculos computacionais. Exemplo A = 0 6 −5 1 0 2 3 2 4 ∆(λ) = λ3 − 4λ2 + 5λ− 2 = ; λ1 = 2 , λ2 = λ3 = 1 Autovetor associado ao autovalor λ1 = 2: (A− 2I)v1 = −2 6 −5 1 −2 2 3 2 2 v1a v1b v1c = 0 ; v1 = −2 1 2 Para o autovalor λ2 = 1: (A− 1I)v2 = −1 6 −5 1 −1 2 3 2 3 v2 = 0 Note que a 3a linha e´ igual a` 1a mais (4×)2a =⇒ ν(A− 1I) = 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 64 ✬ ✫ ✩ ✪ Portanto, existe 1 bloco de Jordan associado ao autovalor λ = 1; com isso, sabe-se que a forma de Jordan e´ dada por A¯ = Q−1AQ = 2 0 0 0 1 1 0 0 1 Um autovetor v2 pode ser obtido da expressa˜o acima: v2 = −1 3/7 5/7 A partir de v21 � v2 pode-se determinar o autovetor generalizado v22 (A− 1I)v22 = v21 ; v22 = −1 22/49 46/49 Q = [ v1 v21 v22 ] • “Ajuda” do Matlab e´ importante. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 65 ✬ ✫ ✩ ✪ Considere A ∈ R4×4 com um autovalor λ de multiplicidade alge´brica igual a 4. Assuma que ν(A− λI) = 1. Assim, (A− λI)v = 0 possui apenas uma soluc¸a˜o linearmente independente. Para formar uma base do R4, treˆs outros vetores LI sa˜o necessa´rios. Os treˆs vetores (autovetores generalizados) v2, v3 e v4 devem satisfazer as propriedades: (A− λI)2v2 = 0 (A− λI)3v3 = 0 (A− λI)4v4 = 0 A partir do autovetor v, a cadeia de autovetores generalizados de tamanho 4 pode ser gerada da seguinte forma: v4 � v v3 � (A− λI)v4 = (A− λI)v v2 � (A− λI)v3 = (A− λI)2v v1 � (A− λI)v2 = (A− λI)3v EEL 6001: Teoria de Sistemas Lineares I algebra.tex 66 ✬ ✫ ✩ ✪ Como pode ser verificado, valem as propriedades: (A− λI)v1 = 0, (A− λI)2v2 = 0, (A− λI)3v3 = 0 e (A− λI)4v4 = 0. Os vetores gerados dessa maneira sa˜o LI. Das equac¸o˜es, obte´m-se Av1 = λv1 Av2 = v1 + λv2 Av3 = v2 + λv3 Av4 = v3 + λv4 Forma de Jordan (representac¸a˜o na base {v1, v2, v3, v4}): A¯ = λ 1 0 0 0 λ 1 0 0 0 λ 1 0 0 0 λ • Se a ordem dos vetores da base for invertida, a representac¸a˜o passa a ser bidiagonal inferior. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 67 ✬ ✫ ✩ ✪ Considere agora A ∈ R4×4 com um autovalor λ de multiplicidade alge´brica igual a 4 mas ν(A− λI) = 2. Assim, (A− λI)v = 0 possui 2 soluc¸o˜es LI. Dois autovetores podem ser obtidos e n− 2 = 4− 2 = 2 autovetores generalizados sa˜o necessa´rios. A partir de cada um dos autovetores, gera-se uma cadeia de autovetores generalizados. As poss´ıveis formas de Jordan neste caso sa˜o: A¯1 = λ 1 0 0 0 λ 1 0 0 0 λ 0 0 0 0 λ ; A¯2 = λ 1 0 0 0 λ 0 0 0 0 λ 1 0 0 0 λ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 68 ✬ ✫ ✩ ✪ Exemplo A = 3 −1 1 1 0 0 1 1 −1 −1 0 0 0 0 2 0 1 1 0 0 0 2 −1 −1 0 0 0 0 1 1 0 0 0 0 1 1 Propriedade (A e C matrizes quadradas) det A B 0 C = detA detC ∆(λ) = det(A− λI) = [(3− λ)(1− λ) + 1] (2− λ)2 [(1− λ)2 − 1] = (2− λ)2(2− λ)2(2− λ)λ = (2− λ)5λ Autovalores: λ1 = 2, MA= 5 ; λ2 = 0, MA= 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 69 ✬ ✫ ✩ ✪ (A− 2I) = 1 −1 1 1 0 0 1 −1 −1 −1 0 0 0 0 0 0 1 1 0 0 0 0 −1 −1 0 0 0 0 −1 1 0 0 0 0 1 −1 ρ(A− 2I) = 4 ⇒ ν1 = ν(A− 2I) = 6− 4 = 2 → MG = 2 • A forma de Jordan apresenta dois blocos (MG=2) associados ao autovalor λ1 = 2 A = 3 −1 1 1 0 0 1 1 −1 −1 0 0 0 0 2 0 1 1 0 0 0 2 −1 −1 0 0 0 0 1 1 0 0 0 0 1 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 70 ✬ ✫ ✩ ✪ Q = 0 2 2 1 0 0 0 2 0 0 0 0 0 0 1 1 2 1 0 0 −1 0 −2 −1 0.5 0 0 0.5 0 1 −0.5 0 0 0.5 0 1 = [ x v1 v2 v3 u1 u2 ] • x, v1 e u1 sa˜o autovetores A¯ = Q−1AQ = 0 0 0 0 0 0 0 2 1 0 0 0 0 0 2 1 0 0 0 0 0 2 0 0 0 0 0 0 2 1 0 0 0 0 0 2 • Nem sempre e´ fa´cil determinar a cadeia de autovetores generalizados. Por exemplo, se v e´ autovetor, −v tambe´m e´, mas os autovetores generalizados podem ser diferentes Ax = v + λx ; Ay = −v + λy EEL 6001: Teoria de Sistemas Lineares I algebra.tex 71 ✬ ✫ ✩ ✪ Autovalores e Autovetores de Matriz Sime´trica Sejam λ1, λ2, . . . , λn autovalores de uma matriz sime´trica A ∈ Rn×n. • λi ∈ R, i = 1, . . . , n • Autovetores vi, vj associados a autovalores distintos λi �= λj sa˜o ortogonais, isto e´ 〈 vi, vj 〉 = v′ivj = 0 Para mostrar que os autovalores sa˜o reais, note que se λ ∈ C e´ um autovalor e v ∈ Cn e´ um autovetor gene´rico de A Av = λv ; v �= 0 =⇒ v∗Av = λv∗v Tomando o conjugado transposto da expressa˜o (escalar) acima e lembrando que A∗ = A (matriz sime´trica) (v∗Av)∗ = (v∗Av) = λ¯v∗v Subtraindo 0 = (λ− λ¯)v∗v =⇒ λ = λ¯ =⇒ λ ∈ R Para mostrar a ortogonalidade de autovetores associados a autovalores distintos: Avi = λivi =⇒ v′jAvi = λiv′jvi Avj = λjvj =⇒ v′iAvj = λjv′ivj Como o lado esquerdo das expresso˜es acima e´ igual (A = A′), subtraindo 0 = (λi − λj) 〈 vi, vj 〉 =⇒ vi ⊥ vj se λi �= λj A forma de Jordan de uma matriz sime´trica A ∈ Rn×n e´ diagonal. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 72 ✬ ✫ ✩ ✪ Para provar, mostra-se que na˜o existem autovetores generalizados de grau k ≥ 2. Suponha, por absurdo, que para algum λi (A− λiI)kv = 0 e (A− λiI)k−1v �= 0 (k ≥ 2) Entretanto, 〈 (A− λiI)k−2v, (A− λiI)kv 〉 = 0 Usando a simetria de A 〈 (A− λiI)k−1v, (A− λiI)k−1v 〉 = ‖(A− λiI)k−1v‖ = 0 ⇐⇒ (A− λiI)k−1v = 0 o que contradiz a hipo´tese inicial. Portanto, na˜o existe nenhum bloco de Jordan cuja ordem seja maior do que 1 ∃ Q : A¯ = Q−1AQ → diagonal • Se A = A′, A¯ = A¯′ e´ uma matriz diagonal (com os autovalores reais na diagonal) e a base formada pelos autovetores e´ tal que Q′Q = I (base ortonormal) (Q−1AQ)′ = Q′AQ−1 = Q−1AQ =⇒ Q−1 = Q′ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 73 ✬ ✫ ✩ ✪ Func¸o˜es matriciais Func¸o˜es de Matriz Quadrada Matrizes quadradas A ∈ Rn×n esta˜o associadas a transformac¸o˜es lineares f : Rn → Rn Defina A0 = I ; Ak = AA · · ·A (k vezes) ; k ∈ Z Func¸o˜es Polinomiais: Seja f(λ) um polinoˆmio em λ de grau finito. Por exemplo, f(λ) = λ2 + 5λ+ 6 = (λ+ 2)(λ+ 3) Uma func¸a˜o f(A) e´ definida como f(A) � A2 + 5A+ 6I = (A+ 2I)(A+ 3I) Em particular, se A assume a forma bloco diagonal A = A1 0 0 A2 comA1 e A2 matrizes quadradas de qualquer ordem, tem-se Ak = Ak1 0 0 Ak2 ; f(A) = f(A1) 0 0 f(A2) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 74 ✬ ✫ ✩ ✪ Como e´ sempre poss´ıvel escrever A = QAˆQ−1 (Aˆ e´ a representac¸a˜o de A na Forma Canoˆnica de Jordan) f(A) = f(QAˆQ−1) = (QAˆQ−1)(QAˆQ−1) + 5(QAˆQ−1) + 6(QQ−1) = Q [ Aˆ2 + 5Aˆ+ 6I ] Q−1 = Qf(Aˆ)Q−1 ou f(Aˆ) = Q−1f(A)Q. O polinoˆmio mı´nimo de A e´ definido como o polinoˆmio moˆnico (maior coeficiente igual a 1) φ(λ) de menor grau tal que φ(A) = 0. Portanto, f(A) = 0 se e somente se f(Aˆ) = 0 (matrizes similares teˆm o mesmo polinoˆmio mı´nimo). O polinoˆmio mı´nimo de uma matriz na forma de Jordan pode ser obtido por inspec¸a˜o. Se λi e´ um autovalor de A com multiplicidade ni, o polinoˆmio caracter´ıstico de A e´ dado por ∆(λ) = det(λI− A) = ∏ i (λ− λi)ni EEL 6001: Teoria de Sistemas Lineares I algebra.tex 75 ✬ ✫ ✩ ✪ Supondo que a forma de Jordan de A e´ conhecida, define-se como o ı´ndice de λi a maior ordem de todos os blocos de Jordan associados a λi (denotado n¯i). Por exemplo, λ1 tem multiplicidade 4 nas quatro matrizes abaixo: Aˆ1 = λ1 0 0 0 0 λ1 0 0 0 0 λ1 0 0 0 0 λ1 ; Aˆ2 = λ1 1 0 0 0 λ1 0 0 0 0 λ1 0 0 0 0 λ1 Aˆ3 = λ1 1 0 0 0 λ1 1 0 0 0 λ1 0 0 0 0 λ1 ; Aˆ4 = λ1 1 0 0 0 λ1 1 0 0 0 λ1 1 0 0 0 λ1 =⇒ os ı´ndices do autovalor λ1 sa˜o, respectivamente, 1, 2, 3 e 4. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 76 ✬ ✫ ✩ ✪ Usando os ı´ndices n¯i de todos os autovalores λi, o polinoˆmio mı´nimo pode ser expresso da seguinte forma: φ(λ) = ∏ i (λ− λi)n¯i com grau n¯ = ∑ n¯i ≤ ∑ ni = n = dimensa˜o de A. Nas matrizes acima, os polinoˆmios mı´nimos sa˜o: φ1 = (λ− λ1) ; φ2 = (λ− λ1)2 φ3 = (λ− λ1)3 ; φ4 = (λ− λ1)4 O polinoˆmio caracter´ıstico e´ sempre ∆(λ) = (λ− λ1)4. Portanto, o polinoˆmio mı´nimo e´ um fator do polinoˆmio caracter´ıstico. Considere por exemplo a forma de Jordan dada por Aˆ = λ 1 0 0 0 λ 1 0 0 0 λ 1 0 0 0 λ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 77 ✬ ✫ ✩ ✪ Note que (Aˆ− λI) = 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 ; (Aˆ− λI) 2 = 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 (Aˆ− λI)3 = 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 ; (Aˆ− λI) k = 0 para k ≥ 4 Portanto, φ(A) = 0 e que nenhum outro polinoˆmio de grau menor verifica a condic¸a˜o. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 78 ✬ ✫ ✩ ✪ Teorema de Cayley-Hamilton Seja ∆(λ) = det(λI− A) = λn + α1λn−1 + · · ·+ αn−1λ+ αn o polinoˆmio caracter´ıstico de A. Enta˜o, ∆(A) = An + α1A n−1 + · · ·+ αn−1A+ αnI = 0 isto e´, toda matriz A ∈ Rn×n satisfaz seu polinoˆmio caracter´ıstico. Como ni ≥ n¯i, o polinoˆmio caracter´ıstico conte´m o polinoˆmio mı´nimo como um fator, ou seja, para algum polinoˆmio h(λ) ∆(λ) = φ(λ)h(λ) Como φ(A) = 0, ∆(A) = φ(A)h(A) = 0h(A) = 0 Pelo Teorema, An pode ser escrita como uma combinac¸a˜o linear de {I, A, . . . , An−1}. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 79 ✬ ✫ ✩ ✪ De fato, multiplicando-se ∆(A) = 0 por A tem-se que An+1 pode ser escrito como combinac¸a˜o linear de {A,A2 . . . , An}, que por sua vez pode se escrever como combinac¸a˜o linear de {I, A, . . . , An−1}, e assim sucessivamente. Para qualquer polinoˆmio f(λ), independentemente do grau, e valores apropriados de βi, f(A) pode ser expresso na forma f(A) = β0I+ β1A+ · · ·+ βn−1An−1 Na verdade, se o polinoˆmio mı´nimo (grau n¯) de A e´ conhecido, A pode ser expressa como combinac¸a˜o linear de {I, A, . . . , An¯−1}. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 80 ✬ ✫ ✩ ✪ Expressando um polinoˆmio qualquer f(λ) na forma f(λ) = q(λ)∆(λ) + h(λ) q(λ): quociente da divisa˜o por ∆(λ) h(λ): resto da divisa˜o (grau menor que n) f(A) = q(A)∆(A) + h(A) = q(A)0+ h(A) = h(A) Uma alternativa a` divisa˜o de polinoˆmios acima e´ dada a seguir. Defina h(λ) como h(λ) = β0 + β1λ+ · · ·+ βn−1λn−1 βi, i = 0, . . . , n− 1: inco´gnitas a serem obtidas Se os n autovalores de A sa˜o distintos, βi podem ser obtidos diretamente das n equac¸o˜es f(λi) = q(λi)∆(λi) + h(λi) = h(λi) , i = 1, 2, . . . , n Se A tem autovalores com multiplicidade maior do que 1, a expressa˜o acima tem que ser diferenciada (em relac¸a˜o a λ) para fornecer novas equac¸o˜es. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 81 ✬ ✫ ✩ ✪ Seja f(λ) uma func¸a˜o dada e seja A ∈ Rn×n com o polinoˆmio caracter´ıstico ∆(λ) = m∏ i=1 (λ− λi)ni ; n = m∑ i=1 ni Defina o polinoˆmio de grau n− 1 (com n coeficientes a determinar): h(λ) = β0 + β1λ+ · · ·+ βn−1λn−1 Os n coeficientes βi podem ser obtidos do conjunto de n equac¸o˜es dadas por f (�)(λi) = h (�)(λi) 9 = 0, 1, . . . , ni − 1i = 1, 2, . . . ,m onde f (�)(λi) � d�f(λ) dλ� ∣∣∣∣ λ=λi ; h(�)(λi) � d�h(λ) dλ� ∣∣∣∣ λ=λi Neste caso, f(A) = g(A) e diz-se que h(λ) e´ igual a f(λ) no espectro (conjunto dos autovalores) de A. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 82 ✬ ✫ ✩ ✪ • Dois polinoˆmios que tenhas os mesmos valores no espectro de A definem a mesma func¸a˜o matricial. • O resultado acima pode ser usado para qualquer func¸a˜o f(λ) (na˜o necessariamente polinomial), definindo-se f(A) = h(A) e computando-se os coeficientes βi, i = 0, . . . , n− 1. • Qualquer polinoˆmio h(λ) de grau n− 1, com n paraˆmetros independentes, poderia ser usado. • A100 , A = 1 2 0 1 ; ∆(λ) = det(λI− A) = (λ− 1)2 g(λ) = α0 + α1λ Espectro de A: λ = 1 , f(λ) = λ100 f(1) = g(1) → 1100 = α0 + α1 d dλ f(1) = d dλ g(1) → 100(199) = α1 =⇒ α0 = −99 ; α1 = 100 A100 = f(A) = g(A) = α0I+ α1A = 1 200 0 1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 83 ✬ ✫ ✩ ✪ • Calcule exp(At), isto e´, se f(λ) = exp(λt), encontre f(A) A = 0 0 −2 0 1 0 1 0 3 ; ∆(λ) = (λ− 1)2(λ− 2) , n1 = 2, n2 = 1 g(λ) = α0 + α1λ+ α2λ 2 ; f(A) = α0I+ α1A+ α2A 2 f(1) = g(1) → exp(t) = α0 + α1 + α2 f ′(1) = g′(1) → t exp(t) = α1 + 2α2 f(2) = g(2) → exp(2t) = α0 + 2α1 + 4α2 α0 = −2t exp(t) + exp(2t) ; α1 = 3t exp(t) + 2 exp(t)− 2 exp(2t) α2 = exp(2t)− exp(t)− t exp(t) f(A) = 2 exp(t)− exp(2t) 0 2 exp(t)− 2 exp(2t) 0 exp(t) 0 − exp(t) + exp(2t) 0 2 exp(2t)− exp(t) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 84 ✬ ✫ ✩ ✪ Exemplo: Obtenha a expressa˜o de f(Aˆ) para Aˆ = λ1 1 0 0 0 λ1 1 0 0 0 λ1 1 0 0 0 λ1 O polinoˆmio caracter´ıstico e´ dado por ∆(λ) = (λ− λ1)4. Escolhendo (de maneira conveniente) h(λ) = β0 + β1(λ− λ1) + β2(λ− λ1)2 + β3(λ− λ1)3 A condic¸a˜o f(λ) = h(λ) no espectro de Aˆ fornece β0 = f(λ1) ; β1 = f ′(λ1) ; β2 = f ′′(λ1) 2! ; β3 = f (3)(λ1) 3! Assim, f(Aˆ) = f(λ1)I+ f ′(λ1) 1! (Aˆ− λ1I) + f ′′(λ1) 2! (Aˆ− λ1I)2 + f (3)(λ1) 3! (Aˆ− λ1I)3 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 85 ✬ ✫ ✩ ✪ Usando as propriedades de (Aˆ− λI)k f(Aˆ) = f(λ1) f ′(λ1)/1! f ′′(λ1)/2! f (3)(λ1)/3! 0 f(λ1) f ′(λ1)/1! f ′′(λ1)/2! 0 0 f(λ1) f ′(λ1)/1! 0 0 0 f(λ1) Por exemplo, para f(λ) = exp(λt) exp(Aˆt) = exp(λ1t) t exp(λ1t) t 2 exp(λ1t)/2! t 3 exp(λ1t)/3! 0 exp(λ1t) t exp(λ1t) t 2 exp(λ1t)/2! 0 0 exp(λ1t) t exp(λ1t) 0 0 0 exp(λ1t) Exemplo: Considere a matriz(com dois blocos de Jordan) A = λ1 1 0 0 0 0 λ1 1 0 0 0 0 λ1 0 0 0 0 0 λ2 1 0 0 0 0 λ2 • Se f(λ) = exp(λt)= eλt, enta˜o exp(At) = eAt eλ1t teλ1t t2eλ1t/2! 0 0 0 eλ1t teλ1t 0 0 0 0 eλ1t 0 0 0 0 0 eλ2t teλ2t 0 0 0 0 eλ2t EEL 6001: Teoria de Sistemas Lineares I algebra.tex 86 ✬ ✫ ✩ ✪ • Se f(λ) = (s− λ)−1, enta˜o (sI− A)−1 = 1 (s− λ1) 1 (s− λ1)2 1 (s− λ1)3 0 0 0 1 (s− λ1) 1 (s− λ1)2 0 0 0 0 1 (s− λ1) 0 0 0 0 0 1 (s− λ2) 1 (s− λ2)2 0 0 0 0 1 (s− λ2) EEL 6001: Teoria de Sistemas Lineares I algebra.tex 87 ✬ ✫ ✩ ✪ Teorema de Cayley-Hamilton Seja ∆(λ) = det(λI− A) = λn + α1λn−1 + · · ·+ αn−1λ+ αn o polinoˆmio caracter´ıstico de A. Enta˜o, ∆(A) = An + α1A n−1 + · · ·+ αn−1A+ αnI = 0 • Se A e´ uma matriz diagonaliza´vel, enta˜o existe uma transformac¸a˜o de similaridade dada pela matriz Q tal que A = QΛQ−1 ; Λ diagonal ; A2 = (QΛQ−1)(QΛQ−1) = QΛ2Q−1 A3 = QΛ3Q−1 , . . . , Ak = QΛkQ−1 ∆(A) = Q [ Λn + α1Λ n−1 + · · ·+ αn−1Λ + αnI ] Q−1 e cada termo dentro dos colchetes e´ uma matriz diagonal cujo elemento (i, i) e´ dado por λni + α1λ n−1 i + · · ·+ αn−1λi + αn = ∆(λi) = 0 pois λi e´ um autovalor de A. • O teorema de Cayley-Hamilton fornece uma fo´rmula expl´ıcita para o ca´lculo da matriz inversa A−1 = − 1 αn [ An−1 + α1An−2 + · · ·+ αn−1I ] No caso geral, a matriz A sempre pode ser reduzida a` forma de Jordan Aˆ = Q−1AQ ; ∆(A) = Q [ Aˆn + α1Aˆ n−1 + · · ·+ αn−1Aˆ+ αnI ] Q−1 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 88 ✬ ✫ ✩ ✪ Para mostrar que a matriz dentro dos colchetes vale sempre zero, note que a forma de Jordan e´ composta de blocos diagonais Aˆi Aˆ = diag {Aˆ1, Aˆ2, . . . , Aˆr} ; Aˆk = diag {Aˆk1, Aˆk2, . . . , Aˆkr} Considerando um t´ıpico bloco Aˆi, e´ preciso provar que [ Aˆni + α1Aˆ n−1 i + · · ·+ αn−1Aˆi + αnI ] = 0 Note que os termos abaixo da diagonal principal sa˜o sempre iguais a zero, e que na diagonal principal um elemento t´ıpico (i, i) e´ dado por ∆(λi) = 0. Na diagonal acima da diagonal principal (verificar), um termo t´ıpico e´ dado por nλn−1i + α1(n− 1)λn−2i + · · ·+ αn−1 = d∆(λ) dλ ∣∣∣∣ λ=λi = 0 e a ra´ız em questa˜o tem multiplicidade maior do que 1. Se Aˆi e´ um bloco de Jordan de tamanho p× p, λi necessariamente e´ uma ra´ız de no mı´nimo ordem p, e assim as derivadas de ordem ate´ p− 1 sa˜o todas iguais a zero em λ = λi. As sucessivas diagonais acima possuem termos que sa˜o mu´ltiplos dessas derivadas da equac¸a˜o caracter´ıstica, e portanto[ Aˆni + α1Aˆ n−1 i + · · ·+ αnI ] = 0 EEL 6001: Teoria de Sistemas Lineares I algebra.tex 89 ✬ ✫ ✩ ✪ Normas e produtos internos Norma de vetores Qualquer func¸a˜o real representada por ‖x‖ pode ser definida como uma norma se para qualquer x ∈ Rn e para qualquer escalar α ∈ R 1. ‖x‖ ≥ 0 ; ‖x‖ = 0 ⇐⇒ x = 0 2. ‖αx‖ = | α | ‖x‖ 3. ‖x1 + x2‖ ≤ ‖x1‖+ ‖x2‖ (Desigualdade Triangular) Exemplo ‖x‖p = ( n∑ i=1 | xi |p ) 1 p ; p ≥ 1 p inteiro ‖x‖2 = √ x′x (norma Euclidiana) ‖x‖∞ = max i | xi | (norma infinito) x a b ‖x‖1 = | a | + | b | ‖x‖2 = √ a2 + b2 ‖x‖∞ = max{| a |, | b |} EEL 6001: Teoria de Sistemas Lineares I algebra.tex 90 ✬ ✫ ✩ ✪ Produto Interno Para dois vetores x, y ∈ Rn, define-se o produto interno (ou produto escalar) como 〈 x, y 〉 � x1y1 + x2y2 + · · ·+ xnyn = x′y Propriedades: • 〈 αx, y 〉 = α 〈 x, y 〉 • 〈 x+ y, z 〉 = 〈 x, z 〉 + 〈 y, z 〉 • 〈 x, y 〉 = 〈 y, x 〉 • 〈 x, x 〉 = ‖x‖2 ≥ 0 • 〈 x, x 〉 = 0⇐⇒ x = 0 • o vetor x′ pode ser visto como uma func¸a˜o linear x′ : Rn → R EEL 6001: Teoria de Sistemas Lineares I algebra.tex 91 ✬ ✫ ✩ ✪ • Identidade do paralelogramo ‖x+ y‖2 + ‖x− y‖2 = 2(‖x‖2 + ‖y‖2) x y x+ y x− y Teorema: (Desigualdade de Cauchy-Schwarz) Defina ‖x‖ = (〈 x, x 〉) 1 2 . Enta˜o, | 〈 x, y 〉 | ≤ ‖x‖‖y‖ Prova: Para y = 0, a prova e´ imediata. Assumindo y �= 0, 0 ≤ 〈 x+ αy, x+ αy 〉 = 〈 x, x 〉 + α¯ 〈 y, x 〉 + α 〈 x, y 〉 + αα¯ 〈 y, y 〉 vale ∀ α. EEL 6001: Teoria de Sistemas Lineares I algebra.tex 92 ✬ ✫ ✩ ✪ Escolhendo α = − 〈 y, x 〉 〈 y, y 〉 , tem-se 〈 x, x 〉 ≥ 〈 x, y 〉〈 y, x 〉 〈 y, y 〉 = | 〈 x, y 〉 |2〈 y, y 〉 O aˆngulo θ entre quaisquer dois vetores x, y ∈ Rn e´ dado por x y θ ( x′y ‖y‖ ) y θ = cos−1 ( x′y ‖x‖‖y‖ ) =⇒ x′y = ‖x‖‖y‖ cos θ EEL 6001: Teoria de Sistemas Lineares I algebra.tex 93 ✬ ✫ ✩ ✪ Produto Interno x′y = ‖x‖‖y‖ cos θ • Se x e y sa˜o colineares: θ = 0, x′y = ‖x‖‖y‖ e se x �= 0 y = αx para algum α ≥ 0 • Se x e y sa˜o vetores opostos: θ = π, x′y = −‖x‖‖y‖ e se x �= 0 y = −αx para algum α ≥ 0 • Se x e y sa˜o vetores ortogonais (x ⊥ y): θ = ±π 2 =⇒ x′y = 0 • x′y > 0 =⇒ aˆngulo agudo; x′y < 0 =⇒ aˆngulo obtuso • Dado um vetor y ∈ Rn, o conjunto { x : x′y ≤ 0 } define um semi-espac¸o em Rn (y e´ chamado vetor normal) passando no ponto 0 y 0 { x : x′y ≤ 0 } EEL 6001: Teoria de Sistemas Lineares I algebra.tex 94
Compartilhar