Baixe o app para aproveitar ainda mais
Prévia do material em texto
Departamento de Estat´ıstica Universidade Federal de Sa˜o Carlos Teoria de Matrizes para Estat´ıstica Jose´ Carlos Fogo Sa˜o Carlos Julho de 2017 Suma´rio 1 Vetores 1 1.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Representac¸a˜o gra´fica no <2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.2 Propriedades alge´bricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Vetores especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Produto entre vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3.1 Propriedades alge´bricas do produto interno entre vetores . . . . . . . . . . 5 1.4 Mo´dulo ou comprimento de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.5 Outros resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.6 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2 Matrizes 10 2.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.1 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.2 Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.3 Matriz de Zeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.4 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1.5 Matriz Sime´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1.6 Matriz de Uns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.1.7 Matrizes Triangulares Superior e Inferior . . . . . . . . . . . . . . . . . . . . 12 2.2 Operac¸o˜es com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Medidas relacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3.2 Posto ou rank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.3.3 Trac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5 Matriz dos cofatores e matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.6 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.7 Matriz na˜o singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 i Suma´rio Teoria de Matrizes para Estat´ıstica 2.8 Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.9 Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.10 Operac¸o˜es elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.11 Matrizes similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Matrizes particionadas 32 3.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Operac¸o˜es com matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3 Decomposic¸a˜o LDU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.4 Rank, ou posto, de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . 38 3.5 Determinante de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . 38 3.6 A inversa de uma matriz particionada . . . . . . . . . . . . . . . . . . . . . . . . . 40 4 Decomposic¸a˜o de matrizes 42 4.1 Decomposic¸a˜o espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.2 Decomposic¸a˜o em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . 45 4.3 Decomposic¸a˜o LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.3.1 Determinac¸a˜o das matrizes L e U . . . . . . . . . . . . . . . . . . . . . . . 50 4.3.2 O algoritmo de Crout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.4 Decomposic¸a˜o de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.4.1 Determinac¸a˜o da matriz G . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 5 Vetores aleato´rios 60 5.1 Vetores aleato´rios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.1.1 Valor esperado de um vetor aleato´rio . . . . . . . . . . . . . . . . . . . . . . 62 5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio . . . . . . . . . . . 63 5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio . . . . . . . . . . . . . . . . . . 67 5.1.4 Vetores aleato´rios particionados . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.2 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 5.2.1 A representac¸a˜o dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.2.2 O vetor de me´dias amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.2.3 A matriz de variaˆncias e covariaˆncias amostrais . . . . . . . . . . . . . . . . 76 6 Espac¸os Vetoriais 82 6.1 Subespac¸os vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 6.2 Dependeˆncia linear de vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 6.3 Base de um espac¸o vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 7 Formas quadra´ticas 91 7.1 Diagonalizac¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . 92 7.2 Formas quadra´ticas e coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 7.3 Distribuic¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 7.4 Otimizac¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 7.4.1 Derivada de uma forma quadra´tica . . . . . . . . . . . . . . . . . . . . . . . 100 ii Suma´rio Teoria de Matrizes para Estat´ıstica 8 Sistemas lineares 104 8.1 Notac¸a˜o Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 8.2 Sistemas homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 8.3 Uso da decomposic¸a˜o LU na soluc¸a˜o de sistemas lineares . . . . . . . . . . . . . 112 9 Projec¸o˜es Ortogonais 115 9.1 Matriz canoˆnica de uma projec¸a˜o ortogonal . . . . . . . . . . . . . . . . . . . . . . 116 9.2 Decomposic¸a˜o ortogonal de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . 117 iii 1 Vetores 1.1 Definic¸a˜o Na F´ısica: e´ uma forma de se representar matematicamente grandezas f´ısicas que possuam mais de um aspecto para ser definida. Exemplo: a forc¸a, necessita da magnitude, direc¸a˜o e sentido em que e´ aplicada; Na Matema´tica: e´ uma tripla constitu´ıda de uma direc¸a˜o, um sentido e um nu´mero na˜o negatico (mo´dulo), Venturini, J.J. Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou matriz linha. Na Wikipe´dia: e´ um conceito caracterizado por uma magnitude (mo´dulo) e uma orientac¸a˜o (direc¸a˜o e sentido). Notac¸a˜o: ~v, ~x, ~a (letras minu´sculas). Nas notas da disciplina, vamos adotar a notac¸a˜o usual em publicac¸o˜es, ou seja, com letras mi- nu´sculas, em negrito: v, x, a. x = x1 x2 ... xp , e´ um vetor de dimensa˜o p. 1 Vetores Teoria de Matrizes para Estat´ıstica Exemplo: x = 1 2 3 4 , e´ um vetor de dimensa˜o 4. 1.1.1 Representac¸a˜o gra´fica no <2 Exemplo: Sejam x= [ 2 5 ] e y = [ 3 0.5 ] , Figura 1.1: Representac¸a˜o gra´fica de vetores no plano 1.1.2 Propriedades alge´bricas i) u + v = v + u; ii) (u + v) + w = u + (v + w); iii) a (u + v) = a v + a u, a = escalar; iv) (a+ b) u = a u + b u, a, b = escalares. 2 Vetores Teoria de Matrizes para Estat´ıstica 1.2 Vetores especiais i) vetor nulo: 0n = 0 0 ... 0 ; ii) vetor de 1’s: 1n = 1 1 ... 1 n×1 ; (1.1) iii) vetor transposto: vt = [ v1, v2, · · · , vp ] . 1.3 Produto entre vetores Os produtos entre de vetores mais comuns sa˜o o produto escalar euclidiano, ou produto interno e o produto vetorial, ou produto externo, sendo que nos dois casos os vetores devem ter mesmas dimenso˜es. Ale´m das duas formas de produtos acima, temos ainda o produto direto, ou produto Kronecker e o produto elemento-a-elemento. Nota: Na disciplina sera˜o destacados os produtos interno, Kronecker e elemento-a-elemento. Considere os vetores v = v1 v2 ... vp e x = x1 x2 ... xp . a) Produto elemento-a-elemento1: x ∗ v = x1 · v1 x2 · v2 ... xp · vp . 1Como na˜o temos uma notac¸a˜o para um operador elemento-a-elemento, vamos utilizar o asterisco (*) 3 Vetores Teoria de Matrizes para Estat´ıstica b) Produto interno ou produto escalar: 〈x,v〉 = x · v = xt v = p∑ i=1 xi · vi c) Produto Kronecker ou produto direto: sejam x e v vetores com dimenso˜es p e q, respectivamente x⊗v = x1 · v x2 · v ... xp · v pq×1 . Exemplos: Sejam x = 2 −5 −1 e v = 3 2 −3 , • de (a): x ∗ v = (2) · (3) (−5) · (2) (−1) · (−3) = 6 −10 3 ; • de (b): 〈x,v〉 = xtv = (2) · (3) + (−5) · (2) + (−1) · (−3) = −1. • de (c): x⊗v = 2 · v −5 · v −1 · v = 6 4 −6 −15 −10 15 −3 −2 3 4 Vetores Teoria de Matrizes para Estat´ıstica Obs: Para o produto Kronecker as dimenso˜es na˜o precisam ser necessariamente iguais Se x = [ 2 3 ] e v = 1 2 3 4 , enta˜o: x⊗v = 2 4 6 8 3 6 9 12 1.3.1 Propriedades alge´bricas do produto interno entre vetores i) utv = vtu ou 〈u,v〉 = 〈v,u〉; ii) (ut + vt)w = utw + vtw ou 〈(u+v),w〉 = 〈u,w〉 + 〈v,w〉; iii) (k vt)u = k (vtu) = vt(k u), ou 〈kv,u〉 = k 〈v,u〉 = 〈v, ku〉 k = escalar; iv) utu ≥ 0 ou 〈u,u〉 ≥ 0; v) utu = 0⇔ u = 0 ou 〈u,u〉 = 0⇔ u = 0. 1.4 Mo´dulo ou comprimento de um vetor O comprimento, mo´dulo ou norma de um vetor v e´ definido por ‖v‖ = √ vtv = √ v21 + v22 + . . .+ v2p. Exemplo: Dados os vetores vt = (2,−5,−1),xt = (3, 2,−3) e ut = (0.8, 0.6), enta˜o ‖v‖ = √4 + 25 + 1 = √30; ‖x‖ = √9 + 4 + 9 = √22; ‖u‖ = √0.64 + 0.36 = √1 = 1. O vetor que tem norma igial a 1, ou seja, vtv = 1, e´ chamado de vetor normal. No exemplo acima o vetor ut = (0.64, 0.36) e´ um vetor normal. 1.5 Outros resultados i) Aˆngulo entre vetores: considere o angulo θ formado por dois vetores u e v, enta˜o: cos(θ) = u tv ‖u‖ ‖v‖ = utv√ utu √ vtv . 5 Vetores Teoria de Matrizes para Estat´ıstica Se θ = 90◦, cos(θ) = 0, enta˜o u e v sa˜o ortogonais, ou seja, u⊥v, portanto, dois vetores sa˜o ortogonais se utv = 0. Figura 1.2: Aˆngulo entre vetores. ii) Projec¸a˜o de um vetor sobre outro: Considere os vetores u e v. Enta˜o, a projec¸a˜o de u sobre v e´ obtida por: Pu/v = ( utv vtv ) v = (u tv) ‖v‖2 v. O mo´dulo da projec¸a˜o, por sua vez, e´ dado por: ∥∥∥Pu/v∥∥∥ = ∣∣∣∣∣utvvtv ∣∣∣∣∣√vtv = ∣∣utv∣∣ ‖v‖2 ‖v‖ = ∣∣utv∣∣ ‖v‖ ‖u‖ ‖u‖ ∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ . Exemplo: Dados os vetores ut = (1, 2),vt = (2, 1), encontar a projec¸a˜o de u sobre v e calcular o seu mo´dulo. Ca´lculos: ‖u‖ = √ 11 + 22 = √ 5 ‖v‖ = ‖u‖ = √5 utv = 2 · 1 + 1 · 2 = 4 cos(θ) = u tv ‖u‖ ‖v‖ = 4√ 5 √ 5 = 0.8 ⇒ θ ∼= 36.9◦ Projec¸a˜o de u sobre v: Pu/v = ( utv vtv ) v = 45 [ 2 1 ] = [ 1.6 0.8 ] . 6 Vetores Teoria de Matrizes para Estat´ıstica Comprimento da projec¸a˜o:∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ = 0.8√5 = √3.2 De fato ∥∥∥Pu/v∥∥∥2 = [ 1.6 0.8 ] [ 1.6 0.8 ] = 3.2, logo, ∥∥∥Pu/v∥∥∥ = √3.2. Figura 1.3: Projec¸a˜o de um vetor u sobre um vetor v. 1.6 Representac¸a˜o vetorial dos dados Na estat´ıstica os dados sa˜o usualmente representados em vetores (os softwares usam esse con- ceito). Exemplo: Seja uma amostra de tamanho n = 10 representando o ganho l´ıquido de um grupo 7 Vetores Teoria de Matrizes para Estat´ıstica de empresas da bolsa de valores (em milho˜es de reais). Pode-se representar os dados por x = 564 389 203 215 385 187 127 297 432 451 . Como ∑ xi = 3250 e ∑ x2i = 1234408, tem-se que: x¯ = 325010 = 325; s2 = 1234408− 10(325) 2 (10− 1) = 19795.33. Os resultados acima da me´dia amostral x¯ e variaˆncia amostral s2 podem ser facilmente obtidos utilizando as operac¸o˜es vetoriais. i) Para a soma dos elementos de x, tem-se 1tn x = n∑ i=1 xi = x1 + . . .+ xn ii) Para a soma dos quadrados dos elementos de x, xt x = n∑ i=1 x2i = x21 + . . .+ x2n Assim, de (i) e (ii) tem-se que: x¯ = 1 t n x n ; s2 = 1(n− 1) [ xt x− (1 t n x)2 n ] . 8 Vetores Teoria de Matrizes para Estat´ıstica No exemplo: 1tn x = 3250; [ xt x− (1 t n x)2 n ] = 1234408− (3250) 2 10 = 178158. 9 2 Matrizes Definic¸a˜o 2.1. Matriz Matriz e´ uma colec¸a˜o retangular n× p de valores reais, representada por An×p = a11 a12 · · · a1p a21 a22 · · · a2p ... ... . . . ... an1 an2 · · · anp , em que: n e´ o nu´mero de linhas e p e´ o nu´mero de colunas da matriz � Segundo Graybill (1983), uma matriz pode, ainda, ser representada da seguinte forma: An×p = [aij ]n×p . No´s podemos obter uma matriz n × p pela multiplicac¸a˜o de um vetor u, n × 1, com um vetor linha vt, 1× p uvt = u1 u2 ... un [ v1 v2 · · · vp ] = u1v1 u1v2 · · · u1vp u2v1 u2v2 · · · u2vp ... ... . . . ... unv1 unv2 · · · unvp . (2.1) (2.2) Nota: O produto uvt e´ muitas vezes chamado de produto exterior ou produto externo (Banerjee e Roy, 2014). 10 Matrizes Teoria de Matrizes para Estat´ıstica 2.1 Casos especiais 2.1.1 Matriz Transposta Denotada por A′ ou At, e´ obtida trocando-se as linhas de A pelas colunas. Exemplo: A2×3 = [ 3 −2 1 1 5 4 ] At3×2 = 3 1 −2 5 1 4 . 2.1.2 Matriz Quadrada E´ uma matriz para a qual o nu´mero de linhas e´ igual ao de colunas. Exemplo: A3×3 = a11 a12 a13 a21 a22 a23 a31 a32 a33 . 2.1.3 Matriz de Zeros Denotada 0n×p, e´ a matriz cujos elementos sa˜o todos iguais a zero. Exemplo: 0n×p = 0 0 · · · 0 0 0 · · · 0 ... ... . . . ... 0 0 · · · 0 n×p . 2.1.4 Matriz Diagonal E´ uma matriz quadrada na qual apenas os elementos da diagonal sa˜o diferentes de zero. Exemplo: Ap×p = a11 0 · · · 0 0 a22 · · · 0 ... ... . . . ... 0 0 · · · app . Casos especiciais: 11 Matrizes Teoria de Matrizes para Estat´ıstica a) Matriz escalar: e´ uma matriz diagonal na qual todos os elementos da diagonal sa˜o iguais, ou seja, dii = d, i = 1, 2, . . . , n. Exemplo: D = d 0 · · · 0 0 d · · · 0 ... ... . . . ... 0 0 · · · d . b) Matriz identidade: e´ um caso particular da matriz diagonal. Denotada por Ip = Ip×p, seus elementosda diagonal sa˜o todos iguais a 1, ou seja, a11 = a22 = . . . = app = 1. Exemplo: I3 = 1 0 0 0 1 0 0 0 1 . 2.1.5 Matriz Sime´trica Matriz quadrada em que A = At, ou seja, quando aij = aji, i, j = 1, 2, . . . , p. Exemplo: A3×3 = 1 2 3 2 4 5 3 5 6 . 2.1.6 Matriz de Uns Denotada Jn, e´ uma matriz quadrada cujos elementos sa˜o todos iguais a um. Exemplo: Jn = 1 1 · · · 1 1 1 · · · 1 ... ... . . . ... 1 1 · · · 1 n×n . A matriz Jn e´ definida pelo produto Jn = 1n1tn, ver (1.1), e apresenta a seguinte propriedade: a) J2 = JJ = nJ; b) J3 = JJJ = n2J; c) Jk = nk−1J. 2.1.7 Matrizes Triangulares Superior e Inferior A matriz quadrada Un×n, e´ uma matriz triangular superior se todos os elementos abaixo da diagonal forem iguais a zero e, a matriz quadrada quadrada Ln×n, e´ uma matriz triangular inferior se todos os elementos acima da diagonal forem iguais a zero. 12 Matrizes Teoria de Matrizes para Estat´ıstica Exemplo: matrizes triangulares superior e inferior de dimenso˜es 4× 4. U4×4 = u11 u12 u13 u14 0 u22 u23 u24 0 0 u33 u34 0 0 0 u44 L4×4 = l11 0 0 0 l21 l22 0 0 l31 l32 l33 0 l41 l42 l43 l44 Teorema 2.1. Sejam matrizes Un×n e Ln×n, triangulares superior e inferior, respectivamente. Enta˜o seus determinantes sa˜o obtidos pela multiplicac¸a˜o dos elementos das diagonais, ou seja: |U| = n∏ i=1 uii |L| = n∏ i=1 lii . Teorema 2.2. Sejam matrizes An×n e Bn×n, enta˜o: i) Se A e B sa˜o ambas triangulares inferiores, o produto AB e´ uma matriz triangular inferior. ii) Se A e B sa˜o ambas triangulares superiores, o produto AB e´ uma matriz triangular superior. Teorema 2.3. Seja An×n: i) Se A e´ triangular inferior (ou superior) com todos os elementos da diagonal diferentes de zero, enta˜o A e´ invert´ıvel e sua inversa A−1 e´ triangular inferior (ou superior). ii) Os elementos da diagonal de A−1 sa˜o os rec´ıprocos dos elementos da diagonal de A, ou seja a∗ii = 1 aii , i = 1, 2, . . . , n, em que a∗ii sa˜o os elementos da diagonal de A−1 e aii, os elementos da diagonal de A. 2.2 Operac¸o˜es com matrizes i) Multiplicac¸a˜o por um escalar: cAn×p = c a11 c a12 · · · c a1p c a21 c a22 · · · c a2p ... ... . . . ... c an1 c an2 · · · c anp . 13 Matrizes Teoria de Matrizes para Estat´ıstica ii) Adic¸a˜o de matrizes de mesmas dimenso˜es: An×p + Bn×p = a11 + b11 a12 + b12 · · · a1p + b1p a21 + b21 a22 + b22 · · · a2p + b2p ... ... . . . ... an1 + bn1 an2 + bn2 · · · anp + bnp . Resultados: a) A + B = B + A; b) (A + B) + C = A + (B + C); c) c (A + B) = cA + cB; d) A + 0 = A e A − A = 0; e) (c+ d) A = cA + dA; f) (c d) A = c (dA); g) (A + B)t = At + Bt. Nota: A matriz 0 e´ o elemento neutro da adic¸a˜o de matrizes, ou seja, A + 0 = A. iii) Multiplicac¸a˜o de matrizes: o produto de duas matrizes An×k e Bk×p e´ dado pelos produtos internos das linhas de A pelas colunas de B An×k Bk×p = (A B)n×p , desta forma, o nu´mero de colunas da primeira (A) deve ser igual ao nu´mero de linhas da segunda (B) e o resultado sera´ uma matriz cujo nu´mero de linhas sera´ igual ao nu´mero de linhas da primeira e o nu´mero de colunas, igual ao da segunda. Exemplo: A2×3 = [ 3 −1 2 1 5 −4 ] B3×2 = −2 1 7 0 9 −3 , A B = [ (−6− 7 + 18) (3− 6) (−2 + 35− 36) (1 + 12) ] = [ 5 −3 −3 13 ] . Uma matriz An×k pode ser representada como uma colec¸a˜o de k vetores nas colunas, assim como n vetores transpostos nas linhas. Seja ati· vetor transposto representando a i-e´sima linha, i = 1, 2, . . ., n, enta˜o, a matriz A pode ser escrita por: An×k = at1· at2· ... atn· . 14 Matrizes Teoria de Matrizes para Estat´ıstica Da mesma forma, considerando as colunas de An×k como vetores, pode-se, ainda, escrever A como: An×k = [ a·1 a·2 · · · a·k ] . Desta forma, o produto entre duas matrizes An×k e Bk×p pode ser representado por An×kBk×p = at1· at2· ... atn· [ b·1 b·2 · · · b·p ] . An×kBk×p = at1·b·1 at1·b·2 · · · at1·b·p at2·b·1 at2·b·2 · · · at2·b·p ... ... . . . ... atn·b·1 atn·b·2 · · · atn·b·p . A partir de (2.2) podemos, ainda, representar o produto entre duas matrizes por: An×kBk×p = [ a·1 a·2 · · · a·p ] bt1· bt2· ... btn· = p∑ j=1 a·jbtj·. Resultados: (as matrizes A, B e C sa˜o de dimenso˜es tais que os produtos abaixo sejam definidos) a) A (B C) = (A B) C; b) A (B + C) = A B + A C; c) c (A B) = (cA) B; d) c (A B) = (cA) B; e) (αA)(β B) = (αβ)(AB); f) (A B)t = BtAt. Notas: 1) Em geral na˜o vale a propriedade comutativa, ou seja, A B 6= B A, 2) Se A B = 0, na˜o implica, necessariamente, que A = 0 ou que B = 0; 3) A identidade e´ o elemento neutro da multiplicac¸a˜o de matrizes, ou seja, A I = I A = A. 15 Matrizes Teoria de Matrizes para Estat´ıstica 2.3 Medidas relacionadas 2.3.1 Determinante Seja uma matriz quadrada A, enta˜o, seu determinante e´ um escalar denotado por |A| e e´ definido por: |A| = k∑ j=1 a1j (−1)j+1 |A1j | , k > 1. em que a1j e´ o j-e´simo elemento da primeira linha de A e A1j e´ a matriz obtida eliminando-se a primeira linha e a j-e´sima coluna de A. O resultado tambe´m e´ va´lido quando exclu´ımos qualquer uma das outras linhas, ou seja |A| = k∑ j=1 aij (−1)i+j |Aij | , k > 1, i = 1, 2, . . . , k. Nota: o termo (−1)i+j |Aij | e´ definido como cofator do elemento aij e sera´ visto mais adiante. Exemplo: A = 2 1 3 0 1 −1 2 2 −2 0 3 3 4 1 −1 2 . • Eliminando-se a primeira linha: |A| = (2) (−1)1+1 ∣∣∣∣∣∣∣∣ −1 2 2 0 3 3 1 −1 2 ∣∣∣∣∣∣∣∣+ (1) (−1) 1+2 ∣∣∣∣∣∣∣∣ 1 2 2 −2 3 3 4 −1 2 ∣∣∣∣∣∣∣∣+ (3) (−1)1+3 ∣∣∣∣∣∣∣∣ 1 −1 2 −2 0 3 4 1 2 ∣∣∣∣∣∣∣∣+ (0) (−1) 1+4 ∣∣∣∣∣∣∣∣ −1 −1 3 −2 0 3 4 1 −1 ∣∣∣∣∣∣∣∣ |A| = (2) (−1)2 (−9) + (1) (−1)3 (21) + (3) (−1)4 (−23) + (0) (−1)5 (17) |A| = −18− 21− 69 = −108. • Eliminando-se a terceira linha: |A| = (−2) (−1)2 (18) + (0) (−1)3 (30) + (3) (−1)4 (−2) + (3) (−1)5 (22) |A| = −36− 6− 66 = −108. 16 Matrizes Teoria de Matrizes para Estat´ıstica Casos especiais: a) k = 2: A = [ a11 a12 a21 a22 ] , |A| = a11 a22 − a12 a21. Exemplo: A = [ 1 3 6 4 ] , |A| = 1 · 4− 3 · 6 = −14. b) k = 3: A = a11 a12 a13 a21 a22 a23 a31 a32 a33 , |A| = a21 a32 a13 + a11 a22 a33 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32. Exemplo: A = 3 1 6 7 4 5 2 −7 1 , |A| = 10 + 12− 294− 7− 48 + 105 = −222. Resultados (as matrizes A, B sa˜o tais que os produtos sejam definidos) a) |A| = |At|, b) Se os elementos de uma linha (ou coluna) sa˜o iguais a zero, enta˜o, |A| = 0, c) Se duas linhas (ou colunas) sa˜o iguais ou proporcionais, enta˜o, |A| = 0, d) |A B| = |A|· |B|, e) |c A| = ck|A|, em que k e´ o nu´mero de linhas (ou colunas) de A, f) |I| = 1. 2.3.2 Posto ou rank O posto ou rank de uma matriz An×p e´ dado pelo nu´mero ma´ximo de linhas ou colunas linearmente independentes (LI), ou seja, posto(A)≤ min(n, p). 17 Matrizes Teoria de Matrizes para Estat´ıstica Exemplos: A = 3 0 1 −2 1 3 1 0 4 3 4 5 , posto(A) = 3, todas as linhas, de A sa˜o LI. B = 4 1 −3 −1 4 5 2 2 0 , posto(B) = 2, a primeira coluna de B e´ combinac¸a˜o linear das demais. Notas: 1) Uma matriz An×p e´ dita ser de posto completo se o seu posto for igual a min(n, p), 2) Nos exemplos acima, a matriz A e´ de posto completo, enquanto que, a matriz B na˜o e´ de posto completo. 2.3.3 Trac¸oSeja uma matriz quadrada Ak×k, enta˜o o trac¸o de A, denotado por tr(A), e´ dado pela soma dos elementos de sua diagonal principal tr(A) = k∑ i=1 aii. Exemplos: A = 3 0 1 1 3 1 4 3 4 , tr(A) = 3 + 3 + 4 = 10. B = 4 1 −3 −1 4 5 2 2 0 , tr(B) = 8. Resultados a) tr(cA) = c tr(A), d) tr(B−1 A B) = tr(A) b) tr(A±B) = tr(A) ± tr(B), e) tr(At A) = tr(A At) = k∑ i=1 k∑ j=1 a2ij c) tr(A B) = tr(B A), 18 Matrizes Teoria de Matrizes para Estat´ıstica 2.4 Autovalores e autovetores Considere a matriz A e os vetores u e v: A = [ 3 −2 1 0 ] u = [ −1 1 ] v = [ 2 1 ] Enta˜o, as transformac¸o˜es operadas por A resultam em A u = [ 3 −2 1 0 ] [ −1 1 ] = [ −5 −1 ] A v = [ 3 −2 1 0 ] [ 2 1 ] = [ 4 2 ] = 2 v Tomando como foco as transformac¸o˜es lineares do tipo A x = λ x, com λ constante, temos transformac¸o˜es nas quais o vetor x tem seu tamanho expandido ou diminuido. Representando as transformac¸o˜es graficamente temos: Figura 2.1: Transformac¸o˜es do tipo Ax. 19 Matrizes Teoria de Matrizes para Estat´ıstica Por exemplo, A = 1 1 1 2 1 −1 aplicada no vetor x = [ x1 x2 ] resulta em A x = x1 + x2 x1 + 2x2 x1 − x2 Definic¸a˜o 2.2. Autovetor Um autovetor de uma matriz Ak×k e´ um vetor x, na˜o nulo, tal que A x = λx, para algum escalar λ � Definic¸a˜o 2.3. Autovalor Um escalar λ e´ chamado de autovalor de A se existe soluc¸a˜o na˜o trivial x para A x = λx � Considere a transformac¸a˜o A x = λ x, enta˜o, podemos escrever A x = λ Ix. Logo, uma forma de encontrar os autovalores de A e´ resolver o sistema A x− λ I x = (A− λ I) x = 0. (2.3) O sistema (2.3) tem soluc¸a˜o na˜o trivial se, e somente se, a matriz A−λI for singular, enta˜o, os autovalores de A sa˜o soluc¸o˜es da equac¸a˜o |A− λ I| = 0. (2.4) Teorema 2.4. Seja uma matriz Ak×k e λ um escalar, enta˜o, as seguintes afirmac¸o˜es sa˜o equiva- lentes: a) λ e´ um autovalor de A. b) λ e´ soluc¸a˜o de |A− λ I| = 0. c) o sistema (A− λ I) x = 0 tem soluc¸o˜es na˜o triviais. Notas: 1) A equac¸a˜o polinomial |A x− λ I| = 0 e´ chamada func¸a˜o caracter´ıstica de A; 1) Os valores λ e x e sa˜o chamados autovalor e autovetor associados; 2) Normalmente, os autovetores sa˜o dados na forma padronizada e, tal que ete = 1, em que ete = x‖x‖ = x√ xtx . 20 Matrizes Teoria de Matrizes para Estat´ıstica Resultado: Seja Ak×k uma matriz quadrada; como o polinoˆmio (2.4) e´ de grau k, enta˜o existem k autovalores λ1, λ2, . . . , λk que satisfazem a equac¸a˜o polinomial |A− λ I| = 0. Assim sendo, existem k autovetores e1, e2, . . . , ek associados. Exemplos: i) Seja a matriz: A = [ 1 0 1 3 ] , enta˜o |A− λ I| = ∣∣∣∣∣ (1− λ) 01 (3− λ) ∣∣∣∣∣ = (1− λ) (3− λ) = 0 3− 4λ+ λ2 = 0 λ1 = 4 + √ 16− 12 2 = 3 e λ2 = 4−√16− 12 2 = 1 Portanto, os autovalores de A sa˜o λ1 = 3 e λ2 = 1. Para encontrar os autovetores associados devemos fazer: • Autovetor e1 associado ao autovalor λ1 = 3: A x1 = λ1 x1 [ 1 0 1 3 ] [ x11 x12 ] = 3 [ x11 x12 ] { x11 = 3x11 x11 + 3x12 = 3x12 Do sistema acima temos que x11 = 0 e x12 pode ser um valor arbitra´rio, o qual sera´ considerado igual a 1. O primeiro autovetor e´, portanto, x1t = (0, 1). Padronizando o autovetor x1 temos e1 = x1√ x1tx1 = [ 0 1 ] . 21 Matrizes Teoria de Matrizes para Estat´ıstica • Autovetor e2 associado ao autovalor λ2 = 1: A x2 = λ2 x2 [ 1 0 1 3 ] [ x21 x22 ] = [ x21 x22 ] { x21 = x21 x21 + 3x22 = x22 Da segunda equac¸a˜o temos x21 = −2x22. Tomando x22 = 1, enta˜o x21 fica igual a x21 = −2 e o segundo autovetor e´, portanto, x2t = (−2, 1). Padronizando o autovetor x2 temos e2 = x2√ x2tx2 = 1√ 5 [ −2 1 ] = [ −2/√5 1/ √ 5 ] . ii) Outro exemplo: A = [ 3 4 1 6 ] , enta˜o ∣∣∣∣∣ (3− λ) 41 (6− λ) ∣∣∣∣∣ = 14− 9λ+ λ2 = 0 λ1 = 7 λ2 = 2 • Autovetor e1 associado ao autovalor λ1 = 7:{ 3x11 + 4x12 = 7x11 x11 + 6x12 = 7x12 Do sistema acima temos que x11 = x12, portando, x1t = (1, 1) e, e1 = [ 1/ √ 2 1/ √ 2 ] . • Autovetor e2 associado ao autovalor λ2 = 2:{ 3x21 + 4x22 = 2x21 x21 + 6x22 = 2x22 Do sistema acima temos que x21 = −4x22, portando, x2t = (1,−1/4) e, e2 = [ 4/ √ 17 −1/√17 ] . Resultados: 22 Matrizes Teoria de Matrizes para Estat´ıstica a) Seja Ap×p com autovalores λ1, λ2, . . . , λp, enta˜o, os autovalores de AtA e AAt, denotados por δ1, δ2, . . . , δp, sera˜o os mesmos e p∏ i=1 λ2i = p∏ i=1 δi; b) Se, ale´m disso, A for sime´trica, com autovetores v1,v2, . . . ,vp, AtA e AAt tera˜o autovalores δ1 = λ21, δ2 = λ22, . . . , δp = λ2p e mesmos autovetores; c) Os autovalores δ1, δ2, . . . , δp de AtA e AAt recebem o nome de valores singulares. 2.5 Matriz dos cofatores e matriz adjunta i) Matriz dos Cofatores: Seja uma matriz quadrada Ap×p. Considere |Aij | como sendo o determinante da submatriz resultante ao se retirar a i-e´sima linha e j-e´sima coluna de A, i, j = 1, 2, . . . , p. Enta˜o a quantidade Cij = (−1)i+j |Aij | , e´ definida como cofator do elemento aij . A matriz que se obte´m substituindo-se cada termo ai,j de A pelo seu respectivo cofator e´ chamada matriz dos cofatores de A e sera´ denotada por cof(A). cof(A) = C11 C12 · · · C1p C21 C22 · · · C2p ... ... . . . ... Cp1 Cp2 · · · Cpp Casos especiais: Matriz 2×2: cof (A) = [ a22 −a21 −a12 a11 ] . 23 Matrizes Teoria de Matrizes para Estat´ıstica Matriz 3×3: cof (A) = ∣∣∣∣∣ a22 a23a32 a33 ∣∣∣∣∣ − ∣∣∣∣∣ a21 a23a31 a33 ∣∣∣∣∣ ∣∣∣∣∣ a21 a22a31 a32 ∣∣∣∣∣ − ∣∣∣∣∣ a12 a13a31 a33 ∣∣∣∣∣ ∣∣∣∣∣ a11 a13a31 a33 ∣∣∣∣∣ − ∣∣∣∣∣ a11 a12a31 a32 ∣∣∣∣∣ ∣∣∣∣∣ a11 a13a22 a23 ∣∣∣∣∣ − ∣∣∣∣∣ a11 a13a21 a23 ∣∣∣∣∣ ∣∣∣∣∣ a12 a12a21 a22 ∣∣∣∣∣ . Exemplos: a) Matriz 2×2: A = [ 1 3 6 4 ] , cof(A) = [ 4 −6 −3 1 ] . b) Matriz 3×3: A = 3 0 1 1 2 1 3 −3 4 . C11 = (−1)(1+1) ∣∣∣∣∣ 2 1−3 4 ∣∣∣∣∣ = 11, C12 = (−1)(1+2) ∣∣∣∣∣ 1 13 4 ∣∣∣∣∣ = −1 C13 = (−1)(1+3) ∣∣∣∣∣ 1 23 −3 ∣∣∣∣∣ = −9. Ainda, C21 = −3, C22 = 9, C23 = 9, C31 = −2, C32 = −2 e C33 = 6, logo cof(A) = 11 −1 −9 −3 9 9 −2 −2 6 ii) Matriz Adjunta: A matriz adjunta de uma matriz quadrada, denotada por adj(A), e´ a transposta da matriz dos cofatores. Caso especial: Matriz 2×2: adj (A) = [ a22 −a12 −a21 a11 ] . Exemplos: 24 Matrizes Teoria de Matrizes para Estat´ıstica a) Matriz 2×2: A = [ 1 3 6 4 ] , adj(A) = [ 4 −3 −6 1 ] . b) Matriz 3×3: A = 3 0 1 1 2 1 3 −3 4 , adj(A) = 11 −3 −2 −1 9 −2 −9 9 6 2.6 Matriz inversa A inversa de uma matriz quadrada A, denotada por A−1, e´ tal que: A A−1 = A−1A = I. Pode-se encontrar a inversa de uma matriz de uma maneira ra´pida por meio da relac¸a˜o com sua matriz adjunta A−1 = 1|A|adj (A) , em que |A| e´ o determinante da matriz A. Caso especial: a inversa de uma matriz 2×2 e´ dada por A = [ a11 a12 a21 a22 ] , A−1 = 1|A| [ a22 −a12 −a21 a11 ] . Exemplo: A = [ 1 3 6 4 ] , A−1 = − 114 [ 4 −3 −1 2 ] . O procedimento acima, apesar de simples, na˜o e´ pra´tico quando se tem matrizes com dimenso˜es muito grandes. O me´todo da diagonalizac¸a˜o (ou pivoteamento), mais pra´tico, e´ mais indicado messes casos. O me´todo do pivoteamento consiste em se colocar a matriz A ou lado da matriz identidade I, de mesma dimensa˜o, formando uma matriz estendida [ A I ] . Por meio de operac¸o˜es elementares aplicadas naslinhas de [ A I ] , efetuar a diagonalizac¸a˜o de A transformando-a numa matriz identidade (as mesmas transformac¸o˜es devem ser aplicadas em I). Apo´s a finalizac¸a˜o do processo, tem-se a` esquerda uma matriz identidade e a` direita a matriz inversa de A, ou seja, [ I A−1 ] . Exemplo: Encontrar a matriz inversa de A pelo me´todo do pivoteamento. 25 Matrizes Teoria de Matrizes para Estat´ıstica A = 1 2 −1 1 2 2 0 3 0 −3 2 1 −3 0 −1 −4 . a) Montar a matriz estendida [ A I ] : 1 2 −1 1 1 0 0 0 2 2 0 3 0 1 0 0 0 −3 2 1 0 0 1 0 −3 0 −1 −4 0 0 0 1 b) Multiplicar a primeira linha por (−2) e somar a` segunda linha e multiplicar a primeira linha por (3) e somar a` quarta linha: 1 2 −1 1 1 0 0 0 0 −2 2 1 −2 1 0 0 0 −3 2 1 0 0 1 0 0 6 −4 −1 3 0 0 1 26 Matrizes Teoria de Matrizes para Estat´ıstica c) Dividir a segunda linha por (−2). Na sequeˆncia, multiplicar a segunda linha por (3) e somar a` terceira linha e multiplicar a segunda linha por (−6) e somar a` quarta linha: 1 2 −1 1 1 0 0 0 0 1 −1 −1/2 1 −1/2 0 0 0 0 −1 −1/2 3 −3/2 1 0 0 0 2 2 −3 3 0 1 d) Multiplicar a terceira linha por (−1). Na sequeˆncia, multiplicar a terceira linha por (−2) e somar a` quarta linha: 1 2 −1 1 1 0 0 0 0 1 −1 −1/2 1 −1/2 0 0 0 0 1 1/2 −3 3/2 −1 0 0 0 0 1 3 0 2 1 d) Multiplicar a quarta linha por (−1/2) e somar a` terceira linha; multiplicar a quarta linha por (1/2) e somar a` segunda linha e multiplicar a quarta linha por (−1) e somar a` primeira linha: 1 2 −1 0 −2 0 −2 −1 0 1 −1 0 5/2 −1/2 1 1/2 0 0 1 0 −9/2 3/2 −2 −1/2 0 0 0 1 3 0 2 1 e) Multiplicar a terceira linha por (1) e somar a`s segunda e primeira linhas: 1 2 0 0 −13/2 3/2 −4 −3/2 0 1 0 0 −2 1 −1 0 0 0 1 0 −9/2 3/2 −2 −1/2 0 0 0 1 3 0 2 1 f) Multiplicar a segunda linha por (−2) e somar a` primeira linha, com o pivoteamento completo: 1 0 0 0 −5/2 −1/2 −2 −3/2 0 1 0 0 −2 1 −1 0 0 0 1 0 −9/2 3/2 −2 −1/2 0 0 0 1 3 0 2 1 . Portanto, a inversa de A e´: A−1 = −5/2 −1/2 −2 −3/2 −2 1 −1 0 −9/2 3/2 −2 −1/2 3 0 2 1 . 27 Matrizes Teoria de Matrizes para Estat´ıstica Resultados (as matrizes A, B e C sa˜o tais que as inversas existam e os produtos sejam definidos) a) (A−1)t = (At)−1; b) (A B)−1 = B−1A−1; c) (kA)−1 = (1/k)A−1; d) Se existe a inversa A−1 de uma matriz A, enta˜o A−1 e´ u´nica. 2.7 Matriz na˜o singular Uma matriz quadrada Ak×k e´ na˜o singular se: A x = 0 =⇒ x = 0. Notas: 1) Note que A x = a1x1 + a2x2 + . . .+ akxk, onde ai e´ a i-e´sima coluna de A, i = 1, 2, . . . , k. Portanto, uma matriz Ak×k e´ na˜o singular se as suas colunas forem linearmente independentes, 2) Uma matriz quadrada e´ de posto completo se, e so´ se, ela e´ na˜o singular, 3) Se Ak×k e´ na˜o singular, enta˜o existe uma u´nica matriz inversa A−1, 4) Se Ak×k e´ na˜o singular, enta˜o |A| = 1/|A−1|, isto e´ |A|·|A−1| = 1, 5) Para uma matriz Ak×k na˜o singular, os resultados a seguir sa˜o equivalentes • A x = 0 ⇒ x = 0, • |A| 6= 0, • Existe A−1 tal que, A−1A = I. 2.8 Matriz ortogonal Uma matriz quadrada e´ dita ser ortogonal se P−1 = Pt, ou seja, uma matriz Pk×k e dita ser ortogonal se suas colunas, consideradas como vetores, sa˜o mutuamente perpendiculares e de comprimento 1, o que equivale a dizer que P Pt = I. Exemplo: P = −1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2 1/2 1/2 1/2 1/2 −1/2 , enta˜o P Pt = I. Nota: Uma matriz P e´ ortogonal, se e somente se, Pt = P−1. Propriedades: a) Sejam pij , i, j = 1, 2, . . . , k, elementos de uma matriz ortogonal P, enta˜o, −1 ≤ pij ≤ 1; b) Se P e´ ortogonal =⇒ P e´ na˜o singular; 28 Matrizes Teoria de Matrizes para Estat´ıstica c) det(P) = ± 1; d) Sejam P1, P2, . . ., Pk ortogonais, enta˜o o produto P1·P2· . . . ·Pk e´ uma matriz ortogonal; Teorema 2.5. Seja uma matriz quadrada A, e uma matriz orotogonal P, enta˜o: det(A) = det(PtAP) � Teorema 2.6. Seja uma matriz quadrada A, enta˜o existe P ortogonal, tal que PtAP = D, D diagonal, se, e so´ se, A e´ sime´trica � Exemplo: A = [ 1 0 4 1 ] det(A) = 1 P = 1√ 2 − 1√ 2 1√ 2 1√ 2 PtAP = [ 3 −2 2 −1 ] det(PtAP) = 1 2.9 Matriz definida positiva Considere o produto xtA x. Como temos apenas termos quadra´ticos x2i e termos cruzados xixj , xtA x recebe o nome de forma quadra´tica. Se uma matriz Ak×k, simetrica, e´ tal que xtA x > 0, ∀ x na˜o nulo, enta˜o, dizemos que A e´ uma matriz definida positiva. Nota: Se uma matriz Ak×k e´ definida positiva, enta˜o os seus autovalores sa˜o todos positivos, isto e´ λi > 0, ∀ i = 1, 2, . . . , k. Exemplo: Considere a forma quadra´tica 6x21 + 4x1x2 + 3x22, enta˜o xtA x = [ x1 x2 ] [ 6 2 2 3 ] [ x1 x2 ] . Como 6x21 + 4x1x2 + 3x22 > 0, ∀ x 6= 0, enta˜o, A = [ 6 2 2 3 ] e´ definida positiva. Notas: 1) Se xtA x ≥ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida positiva, 2) Se xtA x < 0, ∀ x na˜o nulo, enta˜o A e´ definida negativa, 3) Se xtA x ≤ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida negativa. 29 Matrizes Teoria de Matrizes para Estat´ıstica 2.10 Operac¸o˜es elementares Operac¸o˜es elementares sa˜o transformac¸o˜es aplicadas nas linhas e colunas de uma matriz, po- dendo ser do tipo: i) troca de 2 linhas (ou colunas); ii) multiplicac¸a˜o de uma linha (ou coluna) por um esclar; iii) combinac¸o˜es lineares de linhas (ou colunas). As operac¸o˜es elementares podem ser representadas por meio de matrizes que recebem o nome de matrizes elementares. Por exemplo, considere o operador P = 1 0 0 4 1 0 0 0 1 . Operando numa matriz A3×k, tem como resultado PA que preserva as linhas 1 e 3 e a segunda linha dada por 4 vezes a linha 1 mais a linha 2. Exemplo: PA = 1 0 0 4 1 0 0 0 1 1 3 2 −2 4 2 −3 1 6 1 8 3 = 1 3 2 −2 8 14 5 −7 6 1 8 3 . Resultados: a) o posto de uma matriz na˜o e´ alterado pela aplicac¸a˜o de operac¸o˜es elementares; b) duas matrizes de mesmo posto e dimenso˜es sa˜o ditas serem equivalentes; c) duas matrizes equivalentes podem ser transformadas uma na outra por meio de operac¸o˜es elementares Sejam matrizes na˜o singulares P e Q, enta˜o, para alguma matriz A, os produtos PA, AQ e PAQ teˆm todas o mesmo posto. 2.11 Matrizes similares Sejam A e B quadradas de mesmas dimenso˜es, se existe Q na˜o singular, tal que: B = Q−1AQ, enta˜o A e B sa˜o chamadas de similares e a transformac¸a˜o Q−1AQ e´ chamada transformac¸a˜o similar. 30 Matrizes Teoria de Matrizes para Estat´ıstica Resultados: i) Os determinantes de matrizes similares sa˜o iguais; no caso, |A| = |B|; ii) Matrizes similares teˆm mesmos autovalores. Exemplo 2.1. Sejam A = [ 0.4 0.6 0.2 0.8 ] e Q = [ 1 1 1 −3 ] . Enta˜o: B = [ 3/4 1/4 1/4 1/4 ] [ 0.4 0.6 0.2 0.8 ] [ 1 1 1 −3 ] = [ 1 −1.6 0 0.2 ] . Neste caso, |A| = 0.2 = |B|. Resultado: Seja Ak×k, enta˜o existe uma matriz Q tal que Q−1AQ = T, em que T e´ triangular superior e os autovalores de A sera˜o a diagonal de T. Teorema 2.7. Se Ak×k e´ sime´trica, enta˜o, seus autovalores sera˜o reais. Teorema 2.8. Se Ak×k e´ sime´trica, enta˜o, para dois autovalores λi e λj , i 6= j, teremos autovetores associados xi e xj e xti xj = 0, ou seja, xi e xj sa˜o ortogonais. Teorema 2.9. Se Ak×k e´ sime´trica, enta˜o existe uma matriz P tal que PtAP = Λ, em que Λ e´ diagonal com os autovalores de A. Exemplo 2.2. Seja A = [ 16 4 4 10 ] . Seus autovalores sa˜o λ1 = 18 e λ2 = 8, com autovetores associados: e1 = [ 2/ √ 5 1/ √ 5 ] e e1 = [ 1/ √ 5 −2/√5 ] , logo,P= [ 2/ √ 5 1/ √ 5 1/ √ 5 −2/√5 ] Enta˜o: [ 2/ √ 5 1/ √ 5 1/ √ 5 −2/√5 ] [ 16 4 4 10 ] [ 2/ √ 5 1/ √ 5 1/ √ 5 −2/√5 ] = [ 18 0 0 8 ] = Λ. 31 3 Matrizes particionadas Uma matriz particionada e´ uma matriz cujo conteu´do e´ subdividido em submatrizes, ou blocos. Por exemplo, seja Am×n na˜o singular, enta˜o, a matriz A particionada em blocos 2 × 2 e´ definida por: A = A11 A12 m1 × n1 m1 × n2 A21 A22 m2 × n1 m2 × n2 , em que: m1 +m2 = m e n1 + n2 = n. O caso geral da partic¸a˜o em blocos `× c e´ dado por: A = A11 A12 . . . A1c A21 A22 . . . A2c ... ... . . . ... A`1 A`2 . . . A`c , sendo Aij de dimenso˜es mi × nj , i = 1, 2, . . . , ` e j = 1, 2, . . . , c, tal que ∑` i=1 mi = m e c∑ j=1 ni = n. Nota 3.1. i) A partic¸a˜o pode ser quadrada, como e´ o caso 2×2, mas os blocos Aij , i = 1, 2, . . . , ` e j = 1, 2, . . . , c, na˜o sa˜o necessariamente quadrados; Nota 3.2. ii) Neste material vamos considerar apenas as partic¸o˜es em blocos 2× 2. 32 Matrizes particionadas Teoria de Matrizes para Estat´ıstica 3.1 Casos especiais a) Bloco triangulares inferior (L) e superior (U): L = [ A11 0 A21 A22 ] , U = [ A11 A12 0 A22 ] . b) Bloco diagonal: D = [ A11 0 0 A22 ] , c) Sime´trica: A = [ A11 A12 At12 A22 ] , com A11 e A22 sime´tricas. d) Transposta: At = [ At11 At21 At12 At22 ] . 3.2 Operac¸o˜es com matrizes particionadas a) Trac¸o: seja A particionada em blocos 2× 2, enta˜o o trac¸o de A pode ser escrito por traço(A) = traço(A11) + traço(A22). b) Soma: Sejam A e B com mesmas dimenso˜es, particionadas em blocos 2 × 2, tais que seus blocos equivalentes tambe´m teˆm mesmas dimenso˜es, enta˜o: A + B = [ A11 + B11 A12 + B12 A21 + B21 A22 + B22 ] . b) Produto: Sejam Am×n e Bn×k, cujas partic¸o˜es teˆm dimenso˜es compat´ıveis para o produto, 33 Matrizes particionadas Teoria de Matrizes para Estat´ıstica ou seja, A e B sa˜o do tipo: Am×n = A11 A12 m1 × n1 m1 × n2 A21 A22 m2 × n1 m2 × n2 e Bm×n = B11 B12 n1 × k1 n1 × k2 B21 B22 n2 × k1 n2 × k2 , em que: m1 + m2 = m, n1 + n2 = n e k1 + k2 = k, enta˜o o produto entre A e B e´ definido por: Cm×k = AB = [ A11B11 + A12B21 A11B12 + A12B22 A21B11 + A22B21 A21B12 + A22B22 ] Cm×k = C11 C12 m1 × k1 m1 × k2 C21 C22 m2 × k1 m2 × k2 . Exemplo 3.1. Sejam duas matrizes A e B, tais que: A5×5 = 1 2 4 2 1 −1 3 0 −3 1 2 −2 1 0 −1 2 1 3 1 0 −2 0 1 1 −1 , B5×6 = −1 0 3 4 3 0 3 1 1 −3 2 0 0 3 1 0 −1 1 −1 −1 0 −2 −1 −1 1 3 3 2 1 2 . Fazendo os produtos parciais, temos: A11B11 + A12B21 = 4 15 14 9 −9 −2 , 34 Matrizes particionadas Teoria de Matrizes para Estat´ıstica A11B12 + A12B22 = 12 −4 2 4 3 −5 7 5 2 12 0 −1 , A21B11 + A22B21 = [ 0 9 0 −1 ] , A21B12 + A22B22 = [ 10 3 4 2 −8 −12 −9 −2 ] . Portanto, o produto AB e´ dado por: AB5×6 = 4 15 12 −4 2 4 14 9 3 −5 7 5 −9 −2 2 12 0 −1 0 9 10 3 4 2 0 −1 −8 −12 −9 −2 � 3.3 Decomposic¸a˜o LDU A decomposic¸a˜o LDU trata-se de um processo de diagonalizac¸a˜o de uma matriz particionada, em que: � L e´ uma matriz bloco triangular inferior; � D e´ uma matriz bloco diagonal; � U e´ uma matriz bloco triangular superior. Assim sendo, dada uma a matriz A na˜o singular, podemos escrever A = L D U e D = L−1 A U−1. Seja A dada por: A = [ A11 A12 A21 A22 ] . i) Transformamos A numa matriz bloco triangular superior por meio da operac¸a˜o [ I 0 −A21A−111 I ] [ A11 A12 A21 A22 ] = [ A11 A12 0 F ] , (3.1) em que F = A22 −A21A−111 A12. 35 Matrizes particionadas Teoria de Matrizes para Estat´ıstica ii) De maneira semelhante, podemos transformar A numa matriz bloco triangular inferior fa- zendo [ A11 A12 A21 A22 ] [ I −A−111 A12 0 I ] = [ A11 0 A21 F ] , com F definido da mesma forma como no caso anterior. iii) Combinando as duas operac¸o˜es anteriores, ou seja, pre-multiplicando a matriz A pela ma- triz dada em (i) e po´s-multiplicando pela matriz em (ii), temos como resultado uma matriz diagonal [ I 0 −A21A−111 I ] [ A11 A12 A21 A22 ] [ I −A−111 A12 0 I ] = [ A11 0 0 F ] . E´ fa´cil mostrar que (fica como exerc´ıcio) [ I 0 −A21A−111 I ]−1 = [ I 0 A21A−111 I ] = L, e que [ I −A−111 A12 0 I ]−1 [ I A−111 A12 0 I ] = U. Desta forma, a decomposic¸a˜o L D U de A e´ dada por:[ I 0 A21A−111 I ] [ A11 0 0 F ] [ I A−111 A12 0 I ] = A. Exemplo 3.2. Considere a matriz A particionada em blocos 2× 2 A5×5 = 1 1 2 1 1 2 0 2 3 0 2 1 1 3 1 −1 . 36 Matrizes particionadas Teoria de Matrizes para Estat´ıstica Desta forma, temos A11 = [ 1 1 1 2 ] e |A11| = 1, A22 = [ 2 1 1 −1 ] e |A22| = −3, cujas inversas sa˜o dadas por: A−111 = [ 1 1 1 2 ] , A−122 = 1 3 [ 2 1 1 −1 ] . A matriz F, definida em (3.1), e´ dada por F = A22 −A21A−111 A12 = [ −10 1 3 −4 ] . Das relac¸o˜es acima, temos, ainda, que A21A−111 = [ 6 −3 −1 2 ] , A−111 A12 = [ 4 0 −2 1 ] . Portando, as matrizes L, U e D da decomposic¸a˜o LDU de A sa˜o dadas por L = 1 0 0 0 0 1 0 0 6 3 1 0 −1 2 0 1 , 37 Matrizes particionadas Teoria de Matrizes para Estat´ıstica U = 1 0 4 0 0 1 −2 1 0 0 1 0 0 0 0 1 , D = 1 1 0 0 1 2 0 0 0 0 −10 1 0 0 3 4 � 3.4 Rank, ou posto, de matrizes particionadas Seja a matriz A particionada em blocos 2× 2, enta˜o, a) se A11 na˜o e´ singular, rank(A) = rank(A11) + rank(F); b) se A22 na˜o e´ singular, rank(A) = rank(A22) + rank(G), em que F = A22 −A21A −1 11 A12 G = A11 −A12A−122 A21 Prova item (a): Se duas matrizes L e U na˜o sa˜o singulares enta˜o das sec¸o˜es (2.10) e (3.3) segue-se que: rank(A) = rank(D) = rank(A11) + rank(F) . A prova do item (b) segue reacioc´ınio semelhante, com a diagonalizac¸a˜o da decomposic¸a˜o LDU partindo de A22 como pivoˆ. 3.5 Determinante de matrizes particionadas Resultado: Considere uma matriz A particionada em blocos 2 × 2 em que A11 e A22 sejam quadradas. Se A for bloco triangular superior, bloco triangular inferior ou bloco diagonal, ou seja, A = [ A11 A12 0 A22 ] , A = [ A11 0 A21 A22 ] ou A = [ A11 0 0 A22 ] . 38 Matrizes particionadas Teoria de Matrizes para Estat´ıstica enta˜o, segue-se que |A| = |A11| · |A22|. Seja A = [ A11 A12 A21 A22 ] , enta˜o |A| = |A11| · |A22 −A21A−111 A12|, ou seja, det(A) = det(A11) · det(F). Prova: Podemos provar a relac¸a˜o acima a partir da diagonalizac¸a˜o de A, pore´m, vamos fazer a demonstrac¸a˜o usando uma proposic¸a˜o diferente. Seja a matriz C dada por C = [ A−111 −A−111 A12 0 I ] , enta˜o, segue-se que |C| = |A−111 | · |I| = |A−111 |. Como podemos escrever |A| = |A11| · |A| · |A−111 |, logo |A| = |A11| · ∣∣∣∣∣ A11 A12A21 A22 ∣∣∣∣∣ · ∣∣∣∣∣ A−111 −A−111 A120 I ∣∣∣∣∣ |A| = |A11| · ∣∣∣∣∣ [ A11 A12 A21 A22 ] · [ A−111 −A−111 A12 0 I ]∣∣∣∣∣ |A| = |A11| · ∣∣∣∣∣ I 0A21A−111 A22 −A21A−111 A12 ∣∣∣∣∣ |A| = |A11| · ∣∣∣A22 −A21A−111 A12∣∣∣ � Exemplo 3.3. Considere a matriz do Exemplo (3.2). Como A11 = [ 1 1 1 2 ] e F = [ −10 1 3 −4 ] , 39 Matrizes particionadas Teoria de Matrizes para Estat´ıstica enta˜o, o determinante da matriz A e´ dado por: |A| = ∣∣∣∣∣ 1 11 2 ∣∣∣∣∣ ·∣∣∣∣∣ −10 13 −4 ∣∣∣∣∣ = (1) · (37) = 37. Nota 3.3. Com um racioc´ınio semelhante, mostra-se que |A| = |A22| · |A11−A12A−122 A21|, ou seja, det(A) = det(A22) · det(G). 3.6 A inversa de uma matriz particionada Seja |A11| 6= 0 e |A22| 6= 0, os resultados a seguir sa˜o va´lidos. i) A−111 e A−122 existem; ii) ( A11 −A12A−122 A21 )−1 e ( A22 −A21A−111 A12 )−1 existem; iii) Com isso, A−1 pode ser escrita como: A−1 = ( A11 −A12A−122 A21 )−1 −A−111 A12 (A22 −A21A−111 A12)−1 −A−122 A21 ( A11 −A12A−122 A21 )−1 ( A22 −A21A−111 A12 )−1 . (3.2) Prova: Considere a matriz B, inversa de A, isto e´ AB = I, enta˜o, B11 e B22 na˜o sa˜o singulares. Desta forma, temos que AB = [ A11B11 + A12B21 A11B12 + A12B22 A21B11 + A22B21 A21B12 + A22B22 ] = [ I 0 0 I ] . Logo, temos as seguintes relac¸o˜es entre as partes de A e as submatrizes B11 e B21A11B11 + A12B21 = IA21B11 + A22B21 = 0 40 Matrizes particionadas Teoria de Matrizes para Estat´ıstica Isolando B21 na segunda equac¸a˜o, temos A21B11 + A22B21 = 0 A22B21 = −A21B11 B21 = −A−122 A21B11 Asim, podemos obter B11 substituindo B21 na primeira equac¸a˜o, ou seja, A11B11 −A12(A−122 A21B11) = I (A11 −A12A−122 A21)B11 = I B11 = (A11 −A12A−122 A21)−1 B11 = G−1 Com isso B21 e´ dado por: B21 = −A−122 A21(A11 −A12A−122 A21)−1 B21 = −A−122 A21G−1 De maneira ana´loga podemos calcular B12 e B22 a partir deA11B12 + A12B22 = 0A21B12 + A22B22 = I De onde obtemos:{ B22 = (A22 −A21A−111 A12)−1 B22 = F−1 e { B12 = −A−111 A12(A22 −A21A−111 A12)−1 B12 = −A−111 A12F−1 Portanto, com as submatrizes B11, B12, B21 e B22 obtemos a inversa de A como em (3.2) � 41 4 Decomposic¸a˜o de matrizes 4.1 Decomposic¸a˜o espectral Seja a matriz Ak×k, sime´trica, enta˜o A pode escrita por: A = k∑ i=1 λi ei eti. Exemplo: A = [ 2.2 0.4 0.4 2.8 ] , enta˜o λ1 = 3, e1 = 1√ 5 2√ 5 ; λ2 = 2, e2 = 2√ 5−1√ 5 . Logo, A = 3 [ 1/ √ 5 2/ √ 5 ] [ 1√ 5 , 2√ 5 ] + 2 [ 2/ √ 5 −1/√5 ] [ 2√ 5 , −1√ 5 ] A = [ 3/5 6/5 6/5 12/5 ] + [ 8/5 −4/5 −4/5 2/5 ] A = [ 2.2 0.4 0.4 2.8 ] . Vamos definir uma matriz U, ortogonal, cujas colunas sa˜o formadas pelos autovetores e1, e2, 42 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica . . ., ek e, da mesma forma, uma matriz ortogonal V, tal que V = Ut, ou seja U = [ e1 | e2 | . . . | ek ] , e V = Ut = et1 et2 ... etk . Definindo, ainda, uma matriz diagonal formada pelos autovalores λ1, λ2, . . ., λk, ou seja, Λ = λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λk , podemos escrever A = U Λ V ou A = U Λ Ut. No caso 2×2, temos U = [ e1 | e2 ] e Λ = [ λ1 0 0 λ2 ] . Desta forma, uma matriz A2×2 pode ser representada por A = [ e1 | e2 ] [ λ1 0 0 λ2 ] [ et1 et2 ] A = λ1 e1 et1 + λ2 e2 et2. Exemplo: No exemplo anterior temos A = [ 2.2 0.4 0.4 2.8 ] , U = [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] e Λ = [ 3 0 0 2 ] . Casos especiais: 43 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica a) Matriz inversa: a inversa de uma matriz Ak×k, sime´trica, pode ser obtida fazendo A−1 = k∑ i=1 1 λi ei eti, ou ainda, A−1 = U Λ−1Ut. b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz Ak×k, definida positiva, e´ uma matriz tal que A1/2A1/2 = A, podendo ser obtida de A1/2 = k∑ i=1 √ λi ei eti, ou, equivalentemente, A1/2 = UΛ1/2Ut, em que Λ1/2 e´ dada por Λ1/2 = √ λ1 0 · · · 0 0 √ λ2 · · · 0 ... ... . . . ... 0 0 · · · √ λk . Outras relac¸o˜es envolvendo a matriz raiz quadrada sa˜o apresentadas a seguir: • A−1/2 = (A1/2)−1 = UΛ−1/2Ut; • A−1/2A−1/2 = A−1. Exemplo: Considere a matriz A = [ 2.2 0.4 0.4 2.8 ] , enta˜o, U = [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] e Λ = [ 3 0 0 2 ] . Desta forma, fazendo Λ1/2 = [ √ 3 0 0 √ 2 ] , temos A1/2 = [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] [ √ 3 0 0 √ 2 ] [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] A1/2 = ( √ 3 + 4 √ 2) 5 (2 √ 3− 2√2) 5 (2 √ 3− 2√2) 5 (4 √ 3 + √ 2) 5 . 44 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica A matriz A1/2 e´ a matriz raiz quadrada de A sendo que, de fato A1/2 A1/2 = ( √ 3 + 4 √ 2) 5 (2 √ 3− 2√2) 5 (2 √ 3− 2√2) 5 (4 √ 3 + √ 2) 5 ( √ 3 + 4 √ 2) 5 (2 √ 3− 2√2) 5 (2 √ 3− 2√2) 5 (4 √ 3 + √ 2) 5 = [ 2.2 0.4 0.4 2.8 ] = A. Agora, fazendo Λ−1/2 = [ 1/ √ 3 0 0 1/ √ 2 ] , temos A−1/2 = [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] [ 1/ √ 3 0 0 1/ √ 2 ] [ 1/ √ 5 2/ √ 5 2/ √ 5 −1/√5 ] A−1/2 = ( 1 5 √ 3 + 4 5 √ 2 ) ( 2 5 √ 3 − 2 5 √ 2 ) ( 2 5 √ 3 − 2 5 √ 2 ) ( 4 5 √ 3 + 1 5 √ 2 ) , sendo assim, teremos A−1/2 A−1/2 = 16 [ 2.8 −0.2 −0.2 2.2 ] = A−1. 4.2 Decomposic¸a˜o em valores singulares Seja a matriz Am×k uma matriz de valores reais. Existem matrizes Um×m e Vk×k, ortogonais, tais que A = UΣVt, em que Λ e´ uma matriz do tipo Σ = [ Σr 0 0 0 ] m×k , com r = posto de A, e Σr e´ uma matriz diagonal com os r valores singulares de A. A decomposic¸a˜o em valores singulares pode ser expressa numa relac¸a˜o matricial que depende do posto da matriz. Considere Am×k e seja r ≤ min(m, k), rank(A). Enta˜o, existem r constantes positivas, ou valores singulares, σ1 = √ λ1, σ2 = √ λ2, . . . , σr = √ λr, em que λi > 0, i = 1, 2, . . . , r sa˜o os r autovalores positivos de AtA. Existem, ainda, r autovetores v1,v2, . . . ,vr, de dimensa˜o k × 1 e r autovetores u1,u2, . . . ,ur, 45 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica de dimensa˜o m× 1, tal que A = r∑ i=1 σi ui vti = Ur Σr Vtr, em que Ur = [u1 | u2 | · · · | ur] e Vr = [v1 | v2 | · · · | vr], sa˜o matrizes ortogonais e Σr e´ uma matriz diagonal do tipo Σr = σ1 0 · · · 0 0 σ2 · · · 0 ... ... . . . ... 0 0 · · · σr . Nessa situac¸a˜o, λ1 ≥ λ2 ≥ . . . ≥ λr > 0 e v1,v2, . . . ,vr, sa˜o os r primeiros pares de autovalores e autovetores de AtA, obtidos de AtA vi = λi vi, em que λ1 > λ2 > . . . > λr > 0, sa˜o valores estritamente positivos. Os autovetores ui, por sua vez, esta˜o associados aos autovetores vi, i = 1, 2, . . . , r, pela relac¸a˜o ui = 1 σi A vi. Desta forma, a decomposic¸a˜o em valores singulares pode ser escrita pela expressa˜o A = Ur Σr Vtr. Nota 4.1. Notas a) Alternativamente, ui, i = 1, 2, . . . , r, sa˜o os r autovetores associados aos mesmos autovalores positivos λ1 ≥ λ2 ≥ . . . ≥ λr > 0 de A At, em que σi = √ λi, i = 1, 2, . . . , r sa˜o os respectivos valores singulares. Os autovetores vi, por sua vez, esta˜o relacionados aos autovetores ui, i = 1, 2, . . . , r, pela relac¸a˜o vi = 1 σi At ui. b) Da decomposic¸a˜o em valores singulares temos, ainda, as seguintes relac¸o˜es:A vi = σi ui.At ui = σi vi. 46 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica c) Uma forma de representar a decomposic¸a˜o em valores singulares e´ atrave´s da decomposic¸a˜o polar, em que a matriz Am×k pode ser representada por A = P Q, com P = U Σ Ut e Q = U Vt. De fato, A = U Σ Vt = U Σ (Ut U) Vt = (U Σ Ut) (U Vt) = P Q. Exemplo 4.1. Seja A = 1 1 0 1 1 0 , enta˜o, At A e´ dadapor At A = [ 1 0 1 1 1 0 ] 1 1 0 1 1 0 = [ 2 1 1 2 ] . O posto de A e´ r = 2, assim, os dois autovalores diferentes de 0 de At A sa˜o λ1 = 3 e λ2 = 1. Os autovetores associados sa˜o v1 = [ 1/ √ 2 1/ √ 2 ] e v2 = [ 1/ √ 2 −1/√2 ] respectivamente. Os autovetores u1 e u2, por sua vez, sa˜o obtidos de u1 = 1√ 3 1 1 0 1 1 0 [ 1/ √ 2 1/ √ 2 ] = 2/ √ 6 1/ √ 6 1/ √ 6 , u2 = 1√ 1 1 1 0 1 1 0 [ 1/ √ 2 −1/√2 ] = 0 −1/√2 1/ √ 2 . 47 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica Assim sendo, a matriz A pode ser escrita como A = Ur Σr Vtr, ou seja, A = 2/ √ 6 0 1/ √ 6 −1/√2 1/ √ 6 1/ √ 2 [ √ 3 0 0 1 ] [ 1/ √ 2 1/ √ 2 1/ √ 2 −1/√2 ] . A = 1 1 0 1 1 0 A decomposic¸a˜o polar de A e´ expressa por: P = U Σ Ut = 1√ 12 4 2 2 2 (1 + √ 3) (1−√3) 2 (1−√3) (1 +√3) Q = U Vt = 1√ 12 2 2 (1−√3) (1 +√3) (1 + √ 3) (1−√3) � Exemplo 4.2. Seja A = 4 3 8 6 8 −9 , enta˜o, A At e´ dada por A At = 4 3 8 6 8 −9 [ 4 8 8 3 6 −9 ] = 25 50 5 50 100 10 5 10 145 . Os autovalores diferentes de 0 de A At sa˜o λ1 = 150 e λ2 = 120 com autovetores associados, u1 = −1/√30 −2/√30 −5/√30 e u2 = 1/ √ 6 2/ √ 6 −1/√6 respectivamente. 48 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica Os vetores v1 e v2, por sua vez, sa˜o obtidos de v1 = 1√ 150 [ 4 8 8 3 6 −9 ] −1/√30 −2/√30 −5/√30 = [ −2/√5 1/ √ 5 ] , v2 = 1√ 120 [ 4 8 8 3 6 −9 ] 1/ √ 6 2/ √ 6 −1/√6 = [ −1/√5 −2/√5 . ] . Assim sendo, a matriz A pode ser escrita como A = U Λ Vt, ou seja, A = −1/√30 −1/√6 −2/√30 −2/√6 −5/√30 1/√6 [ √ 150 0 0 √ 120 ] [ −2/√5 1/√5 −1/√5 −2/√5 ] . A = 4 3 8 6 8 −9 � 4.3 Decomposic¸a˜o LU Seja a matriz An×n, a decomposic¸a˜o LU e´ uma fatorac¸a˜o do tipo A = LU, em que L e´ uma matriz triangular inferior cujos elementos da diagonal sa˜o iguais a 1 e U uma matriz triangular superior, ou seja 1 0 0 · · · 0 `21 1 0 · · · 0 `31 `32 1 · · · 0 ... ... ... . . . ... `n1 `n2 `n3 · · · 1 u11 u12 u13 · · · u1n 0 u22 u23 · · · u2n 0 0 u33 · · · u3n ... ... ... . . . ... 0 0 0 · · · unn = a11 a12 a13 · · · a1n a21 a22 a23 · · · a2n a31 a32 a33 · · · a3n ... ... ... . . . ... an1 an2 an3 · · · ann . (4.1) Definic¸a˜o 4.1. Menores principais: Seja uma matriz quadrada An×n dada em (4.2), enta˜o, o menor principal de A de ordem k, denotado por Ak, e´ dado pela submatriz formada pelas k 49 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica primeiras linhas e k primeiras colunas de A, ou seja, Ak = a11 a12 · · · a1k a21 a22 · · · a2k ... ... . . . ... ak1 ak2 · · · akk , k = 1, 2, . . . , n. Os menores principais de uma matriz assim definidos tambe´m sa˜o chamados de menores prin- cipais l´ıderes, por serem formados pelas suas k primeiras linhas e k primeiras colunas. Teorema 4.1. Seja uma matriz quadrada An×n e Ak seu menor principal de ordem k. Se |Ak| 6= 0, ∀ k ≤ n − 1, enta˜o, existe uma u´nica matriz triangular inferior L, cujos elementos da diagonal sa˜o iguais a 1, e, uma u´nica matriz triangular superior U tal que A = LU. Ale´m disso, |A| = u11 · u22 · · · unn. Prova: A prova do teorema (4.1) e´ feita por induc¸a˜o. 4.3.1 Determinac¸a˜o das matrizes L e U As matrizes U e L podem ser obtidas aplicando-se a eliminac¸a˜o Gaussiana (ou escalonamento) em A, transformando-a na matriz triangular superior U. Nesse processo, os elementos da diagonal de U sera˜o os pivoˆs de A. Com as operac¸a˜o nas linhas de A para escalonar as suas colunas, os valores utilizados como mul- tiplicadores, com os sinais trocados, devem ocupar suas posic¸o˜es respectivas numa matriz triangular inferior que, no final do processo, sera´ a matriz L. Neste processo e´ comum colocar a matriz identidade ao lado da matriz A, que sera´ escalonada. Os multiplicadores (com os sinais trocados) sera˜o, enta˜o, alocados nas respetivas posic¸o˜es da matriz identidade, abaixo da sua diagonal. No final do processo a matriz A sera´ transformada na matriz triangular superior U e, a identidade, na matriz triangular inferior L. O exemplo a seguir ilustra o processo descrito acima. Exemplo: Considere a matriz A A = 2 1 4 6 3 −2 5 0 −1 2 −3 4 2 2 −2 3 . 50 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica a) Montar a matriz [ I A ] : 1 0 0 0 2 1 4 6 0 1 0 0 3 −2 5 0 0 0 1 0 −1 2 −3 4 0 0 0 1 2 2 −2 3 b) Multiplicar a primeira linha por (−3/2) e somar a` segunda linha; multiplicar a primeira linha por (1/2) e somar a` terceira linha e multiplicar a primeira linha por (−1) e soma a` quarta linha: 1 0 0 0 2 1 4 6 3/2 1 0 0 0 −7/2 −1 −9 −1/2 0 1 0 0 5/2 −1 7 1 0 0 1 0 1 −6 −3 c) Multiplicar a segunda linha por (5/7) e somar a` terceira linha e multiplicar a segunda linha por (2/7) e somar a` quarta linha: 1 0 0 0 2 1 4 6 3/2 1 0 0 0 −7/2 −1 −9 −1/2 −5/7 1 0 0 0 −12/7 4/7 1 −2/7 0 1 0 0 −44/7 −39/7 d) Multiplicar terceira linha por (−11/3) e somar a` quarta linha: 1 0 0 0 2 1 4 6 3/2 1 0 0 0 −7/2 −1 −9 −1/2 −5/7 1 0 0 0 −12/7 4/7 1 −2/7 11/3 1 0 0 0 −23/3 Desta forma, temos: 1 0 0 0 3/2 1 0 0 −1/2 −5/7 1 0 1 −2/7 11/3 1 2 1 4 6 0 −7/2 −1 −9 0 0 −12/7 4/7 0 0 0 −23/3 = A. 51 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica 4.3.2 O algoritmo de Crout As matrizes L e U podem ser obtidas pelo algoritmo de Crout, num processo com 2n−1 passos, sendo que, as colunas de U e as linhas de L sa˜o determinadas alternadamente em cada um dos passos (Figura 4.1). Figura 4.1: Determinac¸a˜o das matrizes L e U Seja A = LU, enta˜o: 1 0 0 · · · 0 `21 1 0 · · · 0 `31 `32 1 · · · 0 ... ... ... . . . ... `n1 `n2 `n3 · · · 1 u11 u12 u13 · · · u1n 0 u22 u23 · · · u2n 0 0 u33 · · · u3n ... ... ... . . . ... 0 0 0 · · · unn = A. i) 1o passo: do produto da 1a linha de L com as colunas de U, temos que u11 = a11, u12 = a12, ... u1n = a1n, ⇒ u1j = a1j , j = 1, 2, . . . , n. 52 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica ii) 2o passo: do produto das linhas 2 a n, de L, com a 1a coluna de U, obtemos `21u11 = a21 ⇒ `21 = a21 u11 , `31u11 = a31 ⇒ `31 = a31 u11 , ... ... ... `n1u11 = an1 ⇒ `n1 = an1 u11 , ⇒ `i1 = ai1 u11 i = 2, . . . , n. iii) 3o passo: fazendo o produto da 2a linha de L com as colunas 2 a n de U, temos que `21u12 + u22 = a22, ⇒ u22 = a22 − `21u12, `21u12 + u23 = a23, ⇒ u23 = a23 − `21u13, ... ... ... `21u1n + u2n = a2n, ⇒ u2n = a2n − `21u1n, ⇒ u2j = a2j − `21u1j , j = 2, . . . , n. iv) 4o passo: do produto das linhas 3 a n, de L, com a 2a coluna de U, obtemos `31u12 + `32u22 = a32 ⇒ `32 = a32 − `31a12 u22 , `41u12 + `42u22 = a42 ⇒ `42 = a42 − `41a12 u22 , ... ... ... `n1u12 + `n2u22 = an2 ⇒ `n2 = an2 − `n1a12 u22 , ⇒ `i2 = ai2 − `i1a12 u22 , i = 3, . . . , n. item[iv)]E o processo deve continuar ate´ o passo 2n − 1, quando sera´ obtido o elemento unn de U. 53 Decomposic¸a˜o de matrizes Teoria de Matrizespara Estat´ıstica Desta forma, termos as seguintes fo´rmulas gerais para o processo de determinac¸a˜o de L e U: u1j = a1j , j = 1, 2, . . . , n; `ij = aij −∑i−1k=1 `ikakj ujj , j = 1, 2, . . . , n; i > j; uij = aij − j−1∑ k=1 `ikukj , j = 2, 3, . . . , n; i ≤ j. lembrando que o processo de determinac¸a˜o de `ij e uij deve ser alternado, para cada valor de j. Exemplo 4.3. Considere a matriz A = 2 1 4 6 3 −2 5 0 −1 2 −3 4 2 2 −2 3 , do processo de determinac¸a˜o de L e U, temos: i) 1o passo: u11 = a11 = 2; u12 = a12 = 1; u13 = a13 = 4; u14 = a14 = 6. ii) 2o passo: `21u11 = 3 ⇒ `21 = a21 a11 = 32; `31u11 = −1 ⇒ `31 = a31 a11 = −12; `41u11 = 2 ⇒ `41 = a41 a11 = 1. 54 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica iii) 3o passo: `21u12 + u22 = −2 ⇒ u22 = −2− `21a12 = −2− 32 = − 7 2; `21u13 + u23 = 5 ⇒ u23 = 5− `21a13 = 5− 6 = −1; `21u14 + u24 = 0 u24 = −`21a14 = −9. iv) 4o passo: `31u12 + `32u22 = 2 ( −12 ) (1) + `32 ( −72 ) = 2 ⇒ `32 = ( −27 )( 2 + 12 ) = −57 `41u12 + `42u22 = 2 (1)(1) + `42 ( −72 ) = 2 ⇒ `42 = ( −27 ) (2− 1) = −27 v) 5o passo: `31u13 + `32u23 + u33 = −3 ( −12 ) (4) + ( −57 ) (−1) + u33 = −3 ⇒ u33 = −3 + 2 ( −57 ) = −127 `31u14 + `32u24 + u34 = 4 ( −12 ) (6) + ( −57 ) (−9) + u34 = 4 ⇒ u34 = 4 + 3 ( −457 ) = 47 vi) 6o passo: `41u13 + `42u23 + `43u33 = −2 (1)(4) + ( −27 ) (−1) + `43 ( −127 ) = −2 ⇒ `43 = ( − 712 )( −2− 307 ) = 113 55 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica vii) 7o passo: `41u14 + `42u24 + `43u34 + u44 = 3 (1)(6) + ( −27 ) (−9) + (11 3 )(4 7 ) + u44 = 3 ⇒ u44 = 3− 6− 187 − 44 21 = − 23 3 Desta forma, temos: L = 1 0 0 0 3/2 1 0 0 −1/2 −5/7 1 0 1 −2/7 11/3 1 e U = 2 1 4 6 0 −7/2 −1 −9 0 0 −12/7 4/7 0 0 0 −23/3 . E, ainda: |A| = u11 · u22 · u33 · u44 |A| = (2) · ( −72 ) · ( −127 ) · ( −233 ) |A| = −92. 4.4 Decomposic¸a˜o de Cholesky Seja a matriz An×n, sime´trica e definida positiva, nessa condic¸a˜o A pode fatorada na forma A = GGt, em que G e´ uma matriz triangular inferior. g11 0 · · · 0 g21 g22 · · · 0 ... ... . . . ... gn1 gn2 · · · gnn g11 g21 · · · gn1 0 g22 · · · gn2 ... ... . . . ... 0 0 · · · gnn = a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... an1 an2 · · · ann . Observe que a fatorac¸a˜o de Cholesky e´ equivalente a` decomposic¸a˜o LU, em que U = Gt e L = G, com a diagonal principal na˜o necessariamente formada por 1’s. Da decomposic¸a˜o de Cholesky remos, ainda, que: |A| = |G| |Gt| = (g11 · g22 · · · gnn)2 . 56 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica Como para a decomposic¸a˜o de cholesky a matriz A deve ser definida positiva, a seguir vamos apresentar a definic¸a˜o de matriz definida positiva e uma forma de verificac¸a˜o desta condic¸a˜o dada pelo crite´rio de Sylvestre. Definic¸a˜o 4.2. Uma matriz quadrada An×n e´ definida positiva se, e so´ se, xtAx > 0, ∀ vetor x 6= 0. Ale´m da Definic¸a˜o (4.2), podemos verificar se uma matriz e´ definida positiva pelo crite´rio de Sylvestre, apresentado a seguir: Crite´rio 4.1. Crite´rio de Sylvestre: Uma matriz quadrada An×n e´ definida positiva se, e so´ se, os seus menores principais na˜o forem singulares, ou seja |Ak| 6= 0, k = 1, 2, . . . , n. 4.4.1 Determinac¸a˜o da matriz G De maneira semelhante a` decomposic¸a˜o LU, a matriz G pode ser obtida diretamente do produto GGt, num processo com 2n−1 passos, sendo que, os elementos da diagonal de G e as suas colunas sa˜o determinadas alternadamente (Figura 4.2). Figura 4.2: Determinac¸a˜o da matriz G Para a determinac¸a˜o da matriz G vamos separar os elementos da diagonal daqueles fora da diagonal, iniciando o processo pela sua primeira coluna. O processo deve, enta˜o, prosseguir alter- nadamente na determinac¸a˜o dos elementos da diagonal e das respectivas coluna. As fo´rmulas gerais 57 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica sa˜o apresentadas abaixo: Para a 1a coluna: g11 = √ a11; g1j = ai1 g11 , i = 2, 3, . . . , n. Para as demais colunas: gii = √√√√aii − i−1∑ k=1 g2ik, i = 2, 3, . . . , n gij = 1 gjj aij − j−1∑ k=1 gik gjk , 2 ≤ j < i. Exemplo 4.4. Considere a matriz sime´trica A = 4 2 −4 2 10 4 −4 4 9 . Verificando se a matriz A e´ definida positiva: A1 = 4 ⇒ |A1| = 4 > 0; A2 = 4 2 2 10 ⇒ |A2| = 36 > 0; A3 = A ⇒ |A3| = |A| = 36 > 0. Portanto, pelo crite´rio de Sylvestre temos que a matriz A e´ definida positiva. Calculando os elementos da matriz G: i) 1o passo: g11 = √ a11 = √ 4 = 2. ii) 2o passo: g21 = a21 2 = 2 2 = 1; g31 = a31 2 = −4 2 = −2. 58 Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica iii) 3o passo: g22 = √ a22 − g221 = √ 10− 1 = 3. iv) 4o passo: g32 = a32 − g31 g21 g22 = 4− (−2) · (1)3 = 6 3 = 2; v) 5o passo: g33 = √ a33 − (g231 + g232) = √ 9− (4 + 4) = 1. A matriz G e´, portanto, dada por: G = 2 0 0 1 3 0 −2 2 1 . E o determinante de A e´: |A| = |G|2 = (2 · 3 · 1)2 = (6)2 = 36 . 59 5 Vetores aleato´rios 5.1 Vetores aleato´rios Um vetor Xp×1, do tipo X = X1 X2 ... Xp e´ um vetor aleato´rio se X1, X2, . . . , Xp forem varia´veis aleato´rias (va’s). Nota 5.1. Como um vetor aleato´rio e´ uma representac¸a˜o generalizada de uma varia´vel aleato´ria, aqui tambe´m iremos denota´-los por va � Nota 5.2. Da mesma forma, uma matriz aleato´ria e´ uma matriz cujos elementos sa˜o va’s � Exemplo 5.1. Num estudo sobre a qualidade do ar foram observadas as varia´veis X1: radiac¸a˜o solar; X2: velocidade do ar; X3: temperatura e X4: concentrac¸a˜o de ozone. Desta forma, essas varia´veis formam um vetor aleato´rio de dimensa˜o 4, dado por X = X1 X2 X3 X4 � A distribuic¸a˜o de probabilidade conjunta de um vetor aleato´rio e´ definida por i) p(x) = p(x1, . . . , xp) = P (X1 = x1, . . . , Xp = xp), se X for composto por varia´veis aleato´rias discretas e, ii) f(x) = f(x1, . . . , xp), se X for composto por varia´veis aleato´rias cont´ınuas. As distribuic¸o˜es marginais das varia´veis aleato´rias X1, X2, . . . , Xp sa˜o calculadas por 60 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica i) Caso discreto pk(xk) = ∑ x1,...,xp xi 6=xk P (X1 = x1, . . . , Xp = xp), k = 1, 2, . . . , p, ii) Caso cont´ınuo fk(xk) = ∫ x1,...,xp xi 6=xk f(x1, . . . , xp)dx1 . . . dxp, k = 1, 2, . . . , p. Combinac¸o˜es lineares de varia´veis aleato´rias Em muitas aplicac¸o˜es estat´ısticas, especialmente no contexto multvariado, trabalha-se com com- binac¸o˜es lineares de va’s. Uma combinac¸a˜o linear dos componentes de um vetor aleato´rio pode ser representada pelo produto interno entre um vetor de coeficientes a e o vetor X. Seja um vetor aleato´rio X e um vetor de coeficientes lineares a, enta˜o, temos uma combinac¸a˜o linear dada por Y = atX = p∑ i=1 ai Xi = a1 X1 + a2 X2 + . . .+ ap Xp. Exemplo 5.2. Considere o vetor Xt = (X1, X2) e os coeficientes at = (1/2, 1/2), enta˜o, a combi- nac¸a˜o linear Y = atX = X1 + X22 , representa a me´dia entre X1e X2 � Considere, agora, vetor aleato´rio X e k combinac¸o˜es lineares dadas pelos vetores de coeficientes a1,a2, . . . ,ak, assim, temos que Y1 = at1X = a11 X1 + a12 X2 + . . .+ a1p Xp Y2 = at2X = a21 X1 + a22 X2 + . . .+ a2p Xp ... ... Yk = atkX = ak1 X1 + ak2 X2 + . . .+ akp Xp Agrupando as varia´veis Y1, Y2, . . . , Yk num vetor aleato´rio Y, os coeficientes das combinac¸o˜es lineares devem ser dispostos como linhas numa matriz de coeficientes A, ou seja A = at1 at2 ... atk . 61 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica Desta forma, as combinac¸o˜es lineares sa˜o escritas como Y = AX = at1X at2X ... atkX . Exemplo 5.3. Exemplos de aplicac¸o˜es com diversas combinac¸o˜es lineares podem ser obtidas nas ana´lises mutivariadas de componentes principais ou correlac¸a˜o canoˆnica, entre outras � 5.1.1 Valor esperado de um vetor aleato´rio O valor esperado de um vetor aleato´rio X e´ definido por: E(X) = E(X1) E(X2) ... E(Xp) , em que E(Xi), i = 1, 2, . . . , p, e´ o valor esperado da i-e´sima va. Normalmente o vetor de me´dias e´ denotado por µ, ou seja, E(X) = µ = µ1 µ2 ... µp , sendo que E(Xi) = µi = ∑ xi xipi(xi), se xi for discreta e, ∫ xi xifi(xi), se xi for cont´ınua. Propriedades a) Sejam um va X e um vetor de coeficientes a, enta˜o, a combinac¸a˜o atX tem valor esperado E(atX) = atE(X). b) Sejam as combinac¸o˜es lineares atX e btY, com X e Y, enta˜o E(atX + btY) = atE(X) + btE(Y). c) Comsiderando k combinac¸o˜es lineares com uma matriz de coeficientes A, temos E(A X) = A E(X). 62 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica Da mesma forma, com dois conjuntos de combinac¸o˜es lineares A X e B Y tais que as dimen- so˜es das matrizes envolvidas sejam compat´ıveis, temos E(A X + B Y) = A E(X) + B E(Y). Exemplo 5.4. a) Sejam Xt = (X1, X2, X3) tal que E(X) = (2,−1, 1)t. Se at = (4, 3, 3), enta˜o, atX = 4X1 + 3X2 + 3X3 e E(atX) = [ 4 3 3 ] 2 −1 1 = 8− 3 + 3 = 8. b) Com k = 4 combinac¸o˜es lineares dadas pelos coeficientes na matriz A = 2 −1 1 0.5 0 1 1 2 1 −1 1 2 , as combinac¸o˜es lineares sa˜o dadas por Y1 = 2X1 −X2 +X3 Y2 = X1/2 +X3 Y3 = X1 + 2X2 +X3 Y4 = −X1 +X2 + 2X3 logo, E(AX) = 2 −1 1 0.5 0 1 1 2 1 −1 1 2 2 −1 1 = 6 2 1 −1 � 5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio Sejam X1 e X2 va’s com µ1 = E(X1) e µ2 = E(X2). Enta˜o, temos que suas respectivas variaˆncias sa˜o calculadas por σ21 = V ar(X1) = E[(X1 − µ1)2] = E[(X1 − µ1)(X1 − µ1)] e σ22 = V ar(X2) = E[(X2 − µ2)2] = E[(X2 − µ2)(X2 − µ2)], 63 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica e, a covariaˆncia entre X1 e X2, por σ12 = Cov(X1, X2) = E[(X1 − µ1)(X2 − µ2)]. No contexto multivariado, as quantidades acima sa˜o representadas por uma matriz de variaˆncias e covariaˆncias (matriz var-cov) denotada por Σ Σ = [ σ21 σ12 σ12 σ 2 2 ] . Nota 5.3. Observe que a matriz Σ e´ sime´trica cuja diagonal e´ composta pelas variaˆncias das varia´- veis aleato´rias e os elementos fora da diagonal pelas covariaˆncias entre essas varia´veis � Considere o vetor aleato´rio X composto pelas va’s X1, X2, . . . , Xp, tal que E(X) = µ, enta˜o, a matriz var-voc de X e´ definida por ΣX = Cov(X) = E[(X− µ)(X− µ)t] ΣX = E (X1 − µ1) (X2 − µ2) ... (Xp − µp) [ (X1 − µ1) (X2 − µ2) . . . (Xp − µp) ] ΣX = E (X1 − µ1)2 (X1 − µ1)(X2 − µ2) . . . (X1 − µ1)(Xp − µp) (X2 − µ2)(X1 − µ1) (X2 − µ2)2 . . . (X2 − µ2)(Xp − µp) ... ... . . . ... (Xp − µp)(X1 − µ1) (Xp − µp)(X2 − µ2) . . . (Xp − µp)2 ΣX = E[(X1 − µ1)2] E[(X1 − µ1)(X2 − µ2)] . . . E[(X1 − µ1)(Xp − µp)] E[(X2 − µ2)(X1 − µ1)] E[(X2 − µ2)2] . . . E[(X2 − µ2)(Xp − µp)[ ... ... . . . ... E[(Xp − µp)(X1 − µ1)] E[(Xp − µp)(X2 − µ2)[ . . . E[(Xp − µp)2] . Ou seja, a matriz var-cov de X e´ da forma: ΣX = Cov(X) = σ21 σ12 . . . σ1p σ12 σ 2 2 . . . σ2p ... ... . . . ... σ1p σ2p . . . σ 2 p . 64 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica Propriedades a) Seja o vetor aleato´rio X, tal que Cov(X) = ΣX e a combinac¸a˜o linear atX. A variaˆncia de atX e´ dada por V ar(atX) = atΣXa. Prova: V ar(atX) = E[(atX− atµ)(atX− atµ)t] V ar(atX) = E[(atX− atµ)(Xta − µta)] V ar(atX) = E[at(X− µ)(Xt − µt)a] V ar(atX) = atE[(X− µ)(X− µ)t]a V ar(atX) = atΣXa � Ainda: V ar(atX + b) = atΣXa. b) Considerando k combinac¸o˜es lineares com matriz de coeficientes A, temos Cov(AX) = ACov(X)At = AΣXAt. Prova: segue o mesmo racioc´ınio do item anterior. Exemplo 5.5. i) No exemplo (5.4), seja a matriz var-cov de X ΣX = 4 −2 2 −2 7 3 2 3 6 , enta˜o, dada a combinac¸a˜o linear Z = atX, em que at = (4, 3, 3), tem-se V ar(Z) = ( 4 3 3 ) 4 −2 2 −2 7 3 2 3 6 4 3 3 = 235. ii) Dada a matriz de coeficientes A = 2 −1 1 0.5 0 1 1 2 1 −1 1 2 , 65 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica tal que Z = A X, enta˜o, ΣZ = Cov(Z) e´ dada por ΣZ = 2 −1 1 0.5 0 1 1 2 1 −1 1 2 4 −2 2 −2 7 3 2 3 6 2 0.5 1 −1 −1 0 2 1 1 1 1 2 = 39 13 3 −6 13 9 15 12 3 15 46 41 −6 12 41 43 � c) Sejam os vetores aleato´rios X e Y, com vetores de me´dias µX e µY , respectivamente. A matriz de covariaˆncias entre X e Y, denotada por Cov(X,Y), e´ definida por Cov(X,Y) = E[(X− µX)(Y− µY)t] = ΣXY . De (a) e (b) segue-se que: i) para duas combinac¸o˜es lineares atX e btY, Cov(atX,btY) = atΣXYb; ii) para dois grupos de combinac¸o˜es lineares AX e BY, com dimenso˜es compat´ıveis, Cov(AX,BY) = AΣXYBt. Obs: A matriz ΣXY na˜o e´ necessariamente quadrada. Exemplo 5.6. i) Considere o vetor aleato´rio Yt = (Y1, Y2) cuja a matriz var-voc e´ dada por ΣY = [ 6 2 2 3 ] e seja a combinac¸a˜o linear T = btY, com bt = (2,−3), enta˜o, a variaˆncia de T e´ V ar(T ) = ( 2 −3 ) [ 6 2 2 3 ]( 2 −3 ) = 27. ii) Considere, agora, k = 2 combinac¸o˜es lineares: T1 = Y1 − Y2 e T2 = Y1 + 2Y2. Os coeficientes de T1 e T2 sa˜o dados pelas linhas da matriz B = [ 1 −1 1 2 ] . 66 Vetores aleato´rios Teoria de Matrizes para Estat´ıstica Desta forma, a matriz var-voc de T = B Y, denotada por ΣT, e´ calculada por ΣT = Cov(T) = [ 1 −1 1 2 ] [ 6 2 2 3 ] [ 1 1 −1 2 ] = [ 5 2 2 26 ] . iii) Assumindo que a matriz de covariaˆncias entre os vetores aleato´rios X e Y seja ΣXY = 2 4 0 3 1 −3 , enta˜o, a matriz de covariaˆncias Cov(Z,T), entre Z = A X e T = B Y, e´ dada por ΣZT = 2 −1 1 0.5 0 1 1 2 1 −1 1 2 2 4 0 3 1 −3 [ 1 1 −1 2 ] = 3 9 3 0 −4 17 7 −14 � d) Dadas duas combinac¸o˜es lineares atX e btY, enta˜o, a variaˆncia de atX + btY e´ V ar(atX + btY) = atΣXa + btΣYb + 2atΣXYb, (5.1) em que ΣX = Cov(X), ΣY = Cov(Y) e ΣXY = Cov(X,Y). Exemplo 5.7. Dos Exemplos (5.5) e (5.5), temos que atΣXa = 235 , btΣYb = 27 e, considerando que atΣXYb = ( 4 3 3 ) 2 4 0 3 1 −3 ( 2 −3 ) = −26, enta˜o: V ar(atX + btY) = 235 + 27− 52 = 210 � 5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio A correlac¸a˜o entre duas va’s Xi e Xj , i, j = 1, 2, . . . , p, e´ calcular por ρij = Cor(Xi, Yj) = σij√ σ2i σ 2 j , 67 Vetores aleato´rios Teoria de Matrizes
Compartilhar