Baixe o app para aproveitar ainda mais
Prévia do material em texto
Estat´ıstica Multivariada Uma abordagem aplicada utilizando o software R Prof. Tiago Martins Pereira Departamento de Estat´ıstica Universidade Federal de Ouro Preto Ouro Preto - MG Setembro de 2017 Suma´rio 1 Revisa˜o de A´lgebra Linear 5 1.1 Matrizes e vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.1 Tipos especiais de matrizes . . . . . . . . . . . . . . . . . . . . 6 1.1.2 Notac¸a˜o de somato´rio e produto´rio . . . . . . . . . . . . . . . 8 1.2 Operac¸o˜es com matrizes e vetores . . . . . . . . . . . . . . . . . . . . 9 1.3 Alguns resultados importantes envolvendo vetores e matrizes . . . . . 13 1.4 Formas Quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.5 Matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.6 Posto de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.7 Inversa de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.8 Matrizes definidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.9 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.10 Trac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.11 Matrizes e vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . 25 1.12 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . 26 1.12.1 tr(A) e |A| . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.12.2 Matrizes definidas . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.12.3 Matrizes sime´tricas . . . . . . . . . . . . . . . . . . . . . . . . 30 1.12.4 Teorema da Decomposic¸a˜o Espectral . . . . . . . . . . . . . . 30 1.12.5 Decomposic¸a˜o em valor singular . . . . . . . . . . . . . . . . . 32 1.13 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 33 1.14 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2 Introduc¸a˜o a` Estat´ıstica Multivariada 52 2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.2 Banco de dados multivariados . . . . . . . . . . . . . . . . . . . . . . 53 2.2.1 Pardais sobreviventes de tempestade . . . . . . . . . . . . . . 53 2.2.2 Craˆnios eg´ıpcios . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.2.3 Distribuic¸a˜o de uma borboleta . . . . . . . . . . . . . . . . . . 58 2.2.4 Ca˜es pre´-histo´ricos da Tailaˆndia . . . . . . . . . . . . . . . . . 60 2.2.5 Emprego em pa´ıses europeus . . . . . . . . . . . . . . . . . . . 61 2.3 Conceitos ba´sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.3.1 A matriz de dados . . . . . . . . . . . . . . . . . . . . . . . . 62 2.3.2 Estat´ısticas descritivas . . . . . . . . . . . . . . . . . . . . . . 63 2.3.3 Vetor de me´dias, matriz de covariaˆncias e matriz de correlac¸o˜es 65 2.3.4 Amostras Aleato´rias . . . . . . . . . . . . . . . . . . . . . . . 69 1 2.4 Medidas globais de variabilidade . . . . . . . . . . . . . . . . . . . . . 74 2.4.1 Variaˆncia Total . . . . . . . . . . . . . . . . . . . . . . . . . . 74 2.4.2 Variaˆncia Generalizada . . . . . . . . . . . . . . . . . . . . . . 75 2.5 Combinac¸o˜es lineares de varia´veis aleato´rias . . . . . . . . . . . . . . 76 2.6 Distaˆncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.6.1 Distaˆncia Euclidiana . . . . . . . . . . . . . . . . . . . . . . . 80 2.6.2 Distaˆncia Euclidiana Ponderada ou Padronizada . . . . . . . . 83 2.6.3 Distaˆncia de Mahalanobis . . . . . . . . . . . . . . . . . . . . 84 2.7 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 86 2.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3 Distribuic¸o˜es Multivariadas 97 3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.2 Distribuic¸a˜o normal multivariada . . . . . . . . . . . . . . . . . . . . 98 3.2.1 Caso bivariado . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.2.2 Propriedades da Distribuic¸a˜o Normal Multivariada . . . . . . 105 3.3 Distribuic¸a˜o de Wishart . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.3.1 Propriedades da Distribuic¸a˜o de Wishart . . . . . . . . . . . . 112 3.4 Distribuic¸a˜o de Hotelling . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.4.1 Propriedades da Distribuic¸a˜o de Hotelling . . . . . . . . . . . 113 3.5 Distribuic¸a˜o de Wilks . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 3.5.1 Propriedades da Distribuic¸a˜o de Wilks . . . . . . . . . . . . . 115 3.6 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 116 3.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 4 Ana´lise de Componentes Principais 123 4.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 4.2 Construc¸a˜o das componentes principais . . . . . . . . . . . . . . . . . 124 4.2.1 Decomposic¸a˜o da variaˆncia total . . . . . . . . . . . . . . . . . 128 4.3 Estimac¸a˜o das componentes principais via matriz de covariaˆncias . . . 134 4.4 Componentes principais via matriz de correlac¸o˜es . . . . . . . . . . . 137 4.5 Como obter as varia´veis originais a partir das componentes principais? 141 4.6 Quantas componentes devem ser retidas? . . . . . . . . . . . . . . . . 143 4.7 Interpretac¸a˜o das componentes principais . . . . . . . . . . . . . . . . 145 4.8 Aplicac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 4.9 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 156 4.10 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 5 Ana´lise Fatorial 169 5.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 5.2 O Modelo Fatorial Ortogonal . . . . . . . . . . . . . . . . . . . . . . 172 5.2.1 Propriedades do modelo fatorial ortogonal . . . . . . . . . . . 174 5.2.2 Padronizac¸a˜o das varia´veis . . . . . . . . . . . . . . . . . . . . 181 5.3 Estimac¸a˜o do valor de m . . . . . . . . . . . . . . . . . . . . . . . . . 182 5.4 Me´todos de obtenc¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . 182 5.4.1 Me´todos dos Componentes Principais . . . . . . . . . . . . . . 182 5.4.2 Me´todo dos Fatores Principais ou Me´todo dos Eixos Principais 190 2 5.4.3 Me´todo da Ma´xima Verossimilhanc¸a . . . . . . . . . . . . . . 191 5.5 Rotac¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 5.5.1 Me´todo Varimax . . . . . . . . . . . . . . . . . . . . . . . . . 196 5.6 Escores fatoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 5.6.1 Me´todo dos Mı´nimos Quadrados Ponderados . . . . . . . . . . 199 5.6.2 Me´todo da Regressa˜o . . . . . . . . . . . . . . . . . . . . . . . 199 5.7 Viabilidade da Ana´lise Fatorial . . . . . . . . . . . . . . . . . . . . . 200 5.7.1 Teste de esfericidade de Bartlett . . . . . . . . . . . . . . . . . 200 5.7.2 KMO: Kaiser-Meyer-Olkin . . . . . . . . . . . . . . . . . . . . 201 5.7.3 MSA: Measure of sampling adequacy . . . . . . . . . . . . . . 201 5.8 Avaliac¸a˜o do ajuste do modelo fatorial . . . . . . . . . . . . . . . . . 202 5.9 Interpretac¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . 204 5.9.1 Julgamento da significaˆncia das cargas fatoriais . . . . . . . . 205 5.9.2 O processo de interpretac¸a˜o do modelo fatorial . . . . . . . . . 207 5.10 Comenta´rios Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 5.11 Exemplo de aplicac¸a˜o da ana´lise fatorial . . . . . . . . . . . . . . . . 213 5.12 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 223 5.13 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 6 Ana´lise Discriminante 241 6.1 Introduc¸a˜o . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . 241 6.2 Discriminac¸a˜o e classificac¸a˜o em 2 populac¸o˜es . . . . . . . . . . . . . 243 6.2.1 Func¸a˜o discriminante linear de Fisher . . . . . . . . . . . . . . 246 6.2.2 O problema geral de classificac¸a˜o . . . . . . . . . . . . . . . . 256 6.2.3 Avaliac¸a˜o das func¸o˜es de classificac¸a˜o . . . . . . . . . . . . . . 270 6.2.4 Estimac¸a˜o das probabilidades de classificac¸a˜o incorreta . . . . 274 6.3 Discriminac¸a˜o e classificac¸a˜o em g > 2 populac¸o˜es . . . . . . . . . . . 281 6.3.1 O problema geral de classificac¸a˜o . . . . . . . . . . . . . . . . 281 6.3.2 Classificac¸a˜o para populac¸o˜es normais . . . . . . . . . . . . . 283 6.3.3 Func¸o˜es discriminantes canoˆnicas de Fisher . . . . . . . . . . . 289 6.3.4 Avaliac¸a˜o das func¸o˜es de classificac¸a˜o . . . . . . . . . . . . . . 296 6.4 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 298 6.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 7 Ana´lise de Agrupamentos 316 7.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 7.2 Me´todos de Agrupamento Hiera´rquicos . . . . . . . . . . . . . . . . . 317 7.3 Medidas de (Dis)similaridades entre dois indiv´ıduos . . . . . . . . . . 320 7.3.1 Varia´veis quantitativas . . . . . . . . . . . . . . . . . . . . . . 321 7.3.2 Varia´veis qualitativas . . . . . . . . . . . . . . . . . . . . . . . 323 7.3.3 Varia´veis Quantitativas e Qualitativas . . . . . . . . . . . . . 330 7.4 Algoritmos de Agrupamento . . . . . . . . . . . . . . . . . . . . . . . 332 7.4.1 Crite´rios para definir distaˆncias entre grupos . . . . . . . . . . 333 7.4.2 Determinac¸a˜o do nu´mero de grupos . . . . . . . . . . . . . . . 341 7.5 Me´todos Na˜o-Hiera´rquicos . . . . . . . . . . . . . . . . . . . . . . . . 343 7.5.1 Me´todo k-me´dias (k-means) . . . . . . . . . . . . . . . . . . . 344 7.6 Comparac¸a˜o entre me´todos de agrupamento . . . . . . . . . . . . . . 346 3 7.7 Validac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . . . . . 350 7.7.1 Correlac¸a˜o cofene´tica . . . . . . . . . . . . . . . . . . . . . . . 350 7.7.2 Gra´fico da Silhueta . . . . . . . . . . . . . . . . . . . . . . . . 351 7.8 Interpretac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . . . 355 7.9 Aplicac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 7.9.1 Formac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . 357 7.10 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 362 7.11 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 Refereˆncias Bibliogra´ficas 380 4 Cap´ıtulo 1 Revisa˜o de A´lgebra Linear 1.1 Matrizes e vetores Uma matriz A de ordem m × n, e´ um arranjo de elementos com m linhas e n colunas, considerada uma u´nica entidade da forma: A = a11 a12 · · · a1n a21 a22 · · · a2n ... ... . . . ... am1 am2 · · · amn A matriz A pode ser expressa como A = [aij], onde aij representa o elemento localizado na i-e´sima linha e na j-e´sima coluna da matriz e e´ chamado de termo geral. Uma matriz pode ser definida atrave´s de seu termo geral, por exemplo, seja a matriz A3×3 = [aij], tal que aij = { 1 se i = j; 0 caso contra´rio. Dessa forma, a matriz A, assim definida, pode ser escrita como: A = 1 0 00 1 0 0 0 1 5 Usaremos sempre letras maiu´sculas para denotar matrizes, e quando quisermos especificar a ordem de uma matriz A, isto e´, o nu´mero de linhas e colunas, escreve- remos Am×n. Duas matrizes Am×n = [aij] e Br×s = [bij] sa˜o iguais, A = B, se, e somente se, elas teˆm o mesmo nu´mero de linhas e colunas, isto e´, m = r e n = s. Ale´m disso, todos os elementos correspondentes sa˜o iguais, isto e´, aij = bij para todo i e j. Por exemplo, sejam as matrizes, A = [ 5 cos 90o −1 log 1 ] e B = [ √ 25 0 −1 0 ] uma vez que √ 25 = 5, cos 90o = 0, −1 = −1 e log 1 = 0, temos que as matrizes A e B sa˜o iguais. 1.1.1 Tipos especiais de matrizes Consideremos uma matriz com m linhas e n colunas, denotada por Am×n. a) Matriz Quadrada: e´ aquela cujo nu´mero de linhas e´ igual ao nu´mero de colunas, isto e´, m = n. Por exemplo, as matrizes A = [ 1 1 −1 0 ] e B = [ 4 ] sa˜o matrizes quadradas. No caso de matrizes quadradas Am×m, constumamos dizer que a matriz A e´ uma matriz de ordem m. b) Matriz Nula: e´ aquela em que aij = 0, para todo i e j. Por exemplo, as matrizes A = [ 0 0 0 0 ] e B = [ 0 0 0 0 0 0 ] sa˜o matrizes nulas. Representaremos as matrizes nulas por 0m×n. c) Matriz Linha: e´ aquela em que m = 1, ou seja, possui apenas uma linha. Por exemplo, as matrizes A = [ x1 x2 ] e B = [ 0 0 1 5 ] sa˜o matrizes linha. 6 d) Matriz Coluna: e´ aquela em que n = 1, ou seja, possui apenas uma coluna. Por exemplo, as matrizes A = [ x1 x2 ] e B = 0 0 1 5 sa˜o matrizes colunas. • Observac¸a˜o: Podemos nos referir a`s matrizes linha e coluna como veto- res. Neste curso, todas as vezes que fizermos alguma refereˆncia a vetores, estaremos nos referindo a`s matrizes coluna. Usaremos sempre letras mi- nu´sculas para denotar vetores, por exemplo, c = c1 c2 ... cn e) Matriz Diagonal: e´ uma matriz quadrada, isto e´, m = n, onde aij = 0, para i 6= j, isto e´, os elementos que esta˜o fora da diagonal principal sa˜o nulos. Por exemplo, a matriz D = 1 0 00 2 0 0 0 3 e´ uma matriz diagonal. A matriz D pode ser expressa como D = diag(1, 2, 3). Um caso especial da matriz diagonal e´ a matriz identidade denotada, por In. A matriz identidade e´ aquela matriz diagonal em que aij = 1, se i = j e aij = 0, para i 6= j. Por exemplo I3 = 1 0 00 1 0 0 0 1 f) Matriz Triangular Superior: e´ uma matriz quadrada onde todos os ele- mentos abaixo da diagonal principal sa˜o nulos, isto e´, m = n e aij = 0 para i > j. Por exemplo, 7 A = 1 2 3 4 0 5 6 7 0 0 8 9 0 0 0 10 g) Matriz Triangular Inferior: e´ uma matriz quadrada onde todos os elemen- tos acima da diagonal principal sa˜o nulos, isto e´, m = n e aij = 0 para i < j. Por exemplo, A = 1 0 02 3 0 4 5 6 g) Matriz Sime´trica: e´ aquela onde m = n e aij = aji. A parte superior da matriz sime´trica e´ uma reflexa˜o da parte inferior em relac¸a˜o a` diagonal principal. Por exemplo, A = 2 0 30 1 4 3 4 2 h) Vetor de 1’s: e´ aquele vetor onde todos os elementos sa˜o iguais a 1. Por exemplo, j = 1 1 ... 1 i) Matriz de 1’s: e´ uma matriz quadrada onde todos os elementos sa˜o iguais a 1. Por exemplo, J3 = 1 1 11 1 1 1 1 1 1.1.2 Notac¸a˜o de somato´rio e produto´rio A soma de uma sequeˆncia de nu´meros a1, a2, · · · , an e´ indicada por: 8 n∑ i=1 ai = a1 + a2 + ...+ an Se os n nu´meros sa˜o iguais, temos n∑ i=1 a = a+ a+ · · ·+ a = n · a. A soma de todos os elementos de uma matriz duplamente indexados, por exemplo,[ a11 a12 a13 a21 a22 a23 ] e´ dada por: 2∑ i=1 3∑ j=1 aij = a11 + a12 + a13 + a21 + a22 + a23 que pode ser abreviado para 2∑ i=1 3∑ j=1 aij = ∑ ij aij O produto de uma sequeˆncia de nu´meros a1, a2, · · · , an e´ indicada por: n∏ i=1 ai = a1 × a2 × · · · × an Se os nu´meros sa˜o todos iguais, enta˜o n∏ i=1 a = a× a× · · · × a = an. 1.2 Operac¸o˜es com matrizes e vetores a) Adic¸a˜o: A soma de duas matrizes de mesma ordem, Am×n = [aij] e Bm×n = [bij], e´ uma matriz m× n, que denotaremos por C = A + B, cujos elementos cij sa˜o somas dos elementos correspondentes de A e B, isto e´, cij= aij + bij para todo i e j. Por exemplo, se 9 A = 3 21 1 0 3 , e B = 5 21 0 0 4 enta˜o, C = A + B = 3 21 1 0 3 + 5 21 0 0 4 = 8 42 1 0 7 Propriedades: Dadas as matrizes A, B e C de mesma ordem m× n, temos: i) A + B = B + A (comutatividade) ii) A + (B + C) = (A + B) + C (associatividade) iii) A + 0 = A (elemento neutro) b) Multiplicac¸a˜o por escalar: Seja A = [aij]m×n e k um nu´mero, enta˜o defi- nimos uma nova matriz C = k ×A, tal que cij = k × aij para todo i e j. Por exemplo, sejam A = [ 1 1 −1 0 ] e k = 2 enta˜o, C = k ×A e´ dada por 2× [ 1 1 −1 0 ] = [ 2 2 −2 0 ] Propriedades: Dadas as matrizes A, B e C de mesma ordem m × n, e nu´meros k, k1 e k2, temos: i) k(A + B) = kA + kB ii) (k1 + k2)A = k1A + k2A 10 iii) 0 ×A = 0, isto e´, se multiplicarmos o nu´mero zero por qualquer matriz A, teremos a matriz nula iv) k1(k2A) = (k1k2)A c) Transposic¸a˜o: Dada uma matriz A = [aij]m×n, podemos obter uma outra matriz At = [bij]n×m, cujas linhas sa˜o as colunas de A, ou seja, bij = aji. At e´ denominada de transposta de A. Por exemplo, A = 2 31 0 0 3 3×2 At = [ 2 1 0 3 0 3 ] 2×3 B = [ 2 3 3 1 ] 2×2 Bt = [ 2 3 3 1 ] 2×2 Propriedades: i) Uma matriz e´ sime´trica se, e somente se ela e´ igual a` sua transposta, isto e´, se e so´ se, At = A. (Observe a matriz B acima) ii) (At)t = A, ou seja, a transposta da transposta de uma matriz A, e´ a pro´pria matriz A. iii) (A + B)t = At + Bt, isto e´, a transposta da soma e´ a soma das trans- postas. iv) (kAt) = kAt, k e´ um escalar. d) Multiplicac¸a˜o de Matrizes: A multiplicac¸a˜o de duas matrizes A = [aij]m×n e B = [brs]n×p, denotada por AB = [cij]m×p e´ definida se, e somente se o nu´mero de colunas da matriz A e´ igual ao nu´mero de linhas da matriz B. Assim, o ij-e´simo elemento da matriz resultante C = AB e´ dado por: cij = n∑ k=1 aik.bkj = ai1b1j + ai2b2j + · · ·+ ainbnj Assim, cij e´ dado pela soma dos produtos de todos os elementos da linha i da matriz A com os elementos da coluna j da matriz B. Ale´m disso, a ordem da matriz resultante C = AB sera´ m× p. Por exemplo, sejam as matrizes, 11 A = 2 14 2 5 3 3×2 B = [ 1 −1 0 4 ] 2×2 enta˜o, C = 2 14 2 5 3 ×[ 1 −1 0 4 ] = 2× 1 + 1× 0 2× (−1) + 1× 44× 1 + 2× 0 4× (−1) + 2× 4 5× 1 + 3× 0 5× (−1) + 3× 4 = 2 24 4 5 7 3×2 Propriedades: Desde que sejam poss´ıveis as operac¸o˜es, as seguintes propri- edades sa˜o va´lidas: i) Em geral, AB 6= BA (Podendo mesmo um dos membros estar definido e outro na˜o!). Por exemplo, sejam as matrizes A = 1 −1 1−3 2 −1 −2 1 0 e B = 1 2 32 4 6 1 2 3 enta˜o, AB = 0 0 00 0 0 0 0 0 e BA = −11 6 −1−22 12 −2 −11 6 −1 Note, ainda, que AB = 0, sem que A = 0 ou B = 0. ii) AI = IA = A iii) A(B + C) = AB + AC iv) (A + B)C = AC + BC v) (AB)C = A(BC) vi) (AB)t = BtAt vii) A× 0 = 0 e 0×A = 0 12 1.3 Alguns resultados importantes envolvendo ve- tores e matrizes Sejam An×p = a11 · · · a1p ... . . . ... an1 · · · anp , ap×1 = a1 ... ap , bp×1 = b1 ... bp e cn×1 = c1 ... cn , enta˜o, a) Ab = a11 · · · a1p ... . . . ... an1 · · · anp n×p b1 ... bp p×1 = a11b1 + · · ·+ a1pbp ... an1b1 + · · ·+ anpbp n×1 Exemplo: A2×3 = [ 3 −2 4 1 3 5 ] e b3×1 = 23 4 enta˜o, Ab = [ 3 −2 4 1 3 5 ] 2×3 23 4 3×1 = [ 16 31 ] 2×1 b) ctA = [ c1 · · · cn ] 1×n a11 · · · a1p ... . . . ... an1 · · · anp n×p = [ c1a11 + · · ·+ cnan1 · · · c1a1p + · · ·+ cnanp ] 1×p Exemplo: A2×3 = [ 3 −2 4 1 3 5 ] e c2×1 = [ 2 −5 ] enta˜o, ctA = [ 2 −5 ] 1×2 [ 3 −2 4 1 3 5 ] 2×3 = [ 1 −19 −17 ] 1×3 13 c) ctAb = [ c1 · · · cn ] 1×n a11 · · · a1p ... . . . ... an1 · · · anp n×p b1 ... bp p×1 = [ c1a11 + · · ·+ cnan1 · · · c1a1p + · · ·+ cnanp ] 1×p b1 ... bp p×1 = [ (c1a11 + · · ·+ cnan1)b1 + · · ·+ (c1a1p + · · ·+ cnanp)bp ] 1×1 = [ c1a11b1 + · · ·+ cnan1b1 + · · ·+ c1a1pbp + · · ·+ cnanpbp ] 1×1 Exemplo: A2×3 = [ 3 −2 4 1 3 5 ] , c2×1 = [ 2 −5 ] e b = 23 4 3×1 enta˜o, ctAb = [ 2 −5 ] 1×2 [ 3 −2 4 1 3 5 ] 2×3 23 4 3×1 = [ 1 −19 −17 ] 1×3 23 4 3×1 = −123 d) atb = [ a1 · · · ap ] 1×p b1 ... bp p×1 = [ a1b1 + · · ·+ apbp ] 1×1 Exemplo: a = 1−2 3 3×1 e b = 23 4 3×1 enta˜o, atb = [ 1 −2 3 ] 1×3 23 4 3×1 = 8 e) bta = [ b1 · · · bp ] 1×p a1 ... ap p×1 = [ b1a1 + · · ·+ bpap ] 1×1 14 Exemplo: a = 1−2 3 3×1 e b = 23 4 3×1 enta˜o, bta = [ 2 3 4 ] 1×3 1−2 3 3×1 = 8 f) abt = a1 ... ap p×1 [ b1 · · · bp ] 1×p = a1b1 · · · a1bp ... . . . ... apb1 · · · apbp p×p Exemplo: a = 1−2 3 3×1 e b = 23 4 3×1 enta˜o, abt = 23 4 3×1 [ 1 −2 3 ] 1×3 = 2 3 4−4 −6 −8 6 9 12 3×3 Notemos que, Ab e´ um vetor coluna, ctA e´ um vetor linha, ctAb e´ um escalar, atb = bta sa˜o escalares e abt e´ uma matriz. Consideremos agora, o vetor de 1’s, jt = [ 1 1 · · · 1 ] 1×n . Temos enta˜o, jtj = [ 1 1 · · · 1 ] n×1 1 1 ... 1 1×n = n Ale´m disso, jjt = 1 1 ... 1 n×1 [ 1 1 · · · 1 ] 1×n = 1 1 · · · 1 1 1 · · · 1 ... ... . . . ... 1 1 · · · 1 n×n = J Sejam an×1 e An×p e considere o vetor j com dimensa˜o compat´ıvel a cada ope- rac¸a˜o. Enta˜o, jta = atj = n∑ i=1 ai 15 e, jtA = [ ∑ i ai1 ∑ i ai2 · · · ∑ i aip ] e Aj = ∑ j a1j∑ j a2j ...∑ j anj Podemos notar que atj e jta representam a soma dos elementos do vetor a, jtA representa a soma das colunas da matriz A e Aj representa a soma das linhas da matriz A. Vimos que atb representa um escalar e consequentemente, igual ao seu trans- posto. Assim, atb = (atb)t = bt(at)t = bta Isto nos permite escrever a expressa˜o (atb)2 da seguinte forma: (atb)2 = (atb)(atb) = (atb)(bta) = at(bbt)a Se considerarmos as expresso˜es acima, os vetores a, x1, x2, · · · , xn, todos de ordem p× 1 e uma matriz A de ordem p× p, temos: n∑ i=1 atxi = a t n∑ i=1 xi n∑ i=1 Axi = A n∑ i=1 xi n∑ i=1 (atxi) 2 = at ( n∑ i=1 xix t i ) a n∑ i=1 (Axi)(Axi) t = A ( n∑ i=1 xix t i ) At 1.4 Formas Quadra´ticas Suponha que A seja uma matriz quadrada de ordem n e sime´trica e x seja um vetor de ordem n. Enta˜o a quantidade, 16 Q = xtAx = ∑ i aiix 2 i + ∑ i 6=j aijxixj = ∑ ij aijxixj e´ chamada de forma quadra´tica. Por exemplo, considerando o vetor xt = [ x1 x2 ] , a forma quadra´tica da matriz A = [ 2 1 1 1 ] e´ dada por: Q(x) = xtAx = [ x1 x2 ] [ 2 1 1 1 ][ x1 x2 ] = [ 2x1 + x2 x1 + x2 ] [ x1 x2 ] = 2x21 + x2x1 + x1x2 + x 2 2 = 2x21 + x 2 2 + 2x1x2 1.5 Matrizes particionadas Algumas vezes torna-se conveniente particionar uma matriz A em submatrizes.Por exemplo, podemos particionar esta matriz em quatro submatrizes, A = A11 A12 A21 A22 Por exemplo, seja A = 2 3 4−4 −6 −8 6 9 12 3×3 . A matriz A pode ser particionada da seguinte forma: A = 2 3 −4 −6 4 −8 6 9 12 em que A11 = [ 2 3 −4 −6 ] , A12 = [ 4 −8 ] , A21 = [ 6 9 ] e A22 = [ 12 ] Sejam duas matrizes A e B compat´ıveis para as devidas operac¸o˜es, com subma- trizes tambe´m compat´ıveis em cada caso. Enta˜o, 17 A + B = A11 + B11 A12 + B12 A21 + B21 A22 + B22 AB = A11B11 + A12B21 A11B12 + A12B22 A21B11 + A22B21 A21B12 + A22B22 At = A t 11 A t 21 At12 A t 22 1.6 Posto de uma matriz Antes de definirmos o posto de uma matriz A, vamos relembrar o conceito de dependeˆncia e independeˆncia linear. Um conjunto de vetores a1, a2, · · · , an e´ dito ser linearmente dependente (LD) se, e somente se, existem constantes c1, c2, · · · , cn, tais que c1a1 + c2a2 + · · ·+ cnan = 0, para algum ci 6= 0, i = 1, · · · , n. Se a expressa˜o acima for satisfeita somente para ci = 0, para todo i, enta˜o dize- mos que os vetores sa˜o linearmente independentes (LI). Se os vetores a1, a2, · · · , an sa˜o linearmente dependentes (LD), enta˜o existe pelo menos um vetor ai que pode ser escrito como combinac¸a˜o linear dos demais, gerando redundaˆncia de informac¸o˜es. Assim, podemos definir o posto de uma matriz A qualquer como sendo o nu´mero de linhas (ou de colunas) linearmente independentes (LI) de A. Se A e´ de ordem m× n, o maior valor poss´ıvel do posto de A e´ o mı´nimo entre m e n, caso em que A e´ dita ser de posto completo. Por exemplo, considere a matriz A dada por, A = [ 1 −2 3 5 2 4 ] assim, fazendo combinac¸a˜o linear das linhas de A, temos que o posto de A e´ dado por: c1 [ 1 −2 3 ] + c2 [ 5 2 4 ] = [ 0 0 0 ] 18 de forma que, c1 + 5c2 = 0 −2c1 + 2c2 = 0 3c1 + 4c2 = 0 o que leva a c2 = c1 = 0. Logo, o posto(A) = 2, pois temos duas linhas LI. A matriz A e´ de posto completo, uma vez que min(m,n) = min(2, 3) = 2. 1.7 Inversa de uma matriz Se A e´ uma matriz quadrada e de posto completo enta˜o A e´ chamada na˜o singular e A possui uma u´nica matriz inversa denotada por A−1, com a seguinte propriedade: AA−1 = A−1A = I Por exemplo, seja A = [ 3 4 2 6 ] , enta˜o A−1 = [ 0, 6 −0, 4 −0, 2 0, 3 ] . De fato, AA−1 = [ 3 4 2 6 ][ 0, 6 −0, 4 −0, 2 0, 3 ] = [ 1 0 0 1 ] Observac¸a˜o: Se A = [ a b c d ] 2×2 , enta˜o A−1 = 1 ad− bc [ d −b −c a ] Se a matriz A e´ quadrada e na˜o e´ de posto completo, enta˜o A e´ dita ser singular e na˜o existe A−1. Se A e´ de ordem m×n , com m 6= n, enta˜o A na˜o possui inversa, mesmo sendo de posto completo. Propriedades: Consideremos as matrizes A, B, C e I, todas compat´ıveis para as devidas operac¸o˜es. Temos, enta˜o, as seguintes propriedades: a) Se A e B sa˜o matrizes quadradas de mesma ordem, ambas invers´ıveis, isto e´, existem A−1 e B−1, enta˜o AB e´ invers´ıvel e (AB)−1 = B−1A−1. De fato, basta observar que (AB)(B−1A−1) = A(BB−1)A−1 = AIA−1 = AA−1 = I e que, analogamente, (B−1A−1)(AB) = B−1(A−1A)B = B−1IB = B−1B = I. 19 b) Seja uma matriz B invers´ıvel, ou seja, existe B−1. Enta˜o, AB = CB implica em A = C. De fato, basta po´s-multiplicar a matriz B−1 em ambos os lados da igualdade: ABB−1 = CBB−1 AI = CI A = C c) Seja uma matriz A invers´ıvel, ou seja, existe A−1. Enta˜o, a inversa da matriz transposta de A e´ igual a` transposta da matriz inversa de A, isto e´, (At)−1 = (A−1)t 1.8 Matrizes definidas Uma matriz A e´ dita ser positiva definida, se A e´ sime´trica e sua forma quadra´tica Q(x) = xtAx > 0 para todos os vetores x, exceto x = 0. Similarmente, uma matriz A e´ dita positiva semidefinida, se A e´ sime´trica e sua forma quadra´tica Q(x) = xtAx ≥ 0, para todo x 6= 0. Da mesma forma, A e´ dita negativa definida se Q(x) < 0, para todo x 6= 0 e negativa semidefinida se Q(x) ≤ 0, para todo x 6= 0. Por exemplo, a matriz A, dada por A = [ 2 1 1 1 ] e´ positiva definida. De fato, vimos que a forma quadra´tica da matriz A e´ dada por: Q(x) = xtAx = 2x21 + x 2 2 + 2x1x2, podemos observar que Q(x) pode ser reescrita como: Q(x) = x21 + 2x1x2 + x 2 2 + x 2 1 = (x1 + x2) 2 + x21 > 0 20 exceto para x = 0. Logo, A e´ positiva definida. Uma forma de se obter matrizes positivas definidas baseia-se na seguinte proprie- dade: Se A = BtB, onde B e´ uma matriz de ordem n×p de posto p < n, ou seja, de posto completo, enta˜o A e´ positiva definida. Esta propriedade pode ser facilmente verificada: Q(x) = xtAx = xtBtBx = (xtBt)(Bx) = ztz onde z = Bx. Uma vez que Q(x) = xtAx = n∑ i=1 z2i e´ sempre positivo (Bx na˜o pode ser 0, a na˜o ser que x = 0, pois B e´ de posto completo). Logo, a matriz A, definida dessa forma e´ sempre positiva definida. Uma matriz A, positiva definida, pode ser decomposta da seguinte forma: A = TtT onde T e´ uma matriz triangular superior na˜o singular. Este resultado e´ conhecido como Decomposic¸a˜o de Cholesky. A matriz T pode ser obtida da seguinte forma: t11 = √ a11, t1j = a1j t11 , 2 ≤ j ≤ n, tii = √√√√aii − i−1∑ k=1 t2ki, 2 ≤ i ≤ n, tij = aij − i−1∑ k=1 tkitkj tii , 2 ≤ i < j ≤ n, tij = 0, 1 ≤ j < i ≤ n. Por exemplo, seja a matriz A dada por A = 3 0 −30 6 3 −3 3 6 Pela decomposic¸a˜o de Cholesky da matriz A, obtemos a matriz T, dada por: 21 T = √ 3 0 −√3 0 √ 6 √ 1, 5 0 0 √ 1, 5 De fato, TtT = √ 3 0 0 0 √ 6 0 −√3 √1, 5 √1, 5 √ 3 0 −√3 0 √ 6 √ 1, 5 0 0 √ 1, 5 = 3 0 −30 6 3 −3 3 6 = A 1.9 Determinantes O determinante de uma matriz quadrada A de orden n e´ um escalar denotado por |A| ou det(A). E´ dado por: |A| = ∣∣∣ a11 ∣∣∣ = a11 no caso em que a matriz A e´ de ordem 1 (escalar), |A| = ∣∣∣∣∣ a11 a12a21 a22 ∣∣∣∣∣ = a11a22 − a12a21 no caso em que a matriz A e´ de ordem 2, |A| = ∣∣∣∣∣∣∣ a11 a12 a13 a21 a22 a23 a31 a32 a33 ∣∣∣∣∣∣∣ = a11a22a33+a12a23a31+a13a32a21−a13a22a31−a11a32a23−a12a21a33 no caso em que a matriz A e´ de ordem 3. Neste caso, podemos encontrar o deter- minante da matriz A de ordem 3, utilizando o seguinte esquema: para os termos positivos, e para os termos negativos. 22 Me´todos para o ca´lculo do determinante de matrizes quadradas de ordem superior a 3, podem ser encontrados em diversos livros de Introduc¸a˜o a` A´lgebra Linear e na˜o sera˜o abordados neste material. Podemos tambe´m, obter tais quantidades utilizando me´todos computacionais. Propriedades: Sejam as matrizes A e B quadradas de ordem n e seja c um escalar. Podemos listar as seguintes propriedades de determinantes: a) O determinante de uma matriz diagonal e´ o produto dos elementos de sua diagonal principal, isto e´, se D = diag(d1, d2, · · · , dn), enta˜o |D| = n∏ i=1 di. b) |cA| = cn |A| . c) Se uma matriz A e´ singular, enta˜o |A| = 0. d) Se uma matriz A e´ na˜o-singular, enta˜o |A| 6= 0. e) Se uma matriz A e´ positiva definida, enta˜o |A| > 0. f) O determinante do produto de duas matrizes e´ o produto dos determinantes dessas matrizes, isto e´, |AB| = |A| |B| . g) O determinante da matriz transposta de A e´ igual ao determinante da matriz A, isto e´, ∣∣At∣∣ = |A| . h) O determinante da matriz inversa de A e´ igual ao rec´ıproco do determinante da matriz A, isto e´, 23 ∣∣A−1∣∣ = 1|A| = |A|−1 . Seja A uma matriz particionada da seguinte forma: At = A11 0 0 A22, em que A11 e A22 sa˜o matrizes quadradas, na˜o necessariamentede mesma ordem. Enta˜o, |A| = ∣∣∣∣∣∣∣∣ A11 0 0 A22, ∣∣∣∣∣∣∣∣ = |A11||A22|. Para o caso geral de matrizes particionadas, temos: |A| = ∣∣∣∣∣∣∣∣ A11 A12 A21 A22, ∣∣∣∣∣∣∣∣ = |A11||A22 −A21A11 −1A12| = |A22||A11 −A12A22−1A21| em que A11 e A22 sa˜o matrizes na˜o singulares, na˜o necessariamente de mesma ordem. 1.10 Trac¸o O trac¸o de uma matriz A, de ordem n, denotado por tr(A) e´ definido como a soma dos elementos da diagonal principal da matriz, isto e´: tr(A) = n∑ i=1 aii Por exemplo, se A = 1 7 13 2 2 3 0 2 , enta˜o tr(A) = 1 + 2 + 2 = 5. Notemos enta˜o, que o trac¸o de uma matriz e´ sempre um escalar. 24 Sejam as matrizes A e B quadradas de ordem n. Podemos listar as seguintes propriedades do trac¸o de uma matriz: a) O trac¸o da soma de duas matrizes e a soma dos trac¸os dessas matrizes, isto e´, tr(A + B) = tr(A) + tr(B) b) tr(AB) = tr(BA) Esta propriedade e´ va´lida para quaisquer matrizes A e B tais que os produtos AB e BA sejam definidos e de ordem n. Na˜o e´ necessa´rio que as matrizes A e B sejam quadradas, nem que AB e BA sejam iguais. Por exemplo, sejam as matrizes A e B definidas como: A = 1 32 −1 4 6 e B = [ 3 −2 1 2 4 5 ] temos que, AB = 9 10 164 −8 −3 24 16 34 e BA = [ 3 17 30 32 ] assim, tr(AB) = 9− 8 + 34 = 35 e tr(BA) = 3 + 32 = 35. 1.11 Matrizes e vetores ortogonais Dois vetores a e b, de mesma ordem, sa˜o ditos ortogonais, se e somente se, atb = a1b1 + a2b2 + · · ·+ anbn = 0. Geometricamente, se dois vetores sa˜o ortogonais, enta˜o eles sa˜o perpendiculares. Se ata = 1, o vetor a e´ dito ser normalizado. O vetor a pode ser normalizado, dividindo-o por sua norma √ ata. Assim, c = a√ ata e´ normalizado e ctc = 1. 25 A matriz C = [ c1 c2 · · · cp ] cujos vetores que compo˜em as colunas sa˜o normalizados e mutuamente ortogonais e´ chamada de matriz ortogonal. Em matrizes ortogonais, o produto CtC possui a propriedade de que ctici = 1 para todo i e cticj = 0, para todo i 6= j. A partir disso, temos que se uma matriz C e´ ortogonal, enta˜o, CtC = I = CCt Assim, podemos concluir que se uma matriz C e´ ortogonal, enta˜o Ct = C−1. Por exemplo, a matriz C = [ 1 2 − √ 3 2√ 3 2 1 2 ] , e´ ortogonal, pois CCt = 12 − √ 3 2√ 3 2 1 2 12 √ 3 2 − √ 3 2 1 2 = [ 1 0 0 1 ] logo, CCt = I e consequentemente Ct = C−1. Uma importante caracter´ıstica das matrizes ortogonais trata-se da rotac¸a˜o de eixos. Se um vetor x e´ transformado para z = Cx, sendo C uma matriz ortogonal, enta˜o, ztz = (Cx)t(Cx) = xtCtCx = xtIx = xtx ou seja, a distaˆncia da origem ate´ o vetor z e´ a mesma distaˆncia ate´ o vetor x. 1.12 Autovalores e Autovetores Considere o conjunto de equac¸o˜es lineares: a11x1 + a12x2 + · · ·+ a1nxn = λx1 a21x1 + a22x2 + · · ·+ a2nxn = λx2 ... ... ... ... ... ... an1x1 + an2x2 + · · ·+ annxn = λxn em que λ e´ um escalar. Este sistema pode ser escrito na forma matricial: Ax = λx Na equac¸a˜o acima λ e´ chamado de autovalor. O vetor x e´ chamado de autovetor 26 correspondente ao autovalor λ. Para encontrarmos λ e x, podemos reescrever a expressa˜o Ax = λx da seguinte forma: Ax− λx = 0 (A− λI)x = 0 Se |A− λI| 6= 0, enta˜o (A − λI) possui inversa e a u´nica soluc¸a˜o do sistema e´ x = 0. Assim, afim de obtermos soluc¸o˜es na˜o triviais para o sistema, estabelecemos a condic¸a˜o de que |A− λI| = 0 para encontrarmos os poss´ıveis valores de λ que podem ser substitu´ıdos na expressa˜o (A− λI)x = 0 para encontrarmos os autovetores, x1,x2, · · · ,xn, correspondentes. A equac¸a˜o |A− λI| = 0 e´ chamada de equac¸a˜o caracter´ıstica. Se A e´ uma matriz de ordem n, a equac¸a˜o caracter´ıstica tera´ n ra´ızes, isto e´, A tera´ n autovalores λ1, λ2, · · · , λn. Os autovalo- res encontrados, λ’s, na˜o necessariamente sa˜o todos distintos ou diferentes de zero. Entretanto, se A e´ encontrada atrave´s de dados reais (cont´ınuos) e e´ na˜o singular, enta˜o os autovalores encontrados sera˜o todos distintos. Se multiplicarmos ambos os lados da expressa˜o (A−λI)x = 0 por um escalar k, obtemos k(A− λI)x = k0 (A− λI)kx = 0 Notemos, atrave´s a expressa˜o acima, que, se x e´ um autovetor da matriz A, enta˜o kx tambe´m e´ um autovetor da matriz A. Logo, podemos encontrar infinitos autovetores associados a cada autovalor de uma matriz. Para resolvermos este inco- veniente, sempre usaremos em nossas ana´lises os autovetores normalizados, ou seja, aqueles tais que xtx = 1 Para exemplificar o ca´lculo de autovalores e autovetores, consideremos a matriz A = [ 1 2 −1 4 ] . 27 Temos que, |A− λI| = ∣∣∣∣∣ 1− λ 2−1 4− λ ∣∣∣∣∣ = (1− λ)(4− λ) + 2 = 4− 4λ− λ+ λ2 + 2 = λ2 − 5λ+ 6 assim, a equac¸a˜o caracter´ıstica e´ dada por λ2 − 5λ + 6 = 0, de forma que, λ1 = 3, λ2 = 2 sa˜o os autovalores de A. Para encontrarmos o autovetor associado ao autolavor λ1 = 3, procederemos da seguinte forma: Ax = λx[ 1 2 −1 4 ][ x1 x2 ] = 3 [ x1 x2 ] [ x1 + 2x2 −x1 + 4x2 ] = [ 3x1 3x2 ] de forma que, { x1 + 2x2 = 3x1 −x1 + 4x2 = 3x2 ou, { −2x1 + 2x2 = 0 −x1 + x2 = 0 que resulta em x1 = x2. Logo, os autovetores associados ao autovalor λ1 = 3 sa˜o da forma, x = [ x1 x2 ] = x1 [ 1 1 ] = c [ 1 1 ] , com a constante c 6= 0. Se c = 1√ 2 , teremos o autovetor normalizado associado ao autovalor λ1 = 3: e1 = [ 1√ 2 1√ 2 ] 28 Similarmente, para λ2 = 2, obteremos: e2 = [ 2√ 5 1√ 5 ] 1.12.1 tr(A) e |A| Para uma matriz A de ordem n, com autovalores λ1, λ2, · · · , λn, temos: tr(A) = n∑ i=1 λi e |A| = n∏ i=1 λi Para ilustrar essa propriedade, consideremos a matriz A = [ 1 2 −1 4 ] . Vimos que os autovalores da matriz A sa˜o λ1 = 3 e λ2 = 2. Assim, tr(A) = 3 + 2 = 5 e |A| = 3× 2 = 6 e, por definic¸a˜o, temos que tr(A) = 1 + 4 = 5 e |A| = (1× 4)− ((−1)× 2) = 6 1.12.2 Matrizes definidas Os autovalores e autovetores de uma matriz A possuem as seguintes proprieda- des: a) Se todos os autovalores da matriz A sa˜o positivos maiores que zero, enta˜o a matriz A e´ positiva definida; b) Se os autovalores da matriz A sa˜o positivos ou iguais a zero, enta˜o a matriz A e´ positiva semidefinida. Neste caso, o nu´mero de autovalores positivos sera´ igual ao posto da matriz A; Os autovalores de uma matriz positiva definida sa˜o comumente ordenados em ordem descrescente, isto e´, λ1 > λ2 > · · · > λp. Os autovetores x1, x2, · · · , xp sa˜o listados na mesma ordem, isto e´, x1 corresponde a λ1, x2 corresponde a λ2 e assim sucessivamente. Um importante teorema a respeito de autovalores e autovetores de matrizes po- sitivas definidas, conhecido como Teorema de Perron-Frobenius, nos sera´ u´til mais adiante: Se todos os elementos de uma matriz positiva definida A sa˜o positivos, en- ta˜o, os elementos do primeiro autovetor sa˜o todos positivos. (O primeiro autovetor 29 e´ aquele associado ao primeiro autovalor, λ1, que neste caso e´ o maior autovalor da matriz A) 1.12.3 Matrizes sime´tricas Os autovetores de uma matriz sime´trica A de ordem n sa˜o mutuamente ortogo- nais. A partir da´ı, se os n autovetores da matriz A forem normalizados e inseridos nas colunas de uma matriz C = [ e1 e2 · · · ep ] , enta˜o C e´ uma matriz ortogo- nal. 1.12.4 Teorema da Decomposic¸a˜o Espectral Sejam uma matriz Ap×p, sime´trica e a matriz C = [ e1 e2 · · · ep ] , que conte´m os autovetores normalizados da matriz A. Uma vez que C, assim definida, e´ ortogonal, ou seja CCt = I, obtemos, A = ACCt = A [ e1 e2 · · · ep ] Ct= [ Ae1 Ae2 · · · Aep ] Ct = [ λ1e1 λ2e2 · · · λpep ] = CΛCt em que Λ = λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λp sendo λ1 ≥ λ2 ≥ · · · ≥ λp, os autovalores de A e ei, i = 1, · · · , p, os autovetores normalizados de A. A expressa˜o A = CΛCt e´ conhecida como decomposic¸a˜o espectral da matriz A. O teorema da decomposic¸a˜o espectral afirma que toda matriz sime´trica A pode ser decomposta em termos de seus autovalores e autovetores normalizados. Temos ainda que, CtAC = CtCΛCtC = IΛI = Λ 30 ou seja, uma matriz sime´trica A pode ser diagonalizada por uma matriz ortogonal contendo os autovetores normalizados de A, resultando em uma matriz diagonal contendo os autovalores de A. Ainda, de acordo com o Teorema da decomposic¸a˜o espectral, temos, A = CΛCt = e11 e21 · · · ep1 e12 e22 · · · ep2 ... ... . . . ... e1p e2p · · · epp × λ1 0 · · · 0 0 λ2 · · · 0 ... ... . . . ... 0 0 · · · λp × e11 e12 · · · e1p e21 e22 · · · e2p ... ... . . . ... ep1 ep2 · · · epp = e11λ1 e21λ2 · · · ep1λp e12λ1 e22λ2 · · · ep2λp ... ... . . . ... e1pλ1 e2pλ2 · · · eppλp × e11 e12 · · · e1p e21 e22 · · · e2p ... ... . . . ... ep1 ep2 · · · epp = e11λ1e11 + e21λ2e12 + · · ·+ ep1λpe1p = p∑ i=1 λieie t i , i = 1, · · · , p Com base no Teorema da decomposic¸a˜o espectral e´ fa´cil mostrar que: • |A| = p∏ i=1 λi |A| = ∣∣CΛCt∣∣ = |C| |Λ| ∣∣Ct∣∣ = |Λ| |C| ∣∣Ct∣∣ = ∣∣ΛCCt∣∣ = |ΛI| = |Λ| = p∏ i=1 λi • tr(A) = p∑ i=1 λi tr(A) = tr(CΛCt) = tr(CtCΛ) = tr(IΛ) = tr(Λ) = p∑ i=1 λi Para ilustrarmos o Teorema da decomposic¸a˜o espectral, vamos encontrar a de- composic¸a˜o espectral da matriz A dada por: A = [ 8 −2 −2 5 ] Temos que os autovalores da matriz A sa˜o λ1 = 9 e λ2 = 4 e que os autovetores normalizados associados aos autovalores sa˜o dados, respectivamente, por 31 e1 = [ −2√ 5 1√ 5 ] e e2 = [ 1√ 5 2√ 5 ] logo, as matriz C e Λ sa˜o dadas por, C = [e1 e2] = [ −2√ 5 1√ 5 1√ 5 2√ 5 ] e Λ = [ 9 0 0 4 ] assim, CΛCt = [ −2√ 5 1√ 5 1√ 5 2√ 5 ][ 9 0 0 4 ][ −2√ 5 1√ 5 1√ 5 2√ 5 ] = [ −18√ 5 4√ 5 9√ 5 8√ 5 ][ −2√ 5 1√ 5 1√ 5 2√ 5 ] = [ 8 −2 −2 5 ] = A Uma vez encontrada a decomposic¸a˜o espectral de uma matriz A sime´trica, po- sitiva definida, temos, A1/2 = CΛ1/2Ct A−1 = CΛ−1Ct A2 = CΛ2Ct em que Λ1/2 = diag( √ λ1, √ λ2, · · · , √ λp), Λ −1 = diag( 1 λ1 , 1 λ2 , · · · , 1 λp ) e Λ2 = diag(λ21, λ 2 2, · · · , λ2p). 1.12.5 Decomposic¸a˜o em valor singular De maneira similar a` decomposic¸a˜o espectral de uma matriz sime´trica, podemos expressar qualquer matriz real A em termos dos autovalores e autovetores de AAt e AtA. Seja A uma matriz de ordem n × p de posto k. A decomposic¸a˜o em valor singular da matriz A e´ dada por A = UΛVt, em que U e´ de ordem n×k, Λ e´ de ordem k×k e V e´ de ordem p×k. Os elementos 32 da diagonal da matriz Λ = diag(λ1, λ2, · · · , λk) sa˜o as ra´ızes quadradas positivas de λ21, λ 2 2, · · · , λ2k, que sa˜o os autovalores diferentes de zero de AAt ou de AtA. Os valores λ1, λ2, · · · , λk sa˜o chamados de valores singulares de A. As k colunas da matriz U sa˜o os autovetores normalizados de AAt correspondentes aos autovalores λ21, λ 2 2, · · · , λ2k. As k colunas de V sa˜o os autovetores normalizados da matriz AtA correspondentes aos autovalores λ21, λ 2 2, · · · , λ2k. Uma vez que as colunas de U e de V sa˜o autovetores normalizados de matrizes sime´tricas, eles sa˜o mutuamente ortogonais, de forma que UtU = VtV = I. 1.13 Soluc¸a˜o utilizando o software R Nesta sec¸a˜o, apresentaremos algumas func¸o˜es do software R envolvendo os concei- tos de A´lgebra Linear, que sera˜o muito u´teis no desenvolvimento de nossas ana´lises. A base de uma ana´lise multivariada consiste na manipulac¸a˜o de matrizes. Logo, temos que nos familiarizar com esses objetos no R. A primeira coisa que sempre devemos fazer quando na˜o conhecemos a func¸a˜o que estamos trabalhando no R e´ consultar a documentac¸a˜o da func¸a˜o. Para isso, basta utilizarmos os comandos de ajuda do R: > ?matrix > help(matrix) Geralmente, o arquivo de help do R possui 10 to´picos ba´sicos: 1. Description: faz um resumo geral sobre o uso da func¸a˜o 2. Usage: mostra como a func¸a˜o deve ser utilizada e quais argumentos podem ser especificados 3. Arguments: explica o que e´ cada um dos argumentos 4. Details: explica alguns detalhes sobre o uso e aplicac¸a˜o da func¸a˜o (geralmente poucos) 5. Value: mostra o que sai no output apo´s usar a func¸a˜o (os resultados) 6. Note: notas sobre a func¸a˜o 7. Authors: lista os autores da func¸a˜o (quem escreveu os co´digos em R) 8. References: refereˆncias para os me´todos usados 33 9. See also: mostra outras func¸o˜es relacionadas que podem ser consultadas 10. Examples: exemplos do uso da func¸a˜o. Copie e cole os exemplos no R para ver como funciona Vamos comec¸ar contruindo uma matriz aleato´ria: > a = 1:30 ## gerando uma sequencia de 1 a 30 > a [1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 26 27 28 29 30 > ?sample ## a func¸~ao sample serve para retirar amostras com ou sem reposic¸~ao > ## construir uma matriz 3x3 aleatoria > A = matrix(sample(a,9,replace = FALSE),ncol=3) > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 Podemos entrar diretamente com os valores dos elementos de uma matriz, como por exemplo, > ## outra forma de se construir uma matriz > > B = matrix(c(140.54,49.68,1.94,49.68,72.25,3.68,1.94,3.68,0.25),ncol=3) > B [,1] [,2] [,3] [1,] 140.54 49.68 1.94 [2,] 49.68 72.25 3.68 [3,] 1.94 3.68 0.25 Um vetor muito importante dentro de ana´lise multivariada e´ o vetor de 1’s, que pode ser definido da seguinte forma, > ?array 34 > ## vetor de 1's > p = 4 ## vetor de ordem 4 > uns = array(1,p) > uns [1] 1 1 1 1 Podemos notar as caracter´ısticas dos vetores de 1’s: > t(uns)%*%uns ## p (escalar) [,1] [1,] 4 > uns%*%t(uns) ## Matriz de 1's: matriz J [,1] [,2] [,3] [,4] [1,] 1 1 1 1 [2,] 1 1 1 1 [3,] 1 1 1 1 [4,] 1 1 1 1 Seja agora um vetor a qualquer, por exemplo, > a = array(c(1,4,4,2)) > a [1] 1 4 4 2 Podemos definir a soma dos quadrados dos elementos de a e a matriz de produtos dos elementos de a: > t(a)%*%a ## soma dos quadrados de a ou produto escalar de a [,1] [1,] 37 > a%*%t(a) ## matriz com os elementos de a ao quadrado [,1] [,2] [,3] [,4] [1,] 1 4 4 2 [2,] 4 16 16 8 [3,] 4 16 16 8 [4,] 2 8 8 4 Considerando, agora, o vetor de 1’s: 35 > t(uns)%*%a ## soma dos elementos do vetor a [,1] [1,] 11 > uns%*%t(a) ## produz uma matriz cujas linhas s~ao o vetor a [,1] [,2] [,3] [,4] [1,] 1 4 4 2 [2,] 1 4 4 2 [3,] 1 4 4 2 [4,] 1 4 4 2 Considerando, agora, a matriz A: > p = 3 ## vetor de ordem 4 > j = array(1,p) > j [1] 1 1 1 > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 > j%*%A ## soma das linhas da matriz A [,1] [,2] [,3] [1,] 26 36 44 > A%*%j ## soma das colunas da matriz A [,1] [1,] 27 [2,] 27 [3,] 52 Encontrando a matriz identidade: > ?diag ## func¸~ao diag() cria uma matriz diagonal com os para^metros passados > ## Matriz diagonal > a [1] 1 4 4 2 36 > D = diag(a) > D [,1] [,2] [,3] [,4] [1,] 1 0 0 0 [2,] 0 4 0 0 [3,] 0 0 4 0 [4,] 0 0 0 2 > ## matriz identidade > I = diag(uns) > I [,1] [,2] [,3] [,4] [1,]1 0 0 0 [2,] 0 1 0 0 [3,] 0 0 1 0 [4,] 0 0 0 1 Outra forma de se obter a matriz identidade: > I = diag(x = 1, 3, 3) > I [,1] [,2] [,3] [1,] 1 0 0 [2,] 0 1 0 [3,] 0 0 1 Encontrando a transposta de uma matriz: > ?t ## func¸~ao t(): encontrar a transposta > ## calcular A^t > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 > At = t(A) > At 37 [,1] [,2] [,3] [1,] 4 1 21 [2,] 6 8 22 [3,] 17 18 9 Consideremos a matriz C dada por > C = matrix(c(1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),ncol=4) > C [,1] [,2] [,3] [,4] [1,] 1 1 1 1 [2,] 1 1 1 1 [3,] 1 1 1 1 [4,] 1 1 1 1 Podemos enta˜o definir as matrizes triangulares: > ?lower.tri > ?upper.tri > ## Matriz triangular superior > C[lower.tri(C)] <- 0 > C [,1] [,2] [,3] [,4] [1,] 1 1 1 1 [2,] 0 1 1 1 [3,] 0 0 1 1 [4,] 0 0 0 1 > ## Matriz triangular inferior > C = matrix(c(1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),ncol=4) > C[upper.tri(C)] <- 0 > C [,1] [,2] [,3] [,4] [1,] 1 0 0 0 [2,] 1 1 0 0 [3,] 1 1 1 0 [4,] 1 1 1 1 38 Ca´lculo de determinantes: > ?det > ## Calcular det(A) > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 > d = det(A) > d [1] -1564 > D [,1] [,2] [,3] [,4] [1,] 1 0 0 0 [2,] 0 4 0 0 [3,] 0 0 4 0 [4,] 0 0 0 2 > det(D) [1] 32 > C [,1] [,2] [,3] [,4] [1,] 1 0 0 0 [2,] 1 1 0 0 [3,] 1 1 1 0 [4,] 1 1 1 1 > det(C) [1] 1 > B [,1] [,2] [,3] [1,] 140.54 49.68 1.94 [2,] 49.68 72.25 3.68 [3,] 1.94 3.68 0.25 > det(B) 39 [1] 455.6601 Ca´lculo da inversa de uma matriz: > ?solve > solve(C) [,1] [,2] [,3] [,4] [1,] 1 0 0 0 [2,] -1 1 0 0 [3,] 0 -1 1 0 [4,] 0 0 -1 1 > BI = solve(B) > BI [,1] [,2] [,3] [1,] 0.009919895 -0.01158934 0.09361672 [2,] -0.011589341 0.06884825 -0.92351301 [3,] 0.093616718 -0.92351301 16.86764580 > ?round > round(B%*%BI,0) [,1] [,2] [,3] [1,] 1 0 0 [2,] 0 1 0 [3,] 0 0 1 > round(BI%*%B,0) [,1] [,2] [,3] [1,] 1 0 0 [2,] 0 1 0 [3,] 0 0 1 Para o ca´lculo do trac¸o de uma matriz: > ?sum 40 > ## calcular traco de A > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 > diag(A) [1] 4 8 9 > trA = sum(diag(A)) > trA [1] 21 > trB = sum(diag(B)) > trB [1] 213.04 Operac¸o˜es com matrizes: > ?dim ## encontra a ordem de uma matriz > dim(A) ## ordem de A [1] 3 3 > dim(B) ## ordem de B [1] 3 3 > ## soma de duas matrizes > C = A + B > C [,1] [,2] [,3] [1,] 144.54 55.68 18.94 [2,] 50.68 80.25 21.68 [3,] 22.94 25.68 9.25 > ## transporta de uma matriz > t(C) [,1] [,2] [,3] [1,] 144.54 50.68 22.94 [2,] 55.68 80.25 25.68 [3,] 18.94 21.68 9.25 41 > t(A) + t(B) [,1] [,2] [,3] [1,] 144.54 50.68 22.94 [2,] 55.68 80.25 25.68 [3,] 18.94 21.68 9.25 > ## verificando a propriedade tr(A+B) = tr(A) + tr(B) > t(C) == t(A) + t(B) [,1] [,2] [,3] [1,] TRUE TRUE TRUE [2,] TRUE TRUE TRUE [3,] TRUE TRUE TRUE > ## multiplicac¸~ao de duas matrizes > A%*%B [,1] [,2] [,3] [1,] 893.22 694.78 34.09 [2,] 572.90 693.92 35.88 [3,] 4061.76 2665.90 123.95 > AA = matrix(c(1,3,2,4),ncol=2) > BB = matrix(c(1,-2,3,5),ncol=2) > ## cuidado! multiplicac¸~ao de matrizes > > AA%*%BB ## produto matricial de AA por BB [,1] [,2] [1,] -3 13 [2,] -5 29 > AA*BB ## produto elemento a elemento de AA e BB [,1] [,2] [1,] 1 6 [2,] -6 20 > ## produto matricial n~ao e´ comutativo > AA%*%BB [,1] [,2] [1,] -3 13 [2,] -5 29 > BB%*%AA 42 [,1] [,2] [1,] 10 14 [2,] 13 16 > ## operac¸~oes com vetores > a [1] 1 4 4 2 > b = array(c(1,2,4,7)) > b [1] 1 2 4 7 > t(a)%*%b ## soma dos produtos dos elementos de a e b [,1] [1,] 39 > a%*%t(b) ## matriz com os produtos de elementos correspondentes de a e b [,1] [,2] [,3] [,4] [1,] 1 2 4 7 [2,] 4 8 16 28 [3,] 4 8 16 28 [4,] 2 4 8 14 > ## tamanho do vetor a > sqrt(t(a)%*%a) ## norma de a [,1] [1,] 6.082763 Ca´lculo dos autovalores e autovetores de uma matriz: > ?eigen > A [,1] [,2] [,3] [1,] 4 6 17 [2,] 1 8 18 [3,] 21 22 9 > av = eigen(A) > av ## autovalores e autovetores normalizados de A 43 eigen() decomposition $values [1] 36.703790 -18.062853 2.359063 $vectors [,1] [,2] [,3] [1,] -0.4723366 -0.4397560 -0.6827614 [2,] -0.4800275 -0.4988981 0.7071747 [3,] -0.7392373 0.7468035 -0.1836870 > eigen(B) ## autovalores e autovetores normalizados de B eigen() decomposition $values [1] 166.74822364 46.23267047 0.05910589 $vectors [,1] [,2] [,3] [1,] 0.88461534 0.46628823 0.005565673 [2,] 0.46586604 -0.88316113 -0.054728927 [3,] 0.02060407 -0.05100691 0.998485737 > av = eigen(B)$values ## autovalores de B > av [1] 166.74822364 46.23267047 0.05910589 > ave = eigen(B)$vectors ## autovetores normalizados de B > ave [,1] [,2] [,3] [1,] 0.88461534 0.46628823 0.005565673 [2,] 0.46586604 -0.88316113 -0.054728927 [3,] 0.02060407 -0.05100691 0.998485737 Decomposic¸a˜o de Cholesky: > ?chol > ## decomposicao de cholesky > > choB = chol(B) > choB 44 [,1] [,2] [,3] [1,] 11.85496 4.190652 0.1636446 [2,] 0.00000 7.395163 0.4048893 [3,] 0.00000 0.000000 0.2434853 > det(B) [1] 455.6601 > det(t(choB)%*%choB) [1] 455.6601 > det(B) == det(t(choB)%*%choB) ## aplicac¸~ao da decomposic¸~ao de cholesky [1] TRUE Decomposic¸a˜o espectral de uma matriz: > ## teorema da decomposicao espectral > avaB = eigen(B)$values > aveB = eigen(B)$vectors > lambdao = diag(avaB) > lambdao [,1] [,2] [,3] [1,] 166.7482 0.00000 0.00000000 [2,] 0.0000 46.23267 0.00000000 [3,] 0.0000 0.00000 0.05910589 > B [,1] [,2] [,3] [1,] 140.54 49.68 1.94 [2,] 49.68 72.25 3.68 [3,] 1.94 3.68 0.25 > aveB%*%lambdao%*%t(aveB) [,1] [,2] [,3] [1,] 140.54 49.68 1.94 [2,] 49.68 72.25 3.68 [3,] 1.94 3.68 0.25 > round(t(aveB)%*%B%*%aveB,4) [,1] [,2] [,3] [1,] 166.7482 0.0000 0.0000 [2,] 0.0000 46.2327 0.0000 [3,] 0.0000 0.0000 0.0591 45 > lambdao [,1] [,2] [,3] [1,] 166.7482 0.00000 0.00000000 [2,] 0.0000 46.23267 0.00000000 [3,] 0.0000 0.00000 0.05910589 > ## aplicac¸~ao do teorema da decomposic¸~ao espectral > BI = aveB%*%solve(lambdao)%*%t(aveB) > BI [,1] [,2] [,3] [1,] 0.009919895 -0.01158934 0.09361672 [2,] -0.011589341 0.06884825 -0.92351301 [3,] 0.093616718 -0.92351301 16.86764580 > solve(B) [,1] [,2] [,3] [1,] 0.009919895 -0.01158934 0.09361672 [2,] -0.011589341 0.06884825 -0.92351301 [3,] 0.093616718 -0.92351301 16.86764580 Decomposic¸a˜o em valores singulares: > ?svd > ## Decomposic¸~ao em valores singulares > E = matrix(c(1,2,3,4,5,6),ncol=3) > E [,1] [,2] [,3] [1,] 1 3 5 [2,] 2 4 6 > svd(E) $d [1] 9.5255181 0.5143006 $u [,1] [,2] [1,] -0.6196295 -0.7848945 [2,] -0.7848945 0.6196295 46 $v [,1] [,2] [1,] -0.2298477 0.8834610 [2,] -0.5247448 0.2407825 [3,] -0.8196419 -0.4018960 > L = diag(svd(E)$d) ## matriz lambd~ao > U = svd(E)$u ## matriz U > V = svd(E)$v ## matriz V > U%*%L%*%t(V) [,1] [,2] [,3] [1,] 1 3 5 [2,] 2 4 6 > E [,1] [,2] [,3] [1,] 1 3 5 [2,] 2 4 6 1.14 Exerc´ıcios 1. Sejam as seguintes matrizes: A = [ 4 2 3 7 5 8 ] e B = [ 3 −2 4 6 9 −5 ] (a) Encontre A + B e A−B. (b) Encontre AAt e AtA. (c) Calcule (A + B)t e verifique que a matriz resultante e´ igual a At + Bt. (d) Mostre que (At)t = A. 2. Sejam as matrizes: A = [ 1 3 2 −1 ] e B = [ 2 0 1 5 ] (a) Encontre AB e BA. (b) Encontre |AB| e verifique se |AB| = |A| · |B|. 47 (c)Calcule A + B e tr(A + B). (d) Calcule tr(A) e tr(B) e verifique se tr(A + B) = tr(A) + tr(B). (e) Encontre (AB)t e verifique que (AB)t = BtAt. 3. Sejam as matrizes: A = [ 1 2 3 2 −1 1 ] e B = 3 −22 0 −1 1 (a) Encontre AB e BA. (b) Calcule tr(AB) e tr(BA) e verifique se sa˜o iguais. 4. Sejam as matrizes: A = 1 2 32 4 6 5 10 15 e B = −1 1 −2−1 1 −2 1 −1 2 (a) Mostre que AB = 0. (b) Encontre um vetor x tal que Ax = 0. (c) Mostre que |A| = 0. 5. Sejam: A = 1 −1 4−1 1 3 4 3 2 , B = 3 −2 47 1 0 2 3 5 x = 1−1 2 e y = 32 1 Encontre o que se pede: (a) Bx (b) ytB (c) xtAx (e) xAy (f) xyt (g) (x− y)tA(x− y) 48 6. Sejam: A = 1 2 34 5 6 7 8 9 e D = a 0 00 b 0 0 0 c (a) Encontre AD, DA e DAD 7. Sejam: A = [ 1 3 2 2 0 −1 ] , B = 1 20 1 1 0 e C = [ 2 1 1 5 −6 −4 ] (a) Encontre AB e CB. Elas sa˜o iguais? Encontre o posto das matrizes A, B e C. 8. Verifique se as matrizes abaixo sa˜o ortogonais: A = 1 169 · [ 5 12 −12 5 ] e B = 1√ 2 · [ 1 1 1 −1 ] 9. Sejam os vetores: a = 1−3 2 e b = 21 3 (a) Encontre atb e (atb)2. (b) Encontre bbt e at(bbt)a. (c) Compare (atb)2 com at(bbt)a. 10. Sejam as matrizes particionadas abaixo: A = 2 1 3 2 2 0 1 0 1 e B = 1 1 1 2 1 1 0 2 2 3 1 2 49 (a) Encontre AB considerando o particionamento das matrizes. Fac¸a o mesmo desconsiderando esse particionamento. Compare os resultados. (b) Encontre At considerando o particionamento das matrizes. Fac¸a o mesmo desconsiderando esse particionamento. Compare os resultados 11. Seja a matriz: A = [ 1 2 2 −2 ] (a) Mostre que A e´ sime´trica. (b) Obtenha os autovalores e autovetores da matriz A. (c) Mostre que os autovetores sa˜o ortogonais. (d) Escreva a decomposic¸a˜o espectral de A. (e) Obtenha A−1, seus autovalores e autovetores e a decomposic¸a˜o espectral. Relacione com a decomposic¸a˜o espectral de A. (f) Mostre que o determinante de A−1 e´ o inverso do determinante de A. (g) Mostre que o determinante de A e´ o produto dos autovalores. (h) Encontre a forma quadra´tica da matriz A e classifique-a. (i) Mostre que (At)−1 = (A−1)t. 12. Seja a matriz: A = 3 6 −16 9 4 −1 4 3 (a) Encontre a decomposic¸a˜o espectral de A. (b) Encontre a decomposic¸a˜o espectral de A2 e mostre que a matriz diagonal de autovalores e´ igual ao quadrado da matriz Λ encontrada na parte (a). (c) Encontre a decomposic¸a˜o espectral de A−1 e mostre que a matriz diagonal de autovalores e´ igual a` inversa da matriz Λ encontrada na parte (a). 13. Seja a matriz A dada abaixo: A = 3 4 34 8 6 3 6 9 50 (a) Mostre que det(A) > 0. (b) Usando a decomposic¸a˜o de Cholesky, encontre a matriz triangular supe- rior T tal que A = TtT. 14. Encontre a decomposic¸a˜o em valores singulares da matriz A dada por: A = 4 −5 −1 7 −2 3 −1 4 −3 8 2 6 15. Se j e´ um vetor de un’s, mostre que: (a) jta = atj = ∑ i ai. (b) jtA e´ um vetor linha contendo a soma das colunas de A. (c) Aj e´ um vetor coluna contendo a soma das linhas de A. 16. Mostre que (x− y)t(x− y) = xtx− 2xty + yty. 17. Mostre que AtA e´ sime´trica se A e´ de ordem n× p. 18. Mostre que tr(AtA) = tr(AAt) = ∑ ij a2ij. 19. Uma forma quadra´tica xtAx e´ dita ser positiva definida se a matriz A e´ positiva definida. A forma quadra´tica 3x21 + 3x 2 2 − 2x1x2 e´ positiva definida? 51 Cap´ıtulo 2 Introduc¸a˜o a` Estat´ıstica Multivariada 2.1 Introduc¸a˜o Quando nos referimos a` ana´lise multivariada de dados, estamos tratando, de forma geral, de um conjunto de me´todos estat´ısticos que analisam, de forma simul- taˆnea, dados correspondentes a medidas de duas ou mais varia´veis medidas em cada elemento amostral (ou indiv´ıduo). Qualquer ana´lise simultaˆnea de mais de duas varia´veis pode ser, de certo modo, considerado como ana´lise multivariada. No en- tanto, para ser considerada verdadeiramente multivariada, todas as varia´veis devem ser aleato´rias e interrelacionadas de tal forma que seus diferentes efeitos na˜o podem ser interpretados de maneira significativa separadamente. Muitas te´cnicas multivariadas sa˜o simplesmente extenso˜es de ana´lises univaria- das (ana´lise da distribuic¸a˜o de uma u´nica varia´vel) e ana´lise bivariada (classificac¸a˜o cruzada, correlac¸a˜o, ana´lise de variaˆncia e regressa˜o simples). Por exemplo, a re- gressa˜o simples (com uma varia´vel preditiva) e´ estendida para o caso multivariado para incluir va´rias varia´veis preditivas. Da mesma forma, a u´nica varia´vel depen- dente encontrada na ana´lise de variaˆncia e´ estendida para incluir mu´ltiplas varia´veis dependentes na ana´lise de variaˆncia multivariada. Em muitos casos, como podera´ ser visto, a ana´lise multivariada e´ um meio de realizar em uma u´nica ana´lise aquilo que exigiria mu´ltiplas ana´lises no caso univariado. Outras te´cnicas multivariadas, no entanto, foram projetadas para lidar somente com casos multivariados, tal como a ana´lise fatorial, que visa identificar a estrutura subjacente de um grupo de varia´veis ou a ana´lise discriminante, para diferenciar entre grupos baseados em um conjunto de varia´veis. Te´cnicas de ana´lise multivariadas esta˜o sendo largamente aplicadas hoje na in- 52 du´stria, no governo e nos centros de pesquisas das universidades. Hoje ja´ na˜o faz mais sentido seguir o que a pouco tempo ainda era comum, como por exemplo, con- siderar os consumidores como um grupo homogeˆneo e caracterizado por um pequeno grupo de varia´veis demogra´ficas. Ao contra´rio, e´ necessa´rio desenvolver estrate´gias que atinjam grupos variados de consumidores com caracter´ısticas demogra´ficas e psicogra´ficas em um mercado com mu´ltiplas restric¸o˜es (legais, econoˆmicas, com- petitivas, tecnolo´gicas, etc.). E´ somente atrave´s de te´cnicas multivariadas que as mu´ltiplas relac¸o˜es destes tipos podem ser adequadamente examinadas para se obter um entendimento completo e realista da tomada de decisa˜o. 2.2 Banco de dados multivariados Nesta sec¸a˜o, apresentaremos alguns exemplos de banco de dados multivariados. Os cinco exemplos que vamos considerar sa˜o mate´rias brutas t´ıpicas para me´todos estat´ısticos multivariados. Em todos os casos, existem va´rias varia´veis de interesse e elas sa˜o claramente na˜o-independentes umas das outras. 2.2.1 Pardais sobreviventes de tempestade Apo´s uma forte tempestade em 1o de fevereiro de 1898, diversos pardais mori- bundos foram levados ao laborato´rio biolo´gico de Hermon Bumpus na Universidade de Brown em Rhode Island. Subsequ¨entemente cerca de metade dos pa´ssaros morre- ram, e Bumpus viu isso como uma oportunidade de encontrar suporte para a teoria de selec¸a˜o natural de Charles Darwin. Para esse fim, ele fez oito medidas morfolo´- gicas em cada pa´ssaro, e tambe´m os pesou. Os resultados de cinco das medidas sa˜o mostrados na Tabela 2.1, para feˆmeas somente. Dos dados que obteve, Bumpus (1898) concluiu que “os pa´ssaros que morreram, morreram na˜o por acidente, mas porque eles eram fisicamente desqualificados, e que os pa´ssaros que sobreviveram, sobreviveram porque eles possu´ıam certas caracter´ıs- ticas f´ısicas”. Especificamente, ele verificou que os sobreviventes “sa˜o mais curtos e pesam menos ... tem ossos das asas mais longos, pernas mais longas, esternos mais longos e maior capacidade cerebral”do que os na˜o-sobreviventes. Concluiu tambe´m que “o processo de eliminac¸a˜o seletiva e´ mais severo com indiv´ıduosextremamente varia´veis, na˜o importando em qual direc¸a˜o a variac¸a˜o possa ocorrer. E´ ta˜o peri- goso estar acima de um certo padra˜o de exceleˆncia orgaˆnica como estar visivelmente abaixo do padra˜o”. Isso queria dizer que ocorreu selec¸a˜o estabilizadora, de modo que indiv´ıduos com medidas pro´ximas da me´dia sobrevivem melhor do que indiv´ıduos com medidas longe da me´dia. 53 Tabela 2.1: Medidas do corpo de pardocas mensuradas em mm Pa´ssaro X1 X2 X3 X4 X5 Pa´ssaro X1 X2 X3 X4 X5 1 156 245 31,6 18,5 20,5 26 160 250 31,7 18,8 22,5 2 154 240 30,4 17,9 19,6 27 155 237 31,0 18,5 20,0 3 153 240 31,0 18,4 20,6 28 157 245 32,2 19,5 21,4 4 153 236 30,9 17,7 20,2 29 165 245 33,1 19,8 22,7 5 155 243 31,5 18,6 20,3 30 153 231 30,1 17,3 19,8 6 163 247 32,0 19,0 20,9 31 162 239 30,3 18,0 23,1 7 157 238 30,9 18,4 20,2 32 162 243 31,6 18,8 21,3 8 155 239 32,8 18,6 21,2 33 159 245 31,8 18,5 21,7 9 164 248 32,7 19,1 21,1 34 159 247 30,9 18,1 19,0 10 158 238 31,0 18,8 22,0 35 155 243 30,9 18,5 21,3 11 158 240 31,3 18,6 22,0 36 162 252 31,9 19,2 22,2 12 160 244 31,1 18,6 20,5 37 152 230 30,4 17,3 18,6 13 161 246 32,3 19,3 21,8 38 159 242 30,8 18,2 20,5 14 157 245 32,0 19,1 20,0 39 155 238 31,2 17,9 19,3 15 157 235 31,5 18,1 19,8 40 163 249 33,4 19,5 22,8 16 156 237 30,9 18,0 20,3 41 163 242 31,0 18,1 20,7 17 158 244 31,4 18,5 21,6 42 156 237 31,7 18,2 20,3 18 153 238 30,5 18,2 20,9 43 159 238 31,5 18,4 20,3 19 155 236 30,3 18,5 20,1 44 161 245 32,1 19,1 20,8 20 163 246 32,5 18,6 21,9 45 155 235 30,7 17,7 19,6 21 159 236 31,5 18,0 21,5 46 162 247 31,9 19,1 20,4 22 155 240 31,4 18,0 20,7 47 153 237 30,6 18,6 20,4 23 156 240 31,5 18,2 20,6 48 162 245 32,5 18,5 21,1 24 160 242 32,6 18,8 21,7 49 164 248 32,3 18,8 20,9 25 152 232 30,3 17,2 19,8 1Nota: X1 = comprimento total, X2 = extensa˜o alar, X3 = comprimento do bico e cabec¸a, X4 = comprimento do u´mero, X5 = comprimento da quilha do esterno. Pa´ssaros de 1 a 21 sobreviveram, pa´ssaros de 22 a 49 morreram. Tomando os dados como um exemplo para ilustrar me´todos multivariados, sur- gem muitas questo˜es interessantes. Em particular: a) Como esta˜o relacionadas as va´rias varia´veis? Por exemplo, um valor grande para uma das varia´veis tende a ocorrer com valores grandes para as outras varia´veis? b) Os sobreviventes e os na˜o-sobreviventes teˆm diferenc¸as estatisticamente signi- ficantes para seus valores me´dios das varia´veis? c) Os sobreviventes e na˜o-sobreviventes mostram quantidades similares de varia- c¸a˜o para as varia´veis? 54 d) Se os sobreviventes e na˜o-sobreviventes diferem em termos das distribuic¸o˜es das varia´veis, enta˜o e´ poss´ıvel construir alguma func¸a˜o dessas varia´veis que separe os dois grupos? Enta˜o seria conveniente se valores grandes da func¸a˜o tendessem a ocorrer com os sobreviventes enquanto que a func¸a˜o seria enta˜o aparentemente um ı´ndice de ajuste darwiniano dos pardais. 2.2.2 Craˆnios eg´ıpcios Para um segundo exemplo, considere os dados mostrados na Tabela ?? para medidas feitas em craˆnios masculinos da a´rea de Tebas no Egito. Ha´ cinco amostras de 30 craˆnios cada uma do per´ıodo pre´-dina´stico primitivo (cerca de 4000 a.C.), do per´ıodo pre´-dina´stico antigo (cerca de 3300 a.C.), das 12a e 13a dinastias (cerca de 1850 a.C.), do per´ıodo Ptolemaico (cerca de 200 a.C.) e do per´ıodo Romano (cerca de 150 d.C.). Quatro medidas sa˜o apresentadas para cada craˆnio, como ilustrado na Figura 2.1. Figura 2.1: Quatro medidas feitas em craˆnios eg´ıpcios masculinos. 55 T ab el a 2. 2: M ed id as d e cr aˆn io s eg´ ıp ci os m as cu li n os (m m ) P re´ -d in a´s ti co p ri m it iv o P re´ -d in a´s ti co an ti go 12 a e 13 a d in as ti as P er´ ıo d o p to le m ai co P er´ ıo d o ro m an o C raˆ n io s X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 1 13 1 13 8 89 49 12 4 13 8 10 1 48 13 7 14 1 96 52 13 7 13 4 10 7 54 13 7 12 3 91 50 2 12 5 13 1 92 48 13 3 13 4 97 48 12 9 13 3 93 47 14 1 12 8 95 53 13 6 13 1 95 49 3 13 1 13 2 99 50 13 8 13 4 98 45 13 2 13 8 87 48 14 1 13 0 87 49 12 8 12 6 91 57 4 11 9 13 2 96 44 14 8 12 9 10 4 51 13 0 13 4 10 6 50 13 5 13 1 99 51 13 0 13 4 92 52 5 13 6 14 3 10 0 54 12 6 12 4 95 45 13 4 13 4 96 45 13 3 12 0 91 46 13 8 12 7 86 47 6 13 8 13 7 89 56 13 5 13 6 98 52 14 0 13 3 98 50 13 1 13 5 90 50 12 6 13 8 10 1 52 7 13 9 13 0 10 8 48 13 2 14 5 10 0 54 13 8 13 8 95 47 14 0 13 7 94 60 13 6 13 8 97 58 8 12 5 13 6 93 48 13 3 13 0 10 2 48 13 6 14 5 99 55 13 9 13 0 90 48 12 6 12 6 92 45 9 13 1 13 4 10 2 51 13 1 13 4 96 50 13 6 13 1 92 46 14 0 13 4 90 51 13 2 13 2 99 55 10 13 4 13 4 99 51 13 3 12 5 94 46 12 6 13 6 95 56 13 8 14 0 10 0 52 13 9 13 5 92 54 11 12 9 13 8 95 50 13 3 13 6 10 3 53 13 7 12 9 10 0 53 13 2 13 3 90 53 14 3 12 0 95 51 12 13 4 12 1 95 53 13 1 13 9 98 51 13 7 13 9 97 50 13 4 13 4 97 54 14 1 13 6 10 1 54 13 12 6 12 9 10 9 51 13 1 13 6 99 56 13 6 12 6 10 1 50 13 5 13 5 99 50 13 5 13 5 95 56 14 13 2 13 6 10 0 50 13 8 13 4 98 49 13 7 13 3 90 49 13 3 13 6 95 52 13 7 13 4 93 53 15 14 1 14 0 10 0 51 13 0 13 6 10 4 53 12 9 14 2 10 4 47 13 6 13 0 99 55 14 2 13 5 96 52 C on ti n u a n a p ro´ x im a p a´g in a ? ? 56 T ab el a 2. 2 – C on ti n u ac¸ a˜o d a p a´g in a an te ri or P re´ -d in a´s ti co p ri m it iv o P re´ -d in a´s ti co an ti go 12 a e 13 a d in as ti as P er´ ıo d o p to le m ai co P er´ ıo d o ro m an o C raˆ n io s X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 X 1 X 2 X 3 X 4 16 13 1 13 4 97 54 13 1 12 8 98 45 13 5 13 8 10 2 55 13 4 13 7 93 52 13 9 13 4 95 47 17 13 5 13 7 10 3 50 13 8 12 9 10 7 53 12 9 13 5 92 50 13 1 14 1 99 55 13 8 12 5 99 51 18 13 2 13 6 93 53 12 3 13 1 10 1 51 13 4 12 5 90 60 12 9 13 5 95 47 13 7 13 5 96 54 19 13 9 13 3 96 50 13 0 12 9 10 5 47 13 8 13 4 96 51 13 6 12 8 93 54 13 3 12 5 92 50 20 13 2 13 1 10 1 49 13 4 13 0 93 54 13 6 13 5 94 53 13 1 12 5 88 48 14 5 12 9 89 47 21 12 6 13 3 10 2 51 13 7 13 6 10 6 49 13 2 13 0 91 52 13 9 13 0 94 53 13 8 13 6 92 46 22 13 5 13 5 10 3 4712 6 13 1 10 0 48 13 3 13 1 10 0 50 14 4 12 4 86 50 13 1 12 9 97 44 23 13 4 12 4 93 53 13 5 13 6 97 52 13 8 13 7 94 51 14 1 13 1 97 53 14 3 12 6 88 54 24 12 8 13 4 10 3 50 12 9 12 6 91 50 13 0 12 7 99 45 13 0 13 1 98 53 13 4 12 4 91 55 25 13 0 13 0 10 4 49 13 4 13 9 10 1 49 13 6 13 3 91 49 13 3 12 8 92 51 13 2 12 7 97 52 26 13 8 13 5 10 0 55 13 1 13 4 90 53 13 4 12 3 95 52 13 8 12 6 97 54 13 7 12 5 85 57 27 12 8 13 2 93 53 13 2 13 0 10 4 50 13 6 13 7 10 1 54 13 1 14 2 95 53 12 9 12 8 81 52 28 12 7 12 9 10 6 48 13 0 13 2 93 52 13 3 13 1 96 49 13 6 13 8 94 55 14 0 13 5 10 3 48 29 13 1 13 6 11 4 54 13 5 13 2 98 54 13 8 13 3 10 0 55 13 2 13 6 92 52 14 7 12 9 87 48 30 12 4 13 8 10 1 46 13 0 12 8 10 1 51 13 8 13 3 91 46 13 5 13 0 10 0 51 13 6 13 3 97 51 1 N ot a: X 1 = la rg u ra m a´x im a, X 2 = al tu ra b as ib re ga m a´t ic a, X 3 = co m p ri m en to b as ia lv eo la r, X 4 = al tu ra n as al . 57 Para esse exemplo, algumas questo˜es interessantes sa˜o: a) Como esta˜o relacionadas as quatro medidas? b) Existem diferenc¸as estatisticamente significantes nas me´dias amostrais das va- ria´veis, e se existem, essas diferenc¸as refletem mudanc¸as graduais ao longo do tempo na forma e tamanho dos craˆnios? c) Existem diferenc¸as significantes nos desvios padra˜o amostrais para as varia´veis, e, se existem, essas diferenc¸as refletem mudanc¸as graduais ao longo do tempo na quantidade de variac¸a˜o? d) E´ poss´ıvel construir uma func¸a˜o das quatro varia´veis que, em algum sentido, descreva as mudanc¸as ao longo do tempo? 2.2.3 Distribuic¸a˜o de uma borboleta Um estudo de 16 coloˆnias de borboletas Euphydryas editha na Califo´rnia e Ore- gon produziu os dados apresentados na Tabela 2.3. Aqui existem quatro varia´veis ambientais (altitude, precipitac¸a˜o anual e temperaturas ma´xima e mı´nima) e seis varia´veis gene´ticas (frequeˆncias percentuais para diferentes genes (Fo´sforo glucose- isomerase) como determinado pela te´cnica de eletroforese). Para os objetivos desse exemplo, na˜o ha´ necessidade de entrar em detalhes de como as frequ¨eˆncias geˆnicas foram determinadas e, estritamente falando, elas na˜o sa˜o exatamente frequeˆncias geˆnicas. E´ suficiente dizer que as frequeˆncias descrevem, de certa forma, a distri- buic¸a˜o gene´tica das borboletas. A Figura 2.2 mostra as localizac¸o˜es geogra´ficas das coloˆnias. Figura 2.2: Coloˆnias de Euphydryas editha na Califo´rnia e Oregon. 58 T ab el a 2. 3: V ar ia´ ve is am b ie n ta is e fr eq u eˆn ci as geˆ n ic as F o´s fo ro G lu co se -I so m er as e (P gi ) p ar a co loˆ n ia s d e b or b ol et as E u ph yd ry as ed it ha n a C al if o´r n ia e O re go n T em p er at u ra (º F ) F re q u eˆn ci a d e m ob il id ad e geˆ n ic a P gi (% ) C ol oˆn ia A lt it u d e (p e´s ) P re ci p it ac¸ a˜o an u al (p ol .) M a´x im a M ı´n im a 0, 4 0, 6 0, 8 1, 0 1, 16 1, 3 S S 50 0 43 98 17 0 3 22 57 17 1 S B 80 8 20 92 32 0 16 20 38 13 13 W S B 57 0 28 98 26 0 6 28 46 17 3 J R C 55 0 28 98 26 0 4 19 47 27 3 J R H 55 0 28 98 26 0 1 8 50 35 6 S J 38 0 15 99 28 0 2 19 44 32 3 C R 93 0 21 99 28 0 0 15 50 27 8 U O 65 0 10 10 1 27 10 21 40 25 4 0 L O 60 0 10 10 1 27 14 26 32 28 0 0 D P 15 00 19 99 23 0 1 6 80 12 1 P Z 17 50 22 10 1 27 1 4 34 33 22 6 M C 20 00 58 10 0 18 0 7 14 66 13 0 IF 25 00 34 10 2 16 0 9 15 47 21 8 A F 20 00 21 10 5 20 3 7 17 32 27 14 G H 78 50 42 84 5 0 5 7 84 4 0 G L 10 50 0 50 81 -1 2 0 3 1 92 4 0 59 Neste exemplo, questo˜es que podem ser feitas incluem: a) As frequeˆncias Pgi sa˜o similares para as coloˆnias que esta˜o pro´ximas no espac¸o? b) O quanto, se algum, as frequeˆncias Pgi esta˜o relacionadas a`s varia´veis ambi- entais? Essas sa˜o questo˜es importantes na tentativa de decidir como as frequeˆncias Pgi sa˜o determinadas. Se a composic¸a˜o gene´tica das coloˆnias foi largamente determinada pelas migrac¸o˜es passadas e presentes, enta˜o as frequeˆncias geˆnicas tendera˜o a ser si- milares para coloˆnias que esta˜o localizadas nas proximidades, apesar delas poderem mostrar um pequeno relacionamento com as varia´veis ambientais. Por outro lado, se o meio ambiente e´ mais importante, enta˜o isso deve aparecer em relacionamen- tos entre as frequeˆncias geˆnicas e as varia´veis ambientais (assumindo que tenham sido medidas as varia´veis corretas), mas coloˆnias pro´ximas somente teˆm frequeˆncias geˆnicas similares se elas teˆm ambientes similares. Obviamente coloˆnias que esta˜o pro´ximas no espac¸o usualmente teˆm ambientes similares, de modo que pode ser dif´ıcil chegar a uma conclusa˜o sobre essa questa˜o. 2.2.4 Ca˜es pre´-histo´ricos da Tailaˆndia Escavac¸o˜es de locais pre´-histo´ricos no nordeste da Tailaˆndia teˆm produzido uma colec¸a˜o de ossos caninos cobrindo um per´ıodo em torno de 3500 a.C. ate´ o presente. Entretanto, a origem dos ca˜es pre´-histo´ricos na˜o e´ certa. Podem descender dos jacais dourados (Canis aureus) ou do lobo, mas o lobo na˜o e´ nativo da Tailaˆndia. As fontes de origem mais pro´ximas sa˜o a parte ocidental da China (Canis lupus chanco) ou o subcontinente indiano (Canis lupus pallides). Para tentar esclarecer os ancestrais dos ca˜es pre´-histo´ricos, foram feitas medidas da mand´ıbula dos espe´cimens dispon´ıveis. Estas foram enta˜o comparadas com as mesmas medidas feitas no chacal dourado, no lobo chineˆs e no lobo indiano. As comparac¸o˜es foram tambe´m estendidas para incluir o dingo, o qual tem suas origens na I´ndia, o cuon (Cuon alpinus), o qual e´ ind´ıgena do sudeste da A´sia e os ca˜es modernos de cidade da Tailaˆndia. A Tabela 2.4 apresenta os valores me´dios para as seis medidas de mand´ıbulas para espe´cimens de todos os sete grupos. A questa˜o principal aqui e´ o que as medidas sugerem sobre o relacionamento entre os grupos e, em particular, como os ca˜es pre´-histo´ricos parecem se relacionar com os outros grupos. 60 Tabela 2.4: Me´dias de medidas, em mm, de mand´ıbulas para sete grupos caninos Grupo X1 X2 X3 X4 X5 X6 Ca˜o moderno 9,7 21,0 19,4 7,7 32,0 36,5 Chacal dourado 8,1 16,7 18,3 7,0 30,3 32,9 Lobo chineˆs 13,5 27,3 26,8 10,6 41,9 48,1 Lobo indiano 11,5 24,3 24,5 9,3 40,0 44,6 Cuon 10,7 23,5 21,4 8,5 28,8 37,6 Dingo 9,6 22,6 21,1 8,3 34,4 43,1 Ca˜o pre´-histo´rico 10,3 22,1 19,1 8,1 32,2 35,0 1Nota: X1 = largura da mand´ıbula, X2 = altura da mand´ıbula abaixo do primeiro molar, X3 = comprimento do primeiro molar, X4 = largura do primeiro molar, X5 = comprimento do
Compartilhar