Buscar

Apostila Multivariada I

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 384 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 384 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 384 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Estat´ıstica Multivariada
Uma abordagem aplicada utilizando o software R
Prof. Tiago Martins Pereira
Departamento de Estat´ıstica
Universidade Federal de Ouro Preto
Ouro Preto - MG
Setembro de 2017
Suma´rio
1 Revisa˜o de A´lgebra Linear 5
1.1 Matrizes e vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Tipos especiais de matrizes . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Notac¸a˜o de somato´rio e produto´rio . . . . . . . . . . . . . . . 8
1.2 Operac¸o˜es com matrizes e vetores . . . . . . . . . . . . . . . . . . . . 9
1.3 Alguns resultados importantes envolvendo vetores e matrizes . . . . . 13
1.4 Formas Quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Posto de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 Inversa de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.8 Matrizes definidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.10 Trac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.11 Matrizes e vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . 25
1.12 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . 26
1.12.1 tr(A) e |A| . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.12.2 Matrizes definidas . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.12.3 Matrizes sime´tricas . . . . . . . . . . . . . . . . . . . . . . . . 30
1.12.4 Teorema da Decomposic¸a˜o Espectral . . . . . . . . . . . . . . 30
1.12.5 Decomposic¸a˜o em valor singular . . . . . . . . . . . . . . . . . 32
1.13 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 33
1.14 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2 Introduc¸a˜o a` Estat´ıstica Multivariada 52
2.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.2 Banco de dados multivariados . . . . . . . . . . . . . . . . . . . . . . 53
2.2.1 Pardais sobreviventes de tempestade . . . . . . . . . . . . . . 53
2.2.2 Craˆnios eg´ıpcios . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2.3 Distribuic¸a˜o de uma borboleta . . . . . . . . . . . . . . . . . . 58
2.2.4 Ca˜es pre´-histo´ricos da Tailaˆndia . . . . . . . . . . . . . . . . . 60
2.2.5 Emprego em pa´ıses europeus . . . . . . . . . . . . . . . . . . . 61
2.3 Conceitos ba´sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3.1 A matriz de dados . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3.2 Estat´ısticas descritivas . . . . . . . . . . . . . . . . . . . . . . 63
2.3.3 Vetor de me´dias, matriz de covariaˆncias e matriz de correlac¸o˜es 65
2.3.4 Amostras Aleato´rias . . . . . . . . . . . . . . . . . . . . . . . 69
1
2.4 Medidas globais de variabilidade . . . . . . . . . . . . . . . . . . . . . 74
2.4.1 Variaˆncia Total . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.4.2 Variaˆncia Generalizada . . . . . . . . . . . . . . . . . . . . . . 75
2.5 Combinac¸o˜es lineares de varia´veis aleato´rias . . . . . . . . . . . . . . 76
2.6 Distaˆncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.6.1 Distaˆncia Euclidiana . . . . . . . . . . . . . . . . . . . . . . . 80
2.6.2 Distaˆncia Euclidiana Ponderada ou Padronizada . . . . . . . . 83
2.6.3 Distaˆncia de Mahalanobis . . . . . . . . . . . . . . . . . . . . 84
2.7 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 86
2.8 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3 Distribuic¸o˜es Multivariadas 97
3.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Distribuic¸a˜o normal multivariada . . . . . . . . . . . . . . . . . . . . 98
3.2.1 Caso bivariado . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.2.2 Propriedades da Distribuic¸a˜o Normal Multivariada . . . . . . 105
3.3 Distribuic¸a˜o de Wishart . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.3.1 Propriedades da Distribuic¸a˜o de Wishart . . . . . . . . . . . . 112
3.4 Distribuic¸a˜o de Hotelling . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.4.1 Propriedades da Distribuic¸a˜o de Hotelling . . . . . . . . . . . 113
3.5 Distribuic¸a˜o de Wilks . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.5.1 Propriedades da Distribuic¸a˜o de Wilks . . . . . . . . . . . . . 115
3.6 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 116
3.7 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4 Ana´lise de Componentes Principais 123
4.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2 Construc¸a˜o das componentes principais . . . . . . . . . . . . . . . . . 124
4.2.1 Decomposic¸a˜o da variaˆncia total . . . . . . . . . . . . . . . . . 128
4.3 Estimac¸a˜o das componentes principais via matriz de covariaˆncias . . . 134
4.4 Componentes principais via matriz de correlac¸o˜es . . . . . . . . . . . 137
4.5 Como obter as varia´veis originais a partir das componentes principais? 141
4.6 Quantas componentes devem ser retidas? . . . . . . . . . . . . . . . . 143
4.7 Interpretac¸a˜o das componentes principais . . . . . . . . . . . . . . . . 145
4.8 Aplicac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.9 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 156
4.10 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
5 Ana´lise Fatorial 169
5.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
5.2 O Modelo Fatorial Ortogonal . . . . . . . . . . . . . . . . . . . . . . 172
5.2.1 Propriedades do modelo fatorial ortogonal . . . . . . . . . . . 174
5.2.2 Padronizac¸a˜o das varia´veis . . . . . . . . . . . . . . . . . . . . 181
5.3 Estimac¸a˜o do valor de m . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.4 Me´todos de obtenc¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . 182
5.4.1 Me´todos dos Componentes Principais . . . . . . . . . . . . . . 182
5.4.2 Me´todo dos Fatores Principais ou Me´todo dos Eixos Principais 190
2
5.4.3 Me´todo da Ma´xima Verossimilhanc¸a . . . . . . . . . . . . . . 191
5.5 Rotac¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5.5.1 Me´todo Varimax . . . . . . . . . . . . . . . . . . . . . . . . . 196
5.6 Escores fatoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
5.6.1 Me´todo dos Mı´nimos Quadrados Ponderados . . . . . . . . . . 199
5.6.2 Me´todo da Regressa˜o . . . . . . . . . . . . . . . . . . . . . . . 199
5.7 Viabilidade da Ana´lise Fatorial . . . . . . . . . . . . . . . . . . . . . 200
5.7.1 Teste de esfericidade de Bartlett . . . . . . . . . . . . . . . . . 200
5.7.2 KMO: Kaiser-Meyer-Olkin . . . . . . . . . . . . . . . . . . . . 201
5.7.3 MSA: Measure of sampling adequacy . . . . . . . . . . . . . . 201
5.8 Avaliac¸a˜o do ajuste do modelo fatorial . . . . . . . . . . . . . . . . . 202
5.9 Interpretac¸a˜o dos fatores . . . . . . . . . . . . . . . . . . . . . . . . . 204
5.9.1 Julgamento da significaˆncia das cargas fatoriais . . . . . . . . 205
5.9.2 O processo de interpretac¸a˜o do modelo fatorial . . . . . . . . . 207
5.10 Comenta´rios Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
5.11 Exemplo de aplicac¸a˜o da ana´lise fatorial . . . . . . . . . . . . . . . . 213
5.12 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 223
5.13 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
6 Ana´lise Discriminante 241
6.1 Introduc¸a˜o . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . 241
6.2 Discriminac¸a˜o e classificac¸a˜o em 2 populac¸o˜es . . . . . . . . . . . . . 243
6.2.1 Func¸a˜o discriminante linear de Fisher . . . . . . . . . . . . . . 246
6.2.2 O problema geral de classificac¸a˜o . . . . . . . . . . . . . . . . 256
6.2.3 Avaliac¸a˜o das func¸o˜es de classificac¸a˜o . . . . . . . . . . . . . . 270
6.2.4 Estimac¸a˜o das probabilidades de classificac¸a˜o incorreta . . . . 274
6.3 Discriminac¸a˜o e classificac¸a˜o em g > 2 populac¸o˜es . . . . . . . . . . . 281
6.3.1 O problema geral de classificac¸a˜o . . . . . . . . . . . . . . . . 281
6.3.2 Classificac¸a˜o para populac¸o˜es normais . . . . . . . . . . . . . 283
6.3.3 Func¸o˜es discriminantes canoˆnicas de Fisher . . . . . . . . . . . 289
6.3.4 Avaliac¸a˜o das func¸o˜es de classificac¸a˜o . . . . . . . . . . . . . . 296
6.4 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 298
6.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
7 Ana´lise de Agrupamentos 316
7.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
7.2 Me´todos de Agrupamento Hiera´rquicos . . . . . . . . . . . . . . . . . 317
7.3 Medidas de (Dis)similaridades entre dois indiv´ıduos . . . . . . . . . . 320
7.3.1 Varia´veis quantitativas . . . . . . . . . . . . . . . . . . . . . . 321
7.3.2 Varia´veis qualitativas . . . . . . . . . . . . . . . . . . . . . . . 323
7.3.3 Varia´veis Quantitativas e Qualitativas . . . . . . . . . . . . . 330
7.4 Algoritmos de Agrupamento . . . . . . . . . . . . . . . . . . . . . . . 332
7.4.1 Crite´rios para definir distaˆncias entre grupos . . . . . . . . . . 333
7.4.2 Determinac¸a˜o do nu´mero de grupos . . . . . . . . . . . . . . . 341
7.5 Me´todos Na˜o-Hiera´rquicos . . . . . . . . . . . . . . . . . . . . . . . . 343
7.5.1 Me´todo k-me´dias (k-means) . . . . . . . . . . . . . . . . . . . 344
7.6 Comparac¸a˜o entre me´todos de agrupamento . . . . . . . . . . . . . . 346
3
7.7 Validac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . . . . . 350
7.7.1 Correlac¸a˜o cofene´tica . . . . . . . . . . . . . . . . . . . . . . . 350
7.7.2 Gra´fico da Silhueta . . . . . . . . . . . . . . . . . . . . . . . . 351
7.8 Interpretac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . . . 355
7.9 Aplicac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
7.9.1 Formac¸a˜o dos agrupamentos . . . . . . . . . . . . . . . . . . . 357
7.10 Soluc¸a˜o utilizando o software R . . . . . . . . . . . . . . . . . . . . . 362
7.11 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
Refereˆncias Bibliogra´ficas 380
4
Cap´ıtulo 1
Revisa˜o de A´lgebra Linear
1.1 Matrizes e vetores
Uma matriz A de ordem m × n, e´ um arranjo de elementos com m linhas e n
colunas, considerada uma u´nica entidade da forma:
A =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
am1 am2 · · · amn

A matriz A pode ser expressa como A = [aij], onde aij representa o elemento
localizado na i-e´sima linha e na j-e´sima coluna da matriz e e´ chamado de termo
geral. Uma matriz pode ser definida atrave´s de seu termo geral, por exemplo, seja
a matriz A3×3 = [aij], tal que
aij =
{
1 se i = j;
0 caso contra´rio.
Dessa forma, a matriz A, assim definida, pode ser escrita como:
A =
 1 0 00 1 0
0 0 1

5
Usaremos sempre letras maiu´sculas para denotar matrizes, e quando quisermos
especificar a ordem de uma matriz A, isto e´, o nu´mero de linhas e colunas, escreve-
remos Am×n.
Duas matrizes Am×n = [aij] e Br×s = [bij] sa˜o iguais, A = B, se, e somente se,
elas teˆm o mesmo nu´mero de linhas e colunas, isto e´, m = r e n = s. Ale´m disso,
todos os elementos correspondentes sa˜o iguais, isto e´, aij = bij para todo i e j. Por
exemplo, sejam as matrizes,
A =
[
5 cos 90o
−1 log 1
]
e B =
[ √
25 0
−1 0
]
uma vez que
√
25 = 5, cos 90o = 0, −1 = −1 e log 1 = 0, temos que as matrizes A e
B sa˜o iguais.
1.1.1 Tipos especiais de matrizes
Consideremos uma matriz com m linhas e n colunas, denotada por Am×n.
a) Matriz Quadrada: e´ aquela cujo nu´mero de linhas e´ igual ao nu´mero de
colunas, isto e´, m = n. Por exemplo, as matrizes
A =
[
1 1
−1 0
]
e B =
[
4
]
sa˜o matrizes quadradas. No caso de matrizes quadradas Am×m, constumamos
dizer que a matriz A e´ uma matriz de ordem m.
b) Matriz Nula: e´ aquela em que aij = 0, para todo i e j. Por exemplo, as
matrizes
A =
[
0 0
0 0
]
e B =
[
0 0 0
0 0 0
]
sa˜o matrizes nulas. Representaremos as matrizes nulas por 0m×n.
c) Matriz Linha: e´ aquela em que m = 1, ou seja, possui apenas uma linha.
Por exemplo, as matrizes
A =
[
x1 x2
]
e B =
[
0 0 1 5
]
sa˜o matrizes linha.
6
d) Matriz Coluna: e´ aquela em que n = 1, ou seja, possui apenas uma coluna.
Por exemplo, as matrizes
A =
[
x1
x2
]
e B =

0
0
1
5

sa˜o matrizes colunas.
• Observac¸a˜o: Podemos nos referir a`s matrizes linha e coluna como veto-
res. Neste curso, todas as vezes que fizermos alguma refereˆncia a vetores,
estaremos nos referindo a`s matrizes coluna. Usaremos sempre letras mi-
nu´sculas para denotar vetores, por exemplo,
c =

c1
c2
...
cn

e) Matriz Diagonal: e´ uma matriz quadrada, isto e´, m = n, onde aij = 0, para
i 6= j, isto e´, os elementos que esta˜o fora da diagonal principal sa˜o nulos.
Por exemplo, a matriz
D =
 1 0 00 2 0
0 0 3

e´ uma matriz diagonal. A matriz D pode ser expressa como D = diag(1, 2, 3).
Um caso especial da matriz diagonal e´ a matriz identidade denotada, por
In. A matriz identidade e´ aquela matriz diagonal em que aij = 1, se i = j e
aij = 0, para i 6= j. Por exemplo
I3 =
 1 0 00 1 0
0 0 1

f) Matriz Triangular Superior: e´ uma matriz quadrada onde todos os ele-
mentos abaixo da diagonal principal sa˜o nulos, isto e´, m = n e aij = 0 para
i > j. Por exemplo,
7
A =

1 2 3 4
0 5 6 7
0 0 8 9
0 0 0 10

g) Matriz Triangular Inferior: e´ uma matriz quadrada onde todos os elemen-
tos acima da diagonal principal sa˜o nulos, isto e´, m = n e aij = 0 para i < j.
Por exemplo,
A =
 1 0 02 3 0
4 5 6

g) Matriz Sime´trica: e´ aquela onde m = n e aij = aji. A parte superior
da matriz sime´trica e´ uma reflexa˜o da parte inferior em relac¸a˜o a` diagonal
principal. Por exemplo,
A =
 2 0 30 1 4
3 4 2

h) Vetor de 1’s: e´ aquele vetor onde todos os elementos sa˜o iguais a 1. Por
exemplo,
j =

1
1
...
1

i) Matriz de 1’s: e´ uma matriz quadrada onde todos os elementos sa˜o iguais a
1. Por exemplo,
J3 =
 1 1 11 1 1
1 1 1

1.1.2 Notac¸a˜o de somato´rio e produto´rio
A soma de uma sequeˆncia de nu´meros a1, a2, · · · , an e´ indicada por:
8
n∑
i=1
ai = a1 + a2 + ...+ an
Se os n nu´meros sa˜o iguais, temos
n∑
i=1
a = a+ a+ · · ·+ a = n · a. A soma de
todos os elementos de uma matriz duplamente indexados, por exemplo,[
a11 a12 a13
a21 a22 a23
]
e´ dada por:
2∑
i=1
3∑
j=1
aij = a11 + a12 + a13 + a21 + a22 + a23
que pode ser abreviado para
2∑
i=1
3∑
j=1
aij =
∑
ij
aij
O produto de uma sequeˆncia de nu´meros a1, a2, · · · , an e´ indicada por:
n∏
i=1
ai = a1 × a2 × · · · × an
Se os nu´meros sa˜o todos iguais, enta˜o
n∏
i=1
a = a× a× · · · × a = an.
1.2 Operac¸o˜es com matrizes e vetores
a) Adic¸a˜o: A soma de duas matrizes de mesma ordem, Am×n = [aij] e Bm×n =
[bij], e´ uma matriz m× n, que denotaremos por C = A + B, cujos elementos
cij sa˜o somas dos elementos correspondentes de A e B, isto e´,
cij= aij + bij
para todo i e j. Por exemplo, se
9
A =
 3 21 1
0 3
 , e B =
 5 21 0
0 4

enta˜o,
C = A + B =
 3 21 1
0 3
+
 5 21 0
0 4
 =
 8 42 1
0 7

Propriedades: Dadas as matrizes A, B e C de mesma ordem m× n, temos:
i) A + B = B + A (comutatividade)
ii) A + (B + C) = (A + B) + C (associatividade)
iii) A + 0 = A (elemento neutro)
b) Multiplicac¸a˜o por escalar: Seja A = [aij]m×n e k um nu´mero, enta˜o defi-
nimos uma nova matriz C = k ×A, tal que
cij = k × aij
para todo i e j. Por exemplo, sejam
A =
[
1 1
−1 0
]
e k = 2
enta˜o, C = k ×A e´ dada por
2×
[
1 1
−1 0
]
=
[
2 2
−2 0
]
Propriedades: Dadas as matrizes A, B e C de mesma ordem m × n, e
nu´meros k, k1 e k2, temos:
i) k(A + B) = kA + kB
ii) (k1 + k2)A = k1A + k2A
10
iii) 0 ×A = 0, isto e´, se multiplicarmos o nu´mero zero por qualquer matriz
A, teremos a matriz nula
iv) k1(k2A) = (k1k2)A
c) Transposic¸a˜o: Dada uma matriz A = [aij]m×n, podemos obter uma outra
matriz At = [bij]n×m, cujas linhas sa˜o as colunas de A, ou seja, bij = aji. At
e´ denominada de transposta de A. Por exemplo,
A =
 2 31 0
0 3

3×2
At =
[
2 1 0
3 0 3
]
2×3
B =
[
2 3
3 1
]
2×2
Bt =
[
2 3
3 1
]
2×2
Propriedades:
i) Uma matriz e´ sime´trica se, e somente se ela e´ igual a` sua transposta, isto
e´, se e so´ se, At = A. (Observe a matriz B acima)
ii) (At)t = A, ou seja, a transposta da transposta de uma matriz A, e´ a
pro´pria matriz A.
iii) (A + B)t = At + Bt, isto e´, a transposta da soma e´ a soma das trans-
postas.
iv) (kAt) = kAt, k e´ um escalar.
d) Multiplicac¸a˜o de Matrizes: A multiplicac¸a˜o de duas matrizes A = [aij]m×n
e B = [brs]n×p, denotada por AB = [cij]m×p e´ definida se, e somente se o
nu´mero de colunas da matriz A e´ igual ao nu´mero de linhas da matriz B.
Assim, o ij-e´simo elemento da matriz resultante C = AB e´ dado por:
cij =
n∑
k=1
aik.bkj = ai1b1j + ai2b2j + · · ·+ ainbnj
Assim, cij e´ dado pela soma dos produtos de todos os elementos da linha i da
matriz A com os elementos da coluna j da matriz B. Ale´m disso, a ordem da
matriz resultante C = AB sera´ m× p. Por exemplo, sejam as matrizes,
11
A =
 2 14 2
5 3

3×2
B =
[
1 −1
0 4
]
2×2
enta˜o,
C =
 2 14 2
5 3
×[ 1 −1
0 4
]
=
 2× 1 + 1× 0 2× (−1) + 1× 44× 1 + 2× 0 4× (−1) + 2× 4
5× 1 + 3× 0 5× (−1) + 3× 4
 =
 2 24 4
5 7

3×2
Propriedades: Desde que sejam poss´ıveis as operac¸o˜es, as seguintes propri-
edades sa˜o va´lidas:
i) Em geral, AB 6= BA (Podendo mesmo um dos membros estar definido e
outro na˜o!). Por exemplo, sejam as matrizes
A =
 1 −1 1−3 2 −1
−2 1 0
 e B =
 1 2 32 4 6
1 2 3

enta˜o,
AB =
 0 0 00 0 0
0 0 0
 e BA =
 −11 6 −1−22 12 −2
−11 6 −1

Note, ainda, que AB = 0, sem que A = 0 ou B = 0.
ii) AI = IA = A
iii) A(B + C) = AB + AC
iv) (A + B)C = AC + BC
v) (AB)C = A(BC)
vi) (AB)t = BtAt
vii) A× 0 = 0 e 0×A = 0
12
1.3 Alguns resultados importantes envolvendo ve-
tores e matrizes
Sejam An×p =

a11 · · · a1p
...
. . .
...
an1 · · · anp
, ap×1 =

a1
...
ap
, bp×1 =

b1
...
bp
 e cn×1 =

c1
...
cn
, enta˜o,
a) Ab =

a11 · · · a1p
...
. . .
...
an1 · · · anp

n×p

b1
...
bp

p×1
=

a11b1 + · · ·+ a1pbp
...
an1b1 + · · ·+ anpbp

n×1
Exemplo: A2×3 =
[
3 −2 4
1 3 5
]
e b3×1 =
 23
4
 enta˜o,
Ab =
[
3 −2 4
1 3 5
]
2×3
 23
4

3×1
=
[
16
31
]
2×1
b)
ctA =
[
c1 · · · cn
]
1×n

a11 · · · a1p
...
. . .
...
an1 · · · anp

n×p
=
[
c1a11 + · · ·+ cnan1 · · · c1a1p + · · ·+ cnanp
]
1×p
Exemplo: A2×3 =
[
3 −2 4
1 3 5
]
e c2×1 =
[
2
−5
]
enta˜o,
ctA =
[
2 −5
]
1×2
[
3 −2 4
1 3 5
]
2×3
=
[
1 −19 −17
]
1×3
13
c)
ctAb =
[
c1 · · · cn
]
1×n

a11 · · · a1p
...
. . .
...
an1 · · · anp

n×p

b1
...
bp

p×1
=
[
c1a11 + · · ·+ cnan1 · · · c1a1p + · · ·+ cnanp
]
1×p

b1
...
bp

p×1
=
[
(c1a11 + · · ·+ cnan1)b1 + · · ·+ (c1a1p + · · ·+ cnanp)bp
]
1×1
=
[
c1a11b1 + · · ·+ cnan1b1 + · · ·+ c1a1pbp + · · ·+ cnanpbp
]
1×1
Exemplo: A2×3 =
[
3 −2 4
1 3 5
]
, c2×1 =
[
2
−5
]
e b =
 23
4

3×1
enta˜o,
ctAb =
[
2 −5
]
1×2
[
3 −2 4
1 3 5
]
2×3
 23
4

3×1
=
[
1 −19 −17
]
1×3
 23
4

3×1
= −123
d) atb =
[
a1 · · · ap
]
1×p

b1
...
bp

p×1
=
[
a1b1 + · · ·+ apbp
]
1×1
Exemplo: a =
 1−2
3

3×1
e b =
 23
4

3×1
enta˜o,
atb =
[
1 −2 3
]
1×3
 23
4

3×1
= 8
e) bta =
[
b1 · · · bp
]
1×p

a1
...
ap

p×1
=
[
b1a1 + · · ·+ bpap
]
1×1
14
Exemplo: a =
 1−2
3

3×1
e b =
 23
4

3×1
enta˜o,
bta =
[
2 3 4
]
1×3
 1−2
3

3×1
= 8
f) abt =

a1
...
ap

p×1
[
b1 · · · bp
]
1×p
=

a1b1 · · · a1bp
...
. . .
...
apb1 · · · apbp

p×p
Exemplo: a =
 1−2
3

3×1
e b =
 23
4

3×1
enta˜o,
abt =
 23
4

3×1
[
1 −2 3
]
1×3
=
 2 3 4−4 −6 −8
6 9 12

3×3
Notemos que, Ab e´ um vetor coluna, ctA e´ um vetor linha, ctAb e´ um escalar,
atb = bta sa˜o escalares e abt e´ uma matriz. Consideremos agora, o vetor de 1’s,
jt =
[
1 1 · · · 1
]
1×n
. Temos enta˜o,
jtj =
[
1 1 · · · 1
]
n×1

1
1
...
1

1×n
= n
Ale´m disso,
jjt =

1
1
...
1

n×1
[
1 1 · · · 1
]
1×n
=

1 1 · · · 1
1 1 · · · 1
...
...
. . .
...
1 1 · · · 1

n×n
= J
Sejam an×1 e An×p e considere o vetor j com dimensa˜o compat´ıvel a cada ope-
rac¸a˜o. Enta˜o,
jta = atj =
n∑
i=1
ai
15
e,
jtA =
[ ∑
i
ai1
∑
i
ai2 · · ·
∑
i
aip
]
e Aj =

∑
j
a1j∑
j
a2j
...∑
j
anj

Podemos notar que atj e jta representam a soma dos elementos do vetor a, jtA
representa a soma das colunas da matriz A e Aj representa a soma das linhas da
matriz A.
Vimos que atb representa um escalar e consequentemente, igual ao seu trans-
posto. Assim,
atb = (atb)t = bt(at)t = bta
Isto nos permite escrever a expressa˜o (atb)2 da seguinte forma:
(atb)2 = (atb)(atb) = (atb)(bta) = at(bbt)a
Se considerarmos as expresso˜es acima, os vetores a, x1, x2, · · · , xn, todos de
ordem p× 1 e uma matriz A de ordem p× p, temos:
n∑
i=1
atxi = a
t
n∑
i=1
xi
n∑
i=1
Axi = A
n∑
i=1
xi
n∑
i=1
(atxi)
2 = at
(
n∑
i=1
xix
t
i
)
a
n∑
i=1
(Axi)(Axi)
t = A
(
n∑
i=1
xix
t
i
)
At
1.4 Formas Quadra´ticas
Suponha que A seja uma matriz quadrada de ordem n e sime´trica e x seja um
vetor de ordem n. Enta˜o a quantidade,
16
Q = xtAx =
∑
i
aiix
2
i +
∑
i 6=j
aijxixj =
∑
ij
aijxixj
e´ chamada de forma quadra´tica. Por exemplo, considerando o vetor xt =
[
x1 x2
]
,
a forma quadra´tica da matriz A =
[
2 1
1 1
]
e´ dada por:
Q(x) = xtAx =
[
x1 x2
] [ 2 1
1 1
][
x1
x2
]
=
[
2x1 + x2 x1 + x2
] [ x1
x2
]
= 2x21 + x2x1 + x1x2 + x
2
2
= 2x21 + x
2
2 + 2x1x2
1.5 Matrizes particionadas
Algumas vezes torna-se conveniente particionar uma matriz A em submatrizes.Por exemplo, podemos particionar esta matriz em quatro submatrizes,
A =
 A11 A12
A21 A22

Por exemplo, seja A =
 2 3 4−4 −6 −8
6 9 12

3×3
. A matriz A pode ser particionada
da seguinte forma:
A =

2 3
−4 −6
4
−8
6 9 12

em que A11 =
[
2 3
−4 −6
]
, A12 =
[
4
−8
]
, A21 =
[
6 9
]
e A22 =
[
12
]
Sejam duas matrizes A e B compat´ıveis para as devidas operac¸o˜es, com subma-
trizes tambe´m compat´ıveis em cada caso. Enta˜o,
17
A + B =
A11 + B11 A12 + B12
A21 + B21 A22 + B22

AB =
A11B11 + A12B21 A11B12 + A12B22
A21B11 + A22B21 A21B12 + A22B22

At =
 A
t
11 A
t
21
At12 A
t
22

1.6 Posto de uma matriz
Antes de definirmos o posto de uma matriz A, vamos relembrar o conceito de
dependeˆncia e independeˆncia linear. Um conjunto de vetores a1, a2, · · · , an e´ dito
ser linearmente dependente (LD) se, e somente se, existem constantes c1, c2, · · · , cn,
tais que
c1a1 + c2a2 + · · ·+ cnan = 0,
para algum ci 6= 0, i = 1, · · · , n.
Se a expressa˜o acima for satisfeita somente para ci = 0, para todo i, enta˜o dize-
mos que os vetores sa˜o linearmente independentes (LI). Se os vetores a1, a2, · · · , an
sa˜o linearmente dependentes (LD), enta˜o existe pelo menos um vetor ai que pode ser
escrito como combinac¸a˜o linear dos demais, gerando redundaˆncia de informac¸o˜es.
Assim, podemos definir o posto de uma matriz A qualquer como sendo o nu´mero
de linhas (ou de colunas) linearmente independentes (LI) de A. Se A e´ de ordem
m× n, o maior valor poss´ıvel do posto de A e´ o mı´nimo entre m e n, caso em que
A e´ dita ser de posto completo. Por exemplo, considere a matriz A dada por,
A =
[
1 −2 3
5 2 4
]
assim, fazendo combinac¸a˜o linear das linhas de A, temos que o posto de A e´ dado
por:
c1
[
1 −2 3
]
+ c2
[
5 2 4
]
=
[
0 0 0
]
18
de forma que, 
c1 + 5c2 = 0
−2c1 + 2c2 = 0
3c1 + 4c2 = 0
o que leva a c2 = c1 = 0. Logo, o posto(A) = 2, pois temos duas linhas LI. A matriz
A e´ de posto completo, uma vez que min(m,n) = min(2, 3) = 2.
1.7 Inversa de uma matriz
Se A e´ uma matriz quadrada e de posto completo enta˜o A e´ chamada na˜o singular
e A possui uma u´nica matriz inversa denotada por A−1, com a seguinte propriedade:
AA−1 = A−1A = I
Por exemplo, seja A =
[
3 4
2 6
]
, enta˜o A−1 =
[
0, 6 −0, 4
−0, 2 0, 3
]
. De fato,
AA−1 =
[
3 4
2 6
][
0, 6 −0, 4
−0, 2 0, 3
]
=
[
1 0
0 1
]
Observac¸a˜o: Se A =
[
a b
c d
]
2×2
, enta˜o A−1 =
1
ad− bc
[
d −b
−c a
]
Se a matriz A e´ quadrada e na˜o e´ de posto completo, enta˜o A e´ dita ser singular
e na˜o existe A−1. Se A e´ de ordem m×n , com m 6= n, enta˜o A na˜o possui inversa,
mesmo sendo de posto completo.
Propriedades: Consideremos as matrizes A, B, C e I, todas compat´ıveis para as
devidas operac¸o˜es. Temos, enta˜o, as seguintes propriedades:
a) Se A e B sa˜o matrizes quadradas de mesma ordem, ambas invers´ıveis, isto e´,
existem A−1 e B−1, enta˜o AB e´ invers´ıvel e (AB)−1 = B−1A−1.
De fato, basta observar que (AB)(B−1A−1) = A(BB−1)A−1 = AIA−1 =
AA−1 = I e que, analogamente, (B−1A−1)(AB) = B−1(A−1A)B = B−1IB =
B−1B = I.
19
b) Seja uma matriz B invers´ıvel, ou seja, existe B−1. Enta˜o, AB = CB implica
em A = C.
De fato, basta po´s-multiplicar a matriz B−1 em ambos os lados da igualdade:
ABB−1 = CBB−1
AI = CI
A = C
c) Seja uma matriz A invers´ıvel, ou seja, existe A−1. Enta˜o, a inversa da matriz
transposta de A e´ igual a` transposta da matriz inversa de A, isto e´,
(At)−1 = (A−1)t
1.8 Matrizes definidas
Uma matriz A e´ dita ser positiva definida, se A e´ sime´trica e sua forma quadra´tica
Q(x) = xtAx > 0 para todos os vetores x, exceto x = 0.
Similarmente, uma matriz A e´ dita positiva semidefinida, se A e´ sime´trica e sua
forma quadra´tica Q(x) = xtAx ≥ 0, para todo x 6= 0. Da mesma forma, A e´ dita
negativa definida se Q(x) < 0, para todo x 6= 0 e negativa semidefinida se Q(x) ≤ 0,
para todo x 6= 0. Por exemplo, a matriz A, dada por
A =
[
2 1
1 1
]
e´ positiva definida. De fato, vimos que a forma quadra´tica da matriz A e´ dada por:
Q(x) = xtAx = 2x21 + x
2
2 + 2x1x2,
podemos observar que Q(x) pode ser reescrita como:
Q(x) = x21 + 2x1x2 + x
2
2 + x
2
1
= (x1 + x2)
2 + x21
> 0
20
exceto para x = 0. Logo, A e´ positiva definida.
Uma forma de se obter matrizes positivas definidas baseia-se na seguinte proprie-
dade: Se A = BtB, onde B e´ uma matriz de ordem n×p de posto p < n, ou seja, de
posto completo, enta˜o A e´ positiva definida. Esta propriedade pode ser facilmente
verificada:
Q(x) = xtAx = xtBtBx = (xtBt)(Bx) = ztz
onde z = Bx. Uma vez que Q(x) = xtAx =
n∑
i=1
z2i e´ sempre positivo (Bx na˜o pode
ser 0, a na˜o ser que x = 0, pois B e´ de posto completo). Logo, a matriz A, definida
dessa forma e´ sempre positiva definida.
Uma matriz A, positiva definida, pode ser decomposta da seguinte forma:
A = TtT
onde T e´ uma matriz triangular superior na˜o singular. Este resultado e´ conhecido
como Decomposic¸a˜o de Cholesky. A matriz T pode ser obtida da seguinte forma:
t11 =
√
a11, t1j =
a1j
t11
, 2 ≤ j ≤ n,
tii =
√√√√aii − i−1∑
k=1
t2ki, 2 ≤ i ≤ n,
tij =
aij −
i−1∑
k=1
tkitkj
tii
, 2 ≤ i < j ≤ n,
tij = 0, 1 ≤ j < i ≤ n.
Por exemplo, seja a matriz A dada por
A =
 3 0 −30 6 3
−3 3 6

Pela decomposic¸a˜o de Cholesky da matriz A, obtemos a matriz T, dada por:
21
T =

√
3 0 −√3
0
√
6
√
1, 5
0 0
√
1, 5

De fato,
TtT =

√
3 0 0
0
√
6 0
−√3 √1, 5 √1, 5


√
3 0 −√3
0
√
6
√
1, 5
0 0
√
1, 5
 =
 3 0 −30 6 3
−3 3 6
 = A
1.9 Determinantes
O determinante de uma matriz quadrada A de orden n e´ um escalar denotado
por |A| ou det(A). E´ dado por:
|A| =
∣∣∣ a11 ∣∣∣ = a11
no caso em que a matriz A e´ de ordem 1 (escalar),
|A| =
∣∣∣∣∣ a11 a12a21 a22
∣∣∣∣∣ = a11a22 − a12a21
no caso em que a matriz A e´ de ordem 2,
|A| =
∣∣∣∣∣∣∣
a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣∣ = a11a22a33+a12a23a31+a13a32a21−a13a22a31−a11a32a23−a12a21a33
no caso em que a matriz A e´ de ordem 3. Neste caso, podemos encontrar o deter-
minante da matriz A de ordem 3, utilizando o seguinte esquema:
para os termos positivos, e
para os termos negativos.
22
Me´todos para o ca´lculo do determinante de matrizes quadradas de ordem superior
a 3, podem ser encontrados em diversos livros de Introduc¸a˜o a` A´lgebra Linear e na˜o
sera˜o abordados neste material. Podemos tambe´m, obter tais quantidades utilizando
me´todos computacionais.
Propriedades: Sejam as matrizes A e B quadradas de ordem n e seja c um escalar.
Podemos listar as seguintes propriedades de determinantes:
a) O determinante de uma matriz diagonal e´ o produto dos elementos de sua
diagonal principal, isto e´, se D = diag(d1, d2, · · · , dn), enta˜o
|D| =
n∏
i=1
di.
b) |cA| = cn |A| .
c) Se uma matriz A e´ singular, enta˜o |A| = 0.
d) Se uma matriz A e´ na˜o-singular, enta˜o |A| 6= 0.
e) Se uma matriz A e´ positiva definida, enta˜o |A| > 0.
f) O determinante do produto de duas matrizes e´ o produto dos determinantes
dessas matrizes, isto e´,
|AB| = |A| |B| .
g) O determinante da matriz transposta de A e´ igual ao determinante da matriz
A, isto e´,
∣∣At∣∣ = |A| .
h) O determinante da matriz inversa de A e´ igual ao rec´ıproco do determinante
da matriz A, isto e´,
23
∣∣A−1∣∣ = 1|A| = |A|−1 .
Seja A uma matriz particionada da seguinte forma:
At =
 A11 0
0 A22,

em que A11 e A22 sa˜o matrizes quadradas, na˜o necessariamentede mesma ordem.
Enta˜o,
|A| =
∣∣∣∣∣∣∣∣
A11 0
0 A22,
∣∣∣∣∣∣∣∣ = |A11||A22|.
Para o caso geral de matrizes particionadas, temos:
|A| =
∣∣∣∣∣∣∣∣
A11 A12
A21 A22,
∣∣∣∣∣∣∣∣ = |A11||A22 −A21A11
−1A12|
= |A22||A11 −A12A22−1A21|
em que A11 e A22 sa˜o matrizes na˜o singulares, na˜o necessariamente de mesma
ordem.
1.10 Trac¸o
O trac¸o de uma matriz A, de ordem n, denotado por tr(A) e´ definido como a
soma dos elementos da diagonal principal da matriz, isto e´:
tr(A) =
n∑
i=1
aii
Por exemplo, se A =
 1 7 13 2 2
3 0 2
, enta˜o tr(A) = 1 + 2 + 2 = 5. Notemos enta˜o,
que o trac¸o de uma matriz e´ sempre um escalar.
24
Sejam as matrizes A e B quadradas de ordem n. Podemos listar as seguintes
propriedades do trac¸o de uma matriz:
a) O trac¸o da soma de duas matrizes e a soma dos trac¸os dessas matrizes, isto e´,
tr(A + B) = tr(A) + tr(B)
b) tr(AB) = tr(BA)
Esta propriedade e´ va´lida para quaisquer matrizes A e B tais que os produtos
AB e BA sejam definidos e de ordem n. Na˜o e´ necessa´rio que as matrizes A
e B sejam quadradas, nem que AB e BA sejam iguais. Por exemplo, sejam
as matrizes A e B definidas como:
A =
 1 32 −1
4 6
 e B = [ 3 −2 1
2 4 5
]
temos que,
AB =
 9 10 164 −8 −3
24 16 34
 e BA = [ 3 17
30 32
]
assim, tr(AB) = 9− 8 + 34 = 35 e tr(BA) = 3 + 32 = 35.
1.11 Matrizes e vetores ortogonais
Dois vetores a e b, de mesma ordem, sa˜o ditos ortogonais, se e somente se,
atb = a1b1 + a2b2 + · · ·+ anbn = 0.
Geometricamente, se dois vetores sa˜o ortogonais, enta˜o eles sa˜o perpendiculares.
Se ata = 1, o vetor a e´ dito ser normalizado. O vetor a pode ser normalizado,
dividindo-o por sua norma
√
ata. Assim,
c =
a√
ata
e´ normalizado e ctc = 1.
25
A matriz C =
[
c1 c2 · · · cp
]
cujos vetores que compo˜em as colunas sa˜o
normalizados e mutuamente ortogonais e´ chamada de matriz ortogonal. Em matrizes
ortogonais, o produto CtC possui a propriedade de que ctici = 1 para todo i e
cticj = 0, para todo i 6= j. A partir disso, temos que se uma matriz C e´ ortogonal,
enta˜o,
CtC = I = CCt
Assim, podemos concluir que se uma matriz C e´ ortogonal, enta˜o Ct = C−1.
Por exemplo, a matriz C =
[
1
2
−
√
3
2√
3
2
1
2
]
, e´ ortogonal, pois
CCt =
 12 −
√
3
2√
3
2
1
2

 12
√
3
2
−
√
3
2
1
2
 = [ 1 0
0 1
]
logo, CCt = I e consequentemente Ct = C−1.
Uma importante caracter´ıstica das matrizes ortogonais trata-se da rotac¸a˜o de
eixos. Se um vetor x e´ transformado para z = Cx, sendo C uma matriz ortogonal,
enta˜o,
ztz = (Cx)t(Cx) = xtCtCx = xtIx = xtx
ou seja, a distaˆncia da origem ate´ o vetor z e´ a mesma distaˆncia ate´ o vetor x.
1.12 Autovalores e Autovetores
Considere o conjunto de equac¸o˜es lineares:
a11x1 + a12x2 + · · ·+ a1nxn = λx1
a21x1 + a22x2 + · · ·+ a2nxn = λx2
...
...
...
...
...
...
an1x1 + an2x2 + · · ·+ annxn = λxn
em que λ e´ um escalar. Este sistema pode ser escrito na forma matricial:
Ax = λx
Na equac¸a˜o acima λ e´ chamado de autovalor. O vetor x e´ chamado de autovetor
26
correspondente ao autovalor λ. Para encontrarmos λ e x, podemos reescrever a
expressa˜o Ax = λx da seguinte forma:
Ax− λx = 0
(A− λI)x = 0
Se |A− λI| 6= 0, enta˜o (A − λI) possui inversa e a u´nica soluc¸a˜o do sistema e´
x = 0. Assim, afim de obtermos soluc¸o˜es na˜o triviais para o sistema, estabelecemos
a condic¸a˜o de que |A− λI| = 0 para encontrarmos os poss´ıveis valores de λ que
podem ser substitu´ıdos na expressa˜o
(A− λI)x = 0
para encontrarmos os autovetores, x1,x2, · · · ,xn, correspondentes. A equac¸a˜o |A− λI| =
0 e´ chamada de equac¸a˜o caracter´ıstica. Se A e´ uma matriz de ordem n, a equac¸a˜o
caracter´ıstica tera´ n ra´ızes, isto e´, A tera´ n autovalores λ1, λ2, · · · , λn. Os autovalo-
res encontrados, λ’s, na˜o necessariamente sa˜o todos distintos ou diferentes de zero.
Entretanto, se A e´ encontrada atrave´s de dados reais (cont´ınuos) e e´ na˜o singular,
enta˜o os autovalores encontrados sera˜o todos distintos.
Se multiplicarmos ambos os lados da expressa˜o (A−λI)x = 0 por um escalar k,
obtemos
k(A− λI)x = k0
(A− λI)kx = 0
Notemos, atrave´s a expressa˜o acima, que, se x e´ um autovetor da matriz A,
enta˜o kx tambe´m e´ um autovetor da matriz A. Logo, podemos encontrar infinitos
autovetores associados a cada autovalor de uma matriz. Para resolvermos este inco-
veniente, sempre usaremos em nossas ana´lises os autovetores normalizados, ou seja,
aqueles tais que
xtx = 1
Para exemplificar o ca´lculo de autovalores e autovetores, consideremos a matriz
A =
[
1 2
−1 4
]
.
27
Temos que,
|A− λI| =
∣∣∣∣∣ 1− λ 2−1 4− λ
∣∣∣∣∣
= (1− λ)(4− λ) + 2 = 4− 4λ− λ+ λ2 + 2
= λ2 − 5λ+ 6
assim, a equac¸a˜o caracter´ıstica e´ dada por λ2 − 5λ + 6 = 0, de forma que, λ1 =
3, λ2 = 2 sa˜o os autovalores de A. Para encontrarmos o autovetor associado ao
autolavor λ1 = 3, procederemos da seguinte forma:
Ax = λx[
1 2
−1 4
][
x1
x2
]
= 3
[
x1
x2
]
[
x1 + 2x2
−x1 + 4x2
]
=
[
3x1
3x2
]
de forma que, {
x1 + 2x2 = 3x1
−x1 + 4x2 = 3x2
ou, {
−2x1 + 2x2 = 0
−x1 + x2 = 0
que resulta em x1 = x2. Logo, os autovetores associados ao autovalor λ1 = 3 sa˜o da
forma,
x =
[
x1
x2
]
= x1
[
1
1
]
= c
[
1
1
]
,
com a constante c 6= 0. Se c = 1√
2
, teremos o autovetor normalizado associado ao
autovalor λ1 = 3:
e1 =
[
1√
2
1√
2
]
28
Similarmente, para λ2 = 2, obteremos:
e2 =
[
2√
5
1√
5
]
1.12.1 tr(A) e |A|
Para uma matriz A de ordem n, com autovalores λ1, λ2, · · · , λn, temos:
tr(A) =
n∑
i=1
λi e |A| =
n∏
i=1
λi
Para ilustrar essa propriedade, consideremos a matriz A =
[
1 2
−1 4
]
. Vimos
que os autovalores da matriz A sa˜o λ1 = 3 e λ2 = 2. Assim,
tr(A) = 3 + 2 = 5 e |A| = 3× 2 = 6
e, por definic¸a˜o, temos que
tr(A) = 1 + 4 = 5 e |A| = (1× 4)− ((−1)× 2) = 6
1.12.2 Matrizes definidas
Os autovalores e autovetores de uma matriz A possuem as seguintes proprieda-
des:
a) Se todos os autovalores da matriz A sa˜o positivos maiores que zero, enta˜o a
matriz A e´ positiva definida;
b) Se os autovalores da matriz A sa˜o positivos ou iguais a zero, enta˜o a matriz
A e´ positiva semidefinida. Neste caso, o nu´mero de autovalores positivos sera´
igual ao posto da matriz A;
Os autovalores de uma matriz positiva definida sa˜o comumente ordenados em
ordem descrescente, isto e´, λ1 > λ2 > · · · > λp. Os autovetores x1, x2, · · · , xp sa˜o
listados na mesma ordem, isto e´, x1 corresponde a λ1, x2 corresponde a λ2 e assim
sucessivamente.
Um importante teorema a respeito de autovalores e autovetores de matrizes po-
sitivas definidas, conhecido como Teorema de Perron-Frobenius, nos sera´ u´til mais
adiante: Se todos os elementos de uma matriz positiva definida A sa˜o positivos, en-
ta˜o, os elementos do primeiro autovetor sa˜o todos positivos. (O primeiro autovetor
29
e´ aquele associado ao primeiro autovalor, λ1, que neste caso e´ o maior autovalor da
matriz A)
1.12.3 Matrizes sime´tricas
Os autovetores de uma matriz sime´trica A de ordem n sa˜o mutuamente ortogo-
nais. A partir da´ı, se os n autovetores da matriz A forem normalizados e inseridos
nas colunas de uma matriz C =
[
e1 e2 · · · ep
]
, enta˜o C e´ uma matriz ortogo-
nal.
1.12.4 Teorema da Decomposic¸a˜o Espectral
Sejam uma matriz Ap×p, sime´trica e a matriz C =
[
e1 e2 · · · ep
]
, que
conte´m os autovetores normalizados da matriz A. Uma vez que C, assim definida,
e´ ortogonal, ou seja CCt = I, obtemos,
A = ACCt
= A
[
e1 e2 · · · ep
]
Ct=
[
Ae1 Ae2 · · · Aep
]
Ct
=
[
λ1e1 λ2e2 · · · λpep
]
= CΛCt
em que
Λ =

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λp

sendo λ1 ≥ λ2 ≥ · · · ≥ λp, os autovalores de A e ei, i = 1, · · · , p, os autovetores
normalizados de A.
A expressa˜o A = CΛCt e´ conhecida como decomposic¸a˜o espectral da matriz
A. O teorema da decomposic¸a˜o espectral afirma que toda matriz sime´trica A pode
ser decomposta em termos de seus autovalores e autovetores normalizados. Temos
ainda que,
CtAC = CtCΛCtC = IΛI = Λ
30
ou seja, uma matriz sime´trica A pode ser diagonalizada por uma matriz ortogonal
contendo os autovetores normalizados de A, resultando em uma matriz diagonal
contendo os autovalores de A.
Ainda, de acordo com o Teorema da decomposic¸a˜o espectral, temos,
A = CΛCt =

e11 e21 · · · ep1
e12 e22 · · · ep2
...
...
. . .
...
e1p e2p · · · epp
×

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λp
×

e11 e12 · · · e1p
e21 e22 · · · e2p
...
...
. . .
...
ep1 ep2 · · · epp

=

e11λ1 e21λ2 · · · ep1λp
e12λ1 e22λ2 · · · ep2λp
...
...
. . .
...
e1pλ1 e2pλ2 · · · eppλp
×

e11 e12 · · · e1p
e21 e22 · · · e2p
...
...
. . .
...
ep1 ep2 · · · epp

= e11λ1e11 + e21λ2e12 + · · ·+ ep1λpe1p
=
p∑
i=1
λieie
t
i , i = 1, · · · , p
Com base no Teorema da decomposic¸a˜o espectral e´ fa´cil mostrar que:
• |A| =
p∏
i=1
λi
|A| = ∣∣CΛCt∣∣ = |C| |Λ| ∣∣Ct∣∣ = |Λ| |C| ∣∣Ct∣∣ = ∣∣ΛCCt∣∣ = |ΛI| = |Λ| = p∏
i=1
λi
• tr(A) =
p∑
i=1
λi
tr(A) = tr(CΛCt) = tr(CtCΛ) = tr(IΛ) = tr(Λ) =
p∑
i=1
λi
Para ilustrarmos o Teorema da decomposic¸a˜o espectral, vamos encontrar a de-
composic¸a˜o espectral da matriz A dada por:
A =
[
8 −2
−2 5
]
Temos que os autovalores da matriz A sa˜o λ1 = 9 e λ2 = 4 e que os autovetores
normalizados associados aos autovalores sa˜o dados, respectivamente, por
31
e1 =
[ −2√
5
1√
5
]
e e2 =
[
1√
5
2√
5
]
logo, as matriz C e Λ sa˜o dadas por,
C = [e1 e2] =
[ −2√
5
1√
5
1√
5
2√
5
]
e Λ =
[
9 0
0 4
]
assim,
CΛCt =
[ −2√
5
1√
5
1√
5
2√
5
][
9 0
0 4
][ −2√
5
1√
5
1√
5
2√
5
]
=
[ −18√
5
4√
5
9√
5
8√
5
][ −2√
5
1√
5
1√
5
2√
5
]
=
[
8 −2
−2 5
]
= A
Uma vez encontrada a decomposic¸a˜o espectral de uma matriz A sime´trica, po-
sitiva definida, temos,
A1/2 = CΛ1/2Ct
A−1 = CΛ−1Ct
A2 = CΛ2Ct
em que Λ1/2 = diag(
√
λ1,
√
λ2, · · · ,
√
λp), Λ
−1 = diag( 1
λ1
, 1
λ2
, · · · , 1
λp
) e Λ2 =
diag(λ21, λ
2
2, · · · , λ2p).
1.12.5 Decomposic¸a˜o em valor singular
De maneira similar a` decomposic¸a˜o espectral de uma matriz sime´trica, podemos
expressar qualquer matriz real A em termos dos autovalores e autovetores de AAt
e AtA. Seja A uma matriz de ordem n × p de posto k. A decomposic¸a˜o em valor
singular da matriz A e´ dada por
A = UΛVt,
em que U e´ de ordem n×k, Λ e´ de ordem k×k e V e´ de ordem p×k. Os elementos
32
da diagonal da matriz Λ = diag(λ1, λ2, · · · , λk) sa˜o as ra´ızes quadradas positivas
de λ21, λ
2
2, · · · , λ2k, que sa˜o os autovalores diferentes de zero de AAt ou de AtA. Os
valores λ1, λ2, · · · , λk sa˜o chamados de valores singulares de A. As k colunas da
matriz U sa˜o os autovetores normalizados de AAt correspondentes aos autovalores
λ21, λ
2
2, · · · , λ2k. As k colunas de V sa˜o os autovetores normalizados da matriz AtA
correspondentes aos autovalores λ21, λ
2
2, · · · , λ2k. Uma vez que as colunas de U e
de V sa˜o autovetores normalizados de matrizes sime´tricas, eles sa˜o mutuamente
ortogonais, de forma que UtU = VtV = I.
1.13 Soluc¸a˜o utilizando o software R
Nesta sec¸a˜o, apresentaremos algumas func¸o˜es do software R envolvendo os concei-
tos de A´lgebra Linear, que sera˜o muito u´teis no desenvolvimento de nossas ana´lises.
A base de uma ana´lise multivariada consiste na manipulac¸a˜o de matrizes. Logo,
temos que nos familiarizar com esses objetos no R.
A primeira coisa que sempre devemos fazer quando na˜o conhecemos a func¸a˜o que
estamos trabalhando no R e´ consultar a documentac¸a˜o da func¸a˜o. Para isso, basta
utilizarmos os comandos de ajuda do R:
> ?matrix
> help(matrix)
Geralmente, o arquivo de help do R possui 10 to´picos ba´sicos:
1. Description: faz um resumo geral sobre o uso da func¸a˜o
2. Usage: mostra como a func¸a˜o deve ser utilizada e quais argumentos podem
ser especificados
3. Arguments: explica o que e´ cada um dos argumentos
4. Details: explica alguns detalhes sobre o uso e aplicac¸a˜o da func¸a˜o (geralmente
poucos)
5. Value: mostra o que sai no output apo´s usar a func¸a˜o (os resultados)
6. Note: notas sobre a func¸a˜o
7. Authors: lista os autores da func¸a˜o (quem escreveu os co´digos em R)
8. References: refereˆncias para os me´todos usados
33
9. See also: mostra outras func¸o˜es relacionadas que podem ser consultadas
10. Examples: exemplos do uso da func¸a˜o. Copie e cole os exemplos no R para
ver como funciona
Vamos comec¸ar contruindo uma matriz aleato´ria:
> a = 1:30 ## gerando uma sequencia de 1 a 30
> a
[1] 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
[26] 26 27 28 29 30
> ?sample ## a func¸~ao sample serve para retirar amostras com ou sem reposic¸~ao
> ## construir uma matriz 3x3 aleatoria
> A = matrix(sample(a,9,replace = FALSE),ncol=3)
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
Podemos entrar diretamente com os valores dos elementos de uma matriz, como
por exemplo,
> ## outra forma de se construir uma matriz
>
> B = matrix(c(140.54,49.68,1.94,49.68,72.25,3.68,1.94,3.68,0.25),ncol=3)
> B
[,1] [,2] [,3]
[1,] 140.54 49.68 1.94
[2,] 49.68 72.25 3.68
[3,] 1.94 3.68 0.25
Um vetor muito importante dentro de ana´lise multivariada e´ o vetor de 1’s, que
pode ser definido da seguinte forma,
> ?array
34
> ## vetor de 1's
> p = 4 ## vetor de ordem 4
> uns = array(1,p)
> uns
[1] 1 1 1 1
Podemos notar as caracter´ısticas dos vetores de 1’s:
> t(uns)%*%uns ## p (escalar)
[,1]
[1,] 4
> uns%*%t(uns) ## Matriz de 1's: matriz J
[,1] [,2] [,3] [,4]
[1,] 1 1 1 1
[2,] 1 1 1 1
[3,] 1 1 1 1
[4,] 1 1 1 1
Seja agora um vetor a qualquer, por exemplo,
> a = array(c(1,4,4,2))
> a
[1] 1 4 4 2
Podemos definir a soma dos quadrados dos elementos de a e a matriz de produtos
dos elementos de a:
> t(a)%*%a ## soma dos quadrados de a ou produto escalar de a
[,1]
[1,] 37
> a%*%t(a) ## matriz com os elementos de a ao quadrado
[,1] [,2] [,3] [,4]
[1,] 1 4 4 2
[2,] 4 16 16 8
[3,] 4 16 16 8
[4,] 2 8 8 4
Considerando, agora, o vetor de 1’s:
35
> t(uns)%*%a ## soma dos elementos do vetor a
[,1]
[1,] 11
> uns%*%t(a) ## produz uma matriz cujas linhas s~ao o vetor a
[,1] [,2] [,3] [,4]
[1,] 1 4 4 2
[2,] 1 4 4 2
[3,] 1 4 4 2
[4,] 1 4 4 2
Considerando, agora, a matriz A:
> p = 3 ## vetor de ordem 4
> j = array(1,p)
> j
[1] 1 1 1
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
> j%*%A ## soma das linhas da matriz A
[,1] [,2] [,3]
[1,] 26 36 44
> A%*%j ## soma das colunas da matriz A
[,1]
[1,] 27
[2,] 27
[3,] 52
Encontrando a matriz identidade:
> ?diag ## func¸~ao diag() cria uma matriz diagonal com os para^metros passados
> ## Matriz diagonal
> a
[1] 1 4 4 2
36
> D = diag(a)
> D
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 0 4 0 0
[3,] 0 0 4 0
[4,] 0 0 0 2
> ## matriz identidade
> I = diag(uns)
> I
[,1] [,2] [,3] [,4]
[1,]1 0 0 0
[2,] 0 1 0 0
[3,] 0 0 1 0
[4,] 0 0 0 1
Outra forma de se obter a matriz identidade:
> I = diag(x = 1, 3, 3)
> I
[,1] [,2] [,3]
[1,] 1 0 0
[2,] 0 1 0
[3,] 0 0 1
Encontrando a transposta de uma matriz:
> ?t ## func¸~ao t(): encontrar a transposta
> ## calcular A^t
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
> At = t(A)
> At
37
[,1] [,2] [,3]
[1,] 4 1 21
[2,] 6 8 22
[3,] 17 18 9
Consideremos a matriz C dada por
> C = matrix(c(1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),ncol=4)
> C
[,1] [,2] [,3] [,4]
[1,] 1 1 1 1
[2,] 1 1 1 1
[3,] 1 1 1 1
[4,] 1 1 1 1
Podemos enta˜o definir as matrizes triangulares:
> ?lower.tri
> ?upper.tri
> ## Matriz triangular superior
> C[lower.tri(C)] <- 0
> C
[,1] [,2] [,3] [,4]
[1,] 1 1 1 1
[2,] 0 1 1 1
[3,] 0 0 1 1
[4,] 0 0 0 1
> ## Matriz triangular inferior
> C = matrix(c(1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),ncol=4)
> C[upper.tri(C)] <- 0
> C
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 1 1 0 0
[3,] 1 1 1 0
[4,] 1 1 1 1
38
Ca´lculo de determinantes:
> ?det
> ## Calcular det(A)
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
> d = det(A)
> d
[1] -1564
> D
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 0 4 0 0
[3,] 0 0 4 0
[4,] 0 0 0 2
> det(D)
[1] 32
> C
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 1 1 0 0
[3,] 1 1 1 0
[4,] 1 1 1 1
> det(C)
[1] 1
> B
[,1] [,2] [,3]
[1,] 140.54 49.68 1.94
[2,] 49.68 72.25 3.68
[3,] 1.94 3.68 0.25
> det(B)
39
[1] 455.6601
Ca´lculo da inversa de uma matriz:
> ?solve
> solve(C)
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] -1 1 0 0
[3,] 0 -1 1 0
[4,] 0 0 -1 1
> BI = solve(B)
> BI
[,1] [,2] [,3]
[1,] 0.009919895 -0.01158934 0.09361672
[2,] -0.011589341 0.06884825 -0.92351301
[3,] 0.093616718 -0.92351301 16.86764580
> ?round
> round(B%*%BI,0)
[,1] [,2] [,3]
[1,] 1 0 0
[2,] 0 1 0
[3,] 0 0 1
> round(BI%*%B,0)
[,1] [,2] [,3]
[1,] 1 0 0
[2,] 0 1 0
[3,] 0 0 1
Para o ca´lculo do trac¸o de uma matriz:
> ?sum
40
> ## calcular traco de A
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
> diag(A)
[1] 4 8 9
> trA = sum(diag(A))
> trA
[1] 21
> trB = sum(diag(B))
> trB
[1] 213.04
Operac¸o˜es com matrizes:
> ?dim ## encontra a ordem de uma matriz
> dim(A) ## ordem de A
[1] 3 3
> dim(B) ## ordem de B
[1] 3 3
> ## soma de duas matrizes
> C = A + B
> C
[,1] [,2] [,3]
[1,] 144.54 55.68 18.94
[2,] 50.68 80.25 21.68
[3,] 22.94 25.68 9.25
> ## transporta de uma matriz
> t(C)
[,1] [,2] [,3]
[1,] 144.54 50.68 22.94
[2,] 55.68 80.25 25.68
[3,] 18.94 21.68 9.25
41
> t(A) + t(B)
[,1] [,2] [,3]
[1,] 144.54 50.68 22.94
[2,] 55.68 80.25 25.68
[3,] 18.94 21.68 9.25
> ## verificando a propriedade tr(A+B) = tr(A) + tr(B)
> t(C) == t(A) + t(B)
[,1] [,2] [,3]
[1,] TRUE TRUE TRUE
[2,] TRUE TRUE TRUE
[3,] TRUE TRUE TRUE
> ## multiplicac¸~ao de duas matrizes
> A%*%B
[,1] [,2] [,3]
[1,] 893.22 694.78 34.09
[2,] 572.90 693.92 35.88
[3,] 4061.76 2665.90 123.95
> AA = matrix(c(1,3,2,4),ncol=2)
> BB = matrix(c(1,-2,3,5),ncol=2)
> ## cuidado! multiplicac¸~ao de matrizes
>
> AA%*%BB ## produto matricial de AA por BB
[,1] [,2]
[1,] -3 13
[2,] -5 29
> AA*BB ## produto elemento a elemento de AA e BB
[,1] [,2]
[1,] 1 6
[2,] -6 20
> ## produto matricial n~ao e´ comutativo
> AA%*%BB
[,1] [,2]
[1,] -3 13
[2,] -5 29
> BB%*%AA
42
[,1] [,2]
[1,] 10 14
[2,] 13 16
> ## operac¸~oes com vetores
> a
[1] 1 4 4 2
> b = array(c(1,2,4,7))
> b
[1] 1 2 4 7
> t(a)%*%b ## soma dos produtos dos elementos de a e b
[,1]
[1,] 39
> a%*%t(b) ## matriz com os produtos de elementos correspondentes de a e b
[,1] [,2] [,3] [,4]
[1,] 1 2 4 7
[2,] 4 8 16 28
[3,] 4 8 16 28
[4,] 2 4 8 14
> ## tamanho do vetor a
> sqrt(t(a)%*%a) ## norma de a
[,1]
[1,] 6.082763
Ca´lculo dos autovalores e autovetores de uma matriz:
> ?eigen
> A
[,1] [,2] [,3]
[1,] 4 6 17
[2,] 1 8 18
[3,] 21 22 9
> av = eigen(A)
> av ## autovalores e autovetores normalizados de A
43
eigen() decomposition
$values
[1] 36.703790 -18.062853 2.359063
$vectors
[,1] [,2] [,3]
[1,] -0.4723366 -0.4397560 -0.6827614
[2,] -0.4800275 -0.4988981 0.7071747
[3,] -0.7392373 0.7468035 -0.1836870
> eigen(B) ## autovalores e autovetores normalizados de B
eigen() decomposition
$values
[1] 166.74822364 46.23267047 0.05910589
$vectors
[,1] [,2] [,3]
[1,] 0.88461534 0.46628823 0.005565673
[2,] 0.46586604 -0.88316113 -0.054728927
[3,] 0.02060407 -0.05100691 0.998485737
> av = eigen(B)$values ## autovalores de B
> av
[1] 166.74822364 46.23267047 0.05910589
> ave = eigen(B)$vectors ## autovetores normalizados de B
> ave
[,1] [,2] [,3]
[1,] 0.88461534 0.46628823 0.005565673
[2,] 0.46586604 -0.88316113 -0.054728927
[3,] 0.02060407 -0.05100691 0.998485737
Decomposic¸a˜o de Cholesky:
> ?chol
> ## decomposicao de cholesky
>
> choB = chol(B)
> choB
44
[,1] [,2] [,3]
[1,] 11.85496 4.190652 0.1636446
[2,] 0.00000 7.395163 0.4048893
[3,] 0.00000 0.000000 0.2434853
> det(B)
[1] 455.6601
> det(t(choB)%*%choB)
[1] 455.6601
> det(B) == det(t(choB)%*%choB) ## aplicac¸~ao da decomposic¸~ao de cholesky
[1] TRUE
Decomposic¸a˜o espectral de uma matriz:
> ## teorema da decomposicao espectral
> avaB = eigen(B)$values
> aveB = eigen(B)$vectors
> lambdao = diag(avaB)
> lambdao
[,1] [,2] [,3]
[1,] 166.7482 0.00000 0.00000000
[2,] 0.0000 46.23267 0.00000000
[3,] 0.0000 0.00000 0.05910589
> B
[,1] [,2] [,3]
[1,] 140.54 49.68 1.94
[2,] 49.68 72.25 3.68
[3,] 1.94 3.68 0.25
> aveB%*%lambdao%*%t(aveB)
[,1] [,2] [,3]
[1,] 140.54 49.68 1.94
[2,] 49.68 72.25 3.68
[3,] 1.94 3.68 0.25
> round(t(aveB)%*%B%*%aveB,4)
[,1] [,2] [,3]
[1,] 166.7482 0.0000 0.0000
[2,] 0.0000 46.2327 0.0000
[3,] 0.0000 0.0000 0.0591
45
> lambdao
[,1] [,2] [,3]
[1,] 166.7482 0.00000 0.00000000
[2,] 0.0000 46.23267 0.00000000
[3,] 0.0000 0.00000 0.05910589
> ## aplicac¸~ao do teorema da decomposic¸~ao espectral
> BI = aveB%*%solve(lambdao)%*%t(aveB)
> BI
[,1] [,2] [,3]
[1,] 0.009919895 -0.01158934 0.09361672
[2,] -0.011589341 0.06884825 -0.92351301
[3,] 0.093616718 -0.92351301 16.86764580
> solve(B)
[,1] [,2] [,3]
[1,] 0.009919895 -0.01158934 0.09361672
[2,] -0.011589341 0.06884825 -0.92351301
[3,] 0.093616718 -0.92351301 16.86764580
Decomposic¸a˜o em valores singulares:
> ?svd
> ## Decomposic¸~ao em valores singulares
> E = matrix(c(1,2,3,4,5,6),ncol=3)
> E
[,1] [,2] [,3]
[1,] 1 3 5
[2,] 2 4 6
> svd(E)
$d
[1] 9.5255181 0.5143006
$u
[,1] [,2]
[1,] -0.6196295 -0.7848945
[2,] -0.7848945 0.6196295
46
$v
[,1] [,2]
[1,] -0.2298477 0.8834610
[2,] -0.5247448 0.2407825
[3,] -0.8196419 -0.4018960
> L = diag(svd(E)$d) ## matriz lambd~ao
> U = svd(E)$u ## matriz U
> V = svd(E)$v ## matriz V
> U%*%L%*%t(V)
[,1] [,2] [,3]
[1,] 1 3 5
[2,] 2 4 6
> E
[,1] [,2] [,3]
[1,] 1 3 5
[2,] 2 4 6
1.14 Exerc´ıcios
1. Sejam as seguintes matrizes:
A =
[
4 2 3
7 5 8
]
e B =
[
3 −2 4
6 9 −5
]
(a) Encontre A + B e A−B.
(b) Encontre AAt e AtA.
(c) Calcule (A + B)t e verifique que a matriz resultante e´ igual a At + Bt.
(d) Mostre que (At)t = A.
2. Sejam as matrizes:
A =
[
1 3
2 −1
]
e B =
[
2 0
1 5
]
(a) Encontre AB e BA.
(b) Encontre |AB| e verifique se |AB| = |A| · |B|.
47
(c)Calcule A + B e tr(A + B).
(d) Calcule tr(A) e tr(B) e verifique se tr(A + B) = tr(A) + tr(B).
(e) Encontre (AB)t e verifique que (AB)t = BtAt.
3. Sejam as matrizes:
A =
[
1 2 3
2 −1 1
]
e B =
 3 −22 0
−1 1

(a) Encontre AB e BA.
(b) Calcule tr(AB) e tr(BA) e verifique se sa˜o iguais.
4. Sejam as matrizes:
A =
 1 2 32 4 6
5 10 15
 e B =
 −1 1 −2−1 1 −2
1 −1 2

(a) Mostre que AB = 0.
(b) Encontre um vetor x tal que Ax = 0.
(c) Mostre que |A| = 0.
5. Sejam:
A =
 1 −1 4−1 1 3
4 3 2
 , B =
 3 −2 47 1 0
2 3 5

x =
 1−1
2
 e y =
 32
1

Encontre o que se pede:
(a) Bx
(b) ytB
(c) xtAx
(e) xAy
(f) xyt
(g) (x− y)tA(x− y)
48
6. Sejam:
A =
 1 2 34 5 6
7 8 9
 e D =
 a 0 00 b 0
0 0 c

(a) Encontre AD, DA e DAD
7. Sejam:
A =
[
1 3 2
2 0 −1
]
, B =
 1 20 1
1 0
 e C = [ 2 1 1
5 −6 −4
]
(a) Encontre AB e CB. Elas sa˜o iguais? Encontre o posto das matrizes A,
B e C.
8. Verifique se as matrizes abaixo sa˜o ortogonais:
A =
1
169
·
[
5 12
−12 5
]
e B =
1√
2
·
[
1 1
1 −1
]
9. Sejam os vetores:
a =
 1−3
2
 e b =
 21
3

(a) Encontre atb e (atb)2.
(b) Encontre bbt e at(bbt)a.
(c) Compare (atb)2 com at(bbt)a.
10. Sejam as matrizes particionadas abaixo:
A =

2 1
3 2
2
0
1 0 1
 e B =

1 1 1
2 1 1
0
2
2 3 1 2

49
(a) Encontre AB considerando o particionamento das matrizes. Fac¸a o
mesmo desconsiderando esse particionamento. Compare os resultados.
(b) Encontre At considerando o particionamento das matrizes. Fac¸a o mesmo
desconsiderando esse particionamento. Compare os resultados
11. Seja a matriz:
A =
[
1 2
2 −2
]
(a) Mostre que A e´ sime´trica.
(b) Obtenha os autovalores e autovetores da matriz A.
(c) Mostre que os autovetores sa˜o ortogonais.
(d) Escreva a decomposic¸a˜o espectral de A.
(e) Obtenha A−1, seus autovalores e autovetores e a decomposic¸a˜o espectral.
Relacione com a decomposic¸a˜o espectral de A.
(f) Mostre que o determinante de A−1 e´ o inverso do determinante de A.
(g) Mostre que o determinante de A e´ o produto dos autovalores.
(h) Encontre a forma quadra´tica da matriz A e classifique-a.
(i) Mostre que (At)−1 = (A−1)t.
12. Seja a matriz:
A =
 3 6 −16 9 4
−1 4 3

(a) Encontre a decomposic¸a˜o espectral de A.
(b) Encontre a decomposic¸a˜o espectral de A2 e mostre que a matriz diagonal
de autovalores e´ igual ao quadrado da matriz Λ encontrada na parte (a).
(c) Encontre a decomposic¸a˜o espectral de A−1 e mostre que a matriz diagonal
de autovalores e´ igual a` inversa da matriz Λ encontrada na parte (a).
13. Seja a matriz A dada abaixo:
A =
 3 4 34 8 6
3 6 9

50
(a) Mostre que det(A) > 0.
(b) Usando a decomposic¸a˜o de Cholesky, encontre a matriz triangular supe-
rior T tal que A = TtT.
14. Encontre a decomposic¸a˜o em valores singulares da matriz A dada por:
A =

4 −5 −1
7 −2 3
−1 4 −3
8 2 6

15. Se j e´ um vetor de un’s, mostre que:
(a) jta = atj =
∑
i
ai.
(b) jtA e´ um vetor linha contendo a soma das colunas de A.
(c) Aj e´ um vetor coluna contendo a soma das linhas de A.
16. Mostre que (x− y)t(x− y) = xtx− 2xty + yty.
17. Mostre que AtA e´ sime´trica se A e´ de ordem n× p.
18. Mostre que tr(AtA) = tr(AAt) =
∑
ij
a2ij.
19. Uma forma quadra´tica xtAx e´ dita ser positiva definida se a matriz A e´
positiva definida. A forma quadra´tica 3x21 + 3x
2
2 − 2x1x2 e´ positiva definida?
51
Cap´ıtulo 2
Introduc¸a˜o a` Estat´ıstica
Multivariada
2.1 Introduc¸a˜o
Quando nos referimos a` ana´lise multivariada de dados, estamos tratando, de
forma geral, de um conjunto de me´todos estat´ısticos que analisam, de forma simul-
taˆnea, dados correspondentes a medidas de duas ou mais varia´veis medidas em cada
elemento amostral (ou indiv´ıduo). Qualquer ana´lise simultaˆnea de mais de duas
varia´veis pode ser, de certo modo, considerado como ana´lise multivariada. No en-
tanto, para ser considerada verdadeiramente multivariada, todas as varia´veis devem
ser aleato´rias e interrelacionadas de tal forma que seus diferentes efeitos na˜o podem
ser interpretados de maneira significativa separadamente.
Muitas te´cnicas multivariadas sa˜o simplesmente extenso˜es de ana´lises univaria-
das (ana´lise da distribuic¸a˜o de uma u´nica varia´vel) e ana´lise bivariada (classificac¸a˜o
cruzada, correlac¸a˜o, ana´lise de variaˆncia e regressa˜o simples). Por exemplo, a re-
gressa˜o simples (com uma varia´vel preditiva) e´ estendida para o caso multivariado
para incluir va´rias varia´veis preditivas. Da mesma forma, a u´nica varia´vel depen-
dente encontrada na ana´lise de variaˆncia e´ estendida para incluir mu´ltiplas varia´veis
dependentes na ana´lise de variaˆncia multivariada. Em muitos casos, como podera´
ser visto, a ana´lise multivariada e´ um meio de realizar em uma u´nica ana´lise aquilo
que exigiria mu´ltiplas ana´lises no caso univariado. Outras te´cnicas multivariadas, no
entanto, foram projetadas para lidar somente com casos multivariados, tal como a
ana´lise fatorial, que visa identificar a estrutura subjacente de um grupo de varia´veis
ou a ana´lise discriminante, para diferenciar entre grupos baseados em um conjunto
de varia´veis.
Te´cnicas de ana´lise multivariadas esta˜o sendo largamente aplicadas hoje na in-
52
du´stria, no governo e nos centros de pesquisas das universidades. Hoje ja´ na˜o faz
mais sentido seguir o que a pouco tempo ainda era comum, como por exemplo, con-
siderar os consumidores como um grupo homogeˆneo e caracterizado por um pequeno
grupo de varia´veis demogra´ficas. Ao contra´rio, e´ necessa´rio desenvolver estrate´gias
que atinjam grupos variados de consumidores com caracter´ısticas demogra´ficas e
psicogra´ficas em um mercado com mu´ltiplas restric¸o˜es (legais, econoˆmicas, com-
petitivas, tecnolo´gicas, etc.). E´ somente atrave´s de te´cnicas multivariadas que as
mu´ltiplas relac¸o˜es destes tipos podem ser adequadamente examinadas para se obter
um entendimento completo e realista da tomada de decisa˜o.
2.2 Banco de dados multivariados
Nesta sec¸a˜o, apresentaremos alguns exemplos de banco de dados multivariados.
Os cinco exemplos que vamos considerar sa˜o mate´rias brutas t´ıpicas para me´todos
estat´ısticos multivariados. Em todos os casos, existem va´rias varia´veis de interesse
e elas sa˜o claramente na˜o-independentes umas das outras.
2.2.1 Pardais sobreviventes de tempestade
Apo´s uma forte tempestade em 1o de fevereiro de 1898, diversos pardais mori-
bundos foram levados ao laborato´rio biolo´gico de Hermon Bumpus na Universidade
de Brown em Rhode Island. Subsequ¨entemente cerca de metade dos pa´ssaros morre-
ram, e Bumpus viu isso como uma oportunidade de encontrar suporte para a teoria
de selec¸a˜o natural de Charles Darwin. Para esse fim, ele fez oito medidas morfolo´-
gicas em cada pa´ssaro, e tambe´m os pesou. Os resultados de cinco das medidas sa˜o
mostrados na Tabela 2.1, para feˆmeas somente.
Dos dados que obteve, Bumpus (1898) concluiu que “os pa´ssaros que morreram,
morreram na˜o por acidente, mas porque eles eram fisicamente desqualificados, e que
os pa´ssaros que sobreviveram, sobreviveram porque eles possu´ıam certas caracter´ıs-
ticas f´ısicas”. Especificamente, ele verificou que os sobreviventes “sa˜o mais curtos e
pesam menos ... tem ossos das asas mais longos, pernas mais longas, esternos mais
longos e maior capacidade cerebral”do que os na˜o-sobreviventes. Concluiu tambe´m
que “o processo de eliminac¸a˜o seletiva e´ mais severo com indiv´ıduosextremamente
varia´veis, na˜o importando em qual direc¸a˜o a variac¸a˜o possa ocorrer. E´ ta˜o peri-
goso estar acima de um certo padra˜o de exceleˆncia orgaˆnica como estar visivelmente
abaixo do padra˜o”. Isso queria dizer que ocorreu selec¸a˜o estabilizadora, de modo que
indiv´ıduos com medidas pro´ximas da me´dia sobrevivem melhor do que indiv´ıduos
com medidas longe da me´dia.
53
Tabela 2.1: Medidas do corpo de pardocas mensuradas em mm
Pa´ssaro X1 X2 X3 X4 X5 Pa´ssaro X1 X2 X3 X4 X5
1 156 245 31,6 18,5 20,5 26 160 250 31,7 18,8 22,5
2 154 240 30,4 17,9 19,6 27 155 237 31,0 18,5 20,0
3 153 240 31,0 18,4 20,6 28 157 245 32,2 19,5 21,4
4 153 236 30,9 17,7 20,2 29 165 245 33,1 19,8 22,7
5 155 243 31,5 18,6 20,3 30 153 231 30,1 17,3 19,8
6 163 247 32,0 19,0 20,9 31 162 239 30,3 18,0 23,1
7 157 238 30,9 18,4 20,2 32 162 243 31,6 18,8 21,3
8 155 239 32,8 18,6 21,2 33 159 245 31,8 18,5 21,7
9 164 248 32,7 19,1 21,1 34 159 247 30,9 18,1 19,0
10 158 238 31,0 18,8 22,0 35 155 243 30,9 18,5 21,3
11 158 240 31,3 18,6 22,0 36 162 252 31,9 19,2 22,2
12 160 244 31,1 18,6 20,5 37 152 230 30,4 17,3 18,6
13 161 246 32,3 19,3 21,8 38 159 242 30,8 18,2 20,5
14 157 245 32,0 19,1 20,0 39 155 238 31,2 17,9 19,3
15 157 235 31,5 18,1 19,8 40 163 249 33,4 19,5 22,8
16 156 237 30,9 18,0 20,3 41 163 242 31,0 18,1 20,7
17 158 244 31,4 18,5 21,6 42 156 237 31,7 18,2 20,3
18 153 238 30,5 18,2 20,9 43 159 238 31,5 18,4 20,3
19 155 236 30,3 18,5 20,1 44 161 245 32,1 19,1 20,8
20 163 246 32,5 18,6 21,9 45 155 235 30,7 17,7 19,6
21 159 236 31,5 18,0 21,5 46 162 247 31,9 19,1 20,4
22 155 240 31,4 18,0 20,7 47 153 237 30,6 18,6 20,4
23 156 240 31,5 18,2 20,6 48 162 245 32,5 18,5 21,1
24 160 242 32,6 18,8 21,7 49 164 248 32,3 18,8 20,9
25 152 232 30,3 17,2 19,8
1Nota: X1 = comprimento total, X2 = extensa˜o alar, X3 = comprimento do bico
e cabec¸a, X4 = comprimento do u´mero, X5 = comprimento da quilha do esterno.
Pa´ssaros de 1 a 21 sobreviveram, pa´ssaros de 22 a 49 morreram.
Tomando os dados como um exemplo para ilustrar me´todos multivariados, sur-
gem muitas questo˜es interessantes. Em particular:
a) Como esta˜o relacionadas as va´rias varia´veis? Por exemplo, um valor grande
para uma das varia´veis tende a ocorrer com valores grandes para as outras
varia´veis?
b) Os sobreviventes e os na˜o-sobreviventes teˆm diferenc¸as estatisticamente signi-
ficantes para seus valores me´dios das varia´veis?
c) Os sobreviventes e na˜o-sobreviventes mostram quantidades similares de varia-
c¸a˜o para as varia´veis?
54
d) Se os sobreviventes e na˜o-sobreviventes diferem em termos das distribuic¸o˜es
das varia´veis, enta˜o e´ poss´ıvel construir alguma func¸a˜o dessas varia´veis que
separe os dois grupos? Enta˜o seria conveniente se valores grandes da func¸a˜o
tendessem a ocorrer com os sobreviventes enquanto que a func¸a˜o seria enta˜o
aparentemente um ı´ndice de ajuste darwiniano dos pardais.
2.2.2 Craˆnios eg´ıpcios
Para um segundo exemplo, considere os dados mostrados na Tabela ?? para
medidas feitas em craˆnios masculinos da a´rea de Tebas no Egito. Ha´ cinco amostras
de 30 craˆnios cada uma do per´ıodo pre´-dina´stico primitivo (cerca de 4000 a.C.), do
per´ıodo pre´-dina´stico antigo (cerca de 3300 a.C.), das 12a e 13a dinastias (cerca de
1850 a.C.), do per´ıodo Ptolemaico (cerca de 200 a.C.) e do per´ıodo Romano (cerca
de 150 d.C.). Quatro medidas sa˜o apresentadas para cada craˆnio, como ilustrado na
Figura 2.1.
Figura 2.1: Quatro medidas feitas em craˆnios eg´ıpcios masculinos.
55
T
ab
el
a
2.
2:
M
ed
id
as
d
e
cr
aˆn
io
s
eg´
ıp
ci
os
m
as
cu
li
n
os
(m
m
)
P
re´
-d
in
a´s
ti
co
p
ri
m
it
iv
o
P
re´
-d
in
a´s
ti
co
an
ti
go
12
a
e
13
a
d
in
as
ti
as
P
er´
ıo
d
o
p
to
le
m
ai
co
P
er´
ıo
d
o
ro
m
an
o
C
raˆ
n
io
s
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
1
13
1
13
8
89
49
12
4
13
8
10
1
48
13
7
14
1
96
52
13
7
13
4
10
7
54
13
7
12
3
91
50
2
12
5
13
1
92
48
13
3
13
4
97
48
12
9
13
3
93
47
14
1
12
8
95
53
13
6
13
1
95
49
3
13
1
13
2
99
50
13
8
13
4
98
45
13
2
13
8
87
48
14
1
13
0
87
49
12
8
12
6
91
57
4
11
9
13
2
96
44
14
8
12
9
10
4
51
13
0
13
4
10
6
50
13
5
13
1
99
51
13
0
13
4
92
52
5
13
6
14
3
10
0
54
12
6
12
4
95
45
13
4
13
4
96
45
13
3
12
0
91
46
13
8
12
7
86
47
6
13
8
13
7
89
56
13
5
13
6
98
52
14
0
13
3
98
50
13
1
13
5
90
50
12
6
13
8
10
1
52
7
13
9
13
0
10
8
48
13
2
14
5
10
0
54
13
8
13
8
95
47
14
0
13
7
94
60
13
6
13
8
97
58
8
12
5
13
6
93
48
13
3
13
0
10
2
48
13
6
14
5
99
55
13
9
13
0
90
48
12
6
12
6
92
45
9
13
1
13
4
10
2
51
13
1
13
4
96
50
13
6
13
1
92
46
14
0
13
4
90
51
13
2
13
2
99
55
10
13
4
13
4
99
51
13
3
12
5
94
46
12
6
13
6
95
56
13
8
14
0
10
0
52
13
9
13
5
92
54
11
12
9
13
8
95
50
13
3
13
6
10
3
53
13
7
12
9
10
0
53
13
2
13
3
90
53
14
3
12
0
95
51
12
13
4
12
1
95
53
13
1
13
9
98
51
13
7
13
9
97
50
13
4
13
4
97
54
14
1
13
6
10
1
54
13
12
6
12
9
10
9
51
13
1
13
6
99
56
13
6
12
6
10
1
50
13
5
13
5
99
50
13
5
13
5
95
56
14
13
2
13
6
10
0
50
13
8
13
4
98
49
13
7
13
3
90
49
13
3
13
6
95
52
13
7
13
4
93
53
15
14
1
14
0
10
0
51
13
0
13
6
10
4
53
12
9
14
2
10
4
47
13
6
13
0
99
55
14
2
13
5
96
52
C
on
ti
n
u
a
n
a
p
ro´
x
im
a
p
a´g
in
a
?
?
56
T
ab
el
a
2.
2
–
C
on
ti
n
u
ac¸
a˜o
d
a
p
a´g
in
a
an
te
ri
or
P
re´
-d
in
a´s
ti
co
p
ri
m
it
iv
o
P
re´
-d
in
a´s
ti
co
an
ti
go
12
a
e
13
a
d
in
as
ti
as
P
er´
ıo
d
o
p
to
le
m
ai
co
P
er´
ıo
d
o
ro
m
an
o
C
raˆ
n
io
s
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
X
1
X
2
X
3
X
4
16
13
1
13
4
97
54
13
1
12
8
98
45
13
5
13
8
10
2
55
13
4
13
7
93
52
13
9
13
4
95
47
17
13
5
13
7
10
3
50
13
8
12
9
10
7
53
12
9
13
5
92
50
13
1
14
1
99
55
13
8
12
5
99
51
18
13
2
13
6
93
53
12
3
13
1
10
1
51
13
4
12
5
90
60
12
9
13
5
95
47
13
7
13
5
96
54
19
13
9
13
3
96
50
13
0
12
9
10
5
47
13
8
13
4
96
51
13
6
12
8
93
54
13
3
12
5
92
50
20
13
2
13
1
10
1
49
13
4
13
0
93
54
13
6
13
5
94
53
13
1
12
5
88
48
14
5
12
9
89
47
21
12
6
13
3
10
2
51
13
7
13
6
10
6
49
13
2
13
0
91
52
13
9
13
0
94
53
13
8
13
6
92
46
22
13
5
13
5
10
3
4712
6
13
1
10
0
48
13
3
13
1
10
0
50
14
4
12
4
86
50
13
1
12
9
97
44
23
13
4
12
4
93
53
13
5
13
6
97
52
13
8
13
7
94
51
14
1
13
1
97
53
14
3
12
6
88
54
24
12
8
13
4
10
3
50
12
9
12
6
91
50
13
0
12
7
99
45
13
0
13
1
98
53
13
4
12
4
91
55
25
13
0
13
0
10
4
49
13
4
13
9
10
1
49
13
6
13
3
91
49
13
3
12
8
92
51
13
2
12
7
97
52
26
13
8
13
5
10
0
55
13
1
13
4
90
53
13
4
12
3
95
52
13
8
12
6
97
54
13
7
12
5
85
57
27
12
8
13
2
93
53
13
2
13
0
10
4
50
13
6
13
7
10
1
54
13
1
14
2
95
53
12
9
12
8
81
52
28
12
7
12
9
10
6
48
13
0
13
2
93
52
13
3
13
1
96
49
13
6
13
8
94
55
14
0
13
5
10
3
48
29
13
1
13
6
11
4
54
13
5
13
2
98
54
13
8
13
3
10
0
55
13
2
13
6
92
52
14
7
12
9
87
48
30
12
4
13
8
10
1
46
13
0
12
8
10
1
51
13
8
13
3
91
46
13
5
13
0
10
0
51
13
6
13
3
97
51
1
N
ot
a:
X
1
=
la
rg
u
ra
m
a´x
im
a,
X
2
=
al
tu
ra
b
as
ib
re
ga
m
a´t
ic
a,
X
3
=
co
m
p
ri
m
en
to
b
as
ia
lv
eo
la
r,
X
4
=
al
tu
ra
n
as
al
.
57
Para esse exemplo, algumas questo˜es interessantes sa˜o:
a) Como esta˜o relacionadas as quatro medidas?
b) Existem diferenc¸as estatisticamente significantes nas me´dias amostrais das va-
ria´veis, e se existem, essas diferenc¸as refletem mudanc¸as graduais ao longo do
tempo na forma e tamanho dos craˆnios?
c) Existem diferenc¸as significantes nos desvios padra˜o amostrais para as varia´veis,
e, se existem, essas diferenc¸as refletem mudanc¸as graduais ao longo do tempo
na quantidade de variac¸a˜o?
d) E´ poss´ıvel construir uma func¸a˜o das quatro varia´veis que, em algum sentido,
descreva as mudanc¸as ao longo do tempo?
2.2.3 Distribuic¸a˜o de uma borboleta
Um estudo de 16 coloˆnias de borboletas Euphydryas editha na Califo´rnia e Ore-
gon produziu os dados apresentados na Tabela 2.3. Aqui existem quatro varia´veis
ambientais (altitude, precipitac¸a˜o anual e temperaturas ma´xima e mı´nima) e seis
varia´veis gene´ticas (frequeˆncias percentuais para diferentes genes (Fo´sforo glucose-
isomerase) como determinado pela te´cnica de eletroforese). Para os objetivos desse
exemplo, na˜o ha´ necessidade de entrar em detalhes de como as frequ¨eˆncias geˆnicas
foram determinadas e, estritamente falando, elas na˜o sa˜o exatamente frequeˆncias
geˆnicas. E´ suficiente dizer que as frequeˆncias descrevem, de certa forma, a distri-
buic¸a˜o gene´tica das borboletas. A Figura 2.2 mostra as localizac¸o˜es geogra´ficas das
coloˆnias.
Figura 2.2: Coloˆnias de Euphydryas editha na Califo´rnia e Oregon.
58
T
ab
el
a
2.
3:
V
ar
ia´
ve
is
am
b
ie
n
ta
is
e
fr
eq
u
eˆn
ci
as
geˆ
n
ic
as
F
o´s
fo
ro
G
lu
co
se
-I
so
m
er
as
e
(P
gi
)
p
ar
a
co
loˆ
n
ia
s
d
e
b
or
b
ol
et
as
E
u
ph
yd
ry
as
ed
it
ha
n
a
C
al
if
o´r
n
ia
e
O
re
go
n
T
em
p
er
at
u
ra
(º
F
)
F
re
q
u
eˆn
ci
a
d
e
m
ob
il
id
ad
e
geˆ
n
ic
a
P
gi
(%
)
C
ol
oˆn
ia
A
lt
it
u
d
e
(p
e´s
)
P
re
ci
p
it
ac¸
a˜o
an
u
al
(p
ol
.)
M
a´x
im
a
M
ı´n
im
a
0,
4
0,
6
0,
8
1,
0
1,
16
1,
3
S
S
50
0
43
98
17
0
3
22
57
17
1
S
B
80
8
20
92
32
0
16
20
38
13
13
W
S
B
57
0
28
98
26
0
6
28
46
17
3
J
R
C
55
0
28
98
26
0
4
19
47
27
3
J
R
H
55
0
28
98
26
0
1
8
50
35
6
S
J
38
0
15
99
28
0
2
19
44
32
3
C
R
93
0
21
99
28
0
0
15
50
27
8
U
O
65
0
10
10
1
27
10
21
40
25
4
0
L
O
60
0
10
10
1
27
14
26
32
28
0
0
D
P
15
00
19
99
23
0
1
6
80
12
1
P
Z
17
50
22
10
1
27
1
4
34
33
22
6
M
C
20
00
58
10
0
18
0
7
14
66
13
0
IF
25
00
34
10
2
16
0
9
15
47
21
8
A
F
20
00
21
10
5
20
3
7
17
32
27
14
G
H
78
50
42
84
5
0
5
7
84
4
0
G
L
10
50
0
50
81
-1
2
0
3
1
92
4
0
59
Neste exemplo, questo˜es que podem ser feitas incluem:
a) As frequeˆncias Pgi sa˜o similares para as coloˆnias que esta˜o pro´ximas no espac¸o?
b) O quanto, se algum, as frequeˆncias Pgi esta˜o relacionadas a`s varia´veis ambi-
entais?
Essas sa˜o questo˜es importantes na tentativa de decidir como as frequeˆncias Pgi
sa˜o determinadas. Se a composic¸a˜o gene´tica das coloˆnias foi largamente determinada
pelas migrac¸o˜es passadas e presentes, enta˜o as frequeˆncias geˆnicas tendera˜o a ser si-
milares para coloˆnias que esta˜o localizadas nas proximidades, apesar delas poderem
mostrar um pequeno relacionamento com as varia´veis ambientais. Por outro lado,
se o meio ambiente e´ mais importante, enta˜o isso deve aparecer em relacionamen-
tos entre as frequeˆncias geˆnicas e as varia´veis ambientais (assumindo que tenham
sido medidas as varia´veis corretas), mas coloˆnias pro´ximas somente teˆm frequeˆncias
geˆnicas similares se elas teˆm ambientes similares. Obviamente coloˆnias que esta˜o
pro´ximas no espac¸o usualmente teˆm ambientes similares, de modo que pode ser
dif´ıcil chegar a uma conclusa˜o sobre essa questa˜o.
2.2.4 Ca˜es pre´-histo´ricos da Tailaˆndia
Escavac¸o˜es de locais pre´-histo´ricos no nordeste da Tailaˆndia teˆm produzido uma
colec¸a˜o de ossos caninos cobrindo um per´ıodo em torno de 3500 a.C. ate´ o presente.
Entretanto, a origem dos ca˜es pre´-histo´ricos na˜o e´ certa. Podem descender dos jacais
dourados (Canis aureus) ou do lobo, mas o lobo na˜o e´ nativo da Tailaˆndia. As fontes
de origem mais pro´ximas sa˜o a parte ocidental da China (Canis lupus chanco) ou o
subcontinente indiano (Canis lupus pallides).
Para tentar esclarecer os ancestrais dos ca˜es pre´-histo´ricos, foram feitas medidas
da mand´ıbula dos espe´cimens dispon´ıveis. Estas foram enta˜o comparadas com as
mesmas medidas feitas no chacal dourado, no lobo chineˆs e no lobo indiano. As
comparac¸o˜es foram tambe´m estendidas para incluir o dingo, o qual tem suas origens
na I´ndia, o cuon (Cuon alpinus), o qual e´ ind´ıgena do sudeste da A´sia e os ca˜es
modernos de cidade da Tailaˆndia.
A Tabela 2.4 apresenta os valores me´dios para as seis medidas de mand´ıbulas
para espe´cimens de todos os sete grupos. A questa˜o principal aqui e´ o que as
medidas sugerem sobre o relacionamento entre os grupos e, em particular, como os
ca˜es pre´-histo´ricos parecem se relacionar com os outros grupos.
60
Tabela 2.4: Me´dias de medidas, em mm, de mand´ıbulas para sete grupos caninos
Grupo X1 X2 X3 X4 X5 X6
Ca˜o moderno 9,7 21,0 19,4 7,7 32,0 36,5
Chacal dourado 8,1 16,7 18,3 7,0 30,3 32,9
Lobo chineˆs 13,5 27,3 26,8 10,6 41,9 48,1
Lobo indiano 11,5 24,3 24,5 9,3 40,0 44,6
Cuon 10,7 23,5 21,4 8,5 28,8 37,6
Dingo 9,6 22,6 21,1 8,3 34,4 43,1
Ca˜o pre´-histo´rico 10,3 22,1 19,1 8,1 32,2 35,0
1Nota: X1 = largura da mand´ıbula, X2 = altura da mand´ıbula abaixo do primeiro
molar, X3 = comprimento do primeiro molar, X4 = largura do primeiro molar,
X5 = comprimento do

Continue navegando