Buscar

Álgebra de Matrizes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 57 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

ÁLGEBRA 
DE 
MATRIZES 
 
 
 
Baseado no Capítulo 2 do livro: 
Linear Models in Statistics, A. C. Rencher, 2000 
John Wiley & Sons, New York. 
 
 
Material preparado pelo 
Prof. Dr. César Gonçalves de Lima 
E-mail: cegdlima@usp.br 
 
 
 
 
 
 
 
 
DCE/ESALQ – USP 
Fevereiro de 2007 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
1 
 
 
Í N D I C E 
 
2.1. Matrizes e vetores ............................................................................................... 2 
 2.1.1 Matrizes, vetores e escalares .................................................................... 2 
 2.1.2. Igualdade de Matrizes ............................................................................... 3 
 2.1.3. Matriz Transposta ..................................................................................... 3 
 2.1.4. Alguns tipos especiais de matrizes ........................................................... 4 
2.2. Operações com matrizes ........................................................................................ 6 
 2.2.1. Adição de duas matrizes ........................................................................... 6 
2.2.2. Produto de duas matrizes .......................................................................... 7 
2.2.3. Soma Direta ............................................................................................ 14 
 2.2.4. Produto direto ou de Kronecker ............................................................. 14 
 2.2.5. Potência de matriz quadrada ................................................................... 15 
2.3. Matrizes particionadas ...................................................................................... 16 
2.4. Posto (rank) de uma matriz .............................................................................. 18 
2.5. Inversa de uma matriz ....................................................................................... 22 
2.6. Matrizes positivas definidas ............................................................................. 25 
2.7. Sistemas de equações ........................................................................................ 29 
2.8. Inversa generalizada ......................................................................................... 32 
 2.8.1. Definição e Propriedades ........................................................................ 32 
2.8.2. Inversas Generalizadas e Sistemas de Equações .................................... 36 
2.9. Determinantes ................................................................................................... 37 
2.10. Vetores ortogonais e matrizes .......................................................................... 39 
2.11. Traço de uma matriz ......................................................................................... 41 
2.12. Autovalores e autovetores ................................................................................ 42 
2.12.1 Definição ............................................................................................... 42 
2.12.2. Funções de uma matriz ......................................................................... 43 
2.12.3. Produtos ................................................................................................ 45 
2.12.4. Matrizes simétricas ............................................................................... 45 
2.12.5. Matriz positiva definida e positiva semidefinida ................................. 46 
2.13. Matrizes idempotentes ...................................................................................... 47 
2.14. Derivadas de funções lineares e formas quadráticas ........................................ 48 
2.15. Referências citadas no texto ............................................................................. 50 
2.16. Lista de exercícios adicionais ........................................................................... 51 
Apêndice. Introdução ao uso do proc iml .................................................................. 55 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
2 
2.1. MATRIZES E VETORES 
2.1.1. Matrizes, vetores e escalares. 
Uma matriz é um arranjo retangular de número ou de variáveis em linhas e colunas. 
Nesse texto estaremos considerando matrizes de números reais, que serão denotadas 
por letras maiúsculas em negrito. Os seus elementos serão agrupados entre colchetes. 
Por exemplo: 
A = 





3921
1210
; B = 





161413151210
111111
; X = 












101
101
011
011
 
Para representar os elementos da matriz X como variáveis, nós usamos: 
X = (xij) = 












434241
333231
232221
131211
xxx
xxx
xxx
xxx
 
A notação X = (xij) representa uma matriz por meio de um elemento típico. O 
primeiro índice indica a linha e o segundo índice identifica a coluna. Uma matriz 
genérica X tem n linhas e p colunas. A matriz X do Exemplo 1 tem n = 4 linhas e p = 
3 colunas e nós dizemos que X é 4×3, ou que a dimensão de X é 4×3. Para indicar a 
dimensão da matriz, podemos usar 34 X ou ( )3x4X . 
Um vetor é uma matriz com uma única coluna e é denotado por letras minús-
culas, em negrito. Os elementos de um vetor são muitas vezes identificados por um 
único índice, por exemplo, 
y = 










3
2
1
y
y
y
 
Geralmente o termo vetor está associado a um vetor coluna. Um vetor linha é expres-
so como o transposto do vetor coluna, como por exemplo, 
y’ = ty = [ ]321 ,, yyy = [ ]321 yyy 
(A transposta de uma matriz será definida mais adiante). 
Geometricamente, um vetor de n elementos está associado a um ponto no espa-
ço n-dimensional. Os elementos do vetor são as coordenadas do ponto. Em algumas 
situações, nós estaremos interessados em calcular: 
 (i) a distância (d) da origem ao ponto (vetor), 
 (ii) a distância (d) entre dois pontos (vetores), ou 
(iii) o ângulo (θ) entre as linhas formadas da origem até os dois pontos. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
3 
 
 
 No contexto de matrizes e vetores, um número real é chamado de um escalar. 
Assim, os números 2,5, -9 e 3,14 são escalares. Uma variável representando um esca-
lar será denotada por uma letra minúscula e sem negrito. Por exemplo: c = 3,14 indi-
ca um escalar. 
 
2.1.2. Igualdade de Matrizes 
Duas matrizes (ou dois vetores) são iguais se têm a mesma dimensão e se os elemen-
tos de posições correspondentes são iguais. Por exemplo: 





 −
731
423
 = 




 −
731
423
 
mas 






−
−
648
925
 ≠ 





−
−
648
935
 
 
 
2.1.3. Matriz Transposta 
Se nós trocarmos de posição as linhas e as colunas de uma matriz A, a matriz resul-
tante é conhecida como a transposta de A e é denotada por A’ ou tA . Formalmente, 
se nAp = (aij) então a sua transposta é dada por: 
np A' = 
tA = (aij)’ = (aji) (2.3) 
Por exemplo: Se A = 




 −
731
423
 ⇒ A’ = 










−
74
32
13
 é a sua transposta. 
A notação (aji) indica que o elemento da i-ésima linha e j-ésima coluna de A é encon-
trado na j-ésima linha e i-ésima coluna de A’. Se A é n×p então A’ é p×n. 
 
Teorema 2.1.A. Se A é uma matriz qualquer, então 
(A’)’ = A (2.4) 
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
4 
2.1.4 Alguns tipos especiais de matrizes 
Se a transposta de uma matriz A é a mesma da matriz original, isto é, se A’ = A ou, 
equivalentemente, (aji) = (aij), então dizemos que a matriz A é simétrica.Por exem-
plo, 
A = 










−
−
976
7102
623
 
é simétrica. É evidente que toda matriz simétrica é quadrada. 
 
A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22, 
…, app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A é forma-
da pelos elementos 3, 10 e 9. 
 
 Se a matriz nAn contém zeros em todas as posições fora da diagonal ela é uma 
matriz diagonal, como por exemplo, 
D = 














−
4000
0000
0030
0008
 
que também pode ser denotada como 
D = diag(8, –3, 0, 4) 
 
Nós usamos a notação diag(A) para indicar a matriz diagonal com os mesmos ele-
mentos da diagonal de A, como por exemplo, 
A = 










−
−
976
7102
623
 ⇒ diag(A) = 










900
0100
003
 
Uma matriz diagonal com o número 1 em cada posição da sua diagonal é cha-
mada de matriz identidade e é denotada por I, como por exemplo, 
I(3) = diag(1, 1, 1) = 










100
010
001
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
5 
Uma matriz triangular superior é uma matriz quadrada com zeros abaixo da 
diagonal, como por exemplo, 
T = 












−
−
8000
1400
6200
5327
 
 
Um vetor de 1’s é denotado por j: 
j(4) = 












1
1
1
1
 
 
Uma matriz quadrada de 1’s é denotada por J, como por exemplo, 
J(3×3) = 










111
111
111
 
 
Nós denotamos um vetor de zeros por 0 e uma matriz de zeros por Ο ou ΦΦΦΦ , 
por exemplo, 
0(3) = 










0
0
0
, Ο (3×3) = ΦΦΦΦ = 










000
000
000
. 
 
 
2.2. OPERAÇÕES COM MATRIZES 
 
2.2.1 Adição de duas matrizes 
Se duas matrizes têm a mesma dimensão, sua soma é encontrada adicionando os ele-
mentos correspondentes. Assim, se A(n×p) e B(n×p), então C = A + B também é n×p e é 
encontrada como C = (cij) = (aij + bij). Por exemplo, 






−
−
582
437
 + 




 −
243
6511
 = 





−
−
3125
2218
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
6 
A diferença D = A – B entre as matrizes A e B é definida similarmente: D = (dij) = 
(aij – bij). Duas propriedades importantes da adição de matrizes são dadas a seguir: 
 
Teorema 2.2A. Se A e B são n×p, então: 
(i) A + B = B + A (2.9) 
(ii) (A + B)’ = A’ + B’ (2.10) 
 
 
2.2.2 Produto de duas matrizes 
Para que o produto AB de duas matrizes seja possível, o número de colunas da matriz 
A deve ser igual ao número de linhas de B. Neste caso, dizemos que as matrizes A e 
B são conformes. Então, o (ij)-ésimo elemento do produto C = AB é definido como: 
cij = ∑
k
kjikba (2.11) 
que é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos 
da j-ésima coluna de B. Assim, nós multiplicamos todas as linhas de A por todas as 
colunas de B. Se A é (n×m) e B é (m×p) então C = AB é (n×p). Por exemplo, 
A(2×3) = 





564
312
 e B(3×2) = 










83
62
41
 
Então 
2A��B2 = 2C2 = 





++++
++++
)8)(5()6)(6()4)(4()3)(5()2)(6()1)(4(
)8)(3()6)(1()4)(2()3)(3()2)(1()1)(2(
 = 





9231
3813
 
3B��A3 = 3D3 = 










495138
363828
232518
 
 Se A é n×m e B é m×p, onde n ≠ p, então o produto AB é definido, mas BA não 
é definido. Se A é n×p e B é p×n, então AB é n×n e BA é p×p. Neste caso, certamen-
te, AB ≠ BA, como ilustrado no exemplo anterior. Se A e B são n×n então AB e BA 
têm o mesmo tamanho, mas, em geral: 
AB ≠ BA (2.12) 
 
A matriz identidade I(n) é o elemento neutro da multiplicação de matrizes. Isto 
quer dizer que, se A é n×n então AI = IA = A. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
7 
A multiplicação de matrizes não é comutativa e algumas manipulações familia-
res com números reais não podem ser feitas com matrizes. Entretanto, a multiplicação 
de matrizes é distributiva em relação à soma ou subtração: 
A(B ± C) = AB ± AC (2.13) 
(A ± B)C = AC ± BC (2.14) 
 
Usando (2.13) e (2.14) nós podemos expandir produtos como (A – B)(C – D): 
 (A – B)(C – D) = (A – B)C – (A – B)D 
 = AC – BC – AD + BD (2.15) 
 
 A multiplicação envolvendo vetores segue as mesmas regras das matrizes. Su-
ponha A(n×p), b(p×1), c(p×1) e d(n×1). Então: 
• Ab é um vetor coluna n×1 
• d’A é um vetor linha de dimensão 1×p 
• b’c é um escalar correspondendo à soma de produtos 
• bc’ é uma matriz p×p 
• cd’ é uma matriz p×n 
 
Desde que b’c é uma soma de produtos (um escalar!) tem-se que b’c = c’b: 
b’c = b1c1 + b2c2 + … + bpcp 
c’b = c1b1 + c2b2 + … + cpbp 
⇒ b’c = c’b (2.16) 
 
A matriz cd’ é dada por 
cd’ = 












pc
c
c
M
2
1
[d1 d2 … dn] = 












nppp
n
n
dcdcdc
dcdcdc
dcdcdc
L
MOMM
L
L
21
22212
12111
 (2.17) 
Similarmente: 
b’b = [b1 b2 … bp]












pb
b
b
M
2
1
 = 
2
1b + 
2
2b + … + 
2
pb = ∑
=
p
b
1i
2
i (2.18) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
8 
bb’ = 












pb
b
b
M
2
1
[b1 b2 … bp] = 














2
21
2
2
212
121
2
1
ppp
p
p
bbbbb
bbbbb
bbbbb
L
MOMM
L
L
 (2.19) 
Assim, b’b é uma soma de quadrados e bb’ é uma matriz quadrada e simétrica. 
 
 A raiz quadrada da soma de quadrados dos elementos de um vetor bp×1 é igual à 
distância da origem ao ponto b e é conhecida como a norma euclidiana, ou o com-
primento do vetor b: 
comprimento de b = || b || = bb' = ∑
=
p
i
ib
1
2
 (2.20) 
 
Se j é um vetor n×1 de 1’s como definido em (2.6), então por (2.18) e (2.19), 
nós temos que: 
j’j = n, jj’ = 












111
111
111
L
MOMM
L
L
 = J(n×n) (2.21) 
onde Jn×n é uma matriz quadrada de 1’s como ilustrada em (2.7), Se a é um vetor n×1 
e A é uma matriz n×p, então 
a’j = j’a = ∑
=
n
i
ia
1
 (2.22) 
j’A = [ ]∑∑∑ i ipi ii i aaa L21 e Aj = 














∑
∑
∑
j nj
j j
j j
a
a
a
M
2
1
 (2.23) 
Assim, a’j = j’a é a soma dos elementos em a, j’A contem as somas das colunas de A 
e Aj contem as somas das linhas de A. Note que em a’j, o vetor j é n×1; em j’A, o 
vetor j é n×1 e em Aj, o vetor j é p×1. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
9 
Exemplo 1. Seja a matriz A = 









 −
0452
4615
4321
 e o vetor a = 












8
1
5
2
 então: 
 i) j'A = [ ]111









 −
0452
4615
4321
 = [ ]81348 (totais das colunas de A) 
 ii) Aj = 









 −
0452
4615
4321












1
1
1
1
 = 










11
16
6
 (totais das linhas de A) 
iii) a’j = [ ]8152












1
1
1
1
 = j’a = [ ]1111












8
1
5
2= 16 (total dos elementos de a) 
 
 O produto de um escalar por uma matriz é obtido multiplicando-se cada ele-
mento da matriz pelo escalar: 
cA = (caij) = 












nmnn
m
m
cacaca
cacaca
cacaca
L
MOMM
L
L
21
22221
11211
. (2.24) 
Desde que caij = aijc o produto de um escalar por uma matriz é comutativo: 
cA = Ac (2.25) 
 
 A transposta do produto de duas matrizes é igual ao produto das transpostas 
em ordem reversa. 
 
Teorema 2.2B. Se A é n×p e B é p×m, então: 
(AB)’ = B’A’ (2.26) 
Prova: Seja C = AB. Então por (2.11), temos que C = (cij) = 






∑
=
p
k
kjikba
1
 
Por (2.3), a transposta de C = AB é dada por: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
10
(AB)’ = C’ = (cij)’ = (cji) 
 = 







∑
=
p
k
kijkba
1
 = 







∑
=
p
k
jkkiab
1
 = B’A’. 
 
Para ilustrar os passos dessa prova, vamos usar as matrizes A2×3 e B3×2: 
 AB = 





232221
131211
aaa
aaa










3231
2221
1211
bb
bb
bb
 
= 





++++
++++
322322221221312321221121
321322121211311321121111
babababababa
babababababa
 
 (AB)’ = 





++++
++++
322322221221321322121211
312321221121311321121111
babababababa
babababababa
 
 = 





++++
++++
233222222112133212221112
233122212111133112211111
abababababab
abababababab
 
 ⇒ (AB)’ = 





322212
312111
bbb
bbb










2313
2212
2111
aa
aa
aa
 = B’A’ 
 
Corolário 1. Se A, B e C são conformes, então (ABC)’ = C’B’A’. 
 
 
Exemplo 2. Seja y = [y1, y2, …, yn]’ um vetor de pesos de n frangos de corte. Para 
calcular a média e a variância dos pesos desses frangos, nós usamos: 
y = ∑
=
n
i
iy
n 1
1
 s
2
 = ( )∑
=
−
−
n
i
i yy
n 1
2
1
1
 
Matricialmente, a média pode ser calculada por y = 
n
1 j’y, onde j é um vetor n×1 de 
1’s e n = j’j. Para calcular a variância precisamos, primeiramente, calcular o vetor de 
desvios: 
y – y = y –j y = y – j 




 yj' 
n
1
 = y – 
n
1 jj’y = y – 
n
1 Jy = 





− JI
n
1 y 
Onde I é a matriz identidade n×n e J é uma matriz n×n de 1’s. Para calcular a soma 
de quadrados de desvios fazemos: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
11
 ( )∑
=
−
n
i
i yy
1
2
 = 
t
n 










− yJI 1 





− JI
n
1 y 
= y’
t
n






− JI 1 





− JI
n
1 y = y’



− IJ II'
n
1
 – IJ'
n
1
 + 


JJ'2
1
n
y 
Mas J = J’, I’I = I, IJ = J, J’I = J’ = J, j’j = n e J’J = j’jj’j = nJ. Então: 
 ( )∑
=
−
n
i
i yy
1
2
 = y’



− J I
n
2
 + 


Jn
n2
1 y = y’



− J I
n
2
 + 


J
n
1 y = y’ 





− JI
n
1 y 
Então, a variância pode ser calculada por: 
s
2 
= ( )∑
=
−
−
n
i
i yy
n 1
2
1
1
 = 
1
1
−n
y J Iy' 





−
n
1
 
 
 Supondo que A é n×m e B é m×p, seja tia a i-ésima linha da matriz A e bj, a j-
ésima coluna
 
da matriz B, de tal forma que: 
A = 












nmnn
m
m
aaa
aaa
aaa
L
MOMM
L
L
21
22221
11211
 = 














t
n
t
t
a
a
a
M
2
1
, B = 












mpmm
p
p
bbb
bbb
bbb
L
MOMM
L
L
21
22221
11211
= [b1, b2, …, bp] 
Então, por definição, o (ij)-ésimo elemento de AB é tia bj: 
 AB = 














p
t
n
t
n
t
n
p
ttt
p
ttt
bababa
bababa
bababa
L
MOMM
L
L
21
22212
12111
 
= 














),,,(
),,,(
),,,(
21
212
211
p
t
n
p
t
p
t
b b ba
b b ba
b b ba
L
M
L
L
= 














Ba
Ba
Ba
t
n
t
t
M
2
1
 = 














t
n
t
t
a
a
a
M
2
1
B (2.27) 
A primeira coluna de AB pode ser expressa em termos de A como 














1
12
11
ba
ba
ba
t
n
t
t
M
 = 














t
n
t
t
a
a
a
M
2
1
b1 = Ab1 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
12
De forma análoga, a segunda coluna de AB é Ab2 e assim por diante. Assim AB pode 
ser escrita em termos das colunas de B: 
AB = A[b1, b2, …, bp] = [Ab1, Ab2, …, Abp] (2.28) 
 
 Qualquer matriz A pode ser multiplicada pela sua transposta para formar A’A 
ou AA’. Algumas propriedades desses produtos são dadas no próximo Teorema. 
 
Teorema 2.2C. Seja A uma matriz n×p. Então A’A e AA’ têm as seguintes proprie-
dades: 
 (i) A’A é p×p e é obtida como produto das colunas de A. 
 (ii) AA’ é n×n e é obtida como produto das linhas de A. 
(iii) Ambas as matrizes A’A e AA’ são simétricas. 
(iv) Se A’A = ΦΦΦΦ então A = ΦΦΦΦ. 
 
 Seja A uma matriz quadrada n×n e D = diag(d1, d2, … , dn). No produto DA, a 
i-ésima linha de A é multiplicada por di e em AD, a j-ésima coluna de A é multipli-
cada por dj. Por exemplo, se n = 3, nós temos: 
DA = 










3
2
1
00
00
00
d
d
d










333231
232221
131211
aaa
aaa
aaa
= 










333323313
232222212
131121111
adadad
adadad
adadad
 (2.29) 
AD = 










333231
232221
131211
aaa
aaa
aaa










3
2
1
00
00
00
d
d
d
 = 










333322311
233222211
133122111
adadad
adadad
adadad
 (2.30) 
DAD = 










33
2
332233113
233222
2
22112
1331122111
2
1
adaddadd
addadadd
addaddad
 (2.31) 
 
 Vale notar que DA ≠ AD. Entretanto, no caso especial onde a matriz diagonal é 
a matriz identidade, (2.29) e (2.30) temos: 
IA = AI = A (2.32) 
Se A é retangular, (2.32) continua valendo, mas as identidades das duas igual-
dades são de dimensões diferentes. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
13
 Se A é uma matriz simétrica e y é um vetor, o produto: 
y’Ay = ∑
i
iii ya
2
 + 2∑
≠ ji
jiij yya (2.33) 
é chamado de forma quadrática. Se x é n×1, y é p×1 e A é n×p, o produto: 
x’Ay = ∑
ij
jiij yxa (2.34) 
é chamado de forma bilinear. 
 
 
2.2.3. Soma Direta 
Dadas as matrizes A(m×n) e B(r×s) definimos a sua soma direta como 
A ⊕ B = 





B0
0A
 = C(m+r,n+s) 
Algumas propriedades da soma direta de matrizes: 
 (i) A ⊕ (–A) ≠ ΦΦΦΦ 
 (ii) Se as dimensões são favoráveis, então: 
(A ⊕ B) + (C ⊕ D) = (A + C) ⊕ (B + D) 
(A ⊕ B)(C ⊕ D) = AC ⊕ BD 
 
Exemplo 3. Sejam as matrizes: 
A = [ ]151110 , B = 





−14
53
, C = [ ]151110 −−− 
Então, 
A ⊕ B = 










−14000
53000
00151110
 
A ⊕ C = 




−−− 151110000
000151110
 ≠ ΦΦΦΦ (Perceba que A+C = ΦΦΦΦ) 
 
 
2.2.4. Produto direto ou de Kronecker 
Dadas as matrizes A(m×n) e B(r×s) definimos o produto direto ou produto de Kronecker 
de A por B como a matriz C(mr × ns) de tal forma que: 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
14
C(mr × ns) = A ⊗ B = 












BBB
BBB
BBB
mn2m1m
n22221
n11211
aaa
aaa
aaa
L
MOMM
L
L
 
Algumas propriedades interessantes do produto direto de matrizes: 
 (i) A ⊗ B ≠ B ⊗ A , em geral 
 (ii) Se u e v são vetores, então u’ ⊗ v = v ⊗ u’ = vu’. 
(iii) Se D(n) é uma matriz diagonal e A é uma matriz qualquer, então: 
D ⊗ A = d11A ⊕ d22A ⊕ … ⊕ dnnA 
(iv) Se as dimensões são favoráveis 
(A ⊗ B)(C ⊗ D) = AC ⊗ BD 
 
Exemplo 4. Sejam as matrizes: 
A(2×2) = 





43
21
, B(2×3) = 





− 653
011
, y(3×1) = 










−
0
1
1
. 
Então 
A⊗B = 












−−
−−
24201218159
044033
12106653
022011
, B⊗A = 












−−
−−
24182015129
12610563
004343
002121
 
 
A⊗y = 


















−−
−−
00
43
43
00
21
21
 , y⊗A = 


















−−
−−
00
00
43
21
43
21
 
 
2.2.5 Potência de matriz quadrada 
Dada uma matriz quadrada A e um número k ∈ Z (conjunto dos números inteiros e 
positivos), definimos a k-ésima potência da matriz A como: 
kA = 43421 L
k vezes
AAAA 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
15
Em relação à sua segunda potência, uma matriz quadrada A, será chamada de: 
 (i) idempotente, se 2A = A. 
 (ii) nilpotente, se 2A = ΦΦΦΦ. 
(iii) unipotente, se 2A = I. 
 
Teorema. Se P(n) é uma matriz idempotente e se I(n) é a matriz identidade de ordem n, 
então a matriz I – P é idempotente. 
 
 
2.3. MATRIZES PARTICIONADAS 
Muitas vezes é conveniente particionar uma matriz em submatrizes. Por exemplo, 
uma partição de uma matriz A em quatro submatrizes (quadradas ou retangulares) de 
dimensões apropriadas, pode ser indicada simbolicamente como: 
A = 





2221
1211
AA
AA
 
Para ilustrar, seja a matriz A(4×5) particionada como: 
A = 












−
−
61213
25639
72043
48527
 = 





2221
1211
AA
AA
 
Onde: 
A11 = 





− 043
527
, A12 = 





72
48
, A21 = 





213
639
 e A22 = 




 −
61
25
 
 
 Se duas matrizes A e B são conformes, e se A e B são particionadas de tal for-
ma que as submatrizes sejam apropriadamente conformes, então o produto AB pode 
ser encontrado usando a maneira usual de multiplicação (linha-por-coluna) tendo as 
submatrizes como se fossem elementos únicos. Por exemplo: 
 AB = 





2221
1211
AA
AA






2221
1211
BB
BB
 
= 





++
++
2222122121221121
2212121121121111
BABABABA
BABABABA
 (2.35) 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
16
 Se B é trocada por um vetor b particionado em dois conjuntos de elementos e 
se A é correspondentemente particionada em dois conjuntos de colunas, então (2.35) 
fica: 
Ab = [A1, A2] 





2
1
b
b
 = A1b1 + A2b2 (2.36) 
Onde o número de colunas de A1 é igual ao número de elementos de b1 e A2 e b2 são 
similarmente conformes. 
 
 A multiplicação particionada em (2.36) pode ser estendida para colunas indivi-
duais de A e elementos individuais de b: 
Ab = [a1, a2, …………, ap] 












pb
b
b
M
2
1
 = b1a1 + b2a2 + ………… + bpap (2.37) 
Assim, Ab pode ser expressa como uma combinação linear de colunas de A, na qual 
os coeficientes são os elementos de b. Nós ilustramos (2.37) no seguinte exemplo: 
 
 
Exemplo 5. Sejam: 
A = 









 −
234
012
326
, b = 










−1
2
4
 ⇒ Ab = 










20
10
17
 
Usando uma combinação linear de colunas de A como em (2.37), nós obtemos: 
 Ab = b1a1 + b2a2 + b3a3 
 = 4










4
2
6
 + 2









−
3
1
2
 + (–1)










2
0
3
 = 










16
8
24
 + 









−
6
2
4
 – 










2
0
3
 = 










20
10
17
 
 
 Por (2.28) e (2.29), as colunas do produto AB são combinações lineares das co-
lunas de A. Os coeficientes para a j-ésima coluna de AB são os elementos da j-ésima 
coluna de B. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
17
O produto de um vetor linha por uma matriz, a’B, pode ser expresso como uma 
combinação linear das linhas de B, na qual os coeficientes são os elementos de a’: 
a’B = [a1, a2, …, an]














t
n
t
t
b
b
b
M
2
1
 = a1
t
1b + a2
t
2b + … + an
t
nb (2.38) 
Por (2.27) e (2.38), as linhas do produto AB são combinações lineares das linhas de 
B. Os coeficientes da i-ésima linha de AB são os elementos da i-ésima linha de A. 
Finalmente, notamos que se uma matriz A é particionada como A = [A1, A2], então: 
A’ = [A1, A2]’ = 





t
t
2
1
A
A
 (2.39) 
 
 
2.4 POSTO (RANK) DE UMA MATRIZ 
Antes de definirmos o posto (ou rank) de uma matriz, nós introduziremos a noção de 
independência linear e dependência. Um conjunto de vetores {a1, a2, …………, ap} é dito 
linearmente dependente (l.d.) se pudermos encontrar um conjunto de escalares c1, c2, 
…, cp (nem todos nulos) de tal forma que: 
c1a1 + c2a2 + ………… + cpap = 0 (2.40) 
Se não encontrarmos um conjunto de escalares c1, c2, …, cp (nem todos nulos) que sa-
tisfaçam (2.40), o conjunto de vetores {a1, a2, …………, ap} é dito linearmente independente 
(l.i.). Por (2.37), podemos reescrever essa definição da seguinte forma: 
“As colunas de A são linearmente independentes se Ac = 0 implica em c = 0”. 
 
Observe que se um conjunto de vetores inclui um vetor nulo, o conjunto de vetores é 
linearmente dependente. 
 Se (2.40) é satisfeita, então existe pelo menos um vetor ai que pode ser expres-
so como uma combinação linear dos outros vetores do conjunto. Entre vetores linear-
mente independentes não existem redundâncias desse tipo. 
 
Definição: O posto (rank) de qualquer matriz A (quadrada ou retangular) é definido 
como o número de colunas (linhas) linearmente independentes de A 
Pode-se mostrar que o número de colunas l.i. de qualquer matriz é igual ao número de 
linhas l.i. dessa matriz. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
18
Se a matriz A tem um único elemento diferente de zero, com todos os demais 
elementos iguais a zero, então rank(A) = 1. O vetor 0 e a matriz ΦΦΦΦ têm posto zero. 
 
Se a matriz retangular A(n×p) de posto p, onde p < n, então A tem o maior posto 
possível e é dito ter posto coluna completo. 
 
Em geral, o maior posto possível de uma matriz A(n×p) é o min(n, p). Assim, em 
uma matriz retangular, as linhas, as colunas ou ambas são linearmente dependentes. 
Nós ilustramos esse fato no próximo exemplo. 
 
 
Exemplo 6. O posto da matriz: 
A = 




 −425
321
 
é igual a 2, porque as duas linhas são linearmente independentes, pois nenhuma linha 
é múltipla da outra. Conseqüentemente, pela definição de posto, o número de colunas 
l.i. também é 2. Portanto, as três colunas de A são l.d. e por (2.40) existem constantes 
c1, c2 e c3 (nem todas nulas) tais que: 
c1 





5
1
 + c2 




−
2
2
 + c3 





4
3
 = 





0
0
 (2.41) 
Por (2.37) nós escrevemos (2.41) na forma 





 −
425
321
 










3
2
1
c
c
c
 = 





0
0
 ou Ac = 0 (2.42) 
A solução (não trivial) para (2.42) é dada por qualquer múltiplo de c = 










−
−
12
11
14
. Neste 
caso o produto Ac = 0, mesmo com A ≠ 0 e c ≠ 0. Isso só é possível por causa da de-
pendência linear dos vetores-colunas de A. 
 
 Nem sempre é fácil perceber que uma linha (ou coluna) é uma combinação li-
near de outras linhas (ou colunas). Nesses casos pode ser difícil “calcular” o posto de 
uma matriz. Entretanto, se conseguirmos obter a forma escalonada canônica (f.e.c.) 
da matriz, o seu posto corresponderá ao número de linhas (ou colunas) que tenham o 
número 1 como líder. A obtenção da f.e.c. de uma matriz é feita através de operações 
elementares em suas linhas (ou colunas). 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
19
Definição: São chamadas de operações elementares nas linhas da matriz A (e de 
modo similar nas suas colunas): 
 (i) trocar a posição de duas linhas da matriz. 
 (ii) multiplicar uma linha da matriz por um escalar k ≠ 0 (li = kli). 
(iii) somar a uma linha da matriz um múltiplo de outra linha (li = li + klj). 
 
Teorema: Uma matriz A é equivalente por linhas a uma matriz B se B pode ser obti-
da de A aplicando-se uma seqüência de operações elementares sobre as suas linhas. 
 
 
Definição: Dizemos que uma matriz A(n×m) está na sua forma escalonada canônica ou 
reduzida se ocorrer simultaneamente que: 
(a) o primeiro elemento não nulo de cada linha não nula é o número 1 (pivô); 
(b) toda coluna que tem um pivô, tem todos os outros elementos nulos; 
(c) o pivô da linha i +1 ocorre à direita do pivô da linha i (i = 1, 2, …, n – 1). 
(d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das 
linhas não nulas. 
 
 
Definição: Dizemos que uma matriz está na forma escalonada se ela satisfaz as pro-
priedades (c) e (d), mas não necessariamente as propriedades (a) e (b). 
 
Das matrizes apresentadas a seguir, B não está na forma escalonada, A e C es-
tão nas suas formas escalonadas canônicas e D, na forma escalonada. 
A =










000
010
001
, B = 












0010
0100
1000
0001
, C = 





0000
2121
, D = 










100
030
304
 
 
 
Teorema. Dada uma matriz real A(n×p) é sempre possível obtermos a sua forma esca-
lonada canônica (f.e.c.) através de operações elementares. 
 
Assim, calcular o posto da matriz A é o mesmo que calcular o posto da f.e.c. de A, 
pois são equivalentes. Portanto, calcular o posto da f.e.c. de A é o mesmo que contar 
o seu número de 1’s pivôs. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
20
Exemplo 7. Vamos obter a f.e.c. da matriz A do Exemplo 2.4(a): 
A = 




 −
425
321
 
 (i) Fazendo l2 = l2 – 5l1, nós obtemos: 





 −
425
321
 ~ 





−
−
11120
321
. 
 (ii) Fazendo l2 = l2 /12, nós obtemos: 






−
−
11120
321
 ~ 





−
−
12/1110
321
. 
(iii) Fazendo l1 = l1 + 2l2, obtemos: 






−
−
12/1110
321
 ~ 





− 12/1110
6/701
 
Então a f.e.c. de A é a matriz 





− 12/1110
6/701
 e o rank(A) = 2. 
 
 
Definição: Dizemos que uma matriz quadrada está na forma de Hermite (Graybill 
1969, p.120) se satisfaz as seguintes condições: 
(a) é uma matriz triangular superior; 
(b) tem apenas valores zero ou um na sua diagonal; 
(c) se tem o valor zero na diagonal, os elementos restantes na linha são zeros; 
(d) se tem o valor um na diagonal, os elementos restantes da coluna em que apare-
ce o número um, são nulos. 
 
Definição: Dizemos que uma matriz quadrada está na forma de Echelon (Graybill, 
1969, p.286) se ela satisfaz as condições de uma forma de Hermite e apresenta as 
linhas de zeros abaixo das linhas que não são nulas. 
 
 Nós podemos estender (2.42) para produtos de matrizes. É possível encontrar 
matrizes A ≠ 0 e B ≠ 0, tais que: 
AB = 0 (2.43) 
Por exemplo, 






42
21






−− 31
62
 = 





00
00
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
21
Nós também podemos explorar a dependência linear das linhas ou colunas de 
uma matriz para criar expressões tais como AB = CB, onde A ≠ C. Assim em uma 
equação matricial, nós não podemos, em geral, cancelar uma matriz de ambos os 
lados da equação. Uma exceção a essa regra ocorre quando as matrizes envolvidas 
são quadradas e B é uma matriz não-singular (será definida na Seção 2.5). 
 
 
Exemplo 8. Nós ilustramos a existência de matrizes A, B e C tais que AB = CB, 
onde A ≠ C. Sejam as matrizes: 
A = 





−102
231
, B = 










01
10
21
, C = 





−− 465
112
 ⇒ AB = CB = 





41
53
. 
O teorema seguinte dá um caso geral e dois casos especiais para o posto do produto 
de duas matrizes. 
 
Teorema 2.4A. 
 (i) Se as matrizes A e B são conformes, então rank(AB) ≤ rank(A) e rank(AB) ≤ 
rank(B). 
 (ii) A multiplicação por uma matriz não-singular (ver Seção 2.5) não altera o posto 
da matriz, isto é, se B e C são não-singulares⇒ rank(AB) = rank(CA) = rank(A). 
(iii) Para qualquer matriz A, rank(A’A) = rank(AA’) = rank(A’) = rank(A). 
Prova: 
(i) Todas as colunas de AB são combinações lineares das colunas de A (ver um co-
mentário no Exemplo 2.3) conseqüentemente, o número de colunas l.i. de AB é 
menor ou igual ao número de colunas l.i. de A, e rank(AB) ≤ rank(A). Similar-
mente, todas as linhas de AB são combinações lineares das linhas de B [ver 
comentário em (2.38)] e daí, rank(AB) ≤ rank(B). 
(ii) Se B é não singular, existe uma matriz -1B tal que B -1B = I [ver (2.45) a seguir]. 
Então, de (i) nós temos que: 
rank(A) = rank(AB -1B ) ≤ rank(AB) ≤ rank(A). 
 Assim ambas as desigualdades tornam-se igualdades e rank(A) = rank(AB). Simi-
larmente, rank(A) = rank(CA) para C não-singular. 
 
 
2.5. INVERSA DE UMA MATRIZ 
Uma matriz quadrada de posto completo é dita não-singular. Uma matriz A, 
não-singular, tem inversa única, denotada por A–1, com a propriedade que: 
A A–1 = A–1A = I (2.45) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
22
Um algoritmo simples (que é trabalhoso se a dimensão da matriz é grande!) 
para obtenção da inversa de uma matriz consiste em justapor à matriz A uma matriz 
identidade de mesma ordem. Opera-se simultaneamente sobre as linhas das duas ma-
trizes até que no lugar da matriz A apareça a sua f.e.c. (neste caso, uma matriz iden-
tidade). Nesse momento, no lugar da matriz identidade estará a inversa A–1 de A. Ou 
seja: 
[A | I ] ~ … ~ [I | A–1] 
 
 
Exemplo 9. Seja a matriz quadrada: 
A = 





62
74
. 
(1) Fazendo l2 = l2 – (1/2) l1: 






1062
0174
 ~ 





− 12/12/50
0174(2) Fazendo l2 = (2/5)l2: 






− 12/12/50
0174
 ~ 





− 5/25/110
0174
 
(3) Fazendo l1 = l1 + (–7) l2: 






− 5/25/110
0174
 ~ 





−
−
5/25/110
5/145/1204
 
(4) Fazendo l1 = (1/4) l1: 






−
−
5/25/110
5/145/1204
 ~ 





−
−
5/25/110
10/75/301
 
Então 






1062
0174
 ~ … ~ 





−
−
5/25/110
10/75/301
 ⇒ A–1 = 





−
−
4.02.0
7.06.0
 
 
 
Se a matriz B é não-singular e AB = CB, então nós podemos multiplicar à direita por 
B–1 os dois lados da igualdade, obtendo: 
AB = CB ⇒ ABB–1 = CBB–1 ⇒ A = C 
 
Importante: Se a matriz B é singular ou retangular, ela não pode ser cancelada nos 
dois lados da igualdade AB = CB. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
23
 Similarmente, se A é não-singular então o sistema Ax = c tem a solução única: 
x = A–1c (2.47) 
 
Teorema 2.5A. Se A é não singular, então A’ é não singular e a sua inversa pode ser 
encontrada como: 
(A’) –1 = (A–1)’ (2.48) 
 
 
Teorema 2.5B. Se A e B são matrizes não singulares de mesma dimensão, então AB 
é não-singular e 
(AB)–1 = B–1A–1 (2.49) 
 
Se a matriz A é simétrica, não-singular e particionada como: 
A = 





2221
1211
AA
AA
 
e se B = A22 – A21(A11)–1A12, então supondo que (A11)–1 e B–1 existem, a inversa de A 
é dada por 
A–1 = 





−
−−
−−
−−
11-
1121
1
1
12
1-
11
1-
1121
1
12
1-
11
1-
11
BAAB
BAAAABAAA
 (2.50) 
 
Como um caso especial de (2.50), consideremos a matriz não singular: 
A = ( ) 




2212
1211
a
t
a
aA
 
onde A11 é quadrada, a22 é um escalar e a12 é um vetor. Então se (A11)–1 existe, a 
inversa de A pode ser expressa como: 
A–1 = 
b
1






−
−+
1)(
)(
1-
1112
12
1-
11
1-
111212
1-
11
1-
11
Aa
aAAaaAA
t
tb
 (2.51) 
onde b = a22 – (a12)t(A11)–1a12. Como um outro caso especial de (2.50) nós temos: 
A = 





22
11
A
A
ΦΦΦΦ
ΦΦΦΦ
 
que tem a inversa 
A–1 = 





−
−
1
22
1
11
A
A
ΦΦΦΦ
ΦΦΦΦ
 (2.52) 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
24
 Se uma matriz quadrada da forma B + cc’ é não singular, onde c é um vetor e B 
é uma matriz não singular, então: 
(B + cc’)–1 = B–1 – 
cBc'
Bcc'B
1
11
1 −
−−
+
 (2.53) 
 
 
2.6 MATRIZES POSITIVAS DEFINIDAS 
Formas quadráticas foram introduzidas em (2.33). Por exemplo, a forma quadrática 
3 21y + 
2
2y + 2
2
3y + 4 1y 2y + 5 1y 3y – 6 2y 3y pode ser expressa como: 
3 21y + 
2
2y + 2
2
3y + 4 1y 2y + 5 1y 3y – 6 2y 3y = y’Ay 
onde 
y = 










3
2
1
y
y
y
, A = 










−
200
610
543
. 
Entretanto, essa forma quadrática pode ser expressa em termos da matriz simétrica: 
2
1 (A + A’) = 










−
−
232/5
312
2/523
. 
Em geral, qualquer forma quadrática y’Ay pode ser expressa como: 
y’Ay = y’ 




 +
2
A'A y (2.54) 
Assim a matriz-núcleo da forma quadrática pode sempre ser escolhida como uma 
matriz simétrica (e única!). 
 
Exemplo 10. A variância definida como s2 = 
1
1
−n
y J Iy' 





−
n
1
 = y’Ay é uma forma 
quadrática e a sua matriz núcleo é simétrica: 
A = 
1
1
−n


























−−−
−





−−
−−





−
nnn
nnn
nnn
1111
1111
1111
L
MMM
L
L
 = 
( ) ( )
( ) ( )
( ) ( ) 
























−
−
−
−
−
−






−
−
−
−
−
−






nnnnn
nnnnn
nnnnn
1
1
1
1
1
1
11
1
1
1
1
1
11
L
MMM
L
L
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
25
 As somas de quadrados encontradas na análise de regressão (Capítulos 6 a 10) 
e análise de variância (Capítulos 11 a 14) podem ser expressas na forma y’Ay, onde y 
é um vetor de observações. Tais formas quadráticas são positivas (ou no mínimo não-
negativas) para todos os valores de y. 
 
Se a matriz simétrica A tem a propriedade de y’Ay > 0 para todos os possíveis 
vetores de observações y, com exceção de y = 0, então a forma quadrática y’Ay é dita 
positiva definida e A é dita matriz positiva definida. 
 
Similarmente, se y’Ay ≥ 0 para todos os possíveis vetores de observações y, 
com exceção de y = 0, então a forma quadrática y’Ay é dita positiva semidefinida e A 
é dita matriz positiva semidefinida. 
 
Exemplo 11. Para ilustrar uma matriz positiva definida, considere: 
A = 





−
−
31
12
 
A forma quadrática associada 
y’Ay = 2 21y – 2 1y 2y + 3
2
2y = 2( 1y – 0,5 2y )2 + (5/2) 22y 
que é claramente positiva a menos que 1y e 2y sejam ambos iguais a zero. 
 
Para ilustrar uma matriz positiva semidefinida, considere: 
(2 1y – 2y )2 + (3 1y – 3y )2 + (3 2y – 2 3y )2 
que pode ser expresso como y’Ay, com 
A = 










−−
−−
−−
563
6102
3213
 
Se 2 1y = 2y , 3 1y = 3y e 3 2y = 2 3y , então (2 1y – 2y )2 + (3 1y – 3y )2 + (3 2y – 2 3y )2 
= 0. Assim y’Ay = 0 para qualquer múltiplo de y = [1, 2, 3]’. Para todos os outros 
casos, y’Ay > 0 (com exceção de y = 0). 
 
 
Teorema 2.6A. 
 (i) Se A é positiva definida, então todos os elementos aii da sua diagonal são posi-
tivos. 
 (ii) Se A é positiva semidefinida, então todos aii ≥ 0. 
(Ver prova na página 23 do livro do Rencher) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
26
Teorema 2.6B. Seja P uma matriz não-singular. 
 (i) Se A é positiva definida, então P’AP é positiva definida. 
 (ii) Se A é positiva semidefinida, então P’AP é positiva semidefinida. 
(Ver prova na página 23 do livro do Rencher) 
 
Corolário 1. Seja A(p×p) uma matriz positiva definida e seja a matriz B(k×p) de posto 
k ≤ p. Então a matriz BAB’ é positiva definida. 
 
Corolário 2. Seja A(p×p) uma matriz positiva definida e seja a matriz B(k×p). Se k > p 
ou se rank(B) = r, onde r < k e r < p, então a matriz BAB’ é positiva semidefinida. 
 
 
Teorema 2.6C. Uma matriz simétrica A é positiva definida se e somente se existe 
uma matriz não singular P tal que A = P’P. 
(Ver prova na página 23 do livro do Rencher) 
 
 
Corolário 1. Uma matriz positiva definida é não-singular. 
 
 Um método de fatorar uma matriz positiva definida A em um produto P’P é 
chamado de decomposição de Cholesky [ver Seber (1977, pág.304-305)], pelo qual A 
pode ser fatorado de modo único em A = T’T, onde T é uma matriz não singular e 
triangular superior. 
 
 Para qualquer matriz quadrada ou retangular B, a matriz B’B é positiva defi-
nida ou positiva semidefinida. 
 
Teorema 2.6D. Seja a matriz B(n×p). 
 (i) Se rank(B) = p, então B’B é positiva definida. 
 (ii) Se rank(B) < p, então B’B é positiva semidefinida. 
Prova: 
 (i) Para mostrar que y’B’By > 0 para y ≠ 0, nós notamos que y’B’By = (By)’(By) é 
uma soma de quadrados e portanto, é positiva definida, a menos que By = 0. Por 
(2.37) nós podemos expressar By na forma: 
By = y1b1 + y2b2 + … + ypbp 
 Essa combinação linear não é igual a 0 (para qualquer y ≠ 0) porque rank(B) = p 
e as colunas de B são l.i.Material elaborado pelo Prof. César Gonçalves de Lima 
27
 (ii) Se rank(B) < p, então nós podemos encontrar y ≠ 0 tal que 
By = y1b1 + y2b2 + … + ypbp = 0 
 porque as colunas de B são l.d. [ver (2.40)]. Daí, y’B’By ≥ 0. 
 
 
Note que se B é uma matriz quadrada, a matriz B2 = BB não é necessariamente 
positiva semidefinida. Por exemplo, seja a matriz: 
B = 





−
−
21
21
 
Então: 
B2 = 





−
−
21
21
, B’B = 





−
−
84
42
 
Neste caso, B2 não é positiva semidefinida, mas B’B é positiva semidefinida, porque 
y’B’By = 2(y1 – 2y2)2 ≥ 0. 
 
 
Teorema 2.6E. Se A é positiva definida, então A–1 é positiva definida. 
Prova: Pelo Teorema 2.6C, A = P’P, onde P é não singular. Pelos Teoremas 2.5A e 
2.5B, A–1 = (P’P)–1 = P–1(P’)–1 = P–1(P–1)’, que é positiva definida pelo Teore-
ma 2.6C. 
 
Teorema 2.6F. Se A é positiva definida e é particionada na forma 
A = 





2221
1211
AA
AA
 
onde A11 e A22 são quadradas, então A11 e A22 são positivas definidas. 
Prova: Nós podemos escrever A11 como A11 = [I, 0] A 





0
I
, onde I tem a mesma di-
mensão de A11. Então, pelo Corolário 1 do Teorema 2.6B, A11 é positiva defi-
nida. 
 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
28
2.7 SISTEMAS DE EQUAÇÕES 
O sistema de equações de n equações (lineares) e p incógnitas 
a11x1 + a12x2 + … + a1pxp = c1 
a21x1 + a22x2 + … + a2pxp = c2 
… (2.55) 
an1x1 + an2x2 + … + anpxp = cn 
pode ser escrito na forma matricial como 
Ax = c (2.56) 
onde A é n×p, x é p×1 e c é n×1. 
Note que: 
• Se n ≠ p então os vetores x e c são de tamanhos diferentes. 
• Se n = p e A é não-singular, então por (2.47), existe um único vetor solução x = 
A–1c. 
• Se n > p, tal que A tenha mais linhas que colunas (mais equações do que incógni-
tas), então, geralmente, o sistema Ax = c não tem solução. 
• Se n < p, tal que A tenha menos linhas que colunas, então o sistema Ax = c tem 
um número infinito de soluções. 
• Se o sistema (2.56) tem uma ou mais vetores soluções, ele é chamado de sistema 
consistente. Se não tem solução, ele é chamado de sistema inconsistente. 
 
 Para ilustrar a estrutura de um sistema consistente, suponha que A seja p×p 
tenha posto r < p. Então as linhas de A são linearmente dependentes e existe algum b 
tal que [ver (2.38)]: 
b’A = b1 t1a + b2 t2a + … + bp
t
pa = 0’ 
Então, nós também podemos ter b’c = b1c1 + b2 c2+ … + bp cp = 0, porque a multipli-
cação de Ax = c por b’ (de ambos os lados) dá: 
b’Ax = b’c ou 0’x = b’c. 
Por outro lado, se b’c ≠ 0, não existe x tal que Ax = c. Portanto, para que Ax = c seja 
consistente, a mesma relação (qualquer que seja) que existe entre as linhas de A deve 
existir entre os elementos (linhas) de c. Isso é formalizado comparando o posto de A 
com o posto da matriz aumentada [A, c]. A notação [A, c] indica que c foi justaposta 
à matriz A como uma coluna adicional. 
 
Teorema 2.7A O sistema de equações Ax = c é consistente (tem no mínimo uma 
solução) se e somente se rank(A) = rank[A, c]. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
29
Prova: Suponha que rank(A) = rank[A, c], de tal forma que justapor não altera o 
posto da matriz A. Então c é uma combinação linear das colunas de A; isto é, 
existe pelo menos um x tal que 
x1a1 + x2a2 + … + xpap = c 
que, por (2.38) pode ser escrito como Ax = c. Assim, x é uma solução do siste-
ma Ax = c. 
Por outro lado, suponha que existe um vetor solução x tal que Ax = c. Em geral, 
tem-se que rank(A) ≤ rank[A, c] [ver Harville (1997, p.41)]. Mas desde que 
existe um x tal que Ax = c, nós temos: 
 rank[A, c] = rank[A, Ax] = rank[A(I, x)] 
≤ rank(A) [Teorema 2.4A(i)] 
Por isso, 
rank(A) ≤ rank[A, c] ≤ rank(A) 
e daí nós temos que rank(A) = rank[A, c]. 
 
 Um sistema de equações consistente pode ser resolvido pelos métodos usuais 
apresentados nos cursos básicos de álgebra (método da eliminação de variáveis, por 
exemplo). No processo, uma ou mais variáveis podem terminar como constantes arbi-
trárias, gerando assim um número infinito de soluções. Um método alternativo para 
resolver o sistema será apresentado na Seção 2.8.2. 
 
Exemplo 12. Considere o sistema de equações: 
x1 + 2x2 = 4 
x1 – x2 = 1 
x1 + x2 = 3 
ou 










−
11
11
21






2
1
x
x
 = 










3
1
4
 
A matriz aumentada é: 
[A, c] = 










−
311
111
421
 
que tem rank[A, c] = 2 porque a terceira coluna é igual à soma de duas vezes a pri-
meira coluna com a segunda coluna. Desde que rank[A, c] = 2 = rank(A), existe ao 
menos uma solução para o sistema. 
 Se adicionarmos duas vezes a primeira equação à segunda equação, o resultado 
é um múltiplo da terceira equação. Assim, a terceira equação é redundante e as duas 
primeiras podem ser resolvidas para obter a solução única x = [2, 1]’. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
30
0
1
2
3
4
0 1 2 3 4 5
x1
x2
 
Figura 2.1 Três linhas representando as equações do sistema do Exemplo 2.7(a) 
 
 A Figura 2.1 mostra as três linhas que representam as três equações do sistema. 
Note que as três linhas cruzam no ponto de coordenadas (2, 1), que é a solução única 
do sistema de três equações. 
 
 
Exemplo 13. Se trocarmos o número 3 por 2 na terceira equação do Exemplo 2.7(a), 
a matriz aumentada fica: 
[A, c] = 










−
211
111
421
 
que tem posto 3, já que nenhuma combinação linear das colunas é 0. Como rank[A,c] 
= 3 ≠ rank(A) = 2, o sistema é inconsistente. 
 As três linhas que representam as três equações são apresentadas na Figura 2.2, 
onde nós percebemos que as três linhas não têm um ponto comum de interseção. Para 
encontrar a melhor solução aproximada, uma abordagem consiste em usar o método 
dos mínimos quadrados, que consiste em buscar os valores de x1 e x2 que minimizam 
(x1 + 2x2 – 4)2 + (x1 – x2 – 1)2 + (x1 + x2 – 2)2 = 0. 
0
1
2
3
4
0 1 2 3 4 5
x1
x2
 
Figura 2.2 Três linhas representando as equações do sistema do Exemplo 2.7(b) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
31
Exemplo 2.7(c) Considere o sistema: 
 x1 + x2 + x3 = 1 
 2x1 + x2 + 3x3 = 5 
 3x1 + 2x2 + 4x3 = 6 
A terceira equação é a soma das duas primeiras, mas a segunda não é um múltiplo da 
primeira. Assim rank(A) = 2 = rank[A, c] e o sistema é consistente. Resolvendo as 
duas primeiras equações para x1 e x2 em termos de x3, nós obtemos: 
x1 = –2x3 + 4, x2 = x3 – 3 
O vetor solução pode ser expresso como: 
x = 










−
+−
3
3
3
3
42
x
x
x
 = x3









−
1
1
2
 + 










−
0
3
4
 
onde x3 é uma constante arbitrária. Geometricamente, x é uma linha representando a 
interseção dos dois planos correspondentes às duas primeiras equações. 
 
 
 
2.8. INVERSA GENERALIZADA 
Vamos considerar inversas generalizadas daquelas matrizes que não têm inversas no 
sentido usual [ver (2.45)]. Uma solução de um sistema consistente de equações Ax =c 
pode ser expresso em termos de uma inversa generalizada de A. 
 
2.8.1 Definição e Propriedades 
Uma inversa generalizada de uma matriz A n×p é qualquer matriz A–, que satisfaz: 
AA–A = A (2.57) 
Uma inversa generalizada não é única exceto quando A é não-singular, neste caso A– 
= A–1. Uma inversa generalizada que satisfaz (2.57) é também chamada de inversacondicional. 
 
Toda matriz (quadrada ou retangular) tem uma inversa condicional. Isso é ga-
rantido mesmo para vetores. Por exemplo: 
x = 












4
3
2
1
 
então −1x = [1, 0, 0, 0] é uma inversa generalizada de x que 
satisfaz (2.57). Outros exemplos são −2x = [0, 1/2, 0, 0], −3x = [0, 
0, 1/3, 0] e −4x = [0, 0, 0, 1/4]. Para cada −ix , nós temos que: 
x −ix x = x 1 = x, i = 1, 2, 3. 
Nessa ilustração, x é um vetor coluna e −ix é um vetor linha. Esse modelo é generali-
zado no seguinte teorema. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
32
 
Teorema 2.8A. Se A é n×p então qualquer inversa generalizada A– é p×n. 
 
 
Exemplo 14. Seja: 
 A = 










423
101
322
 (2.58) 
Como a terceira linha de A é a soma das duas primeiras linhas, e a segunda linha não 
é um múltiplo da primeira, o rank(A) = 2. Sejam 
−
1A = 










−
000
012/1
010
, 
−
2A = 










−
000
2/12/30
010
 (2.59) 
Facilmente podemos verificar que A −1A A = A e A
−
2A A = A. 
 
 
Teorema 2.8B. Suponha que A é n×p de posto r e que A é particionada como 
A = 





2221
1211
AA
AA
 
Onde A11 é r×r de posto r. Então a inversa generalizada de A é dada por 
A– = 




 −
ΟΟ
ΟA 111
 
Onde as três matrizes nulas 0 têm dimensões apropriadas para que A– seja p×n. 
(Ver prova na pág. 30 no livro do Rencher) 
 
Corolário 1. Suponha A (n×p) de posto r e que A é particionado como no Teorema 
2.8B, onde A22 é r×r de posto r. Então a inversa generalizada de A é dada por 
A– = 





−1
22A0
00
 
onde as três matrizes nulas são de dimensões apropriadas, tais que A– é p×n. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
33
 A submatriz não-singular não precisa estar na posição A11 ou A22, como no 
Teorema 2.8B e no seu corolário. O Teorema 2.8B pode ser estendido para o seguinte 
algoritmo para encontrar uma inversa condicional A–, para qualquer matriz A (n×p) 
de posto r [ver Searle, 1982, p.218]: 
1. Encontre qualquer submatriz não-singular C(r×r). Não é necessário que os ele-
mentos de C ocupem posições (linhas e colunas) adjacentes em A. 
2. Encontre C–1 e a sua transposta (C–1)’. 
3. Substitua em A os elementos de C pelos elementos de (C–1)’. 
4. Substitua todos os outros elementos de A por zeros. 
5. Transponha a matriz resultante. 
 
 
Exemplo 15. Calcular uma inversa generalizada (condicional) de X = 












101
101
011
011
 
Usando o algoritmo de Searle (e lembrando que o posto da matriz X é 2), escolhemos 
convenientemente: 
 C = 





10
01
 ⇒ C–1 = 





10
01
 ⇒ (C–1)’ = 





10
01
 
⇒ 












000
100
010
000
 ⇒ X– = 










0100
0010
0000
 é uma inversa condicional de X 
 
Vale lembrar que escolhendo outras matrizes C e usando o algoritmo, podemos en-
contrar outras inversas condicionais de X. 
 
Teorema 2.8C. Seja A (n×p) de posto r, seja A– uma inversa generalizada de A e 
seja (A’A)– uma inversa generalizada de A’A. Então: 
 (i) posto(A’A) = posto(AA’) = posto(A) = r. 
 (ii) (A’)– é uma inversa generalizada de A’; isto é (A’)– = (A–)’. 
 (iii) A = A(A’A)–A’A e A’ = A’A(A’A)–A’. 
 (iv) (A’A)–A’ é uma inversa generalizada de A, isto é, A– = (A’A)–A’. 
 (v) A(A’A)–A’ é simétrica, rank[A(A’A)–A’] = r e é invariante à escolha de 
(A’A)–; isto é, A(A’A)–A’ permanece a mesma, para qualquer (A’A)–. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
34
 Uma inversa generalizada de uma matriz simétrica não é necessariamente si-
métrica. Entretanto, também é verdade que uma inversa generalizada simétrica de 
uma matriz simétrica, sempre pode ser encontrada; ver Problema 2.45. Neste livro, 
nós assumimos que as inversas generalizadas de matrizes simétricas também são si-
métricas. 
 Além da inversa generalizada (condicional) definida em (2.57) existem outras, 
como a inversa de mínimos quadrados (Amq) e a inversa de Moore-Penrose (A+) que 
é muito útil em demonstrações envolvendo modelos lineares. 
 
Definição: Dada a matriz A(n×p) então toda matriz mqA (p×n) que satisfaz as duas 
condições seguintes, é uma inversa de mínimos quadrados da matriz A: 
 (a) AAmqA = A 
 (b) AAmq é uma matriz simétrica 
 
Teorema. Toda matriz do tipo Amq = (A’A)–A’ é uma inversa de mínimos qua-
drados de A [qualquer que seja a inversa condicional (A’A)–]. 
 
 
Exemplo 16. Obter uma inversa de mínimos quadrados de X = 












101
101
011
011
 
Primeiramente calculamos X’X = 










202
022
224
. Escolhendo C = 





20
02
 e usando o al-
goritmo de Searle, obtemos: 
(X’X)– = 










5,000
05,00
000
 
Então uma inversa de mínimos quadrados de X é igual a: 
Xmq = (X’X)–X’ = 










5,05,000
005,05,0
0000
 
Vale observar que escolhendo outras matrizes C e, correspondentemente, cal-
culando outras inversas condicionais de X’X, podemos encontrar outras inversas de 
mínimos quadrados da matriz X. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
35
Definição: Dada a matriz A (n×p) de posto r, então a matriz A+(p×n), de posto r, que 
satisfaz às quatro condições seguintes, é definida como a inversa generalizada de 
Moore-Penrose da matriz A: 
 (a) AA+A = A 
 (b) A+AA+ = A+ 
 (c) A A+ é simétrica 
 (d) A+A é simétrica 
 
Teorema 2. Para cada matriz A (n×p) existe sempre uma e só uma matriz A+ que 
satisfaz as condições de Moore-Penrose. 
 
A obtenção da inversa de Moore-Penrose é bastante trabalhosa. Geralmente elas são 
obtidas através de algum pacote estatístico. No proc iml do SAS, por exemplo, ela é 
obtida com o comando ginv. 
 
 
2.8.2. Inversas Generalizadas e Sistemas de Equações 
Uma solução para um sistema de equações pode ser expressa em termos de uma in-
versa generalizada. 
 
Teorema 2.8D. Se o sistema de equações Ax = c é consistente e se A– é uma inversa 
generalizada de A, então x = A–c é uma solução. 
Ver prova na pág.32 do livro do Rencher. 
 
Vale lembrar mais uma vez que diferentes escolhas de A–, resultarão em diferentes 
soluções para Ax = c. 
 
Teorema 2.8E. Se o sistema de equações Ax = c é consistente, então todas as possí-
veis soluções podem ser obtidas das duas seguintes maneiras: 
 (i) Use uma A– específica em x = A–c + (I – A–A)h e use todos os possíveis valo-
res para o vetor arbitrário h. 
 (ii) Use todas as possíveis inversas A– em x = A–c. 
Ver prova em Searle (1982, p.238) 
 
Uma condição necessária e suficiente para que o sistema Ax = c seja consistente pode 
ser dado em termos de uma inversa generalizada (ver Graybill 1976, p.36). 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
36
Teorema 2.8F. O sistema de equações Ax = c é consistente se e somente se para 
qualquer inversa generalizada A– de A 
AA–c = c. 
Ver prova na pág. 33 do livro do Rencher. 
 
Observe que o Teorema 2.8F fornece uma alternativa ao Teorema 2.7A para decidir 
se um sistema de equações é consistente. 
 
 
2.9. DETERMINANTES 
Antes de definirmos o determinante de uma matriz quadrada, precisamos definir per-
mutação e número de inversões. Seja o conjunto dos cinco primeiros números intei-
ros S = {1, 2, 3, 4, 5} arrumados em ordem crescente. 
• Qualquer outra ordem j1, j2, …, j5 dos elementos de S é chamada umapermu-
tação de S. Por exemplo: 32451, 45321, 32541, 12354 são permutações de S. 
• O número de permutações possíveis com n objetos (índices, neste caso) é igual 
a n! = n(n – 1)(n – 2)…(2)(1). Por exemplo: com os índices {1, 2, 3} conse-
guimos 3! = 6 permutações, a saber, {123, 132, 213, 231, 312, 321}. 
• Uma permutação j1, j2, …, j5 de S tem uma inversão se um número inteiro jr 
precede um inteiro menor js. Por exemplo: a permutação 32451 tem 5 inversões 
porque: o 3 antes do 2; o 3 antes do 1; o 2 antes do 1; o quatro antes do 1 e o 5 
antes do 1. 
 
O determinante de uma matriz A (n×n) é uma função escalar de A definida como a 
soma algébrica de todos os seus n! possíveis produtos elementares. Denota-se geral-
mente por 
δ(A) = | A | = det(A) = ∑
=
!
1
n
i
ip 
• Cada produto elementar é do tipo pi = a1j1 a2j2 a3j3… anjn em que, nos índices j1, 
j2, …, jn são colocados os números de alguma permutação simples do conjunto 
{1, 2, …, n}. 
• Em cada produto pi existe somente um elemento de cada linha e coluna. 
• Cada produto elementar recebe o sinal + ou –, conforme o número de inversões 
envolvidas em pi seja par ou ímpar, respectivamente. 
 
Essa definição não é muito útil para calcular o determinante de uma matriz, exceto 
para o caso de matrizes 2×2 ou 3×3. Para matrizes maiores, existem programas espe-
cíficos (proc iml do SAS, Mapple e MathCad por exemplo) para calcular os deter-
minantes. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
37
Exemplo 17. Seja a matriz A = 










333231
232221
131211
aaa
aaa
aaa
 = 










−
−
765
413
102
 
 
• Como n = 3, temos 3! = 6 permutações, a saber: 
i pi Permutação No de inversões Sinal Valor de pi 
1 a11 a22 a33 1 2 3 0 + +p1 = –14 
2 a11 a23 a32 1 3 2 1 – –p2 = –48 
3 a12 a21 a33 2 1 3 1 – –p3 = 0 
4 a12 a23 a31 2 3 1 2 + +p4 = 0 
5 a13 a21 a32 3 1 2 2 + +p5 = 18 
6 a13 a22 a31 3 2 1 3 – –p6 = –5 
∴∴∴∴det(A) = ∑
=
6
1i
ip = –49 
 
 
Teorema 2.9A. 
 (i) Se D = diag(d1, d2, …, dn) então det(D) = ∏
=
n
i
id
1
 
 (ii) O determinante de uma matriz triangular é o produto dos elementos da diagonal. 
(iii) Se A é singular, det(A) = 0. Se A é não-singular, det(A) ≠ 0. 
 (iv) Se A é positiva definida, det(A) > 0. 
 (v) det(A) = det(A’) 
 (vi) Se A é não singular, det(A–1) = 1/det(A) 
 
Teorema 2.9B. Se a matriz A é particionada como 
A = 





2221
1211
AA
AA
, 
e se A11 e A22 são quadradas e não singulares (mas não necessariamente do mesmo 
tamanho) então 
 det(A) = |A11| |A22 – A21(A11) –1A12| (2.70) 
= |A22| |A11 – A12(A22) –1A21| (2.71) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
38
Note a analogia de (2.70) e (2.71) com o caso do determinante de uma matriz A, 2×2: 
 det(A) = a11 a22 – a21 a12 = a11 (a22 – a21 a12/ a11) = a22 (a11 – a12 a21/ a22) 
(ver os Corolários 1 a 4 nas páginas 35 e 36 do livro do Rencher) 
 
Teorema 2.9C. Se A e B são quadradas e de mesmo tamanho, então o determinante 
do produto é igual ao produto dos determinantes: 
|AB| = |A| |B| (2.76) 
 
Corolário 1. 
|AB| = |BA| (2.77) 
 
Corolário 2. 
|A2| = |A|2 (2.77) 
 
 
2.10. VETORES ORTOGONAIS E MATRIZES 
Dois vetores nx1 a e b são ditos ortogonais se 
a'b = a1b1 + a2b2 + … + anbn = 0 (2.79) 
Note que o termo ortogonal se aplica aos dois vetores e não a um único vetor. 
 Geometricamente, dois vetores ortogonais são perpendiculares um ao outro. 
Para mostrar que os vetores a e b são perpendiculares podemos calcular o ângulo for-
mado entre eles. 
cos(θ) = ))(( bb'aa'
ba'
 (2.80) 
Quando θ = 90º, a’b = ( )( )bb'aa' cos(90º) = 0, porque cos(90º) = 0. Assim a e b são 
perpendiculares quando a’b = 0. 
 
 
Exemplo 18. Sejam os vetores a = 





2
4
e b = 




−
2
1
. Então a’b = 0 ⇒ cos(θ) = 0 ⇒ o 
ângulo formado entre eles é de 90º, ou seja, os vetores a e b são perpendiculares. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
39
 
Figura 1. Vetores ortogonais 
 
 Se a’a = 1, dizemos que o vetor a está normalizado. Um vetor b pode ser nor-
malizado dividindo-o pelo seu comprimento (ou norma), bb' . Assim, o vetor: 
c = 
bb'
b
 (2.81) 
está normalizado, porque c’c = 1. 
 
Um conjunto de vetores c1, c2,…, cp de dimensões p×1 que são normalizados 
(ci’ci = 1, para todo i) e mutuamente ortogonais (ci’cj = 0, para todo i ≠ j) é dito ser 
um conjunto ortonormal de vetores. Se a matriz C = [c1, c2,…, cp] p×p tem colunas 
ortonormais, C é chamada matriz ortonormal. Desde que os elementos de C’C são 
produtos de colunas de C [ver Teorema 2.2C(i)], uma matriz ortonormal C tem a pro-
priedade 
C’C = I (2.82) 
 
 Pode ser mostrado que uma matriz ortogonal C também satisfaz 
CC’ = I (2.83) 
Assim, uma matriz ortogonal C tem linhas ortogonais como também colunas ortogo-
nais. É evidente que de (2.82) e (2.83), C’ = C–1, se C é ortogonal. 
 
Exemplo 19. Para ilustrar uma matriz ortogonal, partimos de: 
A = 










−
−
111
021
111
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
40
Que tem colunas mutuamente ortogonais, mas que não são ortonormais. Para norma-
lizar as três colunas, nós as dividimos pelos seus respectivos comprimentos, 3 , 6 
e 2 , obtendo assim a matriz: 
C = 










−
−
216131
06231
216131
 
cujas colunas são ortonormais. Note que as linhas de C também são ortonormais, tal 
que C satisfaz (2.83) e (2.82). 
 A multiplicação de um vetor por uma matriz ortogonal tem o efeito de rotacio-
nar os eixos; isto é, se um ponto x é transformado para z = Cx, onde C é uma matriz 
ortogonal, então a distância da origem a z é a mesma que a distância da origem a x: 
z’z = (Cx)’(Cx) = x’C’Cx = x’x (2.84) 
Neste caso, a transformação de x para z é conhecida como uma rotação. 
Teorema 2.10A. Se uma matriz C (p×p) é ortonormal e se A (p×p) é uma matriz 
qualquer, então 
 (i) |C| = +1 ou –1 
 (ii) |C’AC| = |A| 
 (iii) –1 ≤ cij ≤ 1, onde cij é qualquer elemento da matriz C 
 
 
2.11. TRAÇO DE UMA MATRIZ 
O traço de uma matriz (n×n) A = (aij) é uma função escalar definida como a soma 
dos elementos da diagonal de A; isto é, 
tr(A) = ∑
=
n
i iia1 
Por exemplo, se A = 










−
953
632
248
, o traço de A é igual a tr(A) = 8 + (–3) + 9 = 14. 
 
Teorema 2.11A. 
 (i) Se A e B são (n×n) então 
tr(A ± B) = tr(A) ± tr( B) (2.85) 
 (ii) Se A é (n×p) e B é (p×n), então 
tr(AB) = tr(BA) (2.86) 
 Note que em (2.86) n pode ser menor, igual ou maior que p 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
41
 (iii) Se A é (n×p) 
tr(A’A) = ∑
=
p
j
j
t
j
1
aa (2.87) 
 onde aj é a j-ésima coluna de A. 
 (iv) Se A é (n×p) 
tr(AA’) = ti
n
i
iaa∑
=1
 (2.88) 
 onde tia é a i-ésima linha de A. 
 (v) Se A = (aij) é uma matriz n×p então: 
tr(A’A) = tr(AA’) = ∑∑
= =
n
i
p
j
ija
1 1
2
 (2.89) 
 (vi) Se A é (n×n) e P (n×n) é qualquer matriz não-singular, então: 
tr(P–1AP) = tr(A) (2.90) 
 (vii) Se A é (n×n) e C (n×n) é qualquer matriz ortogonal, então: 
tr(C’AC) = tr(A) (2.91) 
 (viii) Se A é (n×p) de posto r e A–(p×n) é uma inversa generalizada de A, então: 
tr(A–A) = tr(A A–) = r (2.92) 
 
 
2.12 AUTOVALORES E AUTOVETORES 
 
2.12.1 Definição 
 
Definição: Para qualquer matriz quadrada A, um escalar λ e um vetor não-nulo x po-
dem serencontrados, de tal forma que: 
Ax = λx (2.93) 
 
Em (2.93), λ é chamado um autovalor de A e x é um autovetor de A (também 
são chamados de valor característico e vetor característico de A, respectivamente). 
Note que em (2.93) o vetor x é transformado por A, em um múltiplo de si próprio, de 
tal forma que o ponto Ax está sobre a linha que passa por x e a origem. 
 
 Para encontrar λ e x para uma matriz A, nós escrevemos (2.93) como: 
(A – λI)x = 0 (2.94) 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
42
Por (2.37), (A – λI)x é uma combinação das colunas de A – λI e por (2.40) e (2.94) 
essas colunas são linearmente dependentes. Assim a matriz quadrada A – λI é singu-
lar, e pelo Teorema 2.9A(iii) nós podemos resolver (2.94) para λ usando: 
|A – λI| = 0 (2.95) 
que é conhecido como equação característica. 
 
 Se A é (n×n) a sua equação característica terá n raízes, isto é, A terá n autova-
lores λ1, λ2, …,λn. Os λ’s não serão necessariamente distintos ou todos diferentes de 
zero, ou todos números reais. Entretanto, os autovalores de uma matriz simétrica 
serão reais, ver Teorema 2.12C. Depois de encontrar λ1, λ2, …, λn usando (2.95) os 
autovetores correspondentes x1, x2, …, xn poderão ser encontrados usando (2.94). 
 Se λi = 0, o correspondente autovetor não é o vetor nulo, 0. Para perceber isso, 
note que se λ = 0 então (A – λI)x = 0 fica Ax = 0 que tem solução para x porque A é 
singular e as suas colunas são linearmente dependentes [a matriz A é singular porque 
ela tem, ao menos, um autovalor nulo]. 
Exemplo 20. Para ilustrar autovalores e autovetores, considere a matriz: 
A = 





42
21
 
Por (2.95), a equação característica é: 
|A – λI| = 





−
−
λ42
2λ1
 = (1 – λ)(4 – λ) – 4 = 0 
Ou seja 
λ
2
 – 5λ = λ(λ – 5) = 0 
Que tem raízes λ1 = 5 e λ2 = 0. Para encontrar o autovetor x1 correspondente a λ1 = 5, 
nós usamos (2.94), 
(A – 5I)x = 0 ⇒⇒⇒⇒ ( ) ( )




−
−
542
251






2
1
x
x
 = 





0
0
 
Que pode ser escrito como: 
 –4x1 + 2x2 = 0 
 2x1 – x2 = 0 
Como a primeira equação é um múltiplo da segunda, temos que x2 = 2x1. Um vetor 
solução pode ser escrito com x1 = c como uma constante arbitrária. 
x1 = 





2
1
x
x
 = 





1
1
2x
x
 = x1 





2
1
 
= c 





2
1
 
Escolhendo c = 1/ 5 para normalizar o vetor, nós encontramos ν1 = 





5/2
5/1
. 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
43
De forma similar, correspondente à λ2 = 0, nós obtemos ν2 = 





− 5/2
5/1
. 
Então, a decomposição espectral de A é 
A = (5) 





5/2
5/1 [ ]5251 + (0) 





− 5/2
5/1 [ ]5/25/1 − = 





42
21
 + 





00
00
 
 
 
2.12.2. Funções de uma matriz 
Se λ é um autovalor da matriz quadrada A com um correspondente autovetor x, então 
para certas funções g(A), um autovalor é dado por g(λ) e x é o autovetor correspon-
dente de g(A) como também de A. Nós ilustramos para alguns casos: 
1. Se λ é um autovalor de A, então cλ é um autovalor de cA, onde c é uma constante 
arbitrária, tal que c ≠ 0. Esse resultado é facilmente demonstrado multiplicando-se 
a relação de definição Ax = λx por c: 
cAx = cλx (2.96) 
 
2. Se λ é um autovalor de A e x é o autovetor correspondente de A, então cλ + k é um 
autovalor da matriz cA + kI e x é o autovetor de cA + kI, onde c e k são escalares. 
Para mostrar isso, adicionamos kx a (2.96): 
cAx + kx = cλx + kx 
(cA + kI)x = (cλ + k)x (2.97) 
 Assim cλ + k é o autovalor de cA + kI e x é o correspondente autovetor de cA + k. 
Note que (2.97) não se estende a (A + B), onde A e B são matrizes nxn arbitrárias; 
isto é, A + B não tem autovalores λA + λB, onde λA é um autovalor de A e λB, de B. 
 
3. Se λ é um autovalor de A, então λ2 é um autovalor de A2. Isto pode ser demonstra-
do, multiplicando-se a relação de definição Ax = λx por A: 
AAx = Aλx ⇒ A2x = λAx = λ(λx) = λ2x (2.98) 
 Assim λ2 é um autovalor de A2 e x é o autovetor correspondente de A2. Isso pode 
ser estendido para: 
Akx = λkx (2.99) 
 
4. Se λ é um autovalor da matriz não-singular A, então 1/λ é um autovalor de A–1. 
Para demonstrar isso, nós multiplicamos Ax = λx por A–1 para obter: 
A–1Ax = A–1λx ⇒ x = λA–1x ⇒⇒⇒⇒ A–1x = (1/λ)x (2.100) 
 Assim 1/λ é um autovalor de A–1 e x é um autovetor tanto de A quanto de A–1. 
 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
44
5. Os resultados em (2.96) e (2.99) podem ser usados para obter autovalores e autove-
tores de um polinômio em A. Por exemplo, se λ é um autovalor de A, então 
 (A3 + 4A2 – 3A + 5I)x = A3x + 4A2x – 3Ax + 5x 
 = λ
3
x + 4λ2x – 3λx + 5x 
 = (λ3 + 4λ2 – 3λ + 5)x 
 Assim, λ3 + 4λ2 – 3λ + 5 é um autovalor de A3 + 4A2 – 3A + 5I, e x é o autovetor 
correspondente. 
 Para certas matrizes, a propriedade (5) pode ser estendida para séries infinitas. 
Por exemplo, se λ é um autovalor de A, então por (2.97), 1 – λ é um autovalor de 
I – A. Se I – A é não-singular, então, por (2.100), 1/(1 – λ) é um autovalor de 
(I – A)–1. Se –1 < λ < 1, então 1/(1 – λ) pode ser representado pela série (de Fourier) 
λ−1
1
 = 1 + λ + λ2 + λ3 + … 
Correspondentemente, se todos os autovalores de A satisfazem –1 < λ < 1, então 
(I – A)–1 = I + A + A2 + A3 + … (2.101) 
 
 
2.12.3. Produtos 
Similar ao comentário feito após a apresentação de (2.97), os autovalores de AB não 
são produtos da forma λAλB. Entretanto, os autovalores de AB são os mesmos de BA. 
 
Teorema 2.12A. Se A e B são n×n ou se A é n×p e B é p×n, então os autovalores 
(não nulos) de AB são os mesmos daqueles de BA. Se x é um autovetor de AB então 
Bx é um autovetor de BA. 
 
Teorema 2.12B. Seja A uma matriz n×n. 
 (i) Se P é qualquer matriz não-singular n×n, então P–1AP tem os mesmos autova-
lores. 
 (ii) Se C é qualquer matriz ortogonal n×n, então C’AC tem os mesmos autovalores. 
 
 
 
2.12.4. Matrizes simétricas 
 
Teorema 2.12C. Seja A (n×n) uma matriz simétrica 
 (i) Os autovalores de A são números reais. 
(ii) Os autovetores x1, x2,…, xn são mutuamente ortogonais; isto é, xi’ xj = 0 para i ≠ j 
 
Material elaborado pelo Prof. César Gonçalves de Lima 
45
Se os autovetores de uma matriz simétrica A são normalizados e colocados como co-
lunas de uma matriz C, então, pelo Teorema 2.12C(ii), C é uma matriz ortogonal que 
pode ser usada para expressar A em termos de seus autovalores e autovetores. 
 
Teorema 2.12D. Se A é uma matriz simétrica com autovalores λ1, λ2, …,λn e autove-
tores normalizados x1, x2, …,xn então A pode ser expressa como 
 A = CDC’ (2.102) 
 = ∑
=
λ
n
i
t
iii
1
xx (2.103) 
onde D = diag(λ1, λ2, …,λn) e C é a matriz ortonormal C = [x1, x2, …,xn]. O resultado 
mostrado em (2.102) ou (2.103) é chamado de decomposição espectral de A. 
Ver prova nas pág. 46-47. 
 
Corolário 1. Se A é uma matriz simétrica e C e D são definidas como no Teorema 
2.12D, então C diagonaliza A, isto é, 
C’AC = D = diag(λ1, λ2, …,λn) (2.105) 
 
Teorema 2.12E. Se A é uma matriz com autovalores λ1, λ2, …,λn então 
 (i) det(A) = | A | = ∏
=
λ
n
i
i
1
 (2.106) 
 (ii) tr(A) = ∑
=
λ
n
i
i
1
 (2.107 
 
 
2.12.5. Matriz positiva definida e positiva semidefinida 
Os autovalores λ1, λ2, λ3,…, λn de matrizes positiva definidas (semidefinidas) são 
positivos (não negativos). 
 
Teorema 2.12F.

Outros materiais

Materiais relacionados

Perguntas relacionadas

Perguntas Recentes