Buscar

Teoria Matrizes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 126 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 126 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 126 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Departamento de Estat´ıstica
Universidade Federal de Sa˜o Carlos
Teoria de Matrizes para Estat´ıstica
Jose´ Carlos Fogo
Sa˜o Carlos
Julho de 2017
Suma´rio
1 Vetores 1
1.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Representac¸a˜o gra´fica no <2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Propriedades alge´bricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Vetores especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Produto entre vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Propriedades alge´bricas do produto interno entre vetores . . . . . . . . . . 5
1.4 Mo´dulo ou comprimento de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Outros resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Matrizes 10
2.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.3 Matriz de Zeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.4 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.5 Matriz Sime´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.6 Matriz de Uns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.7 Matrizes Triangulares Superior e Inferior . . . . . . . . . . . . . . . . . . . . 12
2.2 Operac¸o˜es com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3 Medidas relacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Posto ou rank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3 Trac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Matriz dos cofatores e matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Matriz na˜o singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
i
Suma´rio Teoria de Matrizes para Estat´ıstica
2.8 Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.9 Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.10 Operac¸o˜es elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.11 Matrizes similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Matrizes particionadas 32
3.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Operac¸o˜es com matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Decomposic¸a˜o LDU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Rank, ou posto, de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Determinante de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 A inversa de uma matriz particionada . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Decomposic¸a˜o de matrizes 42
4.1 Decomposic¸a˜o espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Decomposic¸a˜o em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Decomposic¸a˜o LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.1 Determinac¸a˜o das matrizes L e U . . . . . . . . . . . . . . . . . . . . . . . 50
4.3.2 O algoritmo de Crout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Decomposic¸a˜o de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.4.1 Determinac¸a˜o da matriz G . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5 Vetores aleato´rios 60
5.1 Vetores aleato´rios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.1.1 Valor esperado de um vetor aleato´rio . . . . . . . . . . . . . . . . . . . . . . 62
5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio . . . . . . . . . . . 63
5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio . . . . . . . . . . . . . . . . . . 67
5.1.4 Vetores aleato´rios particionados . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2.1 A representac¸a˜o dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.2 O vetor de me´dias amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.3 A matriz de variaˆncias e covariaˆncias amostrais . . . . . . . . . . . . . . . . 76
6 Espac¸os Vetoriais 82
6.1 Subespac¸os vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.2 Dependeˆncia linear de vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3 Base de um espac¸o vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7 Formas quadra´ticas 91
7.1 Diagonalizac¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.2 Formas quadra´ticas e coˆnicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.3 Distribuic¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.4 Otimizac¸a˜o de formas quadra´ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7.4.1 Derivada de uma forma quadra´tica . . . . . . . . . . . . . . . . . . . . . . . 100
ii
Suma´rio Teoria de Matrizes para Estat´ıstica
8 Sistemas lineares 104
8.1 Notac¸a˜o Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2 Sistemas homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.3 Uso da decomposic¸a˜o LU na soluc¸a˜o de sistemas lineares . . . . . . . . . . . . . 112
9 Projec¸o˜es Ortogonais 115
9.1 Matriz canoˆnica de uma projec¸a˜o ortogonal . . . . . . . . . . . . . . . . . . . . . . 116
9.2 Decomposic¸a˜o ortogonal de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . 117
iii
1
Vetores
1.1 Definic¸a˜o
Na F´ısica: e´ uma forma de se representar matematicamente grandezas f´ısicas que possuam
mais de um aspecto para ser definida.
Exemplo: a forc¸a, necessita da magnitude, direc¸a˜o e sentido em que e´ aplicada;
Na Matema´tica: e´ uma tripla constitu´ıda de uma direc¸a˜o, um sentido e um nu´mero na˜o
negatico (mo´dulo), Venturini, J.J.
Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou
matriz linha.
Na Wikipe´dia: e´ um conceito caracterizado por uma magnitude (mo´dulo) e uma orientac¸a˜o
(direc¸a˜o e sentido).
Notac¸a˜o: ~v, ~x, ~a (letras minu´sculas).
Nas notas da disciplina, vamos adotar a notac¸a˜o usual em publicac¸o˜es, ou seja, com letras mi-
nu´sculas, em negrito: v, x, a.
x =

x1
x2
...
xp
 , e´ um vetor de dimensa˜o p.
1
Vetores Teoria de Matrizes para Estat´ıstica
Exemplo:
x =

1
2
3
4
 , e´ um vetor de dimensa˜o 4.
1.1.1 Representac¸a˜o gra´fica no <2
Exemplo: Sejam
x=
[
2
5
]
e y =
[
3
0.5
]
,
Figura 1.1: Representac¸a˜o gra´fica de vetores no plano
1.1.2 Propriedades alge´bricas
i) u + v = v + u;
ii) (u + v) + w = u + (v + w);
iii) a (u + v) = a v + a u, a = escalar;
iv) (a+ b) u = a u + b u, a, b = escalares.
2
Vetores Teoria de Matrizes para Estat´ıstica
1.2 Vetores especiais
i) vetor nulo:
0n =

0
0
...
0
 ;
ii) vetor de 1’s:
1n =

1
1
...
1

n×1
; (1.1)
iii) vetor transposto:
vt =
[
v1, v2, · · · , vp
]
.
1.3 Produto entre vetores
Os produtos entre de vetores mais comuns sa˜o o produto escalar euclidiano, ou produto interno
e o produto vetorial, ou produto externo, sendo que nos dois casos os vetores devem ter mesmas
dimenso˜es.
Ale´m das duas formas de produtos acima, temos ainda o produto direto, ou produto Kronecker
e o produto elemento-a-elemento.
Nota: Na disciplina sera˜o destacados os produtos interno, Kronecker e elemento-a-elemento.
Considere os vetores
v =

v1
v2
...
vp
 e x =

x1
x2
...
xp
 .
a) Produto elemento-a-elemento1:
x ∗ v =

x1 · v1
x2 · v2
...
xp · vp
 .
1Como na˜o temos uma notac¸a˜o para um operador elemento-a-elemento, vamos utilizar o asterisco (*)
3
Vetores Teoria de Matrizes para Estat´ıstica
b) Produto interno ou produto escalar:
〈x,v〉 = x · v = xt v =
p∑
i=1
xi · vi
c) Produto Kronecker ou produto direto: sejam x e v vetores com dimenso˜es p e q,
respectivamente
x⊗v =

x1 · v
x2 · v
...
xp · v

pq×1
.
Exemplos:
Sejam x =

2
−5
−1
 e v =

3
2
−3
 ,
• de (a):
x ∗ v =

(2) · (3)
(−5) · (2)
(−1) · (−3)
 =

6
−10
3
 ;
• de (b):
〈x,v〉 = xtv = (2) · (3) + (−5) · (2) + (−1) · (−3) = −1.
• de (c):
x⊗v =

2 · v
−5 · v
−1 · v
 =

6
4
−6
−15
−10
15
−3
−2
3

4
Vetores Teoria de Matrizes para Estat´ıstica
Obs: Para o produto Kronecker as dimenso˜es na˜o precisam ser necessariamente iguais
Se x =
[
2
3
]
e v =

1
2
3
4
 , enta˜o: x⊗v =

2
4
6
8
3
6
9
12

1.3.1 Propriedades alge´bricas do produto interno entre vetores
i) utv = vtu ou 〈u,v〉 = 〈v,u〉;
ii) (ut + vt)w = utw + vtw ou 〈(u+v),w〉 = 〈u,w〉 + 〈v,w〉;
iii) (k vt)u = k (vtu) = vt(k u), ou 〈kv,u〉 = k 〈v,u〉 = 〈v, ku〉 k = escalar;
iv) utu ≥ 0 ou 〈u,u〉 ≥ 0;
v) utu = 0⇔ u = 0 ou 〈u,u〉 = 0⇔ u = 0.
1.4 Mo´dulo ou comprimento de um vetor
O comprimento, mo´dulo ou norma de um vetor v e´ definido por
‖v‖ =
√
vtv =
√
v21 + v22 + . . .+ v2p.
Exemplo: Dados os vetores vt = (2,−5,−1),xt = (3, 2,−3) e ut = (0.8, 0.6), enta˜o
‖v‖ = √4 + 25 + 1 = √30;
‖x‖ = √9 + 4 + 9 = √22;
‖u‖ = √0.64 + 0.36 = √1 = 1.
O vetor que tem norma igial a 1, ou seja, vtv = 1, e´ chamado de vetor normal.
No exemplo acima o vetor ut = (0.64, 0.36) e´ um vetor normal.
1.5 Outros resultados
i) Aˆngulo entre vetores: considere o angulo θ formado por dois vetores u e v, enta˜o:
cos(θ) = u
tv
‖u‖ ‖v‖ =
utv√
utu
√
vtv
.
5
Vetores Teoria de Matrizes para Estat´ıstica
Se θ = 90◦, cos(θ) = 0, enta˜o u e v sa˜o ortogonais, ou seja, u⊥v, portanto, dois vetores sa˜o
ortogonais se utv = 0.
Figura 1.2: Aˆngulo entre vetores.
ii) Projec¸a˜o de um vetor sobre outro:
Considere os vetores u e v. Enta˜o, a projec¸a˜o de u sobre v e´ obtida por:
Pu/v =
(
utv
vtv
)
v = (u
tv)
‖v‖2 v.
O mo´dulo da projec¸a˜o, por sua vez, e´ dado por:
∥∥∥Pu/v∥∥∥ =
∣∣∣∣∣utvvtv
∣∣∣∣∣√vtv =
∣∣utv∣∣
‖v‖2 ‖v‖ =
∣∣utv∣∣
‖v‖ ‖u‖ ‖u‖
∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ .
Exemplo: Dados os vetores ut = (1, 2),vt = (2, 1), encontar a projec¸a˜o de u sobre v e calcular
o seu mo´dulo.
Ca´lculos:
‖u‖ =
√
11 + 22 =
√
5
‖v‖ = ‖u‖ = √5
utv = 2 · 1 + 1 · 2 = 4
cos(θ) = u
tv
‖u‖ ‖v‖ =
4√
5
√
5
= 0.8 ⇒ θ ∼= 36.9◦
Projec¸a˜o de u sobre v:
Pu/v =
(
utv
vtv
)
v = 45
[
2
1
]
=
[
1.6
0.8
]
.
6
Vetores Teoria de Matrizes para Estat´ıstica
Comprimento da projec¸a˜o:∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ = 0.8√5 = √3.2
De fato
∥∥∥Pu/v∥∥∥2 = [ 1.6 0.8 ]
[
1.6
0.8
]
= 3.2, logo,
∥∥∥Pu/v∥∥∥ = √3.2.
Figura 1.3: Projec¸a˜o de um vetor u sobre um vetor v.
1.6 Representac¸a˜o vetorial dos dados
Na estat´ıstica os dados sa˜o usualmente representados em vetores (os softwares usam esse con-
ceito).
Exemplo: Seja uma amostra de tamanho n = 10 representando o ganho l´ıquido de um grupo
7
Vetores Teoria de Matrizes para Estat´ıstica
de empresas da bolsa de valores (em milho˜es de reais). Pode-se representar os dados por
x =

564
389
203
215
385
187
127
297
432
451

.
Como
∑
xi = 3250 e
∑
x2i = 1234408, tem-se que:
x¯ = 325010 = 325;
s2 = 1234408− 10(325)
2
(10− 1) = 19795.33.
Os resultados acima da me´dia amostral x¯ e variaˆncia amostral s2 podem ser facilmente obtidos
utilizando as operac¸o˜es vetoriais.
i) Para a soma dos elementos de x, tem-se
1tn x =
n∑
i=1
xi = x1 + . . .+ xn
ii) Para a soma dos quadrados dos elementos de x,
xt x =
n∑
i=1
x2i = x21 + . . .+ x2n
Assim, de (i) e (ii) tem-se que:
x¯ = 1
t
n x
n
;
s2 = 1(n− 1)
[
xt x− (1
t
n x)2
n
]
.
8
Vetores Teoria de Matrizes para Estat´ıstica
No exemplo:
1tn x = 3250;
[
xt x− (1
t
n x)2
n
]
= 1234408− (3250)
2
10 = 178158.
9
2
Matrizes
Definic¸a˜o 2.1. Matriz
Matriz e´ uma colec¸a˜o retangular n× p de valores reais, representada por
An×p =

a11 a12 · · · a1p
a21 a22 · · · a2p
...
...
. . .
...
an1 an2 · · · anp
 ,
em que: n e´ o nu´mero de linhas e p e´ o nu´mero de colunas da matriz �
Segundo Graybill (1983), uma matriz pode, ainda, ser representada da seguinte forma:
An×p = [aij ]n×p .
No´s podemos obter uma matriz n × p pela multiplicac¸a˜o de um vetor u, n × 1, com um vetor
linha vt, 1× p
uvt =

u1
u2
...
un

[
v1 v2 · · · vp
]
=

u1v1 u1v2 · · · u1vp
u2v1 u2v2 · · · u2vp
...
...
. . .
...
unv1 unv2 · · · unvp
 . (2.1)
(2.2)
Nota: O produto uvt e´ muitas vezes chamado de produto exterior ou produto externo (Banerjee
e Roy, 2014).
10
Matrizes Teoria de Matrizes para Estat´ıstica
2.1 Casos especiais
2.1.1 Matriz Transposta
Denotada por A′ ou At, e´ obtida trocando-se as linhas de A pelas colunas.
Exemplo: A2×3 =
[
3 −2 1
1 5 4
]
At3×2 =

3 1
−2 5
1 4
 .
2.1.2 Matriz Quadrada
E´ uma matriz para a qual o nu´mero de linhas e´ igual ao de colunas.
Exemplo: A3×3 =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 .
2.1.3 Matriz de Zeros
Denotada 0n×p, e´ a matriz cujos elementos sa˜o todos iguais a zero.
Exemplo: 0n×p =

0 0 · · · 0
0 0 · · · 0
...
...
. . .
...
0 0 · · · 0

n×p
.
2.1.4 Matriz Diagonal
E´ uma matriz quadrada na qual apenas os elementos da diagonal sa˜o diferentes de zero.
Exemplo: Ap×p =

a11 0 · · · 0
0 a22 · · · 0
...
...
. . .
...
0 0 · · · app
 .
Casos especiciais:
11
Matrizes Teoria de Matrizes para Estat´ıstica
a) Matriz escalar: e´ uma matriz diagonal na qual todos os elementos da diagonal sa˜o iguais,
ou seja, dii = d, i = 1, 2, . . . , n.
Exemplo: D =

d 0 · · · 0
0 d · · · 0
...
...
. . .
...
0 0 · · · d
 .
b) Matriz identidade: e´ um caso particular da matriz diagonal. Denotada por Ip = Ip×p, seus
elementosda diagonal sa˜o todos iguais a 1, ou seja, a11 = a22 = . . . = app = 1.
Exemplo: I3 =

1 0 0
0 1 0
0 0 1
 .
2.1.5 Matriz Sime´trica
Matriz quadrada em que A = At, ou seja, quando aij = aji, i, j = 1, 2, . . . , p.
Exemplo: A3×3 =

1 2 3
2 4 5
3 5 6
 .
2.1.6 Matriz de Uns
Denotada Jn, e´ uma matriz quadrada cujos elementos sa˜o todos iguais a um.
Exemplo: Jn =

1 1 · · · 1
1 1 · · · 1
...
...
. . .
...
1 1 · · · 1

n×n
.
A matriz Jn e´ definida pelo produto Jn = 1n1tn, ver (1.1), e apresenta a seguinte propriedade:
a) J2 = JJ = nJ;
b) J3 = JJJ = n2J;
c) Jk = nk−1J.
2.1.7 Matrizes Triangulares Superior e Inferior
A matriz quadrada Un×n, e´ uma matriz triangular superior se todos os elementos abaixo da
diagonal forem iguais a zero e, a matriz quadrada quadrada Ln×n, e´ uma matriz triangular inferior
se todos os elementos acima da diagonal forem iguais a zero.
12
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplo: matrizes triangulares superior e inferior de dimenso˜es 4× 4.
U4×4 =

u11 u12 u13 u14
0 u22 u23 u24
0 0 u33 u34
0 0 0 u44
 L4×4 =

l11 0 0 0
l21 l22 0 0
l31 l32 l33 0
l41 l42 l43 l44

Teorema 2.1. Sejam matrizes Un×n e Ln×n, triangulares superior e inferior, respectivamente.
Enta˜o seus determinantes sa˜o obtidos pela multiplicac¸a˜o dos elementos das diagonais, ou seja:
|U| =
n∏
i=1
uii
|L| =
n∏
i=1
lii
.
Teorema 2.2. Sejam matrizes An×n e Bn×n, enta˜o:
i) Se A e B sa˜o ambas triangulares inferiores, o produto AB e´ uma matriz triangular inferior.
ii) Se A e B sa˜o ambas triangulares superiores, o produto AB e´ uma matriz triangular superior.
Teorema 2.3. Seja An×n:
i) Se A e´ triangular inferior (ou superior) com todos os elementos da diagonal diferentes de
zero, enta˜o A e´ invert´ıvel e sua inversa A−1 e´ triangular inferior (ou superior).
ii) Os elementos da diagonal de A−1 sa˜o os rec´ıprocos dos elementos da diagonal de A, ou seja
a∗ii =
1
aii
, i = 1, 2, . . . , n,
em que a∗ii sa˜o os elementos da diagonal de A−1 e aii, os elementos da diagonal de A.
2.2 Operac¸o˜es com matrizes
i) Multiplicac¸a˜o por um escalar:
cAn×p =

c a11 c a12 · · · c a1p
c a21 c a22 · · · c a2p
...
...
. . .
...
c an1 c an2 · · · c anp
 .
13
Matrizes Teoria de Matrizes para Estat´ıstica
ii) Adic¸a˜o de matrizes de mesmas dimenso˜es:
An×p + Bn×p =

a11 + b11 a12 + b12 · · · a1p + b1p
a21 + b21 a22 + b22 · · · a2p + b2p
...
...
. . .
...
an1 + bn1 an2 + bn2 · · · anp + bnp
 .
Resultados:
a) A + B = B + A;
b) (A + B) + C = A + (B + C);
c) c (A + B) = cA + cB;
d) A + 0 = A e A − A = 0;
e) (c+ d) A = cA + dA;
f) (c d) A = c (dA);
g) (A + B)t = At + Bt.
Nota: A matriz 0 e´ o elemento neutro da adic¸a˜o de matrizes, ou seja, A + 0 = A.
iii) Multiplicac¸a˜o de matrizes: o produto de duas matrizes An×k e Bk×p e´ dado pelos produtos
internos das linhas de A pelas colunas de B
An×k Bk×p = (A B)n×p ,
desta forma, o nu´mero de colunas da primeira (A) deve ser igual ao nu´mero de linhas da
segunda (B) e o resultado sera´ uma matriz cujo nu´mero de linhas sera´ igual ao nu´mero de
linhas da primeira e o nu´mero de colunas, igual ao da segunda.
Exemplo:
A2×3 =
[
3 −1 2
1 5 −4
]
B3×2 =

−2 1
7 0
9 −3
 ,
A B =
[
(−6− 7 + 18) (3− 6)
(−2 + 35− 36) (1 + 12)
]
=
[
5 −3
−3 13
]
.
Uma matriz An×k pode ser representada como uma colec¸a˜o de k vetores nas colunas, assim
como n vetores transpostos nas linhas.
Seja ati· vetor transposto representando a i-e´sima linha, i = 1, 2, . . ., n, enta˜o, a matriz A pode
ser escrita por:
An×k =

at1·
at2·
...
atn·
 .
14
Matrizes Teoria de Matrizes para Estat´ıstica
Da mesma forma, considerando as colunas de An×k como vetores, pode-se, ainda, escrever A
como:
An×k =
[
a·1 a·2 · · · a·k
]
.
Desta forma, o produto entre duas matrizes An×k e Bk×p pode ser representado por
An×kBk×p =

at1·
at2·
...
atn·

[
b·1 b·2 · · · b·p
]
.
An×kBk×p =

at1·b·1 at1·b·2 · · · at1·b·p
at2·b·1 at2·b·2 · · · at2·b·p
...
...
. . .
...
atn·b·1 atn·b·2 · · · atn·b·p
 .
A partir de (2.2) podemos, ainda, representar o produto entre duas matrizes por:
An×kBk×p =
[
a·1 a·2 · · · a·p
]

bt1·
bt2·
...
btn·
 =
p∑
j=1
a·jbtj·.
Resultados:
(as matrizes A, B e C sa˜o de dimenso˜es tais que os produtos abaixo sejam definidos)
a) A (B C) = (A B) C;
b) A (B + C) = A B + A C;
c) c (A B) = (cA) B;
d) c (A B) = (cA) B;
e) (αA)(β B) = (αβ)(AB);
f) (A B)t = BtAt.
Notas:
1) Em geral na˜o vale a propriedade comutativa, ou seja, A B 6= B A,
2) Se A B = 0, na˜o implica, necessariamente, que A = 0 ou que B = 0;
3) A identidade e´ o elemento neutro da multiplicac¸a˜o de matrizes, ou seja, A I = I A = A.
15
Matrizes Teoria de Matrizes para Estat´ıstica
2.3 Medidas relacionadas
2.3.1 Determinante
Seja uma matriz quadrada A, enta˜o, seu determinante e´ um escalar denotado por |A| e e´ definido
por:
|A| =
k∑
j=1
a1j (−1)j+1 |A1j | , k > 1.
em que a1j e´ o j-e´simo elemento da primeira linha de A e A1j e´ a matriz obtida eliminando-se a
primeira linha e a j-e´sima coluna de A.
O resultado tambe´m e´ va´lido quando exclu´ımos qualquer uma das outras linhas, ou seja
|A| =
k∑
j=1
aij (−1)i+j |Aij | , k > 1, i = 1, 2, . . . , k.
Nota: o termo (−1)i+j |Aij | e´ definido como cofator do elemento aij e sera´ visto mais adiante.
Exemplo: A =

2 1 3 0
1 −1 2 2
−2 0 3 3
4 1 −1 2
 .
• Eliminando-se a primeira linha:
|A| = (2) (−1)1+1
∣∣∣∣∣∣∣∣
−1 2 2
0 3 3
1 −1 2
∣∣∣∣∣∣∣∣+ (1) (−1)
1+2
∣∣∣∣∣∣∣∣
1 2 2
−2 3 3
4 −1 2
∣∣∣∣∣∣∣∣+
(3) (−1)1+3
∣∣∣∣∣∣∣∣
1 −1 2
−2 0 3
4 1 2
∣∣∣∣∣∣∣∣+ (0) (−1)
1+4
∣∣∣∣∣∣∣∣
−1 −1 3
−2 0 3
4 1 −1
∣∣∣∣∣∣∣∣
|A| = (2) (−1)2 (−9) + (1) (−1)3 (21) + (3) (−1)4 (−23) + (0) (−1)5 (17)
|A| = −18− 21− 69 = −108.
• Eliminando-se a terceira linha:
|A| = (−2) (−1)2 (18) + (0) (−1)3 (30) + (3) (−1)4 (−2) + (3) (−1)5 (22)
|A| = −36− 6− 66 = −108.
16
Matrizes Teoria de Matrizes para Estat´ıstica
Casos especiais:
a) k = 2:
A =
[
a11 a12
a21 a22
]
, |A| = a11 a22 − a12 a21.
Exemplo:
A =
[
1 3
6 4
]
, |A| = 1 · 4− 3 · 6 = −14.
b) k = 3:
A =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 ,
|A| = a21 a32 a13 + a11 a22 a33 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32.
Exemplo:
A =

3 1 6
7 4 5
2 −7 1
 ,
|A| = 10 + 12− 294− 7− 48 + 105 = −222.
Resultados
(as matrizes A, B sa˜o tais que os produtos sejam definidos)
a) |A| = |At|,
b) Se os elementos de uma linha (ou coluna) sa˜o iguais a zero, enta˜o, |A| = 0,
c) Se duas linhas (ou colunas) sa˜o iguais ou proporcionais, enta˜o, |A| = 0,
d) |A B| = |A|· |B|,
e) |c A| = ck|A|, em que k e´ o nu´mero de linhas (ou colunas) de A,
f) |I| = 1.
2.3.2 Posto ou rank
O posto ou rank de uma matriz An×p e´ dado pelo nu´mero ma´ximo de linhas ou colunas
linearmente independentes (LI), ou seja, posto(A)≤ min(n, p).
17
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplos:
A =

3 0 1 −2
1 3 1 0
4 3 4 5
 , posto(A) = 3,
todas as linhas, de A sa˜o LI.
B =

4 1 −3
−1 4 5
2 2 0
 , posto(B) = 2,
a primeira coluna de B e´ combinac¸a˜o linear das demais.
Notas:
1) Uma matriz An×p e´ dita ser de posto completo se o seu posto for igual a min(n, p),
2) Nos exemplos acima, a matriz A e´ de posto completo, enquanto que, a matriz B na˜o e´ de posto
completo.
2.3.3 Trac¸oSeja uma matriz quadrada Ak×k, enta˜o o trac¸o de A, denotado por tr(A), e´ dado pela soma
dos elementos de sua diagonal principal
tr(A) =
k∑
i=1
aii.
Exemplos:
A =

3 0 1
1 3 1
4 3 4
 , tr(A) = 3 + 3 + 4 = 10.
B =

4 1 −3
−1 4 5
2 2 0
 , tr(B) = 8.
Resultados
a) tr(cA) = c tr(A), d) tr(B−1 A B) = tr(A)
b) tr(A±B) = tr(A) ± tr(B), e) tr(At A) = tr(A At) =
k∑
i=1
k∑
j=1
a2ij
c) tr(A B) = tr(B A),
18
Matrizes Teoria de Matrizes para Estat´ıstica
2.4 Autovalores e autovetores
Considere a matriz A e os vetores u e v:
A =
[
3 −2
1 0
]
u =
[
−1
1
]
v =
[
2
1
]
Enta˜o, as transformac¸o˜es operadas por A resultam em
A u =
[
3 −2
1 0
] [
−1
1
]
=
[
−5
−1
]
A v =
[
3 −2
1 0
] [
2
1
]
=
[
4
2
]
= 2 v
Tomando como foco as transformac¸o˜es lineares do tipo
A x = λ x, com λ constante,
temos transformac¸o˜es nas quais o vetor x tem seu tamanho expandido ou diminuido.
Representando as transformac¸o˜es graficamente temos:
Figura 2.1: Transformac¸o˜es do tipo Ax.
19
Matrizes Teoria de Matrizes para Estat´ıstica
Por exemplo, A =

1 1
1 2
1 −1
 aplicada no vetor x =
[
x1
x2
]
resulta em A x =

x1 + x2
x1 + 2x2
x1 − x2
Definic¸a˜o 2.2. Autovetor
Um autovetor de uma matriz Ak×k e´ um vetor x, na˜o nulo, tal que A x = λx, para algum
escalar λ �
Definic¸a˜o 2.3. Autovalor
Um escalar λ e´ chamado de autovalor de A se existe soluc¸a˜o na˜o trivial x para A x = λx �
Considere a transformac¸a˜o A x = λ x, enta˜o, podemos escrever A x = λ Ix. Logo, uma forma
de encontrar os autovalores de A e´ resolver o sistema
A x− λ I x = (A− λ I) x = 0. (2.3)
O sistema (2.3) tem soluc¸a˜o na˜o trivial se, e somente se, a matriz A−λI for singular, enta˜o, os
autovalores de A sa˜o soluc¸o˜es da equac¸a˜o
|A− λ I| = 0. (2.4)
Teorema 2.4. Seja uma matriz Ak×k e λ um escalar, enta˜o, as seguintes afirmac¸o˜es sa˜o equiva-
lentes:
a) λ e´ um autovalor de A.
b) λ e´ soluc¸a˜o de |A− λ I| = 0.
c) o sistema (A− λ I) x = 0 tem soluc¸o˜es na˜o triviais.
Notas:
1) A equac¸a˜o polinomial |A x− λ I| = 0 e´ chamada func¸a˜o caracter´ıstica de A;
1) Os valores λ e x e sa˜o chamados autovalor e autovetor associados;
2) Normalmente, os autovetores sa˜o dados na forma padronizada e, tal que ete = 1, em que
ete = x‖x‖ =
x√
xtx
.
20
Matrizes Teoria de Matrizes para Estat´ıstica
Resultado: Seja Ak×k uma matriz quadrada; como o polinoˆmio (2.4) e´ de grau k, enta˜o
existem k autovalores λ1, λ2, . . . , λk que satisfazem a equac¸a˜o polinomial |A− λ I| = 0. Assim
sendo, existem k autovetores e1, e2, . . . , ek associados.
Exemplos:
i) Seja a matriz:
A =
[
1 0
1 3
]
, enta˜o
|A− λ I| =
∣∣∣∣∣ (1− λ) 01 (3− λ)
∣∣∣∣∣ = (1− λ) (3− λ) = 0
3− 4λ+ λ2 = 0
λ1 =
4 +
√
16− 12
2 = 3 e λ2 =
4−√16− 12
2 = 1
Portanto, os autovalores de A sa˜o λ1 = 3 e λ2 = 1.
Para encontrar os autovetores associados devemos fazer:
• Autovetor e1 associado ao autovalor λ1 = 3:
A x1 = λ1 x1
[
1 0
1 3
] [
x11
x12
]
= 3
[
x11
x12
]
{
x11 = 3x11
x11 + 3x12 = 3x12
Do sistema acima temos que x11 = 0 e x12 pode ser um valor arbitra´rio, o qual sera´
considerado igual a 1. O primeiro autovetor e´, portanto, x1t = (0, 1).
Padronizando o autovetor x1 temos
e1 =
x1√
x1tx1
=
[
0
1
]
.
21
Matrizes Teoria de Matrizes para Estat´ıstica
• Autovetor e2 associado ao autovalor λ2 = 1:
A x2 = λ2 x2
[
1 0
1 3
] [
x21
x22
]
=
[
x21
x22
]
{
x21 = x21
x21 + 3x22 = x22
Da segunda equac¸a˜o temos x21 = −2x22. Tomando x22 = 1, enta˜o x21 fica igual a
x21 = −2 e o segundo autovetor e´, portanto, x2t = (−2, 1).
Padronizando o autovetor x2 temos
e2 =
x2√
x2tx2
= 1√
5
[
−2
1
]
=
[
−2/√5
1/
√
5
]
.
ii) Outro exemplo:
A =
[
3 4
1 6
]
, enta˜o
∣∣∣∣∣ (3− λ) 41 (6− λ)
∣∣∣∣∣ = 14− 9λ+ λ2 = 0
λ1 = 7
λ2 = 2
• Autovetor e1 associado ao autovalor λ1 = 7:{
3x11 + 4x12 = 7x11
x11 + 6x12 = 7x12
Do sistema acima temos que x11 = x12, portando, x1t = (1, 1) e,
e1 =
[
1/
√
2
1/
√
2
]
.
• Autovetor e2 associado ao autovalor λ2 = 2:{
3x21 + 4x22 = 2x21
x21 + 6x22 = 2x22
Do sistema acima temos que x21 = −4x22, portando, x2t = (1,−1/4) e,
e2 =
[
4/
√
17
−1/√17
]
.
Resultados:
22
Matrizes Teoria de Matrizes para Estat´ıstica
a) Seja Ap×p com autovalores λ1, λ2, . . . , λp, enta˜o, os autovalores de AtA e AAt, denotados
por δ1, δ2, . . . , δp, sera˜o os mesmos e
p∏
i=1
λ2i =
p∏
i=1
δi;
b) Se, ale´m disso, A for sime´trica, com autovetores v1,v2, . . . ,vp, AtA e AAt tera˜o
autovalores δ1 = λ21, δ2 = λ22, . . . , δp = λ2p e mesmos autovetores;
c) Os autovalores δ1, δ2, . . . , δp de AtA e AAt recebem o nome de valores singulares.
2.5 Matriz dos cofatores e matriz adjunta
i) Matriz dos Cofatores: Seja uma matriz quadrada Ap×p. Considere |Aij | como sendo o
determinante da submatriz resultante ao se retirar a i-e´sima linha e j-e´sima coluna de A,
i, j = 1, 2, . . . , p. Enta˜o a quantidade
Cij = (−1)i+j |Aij | ,
e´ definida como cofator do elemento aij .
A matriz que se obte´m substituindo-se cada termo ai,j de A pelo seu respectivo cofator e´
chamada matriz dos cofatores de A e sera´ denotada por cof(A).
cof(A) =

C11 C12 · · · C1p
C21 C22 · · · C2p
...
...
. . .
...
Cp1 Cp2 · · · Cpp

Casos especiais:
Matriz 2×2:
cof (A) =
[
a22 −a21
−a12 a11
]
.
23
Matrizes Teoria de Matrizes para Estat´ıstica
Matriz 3×3:
cof (A) =

∣∣∣∣∣ a22 a23a32 a33
∣∣∣∣∣ −
∣∣∣∣∣ a21 a23a31 a33
∣∣∣∣∣
∣∣∣∣∣ a21 a22a31 a32
∣∣∣∣∣
−
∣∣∣∣∣ a12 a13a31 a33
∣∣∣∣∣
∣∣∣∣∣ a11 a13a31 a33
∣∣∣∣∣ −
∣∣∣∣∣ a11 a12a31 a32
∣∣∣∣∣
∣∣∣∣∣ a11 a13a22 a23
∣∣∣∣∣ −
∣∣∣∣∣ a11 a13a21 a23
∣∣∣∣∣
∣∣∣∣∣ a12 a12a21 a22
∣∣∣∣∣

.
Exemplos:
a) Matriz 2×2:
A =
[
1 3
6 4
]
, cof(A) =
[
4 −6
−3 1
]
.
b) Matriz 3×3:
A =

3 0 1
1 2 1
3 −3 4
 .
C11 = (−1)(1+1)
∣∣∣∣∣ 2 1−3 4
∣∣∣∣∣ = 11, C12 = (−1)(1+2)
∣∣∣∣∣ 1 13 4
∣∣∣∣∣ = −1
C13 = (−1)(1+3)
∣∣∣∣∣ 1 23 −3
∣∣∣∣∣ = −9.
Ainda, C21 = −3, C22 = 9, C23 = 9, C31 = −2, C32 = −2 e C33 = 6, logo
cof(A) =

11 −1 −9
−3 9 9
−2 −2 6

ii) Matriz Adjunta: A matriz adjunta de uma matriz quadrada, denotada por adj(A), e´ a
transposta da matriz dos cofatores.
Caso especial: Matriz 2×2:
adj (A) =
[
a22 −a12
−a21 a11
]
.
Exemplos:
24
Matrizes Teoria de Matrizes para Estat´ıstica
a) Matriz 2×2:
A =
[
1 3
6 4
]
, adj(A) =
[
4 −3
−6 1
]
.
b) Matriz 3×3:
A =

3 0 1
1 2 1
3 −3 4
 , adj(A) =

11 −3 −2
−1 9 −2
−9 9 6

2.6 Matriz inversa
A inversa de uma matriz quadrada A, denotada por A−1, e´ tal que: A A−1 = A−1A = I.
Pode-se encontrar a inversa de uma matriz de uma maneira ra´pida por meio da relac¸a˜o com
sua matriz adjunta
A−1 = 1|A|adj (A) ,
em que |A| e´ o determinante da matriz A.
Caso especial: a inversa de uma matriz 2×2 e´ dada por
A =
[
a11 a12
a21 a22
]
, A−1 = 1|A|
[
a22 −a12
−a21 a11
]
.
Exemplo:
A =
[
1 3
6 4
]
, A−1 = − 114
[
4 −3
−1 2
]
.
O procedimento acima, apesar de simples, na˜o e´ pra´tico quando se tem matrizes com dimenso˜es
muito grandes. O me´todo da diagonalizac¸a˜o (ou pivoteamento), mais pra´tico, e´ mais indicado
messes casos.
O me´todo do pivoteamento consiste em se colocar a matriz A ou lado da matriz identidade I, de
mesma dimensa˜o, formando uma matriz estendida
[
A I
]
. Por meio de operac¸o˜es elementares
aplicadas naslinhas de
[
A I
]
, efetuar a diagonalizac¸a˜o de A transformando-a numa matriz
identidade (as mesmas transformac¸o˜es devem ser aplicadas em I).
Apo´s a finalizac¸a˜o do processo, tem-se a` esquerda uma matriz identidade e a` direita a matriz
inversa de A, ou seja,
[
I A−1
]
.
Exemplo: Encontrar a matriz inversa de A pelo me´todo do pivoteamento.
25
Matrizes Teoria de Matrizes para Estat´ıstica
A =

1 2 −1 1
2 2 0 3
0 −3 2 1
−3 0 −1 −4
 .
a) Montar a matriz estendida
[
A I
]
:

1 2 −1 1 1 0 0 0
2 2 0 3 0 1 0 0
0 −3 2 1 0 0 1 0
−3 0 −1 −4 0 0 0 1

b) Multiplicar a primeira linha por (−2) e somar a` segunda linha e multiplicar a primeira linha
por (3) e somar a` quarta linha:
1 2 −1 1 1 0 0 0
0 −2 2 1 −2 1 0 0
0 −3 2 1 0 0 1 0
0 6 −4 −1 3 0 0 1

26
Matrizes Teoria de Matrizes para Estat´ıstica
c) Dividir a segunda linha por (−2). Na sequeˆncia, multiplicar a segunda linha por (3) e somar
a` terceira linha e multiplicar a segunda linha por (−6) e somar a` quarta linha:
1 2 −1 1 1 0 0 0
0 1 −1 −1/2 1 −1/2 0 0
0 0 −1 −1/2 3 −3/2 1 0
0 0 2 2 −3 3 0 1

d) Multiplicar a terceira linha por (−1). Na sequeˆncia, multiplicar a terceira linha por (−2) e
somar a` quarta linha: 
1 2 −1 1 1 0 0 0
0 1 −1 −1/2 1 −1/2 0 0
0 0 1 1/2 −3 3/2 −1 0
0 0 0 1 3 0 2 1

d) Multiplicar a quarta linha por (−1/2) e somar a` terceira linha; multiplicar a quarta linha por
(1/2) e somar a` segunda linha e multiplicar a quarta linha por (−1) e somar a` primeira linha:
1 2 −1 0 −2 0 −2 −1
0 1 −1 0 5/2 −1/2 1 1/2
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1

e) Multiplicar a terceira linha por (1) e somar a`s segunda e primeira linhas:
1 2 0 0 −13/2 3/2 −4 −3/2
0 1 0 0 −2 1 −1 0
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1

f) Multiplicar a segunda linha por (−2) e somar a` primeira linha, com o pivoteamento completo:
1 0 0 0 −5/2 −1/2 −2 −3/2
0 1 0 0 −2 1 −1 0
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1
 .
Portanto, a inversa de A e´:
A−1 =

−5/2 −1/2 −2 −3/2
−2 1 −1 0
−9/2 3/2 −2 −1/2
3 0 2 1
 .
27
Matrizes Teoria de Matrizes para Estat´ıstica
Resultados
(as matrizes A, B e C sa˜o tais que as inversas existam e os produtos sejam definidos)
a) (A−1)t = (At)−1;
b) (A B)−1 = B−1A−1;
c) (kA)−1 = (1/k)A−1;
d) Se existe a inversa A−1 de uma matriz A, enta˜o A−1 e´ u´nica.
2.7 Matriz na˜o singular
Uma matriz quadrada Ak×k e´ na˜o singular se:
A x = 0 =⇒ x = 0.
Notas:
1) Note que A x = a1x1 + a2x2 + . . .+ akxk, onde ai e´ a i-e´sima coluna de A, i = 1, 2, . . . , k.
Portanto, uma matriz Ak×k e´ na˜o singular se as suas colunas forem linearmente independentes,
2) Uma matriz quadrada e´ de posto completo se, e so´ se, ela e´ na˜o singular,
3) Se Ak×k e´ na˜o singular, enta˜o existe uma u´nica matriz inversa A−1,
4) Se Ak×k e´ na˜o singular, enta˜o |A| = 1/|A−1|, isto e´ |A|·|A−1| = 1,
5) Para uma matriz Ak×k na˜o singular, os resultados a seguir sa˜o equivalentes
• A x = 0 ⇒ x = 0,
• |A| 6= 0,
• Existe A−1 tal que, A−1A = I.
2.8 Matriz ortogonal
Uma matriz quadrada e´ dita ser ortogonal se P−1 = Pt, ou seja, uma matriz Pk×k e dita
ser ortogonal se suas colunas, consideradas como vetores, sa˜o mutuamente perpendiculares e de
comprimento 1, o que equivale a dizer que P Pt = I.
Exemplo:
P =

−1/2 1/2 1/2 1/2
1/2 −1/2 1/2 1/2
1/2 1/2 −1/2 1/2
1/2 1/2 1/2 −1/2
 , enta˜o P Pt = I.
Nota: Uma matriz P e´ ortogonal, se e somente se, Pt = P−1.
Propriedades:
a) Sejam pij , i, j = 1, 2, . . . , k, elementos de uma matriz ortogonal P, enta˜o, −1 ≤ pij ≤ 1;
b) Se P e´ ortogonal =⇒ P e´ na˜o singular;
28
Matrizes Teoria de Matrizes para Estat´ıstica
c) det(P) = ± 1;
d) Sejam P1, P2, . . ., Pk ortogonais, enta˜o o produto P1·P2· . . . ·Pk e´ uma matriz ortogonal;
Teorema 2.5. Seja uma matriz quadrada A, e uma matriz orotogonal P, enta˜o:
det(A) = det(PtAP) �
Teorema 2.6. Seja uma matriz quadrada A, enta˜o existe P ortogonal, tal que PtAP = D, D
diagonal, se, e so´ se, A e´ sime´trica �
Exemplo:
A =
[
1 0
4 1
]
det(A) = 1
P =

1√
2
− 1√
2
1√
2
1√
2

PtAP =
[
3 −2
2 −1
]
det(PtAP) = 1
2.9 Matriz definida positiva
Considere o produto xtA x. Como temos apenas termos quadra´ticos x2i e termos cruzados xixj ,
xtA x recebe o nome de forma quadra´tica.
Se uma matriz Ak×k, simetrica, e´ tal que
xtA x > 0, ∀ x na˜o nulo,
enta˜o, dizemos que A e´ uma matriz definida positiva.
Nota: Se uma matriz Ak×k e´ definida positiva, enta˜o os seus autovalores sa˜o todos positivos, isto
e´ λi > 0, ∀ i = 1, 2, . . . , k.
Exemplo: Considere a forma quadra´tica 6x21 + 4x1x2 + 3x22, enta˜o
xtA x =
[
x1 x2
] [ 6 2
2 3
] [
x1
x2
]
.
Como 6x21 + 4x1x2 + 3x22 > 0, ∀ x 6= 0, enta˜o, A =
[
6 2
2 3
]
e´ definida positiva.
Notas:
1) Se xtA x ≥ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida positiva,
2) Se xtA x < 0, ∀ x na˜o nulo, enta˜o A e´ definida negativa,
3) Se xtA x ≤ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida negativa.
29
Matrizes Teoria de Matrizes para Estat´ıstica
2.10 Operac¸o˜es elementares
Operac¸o˜es elementares sa˜o transformac¸o˜es aplicadas nas linhas e colunas de uma matriz, po-
dendo ser do tipo:
i) troca de 2 linhas (ou colunas);
ii) multiplicac¸a˜o de uma linha (ou coluna) por um esclar;
iii) combinac¸o˜es lineares de linhas (ou colunas).
As operac¸o˜es elementares podem ser representadas por meio de matrizes que recebem o nome
de matrizes elementares. Por exemplo, considere o operador
P =

1 0 0
4 1 0
0 0 1
 .
Operando numa matriz A3×k, tem como resultado PA que preserva as linhas 1 e 3 e a segunda
linha dada por 4 vezes a linha 1 mais a linha 2.
Exemplo:
PA =

1 0 0
4 1 0
0 0 1


1 3 2 −2
4 2 −3 1
6 1 8 3
 =

1 3 2 −2
8 14 5 −7
6 1 8 3
 .
Resultados:
a) o posto de uma matriz na˜o e´ alterado pela aplicac¸a˜o de operac¸o˜es elementares;
b) duas matrizes de mesmo posto e dimenso˜es sa˜o ditas serem equivalentes;
c) duas matrizes equivalentes podem ser transformadas uma na outra por meio de operac¸o˜es
elementares
Sejam matrizes na˜o singulares P e Q, enta˜o, para alguma matriz A, os produtos PA, AQ e
PAQ teˆm todas o mesmo posto.
2.11 Matrizes similares
Sejam A e B quadradas de mesmas dimenso˜es, se existe Q na˜o singular, tal que:
B = Q−1AQ,
enta˜o A e B sa˜o chamadas de similares e a transformac¸a˜o Q−1AQ e´ chamada transformac¸a˜o
similar.
30
Matrizes Teoria de Matrizes para Estat´ıstica
Resultados:
i) Os determinantes de matrizes similares sa˜o iguais; no caso, |A| = |B|;
ii) Matrizes similares teˆm mesmos autovalores.
Exemplo 2.1. Sejam
A =
[
0.4 0.6
0.2 0.8
]
e Q =
[
1 1
1 −3
]
.
Enta˜o:
B =
[
3/4 1/4
1/4 1/4
] [
0.4 0.6
0.2 0.8
] [
1 1
1 −3
]
=
[
1 −1.6
0 0.2
]
.
Neste caso, |A| = 0.2 = |B|.
Resultado: Seja Ak×k, enta˜o existe uma matriz Q tal que Q−1AQ = T, em que T e´ triangular
superior e os autovalores de A sera˜o a diagonal de T.
Teorema 2.7. Se Ak×k e´ sime´trica, enta˜o, seus autovalores sera˜o reais.
Teorema 2.8. Se Ak×k e´ sime´trica, enta˜o, para dois autovalores λi e λj , i 6= j, teremos autovetores
associados xi e xj e
xti xj = 0,
ou seja, xi e xj sa˜o ortogonais.
Teorema 2.9. Se Ak×k e´ sime´trica, enta˜o existe uma matriz P tal que
PtAP = Λ,
em que Λ e´ diagonal com os autovalores de A.
Exemplo 2.2. Seja
A =
[
16 4
4 10
]
.
Seus autovalores sa˜o λ1 = 18 e λ2 = 8, com autovetores associados:
e1 =
[
2/
√
5
1/
√
5
]
e e1 =
[
1/
√
5
−2/√5
]
,
logo,P=
[
2/
√
5 1/
√
5
1/
√
5 −2/√5
]
Enta˜o: [
2/
√
5 1/
√
5
1/
√
5 −2/√5
] [
16 4
4 10
] [
2/
√
5 1/
√
5
1/
√
5 −2/√5
]
=
[
18 0
0 8
]
= Λ.
31
3
Matrizes particionadas
Uma matriz particionada e´ uma matriz cujo conteu´do e´ subdividido em submatrizes, ou blocos.
Por exemplo, seja Am×n na˜o singular, enta˜o, a matriz A particionada em blocos 2 × 2 e´ definida
por:
A =

A11 A12
m1 × n1 m1 × n2
A21 A22
m2 × n1 m2 × n2
 ,
em que: m1 +m2 = m e n1 + n2 = n.
O caso geral da partic¸a˜o em blocos `× c e´ dado por:
A =

A11 A12 . . . A1c
A21 A22 . . . A2c
...
...
. . .
...
A`1 A`2 . . . A`c
 ,
sendo Aij de dimenso˜es mi × nj , i = 1, 2, . . . , ` e j = 1, 2, . . . , c, tal que
∑`
i=1
mi = m e
c∑
j=1
ni = n.
Nota 3.1. i) A partic¸a˜o pode ser quadrada, como e´ o caso 2×2, mas os blocos Aij , i = 1, 2, . . . , `
e j = 1, 2, . . . , c, na˜o sa˜o necessariamente quadrados;
Nota 3.2. ii) Neste material vamos considerar apenas as partic¸o˜es em blocos 2× 2.
32
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
3.1 Casos especiais
a) Bloco triangulares inferior (L) e superior (U):
L =
[
A11 0
A21 A22
]
,
U =
[
A11 A12
0 A22
]
.
b) Bloco diagonal:
D =
[
A11 0
0 A22
]
,
c) Sime´trica:
A =
[
A11 A12
At12 A22
]
,
com A11 e A22 sime´tricas.
d) Transposta:
At =
[
At11 At21
At12 At22
]
.
3.2 Operac¸o˜es com matrizes particionadas
a) Trac¸o: seja A particionada em blocos 2× 2, enta˜o o trac¸o de A pode ser escrito por
traço(A) = traço(A11) + traço(A22).
b) Soma: Sejam A e B com mesmas dimenso˜es, particionadas em blocos 2 × 2, tais que seus
blocos equivalentes tambe´m teˆm mesmas dimenso˜es, enta˜o:
A + B =
[
A11 + B11 A12 + B12
A21 + B21 A22 + B22
]
.
b) Produto: Sejam Am×n e Bn×k, cujas partic¸o˜es teˆm dimenso˜es compat´ıveis para o produto,
33
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
ou seja, A e B sa˜o do tipo:
Am×n =

A11 A12
m1 × n1 m1 × n2
A21 A22
m2 × n1 m2 × n2
 e Bm×n =

B11 B12
n1 × k1 n1 × k2
B21 B22
n2 × k1 n2 × k2
 ,
em que: m1 + m2 = m, n1 + n2 = n e k1 + k2 = k, enta˜o o produto entre A e B e´ definido
por:
Cm×k = AB =
[
A11B11 + A12B21 A11B12 + A12B22
A21B11 + A22B21 A21B12 + A22B22
]
Cm×k =

C11 C12
m1 × k1 m1 × k2
C21 C22
m2 × k1 m2 × k2
 .
Exemplo 3.1. Sejam duas matrizes A e B, tais que:
A5×5 =

1 2 4 2 1
−1 3 0 −3 1
2 −2 1 0 −1
2 1 3 1 0
−2 0 1 1 −1

,
B5×6 =

−1 0 3 4 3 0
3 1 1 −3 2 0
0 3 1 0 −1 1
−1 −1 0 −2 −1 −1
1 3 3 2 1 2

.
Fazendo os produtos parciais, temos:
A11B11 + A12B21 =

4 15
14 9
−9 −2
 ,
34
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
A11B12 + A12B22 =

12 −4 2 4
3 −5 7 5
2 12 0 −1
 ,
A21B11 + A22B21 =
[
0 9
0 −1
]
,
A21B12 + A22B22 =
[
10 3 4 2
−8 −12 −9 −2
]
.
Portanto, o produto AB e´ dado por:
AB5×6 =

4 15 12 −4 2 4
14 9 3 −5 7 5
−9 −2 2 12 0 −1
0 9 10 3 4 2
0 −1 −8 −12 −9 −2

�
3.3 Decomposic¸a˜o LDU
A decomposic¸a˜o LDU trata-se de um processo de diagonalizac¸a˜o de uma matriz particionada,
em que:
� L e´ uma matriz bloco triangular inferior;
� D e´ uma matriz bloco diagonal;
� U e´ uma matriz bloco triangular superior.
Assim sendo, dada uma a matriz A na˜o singular, podemos escrever
A = L D U e D = L−1 A U−1.
Seja A dada por:
A =
[
A11 A12
A21 A22
]
.
i) Transformamos A numa matriz bloco triangular superior por meio da operac¸a˜o
[
I 0
−A21A−111 I
] [
A11 A12
A21 A22
]
=
[
A11 A12
0 F
]
, (3.1)
em que F = A22 −A21A−111 A12.
35
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
ii) De maneira semelhante, podemos transformar A numa matriz bloco triangular inferior fa-
zendo [
A11 A12
A21 A22
] [
I −A−111 A12
0 I
]
=
[
A11 0
A21 F
]
,
com F definido da mesma forma como no caso anterior.
iii) Combinando as duas operac¸o˜es anteriores, ou seja, pre-multiplicando a matriz A pela ma-
triz dada em (i) e po´s-multiplicando pela matriz em (ii), temos como resultado uma matriz
diagonal [
I 0
−A21A−111 I
] [
A11 A12
A21 A22
] [
I −A−111 A12
0 I
]
=
[
A11 0
0 F
]
.
E´ fa´cil mostrar que (fica como exerc´ıcio)
[
I 0
−A21A−111 I
]−1
=
[
I 0
A21A−111 I
]
= L,
e que
[
I −A−111 A12
0 I
]−1 [
I A−111 A12
0 I
]
= U.
Desta forma, a decomposic¸a˜o L D U de A e´ dada por:[
I 0
A21A−111 I
] [
A11 0
0 F
] [
I A−111 A12
0 I
]
= A.
Exemplo 3.2. Considere a matriz A particionada em blocos 2× 2
A5×5 =

1 1 2 1
1 2 0 2
3 0 2 1
1 3 1 −1
 .
36
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
Desta forma, temos
A11 =
[
1 1
1 2
]
e |A11| = 1,
A22 =
[
2 1
1 −1
]
e |A22| = −3,
cujas inversas sa˜o dadas por:
A−111 =
[
1 1
1 2
]
,
A−122 =
1
3
[
2 1
1 −1
]
.
A matriz F, definida em (3.1), e´ dada por
F = A22 −A21A−111 A12
=
[
−10 1
3 −4
]
.
Das relac¸o˜es acima, temos, ainda, que
A21A−111 =
[
6 −3
−1 2
]
,
A−111 A12 =
[
4 0
−2 1
]
.
Portando, as matrizes L, U e D da decomposic¸a˜o LDU de A sa˜o dadas por
L =

1 0 0 0
0 1 0 0
6 3 1 0
−1 2 0 1
 ,
37
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
U =

1 0 4 0
0 1 −2 1
0 0 1 0
0 0 0 1
 ,
D =

1 1 0 0
1 2 0 0
0 0 −10 1
0 0 3 4
 �
3.4 Rank, ou posto, de matrizes particionadas
Seja a matriz A particionada em blocos 2× 2, enta˜o,
a) se A11 na˜o e´ singular, rank(A) = rank(A11) + rank(F);
b) se A22 na˜o e´ singular, rank(A) = rank(A22) + rank(G),
em que
F = A22 −A21A
−1
11 A12
G = A11 −A12A−122 A21
Prova item (a): Se duas matrizes L e U na˜o sa˜o singulares enta˜o das sec¸o˜es (2.10) e (3.3)
segue-se que:
rank(A) = rank(D) = rank(A11) + rank(F)
.
A prova do item (b) segue reacioc´ınio semelhante, com a diagonalizac¸a˜o da decomposic¸a˜o LDU
partindo de A22 como pivoˆ.
3.5 Determinante de matrizes particionadas
Resultado: Considere uma matriz A particionada em blocos 2 × 2 em que A11 e A22 sejam
quadradas. Se A for bloco triangular superior, bloco triangular inferior ou bloco diagonal, ou seja,
A =
[
A11 A12
0 A22
]
, A =
[
A11 0
A21 A22
]
ou A =
[
A11 0
0 A22
]
.
38
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
enta˜o, segue-se que
|A| = |A11| · |A22|.
Seja A =
[
A11 A12
A21 A22
]
, enta˜o |A| = |A11| · |A22 −A21A−111 A12|, ou seja,
det(A) = det(A11) · det(F).
Prova: Podemos provar a relac¸a˜o acima a partir da diagonalizac¸a˜o de A, pore´m, vamos fazer
a demonstrac¸a˜o usando uma proposic¸a˜o diferente. Seja a matriz C dada por
C =
[
A−111 −A−111 A12
0 I
]
,
enta˜o, segue-se que |C| = |A−111 | · |I| = |A−111 |.
Como podemos escrever |A| = |A11| · |A| · |A−111 |, logo
|A| = |A11| ·
∣∣∣∣∣ A11 A12A21 A22
∣∣∣∣∣ ·
∣∣∣∣∣ A−111 −A−111 A120 I
∣∣∣∣∣
|A| = |A11| ·
∣∣∣∣∣
[
A11 A12
A21 A22
]
·
[
A−111 −A−111 A12
0 I
]∣∣∣∣∣
|A| = |A11| ·
∣∣∣∣∣ I 0A21A−111 A22 −A21A−111 A12
∣∣∣∣∣
|A| = |A11| ·
∣∣∣A22 −A21A−111 A12∣∣∣ �
Exemplo 3.3. Considere a matriz do Exemplo (3.2). Como
A11 =
[
1 1
1 2
]
e F =
[
−10 1
3 −4
]
,
39
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
enta˜o, o determinante da matriz A e´ dado por:
|A| =
∣∣∣∣∣ 1 11 2
∣∣∣∣∣ ·∣∣∣∣∣ −10 13 −4
∣∣∣∣∣ = (1) · (37) = 37.
Nota 3.3. Com um racioc´ınio semelhante, mostra-se que |A| = |A22| · |A11−A12A−122 A21|, ou seja,
det(A) = det(A22) · det(G).
3.6 A inversa de uma matriz particionada
Seja |A11| 6= 0 e |A22| 6= 0, os resultados a seguir sa˜o va´lidos.
i) A−111 e A−122 existem;
ii)
(
A11 −A12A−122 A21
)−1
e
(
A22 −A21A−111 A12
)−1
existem;
iii) Com isso, A−1 pode ser escrita como:
A−1 =

(
A11 −A12A−122 A21
)−1 −A−111 A12 (A22 −A21A−111 A12)−1
−A−122 A21
(
A11 −A12A−122 A21
)−1 (
A22 −A21A−111 A12
)−1
 . (3.2)
Prova: Considere a matriz B, inversa de A, isto e´ AB = I, enta˜o, B11 e B22 na˜o sa˜o singulares.
Desta forma, temos que
AB =
[
A11B11 + A12B21 A11B12 + A12B22
A21B11 + A22B21 A21B12 + A22B22
]
=
[
I 0
0 I
]
.
Logo, temos as seguintes relac¸o˜es entre as partes de A e as submatrizes B11 e B21A11B11 + A12B21 = IA21B11 + A22B21 = 0
40
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
Isolando B21 na segunda equac¸a˜o, temos
A21B11 + A22B21 = 0
A22B21 = −A21B11
B21 = −A−122 A21B11
Asim, podemos obter B11 substituindo B21 na primeira equac¸a˜o, ou seja,
A11B11 −A12(A−122 A21B11) = I
(A11 −A12A−122 A21)B11 = I
B11 = (A11 −A12A−122 A21)−1
B11 = G−1
Com isso B21 e´ dado por:
B21 = −A−122 A21(A11 −A12A−122 A21)−1
B21 = −A−122 A21G−1
De maneira ana´loga podemos calcular B12 e B22 a partir deA11B12 + A12B22 = 0A21B12 + A22B22 = I
De onde obtemos:{
B22 = (A22 −A21A−111 A12)−1
B22 = F−1
e
{
B12 = −A−111 A12(A22 −A21A−111 A12)−1
B12 = −A−111 A12F−1
Portanto, com as submatrizes B11, B12, B21 e B22 obtemos a inversa de A como em (3.2) �
41
4
Decomposic¸a˜o de matrizes
4.1 Decomposic¸a˜o espectral
Seja a matriz Ak×k, sime´trica, enta˜o A pode escrita por:
A =
k∑
i=1
λi ei eti.
Exemplo:
A =
[
2.2 0.4
0.4 2.8
]
, enta˜o
λ1 = 3, e1 =

1√
5
2√
5
 ;
λ2 = 2, e2 =

2√
5−1√
5
 .
Logo,
A = 3
[
1/
√
5
2/
√
5
] [ 1√
5
,
2√
5
]
+ 2
[
2/
√
5
−1/√5
] [ 2√
5
,
−1√
5
]
A =
[
3/5 6/5
6/5 12/5
]
+
[
8/5 −4/5
−4/5 2/5
]
A =
[
2.2 0.4
0.4 2.8
]
.
Vamos definir uma matriz U, ortogonal, cujas colunas sa˜o formadas pelos autovetores e1, e2,
42
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
. . ., ek e, da mesma forma, uma matriz ortogonal V, tal que V = Ut, ou seja
U =
[
e1 | e2 | . . . | ek
]
, e
V = Ut =

et1
et2
...
etk
 .
Definindo, ainda, uma matriz diagonal formada pelos autovalores λ1, λ2, . . ., λk, ou seja,
Λ =

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λk
 ,
podemos escrever
A = U Λ V ou A = U Λ Ut.
No caso 2×2, temos
U =
[
e1 | e2
]
e Λ =
[
λ1 0
0 λ2
]
.
Desta forma, uma matriz A2×2 pode ser representada por
A =
[
e1 | e2
] [ λ1 0
0 λ2
] [
et1
et2
]
A = λ1 e1 et1 + λ2 e2 et2.
Exemplo: No exemplo anterior temos
A =
[
2.2 0.4
0.4 2.8
]
, U =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
e Λ =
[
3 0
0 2
]
.
Casos especiais:
43
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
a) Matriz inversa: a inversa de uma matriz Ak×k, sime´trica, pode ser obtida fazendo
A−1 =
k∑
i=1
1
λi
ei eti,
ou ainda,
A−1 = U Λ−1Ut.
b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz Ak×k, definida positiva, e´
uma matriz tal que A1/2A1/2 = A, podendo ser obtida de
A1/2 =
k∑
i=1
√
λi ei eti,
ou, equivalentemente,
A1/2 = UΛ1/2Ut,
em que Λ1/2 e´ dada por
Λ1/2 =

√
λ1 0 · · · 0
0
√
λ2 · · · 0
...
...
. . .
...
0 0 · · ·
√
λk
 .
Outras relac¸o˜es envolvendo a matriz raiz quadrada sa˜o apresentadas a seguir:
• A−1/2 = (A1/2)−1 = UΛ−1/2Ut;
• A−1/2A−1/2 = A−1.
Exemplo: Considere a matriz A =
[
2.2 0.4
0.4 2.8
]
,
enta˜o, U =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
e Λ =
[
3 0
0 2
]
.
Desta forma, fazendo Λ1/2 =
[ √
3 0
0
√
2
]
, temos
A1/2 =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
] [ √
3 0
0
√
2
] [
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
A1/2 =

(
√
3 + 4
√
2)
5
(2
√
3− 2√2)
5
(2
√
3− 2√2)
5
(4
√
3 +
√
2)
5
 .
44
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
A matriz A1/2 e´ a matriz raiz quadrada de A sendo que, de fato
A1/2 A1/2 =

(
√
3 + 4
√
2)
5
(2
√
3− 2√2)
5
(2
√
3− 2√2)
5
(4
√
3 +
√
2)
5


(
√
3 + 4
√
2)
5
(2
√
3− 2√2)
5
(2
√
3− 2√2)
5
(4
√
3 +
√
2)
5
 =
[
2.2 0.4
0.4 2.8
]
= A.
Agora, fazendo Λ−1/2 =
[
1/
√
3 0
0 1/
√
2
]
, temos
A−1/2 =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
] [
1/
√
3 0
0 1/
√
2
] [
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
A−1/2 =

( 1
5
√
3
+ 4
5
√
2
) ( 2
5
√
3
− 2
5
√
2
)
( 2
5
√
3
− 2
5
√
2
) ( 4
5
√
3
+ 1
5
√
2
)
 ,
sendo assim, teremos
A−1/2 A−1/2 = 16
[
2.8 −0.2
−0.2 2.2
]
= A−1.
4.2 Decomposic¸a˜o em valores singulares
Seja a matriz Am×k uma matriz de valores reais. Existem matrizes Um×m e Vk×k, ortogonais,
tais que
A = UΣVt,
em que Λ e´ uma matriz do tipo
Σ =
[
Σr 0
0 0
]
m×k
, com r = posto de A,
e Σr e´ uma matriz diagonal com os r valores singulares de A.
A decomposic¸a˜o em valores singulares pode ser expressa numa relac¸a˜o matricial que depende
do posto da matriz.
Considere Am×k e seja r ≤ min(m, k), rank(A). Enta˜o, existem r constantes positivas, ou
valores singulares, σ1 =
√
λ1, σ2 =
√
λ2, . . . , σr =
√
λr, em que λi > 0, i = 1, 2, . . . , r sa˜o os r
autovalores positivos de AtA.
Existem, ainda, r autovetores v1,v2, . . . ,vr, de dimensa˜o k × 1 e r autovetores u1,u2, . . . ,ur,
45
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
de dimensa˜o m× 1, tal que
A =
r∑
i=1
σi ui vti = Ur Σr Vtr,
em que Ur = [u1 | u2 | · · · | ur] e Vr = [v1 | v2 | · · · | vr], sa˜o matrizes ortogonais e Σr e´ uma
matriz diagonal do tipo
Σr =

σ1 0 · · · 0
0 σ2 · · · 0
...
...
. . .
...
0 0 · · · σr
 .
Nessa situac¸a˜o, λ1 ≥ λ2 ≥ . . . ≥ λr > 0 e v1,v2, . . . ,vr, sa˜o os r primeiros pares de autovalores
e autovetores de AtA, obtidos de
AtA vi = λi vi,
em que λ1 > λ2 > . . . > λr > 0, sa˜o valores estritamente positivos.
Os autovetores ui, por sua vez, esta˜o associados aos autovetores vi, i = 1, 2, . . . , r, pela relac¸a˜o
ui =
1
σi
A vi.
Desta forma, a decomposic¸a˜o em valores singulares pode ser escrita pela expressa˜o
A = Ur Σr Vtr.
Nota 4.1. Notas
a) Alternativamente, ui, i = 1, 2, . . . , r, sa˜o os r autovetores associados aos mesmos autovalores
positivos λ1 ≥ λ2 ≥ . . . ≥ λr > 0 de A At, em que σi =
√
λi, i = 1, 2, . . . , r sa˜o os respectivos
valores singulares.
Os autovetores vi, por sua vez, esta˜o relacionados aos autovetores ui, i = 1, 2, . . . , r, pela
relac¸a˜o
vi =
1
σi
At ui.
b) Da decomposic¸a˜o em valores singulares temos, ainda, as seguintes relac¸o˜es:A vi = σi ui.At ui = σi vi.
46
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
c) Uma forma de representar a decomposic¸a˜o em valores singulares e´ atrave´s da decomposic¸a˜o
polar, em que a matriz Am×k pode ser representada por A = P Q, com P = U Σ Ut e
Q = U Vt. De fato,
A = U Σ Vt
= U Σ (Ut U) Vt
= (U Σ Ut) (U Vt)
= P Q.
Exemplo 4.1. Seja A =

1 1
0 1
1 0
, enta˜o, At A e´ dadapor
At A =
[
1 0 1
1 1 0
] 
1 1
0 1
1 0
 =
[
2 1
1 2
]
.
O posto de A e´ r = 2, assim, os dois autovalores diferentes de 0 de At A sa˜o λ1 = 3 e λ2 = 1.
Os autovetores associados sa˜o
v1 =
[
1/
√
2
1/
√
2
]
e v2 =
[
1/
√
2
−1/√2
]
respectivamente.
Os autovetores u1 e u2, por sua vez, sa˜o obtidos de
u1 =
1√
3

1 1
0 1
1 0

[
1/
√
2
1/
√
2
]
=

2/
√
6
1/
√
6
1/
√
6
 ,
u2 =
1√
1

1 1
0 1
1 0

[
1/
√
2
−1/√2
]
=

0
−1/√2
1/
√
2
 .
47
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Assim sendo, a matriz A pode ser escrita como
A = Ur Σr Vtr, ou seja,
A =

2/
√
6 0
1/
√
6 −1/√2
1/
√
6 1/
√
2

[ √
3 0
0 1
] [
1/
√
2 1/
√
2
1/
√
2 −1/√2
]
.
A =

1 1
0 1
1 0

A decomposic¸a˜o polar de A e´ expressa por:
P = U Σ Ut = 1√
12

4 2 2
2 (1 +
√
3) (1−√3)
2 (1−√3) (1 +√3)

Q = U Vt = 1√
12

2 2
(1−√3) (1 +√3)
(1 +
√
3) (1−√3)
 �
Exemplo 4.2. Seja A =

4 3
8 6
8 −9
, enta˜o, A At e´ dada por
A At =

4 3
8 6
8 −9

[
4 8 8
3 6 −9
]
=

25 50 5
50 100 10
5 10 145
 .
Os autovalores diferentes de 0 de A At sa˜o λ1 = 150 e λ2 = 120 com autovetores associados,
u1 =

−1/√30
−2/√30
−5/√30
 e u2 =

1/
√
6
2/
√
6
−1/√6

respectivamente.
48
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Os vetores v1 e v2, por sua vez, sa˜o obtidos de
v1 =
1√
150
[
4 8 8
3 6 −9
] 
−1/√30
−2/√30
−5/√30
 =
[
−2/√5
1/
√
5
]
,
v2 =
1√
120
[
4 8 8
3 6 −9
] 
1/
√
6
2/
√
6
−1/√6
 =
[
−1/√5
−2/√5 .
]
.
Assim sendo, a matriz A pode ser escrita como
A = U Λ Vt, ou seja,
A =

−1/√30 −1/√6
−2/√30 −2/√6
−5/√30 1/√6

[ √
150 0
0
√
120
] [
−2/√5 1/√5
−1/√5 −2/√5
]
.
A =

4 3
8 6
8 −9
 �
4.3 Decomposic¸a˜o LU
Seja a matriz An×n, a decomposic¸a˜o LU e´ uma fatorac¸a˜o do tipo A = LU, em que L e´ uma
matriz triangular inferior cujos elementos da diagonal sa˜o iguais a 1 e U uma matriz triangular
superior, ou seja
1 0 0 · · · 0
`21 1 0 · · · 0
`31 `32 1 · · · 0
...
...
...
. . .
...
`n1 `n2 `n3 · · · 1


u11 u12 u13 · · · u1n
0 u22 u23 · · · u2n
0 0 u33 · · · u3n
...
...
...
. . .
...
0 0 0 · · · unn

=

a11 a12 a13 · · · a1n
a21 a22 a23 · · · a2n
a31 a32 a33 · · · a3n
...
...
...
. . .
...
an1 an2 an3 · · · ann

.
(4.1)
Definic¸a˜o 4.1. Menores principais: Seja uma matriz quadrada An×n dada em (4.2), enta˜o, o
menor principal de A de ordem k, denotado por Ak, e´ dado pela submatriz formada pelas k
49
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
primeiras linhas e k primeiras colunas de A, ou seja,
Ak =

a11 a12 · · · a1k
a21 a22 · · · a2k
...
...
. . .
...
ak1 ak2 · · · akk
 , k = 1, 2, . . . , n.
Os menores principais de uma matriz assim definidos tambe´m sa˜o chamados de menores prin-
cipais l´ıderes, por serem formados pelas suas k primeiras linhas e k primeiras colunas.
Teorema 4.1. Seja uma matriz quadrada An×n e Ak seu menor principal de ordem k. Se |Ak| 6= 0,
∀ k ≤ n − 1, enta˜o, existe uma u´nica matriz triangular inferior L, cujos elementos da diagonal
sa˜o iguais a 1, e, uma u´nica matriz triangular superior U tal que A = LU.
Ale´m disso, |A| = u11 · u22 · · · unn.
Prova: A prova do teorema (4.1) e´ feita por induc¸a˜o.
4.3.1 Determinac¸a˜o das matrizes L e U
As matrizes U e L podem ser obtidas aplicando-se a eliminac¸a˜o Gaussiana (ou escalonamento)
em A, transformando-a na matriz triangular superior U. Nesse processo, os elementos da diagonal
de U sera˜o os pivoˆs de A.
Com as operac¸a˜o nas linhas de A para escalonar as suas colunas, os valores utilizados como mul-
tiplicadores, com os sinais trocados, devem ocupar suas posic¸o˜es respectivas numa matriz triangular
inferior que, no final do processo, sera´ a matriz L.
Neste processo e´ comum colocar a matriz identidade ao lado da matriz A, que sera´ escalonada.
Os multiplicadores (com os sinais trocados) sera˜o, enta˜o, alocados nas respetivas posic¸o˜es da matriz
identidade, abaixo da sua diagonal. No final do processo a matriz A sera´ transformada na matriz
triangular superior U e, a identidade, na matriz triangular inferior L.
O exemplo a seguir ilustra o processo descrito acima.
Exemplo: Considere a matriz A
A =

2 1 4 6
3 −2 5 0
−1 2 −3 4
2 2 −2 3
 .
50
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
a) Montar a matriz
[
I A
]
:

1 0 0 0 2 1 4 6
0 1 0 0 3 −2 5 0
0 0 1 0 −1 2 −3 4
0 0 0 1 2 2 −2 3

b) Multiplicar a primeira linha por (−3/2) e somar a` segunda linha;
multiplicar a primeira linha por (1/2) e somar a` terceira linha e
multiplicar a primeira linha por (−1) e soma a` quarta linha:
1 0 0 0 2 1 4 6
3/2 1 0 0 0 −7/2 −1 −9
−1/2 0 1 0 0 5/2 −1 7
1 0 0 1 0 1 −6 −3

c) Multiplicar a segunda linha por (5/7) e somar a` terceira linha e
multiplicar a segunda linha por (2/7) e somar a` quarta linha:
1 0 0 0 2 1 4 6
3/2 1 0 0 0 −7/2 −1 −9
−1/2 −5/7 1 0 0 0 −12/7 4/7
1 −2/7 0 1 0 0 −44/7 −39/7

d) Multiplicar terceira linha por (−11/3) e somar a` quarta linha:
1 0 0 0 2 1 4 6
3/2 1 0 0 0 −7/2 −1 −9
−1/2 −5/7 1 0 0 0 −12/7 4/7
1 −2/7 11/3 1 0 0 0 −23/3

Desta forma, temos:
1 0 0 0
3/2 1 0 0
−1/2 −5/7 1 0
1 −2/7 11/3 1


2 1 4 6
0 −7/2 −1 −9
0 0 −12/7 4/7
0 0 0 −23/3
 = A.
51
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
4.3.2 O algoritmo de Crout
As matrizes L e U podem ser obtidas pelo algoritmo de Crout, num processo com 2n−1 passos,
sendo que, as colunas de U e as linhas de L sa˜o determinadas alternadamente em cada um dos
passos (Figura 4.1).
Figura 4.1: Determinac¸a˜o das matrizes L e U
Seja A = LU, enta˜o:
1 0 0 · · · 0
`21 1 0 · · · 0
`31 `32 1 · · · 0
...
...
...
. . .
...
`n1 `n2 `n3 · · · 1


u11 u12 u13 · · · u1n
0 u22 u23 · · · u2n
0 0 u33 · · · u3n
...
...
...
. . .
...
0 0 0 · · · unn

= A.
i) 1o passo: do produto da 1a linha de L com as colunas de U, temos que
u11 = a11,
u12 = a12,
...
u1n = a1n,
⇒ u1j = a1j , j = 1, 2, . . . , n.
52
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
ii) 2o passo: do produto das linhas 2 a n, de L, com a 1a coluna de U, obtemos
`21u11 = a21 ⇒ `21 = a21
u11
,
`31u11 = a31 ⇒ `31 = a31
u11
,
...
...
...
`n1u11 = an1 ⇒ `n1 = an1
u11
,
⇒ `i1 = ai1
u11
i = 2, . . . , n.
iii) 3o passo: fazendo o produto da 2a linha de L com as colunas 2 a n de U, temos que
`21u12 + u22 = a22, ⇒ u22 = a22 − `21u12,
`21u12 + u23 = a23, ⇒ u23 = a23 − `21u13,
...
...
...
`21u1n + u2n = a2n, ⇒ u2n = a2n − `21u1n,
⇒ u2j = a2j − `21u1j , j = 2, . . . , n.
iv) 4o passo: do produto das linhas 3 a n, de L, com a 2a coluna de U, obtemos
`31u12 + `32u22 = a32 ⇒ `32 = a32 − `31a12
u22
,
`41u12 + `42u22 = a42 ⇒ `42 = a42 − `41a12
u22
,
...
...
...
`n1u12 + `n2u22 = an2 ⇒ `n2 = an2 − `n1a12
u22
,
⇒ `i2 = ai2 − `i1a12
u22
, i = 3, . . . , n.
item[iv)]E o processo deve continuar ate´ o passo 2n − 1, quando sera´ obtido o elemento unn
de U.
53
Decomposic¸a˜o de matrizes Teoria de Matrizespara Estat´ıstica
Desta forma, termos as seguintes fo´rmulas gerais para o processo de determinac¸a˜o de L e U:
u1j = a1j , j = 1, 2, . . . , n;
`ij =
aij −∑i−1k=1 `ikakj
ujj
, j = 1, 2, . . . , n; i > j;
uij = aij −
j−1∑
k=1
`ikukj , j = 2, 3, . . . , n; i ≤ j.
lembrando que o processo de determinac¸a˜o de `ij e uij deve ser alternado, para cada valor de j.
Exemplo 4.3. Considere a matriz
A =

2 1 4 6
3 −2 5 0
−1 2 −3 4
2 2 −2 3
 ,
do processo de determinac¸a˜o de L e U, temos:
i) 1o passo:
u11 = a11 = 2;
u12 = a12 = 1;
u13 = a13 = 4;
u14 = a14 = 6.
ii) 2o passo: 
`21u11 = 3 ⇒ `21 = a21
a11
= 32;
`31u11 = −1 ⇒ `31 = a31
a11
= −12;
`41u11 = 2 ⇒ `41 = a41
a11
= 1.
54
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
iii) 3o passo:

`21u12 + u22 = −2 ⇒ u22 = −2− `21a12 = −2− 32 = −
7
2;
`21u13 + u23 = 5 ⇒ u23 = 5− `21a13 = 5− 6 = −1;
`21u14 + u24 = 0 u24 = −`21a14 = −9.
iv) 4o passo:
`31u12 + `32u22 = 2
(
−12
)
(1) + `32
(
−72
)
= 2 ⇒ `32 =
(
−27
)(
2 + 12
)
= −57
`41u12 + `42u22 = 2
(1)(1) + `42
(
−72
)
= 2 ⇒ `42 =
(
−27
)
(2− 1) = −27
v) 5o passo:
`31u13 + `32u23 + u33 = −3
(
−12
)
(4) +
(
−57
)
(−1) + u33 = −3 ⇒ u33 = −3 + 2
(
−57
)
= −127
`31u14 + `32u24 + u34 = 4
(
−12
)
(6) +
(
−57
)
(−9) + u34 = 4 ⇒ u34 = 4 + 3
(
−457
)
= 47
vi) 6o passo:
`41u13 + `42u23 + `43u33 = −2
(1)(4) +
(
−27
)
(−1) + `43
(
−127
)
= −2 ⇒ `43 =
(
− 712
)(
−2− 307
)
= 113
55
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
vii) 7o passo:
`41u14 + `42u24 + `43u34 + u44 = 3
(1)(6) +
(
−27
)
(−9) +
(11
3
)(4
7
)
+ u44 = 3 ⇒ u44 = 3− 6− 187 −
44
21 = −
23
3
Desta forma, temos:
L =

1 0 0 0
3/2 1 0 0
−1/2 −5/7 1 0
1 −2/7 11/3 1
 e U =

2 1 4 6
0 −7/2 −1 −9
0 0 −12/7 4/7
0 0 0 −23/3
 .
E, ainda:
|A| = u11 · u22 · u33 · u44
|A| = (2) ·
(
−72
)
·
(
−127
)
·
(
−233
)
|A| = −92.
4.4 Decomposic¸a˜o de Cholesky
Seja a matriz An×n, sime´trica e definida positiva, nessa condic¸a˜o A pode fatorada na forma
A = GGt, em que G e´ uma matriz triangular inferior.

g11 0 · · · 0
g21 g22 · · · 0
...
...
. . .
...
gn1 gn2 · · · gnn


g11 g21 · · · gn1
0 g22 · · · gn2
...
...
. . .
...
0 0 · · · gnn
 =

a11 a12 · · · a1n
a21 a22 · · · a2n
...
...
. . .
...
an1 an2 · · · ann
 .
Observe que a fatorac¸a˜o de Cholesky e´ equivalente a` decomposic¸a˜o LU, em que U = Gt e
L = G, com a diagonal principal na˜o necessariamente formada por 1’s.
Da decomposic¸a˜o de Cholesky remos, ainda, que:
|A| = |G| |Gt| = (g11 · g22 · · · gnn)2 .
56
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Como para a decomposic¸a˜o de cholesky a matriz A deve ser definida positiva, a seguir vamos
apresentar a definic¸a˜o de matriz definida positiva e uma forma de verificac¸a˜o desta condic¸a˜o dada
pelo crite´rio de Sylvestre.
Definic¸a˜o 4.2. Uma matriz quadrada An×n e´ definida positiva se, e so´ se,
xtAx > 0, ∀ vetor x 6= 0.
Ale´m da Definic¸a˜o (4.2), podemos verificar se uma matriz e´ definida positiva pelo crite´rio de
Sylvestre, apresentado a seguir:
Crite´rio 4.1. Crite´rio de Sylvestre: Uma matriz quadrada An×n e´ definida positiva se, e so´ se, os
seus menores principais na˜o forem singulares, ou seja
|Ak| 6= 0, k = 1, 2, . . . , n.
4.4.1 Determinac¸a˜o da matriz G
De maneira semelhante a` decomposic¸a˜o LU, a matriz G pode ser obtida diretamente do produto
GGt, num processo com 2n−1 passos, sendo que, os elementos da diagonal de G e as suas colunas
sa˜o determinadas alternadamente (Figura 4.2).
Figura 4.2: Determinac¸a˜o da matriz G
Para a determinac¸a˜o da matriz G vamos separar os elementos da diagonal daqueles fora da
diagonal, iniciando o processo pela sua primeira coluna. O processo deve, enta˜o, prosseguir alter-
nadamente na determinac¸a˜o dos elementos da diagonal e das respectivas coluna. As fo´rmulas gerais
57
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
sa˜o apresentadas abaixo:
Para a 1a coluna:
g11 =
√
a11;
g1j =
ai1
g11
, i = 2, 3, . . . , n.
Para as demais colunas:
gii =
√√√√aii − i−1∑
k=1
g2ik, i = 2, 3, . . . , n
gij =
1
gjj
aij − j−1∑
k=1
gik gjk
 , 2 ≤ j < i.
Exemplo 4.4. Considere a matriz sime´trica
A =

4 2 −4
2 10 4
−4 4 9
 .
Verificando se a matriz A e´ definida positiva:
A1 = 4 ⇒ |A1| = 4 > 0;
A2 =
 4 2
2 10
 ⇒ |A2| = 36 > 0;
A3 = A ⇒ |A3| = |A| = 36 > 0.
Portanto, pelo crite´rio de Sylvestre temos que a matriz A e´ definida positiva.
Calculando os elementos da matriz G:
i) 1o passo:
g11 =
√
a11 =
√
4 = 2.
ii) 2o passo:
g21 =
a21
2 =
2
2 = 1;
g31 =
a31
2 =
−4
2 = −2.
58
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
iii) 3o passo:
g22 =
√
a22 − g221 =
√
10− 1 = 3.
iv) 4o passo:
g32 =
a32 − g31 g21
g22
= 4− (−2) · (1)3 =
6
3 = 2;
v) 5o passo:
g33 =
√
a33 − (g231 + g232) =
√
9− (4 + 4) = 1.
A matriz G e´, portanto, dada por:
G =

2 0 0
1 3 0
−2 2 1
 .
E o determinante de A e´:
|A| = |G|2 = (2 · 3 · 1)2 = (6)2 = 36
.
59
5
Vetores aleato´rios
5.1 Vetores aleato´rios
Um vetor Xp×1, do tipo
X =

X1
X2
...
Xp

e´ um vetor aleato´rio se X1, X2, . . . , Xp forem varia´veis aleato´rias (va’s).
Nota 5.1. Como um vetor aleato´rio e´ uma representac¸a˜o generalizada de uma varia´vel aleato´ria,
aqui tambe´m iremos denota´-los por va �
Nota 5.2. Da mesma forma, uma matriz aleato´ria e´ uma matriz cujos elementos sa˜o va’s �
Exemplo 5.1. Num estudo sobre a qualidade do ar foram observadas as varia´veis X1: radiac¸a˜o
solar; X2: velocidade do ar; X3: temperatura e X4: concentrac¸a˜o de ozone.
Desta forma, essas varia´veis formam um vetor aleato´rio de dimensa˜o 4, dado por
X =

X1
X2
X3
X4
 �
A distribuic¸a˜o de probabilidade conjunta de um vetor aleato´rio e´ definida por
i) p(x) = p(x1, . . . , xp) = P (X1 = x1, . . . , Xp = xp), se X for composto por varia´veis aleato´rias
discretas e,
ii) f(x) = f(x1, . . . , xp), se X for composto por varia´veis aleato´rias cont´ınuas.
As distribuic¸o˜es marginais das varia´veis aleato´rias X1, X2, . . . , Xp sa˜o calculadas por
60
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
i) Caso discreto
pk(xk) =
∑
x1,...,xp
xi 6=xk
P (X1 = x1, . . . , Xp = xp), k = 1, 2, . . . , p,
ii) Caso cont´ınuo
fk(xk) =
∫
x1,...,xp
xi 6=xk
f(x1, . . . , xp)dx1 . . . dxp, k = 1, 2, . . . , p.
Combinac¸o˜es lineares de varia´veis aleato´rias
Em muitas aplicac¸o˜es estat´ısticas, especialmente no contexto multvariado, trabalha-se com com-
binac¸o˜es lineares de va’s. Uma combinac¸a˜o linear dos componentes de um vetor aleato´rio pode ser
representada pelo produto interno entre um vetor de coeficientes a e o vetor X.
Seja um vetor aleato´rio X e um vetor de coeficientes lineares a, enta˜o, temos uma combinac¸a˜o
linear dada por
Y = atX =
p∑
i=1
ai Xi = a1 X1 + a2 X2 + . . .+ ap Xp.
Exemplo 5.2. Considere o vetor Xt = (X1, X2) e os coeficientes at = (1/2, 1/2), enta˜o, a combi-
nac¸a˜o linear
Y = atX = X1 + X22 ,
representa a me´dia entre X1e X2 �
Considere, agora, vetor aleato´rio X e k combinac¸o˜es lineares dadas pelos vetores de coeficientes
a1,a2, . . . ,ak, assim, temos que
Y1 = at1X = a11 X1 + a12 X2 + . . .+ a1p Xp
Y2 = at2X = a21 X1 + a22 X2 + . . .+ a2p Xp
...
...
Yk = atkX = ak1 X1 + ak2 X2 + . . .+ akp Xp
Agrupando as varia´veis Y1, Y2, . . . , Yk num vetor aleato´rio Y, os coeficientes das combinac¸o˜es
lineares devem ser dispostos como linhas numa matriz de coeficientes A, ou seja
A =

at1
at2
...
atk
 .
61
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma, as combinac¸o˜es lineares sa˜o escritas como
Y = AX =

at1X
at2X
...
atkX
 .
Exemplo 5.3. Exemplos de aplicac¸o˜es com diversas combinac¸o˜es lineares podem ser obtidas nas
ana´lises mutivariadas de componentes principais ou correlac¸a˜o canoˆnica, entre outras �
5.1.1 Valor esperado de um vetor aleato´rio
O valor esperado de um vetor aleato´rio X e´ definido por:
E(X) =

E(X1)
E(X2)
...
E(Xp)
 ,
em que E(Xi), i = 1, 2, . . . , p, e´ o valor esperado da i-e´sima va.
Normalmente o vetor de me´dias e´ denotado por µ, ou seja,
E(X) = µ =

µ1
µ2
...
µp
 ,
sendo que E(Xi) = µi =

∑
xi
xipi(xi), se xi for discreta e,
∫
xi
xifi(xi), se xi for cont´ınua.
Propriedades
a) Sejam um va X e um vetor de coeficientes a, enta˜o, a combinac¸a˜o atX tem valor esperado
E(atX) = atE(X).
b) Sejam as combinac¸o˜es lineares atX e btY, com X e Y, enta˜o
E(atX + btY) = atE(X) + btE(Y).
c) Comsiderando k combinac¸o˜es lineares com uma matriz de coeficientes A, temos
E(A X) = A E(X).
62
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Da mesma forma, com dois conjuntos de combinac¸o˜es lineares A X e B Y tais que as dimen-
so˜es das matrizes envolvidas sejam compat´ıveis, temos
E(A X + B Y) = A E(X) + B E(Y).
Exemplo 5.4.
a) Sejam Xt = (X1, X2, X3) tal que E(X) = (2,−1, 1)t. Se at = (4, 3, 3), enta˜o,
atX = 4X1 + 3X2 + 3X3
e
E(atX) =
[
4 3 3
] 
2
−1
1
 = 8− 3 + 3 = 8.
b) Com k = 4 combinac¸o˜es lineares dadas pelos coeficientes na matriz
A =

2 −1 1
0.5 0 1
1 2 1
−1 1 2
 ,
as combinac¸o˜es lineares sa˜o dadas por
Y1 = 2X1 −X2 +X3
Y2 = X1/2 +X3
Y3 = X1 + 2X2 +X3
Y4 = −X1 +X2 + 2X3
logo, E(AX) =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


2
−1
1
 =

6
2
1
−1
 �
5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio
Sejam X1 e X2 va’s com µ1 = E(X1) e µ2 = E(X2). Enta˜o, temos que suas respectivas
variaˆncias sa˜o calculadas por
σ21 = V ar(X1) = E[(X1 − µ1)2] = E[(X1 − µ1)(X1 − µ1)] e
σ22 = V ar(X2) = E[(X2 − µ2)2] = E[(X2 − µ2)(X2 − µ2)],
63
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
e, a covariaˆncia entre X1 e X2, por
σ12 = Cov(X1, X2) = E[(X1 − µ1)(X2 − µ2)].
No contexto multivariado, as quantidades acima sa˜o representadas por uma matriz de variaˆncias
e covariaˆncias (matriz var-cov) denotada por Σ
Σ =
[
σ21 σ12
σ12 σ
2
2
]
.
Nota 5.3. Observe que a matriz Σ e´ sime´trica cuja diagonal e´ composta pelas variaˆncias das varia´-
veis aleato´rias e os elementos fora da diagonal pelas covariaˆncias entre essas varia´veis �
Considere o vetor aleato´rio X composto pelas va’s X1, X2, . . . , Xp, tal que E(X) = µ, enta˜o, a
matriz var-voc de X e´ definida por
ΣX = Cov(X) = E[(X− µ)(X− µ)t]
ΣX = E


(X1 − µ1)
(X2 − µ2)
...
(Xp − µp)

[
(X1 − µ1) (X2 − µ2) . . . (Xp − µp)
]

ΣX = E

(X1 − µ1)2 (X1 − µ1)(X2 − µ2) . . . (X1 − µ1)(Xp − µp)
(X2 − µ2)(X1 − µ1) (X2 − µ2)2 . . . (X2 − µ2)(Xp − µp)
...
...
. . .
...
(Xp − µp)(X1 − µ1) (Xp − µp)(X2 − µ2) . . . (Xp − µp)2

ΣX =

E[(X1 − µ1)2] E[(X1 − µ1)(X2 − µ2)] . . . E[(X1 − µ1)(Xp − µp)]
E[(X2 − µ2)(X1 − µ1)] E[(X2 − µ2)2] . . . E[(X2 − µ2)(Xp − µp)[
...
...
. . .
...
E[(Xp − µp)(X1 − µ1)] E[(Xp − µp)(X2 − µ2)[ . . . E[(Xp − µp)2]
 .
Ou seja, a matriz var-cov de X e´ da forma:
ΣX = Cov(X) =

σ21 σ12 . . . σ1p
σ12 σ
2
2 . . . σ2p
...
...
. . .
...
σ1p σ2p . . . σ
2
p
 .
64
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Propriedades
a) Seja o vetor aleato´rio X, tal que Cov(X) = ΣX e a combinac¸a˜o linear atX. A variaˆncia de
atX e´ dada por
V ar(atX) = atΣXa.
Prova:
V ar(atX) = E[(atX− atµ)(atX− atµ)t]
V ar(atX) = E[(atX− atµ)(Xta − µta)]
V ar(atX) = E[at(X− µ)(Xt − µt)a]
V ar(atX) = atE[(X− µ)(X− µ)t]a
V ar(atX) = atΣXa �
Ainda: V ar(atX + b) = atΣXa.
b) Considerando k combinac¸o˜es lineares com matriz de coeficientes A, temos
Cov(AX) = ACov(X)At = AΣXAt.
Prova: segue o mesmo racioc´ınio do item anterior.
Exemplo 5.5.
i) No exemplo (5.4), seja a matriz var-cov de X
ΣX =

4 −2 2
−2 7 3
2 3 6
 ,
enta˜o, dada a combinac¸a˜o linear Z = atX, em que at = (4, 3, 3), tem-se
V ar(Z) = ( 4 3 3 )

4 −2 2
−2 7 3
2 3 6


4
3
3
 = 235.
ii) Dada a matriz de coeficientes A =

2 −1 1
0.5 0 1
1 2 1
−1 1 2
 ,
65
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
tal que Z = A X, enta˜o, ΣZ = Cov(Z) e´ dada por
ΣZ =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


4 −2 2
−2 7 3
2 3 6


2 0.5 1 −1
−1 0 2 1
1 1 1 2
 =

39 13 3 −6
13 9 15 12
3 15 46 41
−6 12 41 43
 �
c) Sejam os vetores aleato´rios X e Y, com vetores de me´dias µX e µY , respectivamente. A
matriz de covariaˆncias entre X e Y, denotada por Cov(X,Y), e´ definida por
Cov(X,Y) = E[(X− µX)(Y− µY)t] = ΣXY .
De (a) e (b) segue-se que:
i) para duas combinac¸o˜es lineares atX e btY,
Cov(atX,btY) = atΣXYb;
ii) para dois grupos de combinac¸o˜es lineares AX e BY, com dimenso˜es compat´ıveis,
Cov(AX,BY) = AΣXYBt.
Obs: A matriz ΣXY na˜o e´ necessariamente quadrada.
Exemplo 5.6.
i) Considere o vetor aleato´rio Yt = (Y1, Y2) cuja a matriz var-voc e´ dada por
ΣY =
[
6 2
2 3
]
e seja a combinac¸a˜o linear T = btY, com bt = (2,−3), enta˜o, a variaˆncia de T e´
V ar(T ) = ( 2 −3 )
[
6 2
2 3
](
2
−3
)
= 27.
ii) Considere, agora, k = 2 combinac¸o˜es lineares: T1 = Y1 − Y2 e T2 = Y1 + 2Y2. Os
coeficientes de T1 e T2 sa˜o dados pelas linhas da matriz
B =
[
1 −1
1 2
]
.
66
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma, a matriz var-voc de T = B Y, denotada por ΣT, e´ calculada por
ΣT = Cov(T) =
[
1 −1
1 2
] [
6 2
2 3
] [
1 1
−1 2
]
=
[
5 2
2 26
]
.
iii) Assumindo que a matriz de covariaˆncias entre os vetores aleato´rios X e Y seja
ΣXY =

2 4
0 3
1 −3
 ,
enta˜o, a matriz de covariaˆncias Cov(Z,T), entre Z = A X e T = B Y, e´ dada por
ΣZT =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


2 4
0 3
1 −3

[
1 1
−1 2
]
=

3 9
3 0
−4 17
7 −14
 �
d) Dadas duas combinac¸o˜es lineares atX e btY, enta˜o, a variaˆncia de atX + btY e´
V ar(atX + btY) = atΣXa + btΣYb + 2atΣXYb, (5.1)
em que ΣX = Cov(X), ΣY = Cov(Y) e ΣXY = Cov(X,Y).
Exemplo 5.7.
Dos Exemplos (5.5) e (5.5), temos que atΣXa = 235 , btΣYb = 27 e, considerando que
atΣXYb = ( 4 3 3 )

2 4
0 3
1 −3

(
2
−3
)
= −26,
enta˜o: V ar(atX + btY) = 235 + 27− 52 = 210 �
5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio
A correlac¸a˜o entre duas va’s Xi e Xj , i, j = 1, 2, . . . , p, e´ calcular por
ρij = Cor(Xi, Yj) =
σij√
σ2i σ
2
j
,
67
Vetores aleato´rios Teoria de Matrizes

Outros materiais