Buscar

Teoria de Matrizes para estatística

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 90 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 90 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 90 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Departamento de Estat´ıstica
Universidade Federal de Sa˜o Carlos
Teoria de Matrizes para Estat´ıstica
Jose´ Carlos Fogo
Sa˜o Carlos
Abril de 2016
Suma´rio
1 Vetores 1
1.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Representac¸a˜o gra´fica no <2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Propriedades alge´bricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Vetores especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Produto entre vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Propriedades alge´bricas do produto interno entre vetores . . . . . . . . . . 5
1.4 Mo´dulo ou comprimento de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Outros resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Matrizes 9
2.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.2 Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3 Matriz de Zeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.4 Matriz Diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.5 Matriz Sime´trica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.6 Matriz de Uns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.7 Matrizes Triangulares Superior e Inferior . . . . . . . . . . . . . . . . . . . . 11
2.2 Operac¸o˜es com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Medidas relacionadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Posto ou rank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 Trac¸o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Matriz dos cofatores e matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Matriz na˜o singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
i
Suma´rio Teoria de Matrizes para Estat´ıstica
2.8 Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.9 Matriz definida positiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.10 Operac¸o˜es elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.11 Matrizes similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3 Matrizes particionadas 30
3.1 Casos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Operac¸o˜es com matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Decomposic¸a˜o LDU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Rank, ou posto, de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 Determinante de matrizes particionadas . . . . . . . . . . . . . . . . . . . . . . . . 36
3.6 A inversa de uma matriz particionada . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Decomposic¸a˜o de matrizes 40
4.1 Decomposic¸a˜o espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Decomposic¸a˜o em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5 Vetores aleato´rios 48
5.1 Vetores aleato´rios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.1.1 Valor esperado de um vetor aleato´rio . . . . . . . . . . . . . . . . . . . . . . 50
5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio . . . . . . . . . . . 51
5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio . . . . . . . . . . . . . . . . . . 55
5.1.4 Vetores aleato´rios particionados . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.2 Representac¸a˜o vetorial dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.2.1 A representac¸a˜o dos dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.2 O vetor de me´dias amostrais . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.3 A matriz de variaˆncias e covariaˆncias amostrais . . . . . . . . . . . . . . . . 64
6 Espac¸os Vetoriais 70
6.1 Subespac¸os vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Dependeˆncia linear de vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3 Base de um espac¸o vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7 Sistemas lineares 79
7.1 Notac¸a˜o Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2 Sistemas homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
ii
1
Vetores
1.1 Definic¸a˜o
Na F´ısica: e´ uma forma de se representar matematicamente grandezas f´ısicas que possuam
mais de um aspecto para ser definida.
Exemplo: a forc¸a, necessita da magnitude, direc¸a˜o e sentido em que e´ aplicada;
Na Matema´tica: e´ uma tripla constitu´ıda de uma direc¸a˜o, um sentido e um nu´mero na˜o
negatico (mo´dulo), Venturini, J.J.
Obs: Usando a teoria de matrizes, pode-se definir um vetor como qalquer matriz coluna, ou
matriz linha.
Na Wikipe´dia: e´ um conceito caracterizado por uma magnitude (mo´dulo) e uma orientac¸a˜o
(direc¸a˜o e sentido).
Notac¸a˜o: ~v, ~x, ~a (letras minu´sculas).
Nas notas da disciplina, vamos adotar a notac¸a˜o usual em publicac¸o˜es, ou seja, com letras
minu´sculas, em negrito: v, x, a.
x =

x1
x2
...
xp
 , e´ um vetor de dimensa˜o p.
1
Vetores Teoria de Matrizes para Estat´ıstica
Exemplo:
x =

1
2
3
4
 , e´ um vetor de dimensa˜o 4.
1.1.1 Representac¸a˜o gra´fica no <2
Exemplo: Sejam
x =
[
2
5
]
e y =
[
3
0.5
]
,
Figura 1.1: Representac¸a˜o gra´fica de vetores no plano
1.1.2 Propriedades alge´bricas
i) u + v = v + u;
ii) (u + v) + w = u + (v + w);
iii) a (u + v) = a v + a u, a = escalar;
iv) (a+ b) u = a u + b u, a, b = escalares.
2
Vetores Teoria de Matrizes para Estat´ıstica
1.2 Vetores especiais
i) vetor nulo:
0n =

0
0
...
0
 ;
ii) vetor de 1’s:
1n =

1
1
...
1

n×1
; (1.1)
iii) vetor transposto:
vt =
[
v1, v2, · · · , vp
]
.
1.3 Produto entre vetores
Os produtos entre de vetores mais comuns sa˜o o produto escalar euclidiano, ou produto interno
e o produto vetorial, ou produto externo, sendo que nos dois casos os vetores devem ter mesmas
dimenso˜es.
Ale´m das duas formas de produtos acima, temos ainda o produto direto, ou produto Kronecker
e o produto elemento-a-elemento.
Nota: Na disciplina sera˜o destacados os produtos interno, Kronecker e elemento-a-elemento.
Considere os vetores
v =

v1
v2
...
vp
 e x =

x1
x2
...
xp
 .
a) Produto elemento-a-elemento1:
x ∗ v =

x1 · v1
x2 · v2
...
xp · vp
 .
1Como na˜o temos uma notac¸a˜o para um operador elemento-a-elemento, vamos utilizar o asterisco (*)
3
Vetores Teoriade Matrizes para Estat´ıstica
b) Produto interno ou produto escalar:
〈x,v〉 = x · v = xt v =
p∑
i=1
xi · vi
c) Produto Kronecker ou produto direto: sejam x e v vetores com dimenso˜es p e q,
respectivamente
x⊗v =

x1 · v
x2 · v
...
xp · v

pq×1
.
Exemplos:
Sejam x =

2
−5
−1
 e v =

3
2
−3
 ,
• de (a):
x ∗ v =

(2) · (3)
(−5) · (2)
(−1) · (−3)
 =

6
−10
3
 ;
• de (b):
〈x,v〉 = xtv = (2) · (3) + (−5) · (2) + (−1) · (−3) = −1.
• de (c):
x⊗v =

2 · v
−5 · v
−1 · v
 =

6
4
−6
−15
−10
15
−3
−2
3

4
Vetores Teoria de Matrizes para Estat´ıstica
Obs: Para o produto Kronecker as dimenso˜es na˜o precisam ser necessariamente iguais
Se x =
[
2
3
]
e v =

1
2
3
4
 , enta˜o: x⊗v =

2
4
6
8
3
6
9
12

1.3.1 Propriedades alge´bricas do produto interno entre vetores
i) utv = vtu ou 〈u,v〉 = 〈v,u〉;
ii) (ut + vt)w = utw + vtw ou 〈(u+v),w〉 = 〈u,w〉 + 〈v,w〉;
iii) (k vt)u = k (vtu) = vt(k u), ou 〈kv,u〉 = k 〈v,u〉 = 〈v, ku〉 k = escalar;
iv) utu ≥ 0 ou 〈u,u〉 ≥ 0;
v) utu = 0⇔ u = 0 ou 〈u,u〉 = 0⇔ u = 0.
1.4 Mo´dulo ou comprimento de um vetor
O comprimento, mo´dulo ou norma de um vetor v e´ definido por
‖v‖ =
√
vtv =
√
v21 + v22 + . . .+ v2p.
Exemplo: Dados os vetores vt = (2,−5,−1),xt = (3, 2,−3) e ut = (0.8, 0.6), enta˜o
‖v‖ = √4 + 25 + 1 = √30;
‖x‖ = √9 + 4 + 9 = √22;
‖u‖ = √0.64 + 0.36 = √1 = 1.
O vetor que tem norma igial a 1, ou seja, vtv = 1, e´ chamado de vetor normal.
No exemplo acima o vetor ut = (0.64, 0.36) e´ um vetor normal.
1.5 Outros resultados
i) Aˆngulo entre vetores: considere o angulo θ formado por dois vetores u e v, enta˜o:
cos(θ) = u
tv
‖u‖ ‖v‖ =
utv√
utu
√
vtv
.
5
Vetores Teoria de Matrizes para Estat´ıstica
Se θ = 90◦, cos(θ) = 0, enta˜o u e v sa˜o ortogonais, ou seja, u⊥v, portanto, dois vetores sa˜o
ortogonais se utv = 0.
Figura 1.2: Aˆngulo entre vetores.
ii) Projec¸a˜o de um vetor sobre outro:
Considere os vetores u e v. Enta˜o, a projec¸a˜o de u sobre v e´ obtida por:
Pu/v =
(
utv
vtv
)
v = (u
tv)
‖v‖2 v.
O mo´dulo da projec¸a˜o, por sua vez, e´ dado por:
∥∥∥Pu/v∥∥∥ =
∣∣∣∣∣utvvtv
∣∣∣∣∣√vtv =
∣∣utv∣∣
‖v‖2 ‖v‖ =
∣∣utv∣∣
‖v‖ ‖u‖ ‖u‖
∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ .
Exemplo: Dados os vetores ut = (1, 2),vt = (2, 1), encontar a projec¸a˜o de u sobre v e calcular
o seu mo´dulo.
Ca´lculos:
‖u‖ = √11 + 22 = √5
‖v‖ = ‖u‖ = √5
utv = 2 · 1 + 1 · 2 = 4
cos(θ) = u
tv
‖u‖ ‖v‖ =
4√
5
√
5
= 0.8 ⇒ θ ∼= 36.9◦
Projec¸a˜o de u sobre v:
Pu/v =
(
utv
vtv
)
v = 45
[
2
1
]
=
[
1.6
0.8
]
.
6
Vetores Teoria de Matrizes para Estat´ıstica
Comprimento da projec¸a˜o:∥∥∥Pu/v∥∥∥ = |cos(θ)| ‖u‖ = 0.8√5 = √3.2
De fato
∥∥∥Pu/v∥∥∥2 = [ 1.6 0.8 ]
[
1.6
0.8
]
= 3.2, logo,
∥∥∥Pu/v∥∥∥ = √3.2.
Figura 1.3: Projec¸a˜o de um vetor u sobre um vetor v.
1.6 Representac¸a˜o vetorial dos dados
Na estat´ıstica os dados sa˜o usualmente representados em vetores (os softwares usam esse
conceito).
Exemplo: Seja uma amostra de tamanho n = 10 representando o ganho l´ıquido de um grupo
7
Vetores Teoria de Matrizes para Estat´ıstica
de empresas da bolsa de valores (em milho˜es de reais). Pode-se representar os dados por
x =

564
389
203
215
385
187
127
297
432
451

.
Como
∑
xi = 3250 e
∑
x2i = 1234408, tem-se que:
x¯ = 325010 = 325;
s2 = 1234408− 10(325)
2
(10− 1) = 19795.33.
Os resultados acima da me´dia amostral x¯ e variaˆncia amostral s2 podem ser facilmente obtidos
utilizando as operac¸o˜es vetoriais.
i) Para a soma dos elementos de x, tem-se
1tn x =
n∑
i=1
xi = x1 + . . .+ xn
ii) Para a soma dos quadrados dos elementos de x,
xt x =
n∑
i=1
x2i = x21 + . . .+ x2n
Assim, de (i) e (ii) tem-se que:
x¯ = 1
t
n x
n
;
s2 = 1(n− 1)
[
xt x− (1
t
n x)2
n
]
.
No exemplo:
1tn x = 3250;
[
xt x− (1
t
n x)2
n
]
= 1234408− (3250)
2
10 = 178158.
8
2
Matrizes
Definic¸a˜o 2.1. Matriz
Matriz e´ uma colec¸a˜o retangular n× p de valores reais, representada por
An×p =

a11 a12 · · · a1p
a21 a22 · · · a2p
...
...
. . .
...
an1 an2 · · · anp
 ,
em que: n e´ o nu´mero de linhas e p e´ o nu´mero de colunas da matriz �
Segundo Graybill (1983), uma matriz pode, ainda, ser representada da seguinte forma:
An×p = [aij ]n×p .
No´s podemos obter uma matriz n × p pela multiplicac¸a˜o de um vetor u, n × 1, com um vetor
linha vt, 1× p
uvt =

u1
u2
...
un

[
v1 v2 · · · vp
]
=

u1v1 u1v2 · · · u1vp
u2v1 u2v2 · · · u2vp
...
...
. . .
...
unv1 unv2 · · · unvp
 . (2.1)
(2.2)
Nota: O produto uvt e´ muitas vezes chamado de produto exterior ou produto externo (Banerjee
e Roy, 2014).
9
Matrizes Teoria de Matrizes para Estat´ıstica
2.1 Casos especiais
2.1.1 Matriz Transposta
Denotada por A′ ou At, e´ obtida trocando-se as linhas de A pelas colunas.
Exemplo: A2×3 =
[
3 −2 1
1 5 4
]
At3×2 =

3 1
−2 5
1 4
 .
2.1.2 Matriz Quadrada
E´ uma matriz para a qual o nu´mero de linhas e´ igual ao de colunas.
Exemplo: A3×3 =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 .
2.1.3 Matriz de Zeros
Denotada 0n×p, e´ a matriz cujos elementos sa˜o todos iguais a zero.
Exemplo: 0n×p =

0 0 · · · 0
0 0 · · · 0
...
...
. . .
...
0 0 · · · 0

n×p
.
2.1.4 Matriz Diagonal
E´ uma matriz quadrada na qual apenas os elementos da diagonal sa˜o diferentes de zero.
Exemplo: Ap×p =

a11 0 · · · 0
0 a22 · · · 0
...
...
. . .
...
0 0 · · · app
 .
Casos especiciais:
10
Matrizes Teoria de Matrizes para Estat´ıstica
a) Matriz escalar: e´ uma matriz diagonal na qual todos os elementos da diagonal sa˜o iguais,
ou seja, dii = d, i = 1, 2, . . . , n.
Exemplo: D =

d 0 · · · 0
0 d · · · 0
...
...
. . .
...
0 0 · · · d
 .
b) Matriz identidade: e´ um caso particular da matriz diagonal. Denotada por Ip = Ip×p, seus
elementos da diagonal sa˜o todos iguais a 1, ou seja, a11 = a22 = . . . = app = 1.
Exemplo: I3 =

1 0 0
0 1 0
0 0 1
 .
2.1.5 Matriz Sime´trica
Matriz quadrada em que A = At, ou seja, quando aij = aji, i, j = 1, 2, . . . , p.
Exemplo: A3×3 =

1 2 3
2 4 5
3 5 6
 .
2.1.6 Matriz de Uns
Denotada Jn, e´ uma matriz quadrada cujos elementos sa˜o todos iguais a um.
Exemplo: Jn =

1 1 · · · 1
1 1 · · · 1
...
...
. . .
...
1 1 · · · 1

n×n
.
A matriz Jn e´ definida pelo produto Jn = 1n1tn, ver (1.1), e apresenta a seguinte propriedade:
a) J2 = JJ = nJ;
b) J3 = JJJ = n2J;
c) Jk = nk−1J.
2.1.7 Matrizes Triangulares Superior e Inferior
A matriz quadrada Un×n, e´ uma matriz triangular superior se todos os elementos abaixo da
diagonal forem iguais a zero e, a matriz quadrada quadrada Ln×n, e´ uma matriz triangular inferior
se todos os elementos acima da diagonal forem iguais a zero.
11
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplo: matrizes triangulares superior e inferor de dimenso˜es 4× 4.
U4×4 =

u11 u12 u13 u14
0 u22 u23 u24
0 0 u33 u34
0 0 0 u44
 L4×4 =

l11 0 0 0
l21 l22 0 0
l31 l32 l33 0
l41 l42 l43 l44

2.2 Operac¸o˜es com matrizes
i) Multiplicac¸a˜o por um escalar:
cAn×p =

c a11 c a12 · · · c a1p
c a21 c a22 · · · c a2p
...
...
. . .
...
c an1 c an2 · · · canp
 .
ii) Adic¸a˜o de matrizes de mesmas dimenso˜es:
An×p + Bn×p =

a11 + b11 a12 + b12 · · · a1p + b1p
a21 + b21 a22 + b22 · · · a2p + b2p
...
...
. . .
...
an1 + bn1 an2 + bn2 · · · anp + bnp
 .
Resultados:
a) A + B = B + A;
b) (A + B) + C = A + (B + C);
c) c (A + B) = cA + cB;
d) A + 0 = A e A − A = 0;
e) (c+ d) A = cA + dA;
f) (c d) A = c (dA);
g) (A + B)t = At + Bt.
Nota: A matriz 0 e´ o elemento neutro da adic¸a˜o de matrizes, ou seja, A + 0 = A.
iii) Multiplicac¸a˜o de matrizes: o produto de duas matrizes An×k e Bk×p e´ dado pelos produtos
internos das linhas de A pelas colunas de B
An×k Bk×p = (A B)n×p ,
desta forma, o nu´mero de colunas da primeira (A) deve ser igual ao nu´mero de linhas da
segunda (B) e o resultado sera´ uma matriz cujo nu´mero de linhas sera´ igual ao nu´mero de
linhas da primeira e o nu´mero de colunas, igual ao da segunda.
12
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplo:
A2×3 =
[
3 −1 2
1 5 −4
]
B3×2 =

−2 1
7 0
9 −3
 ,
A B =
[
(−6− 7 + 18) (3− 6)
(−2 + 35− 36) (1 + 12)
]
=
[
5 −3
−3 13
]
.
Uma matriz An×k pode ser representada como uma colec¸a˜o de k vetores nas colunas, assim
como n vetores transpostos nas linhas.
Seja ati· vetor transposto representando a i-e´sima linha, i = 1, 2, . . ., n, enta˜o, a matriz A pode
ser escrita por:
An×k =

at1·
at2·
...
atn·
 .
Da mesma forma, considerando as colunas de An×k como vetores, pode-se, ainda, escrever A
como:
An×k =
[
a·1 a·2 · · · a·k
]
.
Desta forma, o produto entre duas matrizes An×k e Bk×p pode ser representado por
An×kBk×p =

at1·
at2·
...
atn·

[
b·1 b·2 · · · b·p
]
.
An×kBk×p =

at1·b·1 at1·b·2 · · · at1·b·p
at2·b·1 at2·b·2 · · · at2·b·p
...
...
. . .
...
atn·b·1 atn·b·2 · · · atn·b·p
 .
A partir de (2.2) podemos, ainda, representar o produto entre duas matrizes por:
An×kBk×p =
[
a·1 a·2 · · · a·p
]

bt1·
bt2·
...
btn·
 =
p∑
j=1
a·jbtj·.
13
Matrizes Teoria de Matrizes para Estat´ıstica
Resultados:
(as matrizes A, B e C sa˜o de dimenso˜es tais que os produtos abaixo sejam definidos)
a) A (B C) = (A B) C;
b) A (B + C) = A B + A C;
c) c (A B) = (cA) B;
d) c (A B) = (cA) B;
e) (αA)(β B) = (αβ)(AB);
f) (A B)t = BtAt.
Notas:
1) Em geral na˜o vale a propriedade comutativa, ou seja, A B 6= B A,
2) Se A B = 0, na˜o implica, necessariamente, que A = 0 ou que B = 0;
3) A identidade e´ o elemento neutro da multiplicac¸a˜o de matrizes, ou seja, A I = I A = A.
2.3 Medidas relacionadas
2.3.1 Determinante
Seja uma matriz quadrada A, enta˜o, seu determinante e´ um escalar denotado por |A| e e´ definido
por:
|A| =
k∑
j=1
a1j (−1)j+1 |A1j | , k > 1.
em que a1j e´ o j-e´simo elemento da primeira linha de A e A1j e´ a matriz obtida eliminando-se a
primeira linha e a j-e´sima coluna de A.
O resultado tambe´m e´ va´lido quando exclu´ımos qualquer uma das outras linhas, ou seja
|A| =
k∑
j=1
aij (−1)i+j |Aij | , k > 1, i = 1, 2, . . . , k.
Nota: o termo (−1)i+j |Aij | e´ definido como cofator do elemento aij e sera´ visto mais adiante.
Exemplo: A =

2 1 3 0
1 −1 2 2
−2 0 3 3
4 1 −1 2
 .
14
Matrizes Teoria de Matrizes para Estat´ıstica
• Eliminando-se a primeira linha:
|A| = (2) (−1)1+1
∣∣∣∣∣∣∣∣
−1 2 2
0 3 3
1 −1 2
∣∣∣∣∣∣∣∣+ (1) (−1)
1+2
∣∣∣∣∣∣∣∣
1 2 2
−2 3 3
4 −1 2
∣∣∣∣∣∣∣∣+
(3) (−1)1+3
∣∣∣∣∣∣∣∣
1 −1 2
−2 0 3
4 1 2
∣∣∣∣∣∣∣∣+ (0) (−1)
1+4
∣∣∣∣∣∣∣∣
−1 −1 3
−2 0 3
4 1 −1
∣∣∣∣∣∣∣∣
|A| = (2) (−1)2 (−9) + (1) (−1)3 (21) + (3) (−1)4 (−23) + (0) (−1)5 (17)
|A| = −18− 21− 69 = −108.
• Eliminando-se a terceira linha:
|A| = (−2) (−1)2 (18) + (0) (−1)3 (30) + (3) (−1)4 (−2) + (3) (−1)5 (22)
|A| = −36− 6− 66 = −108.
Casos especiais:
a) k = 2:
A =
[
a11 a12
a21 a22
]
, |A| = a11 a22 − a12 a21.
Exemplo:
A =
[
1 3
6 4
]
, |A| = 1 · 4− 3 · 6 = −14.
b) k = 3:
A =

a11 a12 a13
a21 a22 a23
a31 a32 a33
 ,
|A| = a21 a32 a13 + a11 a22 a33 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32.
15
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplo:
A =

3 1 6
7 4 5
2 −7 1
 ,
|A| = 10 + 12− 294− 7− 48 + 105 = −222.
Resultados
(as matrizes A, B sa˜o tais que os produtos sejam definidos)
a) |A| = |At|,
b) Se os elementos de uma linha (ou coluna) sa˜o iguais a zero, enta˜o, |A| = 0,
c) Se duas linhas (ou colunas) sa˜o iguais ou proporcionais, enta˜o, |A| = 0,
d) |A B| = |A|· |B|,
e) |c A| = ck|A|, em que k e´ o nu´mero de linhas (ou colunas) de A,
f) |I| = 1.
2.3.2 Posto ou rank
O posto ou rank de uma matriz An×p e´ dado pelo nu´mero ma´ximo de linhas ou colunas
linearmente independentes (LI), ou seja, posto(A)≤ min(n, p).
Exemplos:
A =

3 0 1 −2
1 3 1 0
4 3 4 5
 , posto(A) = 3,
todas as linhas, de A sa˜o LI.
B =

4 1 −3
−1 4 5
2 2 0
 , posto(B) = 2,
a primeira coluna de B e´ combinac¸a˜o linear das demais.
Notas:
1) Uma matriz An×p e´ dita ser de posto completo se o seu posto for igual a min(n, p),
2) Nos exemplos acima, a matriz A e´ de posto completo, enquanto que, a matriz B na˜o e´ de posto
completo.
16
Matrizes Teoria de Matrizes para Estat´ıstica
2.3.3 Trac¸o
Seja uma matriz quadrada Ak×k, enta˜o o trac¸o de A, denotado por tr(A), e´ dado pela soma
dos elementos de sua diagonal principal
tr(A) =
k∑
i=1
aii.
Exemplos:
A =

3 0 1
1 3 1
4 3 4
 , tr(A) = 3 + 3 + 4 = 10.
B =

4 1 −3
−1 4 5
2 2 0
 , tr(B) = 8.
Resultados
a) tr(cA) = c tr(A), d) tr(B−1 A B) = tr(A)
b) tr(A±B) = tr(A) ± tr(B), e) tr(At A) = tr(A At) = ∑ki=1∑kj=1 a2ij
c) tr(A B) = tr(B A),
2.4 Autovalores e autovetores
Considere a matriz A e os vetores u e v:
A =
[
3 −2
1 0
]
u =
[
−1
1
]
v =
[
2
1
]
Enta˜o, as transformac¸o˜es operadas por A resultam em
A u =
[
3 −2
1 0
] [
−1
1
]
=
[
−5
−1
]
A v =
[
3 −2
1 0
] [
2
1
]
=
[
4
2
]
= 2 v
Tomando como foco as transformac¸o˜es lineares do tipo
A x = λ x, com λ constante,
temos transformac¸o˜es nas quais o vetor x tem seu tamanho expandido ou diminuido.
Representando as transformac¸o˜es graficamente temos:
17
Matrizes Teoria de Matrizes para Estat´ıstica
Figura 2.1: Transformac¸o˜es do tipo Ax.
Por exemplo, A =

1 1
1 2
1 −1
 aplicada no vetor x =
[
x1
x2
]
resulta em A x =

x1 + x2
x1 + 2x2
x1 − x2
Definic¸a˜o 2.2. Autovetor
Um autovetor de uma matriz Ak×k e´ um vetor x, na˜o nulo, tal que A x = λx, para algum
escalar λ �
Definic¸a˜o 2.3. Autovalor
Um escalar λ e´ chamado de autovalor de A se existe soluc¸a˜o na˜o trivial x para A x = λx �
Considere a transformac¸a˜o A x = λ x, enta˜o, podemos escrever A x = λ Ix. Logo, uma forma
de encontrar os autovalores de A e´ resolver o sistema
A x− λ I x = (A− λ I) x = 0. (2.3)
O sistema (2.3) tem soluc¸a˜o na˜o trivial se, e somente se, a matriz A−λI for singular, enta˜o, os
autovalores de A sa˜o soluc¸o˜es da equac¸a˜o
|A− λ I| = 0. (2.4)
18
Matrizes Teoria de Matrizes para Estat´ıstica
Teorema 2.1. Seja uma matriz Ak×k e λ um escalar, enta˜o, as seguintes afirmac¸o˜es sa˜o equivalentes:
a) λ e´ um autovalor de A.
b) λ e´ soluc¸a˜o de |A− λ I| = 0.
c) o sistema (A− λ I) x = 0 tem soluc¸o˜es na˜o triviais.
Notas:
1) A equac¸a˜o polinomial |A x− λ I| = 0 e´ chamada func¸a˜o caracter´ıstica de A;
1) Os valores λ e x e sa˜o chamados autovalor e autovetor associados;
2) Normalmente, os autovetores sa˜o dados na forma padronizada e,tal que ete = 1, em que
ete = x‖x‖ =
x√
xtx
.
Resultado: Seja Ak×k uma matriz quadrada; como o polinoˆmio (2.4) e´ de grau k, enta˜o
existem k autovalores λ1, λ2, . . . , λk que satisfazem a equac¸a˜o polinomial |A− λ I| = 0. Assim
sendo, existem k autovetores e1, e2, . . . , ek associados.
Exemplos:
i) Seja a matriz:
A =
[
1 0
1 3
]
, enta˜o
|A− λ I| =
∣∣∣∣∣ (1− λ) 01 (3− λ)
∣∣∣∣∣ = (1− λ) (3− λ) = 0
3− 4λ+ λ2 = 0
λ1 =
4 +
√
16− 12
2 = 3 e λ2 =
4−√16− 12
2 = 1
Portanto, os autovalores de A sa˜o λ1 = 3 e λ2 = 1.
Para encontrar os autovetores associados devemos fazer:
19
Matrizes Teoria de Matrizes para Estat´ıstica
• Autovetor e1 associado ao autovalor λ1 = 3:
A x1 = λ1 x1
[
1 0
1 3
] [
x11
x12
]
= 3
[
x11
x12
]
{
x11 = 3x11
x11 + 3x12 = 3x12
Do sistema acima temos que x11 = 0 e x12 pode ser um valor arbitra´rio, o qual sera´
considerado igual a 1. O primeiro autovetor e´, portanto, x1t = (0, 1).
Padronizando o autovetor x1 temos
e1 =
x1√
x1tx1
=
[
0
1
]
.
• Autovetor e2 associado ao autovalor λ2 = 1:
A x2 = λ2 x2
[
1 0
1 3
] [
x21
x22
]
=
[
x21
x22
]
{
x21 = x21
x21 + 3x22 = x22
Da segunda equac¸a˜o temos x21 = −2x22. Tomando x22 = 1, enta˜o x21 fica igual a
x21 = −2 e o segundo autovetor e´, portanto, x2t = (−2, 1).
Padronizando o autovetor x2 temos
e2 =
x2√
x2tx2
= 1√
5
[
−2
1
]
=
[
−2/√5
1/
√
5
]
.
ii) Outro exemplo:
A =
[
3 4
1 6
]
, enta˜o
∣∣∣∣∣ (3− λ) 41 (6− λ)
∣∣∣∣∣ = 14− 9λ+ λ2 = 0
λ1 = 7
λ2 = 2
20
Matrizes Teoria de Matrizes para Estat´ıstica
• Autovetor e1 associado ao autovalor λ1 = 7:{
3x11 + 4x12 = 7x11
x11 + 6x12 = 7x12
Do sistema acima temos que x11 = x12, portando, x1t = (1, 1) e,
e1 =
[
1/
√
2
1/
√
2
]
.
• Autovetor e2 associado ao autovalor λ2 = 2:{
3x21 + 4x22 = 2x21
x21 + 6x22 = 2x22
Do sistema acima temos que x21 = −4x22, portando, x2t = (1,−1/4) e,
e2 =
[
4/
√
17
−1/√17
]
.
Resultados:
a) Seja Ap×p com autovalores λ1, λ2, . . . , λp, enta˜o, os autovalores de AtA e AAt, denotados
por δ1, δ2, . . . , δp, sera˜o os mesmos e
p∏
i=1
λ2i =
p∏
i=1
δi;
b) Se, ale´m disso, A for sime´trica, com autovetores v1,v2, . . . ,vp, AtA e AAt tera˜o
autovalores δ1 = λ21, δ2 = λ22, . . . , δp = λ2p e mesmos autovetores;
c) Os autovalores δ1, δ2, . . . , δp de AtA e AAt recebem o nome de valores singulares.
2.5 Matriz dos cofatores e matriz adjunta
i) Matriz dos Cofatores: Seja uma matriz quadrada Ap×p. Considere |Aij | como sendo o
determinante da submatriz resultante ao se retirar a i-e´sima linha e j-e´sima coluna de A,
i, j = 1, 2, . . . , p. Enta˜o a quantidade
Cij = (−1)i+j |Aij | ,
e´ definida como cofator do elemento aij .
A matriz que se obte´m substituindo-se cada termo ai,j de A pelo seu respectivo cofator e´
21
Matrizes Teoria de Matrizes para Estat´ıstica
chamada matriz dos cofatores de A e sera´ denotada por cof(A).
cof(A) =

C11 C12 · · · C1p
C21 C22 · · · C2p
...
...
. . .
...
Cp1 Cp2 · · · Cpp

Casos especiais:
Matriz 2×2:
cof (A) =
[
a22 −a21
−a12 a11
]
.
Matriz 3×3:
cof (A) =

∣∣∣∣∣ a22 a23a32 a33
∣∣∣∣∣ −
∣∣∣∣∣ a21 a23a31 a33
∣∣∣∣∣
∣∣∣∣∣ a21 a22a31 a32
∣∣∣∣∣
−
∣∣∣∣∣ a12 a13a31 a33
∣∣∣∣∣
∣∣∣∣∣ a11 a13a31 a33
∣∣∣∣∣ −
∣∣∣∣∣ a11 a12a31 a32
∣∣∣∣∣
∣∣∣∣∣ a11 a13a22 a23
∣∣∣∣∣ −
∣∣∣∣∣ a11 a13a21 a23
∣∣∣∣∣
∣∣∣∣∣ a12 a12a21 a22
∣∣∣∣∣

.
Exemplos:
a) Matriz 2×2:
A =
[
1 3
6 4
]
, cof(A) =
[
4 −6
−3 1
]
.
b) Matriz 3×3:
A =

3 0 1
1 2 1
3 −3 4
 .
C11 = (−1)(1+1)
∣∣∣∣∣ 2 1−3 4
∣∣∣∣∣ = 11, C12 = (−1)(1+2)
∣∣∣∣∣ 1 13 4
∣∣∣∣∣ = −1
C13 = (−1)(1+3)
∣∣∣∣∣ 1 23 −3
∣∣∣∣∣ = −9.
22
Matrizes Teoria de Matrizes para Estat´ıstica
Ainda, C21 = −3, C22 = 9, C23 = 9, C31 = −2, C32 = −2 e C33 = 6, logo
cof(A) =

11 −1 −9
−3 9 9
−2 −2 6

ii) Matriz Adjunta: A matriz adjunta de uma matriz quadrada, denotada por adj(A), e´ a
transposta da matriz dos cofatores.
Caso especial: Matriz 2×2:
adj (A) =
[
a22 −a12
−a21 a11
]
.
Exemplos:
a) Matriz 2×2:
A =
[
1 3
6 4
]
, adj(A) =
[
4 −3
−6 1
]
.
b) Matriz 3×3:
A =

3 0 1
1 2 1
3 −3 4
 , adj(A) =

11 −3 −2
−1 9 −2
−9 9 6

2.6 Matriz inversa
A inversa de uma matriz quadrada A, denotada por A−1, e´ tal que: A A−1 = A−1A = I.
Pode-se encontrar a inversa de uma matriz de uma maneira ra´pida por meio da relac¸a˜o com
sua matriz adjunta
A−1 = 1|A|adj (A) ,
em que |A| e´ o determinante da matriz A.
Caso especial: a inversa de uma matriz 2×2 e´ dada por
A =
[
a11 a12
a21 a22
]
, A−1 = 1|A|
[
a22 −a12
−a21 a11
]
.
23
Matrizes Teoria de Matrizes para Estat´ıstica
Exemplo:
A =
[
1 3
6 4
]
, A−1 = − 114
[
4 −3
−1 2
]
.
O procedimento acima, apesar de simples, na˜o e´ pra´tico quando se tem matrizes com dimenso˜es
muito grandes. O me´todo da diagonalizac¸a˜o (ou pivoteamento), mais pra´tico, e´ mais indicado
messes casos.
O me´todo do pivoteamento consiste em se colocar a matriz A ou lado da matriz identidade I, de
mesma dimensa˜o, formando uma matriz estendida
[
A I
]
. Por meio de operac¸o˜es elementares
aplicadas nas linhas de
[
A I
]
, efetuar a diagonalizac¸a˜o de A transformando-a numa matriz
identidade (as mesmas transformac¸o˜es devem ser aplicadas em I).
Apo´s a finalizac¸a˜o do processo, tem-se a` esquerda uma matriz identidade e a` direita a matriz
inversa de A, ou seja,
[
I A−1
]
.
Exemplo: Encontrar a matriz inversa de A pelo me´todo do pivoteamento.
A =

1 2 −1 1
2 2 0 3
0 −3 2 1
−3 0 −1 −4
 .
a) Montar a matriz estendida
[
A I
]
:

1 2 −1 1 1 0 0 0
2 2 0 3 0 1 0 0
0 −3 2 1 0 0 1 0
−3 0 −1 −4 0 0 0 1

b) Multiplicar a primeira linha por (−2) e somar a` segunda linha e multiplicar a primeira linha
por (3) e somar a` quarta linha:
1 2 −1 1 1 0 0 0
0 −2 2 1 −2 1 0 0
0 −3 2 1 0 0 1 0
0 6 −4 −1 3 0 0 1

24
Matrizes Teoria de Matrizes para Estat´ıstica
c) Dividir a segunda linha por (−2). Na sequeˆncia, multiplicar a segunda linha por (3) e somar
a` terceira linha e multiplicar a segunda linha por (−6) e somar a` quarta linha:
1 2 −1 1 1 0 0 0
0 1 −1 −1/2 1 −1/2 0 0
0 0 −1 −1/2 3 −3/2 1 0
0 0 2 2 −3 3 0 1

d) Multiplicar a terceira linha por (−1). Na sequeˆncia, multiplicar a terceira linha por (−2) e
somar a` quarta linha: 
1 2 −1 1 1 0 0 0
0 1 −1 −1/2 1 −1/2 0 0
0 0 1 1/2 −3 3/2 −1 0
0 0 0 1 3 0 2 1

d) Multiplicar a quarta linha por (−1/2) e somar a` terceira linha; multiplicar a quarta linha por
(1/2) e somar a` segunda linha e multiplicar a quarta linha por (−1) e somar a` primeira linha:
1 2 −1 0 −2 0 −2 −1
0 1 −1 0 5/2 −1/2 1 1/2
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1

e) Multiplicar a terceira linha por (1) e somar a`s segunda e primeira linhas:
1 2 0 0 −13/2 3/2 −4 −3/2
0 1 0 0 −2 1 −1 0
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1

f) Multiplicar a segunda linha por (−2) e somar a` primeira linha, com o pivoteamento completo:
1 0 0 0 −5/2 −1/2 −2 −3/2
0 1 0 0 −2 1 −1 0
0 0 1 0 −9/2 3/2 −2 −1/2
0 0 0 1 3 0 2 1
 .
Portanto, a inversa de A e´:
A−1 =

−5/2 −1/2 −2 −3/2
−2 1 −1 0
−9/2 3/2 −2 −1/2
3 0 2 1
 .
25
Matrizes Teoria de Matrizes para Estat´ıstica
Resultados
(as matrizes A, B e C sa˜o tais que as inversas existam e os produtos sejam definidos)
a) (A−1)t = (At)−1;
b) (A B)−1 = B−1A−1;
c) (kA)−1 = (1/k)A−1;
d) Se existea inversa A−1 de uma matriz A, enta˜o A−1 e´ u´nica.
2.7 Matriz na˜o singular
Uma matriz quadrada Ak×k e´ na˜o singular se:
A x = 0 =⇒ x = 0.
Notas:
1) Note que A x = a1x1 + a2x2 + . . .+ akxk, onde ai e´ a i-e´sima coluna de A, i = 1, 2, . . . , k.
Portanto, uma matriz Ak×k e´ na˜o singular se as suas colunas forem linearmente independentes,
2) Uma matriz quadrada e´ de posto completo se, e so´ se, ela e´ na˜o singular,
3) Se Ak×k e´ na˜o singular, enta˜o existe uma u´nica matriz inversa A−1,
4) Se Ak×k e´ na˜o singular, enta˜o |A| = 1/|A−1|, isto e´ |A|·|A−1| = 1,
5) Para uma matriz Ak×k na˜o singular, os resultados a seguir sa˜o equivalentes
• A x = 0 ⇒ x = 0,
• |A| 6= 0,
• Existe A−1 tal que, A−1A = I.
2.8 Matriz ortogonal
Uma matriz quadrada e´ dita ser ortogonal se P−1 = Pt, ou seja, uma matriz Pk×k e dita
ser ortogonal se suas colunas, consideradas como vetores, sa˜o mutuamente perpendiculares e de
comprimento 1, o que equivale a dizer que P Pt = I.
Exemplo:
P =

−1/2 1/2 1/2 1/2
1/2 −1/2 1/2 1/2
1/2 1/2 −1/2 1/2
1/2 1/2 1/2 −1/2
 , enta˜o P Pt = I.
Nota: Uma matriz P e´ ortogonal, se e somente se, Pt = P−1.
Propriedades:
a) Sejam pij , i, j = 1, 2, . . . , k, elementos de uma matriz ortogonal P, enta˜o, −1 ≤ pij ≤ 1;
b) Se P e´ ortogonal =⇒ P e´ na˜o singular;
26
Matrizes Teoria de Matrizes para Estat´ıstica
c) det(P) = ± 1;
d) Sejam P1, P2, . . ., Pk ortogonais, enta˜o o produto P1·P2· . . . ·Pk e´ uma matriz ortogonal;
Teorema 2.2. Seja uma matriz quadrada A, e uma matriz orotogonal P, enta˜o:
det(A) = det(PtAP) �
Teorema 2.3. Seja uma matriz quadrada A, enta˜o existe P ortogonal, tal que PtAP = D, D
diagonal, se, e so´ se, A e´ sime´trica �
Exemplo:
A =
[
1 0
4 1
]
det(A) = 1
P =
 1√2 − 1√2
1√
2
1√
2

PtAP =
[
3 −2
2 −1
]
det(PtAP) = 1
2.9 Matriz definida positiva
Considere o produto xtA x. Como temos apenas termos quadra´ticos x2i e termos cruzados xixj ,
xtA x recebe o nome de forma quadra´tica.
Se uma matriz Ak×k, simetrica, e´ tal que
xtA x > 0, ∀ x na˜o nulo,
enta˜o, dizemos que A e´ uma matriz definida positiva.
Nota: Se uma matriz Ak×k e´ definida positiva, enta˜o os seus autovalores sa˜o todos positivos, isto
e´ λi > 0, ∀ i = 1, 2, . . . , k.
Exemplo: Considere a forma quadra´tica 6x21 + 4x1x2 + 3x22, enta˜o
xtA x =
[
x1 x2
] [ 6 2
2 3
] [
x1
x2
]
.
Como 6x21 + 4x1x2 + 3x22 > 0, ∀ x 6= 0, enta˜o, A =
[
6 2
2 3
]
e´ definida positiva.
Notas:
1) Se xtA x ≥ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida positiva,
2) Se xtA x < 0, ∀ x na˜o nulo, enta˜o A e´ definida negativa,
3) Se xtA x ≤ 0, ∀ x na˜o nulo, enta˜o A e´ semi-definida negativa.
27
Matrizes Teoria de Matrizes para Estat´ıstica
2.10 Operac¸o˜es elementares
Operac¸o˜es elementares sa˜o transformac¸o˜es aplicadas nas linhas e colunas de uma matriz, podendo
ser do tipo:
i) troca de 2 linhas (ou colunas);
ii) multiplicac¸a˜o de uma linha (ou coluna) por um esclar;
iii) combinac¸o˜es lineares de linhas (ou colunas).
As operac¸o˜es elementares podem ser representadas por meio de matrizes que recebem o nome
de matrizes elementares. Por exemplo, considere o operador
P =

1 0 0
4 1 0
0 0 1
 .
Operando numa matriz A3×k, tem como resultado PA que preserva as linhas 1 e 3 e a segunda
linha dada por 4 vezes a linha 1 mais a linha 2.
Exemplo:
PA =

1 0 0
4 1 0
0 0 1


1 3 2 −2
4 2 −3 1
6 1 8 3
 =

1 3 2 −2
8 14 5 −7
6 1 8 3
 .
Resultados:
a) o posto de uma matriz na˜o e´ alterado pela aplicac¸a˜o de operac¸o˜es elementares;
b) duas matrizes de mesmo posto e dimenso˜es sa˜o ditas serem equivalentes;
c) duas matrizes equivalentes podem ser transformadas uma na outra por meio de operac¸o˜es
elementares
Sejam matrizes na˜o singulares P e Q, enta˜o, para alguma matriz A, os produtos PA, AQ e
PAQ teˆm todas o mesmo posto.
2.11 Matrizes similares
Sejam A e B quadradas de mesmas dimenso˜es, se existe Q na˜o singular, tal que:
B = Q−1AQ,
enta˜o A e B sa˜o chamadas de similares e a transformac¸a˜o Q−1AQ e´ chamada transformac¸a˜o
similar.
28
Matrizes Teoria de Matrizes para Estat´ıstica
Resultados:
i) Os determinantes de matrizes similares sa˜o iguais; no caso, |A| = |B|;
ii) Matrizes similares teˆm mesmos autovalores.
Exemplo 2.1. Sejam
A =
[
0.4 0.6
0.2 0.8
]
e Q =
[
1 1
1 −3
]
.
Enta˜o:
B =
[
3/4 1/4
1/4 1/4
] [
0.4 0.6
0.2 0.8
] [
1 1
1 −3
]
=
[
1 −1.6
0 0.2
]
.
Neste caso, |A| = 0.2 = |B|.
Resultado: Seja Ak×k, enta˜o existe uma matriz Q tal que Q−1AQ = T, em que T e´ triangular
superior e os autovalores de A sera˜o a diagonal de T.
Teorema 2.4. Se Ak×k e´ sime´trica, enta˜o, seus autovalores sera˜o reais.
Teorema 2.5. Se Ak×k e´ sime´trica, enta˜o, para dois autovalores λi e λj , i 6= j, teremos autovetores
associados xi e xj e
xti xj = 0,
ou seja, xi e xj sa˜o ortogonais.
Teorema 2.6. Se Ak×k e´ sime´trica, enta˜o existe uma matriz P tal que
PtAP = Λ,
em que Λ e´ diagonal com os autovalores de A.
Exemplo 2.2. Seja
A =
[
16 4
4 10
]
.
Seus autovalores sa˜o λ1 = 18 e λ2 = 8, com autovetores associados:
e1 =
[
2/
√
5
1/
√
5
]
e e1 =
[
1/
√
5
−2/√5
]
,
logo,P =
[
2/
√
5 1/
√
5
1/
√
5 −2/√5
]
Enta˜o: [
2/
√
5 1/
√
5
1/
√
5 −2/√5
] [
16 4
4 10
] [
2/
√
5 1/
√
5
1/
√
5 −2/√5
]
=
[
18 0
0 8
]
= Λ.
29
3
Matrizes particionadas
Uma matriz particionada e´ uma matriz cujo conteu´do e´ subdividido em submatrizes, ou blocos.
Por exemplo, seja Am×n na˜o singular, enta˜o, a matriz A particionada em blocos 2 × 2 e´ definida
por:
A =

A11 A12
m1 × n1 m1 × n2
A21 A22
m2 × n1 m2 × n2
 ,
em que: m1 +m2 = m e n1 + n2 = n.
O caso geral da partic¸a˜o em blocos `× c e´ dado por:
A =

A11 A12 . . . A1c
A21 A22 . . . A2c
...
...
. . .
...
A`1 A`2 . . . A`c
 ,
sendo Aij de dimenso˜es mi × nj , i = 1, 2, . . . , ` e j = 1, 2, . . . , c, tal que
∑`
i=1
mi = m e
c∑
j=1
ni = n.
Nota 3.1. i) A partic¸a˜o pode ser quadrada, como e´ o caso 2×2, mas os blocos Aij , i = 1, 2, . . . , `
e j = 1, 2, . . . , c, na˜o sa˜o necessariamente quadrados;
Nota 3.2. ii) Neste material vamos considerar apenas as partic¸o˜es em blocos 2× 2.
30
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
3.1 Casos especiais
a) Bloco triangulares inferior (L) e superior (U):
L =
[
A11 0
A21 A22
]
,
U =
[
A11 A12
0 A22
]
.
b) Bloco diagonal:
D =
[
A11 0
0 A22
]
,
c) Sime´trica:
A =
[
A11 A12
At12 A22
]
,
com A11 e A22 sime´tricas.
d) Transposta:
At =
[
At11 At21
At12 At22
]
.
3.2 Operac¸o˜es com matrizes particionadas
a) Trac¸o: seja A particionada em blocos 2× 2, enta˜o o trac¸o de A pode ser escrito por
traço(A) = traço(A11) + traço(A22).
b) Soma: Sejam A e B com mesmas dimenso˜es, particionadas em blocos 2 × 2, tais que seus
blocos equivalentes tambe´m teˆm mesmas dimenso˜es, enta˜o:
A + B =
[
A11 + B11 A12 + B12
A21 + B21 A22 + B22
]
.
b) Produto: Sejam Am×n e Bn×k, cujas partic¸o˜es teˆm dimenso˜es compat´ıveis para o produto,
31
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
ou seja, A e B sa˜o do tipo:
Am×n =

A11 A12
m1 × n1 m1 × n2
A21 A22
m2 × n1 m2 × n2
 e Bm×n =

B11 B12
n1 × k1 n1 × k2
B21 B22
n2 × k1 n2 × k2
 ,
em que: m1 + m2 = m, n1 + n2 = n e k1 + k2 = k, enta˜o o produto entre A e B e´ definido
por:
Cm×k = AB =
[
A11B11 + A12B21 A11B12 + A12B22
A21B11 + A22B21 A21B12 + A22B22
]Cm×k =

C11 C12
m1 × k1 m1 × k2
C21 C22
m2 × k1 m2 × k2
 .
Exemplo 3.1. Sejam duas matrizes A e B, tais que:
A5×5 =

1 2 4 2 1
−1 3 0 −3 1
2 −2 1 0 −1
2 1 3 1 0
−2 0 1 1 −1

,
B5×6 =

−1 0 3 4 3 0
3 1 1 −3 2 0
0 3 1 0 −1 1
−1 −1 0 −2 −1 −1
1 3 3 2 1 2

.
Fazendo os produtos parciais, temos:
A11B11 + A12B21 =

4 15
14 9
−9 −2
 ,
32
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
A11B12 + A12B22 =

12 −4 2 4
3 −5 7 5
2 12 0 −1
 ,
A21B11 + A22B21 =
[
0 9
0 −1
]
,
A21B12 + A22B22 =
[
10 3 4 2
−8 −12 −9 −2
]
.
Portanto, o produto AB e´ dado por:
AB5×6 =

4 15 12 −4 2 4
14 9 3 −5 7 5
−9 −2 2 12 0 −1
0 9 10 3 4 2
0 −1 −8 −12 −9 −2

�
3.3 Decomposic¸a˜o LDU
A decomposic¸a˜o LDU trata-se de um processo de diagonalizac¸a˜o de uma matriz particionada,
em que:
B L e´ uma matriz bloco triangular inferior;
B D e´ uma matriz bloco diagonal;
B U e´ uma matriz bloco triangular superior.
Assim sendo, dada uma a matriz A na˜o singular, podemos escrever
A = L D U e D = L−1 A U−1.
Seja A dada por:
A =
[
A11 A12
A21 A22
]
.
i) Transformamos A numa matriz bloco triangular superior por meio da operac¸a˜o
[
I 0
−A21A−111 I
] [
A11 A12
A21 A22
]
=
[
A11 A12
0 F
]
, (3.1)
em que F = A22 −A21A−111 A12.
33
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
ii) De maneira semelhante, podemos transformar A numa matriz bloco triangular inferior fazendo
[
A11 A12
A21 A22
] [
I −A−111 A12
0 I
]
=
[
A11 0
A21 F
]
,
com F definido da mesma forma como no caso anterior.
iii) Combinando as duas operac¸o˜es anteriores, ou seja, pre-multiplicando a matriz A pela matriz
dada em (i) e po´s-multiplicando pela matriz em (ii), temos como resultado uma matriz
diagonal [
I 0
−A21A−111 I
] [
A11 A12
A21 A22
] [
I −A−111 A12
0 I
]
=
[
A11 0
0 F
]
.
E´ fa´cil mostrar que (fica como exerc´ıcio)
[
I 0
−A21A−111 I
]−1
=
[
I 0
A21A−111 I
]
= L,
e que
[
I −A−111 A12
0 I
]−1 [
I A−111 A12
0 I
]
= U.
Desta forma, a decomposic¸a˜o L D U de A e´ dada por:[
I 0
A21A−111 I
] [
A11 0
0 F
] [
I A−111 A12
0 I
]
= A.
Exemplo 3.2. Considere a matriz A particionada em blocos 2× 2
A5×5 =

1 1 2 1
1 2 0 2
3 0 2 1
1 3 1 −1
 .
34
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
Desta forma, temos
A11 =
[
1 1
1 2
]
e |A11| = 1,
A22 =
[
2 1
1 −1
]
e |A22| = −3,
cujas inversas sa˜o dadas por:
A−111 =
[
1 1
1 2
]
,
A−122 =
1
3
[
2 1
1 −1
]
.
A matriz F, definida em (3.1), e´ dada por
F = A22 −A21A−111 A12
=
[
−10 1
3 −4
]
.
Das relac¸o˜es acima, temos, ainda, que
A21A−111 =
[
6 −3
−1 2
]
,
A−111 A12 =
[
4 0
−2 1
]
.
Portando, as matrizes L, U e D da decomposic¸a˜o LDU de A sa˜o dadas por
L =

1 0 0 0
0 1 0 0
6 3 1 0
−1 2 0 1
 ,
35
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
U =

1 0 4 0
0 1 −2 1
0 0 1 0
0 0 0 1
 ,
D =

1 1 0 0
1 2 0 0
0 0 −10 1
0 0 3 4
 �
3.4 Rank, ou posto, de matrizes particionadas
Seja a matriz A particionada em blocos 2× 2, enta˜o,
a) se A11 na˜o e´ singular, rank(A) = rank(A11) + rank(F);
b) se A22 na˜o e´ singular, rank(A) = rank(A22) + rank(G),
em que
F = A22 −A21A
−1
11 A12
G = A11 −A12A−122 A21
Prova item (a): Se duas matrizes L e U na˜o sa˜o singulares enta˜o das sec¸o˜es (2.10) e (3.3)
segue-se que:
rank(A) = rank(D) = rank(A11) + rank(F)
.
A prova do item (b) segue reacioc´ınio semelhante, com a diagonalizac¸a˜o da decomposic¸a˜o LDU
partindo de A22 como pivoˆ.
3.5 Determinante de matrizes particionadas
Resultado: Considere uma matriz A particionada em blocos 2 × 2 em que A11 e A22 sejam
quadradas. Se A for bloco triangular superior, bloco triangular inferior ou bloco diagonal, ou seja,
A =
[
A11 A12
0 A22
]
, A =
[
A11 0
A21 A22
]
ou A =
[
A11 0
0 A22
]
.
36
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
enta˜o, segue-se que
|A| = |A11| · |A22|.
Seja A =
[
A11 A12
A21 A22
]
, enta˜o |A| = |A11| · |A22 −A21A−111 A12|, ou seja,
det(A) = det(A11) · det(F).
Prova: Podemos provar a relac¸a˜o acima a partir da diagonalizac¸a˜o de A, pore´m, vamos fazer
a demonstrac¸a˜o usando uma proposic¸a˜o diferente. Seja a matriz C dada por
C =
[
A−111 −A−111 A12
0 I
]
,
enta˜o, segue-se que |C| = |A−111 | · |I| = |A−111 |.
Como podemos escrever |A| = |A11| · |A| · |A−111 |, logo
|A| = |A11| ·
∣∣∣∣∣ A11 A12A21 A22
∣∣∣∣∣ ·
∣∣∣∣∣ A−111 −A−111 A120 I
∣∣∣∣∣
|A| = |A11| ·
∣∣∣∣∣
[
A11 A12
A21 A22
]
·
[
A−111 −A−111 A12
0 I
]∣∣∣∣∣
|A| = |A11| ·
∣∣∣∣∣ I 0A21A−111 A22 −A21A−111 A12
∣∣∣∣∣
|A| = |A11| ·
∣∣∣A22 −A21A−111 A12∣∣∣ �
Exemplo 3.3. Considere a matriz do Exemplo (3.2). Como
A11 =
[
1 1
1 2
]
e F =
[
−10 1
3 −4
]
,
37
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
enta˜o, o determinante da matriz A e´ dado por:
|A| =
∣∣∣∣∣ 1 11 2
∣∣∣∣∣ ·
∣∣∣∣∣ −10 13 −4
∣∣∣∣∣ = (1) · (37) = 37.
Nota 3.3. Com um racioc´ınio semelhante, mostra-se que |A| = |A22| · |A11−A12A−122 A21|, ou seja,
det(A) = det(A22) · det(G).
3.6 A inversa de uma matriz particionada
Seja |A11| 6= 0 e |A22| 6= 0, os resultados a seguir sa˜o va´lidos.
i) A−111 e A−122 existem;
ii)
(
A11 −A12A−122 A21
)−1
e
(
A22 −A21A−111 A12
)−1
existem;
iii) Com isso, A−1 pode ser escrita como:
A−1 =

(
A11 −A12A−122 A21
)−1 −A−111 A12 (A22 −A21A−111 A12)−1
−A−122 A21
(
A11 −A12A−122 A21
)−1 (
A22 −A21A−111 A12
)−1
 . (3.2)
Prova: Considere a matriz B, inversa de A, isto e´ AB = I, enta˜o, B11 e B22 na˜o sa˜o singulares.
Desta forma, temos que
AB =
[
A11B11 + A12B21 A11B12 + A12B22
A21B11 + A22B21 A21B12 + A22B22
]
=
[
I 0
0 I
]
.
Logo, temos as seguintes relac¸o˜es entre as partes de A e as submatrizes B11 e B21A11B11 + A12B21 = IA21B11 + A22B21 = 0
38
Matrizes particionadas Teoria de Matrizes para Estat´ıstica
Isolando B21 na segunda equac¸a˜o, temos
A21B11 + A22B21 = 0
A22B21 = −A21B11
B21 = −A−122 A21B11
Asim, podemos obter B11 substituindo B21 na primeira equac¸a˜o, ou seja,
A11B11 −A12(A−122 A21B11) = I
(A11 −A12A−122 A21)B11 = I
B11 = (A11 −A12A−122 A21)−1
B11 = G−1
Com isso B21 e´ dado por:
B21 = −A−122 A21(A11 −A12A−122 A21)−1
B21 = −A−122 A21G−1
De maneira ana´loga podemos calcular B12 e B22 a partir deA11B12 + A12B22 = 0A21B12 + A22B22 = I
De onde obtemos:{
B22 = (A22 −A21A−111 A12)−1
B22 = F−1
e
{
B12 = −A−111 A12(A22 −A21A−111 A12)−1
B12 = −A−111 A12F−1
Portanto, com as submatrizes B11, B12, B21 e B22 obtemos a inversa de A como em (3.2) �
39
4
Decomposic¸a˜o de matrizes
4.1 Decomposic¸a˜o espectral
Seja a matriz Ak×k, sime´trica, enta˜o A pode escrita por:
A =
k∑
i=1
λi ei eti.
Exemplo:
A =
[
2.2 0.4
0.4 2.8
]
, enta˜o
λ1 = 3, e1 =
 1√5
2√
5
 ;
λ2 = 2, e2 =
 2√5−1√
5
 .
Logo,
A = 3
[
1/
√
5
2/
√
5
] [ 1√
5
,
2√
5
]
+ 2
[
2/
√
5
−1/√5
] [ 2√
5
,
−1√
5
]
A =
[
3/5 6/5
6/5 12/5
]
+
[
8/5 −4/5
−4/5 2/5
]
A =
[
2.2 0.4
0.4 2.8
]
.
Vamos definir uma matriz U, ortogonal, cujas colunas sa˜o formadas pelos autovetores e1, e2,
40
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
. . ., ek e, da mesma forma, uma matriz ortogonalV, tal que V = Ut, ou seja
U =
[
e1 | e2 | . . . | ek
]
, e
V = Ut =

et1
et2
...
etk
 .
Definindo, ainda, uma matriz diagonal formada pelos autovalores λ1, λ2, . . ., λk, ou seja,
Λ =

λ1 0 · · · 0
0 λ2 · · · 0
...
...
. . .
...
0 0 · · · λk
 ,
podemos escrever
A = U Λ V ou A = U Λ Ut.
No caso 2×2, temos
U =
[
e1 | e2
]
e Λ =
[
λ1 0
0 λ2
]
.
Desta forma, uma matriz A2×2 pode ser representada por
A =
[
e1 | e2
] [ λ1 0
0 λ2
] [
et1
et2
]
A = λ1 e1 et1 + λ2 e2 et2.
Exemplo: No exemplo anterior temos
A =
[
2.2 0.4
0.4 2.8
]
, U =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
e Λ =
[
3 0
0 2
]
.
Casos especiais:
41
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
a) Matriz inversa: a inversa de uma matriz Ak×k, sime´trica, pode ser obtida fazendo
A−1 =
k∑
i=1
1
λi
ei eti,
ou ainda,
A−1 = U Λ−1Ut.
b) Matriz raiz quadrada: a matriz raiz quadrada de uma matriz Ak×k, definida positiva, e´
uma matriz tal que A1/2A1/2 = A, podendo ser obtida de
A1/2 =
k∑
i=1
√
λi ei eti,
ou, equivalentemente,
A1/2 = UΛ1/2Ut,
em que Λ1/2 e´ dada por
Λ1/2 =

√
λ1 0 · · · 0
0
√
λ2 · · · 0
...
...
. . .
...
0 0 · · · √λk
 .
Outras relac¸o˜es envolvendo a matriz raiz quadrada sa˜o apresentadas a seguir:
• A−1/2 = (A1/2)−1 = UΛ−1/2Ut;
• A−1/2A−1/2 = A−1.
Exemplo: Considere a matriz A =
[
2.2 0.4
0.4 2.8
]
,
enta˜o, U =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
e Λ =
[
3 0
0 2
]
.
Desta forma, fazendo Λ1/2 =
[ √
3 0
0
√
2
]
, temos
A1/2 =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
] [ √
3 0
0
√
2
] [
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
A1/2 =
 (√3+4√2)5 (2√3−2√2)5
(2
√
3−2√2)
5
(4
√
3+
√
2)
5
 .
42
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
A matriz A1/2 e´ a matriz raiz quadrada de A sendo que, de fato
A1/2 A1/2 =
 (√3+4√2)5 (2√3−2√2)5
(2
√
3−2√2)
5
(4
√
3+
√
2)
5
  (√3+4√2)5 (2√3−2√2)5
(2
√
3−2√2)
5
(4
√
3+
√
2)
5
 = [ 2.2 0.4
0.4 2.8
]
= A.
Agora, fazendo Λ−1/2 =
[
1/
√
3 0
0 1/
√
2
]
, temos
A−1/2 =
[
1/
√
5 2/
√
5
2/
√
5 −1/√5
] [
1/
√
3 0
0 1/
√
2
] [
1/
√
5 2/
√
5
2/
√
5 −1/√5
]
A−1/2 =
 ( 15√3 + 45√2) ( 25√3 − 25√2)(
2
5
√
3 −
2
5
√
2
) (
4
5
√
3 +
1
5
√
2
)  ,
sendo assim, teremos
A−1/2 A−1/2 = 16
[
2.8 −0.2
−0.2 2.2
]
= A−1.
4.2 Decomposic¸a˜o em valores singulares
Seja a matriz Am×k uma matriz de valores reais. Existem matrizes Um×m e Vk×k, ortogonais,
tais que
A = UΣVt,
em que Λ e´ uma matriz do tipo
Σ =
[
Σr 0
0 0
]
m×k
, com r = posto de A,
e Σr e´ uma matriz diagonal com os r valores singulares de A.
A decomposic¸a˜o em valores singulares pode ser expressa numa relac¸a˜o matricial que depende
do posto da matriz.
Considere Am×k e seja r ≤ min(m, k), rank(A). Enta˜o, existem r constantes positivas, ou
valores singulares, σ1 =
√
λ1, σ2 =
√
λ2, . . . , σr =
√
λr, em que λi > 0, i = 1, 2, . . . , r sa˜o os r
autovalores positivos de AtA.
Existem, ainda, r autovetores v1,v2, . . . ,vr, de dimensa˜o k × 1 e r autovetores u1,u2, . . . ,ur,
de dimensa˜o m× 1, tal que
A =
r∑
i=1
σi ui vti = Ur Σr Vtr,
43
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
em que Ur = [u1 | u2 | · · · | ur] e Vr = [v1 | v2 | · · · | vr], sa˜o matrizes ortogonais e Σr e´ uma
matriz diagonal do tipo
Σr =

σ1 0 · · · 0
0 σ2 · · · 0
...
...
. . .
...
0 0 · · · σr
 .
Nessa situac¸a˜o, λ1 ≥ λ2 ≥ . . . ≥ λr > 0 e v1,v2, . . . ,vr, sa˜o os r primeiros pares de autovalores
e autovetores de AtA, obtidos de
AtA vi = λi vi,
em que λ1 > λ2 > . . . > λr > 0, sa˜o valores estritamente positivos.
Os autovetores ui, por sua vez, esta˜o associados aos autovetores vi, i = 1, 2, . . . , r, pela relac¸a˜o
ui =
1
σi
A vi.
Desta forma, a decomposic¸a˜o em valores singulares pode ser escrita pela expressa˜o
A = Ur Σr Vtr.
Nota 4.1. Notas
a) Alternativamente, ui, i = 1, 2, . . . , r, sa˜o os r autovetores associados aos mesmos autovalores
positivos λ1 ≥ λ2 ≥ . . . ≥ λr > 0 de A At, em que σi =
√
λi, i = 1, 2, . . . , r sa˜o os respectivos
valores singulares.
Os autovetores vi, por sua vez, esta˜o relacionados aos autovetores ui, i = 1, 2, . . . , r, pela
relac¸a˜o
vi =
1
σi
At ui.
b) Da decomposic¸a˜o em valores singulares temos, ainda, as seguintes relac¸o˜es:A vi = σi ui.At ui = σi vi.
c) Uma forma de representar a decomposic¸a˜o em valores singulares e´ atrave´s da decomposic¸a˜o
polar, em que a matriz Am×k pode ser representada por A = P Q, com P = U Σ Ut e
44
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Q = U Vt. De fato,
A = U Σ Vt
= U Σ (Ut U) Vt
= (U Σ Ut) (U Vt)
= P Q.
Exemplo 4.1. Seja A =

1 1
0 1
1 0
, enta˜o, At A e´ dada por
At A =
[
1 0 1
1 1 0
] 
1 1
0 1
1 0
 =
[
2 1
1 2
]
.
O posto de A e´ r = 2, assim, os dois autovalores diferentes de 0 de At A sa˜o λ1 = 3 e λ2 = 1.
Os autovetores associados sa˜o
v1 =
[
1/
√
2
1/
√
2
]
e v2 =
[
1/
√
2
−1/√2
]
respectivamente.
Os autovetores u1 e u2, por sua vez, sa˜o obtidos de
u1 =
1√
3

1 1
0 1
1 0

[
1/
√
2
1/
√
2
]
=

2/
√
6
1/
√
6
1/
√
6
 ,
u2 =
1√
1

1 1
0 1
1 0

[
1/
√
2
−1/√2
]
=

0
−1/√2
1/
√
2
 .
45
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Assim sendo, a matriz A pode ser escrita como
A = Ur Σr Vtr, ou seja,
A =

2/
√
6 0
1/
√
6 −1/√2
1/
√
6 1/
√
2

[ √
3 0
0 1
] [
1/
√
2 1/
√
2
1/
√
2 −1/√2
]
.
A =

1 1
0 1
1 0

A decomposic¸a˜o polar de A e´ expressa por:
P = U Σ Ut = 1√
12

4 2 2
2 (1 +
√
3) (1−√3)
2 (1−√3) (1 +√3)

Q = U Vt = 1√
12

2 2
(1−√3) (1 +√3)
(1 +
√
3) (1−√3)
 �
Exemplo 4.2. Seja A =

4 3
8 6
8 −9
, enta˜o, A At e´ dada por
A At =

4 3
8 6
8 −9

[
4 8 8
3 6 −9
]
=

25 50 5
50 100 10
5 10 145
 .
Os autovalores diferentes de 0 de A At sa˜o λ1 = 150 e λ2 = 120 com autovetores associados,
u1 =

−1/√30
−2/√30
−5/√30
 e u2 =

1/
√
6
2/
√
6
−1/√6

respectivamente.
46
Decomposic¸a˜o de matrizes Teoria de Matrizes para Estat´ıstica
Os vetores v1 e v2, por sua vez, sa˜o obtidos de
v1 =
1√
150
[
4 8 8
3 6 −9
] 
−1/√30
−2/√30
−5/√30
 =
[
−2/√5
1/
√
5
]
,
v2 =
1√
120
[
4 8 8
3 6 −9
] 
1/
√
6
2/
√
6
−1/√6
 =
[
−1/√5
−2/√5 .
]
.
Assim sendo, a matriz A pode ser escrita como
A = U Λ Vt, ou seja,
A =

−1/√30 −1/√6
−2/√30 −2/√6
−5/√30 1/√6

[ √
150 0
0
√
120
] [
−2/√5 1/√5
−1/√5 −2/√5
]
.
A =

4 3
8 6
8 −9
 �
47
5
Vetores aleato´rios
5.1 Vetores aleato´rios
Um vetor Xp×1, do tipo
X =

X1
X2
...
Xp

e´ um vetor aleato´rio se X1, X2, . . . , Xp forem varia´veis aleato´rias (va’s).
Nota 5.1. Como um vetor aleato´rio e´ uma representac¸a˜o generalizada de uma varia´vel aleato´ria,
aqui tambe´m iremos denota´-los por va �
Nota 5.2. Da mesma forma, uma matriz aleato´ria e´ uma matriz cujos elementos sa˜o va’s �
Exemplo 5.1. Num estudo sobre a qualidade do ar foram observadasas varia´veis X1: radiac¸a˜o
solar; X2: velocidade do ar; X3: temperatura e X4: concentrac¸a˜o de ozone.
Desta forma, essas varia´veis formam um vetor aleato´rio de dimensa˜o 4, dado por
X =

X1
X2
X3
X4
 �
A distribuic¸a˜o de probabilidade conjunta de um vetor aleato´rio e´ definida por
i) p(x) = p(x1, . . . , xp) = P (X1 = x1, . . . , Xp = xp), se X for composto por varia´veis aleato´rias
discretas e,
ii) f(x) = f(x1, . . . , xp), se X for composto por varia´veis aleato´rias cont´ınuas.
As distribuic¸o˜es marginais das varia´veis aleato´rias X1, X2, . . . , Xp sa˜o calculadas por
48
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
i) Caso discreto
pk(xk) =
∑
x1,...,xp
xi 6=xk
P (X1 = x1, . . . , Xp = xp), k = 1, 2, . . . , p,
ii) Caso cont´ınuo
fk(xk) =
∫
x1,...,xp
xi 6=xk
f(x1, . . . , xp)dx1 . . . dxp, k = 1, 2, . . . , p.
Combinac¸o˜es lineares de varia´veis aleato´rias
Em muitas aplicac¸o˜es estat´ısticas, especialmente no contexto multvariado, trabalha-se com
combinac¸o˜es lineares de va’s. Uma combinac¸a˜o linear dos componentes de um vetor aleato´rio
pode ser representada pelo produto interno entre um vetor de coeficientes a e o vetor X.
Seja um vetor aleato´rio X e um vetor de coeficientes lineares a, enta˜o, temos uma combinac¸a˜o
linear dada por
Y = atX =
p∑
i=1
ai Xi = a1 X1 + a2 X2 + . . .+ ap Xp.
Exemplo 5.2. Considere o vetor Xt = (X1, X2) e os coeficientes at = (1/2, 1/2), enta˜o, a
combinac¸a˜o linear
Y = atX = X1 + X22 ,
representa a me´dia entre X1 e X2 �
Considere, agora, vetor aleato´rio X e k combinac¸o˜es lineares dadas pelos vetores de coeficientes
a1,a2, . . . ,ak, assim, temos que
Y1 = at1X = a11 X1 + a12 X2 + . . .+ a1p Xp
Y2 = at2X = a21 X1 + a22 X2 + . . .+ a2p Xp
...
...
Yk = atkX = ak1 X1 + ak2 X2 + . . .+ akp Xp
Agrupando as varia´veis Y1, Y2, . . . , Yk num vetor aleato´rio Y, os coeficientes das combinac¸o˜es
lineares devem ser dispostos como linhas numa matriz de coeficientes A, ou seja
A =

at1
at2
...
atk
 .
49
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma, as combinac¸o˜es lineares sa˜o escritas como
Y = AX =

at1X
at2X
...
atkX
 .
Exemplo 5.3. Exemplos de aplicac¸o˜es com diversas combinac¸o˜es lineares podem ser obtidas nas
ana´lises mutivariadas de componentes principais ou correlac¸a˜o canoˆnica, entre outras �
5.1.1 Valor esperado de um vetor aleato´rio
O valor esperado de um vetor aleato´rio X e´ definido por:
E(X) =

E(X1)
E(X2)
...
E(Xp)
 ,
em que E(Xi), i = 1, 2, . . . , p, e´ o valor esperado da i-e´sima va.
Normalmente o vetor de me´dias e´ denotado por µ, ou seja,
E(X) = µ =

µ1
µ2
...
µp
 ,
sendo que E(Xi) = µi =

∑
xi xipi(xi), se xi for discreta e,
∫
xi
xifi(xi), se xi for cont´ınua.
Propriedades
a) Sejam um va X e um vetor de coeficientes a, enta˜o, a combinac¸a˜o atX tem valor esperado
E(atX) = atE(X).
b) Sejam as combinac¸o˜es lineares atX e btY, com X e Y, enta˜o
E(atX + btY) = atE(X) + btE(Y).
c) Comsiderando k combinac¸o˜es lineares com uma matriz de coeficientes A, temos
E(A X) = A E(X).
50
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Da mesma forma, com dois conjuntos de combinac¸o˜es lineares A X e B Y tais que as
dimenso˜es das matrizes envolvidas sejam compat´ıveis, temos
E(A X + B Y) = A E(X) + B E(Y).
Exemplo 5.4.
a) Sejam Xt = (X1, X2, X3) tal que E(X) = (2,−1, 1)t. Se at = (4, 3, 3), enta˜o,
atX = 4X1 + 3X2 + 3X3
e
E(atX) =
[
4 3 3
] 
2
−1
1
 = 8− 3 + 3 = 8.
b) Com k = 4 combinac¸o˜es lineares dadas pelos coeficientes na matriz
A =

2 −1 1
0.5 0 1
1 2 1
−1 1 2
 ,
as combinac¸o˜es lineares sa˜o dadas por
Y1 = 2X1 −X2 +X3
Y2 = X1/2 +X3
Y3 = X1 + 2X2 +X3
Y4 = −X1 +X2 + 2X3
logo, E(AX) =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


2
−1
1
 =

6
2
1
−1
 �
5.1.2 Matriz de variaˆncias-covariaˆncias de um vetor aleato´rio
Sejam X1 e X2 va’s com µ1 = E(X1) e µ2 = E(X2). Enta˜o, temos que suas respectivas
variaˆncias sa˜o calculadas por
σ21 = V ar(X1) = E[(X1 − µ1)2] = E[(X1 − µ1)(X1 − µ1)] e
σ22 = V ar(X2) = E[(X2 − µ2)2] = E[(X2 − µ2)(X2 − µ2)],
51
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
e, a covariaˆncia entre X1 e X2, por
σ12 = Cov(X1, X2) = E[(X1 − µ1)(X2 − µ2)].
No contexto multivariado, as quantidades acima sa˜o representadas por uma matriz de variaˆncias
e covariaˆncias (matriz var-cov) denotada por Σ
Σ =
[
σ21 σ12
σ12 σ22
]
.
Nota 5.3. Observe que a matriz Σ e´ sime´trica cuja diagonal e´ composta pelas variaˆncias das varia´veis
aleato´rias e os elementos fora da diagonal pelas covariaˆncias entre essas varia´veis �
Considere o vetor aleato´rio X composto pelas va’s X1, X2, . . . , Xp, tal que E(X) = µ, enta˜o, a
matriz var-voc de X e´ definida por
ΣX = Cov(X) = E[(X− µ)(X− µ)t]
ΣX = E


(X1 − µ1)
(X2 − µ2)
...
(Xp − µp)

[
(X1 − µ1) (X2 − µ2) . . . (Xp − µp)
]

ΣX = E

(X1 − µ1)2 (X1 − µ1)(X2 − µ2) . . . (X1 − µ1)(Xp − µp)
(X2 − µ2)(X1 − µ1) (X2 − µ2)2 . . . (X2 − µ2)(Xp − µp)
...
...
. . .
...
(Xp − µp)(X1 − µ1) (Xp − µp)(X2 − µ2) . . . (Xp − µp)2

ΣX =

E[(X1 − µ1)2] E[(X1 − µ1)(X2 − µ2)] . . . E[(X1 − µ1)(Xp − µp)]
E[(X2 − µ2)(X1 − µ1)] E[(X2 − µ2)2] . . . E[(X2 − µ2)(Xp − µp)[
...
...
. . .
...
E[(Xp − µp)(X1 − µ1)] E[(Xp − µp)(X2 − µ2)[ . . . E[(Xp − µp)2]
 .
Ou seja, a matriz var-cov de X e´ da forma:
ΣX = Cov(X) =

σ21 σ12 . . . σ1p
σ12 σ22 . . . σ2p
...
...
. . .
...
σ1p σ2p . . . σ2p
 .
52
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Propriedades
a) Seja o vetor aleato´rio X, tal que Cov(X) = ΣX e a combinac¸a˜o linear atX. A variaˆncia de
atX e´ dada por
V ar(atX) = atΣXa.
Prova:
V ar(atX) = E[(atX− atµ)(atX− atµ)t]
V ar(atX) = E[(atX− atµ)(Xta − µta)]
V ar(atX) = E[at(X− µ)(Xt − µt)a]
V ar(atX) = atE[(X− µ)(X− µ)t]a
V ar(atX) = atΣXa �
Ainda: V ar(atX + b) = atΣXa.
b) Considerando k combinac¸o˜es lineares com matriz de coeficientes A, temos
Cov(AX) = ACov(X)At = AΣXAt.
Prova: segue o mesmo racioc´ınio do item anterior.
Exemplo 5.5.
i) No exemplo (5.4), seja a matriz var-cov de X
ΣX =

4 −2 2
−2 7 3
2 3 6
 ,
enta˜o, dada a combinac¸a˜o linear Z = atX, em que at = (4, 3, 3), tem-se
V ar(Z) = ( 4 3 3 )

4 −2 2
−2 7 3
2 3 6


4
3
3
 = 235.
ii) Dada a matriz de coeficientes A =

2 −1 1
0.5 0 1
1 2 1
−1 1 2
 ,
53
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
tal que Z = A X, enta˜o, ΣZ = Cov(Z) e´ dada por
ΣZ =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


4 −2 2
−2 7 3
2 3 6


2 0.5 1 −1
−1 0 2 1
1 1 1 2
 =

39 13 3 −6
13 9 15 12
3 15 46 41
−6 12 41 43
 �
c) Sejam os vetores aleato´rios X e Y, com vetores de me´dias µX e µY , respectivamente. A
matriz de covariaˆncias entre X e Y, denotada por Cov(X,Y), e´ definida por
Cov(X,Y) = E[(X− µX)(Y− µY)t] = ΣXY .
De (a) e (b) segue-se que:
i) para duas combinac¸o˜es lineares atX e btY,
Cov(atX,btY) = atΣXYb;
ii) para dois grupos de combinac¸o˜es lineares AX e BY, com dimenso˜es compat´ıveis,
Cov(AX,BY) = AΣXYBt.
Obs: A matriz ΣXY na˜o e´ necessariamente quadrada.
Exemplo 5.6.
i) Considere o vetor aleato´rio Yt = (Y1, Y2) cuja a matriz var-voc e´ dada por
ΣY =
[
6 2
2 3
]
e seja a combinac¸a˜o linearT = btY, com bt = (2,−3), enta˜o, a variaˆncia de T e´
V ar(T ) = ( 2 −3 )
[
6 2
2 3
](
2
−3
)
= 27.
ii) Considere, agora, k = 2 combinac¸o˜es lineares: T1 = Y1 − Y2 e T2 = Y1 + 2Y2. Os
coeficientes de T1 e T2 sa˜o dados pelas linhas da matriz
B =
[
1 −1
1 2
]
.
54
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma, a matriz var-voc de T = B Y, denotada por ΣT, e´ calculada por
ΣT = Cov(T) =
[
1 −1
1 2
] [
6 2
2 3
] [
1 1
−1 2
]
=
[
5 2
2 26
]
.
iii) Assumindo que a matriz de covariaˆncias entre os vetores aleato´rios X e Y seja
ΣXY =

2 4
0 3
1 −3
 ,
enta˜o, a matriz de covariaˆncias Cov(Z,T), entre Z = A X e T = B Y, e´ dada por
ΣZT =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


2 4
0 3
1 −3

[
1 1
−1 2
]
=

3 9
3 0
−4 17
7 −14
 �
d) Dadas duas combinac¸o˜es lineares atX e btY, enta˜o, a variaˆncia de atX + btY e´
V ar(atX + btY) = atΣXa + btΣYb + 2atΣXYb, (5.1)
em que ΣX = Cov(X), ΣY = Cov(Y) e ΣXY = Cov(X,Y).
Exemplo 5.7.
Dos Exemplos (5.5) e (5.5), temos que atΣXa = 235 , btΣYb = 27 e, considerando que
atΣXYb = ( 4 3 3 )

2 4
0 3
1 −3

(
2
−3
)
= −26,
enta˜o: V ar(atX + btY) = 235 + 27− 52 = 210 �
5.1.3 Matriz de correlac¸o˜es de um vetor aleato´rio
A correlac¸a˜o entre duas va’s Xi e Xj , i, j = 1, 2, . . . , p, e´ calcular por
ρij = Cor(Xi, Yj) =
σij√
σ2i σ
2
j
,
55
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
desta forma, a matriz de correlac¸o˜es de um va X e´ dada por
ρX =

1 ρ12 · · · ρ1p
ρ21 1 · · · ρ2p
...
...
. . .
...
ρp1 ρp2 · · · 1
 .
Contudo, dado um va X, entretanto, a matriz de correlac¸o˜es pode ser obtida a partir de sua
matriz var-cov ΣX . Tomando a diagonal de ΣX numa matriz VX e extraindo a raiz quadrada,
temos
VX1/2 =
√
diag(ΣX) =

√
σ21 0 · · · 0
0
√
σ22 · · · 0
...
...
. . . 0
0 0 · · ·
√
σ2p
 .
Desta forma, a matriz ρX e´ dada pela relac¸a˜o
ρX = (V
1/2
X )
−1 ΣX (V1/2X )
−1,
ou ainda,
ρX = V
−1/2
X ΣX V
−1/2
X .
A matriz de covariaˆncias e´, portanto, obtida da relac¸a˜o
ΣX = V1/2X ρX V
1/2
X .
Exemplo 5.8.
i) No exemplo (5.5, i), em que ΣX =

4 −2 2
−2 7 3
2 3 6
 , a matriz V−1/2X e´ dada por
V−1/2X =

1/
√
4 0 0
0 1/
√
7 0
0 0 1/
√
6
 .
Desta forma, a matriz de correlac¸o˜es do v.a. X e´
ρX = V
−1/2
X ΣX V
−1/2
X =

1.0000 −0.3780 0.4082
−0.3780 1.0000 0.4629
0.4082 0.4629 1.0000
 .
56
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
ii) Considerando, ainda, o vetor de combinac¸o˜es lineares Y de (5.5, ii), a matriz ρY e´ dada por
ρY = V
−1/2
Y ΣY V
−1/2
Y =

1.0000 0.6939 0.0708 −0.1465
0.6939 1.0000 0.7372 0.6100
0.0708 0.7372 1.0000 0.9219
−0.1465 0.6100 0.9219 1.0000
 .
iii) Sejam dois conjuntos de combinac¸o˜es lineares dados por Z = AX e W = BX, para calcular
a correlac¸a˜o entre os v.a.’s Z e W fazemos:
ΣZW = Cov(AX,BX)
ΣZW = E[(AX−AµX)(BX−BµX)t]
ΣZW = E[(AX−AµX)(XtBt − µtXBt)]
ΣZW = E[A(X− µX)(Xt − µtX)Bt]
ΣZW = AE[(X− µX)(X− µX)t]Bt
ΣZW = AΣXBt.
Por exemplo, sejam os conuntos de combinac¸o˜es lineares Z = AX e W = BX, com ΣX e
A dados no exemplo (5.5) e com
B =
[
1 1 1
1 0 −1
]
,
enta˜o, a matriz de correlac¸o˜es entre Z e W e´ dada por:
ΣZW = AΣXBt
ΣZW =

2 −1 1
0.5 0 1
1 2 1
−1 1 2


4 −2 2
−2 7 3
2 3 6


−1 1
0 1
1 −1
 =

−5 −3
3 −1
12 3
15 0
 .
A matriz de correlac¸o˜es entre Z e W e´, enta˜o, dada por
ρZW = V
−1/2
Z ΣZW V
−1/2
W =

−0.3269 −0.2774
0.4082 −0.1925
0.7223 0.2554
0.9339 0.0000
 .
O resultado acima sera´ mostrado mais detalhadamente com v.a. particionados �
57
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
5.1.4 Vetores aleato´rios particionados
Seja um vetor aleato´rio X particionado em dois grupos X(1) e X(2),
X =
[
X(1)
X(2)
]
.
enta˜o, o vetor de me´dias µ e´ dado por
µX = E(X) =
[
E(X(1))
E(X(2))
]
=
[
µ(1)X
µ(2)X
]
.
Assim sendo, a matriz de variaˆncias e covariaˆncias de X e´ definida por
ΣX =
[
Cov(X(1)) Cov(X(1),X(2))
Cov(X(2),X(1)) Cov(X(2))
]
ΣX =
 ΣX11 ΣX12
ΣtX12 ΣX22
 .
Considerando dois grupos de combinac¸o˜es lineares Y(1) = AX(1) e Y(2) = BX(2), enta˜o, podemos
escrever
Y =
[
Y(1)
Y(2)
]
=
[
A 0
0 B
] [
X(1)
X(2)
]
.
Definindo a matriz C como
C =
[
A 0
0 B
]
,
enta˜o teremos Y = CX
58
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
a) Vetor de me´dias de uma combinac¸a˜o linear de um v.a. particionado:
E(Y) = E(CX)
E(Y) =
[
A 0
0 B
] [
E(X(1))
E(X(2))
]
E(Y) =
[
AE(X(1))
BE(X(2))
]
E(Y) =
[
µ(1)Y
µ(2)Y
]
.
b) Matriz var-cov de uma combinac¸a˜o linear de um v.a. particionado
ΣY = Cov(Y)
ΣY = Cov(CX)
ΣY = CΣXCt
ΣY =
[
A 0
0 B
] ΣX11 ΣX12
ΣtX12 ΣX12
[ A 0
0 B
]t
ΣY =
 AΣX11At AΣX12Bt
BΣtX12A
t BΣX22B
t

ΣY =
 ΣY11 ΣY12
ΣtY12 ΣY22
 .
c) Matriz de correlac¸o˜es de uma combinac¸a˜o linear de um v.a. particionado: Extraindo a
diagonal de ΣY , particionada, teremos duas matrizes V1/2Y1 =
√
diag(ΣY11 ) e V
1/2
Y2
=
√
diag(ΣY22 ),
59
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
tal que
V1/2Y =
 V1/2Y1 0
0 V1/2Y2
 .
Portanto, a matriz de correlac¸o˜es do vetor de combinac¸o˜es lineares particionado Y = CX e´
dado por
ρY = V
−1/2
Y ΣYV
−1/2
Y
ρY =
 V−1/2Y1 0
0 V−1/2Y2
 ΣY11 ΣY12
ΣtY12 ΣY22
 V−1/2Y1 0
0 V−1/2Y2

ρY =
 V−1/2Y1 ΣY11V−1/2Y1 V−1/2Y1 ΣY12V−1/2Y2
V−1/2Y2 Σ
t
Y12
V−1/2Y1 V
−1/2
Y2
ΣY22V
−1/2
Y2

ρY =
 ρY11 ρY12
ρtY12
ρY22
 .
Exemplo 5.9. i) Seja o v.a. X particionado em X(1) = (X1, X2)t e X(2) = (X3, X4)t com
matriz var-cov
ΣX =

4 2 2 1
2 7 3 0
2 3 6 1
1 0 1 4
 ,
enta˜o, temos que
ΣX11 =
[
4 2
2 7
]
, ΣX22 =
[
6 1
1 4
]
e ΣX12 =
[
2 1
3 0
]
.
Assumindo dois grupos de combinac¸o˜es lineares Y(1) = AX(1) e Y(2) = BX(2), tais que
A =

−1 1
0 1
2 1
1 2
 e B =
[
1 −1
1 1
]
,
60
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
a matriz var-cov de Y e´ calculada por
ΣY =
[
A 0
0 B
]
4 2 2 1
2 7 3 0
2 3 6 1
1 0 1 4

[
At 0
0 Bt
]
ΣY =

A
(
4 2
2 7
)
At A
(
2 1
3 0
)
Bt
B
(
2 3
1 0
)
At B
(
6 1
1 4
)
Bt

ΣY =

7 5 1 8 2 0
5 7 11 16 3 3
1 11 31 32 5 9
8 16 32 40 7 9
2 3 5 7 8 2
0 3 9 9 2 12

ou seja
ΣY11 =

7 5 1 8
5 7 11 16
1 11 31 32
8 16 32 40
 , ΣY22 =
[
8 2
2 12
]
e ΣY12 =

2 0
3 3
5 9
7 9
 .
Para o ca´lculo da matriz de correlac¸o˜es do v.a. Y temos que
V−1/2Y1 =

1/
√
7 0 0 0
0 1/
√
7 0 0
0 0 1/
√
31 0
0 0 0 1/
√
40
 e V−1/2Y2 =
[
1/
√
8 0
0 1/
√
2
]
.
61
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma,
ρY =
 V−1/2Y1 0
0 V−1/2Y2


7 5 1 8 2 0
5 7 11 16 3 3
1 11 31 32 5 9
8 16 32 40 7 9
2 3 5 7 8 2
0 3 9 9 2 12

 V−1/2Y1 0
0 V−1/2Y2

ρY =

1.0000 0.7143 0.0679 0.4781 0.2673 0.0000
0.7143 1.0000 0.7467 0.9562 0.4009 0.3273
0.0679 0.7467 1.0000 0.9087 0.3175 0.4666
0.4781 0.9562 0.9087 1.0000 0.3913 0.4108
0.26730.4009 0.3175 0.3913 1.0000 0.2041
0.0000 0.3273 0.4666 0.4108 0.2041 1.0000

�
5.2 Representac¸a˜o vetorial dos dados
Seja um vetor Xp×1
X =

X1
X2
...
Xp

e seja a aa multivariada de tamanho n, X1,X2, . . . ,Xn. Enta˜o, X1 e´ a primeira observac¸a˜o
multivariada, X2 a segunda e Xn a u´ltima.
Por exemplo, num estudo a respeito do comportamento de consumo das famı´lias de uma regia˜o,
foi observada uma aa de tamanho n = 70 com informac¸o˜es das seguintes varia´veis:
X =

X1
X2
X3
X4
X5

=⇒

gasto familiar anual em restaurantes
gasto familiar anual com cinema
idade do chefe da famı´lia
renda familiar anual
grau de escolaridade do chefe da famı´lia
Neste caso, temos a amostra aleato´ria X1,X2, . . . ,X70 de um va X5×1.
62
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
5.2.1 A representac¸a˜o dos dados
A representac¸a˜o dos dados multivariados e´ feita por meio de uma matriz de dados, na qual, as
colunas representam as varia´veis aleato´rias e as linhas as observac¸o˜es multivariadas, ou seja
Xn×p =
X1 X2 · · · Xp
↓ ↓ ↓
→ varia´veis aleato´rias

x11 x12 · · · x1p
x21 x22 · · · x2p
...
...
. . .
...
xn1 xn2 · · · xnp

→ 1a obs. multivariada
→ 2a obs. multivariada
...
→ n-e´sima obs. multivariada
Por exemplo, considere a matriz de dados abaixo representando uma aa de tamanho n = 5 de
um vetor aleato´rio de dimensa˜o 3, Xt = (X1, X2, X3),
X5×3 =

1.2 0.6 10
1.9 0.7 12
2.2 0.6 11
2.6 0.8 14
1.6 0.8 13

.
Desta forma, a primeira linha de X, (1.2, 0.6, 10), representa a primeira observac¸a˜o multivariada
enquanto que a primeira coluna, (1.2, 1.9, 2.2, 2.6, 1.6)t, representa a amostra aleato´ria de tamanho
5 da varia´vel X1.
Portanto, nas linhas de X temos as n = 5 observac¸o˜es enquanto que, nas colunas, as amostras
de cada uma das varia´veis X1, X2 e X3.
5.2.2 O vetor de me´dias amostrais
Para o ca´lculo do vetor de me´dias amostrais, vamos relembrar que operac¸a˜o xt1n fornece a
soma dos valores da va X observados na amostra, logo,
x¯ = 1
n
xt 1n,
em que 1n = (1, 1, . . . , 1)t e´ um vetor 1’s, de dimensa˜o n.
No contexto multivariado, seja X a matrix de dados, logo, o vetor de me´dias amostrais e´ definido
por
x¯ = 1
n
Xt 1n,
ou seja:
x¯ =

x¯1
x¯2
...
x¯p
 .
63
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
No exemplo, temos p = 3, enta˜o,
x¯ = 15

1.2 1.9 2.2 2.6 1.6
0.6 0.7 0.6 0.8 0.8
10 12 11 14 13


1
1
1
1
1

=

1.9
0.7
12
 ,
portanto, x¯1 = 1.9, x¯2 = 0.7 e x¯3 = 12.
5.2.3 A matriz de variaˆncias e covariaˆncias amostrais
Para a matriz de variaˆncias e covariaˆncias amostrais lembremos que a covariaˆncia entre duas
varia´veis X1 e X2 e´ obtida de,
s12 =
1
(n− 1)
n∑
i=1
(xi1 − x¯1)(xi2 − x¯2) = 1(n− 1)(x1 − 1nx¯1)
t(x2 − 1nx¯2). (5.2)
Observe que os vetores (xi − 1nx¯i) em (5.2) sa˜o, de fato, vetores de desvios do tipo
di =

x1i − x¯i
x2i − x¯i
...
xni − x¯i
 , i = 1, 2, . . . , p.
Logo, pode-se escrever a covariaˆncia sij por
sij =
1
(n− 1) d
t
i dj, i, j = 1, 2, . . . , p, com i 6= j,
e, as variaˆncias: s2i = 1(n−1) d
t
i di, i = 1, 2, . . . , p.
Para a matriz de var-cov amostral, compomos a matriz dos desvios com vetores di, i = 1, 2, . . . , p
nas suas colunas
∆ =
[
d1 | d2 | · · · | dp
]
,
ou seja, a matriz ∆ e´ do tipo:
∆ =

(x11 − x¯1) (x12 − x¯2) · · · (x1p − x¯p)
(x21 − x¯1) (x12 − x¯2) · · · (x1p − x¯p)
...
...
. . .
...
(xn1 − x¯1) (xn2 − x¯2) · · · (xnp − x¯p)
 .
Desta forma, a matriz var-cov amostral e´ dada por
S = 1(n− 1) ∆
t ∆. (5.3)
64
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
A matriz de desvios ∆ pode, ainda, ser escrita como ∆ = X− X¯, em que a matriz de me´dias
X¯ e´ dada por:
X¯ =

x¯1 x¯2 · · · x¯p
x¯1 x¯2 · · · x¯p
...
...
. . .
...
x¯1 x¯2 · · · x¯p
 = 1n x¯t, (5.4)
sendo cada coluna de X¯ um vetor de constante com a me´dia amostral da respectiva varia´vel em X.
Desta forma, podemos obter uma expressa˜o para ∆ por
∆ = X− 1n x¯t = X− 1
n
1n
(
Xt 1n
)t
= X− 1
n
1n 1tn X
∆ =
(
I− 1
n
Jn
)
X,
sendo Jn = 1n 1tn uma matriz n× n, do tipo:
Jn =

1 1 · · · 1
1 1 · · · 1
...
...
. . .
...
1 1 · · · 1
 .
Logo, a matriz var-cov amostral e´ dada pela expressa˜o
S = 1(n− 1) (X− X¯)
t (X− X¯)
S = 1(n− 1)
[(
X− 1
n
Jn
)
X
]t [(
I− 1
n
Jn
)
X
]
.
S = 1(n− 1) X
t
(
I− 1
n
Jn
)t (
I− 1
n
Jn
)
X. (5.5)
Mostra-se facilmente que a matriz (I − 1/n Jn) e´ sime´trica e idempotente, portanto, a matriz
var-cov em (5.5) e´ , finalmente, dada por
S = 1(n− 1) X
t
(
I− 1
n
Jn
)
X. (5.6)
Nota 5.4. : A matriz var-cov amostral S, em (5.6), e´ um estimador na˜o viesado da matriz var-cov
populacional ΣΣΣ.
Como exemplo, considere a matriz de dados
X =

1.2 0.6 10
1.9 0.7 12
2.2 0.6 11
2.6 0.8 14
1.6 0.8 13

.
65
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
Desta forma, temos
(
I5 − 15J5
)
=

1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1

−

1/5 1/5 1/5 1/5 1/5
1/5 1/5 1/5 1/5 1/5
1/5 1/5 1/5 1/5 1/5
1/5 1/5 1/5 1/5 1/5
1/5 1/5 1/5 1/5 1/5

=

4/5 −1/5 −1/5 −1/5 −1/5
−1/5 4/5 −1/5 −1/5 −1/5
−1/5 −1/5 4/5 −1/5 −1/5
−1/5 −1/5 −1/5 4/5 −1/5
−1/5 −1/5 −1/5 −1/5 4/5

.
Logo, a matriz S e´ dada por:
S = 14

1.16 0.08 2.20
0.08 0.04 0.60
2.20 0.60 10.0

S =

0.29 0.02 0.55
0.02 0.01 0.15
0.55 0.15 2.50
 .
Para o ca´lculo da matriz de correlac¸o˜es amostrais R, os procedimentos sa˜o os mesmos utilizados
anteriormente, ou seja:
R = V−1/2 S V−1/2,
em que V1/2 e´ a matriz diagonal cujos elementos sa˜o os desvios padro˜es amostrais observados.
Com os dados do exemplo, temos que
V−1/2 =

1/
√
0.29 0 0
0 1/
√
0.01 0
0 0 1/
√
2.50
 ,
e, a matriz de correlac¸o˜es amostrais R e´ dada por
R = V−1/2

0.29 0.02 0.55
0.02 0.01 0.15
0.55 0.15 2.50
 V−1/2
R =

1.0000 0.3714 0.6459
0.3714 1.0000 0.9487
0.6459 0.9487 1.0000
 .
Portanto, para a amostra multivariada dada pela matriz X, temos que as correlac¸o˜es amostrais
66
Vetores aleato´rios Teoria de Matrizes para Estat´ıstica
sa˜o: r12 = 0.3712, r13 = 0.6459 e r23 = 0.9487.
Exemplo 5.10. Dados dos Alunos
Exemplo com dados coletados de n = 11 alunos da aula de Teoria de Matrizes, referentes
a`s varia´veis X1 = idade (anos); X2 = altura (m); X3 = peso (kg) e X4 = gasto semanal com
alimentac¸a˜o (R$).
Os resultados apresentados abaixo foram obtidos no R, utilizando a representac¸a˜o vetorial dos
dados. Foram calculados o vetor de me´dias amostrais bem como as matrizes var-cov e de correlac¸o˜es
(algumas sa´ıdas foram omitidas).
> # Entrando com os dados
> #######################
> idade <- c(21,21,20,20,21,20,21,21,18,25,26)
> altura <- c(1.86,1.75,1.70,1.59,1.62,1.77,1.78,1.76,1.65,1.77,1.78)
> peso <- c(90,76,62,60,60,68,76,77,60,72,98)
> gasto <- c(20,18,10,20,30,45,40,15,45,25,50)
> # Criando a matriz de dados
> ###########################
> X <- cbind(idade,altura,peso,gasto)
> X
idade altura peso gasto
[1,] 21 1.86 90 20
[2,] 21 1.75 76 18
[3,] 20 1.70 62 10
[4,] 20 1.59 60 20
[5,] 21 1.62 60 30
[6,] 20 1.77 68 45
[7,] 21 1.78 76 40
[8,] 21 1.76 77 15
[9,] 18 1.65 60 45
[10,] 25 1.77 72 25
[11,] 26 1.78 98 50
> # Criando o vetor de

Outros materiais