Buscar

Apostila de Métodos Matemáticos Unicamp

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 149 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 149 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 149 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Me´todos Matema´ticos
Prof. Pablo Siqueira Meirelles
Departamento de Mecaˆnica Computacional
UNICAMP
Novembro 22, 2011
4
Conteu´do
I Primeia parte 15
1 Nu´meros complexos 17
1.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Representac¸a˜o de nu´meros complexos . . . . . . . . . . . . . . . . . . . . . 17
1.3 Operac¸o˜es com nu´meros complexos . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Produto por um nu´mero real . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Produto de dois nu´meros complexos . . . . . . . . . . . . . . . . . 19
1.3.4 Poteˆncia de expoente racional . . . . . . . . . . . . . . . . . . . . . 19
1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.7 Radicac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.9 Fo´rmula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Se´ries 23
2.1 Se´ries nume´ricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Teoremas de convergeˆncia . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Se´ries de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24
2.1.3 Crite´rios de convergeˆncia de se´ries de termos positivos . . . . . . . 25
2.1.4 Convergeˆncia absoluta e convergeˆncia condicional . . . . . . . . . . 26
2.1.5 Se´ries de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operac¸o˜es com se´ries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Sucessa˜o de func¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Se´rie de func¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Se´ries de poteˆncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Soma, diferenc¸a e produto de se´ries de poteˆncia . . . . . . . . . . . 29
2.5.2 Expansa˜o em se´rie de poteˆncias . . . . . . . . . . . . . . . . . . . . 30
5
3 Vetores 33
3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Diferentes notac¸o˜es: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Operac¸o˜es com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Soma, subtrac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Multiplicac¸a˜o por um escalar . . . . . . . . . . . . . . . . . . . . . 35
3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37
3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.1 Definic¸a˜o de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38
3.3.2 Definic¸a˜o de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38
3.3.3 Operador Nabla ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3.4 Operador laplaciano ∆ . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Notac¸a˜o indicial 43
4.1 Notac¸a˜o cla´ssica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2 Notac¸a˜o indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.1 Definic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Convenc¸a˜o soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.3 Notac¸a˜o de diferenciac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.5 Operador alternante ou alternador εijk . . . . . . . . . . . . . . . . 47
4.2.6 Aplicac¸o˜es do tensor εijk . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.7 Relac¸a˜o entre δij e εklm . . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5 Vetores Euclidianos 51
5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.1 Algumas definic¸o˜es para a norma . . . . . . . . . . . . . . . . . . . 53
5.2 Obtenc¸a˜o de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.1 Me´todo de ortogonalizac¸a˜o de Gram-Schmidt . . . . . . . . . . . . 54
6 Produto escalar e projec¸o˜es em uma reta 59
6.1 Vetor projec¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Matriz projetora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.3 Teorema da projec¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6
7 Matrizes 67
7.1 Notac¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2 Definic¸o˜es e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . 72
7.5 Ca´lculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.6 Auto-valores de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.7 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.8 Subespac¸os fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76
8 Autovalores e autovetores de uma matriz 77
8.1 Propriedades, teoremas, definic¸o˜es . . . . . . . . . . . . . . . . . . . . . . 79
8.2 Nu´mero de condic¸a˜o espectral de uma matriz . . . . . . . . . . . . . . . . 82
8.3 Teorema do c´ırculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 82
8.4 Translac¸a˜o de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.5 Problema de autovalores e autovetores
generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6 Ca´lculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 85
8.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.6.2 Me´todo da poteˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.7 Condicionamento do autosistema [A]{x} = λ{x} . . . . . . . . . . . . . . . 89
8.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 89
8.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 90
8.8 Forma quadra´tica de uma matriz [A]N×N . . . . . . . . . . . . . . . . . . 90
II Segunda parte 91
9 Me´todos de resoluc¸a˜o de sistemas de equac¸o˜es lineares 93
9.1 Classificac¸a˜o de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.1 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . 93
9.1.2 Sistemas super-determinados . . . . . . . . . . . . . . . . . . . . . 94
9.1.3 Sistemas sub-determinados . . . . . . . . . . . . . . . . . . . . . . 95
9.1.4 Sistemas homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2 Sistemas triangulares (determinados) . . . . . . . . . . . . . . . . . . . . . 95
9.2.1 Definic¸a˜o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2.2 Sistema triangular inferior ([L]) . . . . . . . . . . . . . . . . . . . . 96
9.2.3 Sistema triangular superior ([U]) . . . . . . . . . . . . . . . . . . . 96
9.3 Armazenamento esparso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3.1 Conversa˜o de ı´ndice . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.4.1 Me´todo de resoluc¸a˜o baseado na decomposic¸a˜o QR: . . . . . . . . . 99
9.4.2 Me´todos de resoluc¸a˜o baseados em decomposic¸a˜o triangular . . . . 101
7
9.4.3 Decomposic¸a˜o triangular de Cholesky . . . . . . . . . . . . . . . . 102
9.4.4 Decomposic¸a˜o triangular de Doolittle . . . . . . . . . . . . . . . . 102
9.5 Sistemas sime´tricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
9.5.1 Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
9.5.2 Decomposic¸a˜o de DOOLITTLE . . . . . . . . . . . . . . . . . . . . 104
9.5.3 Decomposic¸a˜o de CROUT: . . . . . . . . . . . . . . . . . . . . . . 105
9.5.4 Decomposic¸a˜o de GAUSS (LDU): . . . . . . . . . . . . . . . . . . 105
9.6 Nu´mero de condic¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6.1 Estimativa de c[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.6.2 Estimativa melhorada de K ≈ c[A]: . . . . . . . . . . . . . . . . . 107
9.7 Sistemas de equac¸o˜es lineares: escalonamento (balanceamento) . . . . . . 108
9.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b} . . . . . . 108
9.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b} . . . . . . . 108
9.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b} . . . . 109
9.7.4 Me´todos de obtenc¸a˜o de [D]L e [D]C (resumo) . . . . . . . . . . . . 110
10 Transformac¸o˜es similares 113
10.1 Transformac¸a˜o unita´ria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.2 Transformac¸a˜o ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10.3 Forma diagonal de uma matriz [A] . . . . . . . . . . . . . . . . . . . . . . 115
10.4 Propriedades e teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
10.5 Forma canoˆnica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.6 Transformac¸a˜o de Householder . . . . . . . . . . . . . . . . . . . . . . . . 119
10.7 Decomposic¸a˜o QR usando a transformac¸a˜o de Householder . . . . . . . . 120
10.8 Aplicac¸o˜es da decomposic¸a˜o QR . . . . . . . . . . . . . . . . . . . . . . . . 123
10.8.1 Resoluc¸a˜o de sistemas super-determinados . . . . . . . . . . . . . . 123
10.9 Forma de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11 Pseudo-inversa e decomposic¸a˜o em valores singulares 129
11.1 Decomposic¸a˜o em valores singulares - SVD . . . . . . . . . . . . . . . . . . 130
11.1.1 Armazenamento computacional . . . . . . . . . . . . . . . . . . . . 132
11.2 Algumas aplicac¸o˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.1 Ca´lculo da pseudo-inversa . . . . . . . . . . . . . . . . . . . . . . . 132
11.2.2 Decomposic¸a˜o polar . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.3 Resoluc¸a˜o de sistemas de equac¸o˜es . . . . . . . . . . . . . . . . . . 134
11.2.4 Sistemas na˜o homogeˆneos . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.5 Sistemas retangulares . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.2.6 Algoritmo SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12 Integradores lineares 139
12.1 Introduc¸a˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
12.2 Integradores lineares de um passo . . . . . . . . . . . . . . . . . . . . . . 139
12.2.1 Integradores expl´ıcitos (β1 = 0) . . . . . . . . . . . . . . . . . . . 139
8
12.2.2 Integradores impl´ıcitos (β1 6= 0) . . . . . . . . . . . . . . . . . . . 141
12.3 Me´todos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.4 Runge Kutta expl´ıcito de quarta ordem . . . . . . . . . . . . . . . . . . 141
12.4.1 Generalizac¸a˜o para sistemas de equac¸o˜es diferenciais . . . . . . . 143
12.5 Famı´lia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143
12.5.1 Integradores t´ıpicos . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.5.2 Algoritmos na forma {x˙} . . . . . . . . . . . . . . . . . . . . . . 144
12.5.3 Algoritmos na forma {x}N+1 . . . . . . . . . . . . . . . . . . . . 145
12.6 Caracter´ısticas relevantes de um integrador . . . . . . . . . . . . . . . . 146
12.6.1 Ana´lise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146
12.7 Ana´lise dos integradores da famı´lia trapezoidal . . . . . . . . . . . . . . 147
12.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
9
10
Lista de Figuras
1.1 Representac¸a˜o gra´fica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1 Vetor no espac¸o cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Vetor definido por dois pontos. . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.4 Produto vetorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 a´rea do paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.6 Superf´ıcie Φ(x, y, z) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.7 Curva de equac¸a˜o φ(x, y) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1 Domı´nio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.1 Base euclidiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.1 Projec¸a˜o ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.2 Distaˆncia de um ponto a um plano. . . . . . . . . . . . . . . . . . . . . . . 62
8.1 C´ırculo de Gerschgorin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
9.1 Matriz triangular cheia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.2 Matriz triangular em banda. . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.3 Matriz triangular ”sky-line”. . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4 Conversa˜o de ı´ndices de matriz para vetor. . . . . . . . . . . . . . . . . . . 98
10.1 Interpolac¸a˜o por mı´nimos quadrados. . . . . . . . . . . . . . . . . . . . . . 123
12.1 Integrador de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
12.2 Me´todo de integrac¸a˜o expl´ıcito de Runge-Kutta de ordem 4. . . . . . . . . 142
12.3 Convergeˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.4 Fator de amplificac¸a˜o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
11
12
Prefa´cio
A elaborac¸a˜o e resoluc¸a˜o de modelos matema´ticos que representem os sistemas em
estudo constitui uma atividade essencial nas cieˆncias exatas, e mesmo em algumas na˜o
ta˜o exatas, a exemplo da economia.
O matema´tico holandeˆs Peter Eikof [7], autor de um dos mais conhecidos livros de
identificac¸a˜o de sistemas, tem pore´m se preocupado em alertar para dois erros frequ¨entes
e que devem ser evitados pelos usua´rios: jamais se apaixonar pelos modelos, pois eles
nunca sera˜o melhores do que a realidade, e nunca tentar ir ale´m dos limites de validade
dos modelos. Somente a experieˆncia profissional e´ capaz de conferir a real coereˆncia e
dimensa˜o a estas observac¸o˜es.
Em consonaˆncia com estas observac¸o˜es, e na˜o apesar delas, e´ tarefa dos cien-
tistas elaborar modelos cada vez mais precisos, confia´veis e gerais, e ao mesmo tempo
disponibilizar as ferramentas necessa´rias a` explorac¸a˜o destes modelos.
A matema´tica, atrave´sda sua longa histo´ria, tem se desenvolvido de maneira na˜o
uniforme no tempo, impulsionada pelas conjunturas e em congrueˆncia com circunstaˆncias
sociais, econoˆmicas, tecnolo´gicas, cient´ıficas e ate´ teolo´gicas e filoso´ficas. No passado re-
cente o desenvolvimento da matema´tica aplicada tem se tornado um aliado imprescind´ıvel
para o avanc¸o acelerado da tecnologia. A exigeˆncia crescente de precisa˜o tem motivado
a elaborac¸a˜o de modelos sofisticados para representar fenoˆmenos mais complexos. A
verificac¸a˜o (validac¸a˜o) e correc¸a˜o (ajuste) dos modelos tem recebido um aux´ılio enorme
pela evoluc¸a˜o nos meios de observac¸a˜o dos fenoˆmenos f´ısicos, refletida principalmente na
evoluc¸a˜o dos transdutores, possibilitada pela microeletroˆnica, e nos meios de coleta e
processamento dos sinais.
Por outro lado, a manipulac¸a˜o de modelos maiores e mais sofisticados, somado a`
exigeˆncia de reduc¸a˜o nos tempos de processamento, requerem ”hardwares” cada vez mais
poderosos e me´todos nume´ricos cada vez mais eficientes e robustos.
A procura da fronteira entre a sofisticac¸a˜o dos procedimentos experimentais e o en-
riquecimento dos conhecimentos que a evoluc¸a˜o dos processamentos matema´ticos podem
extrair das informac¸o˜es obtidas da observac¸a˜o da realidade, pode ser sentida no seguinte
confronto de ide´ias: Lanczos [1] defende que, a evoluc¸a˜o das ferramentas matema´ticas
na˜o sera´ jamais capaz de compensar a falta de dados experimentais, ao que Je´ze´quel [2]
contrapo˜e, E´ necessa´rio desenvolver o processamento matema´tico tanto quanto poss´ıvel
para extrair o ma´ximo proveito dos dados experimentais dispon´ıveis.
Finalmente, e´ imposs´ıvel na˜o mencionar a virada de pa´gina histo´rica promovida
nas treˆs ultimas de´cadas do se´culo XX pela evoluc¸a˜o e disseminac¸a˜o dos recursos computa-
13
cionais. Atualmente e´ dif´ıcil conceber qualquer atividade cient´ıfica aplicada ou tecnolo´gica
sem o uso da informa´tica. Esta realidade conferiu enorme importaˆncia aos me´todos aprox-
imados de ca´lculo nume´rico, e portanto o conhecimento destas ferramentas e´ parte impre-
scind´ıvel na formac¸a˜o de qualquer cientista ou tecno´logo da atualidade.
14
Parte I
Primeia parte
15
Cap´ıtulo 1
Nu´meros complexos
1.1 Introduc¸a˜o
Uma forma simples de classificar as caracter´ısticas dos nu´meros com os quais trabalhamos
e´ dividi-los em nu´meros racionais, irracionais e complexos. O conjunto dos dois primeiros
constitui o universo dos nu´meros reais, que podem ser representados graficamente num
eixo (espac¸o R1). Os nu´meros complexos sa˜o uma generalizac¸a˜o dos nu´meros reais para
o plano (espac¸o R2).
No esquema a seguir e´ apresentada esta classificac¸a˜o dos nu´meros reais, assim como
algumas das suas caracter´ısticas.
Nu´meros racionais

Ordenados
Densos
Representa´veis por uma frac¸a˜o
Nu´meros irracionais → Na˜o representa´veis por uma frac¸a˜o
 Nu´meros reais
Os nu´meros reais constituem um conjunto ordenado, denso e cont´ınuo, existindo por-
tanto uma correspondeˆncia biun´ıvoca destes nu´meros com os pontos de um eixo orientado.
Os nu´meros complexos sa˜o formados por um par de nu´meros reais, representa´veis
em eixos mutuamente perpendiculares, constituindo portanto uma correspondeˆncia com
todos os pontos do plano, chamado Plano Complexo.
Os eixos sa˜o chamados eixo real e eixo imagina´rio, abscissa e ordenada do sistema
ortogonal plano de coordenadas respectivamente.
1.2 Representac¸a˜o de nu´meros complexos
Define-se o nu´mero imagina´rio puro i =
√−1 ⇒ i2 = −1. Este e´ o versor orientac¸a˜o do
eixo imagina´rio.
Observac¸a˜o: Alguns autores preferem representar o nu´mero imagina´rio puro por j no
lugar de i.
17
Qualquer nu´mero complexo c pode ser representado de diferentes formas, tais como:
c = a+ ib ; c = ρ(cosϕ+ isenϕ) = ρ∠ϕ = ρ∠(ϕ+ 2kπ) , c = ρeiϕ , c = (a, b)
Para estas representac¸o˜es sa˜o va´lidas as
relac¸o˜es:
ρ =
√
a2 + b2 (Mo´dulo)
ϕ = arctg
(
b
a
)
(Fase ou argumento)
Figura 1.1: Representac¸a˜o gra´fica.
Definic¸a˜o - Complexo conjugado: e´ chamado conjugado do nu´mero complexo c = a+ib
ao nu´mero c = a− ib, para qualquer valor real de a e b.
1.3 Operac¸o˜es com nu´meros complexos
1.3.1 Soma
(a+ ib) + (c+ id) = (a+ c) + i(b+ d)
Propriedades:
• Existeˆncia
• Unicidade
• Associativa
• Comutativa
• Existeˆncia do neutro
• Triangular: |Z1 + Z2| ≤ |Z1|+ |Z2|
18
1.3.2 Produto por um nu´mero real
r.(a+ ib) = ra+ irb
Propriedades:
• Existeˆncia
• Unicidade
• Associativa
• Distributiva
• Existeˆncia do neutro
1.3.3 Produto de dois nu´meros complexos
Define-se o produto de dois nu´meros complexos da forma a seguir 1:
(a+ ib).(c+ id) = ac+ iad+ ibc+ i2bd = (ac− bd) + i(ad+ bc)
ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ)
Propriedades:
• Existeˆncia
• Unicidade
• Associativa
• Distributiva
• Existeˆncia do neutro
1.3.4 Poteˆncia de expoente racional
Z0 = 1 ∀ Z 6= 0
Z1 = Z ∀ Z
Zn = Z.Z.....Z︸ ︷︷ ︸
n
(ρ∠ϕ)n = ρn∠nϕ
1Demonstrar a equivaleˆncia entre as duas expresso˜es como exerc´ıcio
19
1.3.5 Inverso
Seja o complexo c = a+ ib
Define-se o inverso de c:
c−1 =
1
c
=
1
a+ ib
=
a− ib
a2 + b2
=
c
|c|2
Com esta definic¸a˜o se verifica que c.1
c
= (a+ ib). (a−ib)
a2+b2
= a
2+b2
a2+b2
= 1
Pela definic¸a˜o de poteˆncia: (ρ∠ϕ)−1 = ρ−1∠− ϕ
1.3.6 Quociente
Multiplicac¸a˜o pelo inverso.
1.3.7 Radicac¸a˜o
n
√
ρ∠ϕ = n
√
ρ∠(ϕ+ 2kπ) = (ρ∠(ϕ+ 2kπ))1/n = (ρ)1/n∠
1
n
(ϕ+ 2kπ)
= n
√
ρ∠
(
ϕ
n
+ k
2π
n
)
No plano complexo, a raiz de ordem n tem sempre n soluc¸o˜es.
1.3.8 Logaritmo
Ln(ρ∠ϕ) = x+ iy ⇔ ex+iy = ρ∠ϕ
ex+iy = ex.eiy = ex∠y = ρ∠ϕ
⇒ x = Ln(ρ) e y = ϕ+ 2kπ
∴ Ln(ρ∠ϕ) = Ln(ρ) + i(ϕ+ 2kπ)
1.3.9 Fo´rmula de Moivre
(cosα+ i sinα)m = cos(mα) + i sin(mα) (m inteiro)
Demonstrac¸a˜o:
(cosα+ i sinα)m = (eiα)m = eiαm = cos(mα) + i sin(mα)
Observac¸a˜o: Para qualquer nu´mero complexo
ρeiα = ρ∠α⇒ (ρ∠α)m = ρm∠(mα) = ρmeimα
20
1.4 Transcendentes elementares
eiz = cos z + i sin z
e−iz = cos z − i sin z =⇒

cos z =
eiz + e−iz
2
sin z =
eiz − e−iz
2i
tan z =
1
i
eiz − e−iz
eiz + e−iz
Definic¸o˜es:
cosh z =
ez + e−z
2
sinh z =
ez − e−z
2
tanh z =
ez − e−z
ez + e−z
Exerc´ıcios:
1. Demonstrar que:
a. ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ)
b. cos z = e
iz+e−iz
2
c. sin z = e
iz−e−iz
2i
d. tan z = 1
i
eiz−e−iz
eiz+e−iz
e. cosh z = cos iz
f. sinh z = −i sin iz
g. tanh z = −i tan iz
2. Utilizando as func¸o˜es transcendentes achar expresso˜es simplificadas para:
a. sin(a± b)
b. cos(a± b)
c. tan(a± b)
d. sin(a)± sin(b)
e. cos(a)± cos(b)
21
f. tan(a)± tan(b)
g. sin2 x+ cos2 x
h. cos2 x− sin2 x
i. sinh2 x+ cosh2 x
j. cosh2 x− sinh2 x
k. sinh(x± y)
l. cosh(x± y)
22
Cap´ıtulo 2
Se´ries
2.1 Se´ries nume´ricas
Seja uma sequ¨eˆncia de nu´meros, reais ou complexos: a1 ; a2 ; a3 ; · · · ; an ; · · · Define-se
a se´rie nume´rica S como sendo a sequ¨eˆncia de nu´meros S1 ; S2 ; S3 ; · · · ; Sn ; · · · , onde
cada termo e´ obtido pela regra seguinte:
S1 = a1 ; S2 = a1 + a2 ; S3 = a1 + a2 + a3 ; · · · ; Sn = a1 + a2 + a3 + · · ·+ an ; · · ·
O termo Sn e´ chamado reduzida de ordem n, ou soma parcial de ordem n, da se´rie.
Portanto pode se definir uma se´rie nume´rica como sendo uma sucessa˜o de reduzidas.
Definic¸a˜o - Uma se´rie e´ dita convergente se a sucessa˜o das reduzidas tem limite finito.
Definic¸a˜o - A se´rie e´ dita convergente, divergente ou oscilante, se S = lim
n→∞
Sn existe
finito, existe ∞ ou na˜o existe, respectivamente.
Exemplo - Se´rie geome´trica: Sn+1 = 1 + q + q
2 + q3 + ....+ qn (q complexo)
Observac¸a˜o: Sn =
qn−1
q−1
1
1Demonstrac¸a˜o por induc¸a˜ofinita:
- Para n = 1 =⇒ S1 = q
1
−1
q−1 = 1
Observac¸a˜o - tambe´m poder´ıamos comec¸ar demonstrando para n = 2: S2 =
q2−1
q−1 =
(q+1)(q−1)
q−1 = q + 1
- Admitimos para n = N qualquer: SN = 1 + q + .... + q
N−1 = q
N
−1
q−1
- Finalmente demonstramos que se vale para N , tambe´m vale para N + 1:
SN+1 = 1 + q + .... + q
N−1 + qN = SN + q
N = q
N
−1
q−1 + q
N = q
N
−1+qN+1−qN
q−1 =
qN+1−1
q−1
Portanto a igualdade esta´ demonstrada.
23
Para o exemplo anterior;
Sn =
qn − 1
q − 1

|q| < 1⇒ |qn| → 0⇒ Sn → 11−q (Converge)
|q| > 1⇒ |qn| → ∞ ⇒ Sn →∞ (Diverge)
|q| = 1

q = 1 ⇒ Sn = n⇒ lim
n→∞
Sn =∞ (Diverge)
q = −1 ⇒ Sn = 1− 1 + 1− . . .
⇒
{
Sn=2N = 0
Sn=2N+1 = 1
(Oscila)
q 6= −1 ⇒ q = cosα+ i sinα (α 6= nπ)
⇒ qn = cosnα + i sinnα (Oscila)
Definic¸a˜o: r = S − Sn e´ o res´ıduo de ordem n da se´rie convergente de limite S.
2.1.1 Teoremas de convergeˆncia
1. Adicionar ou tirar um nu´mero finito de termos na˜o altera o carater convergente ou
na˜o da se´rie. ( Pode alterar o valor de S, se a se´rie for convergente)
2. Uma se´rie convergente multiplicada termo a termo por um escalar c continua con-
vergente. O limite passa a ser c.S.
3. A se´rie resultante da soma/diferenc¸a termo a termo de duas se´ries convergentes e´
convergente. O limite da nova se´rie sera´ S = S1 ± S2.
4. Uma condic¸a˜o necessa´ria (na˜o suficiente) para a convergeˆncia da se´rie e´ lim
n→∞
an = 0
5. Condic¸a˜o de convergeˆncia de Cauchy: Uma se´rie e´ convergente ⇐⇒ dado ε > 0
arbitra´rio, existe N upslope |an+1 + ........+ an+p| < ε ∀ n > N, p natural qualquer ≥ 1.
Esta condic¸a˜o e´ equivalente a dizer que Sn e´ convergente⇐⇒ |Sn+p−Sn| < ε ∀ n > N,
p natural qualquer.
2.1.2 Se´ries de termos positivos reais
Observac¸o˜es:
1. Se´ries de termos complexos podem ser reduzidas a pares de se´ries de termos reais.
2. Se´ries de termos negativos podem ser interpretadas como o oposto de uma se´rie de
termos positivos.
Propriedade: Se´ries de termos reais positivos sa˜o convergentes ou divergentes, nunca
oscilantes.
Princ´ıpio de Weierstrass:
Sn < K ∀ n⇒ Sn → S (Convergente)
Sn na˜o acotada ⇒ Sn Divergente
24
2.1.3 Crite´rios de convergeˆncia de se´ries de termos positivos
1. Comparac¸a˜o
(a) Se
∞∑
n=1
an converge de soma A
bn ≤ an ∀ n
Enta˜o
∞∑
n=1
bn converge de soma B <= A , pois
∞∑
n=1
bn ≤
∞∑
n=1
an ≤ A
(b) Se
∞∑
n=1
an diverge
bn ≥ an ∀ n
Enta˜o
∞∑
n=1
bn diverge. (Se bn convergisse, an convergeria pelo teorema anterior).
(c) Se 0 < h < an
bn
< k, enta˜o
∞∑
n=1
an e
∞∑
n=1
bn sa˜o da mesma classe.
Demonstrac¸a˜o:
an < k.bn ⇒ Se bn converge, an tambe´m converge por 1.a.
h.bn < an ⇒ Se bn diverge, an tambe´m diverge por 1.b.
(d) Generalizac¸a˜o: Se lim
n→∞
an
bn
= l > 0 finito, enta˜o
∞∑
n=1
an e
∞∑
n=1
bn sa˜o da mesma
classe.
Exemplos de se´ries que podem ser utilizadas como refereˆncias para classificar outras
se´ries por comparac¸a˜o:
(a)
∞∑
n=1
( n
n+1
)n
2
e´ Convergente
(b)
∞∑
n=1
n
2n
e´ Convergente
(c)
∞∑
n=1
1
n!
e´ Convergente de soma ”e”
(d)
∞∑
n=1
1
2n
e´ Convergente de soma 2
2. Crite´rio de D’Alembert
Se an+1
an

< 1 ∀ n > N ⇒
∞∑
n=1
an converge
≥ 1 ∀ n > N ⇒
∞∑
n=1
an diverge
25
Ou:
lim
n→∞
an+1
an
= λ⇒

λ < 1 Converge
λ > 1 Diverge
λ = 1 Na˜o se sabe
3. Crite´rio de Cauchy:
Se n
√
an

< 1 ∀ n > N ⇒
∞∑
n=1
an converge
≥ 1 para infinitos valores de n⇒
∞∑
n=1
an diverge
Ou:
lim
n→∞
n
√
an = λ⇒

λ < 1 Converge
λ > 1 Diverge
λ = 1 Na˜o se sabe
4. Crite´rio de Rabe
n(1− an
an−1
)

> 1 ∀ n > N ⇒
∞∑
n=1
an converge
≤ 1 ∀ n > N ⇒
∞∑
n=1
an diverge
Ou:
lim
n→∞
n(1− an
an−1
) = λ⇒

λ > 1 Converge
λ < 1 Diverge
λ = 1 Na˜o se sabe
5. Crite´rio da integral de Cauchy
Define-se f(n) = an
Se f(x)
{
mono´tona decrescente∫∞
c
f(x)dx convergente
} ∞∑
n=1
an convergente
Observac¸a˜o: c e´ arbitra´rio tal que f(x) definida e cont´ınua em c < x <∞
2.1.4 Convergeˆncia absoluta e convergeˆncia condicional
Seja uma se´rie S
(1)
n = a1 + a2 + · · ·+ an, com termos ai positivos ou negativos.
Define-se a se´rie S
(2)
n = |a1|+ |a2|+ .....+ |an|
Se S
(2)
n converge ⇒ S(1)n converge, e e´ dita absolutamente convergente.
Se S
(2)
n diverge

S
(1)
n diverge
ou
S
(1)
n condicionalmente convergente
26
2.1.5 Se´ries de termos alternados
Definic¸a˜o: Sn =
∞∑
n=1
(−1)n−1an , an todos com o mesmo sinal.
Teorema de Leibnitz: Uma se´rie de termos alternados e´ convergente se:
1. a sucessa˜o an e´ mono´tona decrescente
2. lim
n→∞
an = 0
Exemplos de se´ries de sinais alternados convergentes:
1.
∞∑
n=1
(−1)(n−1)( 1
n
) e´ convergente de soma Ln(2)
2.
∞∑
n=1
(−1)(n−1)( 1
n!
) e´ convergente de soma 1
e
3.
∞∑
n=1
(−1)(n+1)( 1
2n
) e´ convergente de soma 2
3
Regra do limitante do res´ıduo - Considerando apenas os n primeiros termos de uma
se´rie convergente de termos alternados, o res´ıduo Rn = S − Sn tem o sinal do primeiro
termo desprezado e e´ em mo´dulo, menor do que esse termo: |Rn| = |S − Sn| < |an+1|
2.2 Operac¸o˜es com se´ries
2.2.1 Soma
∞∑
n=1
(an + bn) =
∞∑
n=1
an +
∞∑
n=1
bn =⇒ Converge para A+B
2.2.2 Produto de Cauchy
Wn = AnBn =
n∑
i=1
i∑
j=1
ajbi+1−j = somato´ria de todos os termos acima da diagonal
secunda´ria de [anbn]:
[anbn] =

a1b1 · · · a1bn · · ·
...
. . .
...
anb1 · · · anbn · · ·
...
...
 AnBn − An−1Bn−1 e´ igual a somato´ria dos termosda diagonal secunda´ria da matriz [anbn].
Teorema de Mertens:
Se
∞∑
n=1
an converge absolutamente para a soma A e
∞∑
n=1
bn converge absolutamente para
a soma B, enta˜o
∞∑
n=1
Wn converge absolutamente para a soma A.B.
27
2.3 Sucessa˜o de func¸o˜es
Sequ¨eˆncia de func¸o˜es com domı´nio comum.
Definic¸a˜o - limite de uma sucessa˜o de func¸o˜es:
lim
n→∞
fn(x) = f(x) se dado ε > 0 arbitra´rio, existe N(ε, x)upslope|fn(x) − f(x)| < ε ∀ n >
N(ε, x) ; x ∈ [a, b]
Definic¸a˜o - Convergeˆncia uniforme: e´ dito que fn(x) converge uniformemente para
f(x) quando N e´ func¸a˜o apenas de ε, e na˜o de x:
|fn(x)− f(x)| < ε ∀ n > N, ∀ x ∈ [a, b]
Notac¸a˜o: fn(x) ⇉
[a,b]
f(x)
2.4 Se´rie de func¸o˜es
Sa˜o chamadas se´ries de func¸o˜es (ou funcionais) aquelas que tem as suas reduzidas definidas
por sucesso˜es de func¸o˜es: SN(x) =
N∑
i=1
fi(x). As func¸o˜es fn(x) devem ter domı´nios de
definic¸a˜o comuns.
Definic¸a˜o:
∞∑
n=1
fn(x) e´ convergente de soma S(x) se lim
n→∞
Sn(x) = S(x) em [a, b].
Definic¸a˜o:
∞∑
n=1
fn(x) e´ uniformemente convergente de soma S(x) se Sn(x) ⇉
[a,b]
S(x).
Condic¸a˜o de convergeˆncia de Cauchy: A condic¸a˜o necessa´ria e suficiente para que
uma se´rie Sn(x) seja uniformemente convergente em [a, b] e´ que, dado ε > 0, exista N
independente de x tal que |Sn+p(x)− Sn(x)| < ε ∀
{
n > N independente de x
p natural qualquer
Crite´rio de Weierstrass: A se´rie
∑
i
fi(x) converge uniformemente num dado intervalo,
se existe uma se´rie nume´rica convergente
∑
i
ci tal que, para todo x pertencente ao intervalo
considerado, e´ verificado que |fn(x)| ≤ cn.
A se´rie
∑
i
ci e´ chamada maiorante da se´rie
∑
i
fi(x).
Propriedades:
1. Se fi(x) cont´ınua, e Sn(x) uniformemente convergente num intervalo, enta˜o S(x) e´
cont´ınua no intervalo.
2. A integral da soma de uma se´rie funcional,
∫
S(x)dx, e´ igual a soma dos integrais
dos termos,
∑
i
(∫
fi(x)dx
)
.
28
2.5 Se´ries de poteˆncias
Sa˜o se´ries da forma Sn(x) =
n∑
i=1ai (x− a)i, com os termos a, ai constantes.
Propriedade: As se´ries de poteˆncia sa˜o absolutamente convergentes para todo x tal
que |x− a| < ρ.
Definic¸a˜o: ρ e´ chamado raio de convergeˆncia da se´rie de poteˆncias.
Teorema de Abel: Se uma se´rie de poteˆncias e´ convergente para um valor x1 tal que x1−
a > 0, enta˜o ela e´ uniformemente convergente no intervalo (a− (x1 − a), a+ (x1 − a)).
Ca´lculo de ρ:
1
ρ
= lim
n→∞
|an+1|
|an| (2.1)
1
ρ
= lim
n→∞
n
√|an| (2.2)
Ja´ que, usando D’Alembert:
lim
n→∞
∣∣∣∣an+1(x− a)n+1an(x− a)n
∣∣∣∣ = limn→∞ |an+1||an| |x− a| ≤ 1
Como a se´rie converge para |x− a| ≤ ρ, na fronteira temos
lim
n→∞
|an+1|
|an| ρ = 1⇒ limn→∞
|an+1|
|an| =
1
ρ
A expressa˜o para o ca´lculo do ρ da equac¸a˜o 2.2 pode ser demonstrada de forma ana´loga
utilizando o crite´rio de Cauchy.
Observac¸o˜es:
1. Quando o limite na˜o existe, deve ser utilizado o limite superior, lim.
2. Na fronteira (x− a = ±ρ), e´ necessa´rio verificar a convergeˆncia.
2.5.1 Soma, diferenc¸a e produto de se´ries de poteˆncia
Duas se´ries de poteˆncias, com raios de convergeˆncia ρ1 e ρ2 respectivamente, podem ser
somadas, subtra´ıdas ou multiplicadas ”a la Cauchy”. A se´rie resultante tera´ raio de
convergeˆncia ρ ≥ min (ρ1, ρ2).
29
2.5.2 Expansa˜o em se´rie de poteˆncias
As func¸o˜es cont´ınuas e infinitamente deriva´veis podem ser expandidas em se´ries de poteˆncias.
Qualquer reduzida da se´rie e´ uma aproximac¸a˜o da sua func¸a˜o soma.
Uma forma muito utilizada para se obter a expansa˜o em se´rie de poteˆncias e´ a
se´rie de Taylor:
f(x) =
∞∑
p=0
f (p)(a)
p!
(x− a)p
Pode ser observado que a aproximac¸a˜o para f(x) e´ exata em x = a, para qualquer
ordem da reduzida.
A se´rie de McLaurin e´ um caso particular da se´rie de Taylor, quando a = 0.
f(x) =
∞∑
p=0
f (p)(0)
p!
xp
Observac¸o˜es:
• Toda se´rie de poteˆncia e´ a expansa˜o em se´rie de Taylor ou McLaurin da sua func¸a˜o
soma.
• A expansa˜o em se´rie de Taylor ou McLaurin pode ser realizada para va´rias varia´veis
simultaneamente, utilizando derivadas parciais.
• Existem outras expanso˜es muito utilizadas, por exemplo as se´ries trigonome´tricas
(se´rie de Fourier).
30
Exerc´ıcios:
1. Verifique a convergeˆncia das se´ries nume´ricas:
a. Sn =
∞∑
i=0
1
i!
b. Sn =
∞∑
i=0
(−1)i 1
i!
c. Sn =
∞∑
i=0
1
2i
d. Sn =
∞∑
i=0
(−1)i 1
2i
e. Sn =
∞∑
i=0
1
i2k
f. Sn =
∞∑
i=0
(−1)i 1
i2k
2. Demonstre a expressa˜o da equac¸a˜o 2.2
3. Ache o raio de convergeˆncia da se´rie Sn =
∞∑
i=0
xi
i
. Analise a convergeˆncia no intervalo
[−ρ, ρ].
4. Achar a expansa˜o em se´rie de poteˆncias e raio de convergeˆncia para:
a. (1 + x)−
1
2
b. ex
31
32
Cap´ıtulo 3
Vetores
Bibliografia sugerida para os cap´ıtulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb ”Con-
stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling”. Jhon
Wiley, 1982, Cap. 1.
3.1 Sistema de coordenadas cartesiano
(a) Vetor definido por 2 pontos. (b) Componentes cartesianas.
Figura 3.1: Vetor no espac¸o cartesiano
Base normal: destro´gira
33
3.1.1 Diferentes notac¸o˜es:
(
−→
i ,
−→
j ,
−→
k ) = (−→e1 ,−→e2 ,−→e3 )
||−→ei || = 1 (comprimento unita´rio)
(i = 1, 2, 3)
−→
V1 = v1
−→
i = v1
−→e1−→
V2 = v2
−→
j = v2
−→e2−→
V3 = v3
−→
k = v3
−→e3
−→
V =
−→
V1 +
−→
V2 +
−→
V3
−→
V = v1
−→e1 + v2−→e2 + v3−→e3 ∼ −→V = v1−→i + v2−→j + v3−→k
{v} =

v1
v2
v3
 = [v1, v2, v3] −→V = {v} ∈ E3, vi ∈ E1 (i = 1, 2, 3)
Figura 3.2: Vetor definido por dois pontos.
Sejam A e B dois pontos no plano (xy).
O vetor
−→
V =
−→
AB =
−→
B −−→A , onde −→A e −→B sa˜o os vetores definidos a partir dos pontos
A(a1, a2, a3) e B(b1, b2, b3) e a origem do sistema de coordenadas (xy). Esta afirmac¸a˜o e´
va´lida para espac¸os de qualquer ordem. Para espac¸os de ordem 3 fica:
−→
B = b1
−→e1 + b2−→e2 + b3−→e3 −→A = a1−→e1 + a2−→e2 + a3−→e3−→
V =
−→
B −−→A = (b1 − a1)−→e1 + (b2 − a2)−→e2 + (b3 − a3)−→e3
3.2 Operac¸o˜es com vetores
Seja
−→
A = [a1, a2, a3],
−→
B = [b1, b2, b3],
−→
C = [c1, c2, c3]
3.2.1 Soma, subtrac¸a˜o
−→
C =
−→
A ±−→B, ci = ai ± bi i = (1, 2, 3)
34
3.2.2 Multiplicac¸a˜o por um escalar
−→
B = α
−→
A, bi = αai i = (1, 2, 3)
3.2.3 Produto escalar
−→
A • −→B = ||−→A ||.||−→B || cos θ
Figura 3.3: Produto escalar
.
Utilizando as propriedades distributiva e associativa com relac¸a˜o ao produto por um
escalar:
−→
A • −→B = (a1−→i + a2−→j + a3−→k ) • (b1−→i + b2−→j + b3−→k )
= a1b1(
−→
i • −→i ) + a2b2(−→j • −→j ) + a3b3(−→k • −→k )
+ a1b2(
−→
i • −→j ) + a1b3(−→i • −→k ) + a2b1(−→j • −→i )
+ a2b3(
−→
j • −→k ) + a3b1(−→k • −→i ) + a3b2(−→k • −→j )
Num sistema de coordenadas ortonormal:
−→
i • −→i = ||−→i ||.||−→i || cos 0 = 1−→
i • −→j = ||−→i ||.||−→j || cos 90 = 0−→
i • −→k = ||−→i ||.||−→k || cos 90 = 0−→
j • −→k = ||−→j ||.||−→k || cos 90 = 0−→
j • −→j = ||−→j ||.||−→j || cos 0 = 1−→
k • −→k = ||−→k ||.||−→k || cos 0 = 1
(3.1)
Substitu´ındo na equac¸a˜o anterior:
−→
A • −→B = a1b1 + a2b2 + a3b3 =
3∑
i=1
aibi =
−→
B • −→A
35
Portanto,
∥∥∥ ~A∥∥∥ =
√
N∑
i=1
a2i =
√−→
A • −→A
Produto escalar entre vetores complexos
Por definic¸a˜o, o produto escalar entre vetores complexos e´ dado por:
−→
V • −→W = ({v}∗)T{w} =
N∑
i=1
viwi
{v}∗ - Conjugado do vetor {v}.
v - Conjugado do nu´mero v.{
(vR − jvI)i(wR + jwI)i = (vRwR + vIwI + j(vRwI − vIwR))i
(wR − jwI)i(vR + jvI)i = (vRwR + vIwI + j(vIwR − vRwI))i ⇒ para vetores
complexos ⇒
{ −→
V • −→W 6= −→W • −→V
−→
V • −→W = −→W • −→V
3.2.4 Produto vetorial
−→
C =
−→
A ×−→B
||−→C || = ||−→A ||.||−→B || sin θ−→
C ⊥ ao plano definido por −→A e −→B−→
A ,
−→
B e
−→
C formam um triedro direto
(destro´giro)
Propriedade:
−→
A ×−→B = −(−→B ×−→A )
Figura 3.4: Produto vetorial.
Em coordenadas Cartesianas ortonormais:
Permutac¸a˜o c´ıclica: Positiva -
3
	
1 2
⇒ (1 2 3), (2 3 1), (3 1 2) ⇒ −→i ×−→j = −→k , etc...
Negativa -
3
�
1 2
⇒ (1 3 2), (3 2 1), (2 1 3) ⇒ −→i ×−→k = −−→j , etc...
36
−→
C =
∣∣∣∣∣∣
−→
i
−→
j
−→
k
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣ = −→i (a2b3 − a3b2) +−→j (a3b1 − a1b3) +−→k (a1b2 − a2b1)
ou
−→
C =
∣∣∣∣∣∣
−→e1 −→e2 −→e3
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣ = −→e1 (a2b3 − a3b2) +−→e2 (a3b1 − a1b3) +−→e3 (a1b2 − a2b1)
||−→C || =⇒a´rea do paralelogramo definido por −→A e −→B .−→
C e´ perpendicular ao plano formado por
−→
A e
−→
B .
Figura 3.5: a´rea do paralelogramo.
a´rea = ||−→A ||.H H = ||−→B || sin θ =⇒ a´rea = ||−→A ||.||−→B || sin θ =
∥∥∥−→A ×−→B∥∥∥
3.2.5 Produto escalar triplo
−→
A • (−→B ×−→C ) = −→C • (−→A ×−→B ) = −→B • (−→C ×−→A )∣∣∣∣∣∣
a1 a2 a3
b1 b2 b3
c1 c2 c3
∣∣∣∣∣∣ =
∣∣∣∣∣∣
c1 c2 c3
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣ =
∣∣∣∣∣∣
b1 b2 b3
c1 c2 c3
a1 a2 a3
∣∣∣∣∣∣ = Volume do paralelep´ıpedo
3.2.6 Produto vetorial triplo
Fo´rmula de expulsa˜o:
−→
A × (−→B ×−→C ) = −→B (−→A • −→C )−−→C (−→A • −→B )
(
−→
A ×−→B )×−→C = −→B (−→A • −→C )−−→A (−→B • −→C )
3.2.7 Produto interno entre vetores complexos
O produto interno entre dois vetores
−→
V e
−→
W complexos e´ um nu´mero complexo que
satisfaz:
1. Simetria: <
−→
V ,
−→
W > = <
−→
W,
−→
V >
37
2. <
−→
V ,
−→
V > > 0 para
−→
V 6= −→0 . Se < −→V ,−→V > = 0⇒ −→V = −→0 .
3. < α
−→
V + β
−→
W,
−→
U >= α <
−→
U ,
−→
V > + β <
−→
U ,
−→
W >
<
−→
U , α
−→
V + β
−→
W >= α <
−→
V ,
−→
U > + β <
−→
W,
−→
U >
Exemplos:
1) Produto escalar entre vetores reais,
−→
V • −→W = {v}T{w} =
N∑
i=1
viwi = {w}T{v} = −→W • −→V
2) Produto escalar entre vetorescomplexos definido anteriormente:
−→
V • −→W = {v}T{w} =
N∑
i=1
viwi =
N∑
i=1
wivi = {w}T{v} = −→W • −→V
3.3 Campos vetoriais e escalares
3.3.1 Definic¸a˜o de campo vetorial
Func¸o˜es definidas por grandezas vetoriais no En.
Exemplos no E3:

Velocidade
−→
V (x1, x2, x3)
Forc¸a
−→
F (x1, x2, x3)
Momento
−→
M(x1, x2, x3) (pseudo-vetor)
3.3.2 Definic¸a˜o de campo escalar
Func¸o˜es definidas por grandezas escalares no En.
Exemplos no E3:

Pressa˜o P (x1, x2, x3)
Campo magne´tico Φ(x1, x2, x3)
Campo ele´trico E(x1, x2, x3)
Campo gravitacional G(x1, x2, x3)
Observac¸a˜o: As forc¸as eletromagne´ticas e gravitacionais constituem campos vetoriais,
mas os campos eletromagne´ticos e gravitacionais sa˜o escalares.
3.3.3 Operador Nabla ∇
Aplicac¸o˜es do Operador ▽ (Nabla, de Hamilton ou DEL)
Formalmente se define o operador ∇ = ∂
∂x
−→
i + ∂
∂y
−→
j + ∂
∂z
−→
k = ∂
∂x1
−→e1 + ∂∂x2−→e2 + ∂∂x3−→e3
38
Gradiente de uma func¸a˜o escalar
O operador▽ e´ aplicado a uma func¸a˜o escalar, resultando num vetor: Portanto transforma
campos escalares em campos vetoriais.
∇() = ∂()
∂x
−→
i +
∂()
∂y
−→
j +
∂()
∂z
−→
k =
∂()
∂x1
−→e1 + ∂()
∂x2
−→e2 + ∂()
∂x3
−→e3
() ⇒ Representa qualquer func¸a˜o escalar diferencia´vel Φ(x, y, z).
Seja Φ(x, y, z) uma func¸a˜o escalar Φ : R3 → R1
GRAD Φ(x, y, z) = ▽Φ(x, y, z) = ∂Φ
∂x
−→
i + ∂Φ
∂y
−→
j + ∂Φ
∂z
−→
k
▽Φ(x, y, z) = [∂Φ
∂x
, ∂Φ
∂y
, ∂Φ
∂z
]
Propriedade: ∇Φ(x1, y1, z1) e´ um vetor normal a` superf´ıcie da func¸a˜o Φ(x, y, z) = ρ,
no ponto (x1, y1, z1), ρ = constante.
Demonstrac¸a˜o:
Figura 3.6: Superf´ıcie Φ(x, y, z) = ρ.
Seja −→r = x−→i + y−→j + z−→k , o vetor posic¸a˜o de um ponto P(x,y,z), pertencente a`
superf´ıcie definida por Φ(x, y, z) = ρ.
d−→r = dx−→i + dy−→j + dz−→k e´ um vetor tangente a` superf´ıcie no ponto P(x,y,z).
39
Figura 3.7: Curva de equac¸a˜o φ(x, y) = ρ.
d−→r = lim
Q−→P
−→
∆S
d−→r e´ um vetor tangente a` curva φ(x, y) = ρ
d−→r e´ um vetor tangente a` superf´ıcie Φ(x, y, z) = ρ.
Mas∇Φ(x, y, z)•d−→r = ∂Φ
∂x
dx+ ∂Φ
∂y
dy+ ∂Φ
∂z
dz = dΦ = 0, pois Φ(x, y, z) = ρ = constante.
Logo ∇Φ e´ normal a d−→r .
Divergente de um vetor
O operador ▽ e´ formalmente multiplicado escalarmente por um vetor, resultando em um
escalar. Portanto transforma campos vetoriais em campos escalares.
−→
V (x, y, z) = v1
−→
i + v2
−→
j + v3
−→
k
DIV
−→
V = ∇ • −→V = ∂v1
∂x
+
∂v2
∂y
+
∂v3
∂z
(3.2)
∇ • −→V = (∂()
∂x
−→
i +
∂()
∂y
−→
j +
∂()
∂z
−→
k ) • (v1−→i + v2−→j + v3−→k )
=
∂v1
∂x
(
−→
i • −→i ) + ∂v2
∂y
(
−→
j • −→j ) + ∂v3
∂z
(
−→
k • −→k ) + ∂v2
∂x
(
−→
i • −→j ) + ∂v3
∂x
(
−→
i • −→k )
+
∂v1
∂y
(
−→
j • −→i ) + ∂v3
∂y
(
−→
j • −→k ) + ∂v1
∂z
(
−→
k • −→i ) + ∂v2
∂z
(
−→
k • −→j )
Lembrando que os produtos escalares de
−→
i ,
−→
j , e
−→
k por eles mesmos e´ igual a` unidade,
e que os produtos escalares entre dois deles e´ igual a zero (ver equac¸o˜es 3.1), chega-se na
equac¸a˜o (3.2).
40
Rotacional de um campo vetorial
O operador ▽ e´ formalmente multiplicado vetorialmente por um vetor, resultando em um
vetor. Portanto transforma campos vetoriais em campos vetoriais.
ROT
−→
V = ∇×−→V =
∣∣∣∣∣∣∣
−→
i
−→
j
−→
k
∂()
∂x1
∂()
∂x2
∂()
∂x3
v1 v2 v3
∣∣∣∣∣∣∣
=
−→
i (
∂v3
∂x2
− ∂v2
∂x3
) +
−→
j (
∂v1
∂x3
− ∂v3
∂x1
) +
−→
k (
∂v2
∂x1
− ∂v1
∂x2
)
∇×−→V =
∣∣∣∣∣∣
−→e1 −→e2 −→e3
∂()
∂x1
∂()
∂x2
∂()
∂x3
v1 v2 v3
∣∣∣∣∣∣ = −→e1 (∂v3∂x2 − ∂v2∂x3 ) +−→e2 (∂v1∂x3 − ∂v3∂x1 ) +−→e3 (∂v2∂x1 − ∂v1∂x2 )
3.3.4 Operador laplaciano ∆
Definic¸a˜o:
∆() = ∇ •∇() = ∇2() = ∂
2()
∂x2
+
∂2()
∂y2
+
∂2()
∂z2
Laplaciano de uma func¸a˜o escalar φ(x, y, z):
∆φ(x, y, z) = ∇2φ(x, y, z) = ∇ •∇φ = ∂
2φ
∂x2
+
∂2φ
∂y2
+
∂2φ
∂z2
Transforma campos escalares em campos escalares.
Exerc´ıcio: Demonstre as seguintes propriedades:
ROT GRAD φ = ∇×∇φ = 0
DIV ROT
−→
V = ∇ • (∇×−→V ) = 0
∇(φ.ψ) = φ∇ψ + ψ∇φ
∇ • (φ−→V ) = φ(∇ • −→V ) +−→V • ∇φ
41
42
Cap´ıtulo 4
Notac¸a˜o indicial
Seja um sistema de coordenadas cartesiano definido por (x1, x2, x3) na base (
−→e1 ,−→e2 ,−→e3 ).
Figura 4.1: Domı´nio.
Φ(x1, x2, x3) : R
3 −→ R1 e´ uma func¸a˜o escalar cont´ınua em D.
−→
A,
−→
B ,
−→
C sa˜o vetores:
−→
A = a1
−→e1 + a2−→e2 + a3−→e3 ou [a1, a2, a3] ou

a1
a2
a3

−→
B = b1
−→e1 + b2−→e2 + b3−→e3 ou [b1, b2, b3] ou

b1
b2
b3

43
4.1 Notac¸a˜o cla´ssica
▽Φ(x1, x2, x3) =
∂Φ
∂x1
−→e1 + ∂Φ
∂x2
−→e2 + ∂Φ
∂x3
−→e3 =
3∑
i=1
∂Φ
∂xi
−→ei
ou
▽Φ(x1, x2, x3) = (
∂Φ
∂x1
,
∂Φ
∂x2
,
∂Φ
∂x3
) ou

∂Φ
∂x1
∂Φ
∂x2
∂Φ
∂x3

▽() =
3∑
i=1
∂()
∂xi
−→ei =

∂()
∂x1
∂()
∂x2
∂()
∂x3

DIV
−→
A = ▽ • −→A =
3∑
i=1
∂ai
∂xi
=
∂a1
∂x1
+
∂a2
∂x2
+
∂a3
∂x3
ROT
−→
A = ▽×−→A =
∣∣∣∣∣∣
−→e1 −→e2 −→e3
∂()
∂x1
∂()
∂x2
∂()
∂x3
a1 a2 a3
∣∣∣∣∣∣ = −→e1 (∂a3∂x2 − ∂a2∂x3 ) +−→e2 (∂a1∂x3 − ∂a3∂x1 ) +−→e3 (∂a2∂x1 − ∂a1∂x2 )
▽2φ = ▽ •▽φ =
3∑
i=1
∂2φ
∂xi∂xi
=
∂2φ
∂x21
+
∂2φ
∂x22
+
∂2φ
∂x23
4.2 Notac¸a˜o indicial
4.2.1 Definic¸a˜o
Um vetor cartesiano
−→
V e´ representado por suas componentes.−→
V = v1
−→e1 + v2−→e2 + v3−→e3 = [v1, v2, v3] −→ vi
Portanto:
−→
V −→ vi (Fica impl´ıcito que o ı´ndice i varia de 1 a 3, i = 1, 2, 3)−→v =⇒ (x1, x2, x3) =⇒ xi ou xj.
Qualquer varia´vel (
−→
V ,−→v , etc...) com um ı´ndice vi ou vj sem repetic¸a˜o, denota um
vetor. i ou j e´ chamado ı´ndice livre (”free index”).−→
A =⇒ ai, −→B =⇒ bi, −→C =⇒ ci
−→
C =
−→
A +
−→
B
↓ ↓ ↓
ci = ai + bi
Fica impl´ıcito que i = 1, 2, 3.
e´ equivalente a (c1, c2, c3) = [(a1 + b1), (a2 + b2), (a3 + b3)]
44
−→
B = α
−→
A =⇒ [b1, b2, b3] = [αa1, αa2, αa3]
↓ ↓
bj = αaj
Dois ı´ndices livres indicam uma matriz (3x3)
aij (impl´ıcito que i e j variam de 1 a 3)
aij =⇒
 a11 a12 a13a21 a22 a23
a31 a32 a33

Treˆs ı´ndices livres indicam uma matriz 3D (3x3x3)
aijk =⇒
րk −→j
i ↓
 a111 a121 a131a211 a221 a231
a311 a321 a331
 (i, j, k) variam de 1 a 3.
4.2.2 Convenc¸a˜o soma
Toda vez que houver repetic¸a˜o de ı´ndice em um termo e´ entendido uma somato´ria em que
os ı´ndices variam de 1 a 3.
O ı´ndice repetido se chama ı´ndice mudo (”dummy index”).
Um ı´ndice so´ pode repetir uma vez num mesmo termo.
Exemplos:
Notac¸a˜o cla´ssica Notac¸a˜o indicial
−→
A • −→B =
3∑
i=1
aibi =⇒ −→A • −→B = aibi
▽Φ =
3∑
i=1
∂Φ
∂xi
−→ei =⇒ ∂Φ
∂xi
−→ei = ∂Φ
∂xj
−→ej
aijxj = bi =⇒
{
i⇒ ı´ndice livre.
j ⇒ ı´ndice mudo. =⇒
=⇒ {ai1x1 + ai2x2 + ai3x3 = bi} =⇒
i = 1
i = 2
i = 3

a11x1 + a12x2 + a13x3 = b1
a21x1 + a22x2 + a23x3 = b2
a31x1 + a32x2 + a33x3 = b3
 =⇒
=⇒
 a11 a12 a13a21 a22 a23
a31 a32 a33


x1
x2
x3
 =

b1
b2
b3

45
4.2.3 Notac¸a˜o de diferenciac¸a˜o
A diferenciac¸a˜o e´ indicada por uma v´ırgula como ı´ndice.
Exemplos:
Gradiente de φ:

∇φ = ∂φ
∂xi
−→ei = φ,i−→ei (Notac¸a˜o indicial como soma vetorial)
∇φ = ∂φ
∂xi
= φ,i (Notac¸e´ indicial como componente do vetor gradiente)
∇φ = φ,i
Divergente de
−→
A :
∇ • −→A = (∂a1
∂x1
+
∂a2
∂x2
+
∂a3
∂x3
) =
∂ai
∂xi
Notac¸a˜o indicial
= ai,i = (a1,1 + a2,2 + a3,3)
∇ • −→A = ai,i
Laplaciano de φ:
∇2φ = ∇ •∇φ = ∂
2φ
∂x21
+
∂2φ
∂x22
+
∂2φ
∂x23
=
∂2φ
∂xi∂xi
(Notac¸a˜o indicial)
= φ,ii = φ,11 + φ,22 + φ,33
∇2φ = φ,ii
4.2.4 Delta de Kronecker δij
Tensor δij ⇒ Matriz (3x3)
δij ⇒ 1 0 00 1 0
0 0 1
 { δij = 1 i = j
δij = 0 i 6= j
δij e´ tambe´m um operador matricial (operador substituic¸a˜o).
δijvj = vi (o operador δij aplicado em um vetor vj substitui o ı´ndice repetido do
vetor pelo ı´ndice livre).
δijvi = vj
δijvj = δi1v1 + δi2v2 + δi3v3 = vi
δijδij = δii ou δjj = δ11 + δ22 + δ33 = 3
δijaij = aii ou ajj = (a11 + a22 + a33)−→ei • −→ej = δij
46
4.2.5 Operador alternante ou alternador εijk
Tensor εijk ⇒ Tensor

Alternante
ou
Alternador
εijk → 3 ı´ndices livres → 33 = 27 componentes (Matriz 3x3x3)
Definic¸a˜o:
εijk = 0 se houver ı´ndice repetido (nesse caso na˜o significa soma)
εijk = 1 se a partir da ordem natural (i, j, k) = (1, 2, 3), o nu´mero de
permutac¸o˜es for par
εijk = −1 se a permutac¸a˜o for ı´mpar
Permutac¸o˜es pares Permutac¸o˜es ı´mpares
(1 2 3) (1 3 2)
(2 3 1) (3 2 1)
(3 1 2) (2 1 3)
4.2.6 Aplicac¸o˜es do tensor εijk
−→
C =
−→
A ×−→B =
∣∣∣∣∣∣
−→e1 −→e2 −→e3
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣ = εijk−→ei ajbk = εijkajbk−→ei = εijkajbk
−→
A • (−→B ×−→C ) =
∣∣∣∣∣∣
a1 a2 a3
b1 b2 b3
c1 c2 c3
∣∣∣∣∣∣ = ai−→ei • εjkl−→ej bkcl = εjklaibkcl(−→ei • −→ej︸ ︷︷ ︸
δij
) = δijεjkl︸ ︷︷ ︸
εikl
aibkcl = εijkaibjck
= a1b2c3 + a2b3c1 + a3b1c2 − (a1b3c2 + a2b1c3 + a3b2c1) + 0 + 0 + · · · · · ·+ 0 + 0
|aij| =
∣∣∣∣∣∣
a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣ = εijka1ia2ja3k
4.2.7 Relac¸a˜o entre δij e εklm
εijkεist = δjsδkt − δjtδks
4.3 Exerc´ıcios
Usando notac¸a˜o indicial,
47
1. mostrar que εi12εi23 = 0
εi12εi23 = δ12δ23 − δ13δ22 = 0
2. mostrar que,
−→
A × (−→B ×−→C ) = −→B (−→A • −→C )−−→C (−→A • −→B )
Lado esquerdo da equac¸a˜o;
−→
D =
−→
A × (−→B ×−→C︸ ︷︷ ︸
−→
E
)⇒
{ −→
D =
−→
A ×−→E → di = εijkajek−→
E =
−→
B ×−→C → ek = εkstbsct
di = εijkajεkstbsct ∼ di = εijkεkstajbsct
εijk = εkij ⇒ di = εkijεkstajbsct = (δisδjt − δitδjs)ajbsct
δisbs = bi
δitct = ci
}
=⇒ δjtaj︸︷︷︸
at
bict − δjsaj︸︷︷︸
as
bsci
di = atbict − asbsci
di = bi (atct) − ci (asbs)
↓ ↓ ↓ ↓ ↓−→
D =
−→
B (
−→
A • −→C ) − −→C (−→A • −→B )
3. mostrar que εijkεkji = −6
εkji = −εijk ⇒ εijkεkji = −εijkεijk = −(δjjδkk − δjkδkj︸ ︷︷ ︸
δjj
)
δii = 3⇒ εijkεkji = −9 + 3 = −6
4. mostrar que ▽×▽φ = 0
▽×▽φ = εijk
(
∂
∂xj
)(
∂φ
∂xk
)
= εijk
∂2φ
∂xjxk
εijkφ,jk = 0
εijkφ,jk = ε123φ,23 + ε132φ,32︸ ︷︷ ︸
0
+ ε213φ,13 + ε231φ,31︸ ︷︷ ︸
0
+ ε312φ,12 + ε321φ,21︸ ︷︷ ︸
0
= 0
5. Mostrar indicialmente que ▽× (▽×−→A ) = ▽(▽ • −→A )−▽2−→A
−→
A = ai
▽2−→A = ▽2a1−→e1 +▽2a2−→e2 +▽2a3−→e3
▽2−→A = ▽2ai = ai,jj
Definindo ▽×−→A = bi = εijkak,j ⇒
▽ × (▽ × −→A ) = ▽ × −→B = εlmibi,m = εlmiεijkak,jm = εilmεijkak,,jm = (δljδmk −
δlkδmj)ak,jm
▽× (▽×−→A ) = (δljδmkak,jm︸ ︷︷ ︸
am,jm
− δlkδmjak,jm︸ ︷︷ ︸
ak,mm
) = δljam,jm︸ ︷︷ ︸
am,lm
− δlkak,mm︸ ︷︷ ︸
al,mm
= am,lm − al,mm
48
am,lm = ▽(am,m) = ▽(▽ • −→A )
al,mm = ▽2al = ▽2−→A
}
⇒ am,lm − al,mm = ▽(▽ • −→A )−▽2−→A
4.4 Problemas
Mostrar (indicialmente) que:
a) εijkAjAk =
−→
A ×−→A = 0
b) εijkδij = 0
c) ▽ • (▽×−→A ) = 0
d) Dada a matriz sime´trica σij (σij = σji) e
{
Q1 = εijkεijmσkm P1 = σii
Q2 = εijkεimnσjmσkn P2 = σijσji
mostrar que,
{
Q1 = 2P1
Q2 = P
2
1 − P2
e) Dado bi =
ai√
ajaj
, mostrar que bi e´ um vetor unita´rio.
49
50
Cap´ıtulo 5
Vetores Euclidianos
Considere-se no espac¸o euclidiano E3, um referencial (x,y,z) destro´giro.
Um vetor
−→
V pode ser especificado por suas compo-
nentes,
−→
V = v1
−→e 1 + v2−→e 2 + v3−→e 3 ou v1−→i + v2−→j + v3−→k
ou simplesmente
−→
V =

v1
v2
v3
 = {V }
Onde
−→e 1 =

1
0
0
 , −→e 2 =

0
1
0
 , −→e 3 =

0
0
1

Figura 5.1: Base euclidiana.
Diz-se que
−→
V ∈ E3 (ou −→V ∈ C3 se as componentes forem complexas).
Nota: Pode-se generalizar o espac¸o E3 para um espac¸o N-dimensional EN . Neste caso,
{V } ∈ EN pode ser definido por suas N componentes,
{V } =

v1
v2
...
vN

Definic¸a˜o: Vetores linearmente independentes (vetores LI)
Um conjunto de vetores [{x}1, {x}2, . . . , {x}N ], {x}i ∈ EN , e´ definido como
linearmente independente (LI) se e somente se a combinac¸a˜o linear,
51
α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0}
admitir somente a soluc¸a˜o trivial, α1 = α2 = · · · = αN = 0
α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0}
[{x}1 {x}2 . . . {x}N ]

α1
α2
...
αN
 = {0}

x11
x21
...
xN1


x12
x22
...
xN2
 · · ·

x1N
x2N
...
xNN



α1
α2
...
αN
 = {0}
[X](N×N){α} = {0}
Se |[X]| 6= 0⇒ {α} = [X]−1{0} = {0} (soluc¸a˜o trivial u´nica, conjunto LI)
Se |[X]| = 0⇒ O sistema homogeˆneo apresenta soluc¸o˜es na˜o triviais⇒ o conjunto de
vetores e´ chamado linearmente dependente, (LD).
Definic¸a˜o: Num espac¸o EN , qualquer conjunto de N vetores LI, [{b}1, {b}2, . . . , {b}N ]
constitui uma base vetorial para o EN .
Qualquer vetor {V } do EN , {V } ∈ EN , pode ser escrito como uma combinac¸a˜o linear
dos vetores da base,
{V } = α1{b}1 + α2{b}2 + . . .+ αN{b}N ou {V } = [{b}1 {b}2 . . . {b}N ]

α1
α2
...
αN

N e´ a dimensa˜o do espac¸o vetorial EN .
Produto escalar entre dois vetores {A} =

a1
a2
...
aN
 e {B} =

b1
b2
...
bN
 em uma base
ortonormal:
({A}, {B}) = ({B}, {A}) = {A} · {B} = {A}T{B} =
N∑
i=1
aibi
Definic¸a˜o - Base ortogonal: ({b}1, {b}2, . . . , {b}N) e´ uma base ortogonal se,
52
{b}Ti {b}j = 0 quando i 6= j
6= 0 quando i = j
Definic¸a˜o: Base ortonormal: ({b}1, {b}2, . . . , {b}N) e´ uma base ortonormal se,
{b}Ti {b}j = δij =
{
0 quando i 6= j
1 quando i = j
δij → delta de Kronecker.
Obs.: Muitas vezes a base ortonormal e´ chamada ortogonal.
5.1 Norma de um vetor
Definic¸a˜o: Norma de um vetor {V } → ‖{V }‖⋆
‖{V }‖⋆ e´ um escalar que satisfaz 3 condic¸o˜es:
(i) ‖{V }‖⋆ > 0 ∀{V } 6= {0}; ‖{V }‖⋆ = 0 implica em {V } = {0}
(ii) ‖α{V }‖⋆ = |α|. ‖{V }‖⋆
(iii) ‖{U}+ {V }‖⋆ ≤ ‖{U}‖⋆ + ‖{V }‖⋆ (propriedade triangular)
5.1.1 Algumas definic¸o˜es para a norma
(i) Norma euclidiana ou Frobenius:
‖{V }‖E ou ‖{V }‖2 =
√
{V }T{V } =
√√√√ N∑
i=1
|vi|2
(ii) Norma ma´xima (ou absoluta):
‖{V }‖∞ = Ma´ximoi |vi|
(iii) ”Taxicab norm”:
‖{V }‖1 =
N∑
i=1
|vi|
(iv) Norma generalizada p:
‖{V }‖p = p
√√√√ N∑
i=1
|vi|p p inteiro, 1 ≤ p <∞
53
Definic¸a˜o: Vetor unita´rio ⇒ ‖{V }‖⋆ = 1
Portanto o vetor unita´rio depende da norma utilizada.
5.2 Obtenc¸a˜o de uma base ortogonal
Problema: dado uma base qualquer, [{b}1, {b}2, . . . , {b}N ]⇒
obter uma base ortogonal, [{u}1, {u}2, . . . , {u}N ].
Sapo˜e-se que o conjunto de vetores [{b}1, {b}2, . . . , {b}N ] seja LI. Caso contra´rio na˜o
constituiria uma base.
5.2.1 Me´todo de ortogonalizac¸a˜o de Gram-Schmidt
Dado um conjunto de vetores LI, [{b}1, {b}2, . . . , {b}M ], M ≤ N, {b}i ∈ EN , obter
um conjunto de vetores ortonormais [{u}1, {u}2, . . . , {u}M ], {u}Ti {u}j = δij
Algoritmo ba´sico:
1. i=1
{p}1 = {b}1 (5.1)
2. Normalizar {p}1:
α11 = ‖{p}1‖2 =
√√√√ N∑
j=1
p2j (5.2)
{u}1 = {p}1
α11
(5.3)
Das equac¸o˜es 5.1, 5.2 e 5.3,
{b}1 = α11{u}1
3. i = 2
{p}2 = {b}2 − α12{u}1 (5.4)
Impondo a condic¸a˜o de ortogonalidade entre {p}2 e {u}1,
{p}T2 {u}1 = {u}T1 {p}2 = 0 (5.5)
54
Pre´-multiplicando a equac¸a˜o 5.4 por {u}T1 ,
{u}T1 {p}2 = {u}T1 {b}2 − α12{u}T1 {u}1︸ ︷︷ ︸
1
= 0 (5.6)
∴ α12 = {u}T1 {b}2 (5.7)
4. Normalizac¸a˜o de {p}2,
α22 = ‖{p}2‖2 (5.8)
{u}2 = {p}2
α22
(5.9)
∴ {p}2 = α22{u}2
Das equac¸o˜es 5.4 e 5.9,
{b}2 = α12{u}1 + α22{u}2 (5.10)
5. i = 3
{p}3 = {b}3 − α13{u}1 − α23{u}2 (5.11)
da ortogonalidade,{p}T3 {u}1 = {p}T3 {u}2 = 0 (5.12)
{u}T1× equac¸a˜o 5.11⇒ {u}T1 {p}3 = {u}T1 {b}3 − α13{u}T1 {u}1︸ ︷︷ ︸
1
− α23{u}T1 {u}2︸ ︷︷ ︸
0
= 0
α13 = {u}T1 {b}3 (5.13)
{u}T2× equac¸a˜o 5.11⇒ {u}T2 {p}3 = {u}T2 {b}3 − α13{u}T2 {u}1︸ ︷︷ ︸
0
− α23{u}T2 {u}2︸ ︷︷ ︸
1
= 0
α23 = {u}T2 {b}3 (5.14)
55
6. Normalizac¸a˜o de {p}3
α33 = ‖{p}3‖2 (5.15)
{u}3 = {p}3
α33
(5.16)
Das equac¸o˜es 5.11 e 5.16,
{b}3 = α13{u}1 + α23{u}2 + α33{u}3 (5.17)
7. Para i qualquer, analogamente, obte´m-se:
{p}i = {b}i −
i−1∑
j=1
αji{u}j (5.18)
αji = {u}Tj {b}i j = 1, 2, . . . , (i− 1) (5.19)
αii = ‖{p}i‖2 (5.20)
{u}i = {p}i
αii
(5.21)
Das equac¸o˜es 5.18 e 5.21,
{b}i = α1i{u}1 + α2i{u}2 + · · ·+ αii{u}i =
i∑
j=1
αji{u}j (5.22)
8. Repetir ate´ i =M , M ≤ N.
Da equac¸a˜o 5.22 pode-se ver que,
[{b}1{b}2 · · · {b}M ] = [{u}1{u}2 · · · {u}M ]

α11 α12 α13 · · · α1M
0 α22 α23 · · · α2M
0 0 α33 · · · α3M
...
...
...
. . .
...
0 0 0 · · · αMM

N

 B

︸ ︷︷ ︸
M
= N

 U

︸ ︷︷ ︸
M
[R] − − −− −
[0] −

︸ ︷︷ ︸
M
 M
[U ]
M×N
T [U ]
N×M
= [I]
M×M
(as colunas de [U ] sa˜o ortogonais entre si)
Se M = N ⇒ [U ]T [U ] = [U ][U ]T = [I] (as linhas tambe´m sa˜o ortogonais entre si)
Observac¸a˜o: Essa decomposic¸a˜o e´ chamada de decomposic¸a˜o QR
56
Algoritmo Gram-Schmidt modificado:
Do ponto de vista nume´rico e´ conveniente modificar ligeiramente o algoritmo ba´sico. O
objetivo e´ minimizar os erros de truncamento.
1. i = 1
{p}1 = {b}1
α11 = ‖{p}1‖2 =
√√√√ N∑
j=1
p2j
{u}1 = {p}1
α11
{b}1 = α11{u}1
2. i = 2
α12 = {u}T1 {b}2
{p}2 = {b}2 − α12{u}1
α22 = ‖{p}2‖
{u}2 = {p}2
α22
{b}2 = α12{u}1 + α22{u}2
3. i = 3
α13 = {u}T1 {b}3
{p}13 = {b}3 − α13{u}1
α23 = {u}T2 {p}13
{p}23 = {p}13 − α23{u}2
α33 =
∥∥{p}23∥∥
{u}3 = {p}
2
3
α33
{b}3 = α13{u}1 + α23{u}2 + α33{u}3
57
4. Analogamente para i qualquer:
α1i = {u}T1 {b}i
{p}1i = {b}i − α1i{u}1
α2i = {u}T2 {p}1i
{p}2i = {p}1i − α2i{u}2
α3i = {u}T3 {p}2i
{p}3i = {p}2i − α3i{u}3
... =
...
α(i−1),i = {u}Ti−1{p}(i−2)i
{p}(i−1)i = {p}(i−2)i − α(i−1),i{u}i−1
αii =
∥∥{p}i−1i ∥∥
{u}i = {p}
i−1
i
αii
{b}i = α1i{u}1 + α2i{u}2 + · · ·+ αii{u}i
Observac¸a˜o: No algoritmo modificado, {p}i−1i e´ calculado de modo que
{u}Tj {p}(i−1)i = 0 (j = 1, 2, . . . , (i − 1)) e´ imposto para cada {u}j, independente-
mente.
Programa 1: Programar o Gram Schmidt modificado:
Dados M vetores LI, M ≤ N , [B]
N×M
= [{b}1{b}2 · · · {b}M ], {b}i ∈ EN , achar M
vetores ortogonais [U ]
N×M
= [{u}1{u}2 · · · {u}M ]
• Verificac¸a˜o da ortogonalidade: [U ]T [U ] = [I]
M×M
• [R] =

α11 α12 · · · α1M
0 α22 · · · α2M
...
...
. . .
...
0 0 · · · αMM

• Sa´ıda: [B]
N×M
, [U ]
N×M
, [R]
M×M
• Verificar [B] = [U ].[R].
58
Cap´ıtulo 6
Produto escalar e projec¸o˜es em uma
reta
6.1 Vetor projec¸a˜o
Figura 6.1: Projec¸a˜o ortogonal.
Dados dois vetores euclidianos:
−→
A → (a1, a2, a3),→ {a} =

a1
a2
a3

−→
B → (b1, b2, b3),→ {b} =

b1
b2
b3

achar a projec¸a˜o de
−→
B em
−→
A.
59
cos θ =
−→
A
‖−→A‖
E
• −→B‖−→B‖
E
∥∥∥−→A∥∥∥
E
=
√{a}T{a} =√ 3∑
i=1
a2i∥∥∥−→B∥∥∥
E
=
√{b}T{b} =√ 3∑
i=1
b2i
Seja
−→
P a projec¸a˜o de
−→
B em
−→
A
−→
P = α
−→
A∥∥∥−→A∥∥∥
E
=
α√{a}T{a}−→A, α =
∥∥∥−→P ∥∥∥
E
=
−→
B •
−→
A∥∥∥−→A∥∥∥
E
=
{b}T{a}
({a}T{a})1/2
−→
A
‖−→A‖
E
=
−→
A√
{a}T {a}
⇒ Vetor unita´rio na direc¸a˜o de −→A.
∴
−→
P =
{b}T{a}
({a}T{a})1/2
−→
A
({a}T{a})1/2 =
{a}T{b}
{a}T{a}
−→
A
6.2 Matriz projetora
Na forma de componentes:
−→
P =

p1
p2
p3
 = {p}; −→A =

a1
a2
a3
 = {a}; −→B =

b1
b2
b3
 = {b}
{p} = {a}
T{b}
{a}T{a}{a} =
{a}{a}T
{a}T{a}{b}({a}{a}T
{a}T{a}
)
(N×N)
= [P]⇒ {p} = [P](N×N){b}
Definic¸a˜o: A matriz [P] = {a}{a}
T
{a}T {a} e´ chamada matriz projetora ou matriz projec¸a˜o.
Ela projeta um vetor {b} qualquer na direc¸a˜o de {a}.
Propriedades da matriz [P]
1. Sime´trica: ([P]T = [P])
[P]T =
({a}{a}T
{a}T{a}
)T
=
({a}T )T ({a})T
{a}T{a} =
{a}{a}T
{a}T{a} = [P]
2. ”Idempotente”: [P][P] = [P] ([P][P] = [P]2 = [P])
60
[P][P] =
{a}({a}T
{a}T{a} .
{a}){a}T
{a}T{a} =
({a}T{a})
({a}T{a})︸ ︷︷ ︸
1
({a}{a}T )
({a}T{a}) =
{a}{a}T
{a}T{a} = [P]
Observac¸a˜o: um caso particular importante e´ o dos vetores {b} que produzem uma
projec¸a˜o nula.
[P]{b} = {0} ⇒ {a}{a}
T
{a}T{a}{b} = {0} ⇒ {a}
T{b} = {0}
* qualquer vetor {b}⊥{a} produz um vetor nulo quando projetado em {a}.
6.3 Teorema da projec¸a˜o
Dado dois vetores coplanares na˜o paralelos
−→
V 1 e
−→
V 2 no E3,
−→
V 1 =

v11
v21
v31
 e −→V 2 =
v12
v22
v32
, e um ponto B na˜o pertencente ao plano S2 definido por −→V 1 e −→V 2, qual e´ a
distaˆncia do ponto B ao plano S2?
Plano S2 definido por
−→
V 1 e
−→
V 2 ⇒ S2 = {−→R ∈ E3 | −→R = x1−→V 1 + x2−→V 2}, x1, x2
escalares.
Na forma matricial:

r1
r2
r3
 = x1

v11
v21
v31
+ x2

v12
v22
v32

r1
r2
r3
 =
 v11 v12v21 v22
v31 v32
{ x1
x2
}
{r} = [A]{x}
Seja um ponto O de refereˆncia no plano S2. Seja um ponto A(a1, a2, a3) definido pelo
vetor
−→
R (ou vice-versa), pertencente ao plano S2. Seja um ponto B(b1, b2, b3) definido
pelo vetor
−→
B (ou vice-versa).
61
(O ponto O e´ a origem
do sistema de refereˆncia)
−→
B =
−−→
OB−→
R =
−→
OA Figura 6.2: Distaˆncia de um ponto a um plano.
A distaˆncia AB entre o ponto A e o ponto B pode ser obtida de,−→
B +
−→
BA =
−→
R ⇒ −→BA = −→R −−→B
onde
−→
R =
−→
OA.
∴ AB =
∥∥∥−→R −−→B∥∥∥
E
A menor distaˆncia entre o ponto B e um ponto A do S2 e´ a distaˆncia entre o ponto B
e o plano S2.
d = ABMı´nimo = Mı´nimo
r1,r2,r3
∥∥∥−→R −−→B∥∥∥
E
{R} =

r1
r2
r3

Soluc¸a˜o:
∥∥∥−→R −−→B∥∥∥
E
e´ mı´nimo quando (
−→
R − −→B ) ⊥ −→R , isto e´ (−→R − −→B ) · −→R = 0 =
−→
R · (−→R −−→B ).
Mı´nimo−→
R
∥∥∥−→R −−→B∥∥∥ = Mı´nimo−→
R
∥∥∥−→R −−→B∥∥∥2∥∥∥−→R −−→B∥∥∥2 = (−→R −−→B ) · (−→R −−→B ) = (−→R −−→B ) · −→R − (−→R −−→B ) · −→B
d2 =
∥∥∥−→R −−→B∥∥∥2
Mı´nimo
= min|(−→R −−→B ) · −→B |
Para determinar o vetor
−→
R :−→
R · (−→R −−→B ) = 0
([A]{x})T ([A]{x} − {b}) = {x}T [A]T ([A]{x} − {b}) = 0
{x}T [A]T [A]{x} − {x}T [A]T{b} = 0
{x}T ([A]T [A]{x} − [A]T{b}︸ ︷︷ ︸
{0}
) = 0⇒ [A]T [A]{x} = [A]T{b}
62
O vetor
−→
R que produz a distaˆncia entre B e S2 e´ obtido de [A]
T [A]{x} = [A]T{b}:
{x}
(2×1)
= ( [A]
(2×3)
T [A]
(3×2)︸ ︷︷ ︸
(2×2)
)−1[A]T
(2×3)
{b}
(3×1)
{−→R} = x1−→V 1 + x2−→V 2 = [A]{x}
Como
{
x1
x2
}
e´ a soluc¸a˜o que torna
∥∥∥−→R −−→B∥∥∥2 mı´nimo ⇒ e´ equivalente a` soluc¸a˜o
por mı´nimos quadrados.
Neste caso, {R} e´ a projec¸a˜o de −→B no plano S2.
{x} = (ATA)−1AT{b}
Pre´-multiplicando por [A]:
[A]{x} = A(ATA)−1AT︸ ︷︷ ︸
(3×3)
{b}
{R}
(3×1)
= [P]
(3×3)
{b}
(3×1)
→ Projec¸a˜o de {b} em S2
[P] = A(ATA)−1AT e´ a matriz de projec¸a˜o,
• sime´trica.
• Idempotente: [P]2 = A(ATA)−1ATA(ATA)−1︸ ︷︷ ︸
[I]
AT = A(ATA)−1AT = [P]
Generalizac¸a˜o do Teorema da projec¸a˜o:
Seja um conjunto de vetores LI, ({V }1, {V }2, . . . , {V }M)
{V }i ∈ EN {V }i =

v1i
v2i
...
vNi
 M ≤ N.
[{V }1 {V }2 · · · {V }M ] =


v11
v21
...
vN1


v12
v22
...
vN2

· · ·
· · ·
. . .
· · ·

v1M
v2M
...
vNM

 = [A](N×M)
O conjunto de M vetores LI define um plano SM , M -dimensional, SM ⊂ EN .
SM=
{{R} ∈ EN | {R} = x1{V }1 + x2{V }2 + · · ·+ xM{V }M , (x1, . . . , xM) escalares}
Na forma matricial, {R}
(N×1)
= [{V }1 {V }2 · · · {V }M ]

x1
x2
...
xN
 = [A](N×M) {x}(M×1)
63
Para qualquer vetor {B} =

b1
b2
...
bN
 , {B} ∈ E
N , existe um vetor {p} ∈ SM tal que
‖{B} − {p}‖2 e´ mı´nimo.
Nesse caso, ({B} − {p}) e´ ortogonal a {p}, isto e´ ({B} − {p}) • {p} = 0.
O vetor {p} e´ obtido de {p}
(N×1)
= [A(ATA)−1AT ]︸ ︷︷ ︸
[P ]
(N×N)
{B}
(N×1)
{p} e´ a projec¸a˜o de {B} no plano SM .
Exemplo: Dado um ponto B que define o vetor
−→
B =

−5
5
5
 = {b}, e o plano
definido por −→e 1 =
√
2
2

1
0
0
 e −→e 2 = √22

0
1
0
 ; S2 = {−→R = x1−→e 1 + x2−→e 2}, calcular a
projec¸a˜o {p} de −→B em S2. Calcular a distaˆncia de B a S2.
Observac¸a˜o: e´ poss´ıvel verificar que o ponto B na˜o pertence ao plano S2.
Soluc¸a˜o:
{p} = [A(ATA)−1AT ]{b} ⇒ {p} =
 1 00 1
0 0
[ 1 0
0 1
] [
1 0 0
0 1 0
]
{b} =
 1 0 00 1 0
0 0 0

︸ ︷︷ ︸
[P ]
{b}
{p} =
 1 0 00 1 0
0 0 0


−5
5
5
 =

−5
5
0

d = ‖{B} − {p}‖E =
∥∥∥∥∥∥

−5
5
5
−

−5
5
0

∥∥∥∥∥∥ =
∥∥∥∥∥∥

0
0
5

∥∥∥∥∥∥ = 5
Observac¸a˜o:
[P ] =
√
2
2
 1 01 1
0 0
√2
2
[
1 1 0
0 1 0
] √
2
2
 1 01 1
0 0
−1 √2
2
[
1 1 0
0 1 0
]
=
 1 0 00 1 0
0 0 0

{p} = [P ]{b} =

−5
5
0

64
Resultado obvio, ja´ que os pares de vetores

1
0
0
 ;

0
1
0
 e √22

1
0
0
 ; √22

0
1
0

definem o mesmo plano.
Exerc´ıcios:
1. Achar a matriz projetora do vetor {−→V } =

1
−2
3
−4

Achar a projec¸a˜o do vetor {−→B } =

5
5
5
5
 na direc¸a˜o de {
−→
V }.
2. Dado o plano S que passa por O(2, 1, 0) e definido pelos vetores −→e 1 =

1
0
1
 e
−→e 2 =

0
0
1
, e o ponto P (−5, 1, 1), achar:
(a) Projec¸a˜o do vetor
−→
OP sobre S.
(b) Distaˆncia de P a S.
65
66
Cap´ıtulo 7
Matrizes
7.1 Notac¸a˜o
[A] = [aij] =

a11 a12 · · · a1N
a21 a22 · · · a2N
...
...
. . .
...
aM1 aM2 · · · aMN

(M×N)
Generalizac¸a˜o:
aijk ⇒ (Matriz 3D)
7.2 Definic¸o˜es e propriedades
Definic¸a˜o - Matriz diagonal:

. . .
D
. . .

(N×N)
=

d1 0 · · · 0
0 d2 · · · 0
...
...
. . .
...
0 0 · · · dN

67
Definic¸a˜o - Matriz identidade:
[I]
(N×N)
=

1 0 · · · 0
0 1 · · · 0
...
...
. . .
...
0 0 · · · 1

Definic¸a˜o - Matriz transposta: [A]T → Trocam-se as linhas e as colunas de [A].
[A]
(3×4)
=
 a11 a12 a13 a14a21 a22 a23 a24
a31 a32 a33 a34
⇒ [A]T
(4×3)
=

a11 a21 a31
a12 a22 a32
a13 a23 a33
a14 a24 a34

Propriedade:
[A]
(M×N)
= [B]
(M×L)
. [C]
(L×N)
=⇒ [A]T = [C]T .[B]T
Definic¸a˜o - Matriz sime´trica:
[A] = [A]T
Definic¸a˜o - Matriz anti-sime´trica:
[A] = −[A]T ⇒ diagonal nula em [A] e [A]T .
Definic¸a˜o - Matriz complexa:
[C]
(M×N)
= [A]
(M×N)
+ j [B]
(M×N)
([A] e [B] matrizes reais).
Definic¸a˜o - Matriz conjugada:
[C]∗ = [A]− j[B]
Definic¸a˜o - Matriz inversa [A]
N×N
−1:
[A][A]−1 = [A]−1[A] = [I]
Propriedade:
[A]
(N×N)
= [B]
(N×N)
. [C]
(N×N)
=⇒ [A]−1 = [C]−1.[B]−1
68
Definic¸a˜o - Matriz triangular:
Superior → [U ]
(N×N)
=
 − −− −−− −−
0 −
 uij = 0 se i > j
Inferior → [L]
(N×N)
=
 − 0−− −
−− −− −
 lij = 0 se i < j
Definic¸a˜o - Matriz ortogonal [P ]
(N×N)
:
[P ]T = [P ]−1
[P ]T [P ] = [P ][P ]T = [I] =

1 0 · · · 0
0 1 · · · 0
...
...
. . .
...
0 0 · · · 1

[P ] = [{p}1{p}2 . . . {p}N ]
As colunas de [P ] sa˜o ortogonais entre si ⇒ {p}i.{p}j = δij.
Analogamente, as linhas de [P ] tambe´m sa˜o ortogonais entre si.
Propriedades:
‖[P ]{x}‖• = ‖{x}‖• (a norma e´ preservada)
[P ]{x} • [P ]{y} = {x} • {y} (o produto escalar e´ preservado)
Definic¸a˜o - Matriz unita´ria:
Seja [U ]
(N×N)
complexa. [U ]
(N×N)
e´ unita´ria se:
([U ]∗)T [U ] = ([U ]T )∗[U ] = [U ]([U ]∗)T = [I]
Ou seja, ([U ]∗)T = [U ]−1.
Uma matriz ortogonal e´ uma matriz unita´ria real.
Definic¸a˜o - Matriz hermitiana:
[A] = [A]H e´ hermitiana se:
([A]∗)T = ([A]T )∗ = [A]
Se [A] = [B] + j[C]⇒ [A]T = [B]T + j[C]T
69
([A]∗)T = ([A]T )∗ = [B]T − j[C]T
Se [A] hermitiana ⇒
{
Parte real sime´trica → [B] = [B]T
Parte imagina´ria anti-sime´trica → [C] = −[C]T
Observac¸a˜o: A diagonal principal e´ sempre real.
Definic¸a˜o - Matriz anti-hermitiana: Se ([A]∗)T = −[A]
Parte real ⇒ anti-sime´trica.
Parte imagina´ria ⇒ sime´trica.
Observac¸a˜o: A diagonal principal e´ sempre imagina´ria pura.
Propriedade: Se [A] e´ hermitiana ⇒ j[A] e´ anti-hermitiana e vice versa.
Observac¸a˜o: Na˜o confundir matriz hermitiana, que e´ uma matriz que apresenta a
propriedade ([A]∗)T = [A], com a hermitian de uma matriz, H([A]) = ([A]∗)T , que e´ em
geral diferente de [A].
Definic¸a˜o - Matriz normal [N ]:
([N ]∗)T [N ] = [N ]([N ]∗)T
As matrizes unita´rias, hermitianas e anti-hermitianas sa˜o normais.
Definic¸a˜o - Trac¸o de uma matriz [A]
(N×N)
: tr[A]
tr[A] =
N∑
i=1
aii
Propriedades:
1. Seja [A]
(N×N)
, [B]
(N×N)
tr([A][B]) = tr([B][A]) =
N∑
i=1
N∑
j=1
aijbji
2. tr(α[A] + β[B]) = α tr[A] + β tr[B]
3. tr[A] = tr([A]∗)T = tr[A]∗ (Observac¸a˜o: a e´ o conjugado do escalar a)
4. tr[A][B][C] = tr[C][A][B] = tr[B][C][A]
70
7.3 Norma de matrizes
Definic¸a˜o - Norma de uma matriz [A], ‖[A]‖•: e´ um escalar que satisfaz as condic¸o˜es
1) ‖[A]‖• > 0, exceto para [A] = [0]. (‖[A]‖• = 0⇐⇒ [A] = [0])
2) ‖α[A]‖• = |α| . ‖[A]‖•, α escalar
3) ‖[A] + [B]‖• 6 ‖[A]‖• + ‖[B]‖•
4) ‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖• (Propriedade das normas subordinadas).
Exemplos de normas:
Seja [A]
(M×N)
• Norma de Frobenius ou norma Euclidiana
‖[A]‖E = ‖[A]‖F =
√√√√ N∑
i=1
N∑
j=1
|aij|2 =
√
tr(([A]∗)T [A])
• Norma absoluta
‖[A]‖A =Maxi,j |aij|
Propriedade - A norma de uma matriz pode ser associada a` norma de um vetor:
‖[A]‖• = Max{x}6={0}
‖[A]{x}‖•
‖{x}‖•
ou ‖[A]‖• = Max‖{x}‖•=1
‖[A]{x}‖•
Tais normas (de uma matriz) sa˜o chamadas de norma de uma matriz subordinada a`
norma de um vetor e satisfazem a 4a condic¸a˜o da definic¸a˜o de norma acima mencionada:
‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖•
Propriedade 1: ‖[I]‖• = 1 para qualquer norma subordinada.
Propriedade 2: Qualquer norma de vetor e matriz que satisfaz ‖[A].{x}‖• 6 ‖[A]‖• . ‖{x}‖•
e´ chamada consistente ou compat´ıvel.
Exemplos:
• Norma ”Taxicab”:
‖[A]‖1 =Maxj
N∑
i=1
|aij| (soma da coluna j).
A norma ‖‖1 e´ uma norma subordinada a ‖{x}‖1 =
N∑
i=1
|xi|
71
• Norma ∞:
‖[A]‖∞ =Maxi
N∑
j=1
|aij| (soma da linha i).
A norma ‖‖∞ e´ uma norma subordinada a ‖{x}‖∞ =Maxi |xi|
• Norma espectral:
‖[A]‖s =
√
Ma´ximo autovalor de([A]∗)T [A]
Portanto ‖[A]‖s e´ subordinada a ‖{x}‖E
Obs.: ‖[A]‖E e´ consistente com ‖{x}‖E, mas na˜o e´ subordinada pois ‖[I]‖E =
√
N .
7.4 Determinante de uma matriz
Definic¸a˜o - O determinante de uma matriz [A]
(N×N)
=

a11 a12 · · · a1N
a21 a22 · · · a2N
...
...
. . .
...
aN1 aN2 · · · aNN
 e´
|A| =
N !∑
p=1
(−1)pa1ipa2jpa3kp · · · aNtp
onde (i, j, k, . . . , t)p sa˜o todas as N ! permutac¸o˜es de 1, 2, 3, · · · , N
Definic¸a˜o - Cofator de uma matriz [A]
(N×N)
, |Mij|:
|Mij| = (−1)i+j × (determinante de [A], eliminadas a linha i e a coluna j)
Definic¸a˜o - Matriz dos cofatores de [A]: Cada elemento cij da matriz e´ composto pelo
cofator |Mij| .
[C] =
|M11| |M12| · · · |M1N |
|M21| |M22| · · · |M2N |
...
...
. . .
...
|MN1| |MN2| · · · |MNN |

Definic¸a˜o - Matriz adjunta de [A]: Transposta da matriz dos cofatores de [A]⇒ [C]T .
Definic¸a˜o - Menor de ordem m da matriz [A]
(r×s)
, r e s > m: Matriz quadrada (m×m)
obtida de [A]
(r×s)
, eliminando-se linhas e colunas.
72
7.5 Ca´lculo do determinante
Ca´lculo do determinante de [A]
(N×N)
utilizando expansa˜o em cofatores.
|[A]| =
N∑
j=1
aij |Mij|
(Para um i qualquer)
=
N∑
i=1
aij |Mij|
(Para um j qualquer)
Note-se que cada cofator |Mij| pode ser expandido de novo pela mesma regra.
Propriedades:
• Matriz [A] singular ⇒ |[A]| = 0
• |[A]| = ∣∣[A]T ∣∣
• |[A].[B]| = |[A]| . |[B]|, [A] e [B] quadradas, (N ×N).
• Se [B]
(N×N)
e´ obtido de [A]
(N×N)
multiplicando-se uma linha ou coluna por um escalar α,
enta˜o
|[B]| = α |[A]| .
• Trocando-se duas linhas ou duas colunas de [A], inverte-se o sinal do determinante.
• Se [B]
(N×N)
e´ obtido de [A]
(N×N)
somando-se a qualquer linha ou coluna de [A] uma
combinac¸a˜o linear de linhas ou colunas, respectivamente, de [A], enta˜o|[B]| = |[A]|.
• Se [U ]
(N×N)
e´ triangular superior, enta˜o |[U ]| =
N∏
i=1
uii (elementos da diagonal principal).
• Se [L]
(N×N)
e´ triangular inferior, enta˜o |[L]| =
N∏
i=1
lii (elementos da diagonal principal).
Observac¸a˜o: Os auto-valores de [U ] e [L] esta˜o na diagonal principal. Isto pode ser
visualizado obtendo-se o polinoˆmio caracter´ıstico pela expansa˜o em cofatores.
7.6 Auto-valores de uma matriz
Por definic¸a˜o, sa˜o auto-vetores de uma matriz os vetores que se projetam sobre eles mes-
mos na transformac¸a˜o definida pela matriz, sendo os auto-valores as relac¸o˜es que existem
entre as normas euclideanas dos vetores projetados e dos vetores originais (Cap´ıtulo 8).
Portanto, sa˜o autovalores de uma matriz [A]
(N×N)
, N valores λ que satisfazem a equac¸a˜o,
[A]{x} = λ{x}
ou
73
([A]− λ[I]){x} = {0}
Esta equac¸a˜o representa um sistema homogeˆneo, e portanto tera˜o soluc¸o˜es na˜o triviais
somente se o determinante do sistema for nulo. Impondo esta restric¸a˜o temos,
|[A]− λ[I]| =
∣∣∣∣∣∣∣∣∣
a11 − λ a12 · · · a1N
a21 a22 − λ · · · a2N
...
...
. . .
...
aN1 aN2 · · · aNN − λ
∣∣∣∣∣∣∣∣∣
= 0⇒ P (λN) = 0
O polinoˆmio P (λN) e´ chamado polinoˆmio caracter´ıstico ou equac¸a˜o caracter´ıstica do
sistema.
P (λN) = aNλ
N + aN−1λN−1 + · · ·+ a1λ+ a0 = 0
Para cada soluc¸a˜o (auto-valor) λi, i = 1, . . . , N , existe associada uma soluc¸a˜o {x}i do
sistema homogeˆneo:
([A]− λi[I]){x}i = {0}
{x}i e´ um auto-vetor de [A] associado ao auto-valor λi.
Definic¸a˜o - Posto (”rank”) de uma matriz [A]
(M×N)
, ρ[A]: e´ a ordem da maior matriz na˜o
singular que pode ser formada retirando-se linhas e/ou colunas de [A].
Propriedades:
1. ρ [A]
(M×N)
6Min{M,N}
2. Se [B] e´ sub-matriz de [A], ρ[B] 6 ρ[A]
3. Se ρ[A] = k ⇒
{
Existem no ma´ximo k colunas de [A] LI.
Existem no ma´ximo k linhas de [A] LI.
4. ρ[A] = ρ[A]T = ρ([A]∗)T
5. ρ[A] = ρ([A]([A]∗)T ) = ρ(([A]∗)T [A])
6. Se ρ [A]
(M×N)
= K ⇒ existe [X]
(M×K)
, [M ]
(K×K)
e [Y ]
(K×N)
tal que [A] = [X][M ][Y ], det[M ] 6= 0
7. Se [A]
(M×N)
, [B]
(N×P )
⇒ ρ([A][B]) 6 Min{ρ[A], ρ[B]}. A igualdade acontece somente se
[A] e [B] tiverem posto cheio.
8. ρ([A] + [B]) 6 ρ[A] + ρ[B]
74
Definic¸a˜o - Raio espectral de uma matriz [A]
(N×N)
, ς[A]: Ma´ximo autovalor de [A], em
valor absoluto.
Definic¸a˜o - Nu´mero de condic¸a˜o espectral de uma matriz [A]
(N×N)
, c[A]S:
c[A]S = ‖[A]‖s
∥∥[A]−1∥∥
s
=
|λ|Ma´x
|λ|Mı´n
e´ uma medida do condicionamento nume´rico de [A]
(N×N)
.
Mede a ”sensitividade” da matriz em relac¸a˜o a uma perturbac¸a˜o (nos seus coeficientes,
δ[A], ou em quem a matriz esta´ aplicada ).
Exemplo:
[A]{x} = {b} ⇒ δ[A], δ{b}, δ{x}
Quanto maior c[A]S, pior e´ o condicionamento nume´rico na resoluc¸a˜o do sistema de
equac¸o˜es. O caso limite acontece quando [A] e´ singular ⇒ |λ|Mı´n = 0⇒ c[A]S =∞.
7.7 Produto interno
Definic¸a˜o: O produto interno entre duas matrizes [A]
(M×N)
e [B]
(M×N)
e´ um escalar (real ou
complexo) que satisfaz as condic¸o˜es:
1. < [A], [B] > = < [B], [A] >
2. < [A], [A] > > 0 se [A] 6= [0]; < [A], [A] > = 0⇔ [A] = [0]
3. < α[A] + β[B], [C] > = α < [A], [C] > +β < [B], [C] >
Observac¸a˜o: O produto interno de matrizes pode ser definido utilizando o produto
interno de vetores, por exemplo:
< [A], [B] >u,v=
< [A]{u}, [B]{v} >u
< {v}, {v} >v ; {v} 6= {0}
onde < (.), (.) >u e < (.), (.) >v representam produtos internos vetoriais.
Outros exemplos de produtos internos de matrizes:
< [A], [B] >v=
({v}∗)T ([A]∗)T [B]{v}
({v}∗)T{v} ; {v} 6= {0}
< [A], [B] >= tr(([A]∗)T [B])
etc...
75
7.8 Subespac¸os fundamentais de uma matriz
Os quatro subespac¸os fundamentais de uma matriz [A]
(M×N)
sa˜o:
1. Subespac¸o das colunas de [A], R([A])⇒ subespac¸o gerado por todas as combinac¸o˜es
das colunas de [A]
(M×N)
. R([A]) ⊂ EM .
2. Subespac¸o das linhas de [A], R([A]T )⇒ subespac¸o gerado por todas as combinac¸o˜es
das colunas de [A]T
(N×M)
(ou linhas de [A]). R([A]T ) ⊂ EN .
3. Subespac¸o nulo (direito) de [A], N ([A]) ⇒ subespac¸o constitu´ıdo por todos os ve-
tores que satisfazem a equac¸a˜o [A]
(M×N)
{x}
(N×1)
= {0}
(M×1)
. N ([A]) ⊂ EN .
4. Subespac¸o nulo (esquerdo) de [A], N ([A]T ) ⇒ subespac¸o constitu´ıdo por todos
os vetores que satisfazem a equac¸a˜o [A]T
(N×M)
{y}
(M×1)
= {0}
(N×1)
, ou {y}T
(1×M)
[A]
(M×N)
= {0}T
(1×N)
.
N ([A]T ) ⊂ EM .
{ N ([A]) e R([A]T ) ⊂ RN
N ([A]T ) e R([A]) ⊂ RM
• Os subespac¸os nulos sa˜o chamados de kernel de [A].
• R([A])⇒ dimensa˜o r (nu´mero de colunas LI), ⇒ posto de [A] = ρ[A] = r.
• R([A]T )⇒ dimensa˜o r (nu´mero de linhas LI), ⇒ posto de [A]T = ρ([A]T ) = r.
• N ([A])⇒ dimensa˜o (N − r)⇒ (N − r) vetores LI formando uma base.
• N ([A]T )⇒ dimensa˜o (M − r)⇒ (M − r) vetores LI formando uma base.
76
Cap´ıtulo 8
Autovalores e autovetores de uma
matriz
Seja [A] uma matriz N ×N qualquer.
Os autovetores da matriz [A] sa˜o, por definic¸a˜o, os vetores que se projetam sobre si
mesmos na transformac¸a˜o [A]{x} = {y}. Portanto, se {x} e´ um autovetor, {y} e´ colinear
com {x} e enta˜o {y} = λ{x}. O fator de escala λ e´ o autovalor associado ao autovetor
{x}.
Portanto o auto-sistema de equac¸o˜es e´ dado por:
[A]{x} = λ{x} ou ([A]− λ[I]){x} = {0} (8.1)
onde tanto λ como {x} sa˜o inco´gnitas.
Como (8.1) e´ um sistema de equac¸o˜es homogeˆneo, a soluc¸a˜o na˜o trivial so´ ocorre
quando o determinante e´ nulo.
|[A]− λ[I]| = P (λN) = 0 (8.2)
Matricialmente,∣∣∣∣∣∣∣∣∣
(a11 − λ) a12 · · · a1N
a21 (a22 − λ) · · · a2N
...
...
. . .
...
aN1 aN2 · · · (aNN − λ)
∣∣∣∣∣∣∣∣∣
= P (λN) = 0
A expressa˜o do determinante |[A]− λ[I]| resulta num polinoˆmio de grau N , P (λN),
denominado polinoˆmio caracter´ıstico:
P (λN) = λN + αN−1λN−1 + αN−2λN−2 + · · ·+ α0 = 0
As N raizes de P (λN) = 0⇒ λ1, λ2, . . . , λN , sa˜o chamadas autovalores de [A].
Obtidos os autovalores λi, pode-se voltar a` equac¸a˜o (8.1) e resolver o sistema ho-
mogeˆneo,
77
([A]− λi[I]){x}i = {0} ⇒ {x}i
{x}i e´ o autovetor associado ao autovalor λi.
Portanto, os autovalores e autovetores aparecem aos pares,
(λ1, {x}1), (λ2, {x}2), . . . , (λN , {x}N).
A matriz [S]
N×N
= [{x}1 {x}2 · · · {x}N ] e´ a matriz dos autovetores de [A], tambe´m
chamada matriz modal.
As aplicac¸o˜es da teoria de autovalores e autovetores sa˜o inu´meras.
Exemplo: Seja um sistema de equac¸o˜es diferenciais lineares de ordem 1,
{y˙} = [A]
N×N
{y}+ {b}
N×1
(8.3)
A estabilidade do sistema e´ analisada tomando-se o sistema homogeˆneo,
{y˙} = [A]{y} (8.4)
A soluc¸a˜o de (8.4) e´ do tipo,

Outros materiais