Baixe o app para aproveitar ainda mais
Prévia do material em texto
Álgebra Linear no Rn com Geometria Analítica Vetorial Plácido Andrade . Universidade Federal do Cariri Campus Juazeiro do Norte Ceará Brasil Agosto 2015 Sumário 1 Espaço vetorial 1 1.1 O espaço vetorial Rn . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Álgebra linear e Geometria euclidiana . . . . . . . . . . . . . . . 4 1.3 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4 Bases do Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2 Matrizes e determinantes 29 2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3 Matrizes invertíveis . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 53 2.5 Sobre determinante igual a zero . . . . . . . . . . . . . . . . . . 58 3 Escalonamento 63 3.1 Matrizes e Combinação linear . . . . . . . . . . . . . . . . . . . 64 3.2 Escalonamento de matrizes . . . . . . . . . . . . . . . . . . . . . 70 3.3 Invertendo matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 73 3.4 Resolução de sistemas . . . . . . . . . . . . . . . . . . . . . . . 79 4 Álgebra linear e Geometria 83 4.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 4.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.3 Medida de ângulo entre dois vetores . . . . . . . . . . . . . . . . 90 4.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 SUMÁRIO 4.5 Equações lineares em Geometria analítica . . . . . . . . . . . . . 99 4.6 Áreas em E2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.7 A¯eas e volumes em E3 . . . . . . . . . . . . . . . . . . . . . . . 112 5 Subespaço vetorial 117 5.1 Subespaço e sistemas lineares . . . . . . . . . . . . . . . . . . . 117 5.2 Subespaço e combinações lineares . . . . . . . . . . . . . . . . . 122 5.3 Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 5.4 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 5.5 Base e produto interno . . . . . . . . . . . . . . . . . . . . . . . 141 6 Transformações lineares 147 6.1 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . 147 6.2 Núcleo, imagem e sistema linear . . . . . . . . . . . . . . . . . . 152 6.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . 157 6.4 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . 163 6.5 Operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 7 Operadores lineares 171 7.1 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 7.2 Aplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 7.3 Autovalor e Autovetor . . . . . . . . . . . . . . . . . . . . . . . 183 7.4 Operador transposto . . . . . . . . . . . . . . . . . . . . . . . . 192 7.5 Operadores simétricos . . . . . . . . . . . . . . . . . . . . . . . 194 8 Operadores ortogonais 201 8.1 Operadores ortogonais . . . . . . . . . . . . . . . . . . . . . . . 201 8.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 8.3 Classificação das isometrias . . . . . . . . . . . . . . . . . . . . 210 8.4 Operadores normais . . . . . . . . . . . . . . . . . . . . . . . . . 213 9 Representação matricial 215 9.1 Representação de vetores . . . . . . . . . . . . . . . . . . . . . . 215 SUMÁRIO 9.2 Representação de transformações . . . . . . . . . . . . . . . . . 218 9.3 Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 9.4 Mudança de coordenadas . . . . . . . . . . . . . . . . . . . . . . 226 9.5 Representação de operadores . . . . . . . . . . . . . . . . . . . . 230 9.6 Diagonalização de operadores . . . . . . . . . . . . . . . . . . . 235 10 Respostas e sugestões 241 Referências 277 Índice Remissivo 279 Prefácio Este texto foi redigido para atender aos diversos cursos oferecidos pelas uni- versidades brasileiras que possuem na sua integralização a disciplina semestral Introdução à Álgebra Linear. O ritmo da apresentação está baseado na experiência de sala de aula e a redação levou em conta o estudante. Por isso, em alguns momentos, um leitor mais familiarizado com Álgebra Linear pode considerar o texto lento e simples. Não é o caso do leitor iniciante. A elegância no desenvolvimento dos tópicos de Álgebra Linear esconde diversos conceitos aparentemente díspares, tornando seu estudo uma descoberta constante para aqueles que nunca tiveram a oportunidade de conhecê-la sistematicamente. A dificuldade de uma apresentação de Álgebra Linear para estudantes do primeiro ano dos cursos de graduação é o uso dos seus conceitos por diver- sas outras disciplinas, tais como, Cálculo, de uma ou mais variáveis, Cálculo Vetorial, Mecânica, Eletricidade, Equações Diferenciais, Estatística, etc. Em geral, numa integralização curricular essas disciplinas são colocadas posteriores à Álgebra Linear, como é natural e conveniente. Portanto, a beleza de seu uso fica prejudicada, pois as aplicações ainda não estão ao alcance da compreensão imediata do estudante nem existe tempo curricular para apresentá-las. Procurando contornar essa dificuldade, optamos por colocar a Álgebra Li- near como uma disciplina de transição entre a Matemática do Ensino Médio e a Matemática do Ensino Superior. Por isso, o texto procura relacionar os novos conceito com aqueles da Geometria Analítica, conteúdo já familiar ao estudante calouro. Para evitar repetições, a Geometria Analítica terá um tra- tamento vetorial. Plácido Andrade Juazeiro do Norte, 22 agosto de 2015 1 Espaço vetorial O objetivo inicial deste capítulo é ressaltar como a Álgebra linear relaciona e unifica vários tópicos estudados dispersamente no Ensino Médio. Utilizamos o conceito de combinação linear para mostrar que ele nos leva, naturalmente, ao estudo de sistemas de equações lineares, matrizes e determi- nantes. Para isto, assumiremos que o leitor tenha uma familiaridade mínima com álgebra de matrizes (soma, multiplicação, determinantes, etc.). Nos capí- tulos seguintes, estes tópicos serão abordados com maior profundidade. Para relevar a Álgebra linear como uma teoria que unifica muitos tópicos e para fazer uma transição entre conteúdos do Ensino Médio e Ensino Superior, utilizaremos o fato de R2 e R3 serem os modelos algébricos do plano euclidiano e do espaço euclidiano, respectivamente, para explicitar as ideias geométricas subjacentes ao conceito de vetor e suas operações. Não pretendemos desenvol- ver a Geometria euclidiana, ela é utilizada, paralelamente, apenas como apoio para facilitar a apreensão de alguns conceitos. Neste texto, os termos função e aplicação possuem o mesmo significado. 1.1 O espaço vetorial Rn Denota-se por Rn o conjunto constituído pelas n-uplas ordenadas de nú- meros reais, qual seja, Rn = {(x1, x2, . . . , xn); xi ∈ R para todo inteiro i, 1 ≤ i ≤ n}. 1 2 Espaço vetorial Cap. 1 Seus elementos são chamados vetores. Por simplicidade, muitas vezes in- dicaremos por v um vetor de Rn. Esta notação está registrando que v = (x1, x2, . . . , xn). O número xi é chamado i−ésima coordenada do vetor. Se v = (x1, x2, . . . , xn) e w = (y1, y2, . . . , yn) são dois vetores de Rn, esta- belecemos que v = w quando xi = yi para todo i ∈ {1, 2, . . . , n}. Na maior parte do texto abordaremos os conjunto R2 e R3, por isso, reser- varemos uma notação especial para indicar seus elementos. Para o primeiro conjunto, muitas vezes, indicaremos um par ordenado por v = (x, y) e uma tripla ordenada em R3 será registrada na forma v = (x, y, z). O conjunto constituído pelas1−uplas ordenadas, R1 = {(x);x ∈ R}, é �canonicamente� identificado com o conjunto dos números reais R. Não dis- tinguiremos uma 1−upla ordenada (x) ∈ R1 de um número real x ∈ R. Exercício 1.1. Responda se a afirmação é falsa (F ) ou é verdadeira (V ). ( ) R ⊂ R2. ( ) w = (x, y, 0) ∈ R2. ( ) R2 ⊂ R3. 3 Define-se duas operações binárias envolvendo elementos de Rn: i) soma de dois vetores ; ii) multiplicação de um vetor por um escalar. Aqui, o termo escalar significa número real. As operações são definidas pelas seguintes regra, respectivamente. Se v = (x1, x2, . . . , xn) e w = (y1, y2, . . . , yn) são vetores de Rn e λ ∈ R estabelecemos que{ v + w = (x1 + y1, x2 + y2, . . . , xn + yn) λv = (λx1, λx2, . . . , λxn) . Exemplo 1.1. Sejam v = (2,−1, 0) e w = (−4, 7, 3) vetores de R3. Pela definição, a soma dos vetores é efetuada coordenada a coordenada, v + w = (2,−1, 0) + (−4, 7, 3) = (−2, 6, 3). Se λ = −3 então λv = −3 · (2,−1, 0) = (−6, 3, 0). 3 1.1 O espaço vetorial Rn 3 Postas estas definições, surgem vetores e terminologias especiais. 1. Vetor nulo O vetor o = (0, 0, . . . , 0) do Rn é denominado vetor nulo. Verifica-se que, para todo v ∈ Rn, valem as igualdades v+ o = v = o+v. 2. Para cada vetor v do Rn existe um vetor w em Rn, denominado inverso adtivo de v, tal que w + v = o = v + w. É fácil identificar o inverso aditivo, é suficiente multiplicar v por λ = −1. 3. Dois vetores v, w ∈ Rn são colineares quando existe um escalar λ tal que v = λw ou w = λv. Diz-se que estas operações equipam Rn com uma estrutura de espaço veto- rial. O termo �espaço vetorial� é aplicável, pois Rn é um dos inúmeros exemplos de uma estrutura algébrica importante na Matemática e que, por isso, merece ser fixada numa definição. Definição 1.1. Um espaço vetorial real consiste de um conjunto V , cujos elementos são chamados de vetores, no qual estão definidas duas operações binárias, �+� e �·�, gozando das propriedades listadas abaixo. I Se u, v ∈ V , então u+ v ∈ V e: a) a adição é comutativa, u+ v = v + u; b) a adição é associativa, (u+ v) + w = u+ (v + w); c) existe um único vetor o, chamado vetor nulo, tal que v + o = v = o+ v, para todo v ∈ V ; d) para cada vetor v ∈ V existe um único vetor w ∈ V , chamado de inverso aditivo de v, tal que v + w = o = w + v. II Se v ∈ V e λ ∈ R, então λv ∈ V e: a) 1 · v = v para todo v ∈ V ; b) a multiplicação por escalar é associativa, λ1 · (λ2 · v) = (λ1λ2) · v; 4 Espaço vetorial Cap. 1 c) a multiplicação por escalar é distributiva em relação à adição de vetores, λ · (u+ v) = λ · u+ λ · v; d) multiplicação por escalar é distributiva em relação à adição de es- calares, (λ1 + λ2)v = λ1v + λ2v. Não verificaremos, mas as duas operações acima definidas em Rn gozam de todas as propriedades listadas na definição de espaço vetorial. Em geral, omitimos o sinal da operação �·�, escrevendo λv em lugar de λ · v. EXERCÍCIOS 1. Seja v ∈ Rn. Identifique os vetores: (a) 0v; (b) 1v; (c) (−1)v. 2. Sejam o, v = (1, 2,−1), w = (−2,−4, 2) e u = (0, 2, 1) vetores do R3. Deter- mine os pares de vetores que são colineares. 1.2 Álgebra linear e Geometria euclidiana Nesta seçãos apresentaremos alguns tópicos da Geometria euclidiana via Geometria analítica. Os conteúdos vistos no Ensino Médio são suficientes para o entendimento do texto. A Geometria servirá de apoio para compreensão de conceitos de Álgebra linear. Geometria analítica é a disciplina que estuda a Geometria euclidiana utilizando conceitos algébricos. A Geometria euclidiana estuda dois conjuntos, o plano euclidiano e o espaço euclidiano, conjuntos aqui denotados por E2 e E3, respectivamente, conjuntos não passíveis de definições. Seus elementos são chamados pontos e denotados por letras maiúscula, P , Q, R, etc. Ressaltamos E2 não é subconjunto de E3. No espaço euclidiano existem objetos denominado planos que não devem ser confundidos com o plano euclidiano. Para evitar ambiguidades, os planos de E3 serão indicados por letras gregas maiúsculas, Π, Λ. Um dos axiomas da Geometria euclidiana estabelece que por dois pontos P e Q em En, n = 2, 3, incide uma única reta r. O segmento de reta determinado 1.2 Álgebra linear e Geometria euclidiana 5 por P e Q, denotado por PQ, é o conjunto constituído pelos pontos que estão entre 1 P e Q acrescido dos extremos P e Q. Não importa se escrevemos PQ ou QP , o conjunto considerado é o mesmo. A reta r que contém este segmento é dita ser a reta suporte de PQ. P EI n P EI n QQ r ,n=2,3 ,n=2,3 Orientar o segmento PQ é escolher um dos pontos extremos como primeiro elemento do segmento e o outro ponto extremo como último elemento do seg- mento. Por exemplo, se P é escolhido como primeiro elemento e Q escolhido como último, indicamos a escolha por −→ PQ e denominamos o segmento com esta orientação de segmento orientado 2 . O símbolo −→ PP indicará o conjunto constituído pelo ponto P e também será chamado segmento orientado. P EI n Q P EI n Q ,n=2,3 ,n=2,3 1 �Está entre� é termo indefinido no sistema axiomático da Geometria euclidiana. 2 Alguns textos utilizam o termo �vetor localizado�, outros �vetor geométrico� em lugar de segmento orientado. Estas terminologias são usuais em textos de Engenharia, Física, etc. 6 Espaço vetorial Cap. 1 O conceito de segmento orientado permite agregar significados geométricos ao conjuntos algébricos R2 e R3 facilitando, muitas vezes, o raciocínio e a abor- dagem de problemas. Para isto, precisamos algebrizar o estudo da Geometria. Fixemos um sistema de coordenadas, ou seja, fixamos um ponto O ∈ E2, denominado origem, e consideramos duas retas numéricas perpendiculares e concorrentes em O, chamadas eixos ox e oy. P EI 2 P(x,y) EI 2 O(0,0)O x y Com isto, a cada ponto P ∈ E2 associamos dois números reais, denominados coordenadas do ponto, associação esta indicada por P (x, y), onde x é o ponto correspondente ao número obtido pela interseção da reta que incide em P e é perpendicular ao eixo ox e a determinação do número y segue o mesmo procedimento, agora em relação eixo oy. Chamaremos plano cartesiano o plano euclidiano E2 equipado com um sistema de eixos coordenados. Com um sistema de eixos fixados em E2 podemos definir uma distância entre os ponto P (x1, y1) e Q(x2, y2) da seguinte forma d(P,Q) = √ (x2 − x1)2 + (y2 − y1)2. Da mesma forma, para realizar o estudo analítico do espaço euclidiano E3 devemos fixar um sistema de coordenadas. Escolhemos um ponto O (origem do sistema de coordenadas) e três retas numéricas mutuamente perpendiculares e concorrentes em O, denominadas eixos ox, oy e oz. Cada ponto P de E3 fica associado a um terno ordenado (x, y, z), denominada de coordenadas de P , onde x é o número obtido pela 1.2 Álgebra linear e Geometria euclidiana 7 interseção de uma reta perpendicular ao eixo ox baixada de P , y é o número obtido pela interseção de uma reta perpendicular ao eixo oy baixada de P ao eixo oy. O número z é obtido de forma similar. Feito isto, indicamos o ponto P com suas coordenadas (x, y, z) na forma P (x, y, z). O espaço euclidiano E3 equipado com um sistema de coordenadas será denominado espaço cartesiano. x y z P(x,y,z) Com um sistema de eixos fixados em E3, podemos definir uma distância entre os ponto P (x1, y1, z1) e Q(x2, y2, z2) da seguinte forma d(P,Q) = √ (x2 − x1)2 + (y2 − y1)2 + (z2 − z1)2. Definição 1.2. Sejam R(r1, r2) e S(s1, s2) pontos do plano cartesiano E2 e v = (x1, y1) um vetor de R2. Diz-se que o segmento orientado −→ RS representa o vetor v se { x1 = s1 − r1 x2 = s2 − r2 . Definição 1.3. Sejam R(r1, r2, r3) e S(s1, s2, s3) pontos do espaço cartesiano E3 e v = (x1, y1, z1) um vetor de R3. Diz-se que o segmento orientado −→ RS representa o vetor v se x1 = s1 − r1 x2 = s2 − r2 x3 = s3 − r3 . 8 Espaço vetorial Cap. 1 Pictoricamente, registramos este fato na figura a seguir. Ressaltamos que não estamos afirmando que o segmento orientado −→ PQ �é� o vetor v, apenas que o segmento orientado está �representando� o vetor v. P EI n Q ,n=2,3 v Exemplo 1.2. Um vetor pode ser representado por vários segmentos orien- tados diferentes. Vejamos duas representações para o vetor v = (1, 2) ∈ R2. Se escolhermos os pontos R(2, 0) e S(3, 2) em E2, o segmento orientado −→ RS representa v = (1, 2), pois pela definição, temos as relações{ 1 = 3− 2 2 = 2− 0 . R(2,0) EI 2 S(3,2) v v P(4,1) Q(5,3) v=(1,2) 1.2 Álgebra linear e Geometria euclidiana 9 Se escolhermos os pontos P (4, 1) e Q(5, 3) o segmento orientado −→ PQ também representa o mesmo vetor v = (1, 2), pois{ 1 = 2− 1 2 = 3− 1 . Deixaremos duas questão para o leitor. Fixado o ponto T (a, b). a) Determine as coordenadas de U para que o segmento orientado −→ TU seja um representante de v = (1, 2). b) Determine as coordenadas de V para que o segmento orientado −→ V T seja um representante de v = (1, 2). 3 Exercício 1.2. Sejam P (3,−1) e Q(−4, 3) dois pontos do plano euclidiano E2. Esboce os segmentos orientados, −→ PQ, −→ QP , −→ OP e −→ OQ e calcule os vetores do R2 representados pelos segmentos orientados. 3 Exemplo 1.3. Vejamos duas representações para o vetor v = (−1, 1, 2) ∈ R3. Se escolhermos os pontos R(0, 2, 0) e S(−1, 3, 2) em E3, o segmento orientado−→ RS representa v, pois pela definição, temos as relações: −1 = −1− 0 1 = 3− 2 2 = 2− 0 . Se escolhermos os pontos P (2, 4, 1) e Q(1, 5, 3) o segmento orientado −→ PQ tam- bém representa o mesmo vetor v = (−1, 1, 2). 3 Por definição, o comprimento de −→ PQ em En, n ∈ {2, 3} é a distância entre seus pontos inicial e final e será denotado por ‖−→PQ‖. Exercício 1.3. Sejam M(1, 0,−3) e N(√5, 1, 1) pontos do espaço cartesiano E3 e w = (−1,−1, 0) um vetor de R3. Determine as coordenadas cartesianas dos pontos W , P e Q tais que os segmentos orientados −−→ OW , −−→ MP e −−→ QN sejam representantes do vetor w. Calcule os comprimentos dos segmentos. 3 10 Espaço vetorial Cap. 1 O segmento orientado canônico que representa o vetor v = (x1, y1) do R2 é aquele que tem como ponto inicial a origem do plano cartesiano E2, O(0, 0), e ponto final V (x1, y1), ou seja, −−→ OV . Do mesmo modo, o segmento orientado canônico para representar um vetor v = (x1, y1, z1) de R3 é −−→ OV , onde O(0, 0, 0) e V (x1, y1, z1) são pontos do espaço cartesiano E3. Obtido um representante do vetor v de Rn, n ∈ {1, 2}, com ponto inicial a origem O e ponto final V , qualquer outro representante é obtido por trans- porte paralelo do segmento orientado −−→ OV . As retas suportes dos segmentos orientados que representam v são paralelas ou coincidentes. V 1 O v v v E ,n=2,3 n I Um quadrilátero com vértices A, B, C e D será indicado por ABCD. Esta notação diz um pouco mais. Os lados do quadrilátero são AB, BC, CD e DA. O quadrilátero ACBD, embora possua os mesmos vértices, os lados não são iguais, o quadrilátero é diferente. Um quadrilátero é dito ser um paralelogramo se seus lados opostos são paralelos. A B C D A B C D ABCD ACBD 1.2 Álgebra linear e Geometria euclidiana 11 Feito estas considerações mostremos que no plano cartesiano as retas suportes dos segmentos orientados que representam o mesmo vetor u = (x1, y1) do R2 são paralelas. Seja −→ PQ um segmento orientado que representa u. Se P (a, b), então Q(a + x1, b + y1). Agora, se −→ RS é outro segmento orientado que repre- senta u e R(c, d), então S(c + x1, d + y1). Considere o quadrilátero PRSQ. É imediato verificar que ‖−→PQ‖ = ‖−→RS‖ e ‖−→PR‖ = ‖−→QS‖. Um fato bem co- nhecido de Geometria euclidiana garante que um quadrilátero com medidas de lados opostos iguais é um paralelegramo, ou seja, a reta suporte dos seus lados opostos são paralelas. Tal resultado segue por congruência de triângulos. Afirmação semelhante sobre representantes de vetores do R3 é válido em E3. Utilizando segmentos orientados é bastante simples determinar quando um quadrilátero é um paralelogramo. A BC D Exemplo 1.4. Verifiquemos se o quadrilátero ABCD em E2 é um paralelo- gramo, onde A(0, 0) B(3, 1), C(2, 3) e D(−1, 2). Fixemos, por exemplo, o lado AD e examinemos os segmentos orientados com pontos iniciais em A e D, que são AB e DC. Ambos representam o mesmo vetor v = (3, 1) de R2. Portanto, os lados AB e DC são paralelos. Fixemos o lado AB, Examinemos os segmentos orientados com pontos ini- ciais nos vértices A e B, que são −−→ AD e −−→ BC. Ambos representam o vetor w = (−1, 2). Portanto, os lados correspondente são paralelos. 3 Exercício 1.4. Verifique se o quadrilátero ABCD em E3 é um paralelogramo, onde: 12 Espaço vetorial Cap. 1 1. A(1, 0, 1), B(0, 2, 2), C(1, 3, 3) e D(2, 1, 2). 2. A(0, 0, 0), B(2, 1,−1), C(3,−3, 2) e D(3, 3, 1). 3. A(−1,−1, 0) e B(0, 1, 0), C(1, 2, 1) e D(0, 0, 1) 3 As duas operações algébricas (soma de dois vetores e multiplicação de um vetor por um escalar) definidas em Rn podem ser concretizadas geometrica- mente quando n = 2 ou n = 3, utilizando segmentos orientados. Definimos a soma de segmentos orientados apenas quando o ponto final do primeiro é o ponto inicial do segundo: −−→ OV + −→ V P = −→ OP . Não importa se é o plano cartesiano ou o espaço cartesiano, a definição é a mesma. Examinemos a relação entre R2 e o E2. Desejamos interpretar geometrica- mente a operação v + w = (1, 2), onde v = (3, 1) e w = (−2, 1) são vetores de R2. Para representar o vetor v escolhemos o segmento orientado com pontos iniciais e finais, digamos, P (0, 1) e Q(3, 2), respectivamente. Quanto ao vetor w escolhemos para representante o segmento orientado com pontos iniciais e finais Q(3, 2) e R(1, 3), respectivamente. Sendo assim, a soma v + w é re- presentada por −→ PR = −→ PQ + −→ QR. Vejamos. O vetor representado por −→ PR é v + w = (1, 2), pois { 1 = 1− 0 2 = 3− 1 . P(0,1) Q(3,2) R(1,3) v w v + w EI 2 1.2 Álgebra linear e Geometria euclidiana 13 Os mesmos procedimentos seguem quando desejamos relacionar a soma de vetores de R3 e soma de segmentos orientados em E3. Exercício 1.5. Sejam u = (x1, y1) e v = (x2, y2) vetores de R2. Considere os pontos do plano cartesiano, P (a, b), Q(a+x1, b+y1) e R(a+x1+x2, b+y1+y2). Verifique que os segmentos orientados −→ PQ, −→ QR e −→ PR representam os vetores u, v e u+ v, respectivamente. 3 Exercício 1.6. Faça um enunciado semelhante àquele do exercício anterior, agora utilizando vetores do R3, e verifique a afirmação. 3 Esta representação é válida para a soma de três ou mais vetores. Se de- sejarmos representar a soma u + v + w, consideramos representantes dos ve- tores de tal forma que o ponto final de um é o ponto inicial do seguinte,−→ PQ+ −→ QR + −→ RS = −→ PS. Examinemos a representação geométrica da multiplicação de um vetor por um escalar em E2. A demonstração utiliza resultados básicos de Geometria. Vv EI 2 lv W O Sejam v = (a, b) e λ 6= 0. Para facilitar a escrita evitando o estudo de muitos casos particulares, assumiremos que a > 0, b > 0 e λ > 0. Sejam V (a, b) e W (λa, λb). Mostremos que O, V e W são colineares. Denote por r e s as retas suportes dos segmentos orientados −−→ OV e −−→ OW e por θr e θs as medidas dos ângulos agudos que aquelas retas fazem com a semireta positiva 14 Espaço vetorial Cap. 1 do eixo ox, respectivamente. Claro, temos 0 < θr, θs < pi 2 . A tangente destes ângulos são iguais, pois tg θs = b a e tg θs = λbλa . Como os ângulos são agudos, então θr = θs, implicando que r = s e V (a, b) e W (λa, λb) pertencem à mesma reta r. Calculando o comprimento dos segmentos obtemos ‖−−→OW‖ = λ‖−−→OV ‖. Se examinássemos todos os casos, constataríamos que, se λ > 0 o ponto W (λa, λb) está no lado3 de O em relação à reta r que contém V , ou no outro lado de O, se λ < 0. EXERCÍCIOS 1. Seguindo a notação fixada, examine quais dos registros são válidos: (a) v(2, 1) (b) P (2, 1) (c) v = (2, 1) (d) P = (2, 1) (e) (2, 1) ∈ E2 (f) E2 = R2 (g) P (2, 1) ∈ R2 (h) −−→ PQ ∈ R2 (i) −−→ PQ ∈ E2 (j) v = −−→ PQ (k) P ∈ E2 (l) P (2, 1) ∈ E2 (m) R2 ⊂ R3 (n) v ∈ R2 (o) ‖−−→PQ‖ ⊂ E3 (p) AB ∈ R3 (q) (2, 1) ∈ R2 (r) PQ = −−→ PQ (s) AB ⊂ E3 (t) P +Q (u) AB ⊂ E2 (v) |−−→PQ| = −−→PQ (w) E2 ⊂ E3 (x) (2, 1) ∈ E2 2. Sejam v = (2,−1) e w = (3,−2) vetores em R2. Calcule 3v − w e v + 2w e represente graficamente os vetores por segmentos orientados com ponto inicial O(0, 0). Represente-os com ponto inicial P (−2, 1). 3. Considere os pontos P (1,−1), Q(−3, 3) e R(2, 2) do plano cartesiano. (a) Esboce os segmentos orientados −−→ PQ e −−→ QR e −−→ QQ. (b) Determine os vetores u, v e w de R2 representados pelos segmentos ori- entados −−→ PQ, −−→ QR e −−→ QQ. Qual a relação entre os vetores representados por −−→ PQ e −−→ QP? 3 Lado de um ponto em relação a uma reta é um conceito bem definido na Geometria. 1.2 Álgebra linear e Geometria euclidiana 15 (c) Represente a soma u+ v por um segmento orientado cujo ponto inicial é o ponto P e represente o vetor 2u com ponto final R(2, 2). (d) Represente a diferença u−v por um segmento orientado cujo ponto inicial é o ponto P e represente o vetor −2u com ponto final R(2, 2). 4. A partir do esboço das representações dos vetores u, v, w, etc. determine quais os outros vetores que estão sendo representados. EI n ,n=2,3 v u EI n ,n=2,3 w u EI n ,n=2,3 w u EI n ,n=2,3 w u EI n ,n=2,3 w v EI n ,n=2,3 w v EI n ,n=2,3 wu v EI n ,n=2,3 u v 16 Espaço vetorial Cap. 1 1.3 Combinação linear Fixaremos uma definição que nos acompanhará por todo o texto. Definição 1.4. Um vetor w ∈ Rn é uma combinação linear dos vetores v1, v2, . . . , vk ∈ Rn se existem escalares a1, a2, . . . , ak ∈ R, tais que w = a1v1 + a2v2 + · · ·+ akvk. Os escalares a1, a2 . . . , ak são chamados coeficientes da combinação linear. Exemplo 1.5. Considere os vetores v1, v2, v3 ∈ R2, onde v1 = (1, 1), v2 = (1, 2) e v3 = (−1,−4). O vetor w = (−1, 1) é uma combinação linear de v1 e v2 e v3. Verifica-se que w = −v1 + 4v2 + v3. Os coeficientes dessa combinação linear são a1 = −6, a2 = 4 e a3 = −1. O vetor u = (0,−1) também é uma combinação linear de v1, v2 e v3, pois u = v1 − v2. Deveríamos escrever u = 1v1 + (−1)v2 + 0v3, mas, como sempre, simplificamos a escrita para tornar a leitura mais amena. 3 Para ilustrar o conceito de combinação linear, faremos uma analogia entre ele e o conceito físico de trajetórias. Tal analogia não tem qualquer relevância matemática, porém auxilia na compreenção do conceito abstrato. Fixemos os vetores v1 = (3, 1) e v2 = (1, 1) em R2. Tais vetores deter- minam no plano cartesiano E2, através de suas representações por segmentos orientados, duas direções, indicadas graficamente na figura por retas paralelas, e determinam dois sentidos de trajetória. Vamos supor que essas são as úni- cas direções possíveis do plano cartesiano nas quais podemos percorrer para ir de um ponto a outro (em várias cidades as ruas determinam reticulados semelhantes). 1.3 Combinação linear 17 W(3,-1) O(0,0) vv 12 EI 2 Podemos estabelecer uma analogia entre a combinação linear w = (3,−1) = 2v1 − 3v2 e a trajetória com início em O(0, 0) e final em W (3,−1). Devemos percorrer uma trajetória 2 vezes na direção e sentido de v1 e 3 vezes na direção de v2 mas em sentido oposto. Se consideramos apenas um único vetor v1 ∈ R2, ao dizermos que w ∈ R2 é uma combinação linear de v1 estamos apenas afirmando que w é um múltiplo de (ou colinear com) v1. O v1 EI 2 O W 18 Espaço vetorial Cap. 1 Como os segmentos orientados que representam v1 estabelecem uma coleção de retas paralelas, nem todos pontos do plano podem ser atingidos através de um percurso iniciando-se na origem e seguindo somente nesta direção. Apenas aqueles pontos que estão sobre a reta suporte que passa pela origem podem ser atingidos. Falta uma direção transversal às retas suportes de v1 para atingir todos os pontos de E2. em outras palavras, w = a1v1. EXERCÍCIOS 1. Sejam v1 = (1, 2) e v2 = (1, 1) vetores de R2. Calcule o vetor w nas combina- ções lineares indicadas. a) w = 3v1 − 4v2. b) w = −v2 + v2. c) w = −13v2. d) w = 0v1 + v2. 2. Sejam v1 = (−1, 2, 0) e v2 = (2, 1,−3) vetores de R3. Calcule o vetor w nas combinações lineares indicadas. a) w = 3v1 − 4v2 b) w = −v2 + v2. c) w = −13v2. d) w = 0v1 + v2. 1.4 Bases do Rn Definição 1.5. Um subconjunto ordenado β = {v1, v2, . . . , vn} constituído por n vetores de Rn é uma base de Rn se qualquer vetor w ∈ Rn é uma combinação linear dos elementos de β. A expressão �subconjunto ordenado" significa que existe um primeiro ele- mento, e ele está indexado por 1, um segundo elemento que está indexado por 2, etc. A definição de base dá origem a várias perguntas. • Existe alguma base para o Rn? • Os coeficientes a′is da combinação linear w = a1v1 + a2v2 + · · · + anvn são únicos, isto é, podemos expressar w = b1v1 + b2v2 + · · · + bnvn com bi 6= ai para algum i, 1 ≤ i ≤ n? 1.4 Bases do Rn 19 • Se w ∈ Rn e β é uma base, quais são e como podemos calcular os coefi- cientes ai's da combinação linear w = a1v1 + a2v2 + · · ·+ anvn? • Quantas bases existem para o Rn? • Como saber quando um conjunto de n vetores de Rn é uma base? A primeira pergunta tem resposta fácil. O conjunto ordenado de n vetores Cn = {e1, e2, . . . , en} onde e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1), é uma base denominada base canônica. Um vetor w = (x1, x2, . . . , xn) ∈ Rn escreve-se como uma combinação linear do vetores de C na forma w = (x1, x2, . . . , xn) = x1e1 + x2e2 + · · ·+ xnen. Exemplo 1.6. A base canônica do R2 é um conjunto formado por dois vetores, C2 = {e1, e2}, onde e1 = (1, 0) e e2 = (0, 1). O vetor v = (−√3,−2 4 ) é uma combinação linear dos vetores da base canônica e, facilmente, determinamos os coeficientes da combinação linear: v = −√3e1 − 24e2. Considere o vetor w = (2,−2, 4) ∈ R3. A base canônica C3 do R3 é formada por três vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). Novamente, temos w = 2e1−2e2+4e3. Ressaltamos que as coordenadas do vetor são os coeficientes da combinação linear na base canônica. 3 Em relação à base canônica do Rn, a segunda e terceira perguntas têm respostas rápidas. Ao escrevermos o vetor w ∈ Rn como uma combinação linear dos elementos da base canônia Cn, os coeficientes da combinação linear são únicos. Se não, vejamos. Seja w = (w1, w2, . . . , wn) ∈ Rn. Escrevamos a combinação linear w = a1e1 + a2e2 + · · ·+ anen e examinemos a sequência de igualdades, (w1, w2, . . . , wn) = w = a1e1 + a2e2 + · · ·+ anen = (a1, 0, . . . , 0) + (0, a2, . . . , 0) + · · ·+ (0, 0, . . . , an) = (a1, a2, . . . , an). 20 Espaço vetorial Cap. 1 Sendo assim, ai = wi para todo i = 1, . . . , n. Portanto, somente existe um único modo de escrever o vetor w = (x1, x2, . . . , xn) como combinação linear dos elementos da base canônica, qual seja, w = x1e1 + x2e2 + · · ·+ xnen. Em particular, o vetor nulo, o = (0, 0, . . . , 0), somente pode ser expresso por uma única combinação linear, a saber, o = 0e1 + 0e2 + · · ·+ 0en. Passemos àquarta pergunta da lista. A resposta é �Sim�. O Rn possui um número infinito de bases ordenadas. Vejamos. Exemplo 1.7. Seja β = {v1, v2} ⊂ R2 onde v1 = (1, 1) e v2 = (1, 2). a) Para u = (−1, 1), temos a combinação linear u = −3v1 + 2v2. b) Para v = (0,−1), temos a combinação linear v = v1 − v2. c) Para um vetor arbitrário w = (x, y) ∈ R2, temos a combinação linear w = (2x− y)v1 + (y − x)v2. O item c) diz que o conjunto β é uma base de R2, pois β é constituído por dois vetores e qualquer vetor w = (x, y) ∈ R2 é uma combinação linear de v1 e v2 onde os coeficientes da combinação linear dependem, claro, das coordenadas do vetor, a1 = 2x− y e a2 = y − x. Com isto surge a seguinte questão: como determinar os coeficientes da combinação linear para um vetor. Uma estratégia para solucionar esta questão nos leva, naturalmente, a um sistema de equações lineares. Ilustremos esta estratégia, ela será utilizada inúmeras vezes ao longo do texto. Seja w = (x, y) um vetor arbitrário de R2. Desejamos determinar a1 e a2 tais que w = a1v2 + a2v2. Sendo assim, temos (x, y) = a1v1 + a2v2 = a1(1, 1) + a2(1, 2) = (a1 + a2, a1 + 2a2). Sabendo-se que dois vetores são iguais quando suas coordenadas são iguais, obtemos o sistema de equações lineares{ a1 + a2 = x a1 + 2a2 = y . 1.4 Bases do Rn 21 Ressaltamos que as incógnitas são a1 e a2. Utilizando uma técnica qualquer de resolução de sistemas conhecida desde o Ensino Médio (regra de Cramer, escalonamento, substituição, etc.) obtemos os valores a1 = 2x−y e a2 = y−x. Para continuarmos, será útil reescrever o sistema linear na forma matricial:[ 1 1 1 2 ] [ a1 a2 ] = [ x y ] . Note que ao efetuarmos o produto matricial obtemos[ a + a2 a1 + 2a2 ] = [ x y ] . Como as duas matrizes são iguais se, e somente se, suas entradas são iguais, recuperamos o sistema de equaçãos lineares original. Esta é a forma matricial de apresentação de um sistema de equações lineares. Um fato crucial. As entradas das colunas da matriz quadrada são as coordenadas dos vetores da base β, v1 = (1, 1) e v2 = (1, 2) e o termo independente é uma matriz coluna cujas entradas são as coordenadas de w. 3 Verificar a existência de outras bases ordenadas está relacionada com: resoluções de sistemas de equações lineares n× n; determinantes de matrizes quadradas n× n. Apresentemos esta relação. Neste texto, matrizes serão indicadas pelo sím- bolo [A], [B], [C], etc. Assumiremos que o leitor recorda a definição de deter- minante de matrizes quadradas 2 × 2 e 3 × 3. Caso contrário, aconselhamos rever a definição em algum texto de Matemática do Ensino Médio ou solicitar esta revisão ao seu professor. De qualquer modo, faremos uma apresentação de determinante no Capítulo 2. Com um conjunto ordenado de n vetores β = {v1, v2, . . . , vn} de Rn, con- truímos uma matriz quadrada n× n, matriz que denotaremos por [A] = [v1, v2, . . . , vn]. 22 Espaço vetorial Cap. 1 A notação sinaliza que as entradas da primeira coluna da matriz são as coorde- nadas do vetor v1, as entradas da segunda coluna são as coordenadas do vetor v2, etc. Sendo [A] = [v1, v2, . . . , vn] uma matriz quadrada, podemos calcular o seu determinante. Exemplo 1.8. Seja β = {v1, v2} ⊂ R2, onde v1 = (3, 1) e v2 = (5, 2). Esse conjunto de dois vetores do R2 dá origem à matriz quadrada 2× 2, a saber, [A] = [v1, v2] = [ 3 5 1 2 ] . Vejamos a relação desta matriz com o nosso problema de combinação linear. Suponha que desejemos escrever w = (−2, 3) como combinação linear de v1 e v2, ou seja, determinar escalares a1 e a2 tais que w = a1v1 + a2v2. Isto nos dá o seguinte sistema de equações lineares,[ 3 5 1 2 ] [ a1 a2 ] = [ −2 3 ] . As entradas das colunas da matriz são as coordenadas dos vetores v1 e v2 e o termo independente é uma matriz coluna cujas entradas são as coordenadas de w. As incógnitas são a1 e a2. Na notação usual temos{ 3a1 + 5a2 = −2 a1 + 2a2 = 3 . Utilizando alguma técnica de resolução, encontramos a1 = −19 e a2 = 11. Logo, w = −19v1 + 11v2. A informação relevante deste sistema é sobre o determinante da matriz dos coeficientes do sistema que não é zero, det [ 3 5 1 2 ] = 1. Veremos adiante que o fato do determinante não ser zero implica que o sistema é possível e determinado. Na linguagem de Álgebra linear, diremos que a combinação linear existe e os coeficientes a1 e a2 são únicos. 1.4 Bases do Rn 23 Na verdade β = {v1, v2} é uma base do R2, pois é um conjunto constituído por dois vetores e um vetor arbitrário w = (x, y) pode ser escrito como w = a1v2 + a2v2. Para determinar as incógnita a1 e a2 devemos resolver o sistema[ 3 5 1 2 ] [ a1 a2 ] = [ x y ] . Feito isto, encontramos w = (2x− 5y)v1 + (−x+ 3y)v2. 3 Exemplo 1.9. Seja β = {v1, v2, v3} ⊂ R3, onde v1 = (1,−1, 3), v2 = (0, 1,−2) e v3 = (2,−3, 9). Com esse conjunto de três vetores do R3 construímos a matriz quadrada 3× 3 [B] = [v1, v2, v3] = 1 0 2−1 1 −3 3 −2 9 , Para verificar que β é uma base, é suficiente mostrar que um vetor arbitrário w = (x, y, z) do R3, pode ser escrito na forma w = a1v1 + a2v2 + a3v3. Como vimos, isto é equivalente a resolver o sistema 1 0 2−1 1 −3 3 −2 9 a1a2 a3 = xy z cujas incógnitas são a1, a2 e a3. Feito isto, obtemos a combinação linear w = (3x+ 4y − 2z)v1 + (3x+ 5y − z)v2 + (−x+ 2y + z)v3. Portanto, determinar os coeficientes da combinação linear resume-se na reso- lução de um sistema de equações lineares específico. Por isto, mais à frente abordaremos as técnicas de resolução. Veremos que o fato do determinante da matriz [A] = [v1, v2, v3] ser ou não igual a zero são fatos cruciais. Neste exemplo, det[A] não é zero. 3 24 Espaço vetorial Cap. 1 Ao longo do texto, sistemas de equação lineares surgirão frequentemente na teoria e na prática. Entretanto, alguns significados serão diferentes daqueles apresentados no Ensino Médio. No momento estamos fazendo a seguinte leitura de um sistema com o número de equações igual ao número de incógnitas. A solicitação, �resolva o sistema�{ 2a1 + 3a2 = 2 4a1 − a2 = 0 , significa responder a uma questão relacionada ao R2: �expresse o vetor w = (2, 0) como combinação linear de v1 = (2, 4) e v2 = (3,−1)�. Podemos perceber esta relação ao apesentarmos o sistema na forma matricial:[ 2 3 4 −1 ] [ a1 a2 ] = [ 2 0 ] . Do mesmo modo, para um sistema 3× 3, a solicitação �resolva o sistema� 2a1 + 3a2 − 4z = 2 4a1 − a2 = 0 a1 − a2 + a3 = 3 , significa responder a questão relacionada ao R3: �expresse o vetor w = (2, 0, 3) como combinação linear de v1 = (2, 4, 1), v2 = (3,−1,−1) e v3 = (3, 0, 1)�, pois esta combinação linear nos leva ao sistema 2 −4 34 −1 0 1 −1 1 a1a2 a3 = 20 3 . A próxima questão é saber se um conjunto β de n vetores do Rn é uma base. A regra de Cramer 4 nos dá uma resposta. Exemplifiquemos. 4 Gabriel Cramer (? 31/07/1704 Suíça, † 4/01/1752 França). Professor de matemática em Geneva (hoje Suíça), escreveu trabalhos de Física, Geometria, Curvas algébricas e História da Matemática. 1.4 Bases do Rn 25 Exemplo 1.10. Seja β = {v1, v2} onde v1 = (2, 1) e v2 = (1, 1) são vetores do R2. Este conjunto é uma base de R2? A primeira condição para ser uma base está satisfeita, o conjunto ordenado β tem dois vetores. Resta verificar se um vetor arbitrário w = (x, y) ∈ R2 pode ser combinação linear do tipo w = a1v1 + a2v2. Pelo visto anteriormente, devemos resolver o sistema cujas incógnitas são a1 e a2: [ 2 1 1 1 ] [ a1 a2 ] = [ x y ] . A matriz principal do sistema (ou a matriz dos coeficientes do sistema) é pre- cisamente [v1, v2] e as matrizes auxiliares são [w, v2] e [v1, w]. Explicitamente: [v1,v2] = [ 1 1 1 2 ] ; [w, v2] = [ x 1 y 2 ] ; [v1, w] = [ 1 x 1 y ] . Como a matriz principal é quadrada com determinante diferente de zero, po- demos utilizar a Regra de Cramer para determinar as incógnitas a1 e a2, a1 = det[w, v2] det[v1, v2] = 2x− y e a2 = det[v1, w] det[v1, v2] = y − x. Logo, w = (2x−y)v1+(y−x)v2 e os coeficientes são únicos, pois são as únicas soluções do sistema. Observe que só existe uma combinação linear possível para expressar o vetor nulo, qual seja, o = 0v1 + 0v2. 3 A regra de Cramer é um processo para resolução de sistemas de equações li- neares n×n, sendo bastante útil nas demonstrações. Entretanto, ela é eficiente para resolução de sistemas �pequenos�, 2× 2 ou 3× 3. Caso contrário, outros processos de resolução, como substituição e escalonamento, são mais práticos e computacionalmente mais rápidos. Antes de enunciarmos e demonstrarmos a regra de Cramer, vejamos um exemplo 3× 3. Exemplo 1.11. Verifiquemos que o conjunto de três vetores β = {v1, v2, v3} ⊂ R3 é uma base, onde v1 = (1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 1). 26 Espaço vetorial Cap. 1 Para isso, é suficiente considerar a matriz [v1, v2, v3] = 1 1 01 0 1 0 1 1 , e calcular seu determinante det[v1, v2, v3] = −2. Como o determinante não é zero, segue que β = {v1, v2, v3} é uma base do R3. A regra de Cramer indica como calcular os coeficientes de uma combinação linear. Expressemos o vetor arbitrário w = (x, y, z) como combinação linear dos vetores de β: w = a1v1 + a2v2 + a3v3. Isto nos leva ao sistema 1 1 01 0 1 0 1 1 a1a2 a3 = xy z . Para calcular os coeficientes a′1s, precisaremos das matrizes auxiliares: [w, v2, v3] = x 1 0y 0 1 z 1 1 ; [v1, w, v3] = 1 x 01 y 1 0 z 1 ; [v1, v2, w] = 1 1 x1 0 y 0 1 z . Pela regra de Cramer. os coeficientes procurados são: a1 = det[w, v2, v3] det[v1, v2, v3] ; a2 = det[v1, w, v2] det[v1, v2, v3] ; a3 = det[v1, v2, w] det[v1, v2, v3] . Portanto, w = (−y + z)v1 + (−x+ y − z)v2 + (x− y − z)v3. 3 Os teoremas a seguir são centrais no estudo de bases do Rn. As provas encontram-se no próximo capítulo. O primeiro deles inclui a regra de Cramer. Teorema 1.1. Seja β = {v1, v2, . . . , vn} um conjunto ordenado de n vetores em Rn. Se det[v1, v2, . . . , vn] 6= 0, então: 1. β é uma base do Rn; 1.4 Bases do Rn 27 2. cada vetor w ∈ Rn expressa-se como única combinação linear da forma w = a1v1 + a2v2 + · · ·+ anvn onde os coeficientes são a1 = det[w, v2, . . . , vn] det[v1, v2, . . . , vn] , a2 = det[v1, w, . . . , vn] det[v1, v2, . . . , vn] , · · · , an = det[v1, v2, . . . , w] det[v1, v2, . . . , vn] . O teorema abaixo completa o estudo de bases do Rn. O determinante fornece uma resposta completa para esta questão. Teorema 1.2. Seja β = {v1, v2, . . . , vn} um conjunto ordenado de n vetores em Rn. O conjunto β é uma base se, e somente se, det[v1, v2, . . . , vn] 6= 0. EXERCÍCIOS 1. Calcule as combinações lineares indicadas onde v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (0, 0, 1) são vetores do R3. (a) w = 3v1 + 0v2 − v3. (b) w = xv1 + (y − 2x)v2 + (x− 2y + z)v3. (c) w = 0v1 + 0v2 + 0v3. (d) w = 0v1 + 1v2 + 0v3. 2. Verifique se conjunto ordenado β = {v1, v2} ⊂ R2 é uma base. Caso seja, expresse w = (x, y) por uma combinação linear dos vetores de β. (a) v1 = (3,−1) e v2 = (1, 2). (b) v1 = (2, 1) e v2 = (1, 2). (c) v1 = (−1, 2) e v2 = (2,−4). (d) v1 = (1, 0) e v2 = (1,−1). 3. Verifique se o conjunto ordenado β = {v1, v2, v3} ⊂ R3 é uma base. Caso seja, expresse w = (x, y, z) por uma combinação linear dos vetores de β. (a) v1 = (0, 3,−1), (b) v1 = (2, 1, 1), (c) v1 = (1, 1, 2), (d) v1 = (1, 1, 1), v2 = (1, 1, 2), v2 = (3,−1, 2), v2 = (2, 0, 0), v2 = (3,−2, 1), v3 = (1, 1, 1). 28 Espaço vetorial Cap. 1 v3 = (0, 0, 0). v3 = (0, 1, 1). v3 = 2v1 − v2. 4. Complete o conjunto de vetores para obter uma base do espaço indicado. (a) α = {v1, v2} ⊂ R2, onde v1 = (3, 4). (b) β = {v1, v2, v3} ⊂ R3, onde v1 = (2, 2, 2). 5. Seja β = {v1, v2, . . . , vn} uma base de Rn. (a) Escreva vi como combinação linear dos vetores de β. (b) Escreva o como combinação linear dos vetores de β. 6. Considere o conjunto de vetores α = {v1, v2, v3} de R2, onde v1 = (1, 1), v2 = (3, 2) e v3 = (−1, 1). (a) Escolha dois vetores de α para construir uma base β de R2. (b) Expresse vi, i ∈ {1, 2, 3} como combinação linear de vetores de β. (c) Expresse w = (x, y) como combinação linear dos vetores de β. (d) Quantas bases distintas de R2 podemos extrair de α? 7. Resolva cada sistema com duas equações e duas incógnitas, escreva-o em forma matricial e dê o significado desta resolução em termos de combinação linear. (a) { 2a1 − 3a2 = 5 −a1 + 4a2 = 0 (b) { 3a1 − 2a2 = 0 −a2 = 3 8. Resolva cada sistema com três equações e três incógnitas, escreva-o em forma matricial e dê o significado desta resolução em termos de combinação linear. (a) 2a1 − 3a2 + a3 = 5 −a1 + 4a2 = 0 a1 + − a3 = 1 (b) 3a1 − 2a2 + a3 = 0 −a2 + a3 = 0 a3 = 0 2 Matrizes e determinantes Neste capítulo aprofundaremos o estudo da relação entre sistemas lineares, com- binações lineares e determinantes. São diversos os métodos de resolução de sistemas lineares: escalonamento; substituição; regra de Cramer, etc. Muitas vezes, utilizare- mos a regra de Cramer, principalmente quando o sistema tem duas ou três variáveis. Nestes casos, a resolução por regra de Cramer é tão prática quanto qualquer outro método. De qualquer forma, apresentaremos o método de escalonamento. A experiência em sala de aula com alunos neófitos em Álgebra linear, tem mos- trado que as demonstrações de muitas propriedades matriciais são infrutíferas. Com- preender a complexidade de algumas argumentações combinatórias necessitam de um maior amadurecimento matemático por parte do aluno. Uma apresentação desta- cando os fatos principais e os algoritmos envolvendo determinantes têm se revelados mais úteis. Seja qual for a opção para a apresentação deste capítulo em sala de aula, leitura extensa ou resumo de alguns fatos, os teoremas devem ser destacados, pois serão utilizados inúmeras vezes. 2.1 Matrizes Uma matriz de ordem n×m é uma sequência de números reais, (vij), 1 ≤ i ≤ n e 1 ≤ j ≤ m indicada por [A]. Por simplicidade, muitas vezes escrevemos [A] = [vij ]. O escalar vij é denominado a ij−ésima entrada da matriz. É de imensa utilidade apresentar uma matriz na forma de tabela: 29 30 Matrizes e determinantes Cap. 2 [A] = v11 v12 · · · v1m v21 v22 · · · v2m . . . . . . . . . vi1 vi2 · · · vim . . . . . . . . . vn1 vn2 · · · vnm Sendo assim, índice i indica a linha da matriz e o índice j indica a coluna nas quais a entrada vij se encontra. Portanto, uma matriz de ordem n×m tem n linhas e m colunas. Sejam [A] = [vij ] e [B] = [wij ] duas matrizes de mesma ordem. Diz-se que [A] = [B] se vij = wij , para todos os índices ij. Para relacionar matriz e combinação linear, é conveniente utilizar uma notação mais simples. Por exemplo, uma matriz será apresentada na forma [A] = [v1, v2, . . . , vm]. Esta notação indica que as entradas da j−ésima coluna de [A] é constituída pelas coordenadas do vetor vj ∈ Rn, onde vj = (v1j , v2j , . . . , vnj). Algumas matrizes são especiais e muitas serão apresentadas ao longo do texto. A primeira a ser destaca é a matriz nula de ordem n×m que, por definição é a matriz com todas as entradas iguais a zero e denotada por [0]. Indica-se porM(n,m) o conjunto das matrizes de ordem n×m. Neste conjunto definimos duas operações binárias, a adição de matrizes e a multiplicação de uma matriz por um escalar do seguintemodo, respectivamente. Se [A] = [vij ] e [B] = [wij ] são duas matrizes de ordem n×m e λ um escalar, então{ [A] + [B] = [vij + wij ] λ[A] = [λ vij ] . É simples verificar que estas operações equipam o conjuntoM(n,m) com a estrutura de espaço vetorial, ver Definição 1.1, p. 3. O elemento neutro é a matriz nula. 2.1 Matrizes 31 Além destas duas operações, define-se o produto de matrizes. Se [A] = [vij ] é uma matriz de ordem n×m e [B] = [wij ] é uma de ordem m× p definimos [A] · [B] como sendo a matriz [C] = [uij ] de ordem n× p onde uij = vi1w1j + vi2w2j + · · ·+ vimwmj . O produto matricial merece algumas observações. Exemplo 2.1. O produto matricial pode ser uma matriz nula sem que nenhuma matriz seja nula. Por exemplo, [A] = 1 11 1 1 1 e [B] = [ 2 −2−2 2 ] . Efetuando o produto obtemos [A] · [B] = 0 00 0 0 0 . 3 Exemplo 2.2. Não podemos efetuar o produto matricial entre quaisquer duas ma- trizes. As matrizes devem ter ordens n×m e m× p. Por exemplo, consideremos as matrizes com ordens 3× 3 e 3× 2, respectivamente, [A] = 0 3 −12 1 1 −2 0 4 e [B] = 2 30 −2 2 0 . Podemos efetuar o produto [A] · [B], e obter uma matriz de ordem 3× 2, [A] · [B] = 0 3 −12 1 1 −2 0 4 2 30 −2 2 0 = −2 −66 4 4 −6 , mas não podemos efetuar o produto [B] · [A], conforme a definição fixada, pois a matriz [A] deve ter tantas colunas quantas são as linhas de [B]. 3 32 Matrizes e determinantes Cap. 2 Para efetuar os produtos [A] · [B] e [B] · [A] devemos ter em mãos duas matrizes quadradas de mesma ordem. Se não vejamos. Se a primeira matriz tem ordem n×m e a segunda tem ordem m× p, o produto [A] · [B] pode ser efetuado. Caso possamos efetuar o produto [B] · [A], então o números de colunas de [B] deve ser igual ao número de linhas de [A], ou seja p = n. Logo, as matrizes são de ordem n× n. Uma matriz de ordem n×n é denominada matriz quadrada de ordem n. Quando as matrizes [A] e [B] são de mesma ordem, embora possamos efetuar o produto [A] · [B] e [B] · [A], em geral, [A] · [B] 6= [B] · [A]. Exemplo 2.3. Consideremos as matrizes quadradas de ordem 2 [A] = [ 2 −4 1 −2 ] e [B] = [ 0 4 2 2 ] . Efetuando os produtos verificamos que [A] · [B] 6= [B] · [A], pois [A] · [B] = [ −8 0 −4 0 ] e [B] · [A] = [ 4 −8 6 −12 ] . 3 Seja Cn = {e1, e2, . . . , en} a base canônica do Rn. A matriz identidade de ordem n, denotada por [Id]n, ou simplesmente por [Id] quando não causar ambiguidades quanto à ordem, é a matriz definida por [Id] = [e1, e2, . . . , en]. Se [Id] = [eij ], então eii = 1 e eij = 0 quando i 6= j. Sendo assim, a matriz identidade tem a seguinte configuração, [Id]n = 1 0 · · · 0 0 0 1 · · · 0 0 . . . . . . . . . . . . 0 0 · · · 1 0 0 0 · · · 0 1 Uma particularidade da matriz identidade de ordem n é comutar com qualquer matriz [A] = [vij ] de ordem n e ser neutra em relação ao produto matricial: [A] · [Id] = [A] = [A] · [Id], 2.2 Determinantes 33 Vejamos. Seja cij a ij−ésima entrada do produto [A] · [Id]. Por definição, temos cij = n∑ k=1 vjkekj . Como ej = (e1j , e2j , . . . , enj), então eik = { 0 se i 6= k 1 se i = k Daí segue que cij = vij , ou seja, [A] · [Id] = [A]. Os mesmos argumentos mostram que [Id] · [A] = [A]. EXERCÍCIOS 1. Efetue o produto, quando possível, das matrizes. (a) [A] = [ 2 −4 1 −2 ] . (b) [B] = −1 41 −2 0 1 . (c) [C] = −1 0 −23 −2 1 0 1 1 . (d) [D] = [ −1 5 1 0 1 0 ] . (e) [E] = [ 0 −1 ] . (f) [F ] = 02 −1 . (g) [G] = [ 0 2 ] . 2. Sejam [M ], [N ] matrizes n ×m. Mostre que se [M ][P ] = [N ][P ], para toda matriz coluna [P ], então [M ] = [N ]. 2.2 Determinantes Determinante é definido para matrizes quadradas de ordem n. Para não ser repetitivo, ao escrevermos �determinante de uma matriz� estaremos assumindo que a matriz é quadrada, mesmo que o fato não esteja explicitado. 34 Matrizes e determinantes Cap. 2 Definição 2.1. O determinante é uma função do espaço das matrizes quadra- das de ordem n com valores reais possuindo as seguintes propriedades: D1 det[Id] = 1; D2 se vi = vi+1, então det[v1, . . . , vi, vi+1, . . . , vn] = 0; D3 para qualquer w ∈ Rn e qualquer λ ∈ R vale a igualdade det[v1, . . . , vi+λw, . . . , vn] = det[v1, . . . , vi, . . . , vn]+λdet[v1, . . . , w, . . . vn]. Posta a definição, precisamos mostrar que, de fato, determinantes existem. Mas assumamos, por um momento, este fato. Da definição decorrem várias propriedades úteis nos cálculos envolvendo determinantes. Proposição 2.1. Valem as seguintes afirmações sobre o determinante de uma matriz quadrada [A] = [v1, v2, . . . , vn]. 1. det[v1, . . . , vi, vi+1, . . . , vn] = −det[v1, . . . vi+1, vi, . . . vn]. 2. Se algum vi é o vetor nulo, então det[v1, v2, . . . , vn] = 0. 3. Se vi = vj, i 6= j, então det[v1, . . . , vi, . . . , vj, . . . , vn] = 0. 4. Somando-se a uma coluna da matriz [v1, v2, . . . , vn] uma combinação li- near de outros vetores colunas o determinante não se altera. 5. det[v1, . . . , λvi, . . . , vn] = λdet[v1, . . . ., vi, . . . , vn], para todo escalar λ. Prova 1. Observe que det[v1, . . . , vi + vi+1, vi + vi+1, . . . , vn] = 0, pois duas colunas adjacentes são iguais, propriedade D2. Por D3, obtemos 0 = det[v1, . . . , vi + vi+1, vi + vi+1, . . . , vn] = det[v1, . . . ,���: 0vi, vi , . . . , vn] + det[v1, . . . , vi, vi+1, . . . , vn] + det[v1, . . . , vi+1, vi, . . . , vn] + det[v1, . . . ,��� ���:0vi+1, vi+1 , . . . , vn]. 2.2 Determinantes 35 De onde segue a afirmação. 2. Se vi = o, ele é uma combinação linear dos vetores colunas, digamos, vi = 0v1 + · · ·+ 0vi−1 + 0vi+1 + · · ·+ 0vn. Pela propriedade D3, seguem as igualdades, det[v1, . . . , vi, vi+1, . . . , vn] = 0 det[v1, . . . , v1, vi+1, . . . , vn] + 0 det[v1, . . . , v2, vi+1, . . . , vn] + + · · ·+ 0 det[v1, . . . , vn, vi+1, . . . , vn] = 0. 3. Exercício. Sugestão: efetue permutações de colunas e utilize D2. 4. Suponha que o vetor w = a1v1 + a2v2 + · · ·+ an−1vn−1 seja adicionado à última coluna de [A] = [v1, . . . , vi, . . . , vj, . . . , vn]. Calculemos, det[v1, . . . , vn−1, vn + w] = det[v1, . . . , vn−1, vn + Σn−1i=1 aivi] = det[v1, . . . , vn−1, vn] + Σn−1i=1 aidet[v1,��: 0. . . , vn−1, vi] = det[v1, . . . , vn−1, vn]. Cada parcela do somatório possui o determinante de uma matriz com duas colunas iguais, portanto, são iguais a zero. 5. Observe as igualdades, det[v1, . . . , λvi, . . . , vn] = det[v1, . . . , vi + (λ− 1)vi, . . . , vn] = det[v1, . . . , vi, . . . , vn] + (λ− 1)det[v1, . . . , vi, . . . , vn] = λdet[v1, . . . , vi, . . . vn]. A igualdades são justificadas por D3. 2 36 Matrizes e determinantes Cap. 2 Exercício 2.1. Seja [A] = [v1, v2, . . . , vn], onde vi ∈ Rn. Mostre que se algum vi é combinação linear dos outros vetores, então det[A] = 0. 3 Passemos à construção do determinante de uma matriz n× n. Seja [A] uma matriz quadrada n × n. Indicaremos por [A]ĵi a ji−ésima matriz reduzida de [A]. Isto significa que a matriz [A]îj é a matriz (n − 1) × (n− 1) obtida de [A] por supressão da i−ésima linha e da j−ésima coluna: [A]îj = v11 v12 · · · ��HHv1j · · · v1m v21 v22 · · · ��HHv2j · · · v2m . . . . . . ��ZZ . . . ��HHvi1 ��HHvi2 ��ZZ ��ZZvij ��ZZ � �HHvim . . . . . . ��ZZ . . . . . . vn1 vn2 · · · ��HHvnj · · · vnm . Para fixar ideias, examinemos as matrizes reduzidas de [A] = 2 3 00 1 3 1 1 2 . Temos 9 matrizes reduzidas, quatro delas são: [A]1̂1 = [ 1 3 1 2 ] ; [A]2̂1 = [ 3 0 1 2] ; [A]3̂2 = [ 2 0 0 3 ] ; [A]3̂3 = [ 2 3 0 1 ] . Uma matriz quadrada de ordem n dá origem a n2 matrizes reduzidas. A definição de determinante de uma matriz 1 × 1, [A] = [v11] será igual à única entrada da matriz: det[A] = v11. 2.2 Determinantes 37 Definamos o determinante de uma matriz 2 × 2. Sejam v1 = (v11, v21) e v2 = (v12, v22) vetores do R2. Definimos o determinante pelo desenvolvimento de Laplace pela primeira linha: det[v1, v2] = det [ v11 v12 v21 v22 ] = (−1)1+1v11det[A]1̂1 + (−1)1+2v12det[A]1̂2. Aqui, as matrizes reduzidas são as matrizes 1× 1 [A]1̂1 = [v22] e [A]1̂2 = [v21]. Portanto, reescrevendo o determinante temos det [ v11 v12 v21 v22 ] = v11v22 − v21v12. Deixaremos aos cuidados do leitor a verificação das propriedades D1, D2 e D3. Exemplo 2.4. Sejam v1 = (2, 5) e v1 = (2,−3). Pela definição, det[A] = det[v1, v2] = det [ 2 2 5 −3 ] = −16. 3 Posto o determinante de uma matriz 2× 2, o determinante de uma matriz 3× 3 é definido pelo desenvolvimento de Laplace pela primeira linha. Sejam v1 = (v11, v21, v31), v2 = (v12, v22, v32) e v3 = (v13, v23, v33) vetores do R3, então det[v1, v2, v3] = det v11 v12 v13v21 v22 v23 v31 v32 v33 = (−1)1+1v11det[A]1̂1 + (−1)1+2v12det[A]1̂2 + (−1)1+3v13det[A]1̂3 = v11det [ v22 v23 v32 v33 ] − v12det [ v21 v23 v31 v33 ] + v13det [ v21 v22 v31 v32 ] . 38 Matrizes e determinantes Cap. 2 Certamente o leitor conhece algum algoritmo para calcular o determinante de uma matriz 3 × 3, utilize aquele que achar mais confortável. Embora seja simples, mas enfadonho, também é rotina verificar que o determinante de matrizes 3× 3 goza das propriedades D1, D2 e D3. Exemplo 2.5. Calculemos o determinante de uma matriz 3× 3: det 2 3 00 1 3 −1 1 2 = 2 · det [ 1 3 1 2 ] − 3 · det [ 0 3 −1 2 ] + 0 · det [ 0 1 −1 1 ] = 2 · (−1)− 3 · 3 = −11. 3 Teorema 2.1. Para todo inteiro n ≥ 2 a aplicação det : M(n, n)→ R, det[A] = (−1)1+1v11det[A]1̂1 + (−1)1+2v12det[A]1̂2 + · · ·+ (−1)1+mv1ndet[A]1̂n, é um determinante, onde [A] = [v1, v2, . . . , vn]. Prova Já vimos que existe um determinante para o espaço das matrizes M(1, 1). Vamos supor, por indução, que já tenhamos mostrado a existência de um determinante nos espaços de matrizesM(n− 1, n− 1). Seja [A] = [vij] uma matriz quadrada de ordem n, Defina a aplicação det :M(n, n)→ R pelo desenvolvimento de Laplace pela primeira linha: det [A] = n∑ j=1 (−1)1+ja1jdet[A]1̂j. Mostremos que esta aplicação satisfaz as condições da Definição 2.1, p. 34. 1.) Seja [Id] = [δij] é a matriz identidade de ordem n, onde δij é o delta de Kronecker, δij = { 0 se i 6= j 1 se i = j . 2.2 Determinantes 39 É evidente que [Id]1̂1 é a matriz identidade de ordem (n− 1). Portanto, det[Id] = (−1)1+1δ11det[Id]1̂1 + n∑ j=2 (−1)1+j��� 0 δ1j det[Id]1̂j = det[Id]n−1 = 1. 2.) Seja [A] = [v1, v2, . . . , vn] uma matriz emM(n, n) na qual vj0 = vj0+1. Sendo assim, quando j ∈ {1, 2, . . . , ĵ0, ĵ0 + 1, . . . n} as 1j−ésimas matrizes reduzidas de [A] possuem duas colunas iguais, implicando, por hipótese de indução, que det[A]1̂j = 0. Agora, quando j = j0 ou j = j0 + 1 temos a igualdade das matrizes reduzidas [A]1̂j0 = [A]1̂,j0+1 e a igualdade das entradas v1j0 = v1,j0+1. Portanto, det [A] = (−1)1+j0v1j0det[A]1̂j0 + (−1)1+j0+1v1,j0+1det[A]1̂,j0+1 = ( (−1)1+j0��� 0 + (−1)1+j0+1 ) v1j0det[A]1̂j0 = 0. 3.) Sejam [A] = [v1, v2, . . . , vn] uma matriz deM(n, n), λ um escalar, w = (w11, w12, . . . , w1n) um vetor de Rn, [W ] = [o1, . . . , oj0−1, w, oj0+1, . . . , on], onde oi é o vetor nulo indexado pela coluna que ocupa, e [B] = [v1, v2, . . . , vj−1, w, vj+1 . . . , vn]. Desejamos mostrar que det[C] = det[A] + λdet[B], onde [C] = ([A] + λ[W ]). Na notação aqui utilizada, [C] = [v1, v2, . . . , vj0 +λw, . . . , vn]. Observamos que{ [C]1̂j = [A]îj + λ[W ]1̂j, se j 6= j0 [C]1̂j0 = [A]1̂j0 . Por hipótese de indução temos{ det[C]1̂j = det[A]îj + λdet[B]1̂j, se j 6= j0 det[C]1̂j0 = det[A]1̂j0 = det[B]1̂j0 . 40 Matrizes e determinantes Cap. 2 Se [C] = [cij], calculemos: det[C] = n∑ j=1 (−1)1+jc1jdet[C]1̂j = ∑ j 6=j0 (−1)1+jv1jdet ( [A]1̂j + λ[B]1̂j ) + (−1)1+j0(v1j0 + λw1j0)det[A]1̂j0 = ∑ j 6=j0 (−1)1+jv1jdet[A]îj + (−1)1+j0v1j0 det[A]1̂j0 + λ (∑ j 6=j0 (−1)1+jdet[B]1̂j + (−1)1+j0w1j0det[B]1̂j0 ) = det[A] + λdet[B]. 2 Exemplo 2.6. Calculemos o determinante de uma matriz 4× 4. det 0 2 3 0 −1 4 1 3 2 −1 1 2 0 1 1 1 = −2 det −1 1 32 1 2 0 1 1 + 3 det −1 4 32 −1 2 0 1 1 = −7. 3 Proposição 2.2. Existe uma única função determinante no espaçoM(n, n). Prova Mostraremos que qualquer determinante de uma matriz quadrada de ordem n pode ser expresso por uma única forma padrão. Uma permutação do conjunto In = {1, 2, . . . , n} é uma aplicação bijetora σ : In → In. Por simplicidade, escreveremos σ(k) = ik e indicamos por Sn o conjunto 1 das permutações de In. Seja [A] = [v1, v2, . . . , vn] uma matriz quadrada de ordem n. Escrevamos vj = n∑ i=1 vijei 1 A operação de composição de funções equipa Sn com uma estrutura de grupo. 2.2 Determinantes 41 Como o índice i é apenas uma etiqueta, pelo mostrado acima, podemos escrever a avaliação da seguinte forma: det[v1, v2, . . . , vn] = det [ n∑ i1=1 vi11ei1 , n∑ i2=1 vi22ei2 , . . . , n∑ in=1 vinnei ] = n∑ i1=1 n∑ i2=1 · · · n∑ in=1 vi11vi22 · · · vinndet[ei1 , ei2 , . . . , ein ] Quando duas colunas de [ei1 , ei2 , . . . , ein ] são iguais, já sabemos que det[ei1 , ei2 , . . . , ein ] = 0. Portanto, o somatório pode ser reduzido a uma soma sobre índices nos quais a matriz [ei1 , ei2 , . . . , ein ] não tem colunas iguais. Com isto podemos definir uma permutação σ : In → In, onde cada índice de coluna j associamos ao índice σ(j) = ij. Reescrevendo o somatório utilizando o grupo das permutações: det[v1, v2, . . . , vn] = ∑ σ∈Sn vσ(1)1vσ(2)2 · · · vσ(n)ndet[eσ(1), eσ(2), . . . , eσ(n)]. Agora, [eσ(1), eσ(2), . . . , eσ(n)] é uma matriz obtida por permutações das colunas da matriz identidade, portanto de seu valor é igual a 1 ou −1. Para continuar, utilizaremos a Teoria das Permutações, ver detalhes em [7]. Uma transposição k−elementar, 1 ≤ k ≤ n− 1, é a permutação τk : In → In, τk(i) = i se i /∈ {k, k + 1} k + 1 se i = k k se i = k + 1 . Toda permutação σ é uma composição de um número finito de transposições k−elementares, σ = τkr ◦ · · · ◦ τk2 ◦ τk1 . Tal decomposição não é única, mas existe uma paridade entre duas decomposições, isto é, se τk1 ◦ τk2 ◦ · · · ◦ τkr = τl1 ◦ τl2 ◦ · · · ◦ τls 42 Matrizes e determinantes Cap. 2 então r e s são pares ou (exclusivo) r e s são ímpares. Isto permite definir o sinal de uma permutação σ pondo �(σ) = (−1)r, onde r é o número de parcelas de uma decomposição de σ por transposições k−elementares. Finalmente, uma permutação σ : In → In é uma função invertível. Por- tanto, se σ = τk1 ◦ τk2 ◦ · · · ◦ τkr , segue que σ−1 = τ−1kr ◦ · · · ◦ τ−1k2 ◦ τ−1k1 . Logo, uma permutação e sua inversa têm a mesma paridade, �(σ) = �(σ−1). A matriz [eσ(1), eσ(2), . . . , eσ(n)] é obtida por permutações das colunas da matriz identidade. Ou seja, é obtida por uma sequência de transposições k−elementares de colunas da matriz identidade. Como cada transposição k−elementar permuta o sinal do determinante, e o determinante da matriz identidade é igual a 1, temos det[eσ(1), eσ(2), . . . , eσ(n)] = �(σ). Portanto, det[v1, v2, . . . , vn] = ∑ σ∈Sn �(σ)vσ(1)1vσ(2)2 · · · vσ(n)n. Observe que ao longo da construção acima não foi utilizado a definição de determinante por desenvolvimento de Laplace, apenasas propriedades exigi- das na Definição 2.1, p. 34 e as consequências citadas na Proposição 2.1, p. 34. Como qualquer determinante expressa-se desta forma, somente existe um determinante. 2 Seja [A] = [v1, v2, . . . , vn] = [vij] é uma matriz n×m, como sabemos vj = (v1j, v2j, . . . , vnj). A matriz transposta de [A] é a matriz m× n indicada pos [A]t e definida por [A]t = [w1, w2, . . . , wn] cujos vetores colunas são wj = (vj1, vj2, . . . , vjn), isto é, o j−ésimo vetor coluna de [A]t é igual ao j−ésimo vetor linha de [A]. Por exemplo, [A] = √ 2 −3 0 −1 1 3 5 pi 1 3 e [A]t = √ 2 −1 pi −3 1 1 0 3 5 3 . 2.2 Determinantes 43 Lema 2.1. ([A] [B])t = [B]t[A]t para qualquer produto matricial. Prova Sejam [A] = [vij], [B] = [bij]. Denote [A] t = [vtij], [B] t = [btij], onde atij = aji e b t ij = bji. Calculemos a entrada cij de [B] t[A]t. cij = b t i1v t 1j + b t i2v t 2j + · · ·+ btinvtnj = b1ivj1 + b2ivj2 + · · ·+ bnivjn = vj1b1i + vj2b2i + · · ·+ vjnbni Calculemos a entrada dtij de ([A] [B]) t . Como sempre, dtij = dji e dji é uma entrada de [A] [B]. dtij = dji = vj1b1i + vj2b2i + · · ·+ vjnbni. Como cij = d t ij, temos mostrado que ([A] [B]) t = [B]t[A]t 2 Proposição 2.3. Se [A] uma matriz quadrada, então det[A]t = det[A]. Prova Se [A] = [vij], pelo visto temos det[A] = ∑ σ∈Sn �(σ)aσ(1)1aσ(2)2...aσ(n)n. Se σ−1 é a permutação inversa de σ e σ(i) = j, então aσ(i)i = ajσ−1(j). Portanto, valem as igualdades dos produtos aσ(1)1aσ(2)2 · · · aσ(n)n = a1σ−1(1)a2σ−1(2) · · · anσ−1(n). Desde que o sinal de uma permutação é igual ao sinal de sua permutação inversa podemos escrever det[A] = ∑ σ−1 �(σ−1)a1σ−1(1)a2σ−1(2) · · · anσ−1(n) = ∑ σ �(σ)a1σ(1)a2σ(2) · · · anσ(n) = det[A]t. 2 44 Matrizes e determinantes Cap. 2 Este último resultado diz um pouco mais. O desenvolvimento de Laplace pela primeira linha de [A] é igual ao desenvolvimento de Laplace pela primeira coluna de [A]. Isto implica que podemos fazer o desenvolvimento de Laplace por qualquer coluna, desde que respeitemos o sinal das transposições de colunas que foram feitas. Em outras palavras, se fizermos o desenvolvimento de Laplace pela j−ésima coluna temos a relação det[v1, . . . , vj−1, vj, vj+1 . . . , vn] = (−1)j−1det[vj, v1, . . . , vj−1, vj+1, . . . , vn]. Relação similar é válida para o desenvolvimento pela i−ésima linha. Proposição 2.4. Se [A] e [B] são duas matrizes quadradas de ordem n, então det ([A] · [B]) = det[A] · det[B]. Prova Fixemos notações: [A] = [vij], [B] = [bij] e [C] = [A] · [B] = [cij]. A j−ésima matriz coluna de [C] = [A] · [B] é uma combinação linear das colunas de [A] cujos coeficientes são as j−ésimas entradas de [B], mais preci- samente, cj = b1jv1 + b2jv2 + · · ·+ bnjvn. Calculemos o determinante: det ([A] · [B]) = det [c1, c2, . . . , cn] = det [ n∑ k1=1 bk11vk1 , n∑ k2=1 bk22vk2 . . . , n∑ kn=1 bknnvkn ] = n∑ k1=1 n∑ k2=1 · · · n∑ kn=1 bk11bk22 · · · bknndet[vk1 , vk2 , . . . , vkn ]. Quando duas colunas de [vk1 , vk2 , . . . , vkn ] são iguais, sabemos que det[vk1 , vk2 , . . . , vkn ] = 0. Portanto, o somatório pode ser reduzido a uma soma sobre índices nos quais a matriz [vk1 , vk2 , . . . , vkn ] não tem colunas iguais. Com isto, podemos definir 2.2 Determinantes 45 uma permutação σ : In → In, onde cada índice de coluna j associamos ao índice σ(j) = kj. Reescrevendo o somatório utilizando o grupo das permutações: det ([A] · [B]) = ∑ σ∈Sn bσ(1)1bσ(2)2 · · · bσ(n)ndet[vσ(1), vσ(2), . . . , vσ(n)]. A matriz [vσ(1), vσ(2), . . . , vσ(n)] é obtida de [A] = [v1, v2, . . . , vn] por permu- tação de colunas. Com o argumento de transposição k−elementar, temos det[vσ(1), vσ(2), . . . , vσ(n)] = �(σ)det[A]. Por substituição, chegamos a det ([A] · [B]) = (∑ σ∈Sn �(σ)bσ(1)1bσ(2)2 · · · bσ(n)n ) det[v1, v2, . . . , vn] = det[B] · det[A]. 2 EXERCÍCIOS 1. Calcule o determinante de cada matriz. (a) [A] = [ 2 −2 4 1 ] . (b) [B] = 2 0 2−1 3 1 −1 2 0 . (c) [C] = −1 3 41 −1 0 1 −2 −1 . (d) [D] = 1 0 0 1 2 1 −1 2 0 −2 0 −2 1 0 2 3 . (e) [E] = 1 2 3 0 1 2 1 0 1 0 1 0 1 −2 3 −4 . 2. Sejam v1 = (1,−2) e v2 = (4, 5) vetores de R2. Verifique as igualdades. 46 Matrizes e determinantes Cap. 2 (a) det[e1, e2] = 1. (b) det[v1, v2] = 13. (c) det[vi, vi] = 0. 3. Sejam v e w vetores do R2. Sabendo-se que det[v, w] = −2, calcule: (a) det[2v, w]. (b) det[−v,−4w]. (c) det[w, v]. (d) det[v + w,w]. (e) det[3v,−4w]. (f) det[2v − 3w, 4v + 5w]. 4. Seja w = (−3, 1) em R2. Verifique as igualdades onde os vetores v1 e v2 são aqueles do item anterior. (a) det[v1, v2 + 3w] = det[v1, v2] + 3det[v1, w]. (b) det[v1 − 2w, v2] = det[v1, v2]− 2det[w, v2]. 5. Sejam v1 = (0,−2, 1) e v2 = (1, 1, 0) e v3 = (3, 1, 1) vetores de R3. Verifique: (a) det[e1, e2, e3] = 1; (b) det[v1, v2, v3] = 1; (c) det[v1, v1, v3] = 0; (d) det[v1, v2, v2] = 0. 6. Considere o vetor w = (1, 1, 2) em R3. Verifique as igualdades calculando os determinantes. Os vetores v1, v2 e v3 são aqueles do item anterior. (a) det[v1, 3v2 − w, v3] = 3det[v1, v2, v3]− det[v1, w, v3]. (b) det[v1, v2, v3 + 2w] = det[v1, v2, v3] + 2det[v1, v2, w]. 7. Sejam [A] e [B] matrizes n×n. Responda se a afirmação é falsa ou verdadeira. (a) det ([A] + [B]) = det[A] + det[B]. (b) det[λA] = λdet[A]. (c) det ([A]n) = (det [A])n, para todo inteiro positivo n. 8. Verifique a identidade det 1 1 1a b c a2 b2 c2 = (b− a)(c− a)(c− b). 2.3 Matrizes invertíveis 47 2.3 Matrizes invertíveis Uma matriz quadrada [A] de ordem n é dita invertível se existe uma matriz quadrada [B] de ordem n tal que [A] [B] = [Id] = [B] [A], onde [Id] é a matriz identidade de ordem n. Exemplo 2.7. A matriz quadrada de ordem 2 [A] = [ 1 1 1 2 ] é invertível, pois se [B] = [ 2 −1 −1 1 ] verifica-se que[ 2 1 1 1 ] [ 1 −1 −1 2 ] = [ 1 0 0 1 ] = [ 1 −1 −1 2 ] [ 2 1 1 1 ] . Mas nem toda matriz tem inversa. Por exemplo, a matriz [A] = [ 1 1 −1 −1 ] não tem inversa. Vejamos. Suponha, por absurdo, que a matriz [B] = [ a c b d ] seja a inversa de [A]. Por definição de matriz inversa segue que [Id] = [A] · [B]. Calculando temos[ 1 0 0 1 ] = [ 1 1 −1 −1 ] · [ a c b d ] = [ a+ b c+ d −a− b −c− d ] 48 Matrizes e determinantes Cap. 2 Da igualdade de matrizes obtemos um sistema de equações lineares,{ a + b = 1 −a − b = 0 . Daí segue que 0 = 1! Uma contradição. 3 Caso exista uma matriz [B], tal que [A] · [B] = [Id] = [A] · [B] chamaremos [B] de inversa de [A] e denotamos a inversa por [A]−1. Exercício 2.2. Sejam [A] e [B] matrizes quadradas de ordem n e invertíveis. Mostre as afirmações. 1. [A]−1 é invertível e ([A]−1)−1 = [A]. 2. [A] · [B] é invertível e ([A] · [B])−1 = [B]−1 · [A]−1. 3. A inversa de [A] é única. 3 Uma condição necessária para uma matriz [A] ser invertível é seu determi- nante não ser zero, pois pela Proposição 2.4, p. 44, temos 1 = det[Id] = det ( [A] · [A]−1) = det[A] det ([A]−1) . Como o porduto det[A] e det ([A]−1) é igual a 1, podemos concluir dois fatos. 1o Se [A] é invertível, então det[A] 6= 0. 2o Se [A] é invertível, então det ([A]−1) = (det[A])−1. Veremos que primeira condição é suficiente: se det[A] 6= 0, então [A] é invertível. Para isto, apresentaremos um procedimento para inverter matrizes. No capítulo seguinte mostraremos outro método mais eficiente, em termos de rapidez quando a ordem da matriz quadrada for n > 3. 2.3 Matrizes invertíveis 49 Exemplo 2.8. Concluir que uma matriz quadrada de ordem 2 éinvertível é simples e o algoritmo envolvido é de fácil memorização. Consideremos [A] = [ a b c d ] . A matriz adjunta clássica de [A] é a matriz denotada e definida por ad([A]) = [ d −b −c a ] . Efetuemos a multiplicação das duas matrizes obtemos [A] ad([A]) = [ ad− bc 0 0 ad− bc ] = (ad− bc) [Id] = det[A] [Id]. Obteremos o mesmo resultado se efetuarmos o produto adj ([A]) [A]. Estes cálculos mostram a afirmação: uma matriz quadrada com ordem 2 é invertível se, e somente se, det[A] 6= 0, e mais, se ela é invertível, então [A]−1 = 1 det[A] ad([A]) e det[A]−1 = (det[A])−1. 3 Para generalizar tal procedimento, definiremos a adjunta clássica de uma matriz [A] de ordem n. Para isto, lançaremos mão das suas reduzidas [A]îj. O ij-ésimo cofator da matriz [A] = [vij] é o escalar cij = (−1)i+jdet[A]îj. A adjunta clássica de [A] é a matriz transposta da matriz dos cofatores, ad([A]) = [cij] t. Exemplo 2.9. Exemplifiquemos. Considere a matriz [A] = 1 2 01 4 3 −1 0 2 . [A] dá origem a nove matrizes reduzidas, uma para cada índice ij. Explicitemos três delas: 50 Matrizes e determinantes Cap. 2 [A]1̂1 = [ 4 3 0 2 ] ; [A]3̂2 = [ 1 0 1 3 ] ; [A]2̂1 = [ 2 0 0 2 ] ; Para calcular a adjunta clássica da matriz [A], calculamos a transposta da matriz dos cofatores, ad([A]) = det[A]1̂1 −det[A]1̂2 det[A]1̂3−det[A]2̂1 det[A]2̂2 −det[A]2̂3 det[A]3̂1 −det[A]3̂2 det[A]3̂3 t = 8 −4 6−5 2 −3 4 −2 2 . Observe que det[A] = −2 6= 0. Calculando o produto matricial ad([A]) [A], obtemos 1 2 01 4 3 −1 0 2 8 −4 6−5 2 −3 4 −2 2 = −2 0 00 −2 0 0 0 −2 = −2 · [Id], ou seja, ad([A]) [A] = det[A] [Id]. Portanto, se [B] = 1 det[A] ad [A], então [A] [B] = [Id]. Do mesmo modo verifica-se que [B] [A] = [Id]. Isso significa que [A] é invertível e sua inversa é [A]−1 = 1 det[A] ad [A]. 3 Proposição 2.5. Se [A] é uma matriz quadrada de ordem n, então ad([A]) [A] = det[A][Id] = [A] ad([A]). Prova Escrevamos [A] = [vij] e ad ([A]) = [cij]. Calculemos ij-ésima entrada do produto ad([A])[A] = [dij]. Recordando que cij = (−1)i+jdet[A]ĵi, temos dij = n∑ k=1 cikvkj = n∑ k=1 (−1)i+kvkjdet[A]k̂i. Para i = j, segue que djj = n∑ k=1 (−1)k+jvkjdet[A]k̂j. 2.3 Matrizes invertíveis 51 é o desenvolvimento de Laplace de det[A] pela j−ésima coluna de det[A]. Por- tanto, djj = det[A] para 1 ≤ j ≤ n. Avaliemos as outras entradas dij. Seja [B] = [bij] a matriz obtida de [A] = [v1, v2, . . . , vn] por substituição de vj0 por vi0 , com j0 6= i0. Sendo assim, det[B] = 0, [B]k̂j0 = [A]k̂j0 e bkj0 = vki0 . Avaliemos det[B] = 0 com o desenvolvimento de Laplace pela j0−ésima coluna. 0 = n∑ k=1 (−1)k+j0bkj0det[B]k̂j0 = n∑ k=1 (−1)k+j0vki0det[A]k̂j0 = n∑ k=1 cj0kvki0 = di0j0 Isto mostra que ad([A]) [A] = det[A] [Id]. Para finalizar, verifiquemos que ad([A])[A] = det[A] [Id]. Utilizaremos a identidade ad([A]t) = ad([A])t e a regra de transpor produto de matrizes, [A] ad([A]) = (ad([A])t[A]t)t = 0(ad([A]t) [A]t)t = (det[A]t [Id])t = det[A] [Id]. 2 Corolário 2.1. As seguintes afirmações são equivalentes. 1. [A] é uma matriz invertível. 2. det[A] 6= 0. Em particular, se [A] é uma matriz invertível, então det ([A]−1) = (det[A])−1. 52 Matrizes e determinantes Cap. 2 Prova ⇒) Se [A] é invertível, pela Proposição 2.4, p. 44, temos 1 = det[Id] = det ( [A] [A]−1 ) = det[A] det[A]−1. Como o produto de det[A] e det[A]−1 é igual a 1, nenhum destes determinantes pode ser zero. Isso mostra o item 2 e que det[A]−1 = (det[A])−1. ⇐) Suponha que det[A] 6= 0. Pela Proposição 2.5, a inversa de A é a matriz [A]−1 = 1 det[A] ad([A]) 2 Finalizaremos com um corolário que evita cálculos. Quando uma matriz tem uma `inversa �à direita�, ou �à esquerda�, então ela é a inversa de [A]. Corolário 2.2. Se [A] e [B] são matrizes quadradas de ordem n tais que [A][B] = [Id], então [A] é invertível e [B] = [A]−1. Prova As igualdades 1 = det[Id] = det([B] [A]) = det[B] det[A] implicam que det[B] 6= 0. Portanto, [B] é invertível. Calculemos, [A] [B] = [B]−1 [B][A]︸ ︷︷ ︸ [Id] [B] = [B] [B]−1 = [Id]. Sendo assim, [B] também é a inversa �à direita� de [A]. Logo, [A] é invertível e [B] = [A]−1. 2 Exercício 2.3. Mostre que se [A] e [B] são matrizes quadradas de ordem n tais que [A][B] = [Id], então [A] é invertível e [B] = [A]−1. 3 EXERCÍCIOS 1. Calcule a inversa da matriz, se existir. (a) [A] = [ 1 1 1 2 ] . (b) [B] = 2 10 30 1 3 0 0 2 . (c) [C] = 1 −1 −14 2 8 5 1 7 . 2.4 Regra de Cramer 53 2. Calcule det[A], ad([A]) e [A]−1 onde [A] = 0 0 10 2 0 3 0 0 . 3. Calcule a potência k das matrizes e verifique que todas são invertíveis. Calcule a inversa da potência k. a) [A] = [ 1 1 0 1 ] . b) [B] = 1 1 10 1 1 0 0 1 . c) [C] = [ cos t −sent sent cos t ] . 4. Prove que o determinante é invariante por conjugação de matrizes, ou seja, se [R] e [N ] são matrizes quadradas n× n e [R] é invertível, então det ([R]−1[N ][R]) = det [N ]. 2.4 Regra de Cramer Fixemos o conjunto de n vetores β = {v1, v2, . . . , vn} ⊂ Rn. Seja w = (w1, w2, . . . , wn), um vetor arbitrário de Rn. Desejamos saber se w é uma combinação linear de vetores de β, isto é, se existem escalares a1, a2, . . . , an tais que w = a1v1+a2v2+ · · ·+anvn. Tal pergunta dá origem ao sistema linear de n equações com n incógnitas, v11a1 + v12a2 + · · ·+ v1nan = w1 v21a1 + v22a2 + · · ·+ v2nan = w2 · · · vn1a1 + vn2a2 + · · ·+ vnnan = wn , onde os coeficientes são as coordenadas dos vetores vj = (v1j, v2j, . . . , vnj), e as incógnitas são a1, a2, . . . , an. Em termos matriciais temos v11 v12 . . . v1n v21 v22 . . . v2n . . . . . . . . . . . . vn1 vn2 . . . vnn a1 a2 : an = w1 w2 : wn . 54 Matrizes e determinantes Cap. 2 Se a matriz [A] = [v1, v2, . . . , vn] for invertível, podemos determinar as incóg- nitas ai's multiplicando ambos membros desta identidade matricial por [A] −1 e temos resolvido o sistema, a1 a2 : an = v11 v12 . . . v1n v21 v22 . . . v2n . . . . . . . . . . . . vn1 vn2 . . . vnn −1 w1 w2 : wn . Portanto, se det[A] 6= 0, qualquer vetor w ∈ Rn pode ser escrito como com- binação dos vetores de β = {v1, v2, . . . , vn}. Assim fica mostrado a primeira parte do Teorema 1.1, p. 26 que ficará registrado no seguinte lema. Lema 2.2. Se det[v1, v2, . . . , vn] 6= 0, então β = {v1, v2, . . . , vn} é uma base ordenada de Rn. Exemplo 2.10. Considere β = {v1, v2} onde v1 = (3,−1) e v2 = (1, 1) são ve- tores do R2. Desejamos escrever w = (x, y), um vetor de R2, como combinação linear da forma w = a1v1 + a2v2. Isto dá origem ao sistema[ 3 1 −1 1 ] [ a1 a2 ] = [ x y ] . A condição det[v1, v2] 6= 0, implica que: β é uma base de R2; [A] é invertível; os valores das incógnitas são[ a1 a2 ] = [ 3 1 −1 1 ]−1 [ x y ] = 1 4 [ 1 −1 1 3 ] [ x y ] = [ x− y 4 x+3y 4 ] . Portanto, w = x−y 4 v1 + x+3y 4 v2. 3 Mostremos a segunda parte do Teorema Teorema 1.1, p. 26. Lema 2.3. Se det[v1, v2, . . . , vn] 6= 0, então qualquer vetor w ∈ Rn é expresso como w = a2v1 + a2v2 + · · ·+ anvn, onde aj = det [v1, . . . , vj−1, w, vj+1, . . . , vn] det[A] , para todo j ∈ {1, . . . , n}. 2.4 Regra de Cramer 55 Prova Como β = {v1, v2, . . . , vn} é uma base, um vetor arbitrário w é expresso por w = a1v1 +a2v2 + · · ·+anvn. Calculemos o determinante da matriz obtida por substituição do j0-ésimo vetor coluna de [A] = [v1, v2, . . . , vn] por w, det [v1,
Compartilhar