Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE DA BEIRA INTERIOR Apontamentos Teóricos de Álgebra Linear e Geometria Anaĺıtica Cristina Gama Jorge Gama Ano Lectivo 2001/2002 1 ESTRUTURAS ALGÉBRICAS Os conceitos que se seguem servirão de suporte aos objectivos da disciplina. Esses conceitos são as estruturas de grupo, anel e corpo. No final do caṕıtulo faremos um estudo mais aprofundado do corpo dos números complexos. Definição 1.1 Seja A um conjunto não vazio. Chama-se operação binária ou lei de composição interna no conjunto A a qualquer aplicação definida do conjunto A×A (produto cartesiano de A por A) em A, isto é, se representarmos por θ essa aplicação, então θ : A× A → A (a, b) 7→ θ(a, b) No caso das operações binárias é usual escrever-se aθb no lugar de θ(a, b). Passaremos a usar essa notação. Exemplos: 1. No conjunto N, a adição e a multiplicação usuais são operações binárias. 2. No conjunto Z a adição e a multiplicação usuais são operações binárias. 3. Em Q ou R a adição e a multiplicação usuais são operações binárias. 4. A subtracção é uma operação binária em N? E em Z? 5. A divisão é uma operação binária em N, Z, Q, ou R? E em Q \ {0} ou R \ {0}? 6. Se em N0 definirmos ∗ : N0×N0 → N0 tal que a∗ b = a+ b+1, ∗ é uma operação binária. Definição 1.2 Seja A um conjunto, não vazio, e θ uma operação binária definida em A. Diz-se que (A, θ) é um grupo quando se verificam os seguintes axiomas: G1. ∀a, b, c ∈ A, (aθb)θc = aθ(bθc) (Associatividade) G2. ∃u ∈ A : ∀a ∈ A, aθu = uθa = a (Existência de elemento neutro) G3. ∀a ∈ A,∃a′ ∈ A : aθa′ = a′θa = u (Existência de elemento oposto) No caso em que a operação é também comutativa, isto é, G4. ∀a, b ∈ A, aθb = bθa o grupo (A, θ) diz-se comutativo ou abeliano. Observações: 1 1. É usual designarem-se as operações binárias por adição ou multiplicação, representadas respectivamente por + e · (não é necessário que tenham alguma coisa a ver com a adição e multiplicação usuais). 2. No contexto da observação anterior, o elemento neutro designa-se por zero (0), se a operação é uma adição, e designa-se por identidade (1), se a operação é uma multi- plicação. Analogamente, se a operação é uma adição, o oposto de um elemento a chama-se simétrico (representa-se por −a), se a operação é uma multiplicação, o oposto chama-se inverso (representa-se por a−1). Exerćıcio: Seja A um conjunto e θ uma operação binária definida em A. Em (A, θ), com θ associativa, mostre que a) quando existe elemento neutro, ele é único. b) quando um elemento tem oposto, este é único. Exemplos de Grupos: (Z, +), (Q, +), (R, +), (R \ {0}, ·), (F , ◦), com F o conjunto de todas as funções bijectivas de um conjunto nele próprio (em particular, o conjunto S3 das permutações de {1, 2, 3} com a composição), etc. Observação: No caso (S3, ◦), os elementos de S3 são I = ( 1 2 3 1 2 3 ) T1 = ( 1 2 3 1 3 2 ) T2 = ( 1 2 3 2 1 3 ) T3 = ( 1 2 3 2 3 1 ) T4 = ( 1 2 3 3 1 2 ) T5 = ( 1 2 3 3 2 1 ) e, por exemplo, T1 ◦ T2 = ( 1 2 3 1 3 2 ) ◦ ( 1 2 3 2 1 3 ) = T4. Outro exemplo: (Z2, +), onde Z2 = {0, 1} e + está definida por + 0 1 0 0 1 1 1 0 Definição 1.3 Seja (A, θ) um grupo e B um subconjunto não vazio de A. Diz-se que (B, θ) é um subgrupo de (A, θ) se (B, θ) é um grupo em relação à operação binária definida em A. Exerćıcio: Nos exemplos anteriores, verifique quais os grupos que são subgrupos de algum dos outros grupos. 2 Homomorfismos de Grupos Definição 1.4 Sejam (A, θ) e (A′, σ) dois grupos. Uma aplicação f : A → A′ diz-se um homomorfismo se ∀a, b ∈ A, f(aθb) = f(a)σf(b). Observações: Se f : A → A′ é um homomorfismo, então i) f(u) = u′ (u elemento neutro de (A, θ) e u′ elemento neutro de (A′, σ)) ii) (f(a))−1 = f(a−1). Exemplos: 1. Seja f : R+ → R x 7→ ln(x). f é um homomorfismo do grupo (R+, ·), no grupo (R, +), já que ln(x · y) = ln(x) + ln(y). 2. A aplicação g : R → R+ x 7→ ex é um homomorfismo de (R, +) no grupo (R+, ·), já que ex+y = ex · ey. Definição 1.5 Um terno (A, +, ·), com A um conjunto, não vazio, e + e · operações binárias definidas em A, é um anel se: A1. (A, +) é um grupo abeliano; A2. A operação · é associativa; A3. A operação · é distributiva relativamente à operação +, isto é, ∀a, b, c ∈ A, a · (b + c) = (a · b) + (a · c) ∧ (a + b) · c = (a · c) + (b · c). O elemento neutro da primeira operação chama-se zero do anel. Se a segunda operação for comutativa, então o anel diz-se comutativo. Caso o anel A tenha elemento unidade, isto é, se (A, ·) tiver elemento neutro, A diz-se anel com elemento unidade ou anel unitário. Exemplos de Anéis: 1. (Z, +, ·) é um anel comutativo unitário. 2. O conjunto R2 = {(a, b) : a, b ∈ R} com as operações definidas por (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac, bd) é um anel. 3 Definição 1.6 Um terno (K, +, ·) diz-se um corpo se (K, +, ·) é uma anel comutativo com identidade e todos os elementos de K \{0} têm inverso, isto é, (K, +, ·) é um corpo se (K, +) e (K \ {0}, ·) são grupos comutativos e · é distributiva relativamente a +. Exemplos de Corpos: (Q, +, ·), (R, +, ·), com + e · as operações usuais, e (Z2, +, ·), com + 0 1 0 0 1 1 1 0 · 0 1 0 0 0 1 0 1 Propriedades 1.7 Num corpo são válidas as seguintes proposições: 1. a · 0 = 0 · a = 0 (0 é elemento absorvente da multiplicação) 2. a · b = 0 ⇔ a = 0 ∨ b = 0 (lei do anulamento do produto) Definição 1.8 Sejam (K, +, ·) e (K ′, θ, ∗) dois corpos. A aplicação f : K → K ′ diz-se um homomorfismo de corpos se, para todos x, y ∈ K, f(x + y) = f(x)θf(y) e f(x · y) = f(x) ∗ f(y). Se f é bijectiva, f diz-se um isomorfismo. Se K = K ′, f diz-se um endomorfismo. E um endomorfismo bijectivo diz-se um automorfismo. Depois de definirmos todas estas estruturas, podemos estudar mais profundamente um corpo muito importante: Corpo dos Complexos, isto é, C = {(a, b) : a, b ∈ R} munido com as operações: (a, b) + (c, d) = (a + c, b + d) (a, b) · (c, d) = (ac− bd, ad + bc) Exerćıcio: Mostre que (C, +, ·) é um corpo. Observações: 1. Não é dif́ıcil verificar que (0, 0) é o zero de C e (1, 0) é a unidade de C. 2. Seja S = {(a, 0) : a ∈ R}, subconjunto de C. (S, +, ·) é um corpo para as operações definidas em C. Dado que a aplicação f : (R, +, ·) → (S, +, ·) a 7→ (a, 0) é um isomorfismo de corpos, podemos simplificar a escrita identificando os complexos (a, 0) com o correspondente número real a. 4 Da definição dada para a multiplicação em C, resulta (0, 1)2 = (0, 1) · (0, 1) = (0− 1, 0 + 0) = (−1, 0). Deste modo, o número complexo (0, 1) é solução da equação x2 = −1. O complexo (0, 1) denomina-se unidade imaginária e representa-se pelo śımbolo i. Atendendo-se à identificação de (a, 0) com a e (0, 1) com i, é consequência das operações definidas em C a seguinte representação: ∀(a, b) ∈ C : (a, b) = (a, 0) + (0, b) = a + (0, 1) · (b, 0) = a + ib, em que a será chamado parte real do complexo e b parte imaginária do complexo. Em śımbolos, se z = a + bi, a = Re(z) e b = Im(z). Os números complexos da forma ib, com b 6= 0, chamam-se imaginários puros. Observe-se que i2 = −1, i3 = −i, i4 = 1, i5 = i, . . . , (a + bi) + (c + di) = (a + c) + (b + d)i, (a + bi) · (c + di) = (ac− bd) + (ad + bc)i. Definição 1.9 Seja z = a+bi um número complexo. Chama-se conjugado de z ao número complexo z = a− bi. Chama-se módulo de z ao número real |z| = √ z · z = √ a2 + b2. Propriedades 1.10 Para todo z, w ∈ C, 1. Re(z) = z + z 2 , 2. Im(z) = z − z 2i , 3. z + w = z + w, 4. z · w = z · w, 5. |z| = |z|, 6. z−1 = z |z|2 = a a2 + b2 − i b a2 + b2 , com z 6= 0, 7. ( z w ) = z w Exerćıcio: Calcule: a) (1− i)(3− 2i)− (2− i)(3 + 4i); b) (2− i)2 − 2 1 + 3i . 5 Representação Trigonométrica dos Números Complexos Já sabemos que dada uma recta orientada, existe uma correspondênciabiuńıvoca entre cada ponto da recta e o conjunto dos números reais, R. Assim, como identificamos o número complexo (a, 0) com o número real a, os complexos da forma a + i0 serão representados na recta. Como representar, por exemplo, os imaginários puros? Repare-se que uma rotação de 180o em torno da origem corresponde a uma multiplicação por −1. Ora, uma rotação de 90o deverá corresponder a multiplicar por k de modo que k2 = −1. Logo, k terá que ser a unidade imaginária i. Convencionaremos que o sentido positivo das rotações é o sentido contrário ao dos ponteiros do relógio. Portanto, passaremos a representar os números reais num eixo horizontal (eixo real) e os imaginários puros num eixo vertical (eixo imaginário). Assim, um ponto P do plano de abcissa a e ordenada b será a imagem do complexo z = a+bi. - 6 � � � � � � � �� r O P a b ρ θ Plano de Argand Sabemos que o comprimento OP é o número real |z| = √ a2 + b2 (Teorema de Pitágoras). Representemos este número por ρ. Repare-se que o ponto P fica bem definido se consider- armos ρ e o ângulo θ que o segmento [OP ] faz com a parte positiva do eixo real. Chama-se argumento principal ao ângulo θ ∈]− π, π]. Assim, a imagem do complexo z fica bem definida se conhecermos ρ := |z| e θ := arg(z). Observe-se que se fizermos θ = arg(z) + 2kπ, k ∈ Z, obtemos sempre a mesma imagem. Portanto, a cada complexo podemos associar uma infinidade de argumentos. Além do principal, o argumento positivo mı́nimo de z = a + bi é tal que θ ∈ [0, 2π[ e tg θ = b a . Observe a figura anterior para concluir que para todo o complexo z = a + bi,{ a = ρ cos θ b = ρ sen θ Assim, a forma trigonométrica de z é z = ρ(cos(θ) + i sen(θ)). Abreviadamente, z = ρ cis(θ). Se z ∈ C é tal que z = a + bi = ρ cis(θ), então z = a− bi = ρ cis(−θ). 6 - 6 � � � � � � �� r Z Z Z Z Z Z ZZr O z z ρ θ −θ Exerćıcio: Escreva na forma trigonométrica: a) −3i; b) −1− i; c) 1− i √ 3; d) 2 + 3i. Operações com Complexos na Forma Trigonométrica Adição: Usa-se a regra do paralelogramo - 6 � � � � � � � � �� r O z1 + z2 = z � �� � �� � r z1 � � � � � �� rz2 �� �� �� �� �� �� �� �� z = ρ cis(θ) = z1+z2 = ρ1 cis(θ1)+ρ2 cis(θ2) = ρ1 cos(θ1)+ρ2 cos(θ2)+i(ρ1 sen(θ1)+ρ2 sen(θ2)) e |z|2 = ρ2 = (ρ1 cos(θ1)+ρ2 cos(θ2))2 +(ρ1 sen(θ1)+ρ2 sen(θ2))2 = ρ21 +ρ22 +2ρ1ρ2 cos(θ1−θ2). Multiplicação: Se z1 = ρ1 cis(θ1) e z2 = ρ2 cis(θ2), então z1 · z2 = (ρ1 cis(θ1))(ρ2 cis(θ2)) = ρ1ρ2 cis(θ1 + θ2). 7 ∴ |z1 · z2| = |z1| · |z2| e arg(z1 · z2) = arg(z1) + arg(z2). Divisão: Se z2 6= 0, então 1 z2 = 1 ρ2 cis(−θ2). Logo, z1 z2 = ρ1 ρ2 cis(θ1 − θ2). ∴ ∣∣∣∣z1z2 ∣∣∣∣ = |z1||z2| e arg ( z1 z2 ) = arg(z1)− arg(z2). Potenciação: Se z = ρ cis(θ) e n ∈ Z, então zn = ρn cis(nθ) (Fórmula de De Moivre). ∴ |zn| = |z|n e arg (zn) = n arg(z). Radiciação: Seja z = ρ cis(θ) e n ∈ N. Se w = ρ1 cis(θ1) é uma raiz de ı́ndice n de z, então wn = z. Logo, (ρ1 cis(θ1)) n = ρ cis(θ) ⇔ ρn1 cis(nθ1) = ρ cis(θ) ⇔ ρn1 = ρ cos(nθ1) = cos(θ) sen(nθ1) = sen(θ) ⇔ { ρ1 = n √ ρ nθ1 = θ + 2kπ, com k ∈ Z, isto é, ρ1 = n √ ρ ∧ θ1 = θ + 2kπ n , k ∈ Z. Assim, e atendendo-se às repetições, w = n √ ρ cis ( θ + 2kπ n ) , com k = 0, 1, . . . , n− 1. As ráızes de ı́ndice n de um complexo z têm imagens que formam os vértices de um poĺıgono regular de n lados: - 6 r r r H HH H HH H ��� ���� - 6 r r r r @ @ @� � � @ @ @� � � No caso do expoente racional, isto é, do tipo p q , com p, q ∈ N, tem-se, por definição, para z = ρ cis(θ), zp/q = ( z1/q )p = [ ρ1/q cis ( θ + 2kπ q )]p = ρp/q cis ( p q (θ + 2kπ) ) . 8 Observe-se que 8 12 = 2 3 e assim z8/12 = z2/3, tem 3 ráızes distintas, enquanto 12 √ z8 tem 12 ráızes distintas. Em C, (zp)1/q pode ser diferente de ( z1/q )p . Exerćıcios: 1. Utilize a forma trigonométrica para calcular: a) i55 − √ 3 (1− i)6 ; b) i66( √ 3− i)4 (1 + i √ 3)8 . 2. Resolva, em C, a equação z3 − (1 + i)z2 + iz = 0. Lugares Geométricos - Circunferência de centro z0 e raio r ≥ 0. Por definição, uma circunferência de centro z0 e raio r é o conjunto dos pontos z tais que |z − z0| = r ou, equivalentemente, (z − z0) (z − z0) = r2 ⇔ zz − zz0 − z0z + |z0|2 = r2. Se |z0|2 = r2, a circunferência passa pela origem. Se |z0|2 6= r2, a circunferência não passa pela origem. - Equação da recta. A equação geral de uma recta em R2 é da forma Ax + By + C = 0. Tomando-se z0 = A + iB e z = x + iy, obtém-se que Re(z0)Re(z) + Im(z0)Im(z) + C = 0 ⇔ ⇔ z0 + z0 2 · z + z 2 + z0 − z0 2i · z − z 2i + C = 0 ⇔ (z0 + z0) (z + z)− (z0 − z0) (z − z) + 4C = 0 ⇔ 2z0z + 2z0z + 4C = 0 ⇔ z0z + z0z + R = 0 (Equação Geral da Recta) Se R = 0, a recta passa pela origem. Se R 6= 0, a recta não passa pela origem. 9 2 MATRIZES. RESOLUÇÃO DE SISTEMAS. INVERSÃO DE MATRIZES. Definição 2.1 Sejam m,n ∈ N e K um corpo. Chama-se matriz do tipo m × n (ou de ordem (m, n)) sobre o corpo K, ou simplesmente, matriz do tipo m × n, a uma função A definida no conjunto {(i, j) ∈ N× N : 1 ≤ i ≤ m, 1 ≤ j ≤ n} e com valores em K. As componentes ou elementos ou entradas da matriz A designam-se por aij = A(i, j). É usual usar-se um quadro rectangular para dispor os elementos de K. a11 a12 · · · a1n a21 a22 · · · a2n ... · · · · · · · · · am1 am2 · · · amn ou a11 a12 · · · a1n a21 a22 · · · a2n ... · · · · · · · · · am1 am2 · · · amn Abreviadamente, uma matriz representa-se por [aij](m,n) (1 ≤ i ≤ m, 1 ≤ j ≤ n) ou, apenas, por A. Duas matrizes A = [aij] e B = [bij] dizem-se iguais se, e somente se, são do mesmo tipo e aij = bij, para todos os valores de i e j. Designa-se por MK(m, n) o conjunto de todas as matrizes sobre o corpo K e de ordem (m, n) (m linhas, n colunas). Se K = R, a matriz diz-se real. Se K = C, a matriz diz-se complexa. Matrizes Especiais Seja A = [aij] ∈ MK(m, n). 1. Se n = 1, a matriz A diz-se matriz coluna. a11 a21 ... am1 2. Se m = 1, a matriz A diz-se matriz linha. [ a11 a12 · · · a1n ] 10 3. Se m = n, a matriz A diz-se quadrada de ordem n. a11 a12 · · · a1n a21 a22 · · · a2n ... · · · · · · · · · an1 an2 · · · ann Numa matriz quadrada, os elementos a11, a22, . . . , ann dizem-se elementos principais ou diagonais e formam a primeira diagonal ou diagonal principal. Os elementos a1n, a2,n−1, . . . , an1 formam a segunda diagonal ou diagonal secundária. � � � �� � Diagonal Principal Diagonal Secundária 3.1 Uma matriz quadrada A diz-se triangular superior se aij = 0, para i > j. Exemplo: −2 1 30 4 −1 0 0 −5 3.2 Uma matriz quadrada A diz-se triangular inferior se aij = 0, para i < j. Exemplo: 2 0 0−1 3 0 7 4 −2 3.3 Uma matriz quadrada A diz-se diagonal se aij = 0, para i 6= j. Exemplo: −1 0 0 0 0 3 0 0 0 0 5 0 0 0 0 −1 3.4 Uma matriz quadrada A diz-se escalar se é diagonal e aii = a 6= 0, para todo o i. Exemplo: 3 0 0 0 0 3 0 0 0 0 3 0 0 0 0 3 Utilizando-se o śımbolo de Kronecker, δij, definido por δij = { 0, se i 6= j, 1, se i = j, uma matriz escalar pode representar-se apenas por [aδij]. 11 Exemplo: 3 0 0 0 0 3 0 0 0 0 3 0 0 0 0 3 = [3δij] A matriz identidade é a matriz escalar [δij]. Designa-se, em geral, por In. I1 = [1] I2 = [ 1 0 0 1 ] I3 = 1 0 00 1 0 0 0 1 I4 = 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 . . . 4. Uma matriz formada por r linhas (r ≤ m) e s colunas (s ≤ n) de uma matriz A diz-se uma submatriz de A do tipo r × s. Exemplo: A matriz [ 2 0 −1 4 ] é submatriz de 2 0 4 1−1 4 −3 0 5 −6 8 1/2 . 5. A matriz A diz-se matriz nula se todos os elementos são nulos (aij = 0, para todos os valores de i e j). Designa-se a matriz nula por 0m×n, ou simplesmente por 0, se não houver ambiguidade quanto ao seu tipo. Exemplo: 0 0 00 0 0 0 0 0 6. A matriz oposta da matriz A = [aij](m,n) é uma matriz do mesmo tipo definida por −A = [−aij] . Exemplo:A = −1 23 5 1/2 − √ 2 − A = 1 −2−3 −5 −1/2 √ 2 7. Denomina-se matriz transposta de A a matriz AT que se obtém de A trocando orde- nadamente as linhas por colunas e as colunas por linhas. Se A é do tipo m× n, AT é do tipo n×m. Exemplo: A = [ 2 −5 7 −3 2 1 ] AT = 2 −3−5 2 7 1 Propriedade 2.2 ( AT )T = A. 12 8. A matriz A diz-se simétrica se é igual à sua transposta, isto é, A = AT . Logo, os seus elementos verificam a relação aij = aji, para todos os valores de i e j. Desta forma, uma matriz simétrica é necessariamente quadrada e os elementos colocados simetricamente em relação à diagonal principal são iguais. Exemplo: 3 4 −14 −2 7 −1 7 −5 9. A matriz A diz-se anti-simétrica ou hemi-simétrica se AT = −A ou A = −AT . Os elementos verificam a relação aij = −aji. Assim, para i = j, tem-se aii = −aii ⇔ aii = 0. Desta forma, uma matriz anti-simétrica é uma matriz quadrada cujos elementos principais são nulos e os elementos colocados simetricamente em relação à diagonal principal são simétricos. Exemplo: 0 2 −7−2 0 5 7 −5 0 10. Se a matriz A é complexa, chama-se matriz conjugada de A à matriz A que se obtém substituindo cada elemento de A pelo seu conjugado. Exemplo: A = [ 5 3 + 2i 2 −i 7i 9− i ] A = [ 5 3− 2i 2 i −7i 9 + i ] Propriedades 2.3 1. Se A = A, então A é uma matriz real. 2. A = A. 11. Denomina-se matriz associada de A (complexa) a matriz A∗ que é igual à transposta da conjugada de A, ou, o que é o mesmo, à conjugada da transposta de A, isto é, A∗ = A T = (AT ). Exemplo: A = [ 5 3 + 2i 2 −i 7i 9 + i ] A∗ = 5 i3− 2i −7i 2 9− i 13 Propriedades 2.4 1. (A∗)T = A. 2. (A∗) = AT . 3. (A∗)∗ = A. 12. Uma matriz A diz-se hermı́tica ou hermitiana se é igual à sua associada, isto é, se A = A∗. Logo, os seus elementos verificam a relação aij = aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = aii = a ∈ R, isto é, aii é um número real. Exemplo: 5 5 + 2i 3i 0 5− 2i −1 9 2− i −3i 9 7 7 + 2i 0 2 + i 7− 2i −4 13. Uma matriz A diz-se hemi-hermı́tica ou hemi-hermitiana se satisfaz a relação A = −A∗. Logo, os seus elementos verificam a relação aij = −aji e é uma matriz quadrada. Em particular, para i = j, tem-se aii = −aii, isto é, Re(aii) = 0. Exemplo: 5i 5 5− i 3− 2i −5 −2i 2 + i 9i −5− i −2 + i 7i 9 −3− 2i 9i −9 −i Operações com Matrizes 1. Adição: Sejam A = [aij], B = [bij] ∈ MK(m, n). Define-se adição de A com B como sendo a matriz S = A + B ∈ MK(m, n) cujos elementos são obtidos pela relação sij = aij + bij. Exemplo: [ 2 6 0 −1 4 7 ] + [ 1 0 4 −4 1 −3 ] = [ 3 6 4 −5 5 4 ] Propriedades 2.5 (Adição de Matrizes) a) A adição de matrizes é comutativa, isto é, ∀A, B ∈ MK(m, n), A + B = B + A. 14 b) A adição de matrizes é associativa, isto é, ∀A, B, C ∈ MK(m, n), (A + B) + C = A + (B + C). c) A adição de matrizes tem elemento neutro, a matriz nula 0 · · · 0... · · · ... 0 · · · 0 (m,n) d) Todas as matrizes em MK(m, n) têm oposto. O elemento oposto de A ∈ MK(m, n) é a matriz −A ∈ MK(m,n). ∴ (MK(m, n), +) é um grupo abeliano. e) Sejam A1, A2, . . . , Ap ∈ MK(m,n). Então (A1 + A2 + · · ·+ Ap)T = AT1 + AT2 + · · ·+ ATp . f) Se A ∈ MC(n, n), então A + A∗ é hermı́tica e A− A∗ é hemi-hermı́tica. g) Se A ∈ MK(n, n), então A + AT é simétrica e A− AT é anti-simétrica. 2. Multiplicação de uma Matriz por um Escalar: Sejam A = [aij] ∈ MK(m,n) e λ ∈ K. É usual denominar qualquer elemento de um corpo por escalar. Define-se produto do escalar λ pela matriz A como sendo a matriz λA = [λaij]. Exemplo: Se A = [ 2 5 7 1 0 −2 ] e λ = 2, então λA = [ 4 10 14 2 0 −4 ] . Propriedades 2.6 Sejam A, B ∈ MK(m, n) e α, β ∈ K. i) 1 · A = A; ii) α(βA) = (αβ)A = β(αA); iii) (α + β)A = αA + βA; iv) α(A + B) = αA + αB; v) Se K = C e m = n, uma matriz A pode exprimir-se como soma de uma matriz hermı́tica e uma hemi-hermı́tica, ou de uma matriz simétrica e outra anti-simétrica. 3. Multiplicação de Matrizes: Sejam A = [aik] ∈ MK(m, p) e B = [blj] ∈ MK(p, n). As matrizes A e B dizem- -se encadeadas porque o número de colunas de A é igual ao número de linhas de B. Define-se multiplicação da matriz A pela matriz B como sendo uma matriz C do tipo m× n, cujos elementos cij satisfazem a igualdade cij = p∑ k=1 aikbkj, 15 com i = 1, . . . ,m e j = 1, . . . , n. Exemplo: A = [ 2 −1 0 3 ] B = [ 3 −1 0 1 2 −4 ] AB = [ 5 −4 4 3 6 −12 ] Observe que não é posśıvel a multiplicação BA. Desta forma, a multiplicação não é comutativa. Mesmo que A seja do tipo m× n e B do tipo n×m, AB é diferente de BA, para m 6= n, dado as matrizes AB e BA não serem da mesma ordem. Observe o seguinte exemplo: [ 0 1 2 3 3 2 1 0 ] 0 3 1 2 2 1 3 0 = [ 14 44 14 ] 0 3 1 2 2 1 3 0 [ 0 1 2 33 2 1 0 ] = 9 6 3 0 6 5 4 3 3 4 5 6 0 3 6 9 No caso particular m = n, se AB = BA, então as matrizes A e B dizem-se permutáveis. Exemplo: [ 2 0 0 2 ] [ 3 0 0 3 ] = [ 6 0 0 6 ] = [ 3 0 0 3 ] [ 2 0 0 2 ] As matrizes [ 2 0 0 2 ] e [ 3 0 0 3 ] são permutáveis. Propriedades 2.7 i) Se A, B e C são matrizes do tipo m× p, p× q e q × n, respectivamente, então (A ·B) · C = A · (B · C) (Associatividade). ii) Se A, B e C são matrizes do tipo m× p, p× n e p× n, respectivamente, então A · (B + C) = A ·B + A · C (Distributividade à Esquerda). Se D, E e F são matrizes do tipo m× p, m× p e p× n, respectivamente, então (D + E) · F = D · F + E · F (Distributividade à Direita). iii) O conjunto MK(n, n), das matrizes quadradas de ordem n com elementos no corpo K, munido com as operações adição e multiplicação de matrizes é um anel não comutativo com elemento unidade (matriz identidade de ordem n). 16 Observações: 1. Um produto AB pode ser a matriz nula sem que A ou B sejam a matriz nula. Por exemplo: 1 2 01 1 0 1 4 0 0 0 00 0 0 1 4 9 = 0 0 00 0 0 0 0 0 . 2. A igualdade AB = AC não implica necessariamente B = C. Por exemplo: AB = 1 2 01 1 0 −1 4 0 1 2 31 1 −1 2 2 2 = 3 4 12 3 2 3 2 −7 AC = 1 2 01 1 0 −1 4 0 1 2 31 1 −1 1 1 1 = 3 4 12 3 2 3 2 −7 iv) Se as matrizes A e B são do tipo m× p e p× n, respectivamente, então 1. (AB)T = BT AT ; 2. AB = A ·B; 3. (AB)∗ = B∗A∗. No caso das matrizes quadradas, An, para todo n ∈ N, existe, já que A é encadeada com A, A2, A3, . . .. Ainda no caso das matrizes quadradas de ordem n, se AB = BA = In, B é a matriz inversa de A em MK(n, n), isto é, B = A −1 e A = B−1. Neste caso, as matrizes A e B dizem-se regulares ou invert́ıveis. Se A ∈ MK(n, n) não é regular, diz-se singular. Operações Elementares com as Filas de uma Matriz. Condensação Definição 2.8 Numa matriz, duas filas paralelas dizem-se dependentes se são iguais ou se uma é igual ao produto da outra por um escalar. Ainda, se uma fila é igual à soma de outras filas paralelas ou à soma dos produtos de outras filas paralelas por escalares, diremos que essas filas paralelas são dependentes. Caso contrário, as filas dizem-se independentes. Definição 2.9 Chama-se caracteŕıstica de uma matriz A à ordem máxima da submatriz de A constitúıda pelas filas independentes. Para se encontrar a caracteŕıstica de uma matriz é necessário ter em conta o seguinte: 1. Teorema 2.10 A dependência ou independência das linhas ou colunas de uma matriz não é alterada por alguma das seguintes operações ditas elementares: O1 Troca entre si de duas filas paralelas. 17 O2 Multiplicação dos elementos de uma fila por um escalar de K \ {0}. O3 Adição, aos elementos de uma fila, dos produtos dos elementos correspondentes de uma fila paralela por um mesmo escalar de K. 2. Uma matriz que tenha uma submatriz triangular (ou diagonal), com elementos principais não nulos, e as restantes filas com elementos todos nulos tem caracteŕıstica igual ao número de filas dessasubmatriz. Utilizando-se 1. e 2., podemos determinar a caracteŕıstica de uma matriz. Efectua-se, assim, a condensação da matriz. Exerćıcio: Determine a caracteŕıstica da matriz A = 0 −3 2 1−2 2 2 0 1 2 −4 3 . Em geral, dada uma matriz A = a11 a12 · · · a1n a21 a22 · · · a2n · · · · · · · · · · · · am1 am2 · · · amn , podemos, por condensação, obter b11 b12 · · · b1r · · · b1n 0 b22 · · · b2r · · · b2n · · · · · · · · · · · · · · · · · · 0 · · · 0 brr · · · brn · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0 ou c11 0 · · · 0 · · · 0 c21 c22 · · · 0 · · · 0 · · · · · · · · · · · · · · · · · · cr1 · · · · · · crr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0 ou d11 0 · · · · · · · · · 0 0 d22 0 · · · · · · 0 · · · · · · · · · · · · · · · · · · 0 · · · 0 drr · · · 0 · · · · · · · · · · · · · · · · · · 0 0 · · · · · · · · · 0 . 18 Qualquer destas matrizes tem r filas independentes e quaisquer r + 1 filas passam a ser dependentes. Logo, Car A = r. Aplicação à Resolução de Sistemas de Equações Lineares Considere-se um sistema de m equações com n incógnitas: a11x1 + a12x2 + · · ·+ a1nxn = b1 · · · · · · · · · · · · · · · · · · am1x1 + am2x2 + · · ·+ amnxn = bm Observe-se que fazendo A = a11 a12 · · · a1n a21 a22 · · · a2n ... · · · · · · · · · am1 am2 · · · amn (Matriz dos Coeficientes), B = b1 b2 ... bm (Matriz dos Termos Independentes) e X = x1 x2 ... xn , o sistema de equações é equivalente à equação matricial AX = B. Sabemos que as operações elementares transformam o sistema dado num sistema equiva- lente. Assim, podemos encontrar a(s) solução(ões), caso exista(m), aplicando o método de condensação à matriz ampliada ou completa: [A|B] = a11 · · · a1n | b1... · · · ... | ... am1 · · · amn | bm . Atenção: A troca de duas colunas em A correspondem a uma troca de incógnitas. Condensando [A|B], ou melhor, condensando A, até determinar a sua caracteŕıstica r, temos: 1o Caso: m = n = r α11 α12 · · · α1n | β1 0 α22 · · · α2n | β2 · · · . . . . . . · · · | ... 0 · · · 0 αnn | βn 19 ou, até à forma diagonal, γ11 0 · · · 0 | δ1 0 γ22 · · · 0 | δ2 · · · · · · . . . · · · | ... 0 · · · 0 γnn | δn e ainda 1 0 · · · 0 | δ1 γ11 0 1 · · · 0 | δ2 γ22 · · · · · · . . . · · · | ... 0 · · · 0 1 | δn γnn isto é, x1 = δ1 γ11 x2 = δ2 γ22 ... xn = δn γnn , que é a solução do sistema inicial. Diz-se então que é um sistema posśıvel e determinado. 2o Caso: m = r < n Neste caso temos, α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · . . . . . . · · · | · · · · · · | ... 0 · · · 0 αrr | · · · αrn | βr → γ11 0 · · · 0 | · · · γ1n | δ1 0 γ22 · · · 0 | · · · γ2n | δ2 · · · . . . . . . · · · | · · · · · · | ... 0 · · · 0 γrr | · · · γrn | δr → → 1 0 · · · 0 | · · · γ1n γ11 | δ1 γ11 0 1 · · · 0 | · · · γ2n γ22 | δ2 γ22 · · · · · · . . . · · · | · · · · · · | ... 0 · · · 0 1 | · · · γrn γrr | δr γrr , isto é, x1 = δ1 γ11 − ∑n j=r+1 γ1j γ11 xj ... xr = δr γrr − ∑n j=r+1 γrj γrr xj As r incógnitas, ditas principais, dependem das restantes n− r incógnitas não princi- pais. Assim, o sistema diz-se posśıvel indeterminado, sendo n − r o grau de indeter- minação. 20 3o Caso: Se r < m, temos que α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · . . . . . . · · · | · · · · · · | ... 0 · · · 0 αrr | · · · αrn | βr −− −− −− −− | −− −− | −− 0 · · · · · · 0 | 0 · · · · · · 0 | βr+1 · · · · · · · · · · · · | · · · · · · | ... 0 · · · · · · 0 | 0 · · · · · · 0 | βm e duas possibilidades: 1. βr+1 = · · · = βm = 0; 2. βr+1, . . . , βm não todos nulos. 1. Se as últimas m− r linhas somente têm elementos nulos, as equações transformam-se em 0 = 0. Logo, fica α11 α12 · · · α1r | · · · α1n | β1 0 α22 · · · α2r | · · · α2n | β2 · · · . . . . . . · · · | · · · · · · | ... 0 · · · 0 αrr | · · · αrn | βr e tal como antes, sistema posśıvel { determinado, se r = n, indeterminado, se r < n, com grau de indeterminação n− r. 2. Se nas últimas equações algum βj 6= 0, obtemos 0x1 + 0x2 + · · · + 0xn = βj. Logo, o sistema é imposśıvel. Neste caso, a caracteŕıstica de [A|B] é maior que r, isto é, maior do que a caracteŕıstica de A. Em Resumo: Sistema Posśıvel: Car A = Car[A|B] Sistema Posśıvel Determinado, se Car A = n, Indeterminado, se Car A < n, com grau de indeterminação n− Car A. Sistema Imposśıvel: Car A < Car[A|B] Exerćıcios: 1. Resolva e classifique o seguinte sistema: 2x− y − z = 1 x + y − z = 2 −x + 2y + 2z = 4 21 2. Considere o sistema de equações lineares sobre R, nas incógnitas x, y, z e t: x = a− b 5ax− 2by + az + t = 1 −bz = 1 −3ax + 2by − az + (b− a)t = 2a− 1 Utilizando o método de condensação, discuta o sistema em função dos parâmetros a e b. Cálculo da Matriz Inversa de uma Matriz Regular Seja A uma matriz quadrada de ordem n. Sabemos que A é regular (isto é, invert́ıvel) se existe uma matriz quadrada, com a mesma ordem, B tal que AB = BA = I. Vamos determinar a matriz B tal que AB = I e em seguida mostraremos que essa matriz B também é inversa à esquerda, isto é, BA = I. Representemos B por X, e Xj e Ij, respectivamente, as j-ésimas colunas de X e I. Assim, a equação matricial AX = I é equivalente a n sistemas de equações lineares: { AXj = Ij j = 1, . . . , n Pelo que vimos anteriormente, tais sistemas têm solução única se, e somente se, Car A = n. Cada um dos sistemas é resolvido passando da matriz ampliada [A|Ij] para a matriz [I|Xj]. Isto é equivalente à passagem de [A|I] para [I|X] efectuando as operações elementares nos n sistemas. Exerćıcio: Determine a inversa à direita da matriz A = 2 0 2−1 1 −3 0 2 1 . Mostremos agora que a existência de uma inversa à direita garante a existência de inversa à esquerda e que elas são iguais. Sabemos que se A tem inversa X à direita se, e somente se, Car A = n (ordem de A). Desta forma, AT também tem inversa à direita, digamos Y, isto é, AT Y = I. Logo, ( AT Y )T = IT ⇔ Y T A = I, isto é, a matriz A tem inversa à esquerda. 22 Agora basta mostrar que Y T = X. Ora, Y T A = I implica Y T AX = IX ⇔ Y T (AX) = X ⇔ Y T I = X ⇔ Y T = X. Portanto, conclúımos que a inversa à esquerda é igual à inversa à direita. Chamar-lhe- -emos apenas inversa de A e representa-se por A−1. Sistemas Homogéneos Seja A ∈ MK(m, n). Se no sistema AX = B, a matriz B é a matriz nula (B = 0), estamos perante um sistema de equações lineares homogéneo (AX = 0) onde todas as equações são homogéneas de grau 1. É evidente que todo o sistema homogéneo é um sistema posśıvel: admite sempre a solução nula (X = 0), pelo menos! Assim, sendo r a caracteŕıstica de A, se r = n, o sistema é posśıvel e determinado, tendo somente a solução nula, X = 0. se r < n, o sistema é posśıvel indeterminado, admite soluções não nulas. Suponhamos que A é uma matriz quadrada de ordem n. Então temos o seguinte resultado: Teorema 2.11 A é regular se, e somente se, AX = 0 só tem a solução X = 0. Demonstração: Exerćıcio. Propriedades da Inversão de Matrizes 1. Se A é regular, também o é A−1 e (A−1) −1 = A. 2. Um produto de matrizes quadradas é invert́ıvel se, e somente se, cada factor é invert́ıvel e (A1 . . . Ak) −1 = A−1k . . . A −1 1 . 3. Se A é regular, ( Ak )−1 = (A−1) k . 4. Se A é regular, então AT , A e A∗ também são regulares e temos que( AT )−1 = ( A−1 )T ; ( A )−1 = A−1; (A∗)−1 = ( A−1 )∗ . Definição 2.12 Uma matriz quadrada A é dita i) ortogonal se A−1 = AT , isto é, AT A = I = AAT . ii) unitária se A−1 = A∗, isto é, A∗A = I = AA∗. Exemplo: A matriz [ √ 2 2 − √ 2 2√ 2 2 √ 22 ] é ortogonal (e unitária). 23 3 ESPAÇOS VECTORIAIS. APLICAÇÕES LINEARES. Definição 3.1: Seja K um corpo. Diz-se que um conjunto E, não vazio, é um espaço vectorial ou um espaço linear sobre K se nele estão definidas duas leis de composição: a) Uma lei de composição interna, dita adição, a respeito da qual E é um grupo abeliano. b) Uma lei de composição externa, isto é, uma aplicação de EK × ( ,α em E, denominada multiplicação escalar, que associa a todo par ordenado , com )x K∈α e ,Ex∈ um elemento ,Ex∈α satisfazendo as propriedades: i) ( ) yxyx ,Ey,x ,K α+α=+α∈∀∈α∀ (Distributividade da multiplicação escalar relativamente à adição em E). ii) ( ) xxx ,Ex ,K, β+α=β+α∈∀∈βα∀ (Distributividade da multiplicação escalar relativamente à adição em K). iii) ( ) ( )xx ,Ex ,K, βα=αβ∈∀∈βα∀ (Associativadade da multiplicação escalar). iv) x (1 é o elemento unidade de K). x1 ,Ex =⋅∈∀ Os elementos de K denominam-se escalares e os elementos de E vectores. No caso de K ser o corpo IR , dos números reais, diz-se que E é um espaço vectorial real. No caso de K ser o corpo C\ , dos números complexos, diz-se que E é um espaço vectorial complexo. Por vezes, o elemento neutro E0∈ é designado por origem ou zero de E. Exemplos: 1. O conjunto dos vectores livres do espaço ordinário é um espaço vectorial real com as operações usuais: - Adição: A soma , resultado da adição dos vectores vu rr + ur e , é definida pela regra do paralelogramo. vr - Multiplicação escalar: urα é o vector com a direcção de ur , sentido de se ur α é positivo e sentido oposto se α é negativo e cujo comprimento é dado pelo produto do módulo do número real α pelo comprimento de ur . 2. IR é um espaço vectorial real. 3. C\ é um espaço vectorial real. 4. C\ é um espaço vectorial complexo. 5. IR não é um espaço vectorial complexo. 6. Seja K um corpo. Para cada IN , o conjunto K∈n n ( ){ ∈= in21 x:x,,x,x K K , é um espaço vectorial sobre K relativamente às operações (ditas usuais): }n,,2,1i K= - Adição: definida pela relação ( ) ( ) ( )nn2211n21n21 yx,,yx,yxy,,y,yx,,x,x +++=+ KKK ; 24 - Multiplicação escalar: definida por ( ) ( )n21n21 x,,x,xx,,x,x ααα=α KK ; (em que as operações que figuram nos n-uplos dos segundos membros das igualdades anteriores são as operações adição e multiplicação em k). Nota: Dado um corpo K, sempre que seja feita referência ao espaço vectorial K n sobre o corpo K, assumiremos que as operações consideradas são as usuais, a menos que seja dito o contrário. 7. Para cada n IN , o conjunto IR∈ n (respectivamente, C\ n ) é um espaço vectorial real (respectivamente, complexo). 8. Para cada IN , o conjunto C\ ∈n n é um espaço vectorial real. 9. O conjunto de todos os polinómios na variável x, com coeficientes em K, de grau não superior a n ( IN ) é um espaço vectorial sobre K (K = IR ou K = C\ ) com as operações definidas por: ∈n ( ) ( ) ( ) ( ) ( ) ( ) nnn2221100 n n 2 210 n n 2 210 xbaxbaxbaba xbxbxbbxaxaxaa ++++++++= =+++++++++ L LL e ( ) ( ) ( ) ( ) ( nn2210nn2210 xaxaxaaxaxaxaa α++α+α+α=++++α LL ) . 10. O conjunto de todos os polinómios na variável x, com coeficientes em K, é um espaço vectorial sobre K, com as operações definidas de forma análoga às definidas em 9 (ditas usuais). Propriedades dos Espaços Vectoriais: 1. ( ) yxyx ,Ey,x ,K α−α=−α∈∀∈α∀ De facto, tem-se ( ) ( )[ ] xyyxyyx α=+−α=α+−α , atendendo-se à propriedade i) da multiplicação escalar e a ( )+,E ser um grupo. 2. 00 ,K =α∈α∀ É um caso particular de 1. para .yx = 3. ( ) ( )yy ,Ey ,K α−=−α∈∀∈α∀ É um caso particular de 1. para .0x = 4. ( ) xxx,Ex,K, β−α=β−α∈∀∈βα∀ De facto, tem-se ( ) ( )[ ] xxxx α=β+β−α=β+β−α 25 atendendo-se à propriedade ii) da multiplicação escalar e a K ser um corpo. 5. 0x0 ,Ex =∈∀ É um caso particular de 4. para .β=α 6. ( ) ( )xx ,Ex ,K β−=β−∈∀∈β∀ É um caso particular de 4. para .0=α 7. 0x00x ,Ex ,K =∨=α⇔=α∈∀∈α∀ Demonstração: Exercício. Definição 3.2: Seja K um corpo e E um espaço vectorial sobre K. Se S é um subconjunto não vazio de E e se é um espaço vectorial sobre K relativamente às mesmas operações definidas em E, então diz-se que S é um subespaço vectorial de E. Exemplos: 1. IR é um subespaço vectorial real do espaço vectorial real C\ . 2. O espaço vectorial dos polinómios reais de grau não superior a 3 é subespaço vectorial do espaço vectorial dos polinómios de grau não superior a 6, etc.. 3. Qualquer que seja o espaço vectorial E, o conjunto { }0 e E são subespaços vectoriais de E. Teorema 3.3: Um subconjunto S, não vazio, do espaço vectorial E é subespaço vectorial se, e somente se, S é fechado relativamente às leis de composição definidas em E, isto é, S satisfazendo às condições: E⊂ a) , ∅≠S b) , Syx ,Sy,x ∈+∈∀ c) , Sx ,Sx ,K ∈α∈∀∈α∀ é um subespaço vectorial de E. Demonstração: Exercício. Exercício: Considere os seguintes conjuntos ( ){ ∈= z,y,xA IR3 : z }0= e ( ){ ∈= z,y,xB IR3 : }0zyx ≠++ . Averigúe se são ou não subespaços vectoriais de IR3. Teorema 3.4: Seja E um espaço vectorial definido sobre um corpo K e seja { } um conjunto de subespaços vectoriais de E. Então Ii:Si ∈ I Ii iSS ∈ = 26 é também um subespaço vectorial de E. Demonstração: Exercício. Seja E um espaço vectorial sobre um corpo K e Ex,,x,x n21 ∈K . Todo o vector v que se pode exprimir sob a forma nn2211 xxxv α++α+α= L , com ,i diz-se combinação linear dos vectores ,Ki ∈α n,,1K= .x,,x,x n21 K Analogamente, se A é um subconjunto de E, então qualquer vector de E da forma nn2211 xxx α++α+α L , com e K,,, n21 ∈ααα K ,Ax,,x,x n21 ∈K diz-se combinação linear (finita) de elementos de A. Obs.: É óbvio que qualquer elemento de A é combinação linear de elementos de A. De facto, se podemos escrever ,Ax∈ ,x0x0x1x n2 ⋅++⋅+⋅= L com .Ax,,x,x n32 ∈K Exercício: Dados os vectores, em IR4, ( b,a,1,1u = ) ( )3,1,1,3v = ( )5,1,0,2w = , determine o valor das constantes a e b por forma a ser possível escrever o vector u como combinação linear dos vectores v e w. Teorema 3.5: Seja E um espaço vectorial sobre um corpo K e A uma parte não vazia de E. O conjunto F de todas as combinações lineares de elementos de A é o “menor” subespaço vectorial de E que contém A. Demonstração: Exercício. Sendo A uma parte não vazia do espaço vectorial E definido sobre um corpo K, o subespaço F de E formado por todas as combinações lineares de elementos de A diz-se subespaço gerado por A, ou, também, que A gera o subespaço F. No caso de F coincidir com o próprio E, diz-se que os vectores de A constituem um sistema de geradores de E. Notação: O subespaço gerado por A representa-se por A ou [ ]A ou ainda ,x,,x,x n21 K se . { }n21 x,,x,xA K= Em resumo: se F for o subespaço gerado pelo conjunto { }n21 x,,x,x K , 27 ,K:xx,,x,xF i n 1i iin21 ∈αα== ∑ = K isto é, todo o vector de F é combinação linear dos vectores . n21 x,,x,x K Exercícios: 1. Considere os vectores do espaço vectorial real IR3 ( )3,2,1x1 = e ( )1,1,2x 2 −= . Escreva uma condição que caracterize o subespaço F de IR3 gerado por . { }21 x,xA = 2. No espaço vectorial IR4, considere os conjuntos ( ) ( −−−− −−= 0,1,1,0,1,2,2,1, 2 1,1,1, 2 1B ) e ( ) ( ){ }0,1,1,0,2,0,0,2C = . Mostre que B e C geram o mesmo subespaço vectorial de IR4. Exemplos: 1. No espaço dos vectores OP de um plano, dois vectores quaisquer desse plano não colineares são geradores do espaço. 2. Os vectores ( ) ( ) ( ) ( )1,1,1 e 1,0,0 ,0,1,0 ,0,0,1 são geradores de IR3. 3. Também geram IR( ) ( ) ( 1,0,0 e 0,1,0 ,0,0,1 ) 3. 4. Em geral, o espaço vectorial IRn é gerado pelos n vectores ( ) ( ) ( )1,0,,0,0,0e 0,0,,0,1,0e 0,0,,0,0,1en 2 1 K KKKKKKK K K = = = 5. IR é gerado por qualquer número real não nulo. 6. O espaço real C\ é gerado por { }i1,i,1 + e também por { }i,1 , pois a ib1abi ⋅+⋅=+ . 7. O espaço complexo C\ é gerado por qualquer número complexo não nulo. Observem-se os exemplos 2. e 3.. Repare-se que o número de vectores no exemplo 3. é o menor número de vectores que geram o espaço. O mesmo já não acontece no exemplo 2. porque ( ) ( ) ( ) ( )1,0,010,1,010,0,111,1,1 ⋅+⋅+⋅= . Diremos por isso, como vamos ver, que os quatro vectores são linearmente dependentes. Definição 3.6: Os vectores x dizem-se linearmente dependentes se existem escalares não todos nulos tais que n21 x,,x, K n21 ,,, ααα K 0xx nn11 =α++α L . Esses vectores dizem-se linearmente independentes se a combinação linear nula só acontece quando todos os escalares são nulos, isto é, 28 00xx n21nn11 =α==α=α⇒=α++α LL . Proposição 3.7: Os vectores são linearmente dependentes se, e somente se, algum deles é combinação linear dos restantes. n21 x,,x,x K Demonstração: Exercício. Exercícios: 1. Verifique se os vectores ( ) , 1,1,0,1 ( )0,1,3,2 , ( )1,1,1,2 − e ( )0,0,0,1 são linearmente inde- pendentes. 2. Verifique se os elementos do espaço vectorial real P3(x) (conjunto dos polinómios reais de grau menor ou igual a 3) 1, , 2x2x − 32 xx + , 3x2x + são linearmente independentes. Propriedades: 1. Se os vectores são linearmente dependentes, então qualquer conjunto finito de vectores que os contenha é um conjunto de vectores linearmente dependentes. n21 x,,x,x K 2. Dados n vectores, se um deles é o vector nulo, então os n vectores são linearmente dependentes. Pois, 1 0x0x00 1n1 =⋅++⋅+⋅ −L . 3. Qualquer subconjunto de um conjunto de n vectores linearmente independentes, é formado por vectores linearmente independentes. n21 x,,x,x K 4. A dependência ou independência linear de n vectores não se altera por qualquer troca na ordem pela qual estes vectores são indicados. n21 x,,x,x K 5. A dependência ou independência linear de n vectores não se altera quando a um deles se adiciona uma combinação linear de qualquer número dos restantes. Depois destas considerações, podemos afirmar que os geradores ( ) ( ) ( )1,0,0 ,0,1,0 ,0,0,1 de IR3 são linearmente independentes, mas os geradores ( ) ( ) ( ) ( )1,1,1 ,1,0,0 ,0,1,0 ,0,0,1 são linearmente dependentes. Definição 3.8: Chama-se base do espaço vectorial E a um conjunto de geradores de E linearmente independentes. Obviamente, excluindo o caso em que { }0E = , os vectores de uma base são não nulos. Definição 3.9: Um espaço vectorial E sobre um corpo K diz-se finitamente gerado se admite um conjunto de geradores finito. Nota: Somente trabalharemos no contexto dos espaços vectoriais finitamente gerados. 29 Teorema 3.10: Todo o espaço vectorial { }0E ≠ finitamente gerado admite uma base. Teorema 3.11: Todas as bases de um espaço vectorial E finitamente gerado têm o mesmo número de elementos. Definição 3.12: Seja E um espaço vectorial finitamente gerado sobre um corpo K. O número de elementos de qualquer base de E diz-se dimensão de E e designa-se por , ou apenas . Por convenção, ( )EdimK ( )Edim { }( ) 00dim = . Definição 3.13: Dado um espaço vectorial E sobre um corpo K e { }n21 x,,x,x K Ex uma base de E, chamam-se componentes ou coordenadas de um vector ∈ relativamente à base considerada aos escalares n21 ,,, ααα K que surgem na combinação linear ∑ = α= n 1i iixx . Teorema 3.14: Um conjunto de vectores { }n21 x,,x,x K é uma base de um espaço vectorial E se, e somente se, cada vector x se exprime de forma única como combinação linear dos vectores x , isto é, E∈ n21 x,,x, K ∑ = α= n 1i iixx , com únicos. n21 ,,, ααα K Demonstração: Exercício. Exemplos: 1. Em IR2 são bases ( ) ( ){ }1,0,0,1 , ( ) ( )1,1,0,1{ }, etc. 2. No espaço Kn sobre o corpo K, chama-se base canónica à base ( ) ( ) ( ){ }1,0,,0,0,,0,0,,1,0,0,0,,0,1 KKKK . 3. No espaço real C\ , { é uma base: tem dimensão 2. O espaço complexo C\ tem dimensão 1. } } } } } i,1 Teorema 3.15: Sejam E um espaço vectorial sobre um corpo K de dimensão igual a n e um conjunto de n vectores de E. Então, as seguintes afirmações são equivalentes: { n21 e,,e,e K a) é uma base de E; { n21 e,,e,e K b) é um conjunto de geradores de E; { n21 e,,e,e K c) é um conjunto de vectores linearmente independentes de E. { n21 e,,e,e K Demonstração: Exercício. 30 Exercícios: 1. Indique a condição a que deve satisfazer λ de modo a que os vectores ( ) , ( ) e constituam uma base de IR 1,0,1 0,,0 λ ( λ,0,1 ) 3. 2. Considere o seguinte subespaço vectorial do espaço vectorial IR4: ( ){ ∈= t,z,y,xA IR4 : }0tzyx =+−− . Determine uma base e a dimensão do subespaço A. Pelo que vimos anteriormente, fixada uma base { }n21 e,,e,e K no espaço E, cada vector de E fica bem definido pelas suas coordenadas, isto é, pelos escalares que aparecem em: ( )n21 ,,, ααα K ou [ ]n21 ααα L ou em . α α α n 2 1 M Exemplo: No espaço dos polinómios de grau não superior a 3, { }32 x,x,x,1 é uma base. Nesta base, as coordenadas do polinómio são 32 x5x4x2 −++− [ ]5412 −− . Aplicações Lineares Definição 3.16: Sejam E e F dois espaços vectoriais definidos sobre o mesmo corpo K e ϕ uma aplicação de E em F. Se é tal que ϕ ( ) ( ) ( )yxyx ,Ey,x ϕ+ϕ=+ϕ∈∀ ( ) ( )xx ,Ex ,K αϕ=αϕ∈∀∈α∀ então diz-se que é uma aplicação linear, um homomorfismo ou uma transformação linear de E em F. ϕ Uma aplicação linear de E em E diz-se um endomorfismo. Um aplicação linear bijectiva diz-se também um isomorfismo de E em F. Caso exista esse isomorfismo diz-se que E e F são espaços isomorfos. Um isomorfismo de E em E denomina-se automorfismo. Observação: Pode mostrar-se que as duas proposições da definição de aplicação linear são equivalentes à proposição: ( ) ( ) (yxyx ,Ey,x,K, )βϕ+αϕ=β+αϕ∈∀∈βα∀ . Exemplos: 31 1. A aplicação f de IR3 em IR2 definida por ( ) ( )zyx,xz,y,xf ++= . 2. Homotetia (em IR3): . ( ) ( z2,y2,x2z,y,x a ) 3. Rotação (em IR2): ( ) ( x,yy,x −a ) (rotação de 2 π ) ou ( ) ( ) ( ) +− 2 yx2, 2 yx2y,x a (rotação de 4 π ) Exercício: Verifique se a seguinte aplicação é linear: :f IR3 → IR2 ( ) ( )zy,yxz,y,x −−a . Representaremos por L o conjunto de todas as aplicações lineares de E em F, com E e F espaços vectoriais sobre um mesmo corpo K. ( F,E ) Observação: Prova-se que o conjunto L ( )F,E é um espaço vectorial sobre K, para as operações: Adição: ∈ψϕ, ∀ L , ( )F,E ( )( ) ( ) ( )xxx ψ+ϕ=ψ+ϕ . Multiplicação Escalar: ∈ϕ∀∈α∀ ,K L ( )F,E , ( )( ) ( )[ ]xx ϕα=αϕ . Propriedades das Aplicações Lineares: Sejam ∈ϕ L ( )F,E e ψ L ∈ ( )G,F , com E, F e G espaços vectoriais sobre o mesmo corpo K. 1. ( ) .00 =ϕ 2. é uma aplicação linear de E em G. ϕψ o 3. é um subespaço vectorial de F. ( )Eϕ 4. , denominado núcleo da aplicação linear ϕ , é um subespaço vectorial de E. { }( ) ( ){ 0x:Ex0N 1 =ϕ∈=ϕ= −ϕ } 5. ( ) ( ) ( )( )EdimNdimEdim ϕ+= ϕ . 6. A aplicação é injectiva se, e somente se, ϕ { }0 N =ϕ . Exercício: Considere a aplicação linear :f IR3 → IR2 ( ) ( )zy,yxz,y,x −−a . a) Determine . A aplicação f é injectiva? fN b) Determine dim (f (IR3 )). Teorema 3.17: Sejam E e F dois espaços vectoriais sobre o mesmo corpo K, { } uma base de E e uma aplicação linear de E em F. Sejam f respectivamente, as imagens por dos vectores da base de E, isto é, n21 e,,e,e K ϕ ,f,,f, n21 K ϕ n21 e,,e,e K 32 ( ) ii fe =ϕ ( )n,,2,1i K= Então podemos afirmar que: a) é injectiva se, e somente se, f são linearmente independentes. ϕ n21f,,f, K b) é sobrejectiva se, e somente se, f geram F. ϕ n21 f,,f, K c) é bijectiva se, e somente se, f constituem uma base de F. ϕ n21 f,,f, K Demonstração: Exercício. Definição 3.18: Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K. Chama-se característica de uma aplicação linear ϕ de E em F, à dimensão do subespaço ϕ . ( )E Matriz de uma Aplicação Linear Sejam E e F dois espaços vectoriais (de dimensão finita) sobre um mesmo corpo K, uma base de E, { uma base de F e { n21 e,,e,e K } }m21 f,,f,f K ∈ϕ L ( )F,E . Os vectores ( )jeϕ , com pertencem ao espaço F e como é uma base de F, então os vectores ,n,,2,1j K= { }m21 f,,f,f K ( )jeϕ podem representar-se de maneira única como combinação linear desses vectores, ( ) ∑ = =ϕ m 1i iijj f ae ( ),n,,2,1j K= onde cada designa a coordenada do vector Kaij ∈ ( )jeϕ , relativamente ao vector da base de F. Isto é, tem-se if ( ) ( ) ( ) mmn2n21n1n m2m2221122 m1m2211111 fafafae fafafae fafafae +++=ϕ +++=ϕ +++=ϕ L KKKKKKKKKKKKK L L Desta forma, podemos escrever as coordenadas de cada vector ( )jeϕ na forma matricial = mn2m1m n22221 n11211 aaa aaa aaa A K KKKK K K sendo A a matriz, em que cada coluna j ( )n,,2,1j K= é constituída pelas coordenadas do vector ( )jeϕ 1e relativamente à base { , a matriz da aplicação linear em relação às bases { } e{ . Designa-se, em geral, A por }mf, } 21 ,f,f K mf, ϕ n2 e,,e, K 21 ,f,f K ( )}f{},,M iϕ e{ j ou, apenas, por . ( )ϕM Observe-se agora o seguinte: seja Ex∈ e suponhamos que pretendemos determinar a imagem de x pela aplicação linear ϕ . Como { }n21 e,,e,e K é uma base de E, podemos escrever 33 nn2211 eeex α++α+α= L . Logo, atendendo a que ϕ é uma aplicação linear, podemos obter sucessivamente o seguinte: ( ) ( ) ( ) ( ) ( ) ,fa fa fafafa eee eeex m 1i i n 1j jij n 1j m 1i iijj m 1i iinn m 1i i2i2 m 1i i1i1 nn2211 nn2211 ∑ ∑ ∑ ∑ ∑∑∑ = = = = === α= α= α++α+α= ϕα++ϕα+ϕα= =α++α+αϕ=ϕ L L L Mas e, portanto, representa-se de maneira única como combinação linear dos vectores f da base de F, ( ) Fx ∈ϕ 21 ,f, mf,K ( ) ∑ = β=β++β+β=ϕ m 1i iimm2211 ffffx L . Consequentemente, tem-se ∑ = α=β n 1j jiji a ( )m,,2,1i K= e podemos escrever α α α = β β β n 2 1 mn2m1m n22221 n11211 m 2 1 aaa aaa aaa M K KKKK K K M Observação: Pelo que vimos anteriormente, fixadas as bases em E e F, a aplicação linear ϕ fica bem definida pela matriz . ( )ϕM Teorema 3.19: Sejam E e F espaços vectoriais, de dimensões n e m, respectivamente, sobre um corpo K. A aplicação que associa a toda a aplicação Ψ ∈ϕ L a matriz correspondente é uma aplicação bijectiva do espaço vectorial L no espaço vectorial , isto é, L ( F,E ( )F,E ) ( )ϕM ( )n,mM K :Ψ ( )F,E → ( )n,mM K , tal que ( ) ( )ϕ=ϕΨ M , é bijectiva. Deste teorema podemos concluir que a cada aplicação linear está associada uma matriz e a cada matriz está associada uma aplicação linear. Assim, a característica de uma aplicação linear é igual à característica da matriz que lhe está associada. Mais, a característica de uma matriz é igual à dimensão do subespaço vectorial ( )Eϕ , sendo ϕ a aplicação linear que lhe está associada. Exercício: Seja f IR: 3 → IR 2 tal que ( ) ( )zy,yxz,y,xf −−= , uma aplicação linear. a) Determine a matriz de f relativamente às bases canónicas de IR 3 e IR 2 . 34 b) A aplicação f tem inversa? Justifique. c) Calcule , usando: ( 3,2,1f ) i) a definição de f; ii) a matriz de f. Matrizes de Mudança de Base Seja E um espaço vectorial sobre um corpo K. Suponhamos que E é de dimensão n e sejam { }n21 e,,e,e K e { }n21 e,,e,e ′′′ K duas bases de E. Como todo o vector de E se pode representar como combinação linear única dos vectores da base, podemos escrever ( ),n,1,2,j et etetete n 1i iij nnj2j21j1j K L == +++=′ ∑ = e obter a matriz = nn2n1n n22221 n11211 ttt ttt ttt T L LLLL L L , cuja coluna j é formada pelas coordenadas de e j′ em relação à base { }n21 e,,e,e K . Esta matriz denomina-se de matriz de transformação, matriz de mudança de base ou matriz de passagem da base para a base { n21 e,,e,e K } { }n2 e,,e,1e ′′′ K . Pode considerar-se T como a matriz da aplicação identidade em E relativamente às bases e { }n21 e,,e,e ′′′ K { }n21 e,,e,e K , isto é, ( )}e{},e{,idMT ijE ′= . Seja x um vector de E. Então podemos escrever ∑ = α=α++α+α= n 1i iinn2211 eeeex L e ∑ = ′β=′β++′β+′β= n 1j jjnn2211 eeeex L . Logo, ∑ ∑∑ ∑∑ = == == β=β=′β= n 1i i n 1j jij n 1j n 1i iijj n 1j jj etetex . Consequentemente, devido à unicidade das coordenadas do vector x relativamente à base , tem-se { }n21 e,,e,e K 35 ∑ = β=α n 1j jiji t ou β=α T , onde designa a matriz coluna e α [ Tn1 αα L ] β a matriz coluna [ ] Tn1 ββ L . Analogamente, se T designar a matriz quadrada de ordem n cuja coluna j é formada pelas coordenadas de e relativamente à base ′ j { }n21 e,,e,e ′′′ K , isto é, se T é a matriz de passagem da base { ′ }n1 e,e ′2 , e,′′ K para a base { }n2 e,,e K1,e , tem-se α′=β T . Combinando estas duas relações, tem-se α α α ′⋅= β β β = α α α n 2 1 n 2 1 n 2 1 TTT MMM e também β β β ⋅′= α α α ′= β β β n 2 1 n 2 1 n 2 1 TTT MMM . Então , isto é, é a matriz inversa de T, ou seja TnITTTT =⋅′=′⋅ T′ 1T−=′ . Considere-se agora uma aplicação linear ∈ϕ L ( )F,E e vejamos que alterações ocorrem na matriz de ϕ quando se mudam as bases de E e F. Teorema 3.20: Sejam e { }n21 e,,e,e K { }n21 e,,e,e ′′′ K duas bases de E e T a matriz de passagem da base { }n21 e,,e, Ke para a base { }n2 e,,e1,e ′′′ K . Sejam { } e duas bases de F e S a matriz de passagem da base m21 f,,f,f K { m21 f,,f,f ′′′ K } { }mf,21 ,f,f K para a base . Seja A={ }m21 f,,f,f ′′′ K ( )}f{},e{, ijϕM e A′= ( )}f{ i},e{, jM ′′ϕ . Então podemos afirmar que TASA 1 ⋅⋅=′ − . As matrizes A e , do tipo A′ nm× , por satisfazerem à relação ou à relação equivalente , com S e T matrizes regulares, de ordem m e n respectivamente, dizem-se matrizes equivalentes. TASA 1 ⋅⋅=′ − 1TAA −⋅′S ⋅= É óbvio que A e têm a mesma característica. No caso particular em que A′ ,FE = isto é, no caso em que ∈ϕ L , tem-se ( E,E ) TATA 1 ⋅⋅=′ − , 36 em que T é a matriz de passagem da base { }n21 e,,e,e K para a base { }n21 e,,e,e ′′′ K . As matrizes A e satisfazendo à relação AA′ TAT 1 ⋅⋅=′ − ou à equivalente em que T é regular, dizem-se matrizes semelhantes. ,TATA 1−⋅′⋅= Exercício: Sejam E e F dois espaços vectoriais reais e { }3211 e,e,eB = e bases de E e F, respectivamente. Seja a aplicação linear tal que { 211 f,fB =′ } ) FE:f → ( ) =′ 011 101 B,B,fM 11 . Determine ( 22 B,B,fM ′ , onde { }32121212 eee,ee,eeB +++−= e { }2212 f,f2fB −+=′ são bases em E e F, respectivamente. Valores Próprios e Vectores Próprios Definição 3.21: Seja E um espaço vectorial sobre um corpo K e ϕ um endomorfismo de E. Um escalar λ é dito valor próprio de ϕ se existe algum vector em E tal que . Chama-se vector próprio de 0x ≠ ( ) xx λ=ϕ ϕ associado ao valor próprio λ a todo o vector não nulo tal que . Ex∈ ( ) xx λ=ϕ Definição 3.22: Seja A uma matriz quadrada de ordem n. Um escalar λ é dito valor próprio de A se existe alguma matrizcoluna X 0≠ , ( )1,nMX K∈ , tal que . Chama-se vector próprio de A associado ao valor próprio XAX λ= λ a toda a matriz não nula tal que . ( 1,nM K )X∈ XAX λ= Evidentemente, a definição anterior é um caso particular da definição 3.21. Pois, a cada aplicação linear está associada uma matriz e basta designar ( )1,nM K por E para que seja linear. AXX a Exemplos: 1. Se = 21 02 A , 2=λ e , temos = 1 0 X XAX λ= . 2. Sejam , − −= 521 1243 402 A 01 =λ , 12 =λ , 23 =λ , − = 1 23 2 X1 , e , com . Então α α− = 0 4 X2 β β 0 IR, ∈βα = 2 X3 iiXiAX λ= , para i 3,2,1= . Teorema 3.23: O conjunto dos vectores próprios de ∈ϕ L ( )E,E Iλ−ϕ associado a um mesmo valor próprio acrescido do vector nulo é o subespaço de E (chamado subespaço K∈λ N 37 próprio de associado a e à sua dimensão chama-se multiplicidade geométrica do valor próprio λ ). ϕ λ 1 ,λ Demonstração: Exercício. Teorema 3.24: Se os vectores próprios de um endomorfismo estão associados a distintos valores próprios , então os vectores são linearmente independentes. n1 x,,x K n,λK Demonstração: Exercício. Corolário 3.25: Um endomorfismo de um espaço vectorial de dimensão n tem, no máximo, n valores próprios distintos. 38 4 DETERMINANTES Antes de iniciarmos o estudo da teoria dos determinantes, estudaremos alguns conceitos relacionados com permutações, essenciais à compreensão da dita teoria. Definição 4.1: Sejam n um número natural e { }n,,2,1A K= . Chama-se permutação de A a qualquer aplicação bijectiva de A em A. Observações: 1. O número de permutações de n elementos é igual a . !n 2. Designaremos por o conjunto de todas as permutações de n elementos. (Veja a observação da página 2). nS Exemplos: 1. As permutações que pertencem a S são: 4 4321 4321 1324 4321 , , , , , , etc. 3421 4321 4231 4321 4312 4321 2341 4321 2. As permutações 421536 654321 e 463125 654321 pertencem a S . 6 É vulgar escrever-se ( em vez de , tornando a escrita mais simplificada. Repare-se que a escrita simplificada de uma permutação não é de forma alguma ambígua. ) ) ) 1 ,3 ,2 132 321 Teorema 4.2: ( é um grupo, onde o é a operação binária composição de aplicações. o ,Sn Obs.: O grupo não é necessariamente comutativo. ( o ,Sn Exemplo: Em S , 3 = 213 321 312 321 231 321 o e 39 = 132 321 231 321 312 321 o Definição 4.3: Uma transposição é uma permutação σ de S tal que n ( ) ji =σ e , para , e σ , ( ) ij =σ ji ≠ ( ) kk = j,ik ≠∀ . Exemplo: 1. A permutação pode simplesmente escrever-se na forma , isto é, 24351 54321 ( 5 ,2 ) ) ( )5 ,2 24351 54321 = . 2. Analogamente, podemos escrever ( ) ( ) ( ) ( ) ( 5 ,2 4 ,3 ,1 21453 54321 3 ,4 1 ,3 5 ,2 = = Nota: Uma transposição é inversa de si própria. Teorema 4.4: Qualquer permutação de S ( ) é composição de transposições, isto é, se é um permutação, então n 2n ≥ kσ 21 τττ=σ oo oL , com ,k,,1i ,i K=τ transposições. Exemplos: 1. Em S , 2 ( 2 ,1 12 21 = ) e ( ) ( )1 ,2 2 ,1 21 21 = 2. Em S , 5 ( ) ( ) ( ) ( )3,4 2,3 1,24 ,3 ,2 ,1 51432 54321 == . Definição 4.5: Diz-se que uma permutação é par se é decomponível num número par de transposições e ímpar se é decomponível num número ímpar de transposições. Observação: Embora a decomposição de uma permutação em composição de transposições não seja única, a paridade do número de transposições em cada decomposição é sempre a mesma. Isto é, se uma permutação σ é tal que k21 τττ=σ oLoo e m21 πππ=σ oLoo , então ou k e m são números pares ou k e m são números ímpares. 40 Exemplo: A permutação é par já que, por exemplo, . 1423 4321 ( )( 3,1 4,1 1423 4321 = ) Teorema 4.6: Uma permutação não pode ser simultaneamente par e ímpar. Além da definição, existe um outro método, mais prático, para a determinação da paridade de uma permutação. Esse método é descrito no teorema que se segue. Antes, defina- -se para uma permutação , tal que nS∈σ r21 τττ=σ oLoo 1 , o seu sinal como ε . Se é par, ; se é ímpar, ( ) ( )r1−=σ σ ( ) 1=σε σ ( ) −=σε . Teorema 4.7: Para qualquer permutação nS∈σ , tem-se ( ) ( ) ( ) , em que ν é o número de pares ( tais que 1 σν−=σε 1 ( )σ )j,i nji ≤<≤ e ( ) ( )ji σ>σ . Dizemos que o número ν (definido no teorema anterior) é o número de inversões de σ . ( )σ Observação: É óbvio que uma permutação é par ou ímpar se o seu número de inversões é, respectivamente, par ou ímpar. Exercício: Determine a paridade das seguintes permutações a partir do teorema anterior: a) b) 3124 4321 562143 654321 Teorema 4.8: Para , tem-se: 2n ≥ 1. Se é uma transposição, então nS∈τ ( ) 1−=τε ; 2. ( ) ( ) (θεσε )=θσε∈θσ∀ o,S, n . Corolário 4.9: Se σ , então nS∈ ( ) ( )σε=σε −1 . Exercício: Determine a inversa da permutação =σ 653214 654321 e verifique que ( ) ( )σε=σε −1 . 41 Funções Multilineares Definição 4.10: Seja K um corpo e nnn KKK ××× L o espaço vectorial constituído pelo produto cartesiano de n factores nK . Chama-se função n-linear ( ou multilinear) sobre nK a uma aplicação KKKK:f nnn →××× L tal que ( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK β+α=β+α , para , , isto é, f é linear em relação a cada um dos n argumentos. ni1 ≤≤ nn1 Kx,,x,K, ∈∀∈βα∀ K Observação: A condição ( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK β+α=β+α é equivalente a: ( ) ( ) ( )ni1ni1nii1 x,,y,,xfx,,x,,xfx,,yx,,xf KKKKKK +=+ e ( ) ( )ni1ni1 x,,x,,xfx,,x,,xf KKKK α=α . Exemplos: 1. IR :f 2 × IR 2→ IR , tal que, ( ) ( )( ) bdacd,c,b,af += é bilinear. 2. IR :f 2 IR × 2→ IR , tal que, ( ) ( )( ) bcadd,c,b,af −= é bilinear. Pode provar-se que ( ) ( )( ) ,c,bf d,a é a área do paralelogramo definido pelos vectores ( )b,a e . ( )d,c Pode facilmente verificar-se que aplicação bilinear do exemplo 2. satisfaz as propriedades: ( ) ( )( ) 0b,a,b,af = e ( ) ( )( ) ( ) ( )( )b,a,d,cfd,c,b,af −= , ao contrário da aplicação bilinear do exemplo 1.. Estas propriedades sugerem a seguinte definição: Definição 4.11: Uma função n-linear f diz-se alternada se para ,xx ji = com , ji ≠ ( ) 0x,,x,,x,,xf nji1 =KKK , isto é, anula-se sempre que dois dos vectores sejam iguais. Uma função n-linear f diz-se anti-simétrica se ( ) ( )nij1nji1 x,,x,,x,,xfx,,x,,x,,xf KKKKKK −= , isto é, uma troca de sinal corresponde a uma troca de posição de dois vectores. Teorema 4.12: Sejam K um corpo de característica diferente de 2 (isto é, um corpo que satisfaça a propriedade: 0x0xx =⇒=+ ) e uma função n-linear. Então as seguintes afirmações são equivalentes: KKKK:f nnn →××× L a) f é anti-simétrica. b) f é alternada. c) Se e são linearmente dependentes, então ix jx ( ) 0x,,x,,x,,xf nji1 =KKK . 42 Observação: Se uma função n-linear é anti-simétrica e σ é uma permutação de S , então n ( ) ( ) ( )( ) ( ) ( )n21n21 x,,x,xfx,,x,xf KK σε=σσσ . A partir de agora consideraremos sempre um corpo K de característica diferente 2. O corpo dos reais ou dos complexos são considerados corpos de característica zero (ou infinita). Seja A uma matriz quadrada de ordem n sobre K, isto é, = nn2n1n n22221 n11211 aaa aaa aaa A L LLLL L L . É evidente que uma matriz pode identificar-secom um elemento de nnn KKK ××× L n , bastando identificar cada uma das suas linhas, L como elementos de ,L,,L, n21 K K . Assim, no contexto de podemos definir a seguinte função n-linear: ( n,nMK ) Definição 4.13: Chama-se determinante de ( )n,nMA K∈ à função n-linear alternada das linhas de A definida por: [ ] ( ) ( ) ( ) ( )∑ ∈σ σσσ ⋅σε=== nS nn2211ij aaaAAdetaA La . Observação: O determinante de uma matriz quadrada não é mais do que a soma de todos os produtos de n elementos da matriz, correspondentes a cada uma das permutações de S , afectados pelo sinal da permutação correspondente. Assim, o número de parcelas é igual a n . n ! ] A partir da definição, podemos facilmente constatar que: - Se A , então . [ 11a= 11aAdet = - Se A , então det = 2221 1211 aa aa 21122211 aaaaA −= , já que S , sendo a permutação par e a permutação ímpar. = 12 21 , 21 21 2 21 21 12 21 Assim, o determinante de uma matriz quadrada de ordem 2 é igual à diferença entre o produto dos elementos principais e o produto dos elementos da diagonal secundária. - Se A , então = 333231 232221 131211 aaa aaa aaa 43 322311332112312213322113312312332211 333231 232221 131211 aaaaaaaaaaaaaaaaaa aaa aaa aaa −−−++= , já que as permutações de S são: 3 321 321 , , , , , . 132 321 213 321 123 321 312 321 231 321 Em termos práticos, o cálculo do determinante de uma matriz quadrada de ordem 3 pode ser efectuado usando a Regra de Sarrus: as parcelas de sinal positivo do determinante são referentes ao produto dos elementos principais e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal principal, e as parcelas de sinal negativo do determinante são referentes ao produto dos elementos da diagonal secundária e aos produtos dos elementos que se dispõem nos vértices dos dois triângulos cuja base é paralela à diagonal secundária. Observe o esquema: 333231 232221 131211 aaa aaa aaa Exercício: Calcule o determinante das seguintes matrizes: a) b) c) − 13 52 − − − 331 121 402 − −− 123 242 121 No cálculo do determinante de uma matriz de ordem superior ou igual a 4 não é usual aplicar-se a definição de determinante, pois torna-se um cálculo fastidioso. No entanto, iremos estudar propriedades que facilitam esses cálculos. Antes dessas propriedades, estudemos agora as propriedades básicas dos determinantes. Propriedades dos Determinantes: Seja A uma matriz quadrada de ordem n. 1. (n-linear) Se uma fila de A se decompuser numa soma de filas, o determinante de A é igual à soma dos determinantes de duas matrizes em que nessa fila se usa uma parcela de cada vez, mantendo-se as restantes. Isto é, [ ] [ ] [ ]ni1ni1nii1 F,,F,,FdetF,,F,,FdetF,,FF,,Fdet KKKKKK ′+=′+ . 2. (n-linear) Se multiplicarmos uma fila de A por um escalar α , então o determinante vem multiplicado por , isto é, α [ ] [ ]ni1ni1 F,,F,,FdetF,,F,,Fdet KKKK α=α . 44 Assim, também temos que AA nα=α . 3. (Anti-simetria) Ao trocarmos entre si duas filas paralelas de A, o determinante troca de sinal, isto é, [ ] [ ]nij1nji1 F,,F,,F,,FdetF,,F,,F,,Fdet KKKKKK −= . 4. (Função alternada) Se as filas de A são linearmente dependentes, então o determinante de A é igual a zero. 5. Não se altera o determinante de A quando a uma fila se adiciona uma combinação linear de outras filas paralelas. Basta observar que: [ ] [ ] [ ]njj1ni1nji1 F,,F,,F,,FdetF,,F,,FdetF,,FF,,Fdet KKKKKKK α+=α+ . 6. . Pois, representando a por a , cada parcela de det é da forma AdetAdet T = ji T ij TA ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )nn111nn11nn11T nnT 11 1111 aaaaaaaa −−−− σσ−σσσσσσ σε=σε=σε=σε LLLL , isto é, corresponde a outro termo de , com o mesmo sinal. Adet 7. ∗== AdetAdetAdet . 8. Se A é uma matriz triangular, então nn2211 aaaAdet L= . Em particular, .1Idet = 9. A característica da matriz A é inferior à ordem se, e somente se, , isto é, A é uma matriz singular se, e somente se, det 0Adet = 0A = . Evidentemente, A é regular se, e somente se, . 0Adet ≠ 10. BABA ⋅=⋅ . 11. Se A é regular, então A 1A 1 =− . 12. A característica da matriz A é igual à mais alta ordem das submatrizes quadradas de A com determinante não nulo. Exercício: Sejam A e B duas matrizes quadradas de ordem 2 tais que . Calcule Bdet2Adet −== ( )( )[ ]T1AB2det − . Complementos Algébricos Definição 4.14: Seja A uma matriz quadrada de ordem n. Chama-se menor de ordem m de A ao determinante de qualquer submatriz de A de ordem m ( nm < ). Dois menores dizem-se complementares se num deles estão representadas exactamente as linhas e colunas de A que não figuram no outro. Um menor diz-se principal se a sua diagonal tem somente elementos principais da matriz inicial. Um menor de A diz-se par ou ímpar conforme é par ou ímpar a soma dos índices das linhas e das colunas de A nele representadas. 45 Dado um menor de A, o seu complemento algébrico é o produto do seu menor complementar pelo respectivo sinal ( )ω−1 , onde ω é a soma dos índices que determinam a paridade do menor. Notação: Sendo um elemento de A, representaremos por o complemento algébrico do menor ija ijA ija . Exemplo: Seja . Um seu menor é − − −= 12534 20101 13410 02100 45031 A 234 001 200 − e é par, porque 18421542 =+++++=ω . O seu menor complementar é 14 40 − e o complemento algébrico é ( ) 14 40 14 40 − = − ω1− . Exercício: Determine o complemento algébrico do menor 12a , sendo a elemento da matriz A do exemplo anterior. 12 Propriedades: a) Um menor principal é sempre par. b) Um menor e o seu complementar têm a mesma paridade. Depois destes conceitos, estamos em condições de estudar um teorema muito importante que permite calcular mais facilmente o determinante de uma matriz de ordem superior ou igual a quatro. Teorema 4.15: (Teorema de Laplace) Um determinante de uma matriz é igual à soma dos produtos dos elementos de uma fila pelos respectivos complementos algébricos. Exercício: Seja A . Utilize o teorema de Laplace para calcular −− −− − = 1243 1321 0420 2112 A . Nota: Na aplicação do teorema de Laplace convém escolher uma das filas com mais zeros (se existirem). No entanto, podemos sempre fazer surgir zeros através da utilização de operações elementares que não alterem o valor do determinante. 46 Teorema 4.16: A soma dos produtos dos elementos de uma fila pelos complementos algébricos dos elementos homólogos de outra fila paralela é nula, isto é, hnin2h2i1h1i AaAaAa0 +++= L ( i h≠ ) ou nknjk2j2k1j1 AaAaAa0 +++= L ( kj ≠ ). Demonstração: Essa soma é igual ao determinante da matriz obtida substituindo a linha i pela linha h (ou coluna j pela coluna k). Desta forma, a matriz fica com duas filas iguais e portanto o determinante é nulo. Este teorema e o teorema de Laplace permitem escrever: ∑∑ == == n 1i ijij n 1j ijij AaAaA e 0 , )hi e kj( AaAa n 1i ikij n 1j hjij ≠≠== ∑∑ == isto é, usando o símbolo de Kronecker, AAa ih n 1j hjij δ=∑ = ou AAa jk n 1i ikij δ= = ∑ . Teorema 4.17: (Teorema de Laplace Generalizado) Um determinante de uma matriz é igual à soma dos produtos dos menores de ordem m contidos em m filas paralelas pelos respectivos complementos algébricos. Exercício: Seja . Utilize o teorema de Laplace generalizado para calcular − − −= 12534 20101 13410 02100 45031 A A . Definição 4.18: Seja A uma matriz quadrada. Chama-seadjunta de A à matriz que desta se obtém substituindo cada elemento pelo seu complemento algébrico e transpondo a matriz resultante. Notação: A adjunta de uma matriz A é representada por adj A ou .  De acordo com a definição anterior, se [ ]ijaA = , então a matriz adjunta de A é tal que adjA . [ ] [ jiTij AA == ] Exercício: Determine a matriz adjunta da matriz . − −= 011 001 210 A 47 Teorema 4.19: Seja A uma matriz quadrada de ordem n regular. Então IAadjAA ⋅=⋅ e 1nAadjA −= . Demonstração: Basta observar que multiplicando A e , obtemos: adjA [ ] ,badjAA ij=⋅ com ∑ δ== k ijjkikij AAab e [ ] ,cA ij=⋅adjA com ∑ δ== k ijkjkiij AaAc . Assim, podemos concluir que IAA ⋅=⋅adjAadjAA =⋅ . E desta fórmula, usando as propriedades dos determinantes e o facto de A ser regular, temos que 1nn AadjAAadjAAIAadjAA −=⇔=⋅⇔⋅=⋅ Corolário 4.20: Se A é uma matriz quadrada regular, então adjA A 1A 1 ⋅=− . Demonstração: Usando-se o teorema 4.19, resulta de imediato que IAadjA A 1adjA A 1A =⋅ ⋅= ⋅⋅ . Este corolário dá-nos assim um novo processo para calcular a inversa de uma matriz regular. Exercício: Utilizando a última propriedade, determine, caso exista, a matriz inversa da matriz − −= 011 001 210 A . Resolução de Sistemas de Equações Lineares Usando a Teoria dos Determinantes Seja =+++ =+++ mnmn22m11m 1nn1212111 bxaxaxa bxaxaxa L M L , um sistema de m equações lineares com n incógnitas, sobre um corpo K. Já sabemos que este sistema é equivalente à equação matricial AX B= , com 48 = mn1m n111 aa aa A L LLL L , e . = n 1 x x X M = m 1 b b B M 1º Caso: Se , então o sistema é possível e determinado e a matriz A é quadrada. Assim, a matriz A é invertível o que implica que o seu determinante é não nulo. Logo, pelo Corolário 4.20, (Acarnm == ) ( ) BadjA A 1XBAXBAAXABAX 111 ⋅=⇔=⇔=⇔= −−− , isto é, ⋅ ⋅= n 1 nnn1 1n11 n 1 b b AA AA A 1 x x M L LLL L M , e portanto, ( ) A aba aba bAbAbA A 1x nnn1n n1111 nni2i21i1i LL MLMLM LL L =+++= , onde os termos independentes aparecem na coluna i, com n,,2,1i K= . Regra de Cramer: Um sistema de n equações com n incógnitas com o determinante da matriz dos coeficientes não nulo é possível e determinado e o valor de cada incógnita é o inverso do determinante da matriz dos coeficientes multiplicado pelo determinante da matriz que se obtém a partir da matriz dos coeficientes substituindo os coeficientes dessa incógnita pelos correspondentes termos independentes. Os sistemas deste primeiro caso são usualmente denominados por sistemas de Cramer. Exercício: Resolva, se possível, o seguinte sistema usando a regra de Cramer: =+ =− =++ 0yx 2zx 1zyx . 2º Caso: Se , então o sistema ( ) nmAcar <= =+++ =+++ mnmn22m11m 1nn1212111 bxaxaxa bxaxaxa L M L é possível indeterminado e é equivalente a 49 −−−=+++ −−−=++ ++ ++ nmn1m1m,mmmmm22m11m nn11m1m11mm1111 xaxabxaxaxa xaxabxaxa LL M LL Este último sistema pode resolver-se pela regra de Cramer, pois, relativamente às incógnitas principais, podemos considerar que estamos na presença de um sistema de Cramer. Sendo o número de incógnitas principais igual a ( ) mACar = (as não principais são ), chama-se determinante principal do sistema ao determinante dos coeficien- tes das incógnitas (escolhidas para) principais. É óbvio que ( )Acarn − ∆ ∆ é não nulo, de ordem ( )ACar . 3º Caso: . Por condensação, a matriz ampliada do sistema transforma-se em ( ) mrACar <= β β −−−−−− βα βα βα −−−−−−−− α αα ααα + m 1r rrn 2n2 1n1 rr r222 r11211 |0 0| || |0 0| || || || || || 00 00 00 0 LL MLL LL L MLL L L LL LLLL LL L LOOL L L Assim, para este caso temos que considerar r incógnitas e equações principais, que definem um determinante principal, não nulo, e rn − incógnitas não principais e rm − equações não principais. Nestas circunstâncias, sabemos que o sistema é possível se, e somente se, . 0m2r1r =β==β=β ++ L Seja o determinante da matriz obtida a partir da matriz de determinante s∆ ∆ acrescentando-lhe uma última linha, constituída pelos coeficientes das incógnitas principais da equação de ordem s não principal, e uma última coluna constituída pelos termos independentes dessas 1r + equações, isto é, s r 1 sr1s rr1r r111 s b| | b| | b| aa aa aa −−−−−−−− =∆ M L L LLL L . Chama-se a determinante característico. s∆ Como as operações elementares não alteram o determinante de uma matriz caso este seja nulo, então 0 | | | | | 00 00 b| | b| | b| aa aa aa s r 1 rr r111 s r 1 sr1s rr1r r111 s = β −− β β −−−−−− α αα = −−−−−−−− =∆ M L LOL L M L L LLL L se, e somente se, , isto é, se, e somente se, cada determinante característico é nulo. Em conclusão: 0s =β 50 Teorema 4.21: (Teorema de Rouché) Um sistema de equações lineares é possível se, e somente se, ou não existem determinantes característicos ou, existindo, são todos nulos. Exemplos: 1. Considere o seguinte sistema: =++ =++− =−+ 3zy3x2 1z2yx 2zy2x3 . Verifique que 0 132 211 123 =− − . Um determinante principal é, por exemplo, 05 11 23 ≠= − =∆ . Um outro é, por exemplo, 05 21 12 ≠= − . Neste caso, existe um determinante característico: 332 111 223 3 −=∆ e . Logo, o sistema é possível e indeterminado. 03 =∆ 2. Considere o seguinte sistema: =+− −=+− =+− =+ 2zyx3 1zy2x 0z2y3x4 1yx2 . A matriz dos coeficientes é: − − − 113 121 234 012 . Observe, por exemplo, que: 1. 02 ≠ ; 2. 010 34 12 ≠−= − ; 51 3. 0 121 234 012 = − − . 4. 0 113 234 012 = − − Logo, a característica da matriz dos coeficientes é 2 e um determinante principal é 34 12 − =∆ . Como, ,05 121 034 112 3 ≠= −− −=∆ então o sistema é impossível. Neste último exemplo foi usado o seguinte resultado: Teorema 4.22: A característica de uma matriz é r se, e somente se, contém um menor de ordem r não nulo e todos os de ordem 1r + que dele se obtêm juntando uma linha e uma coluna da matriz são nulos. Sistemas Homogéneos Dado que um sistema homogéneo AX 0= é sempre possível, tendo sempre a solução , então, quando a matriz dos coeficientes é quadrada, o sistema é determinado se, e somente se, 0X = 0A ≠ . Será indeterminado se, e somente se, 0A = . Cálculo de Valores Próprios Recordemos que o escalar é valor próprio de um endomorfismo de um espaço vectorial se existe um vector tal que λ 0 ϕ x ≠ ( ) xx λ=ϕ . Equivalentemente, se A é a matriz da aplicação linear , em relação a certa base previamente fixada no espaço vectorial, temos a equação matricial AX ϕ Xλ= ou ( ) 0XIA =λ− , isto é, um sistema homogéneo que deve ter outras soluções além da nula, ou seja, deve ser indeterminado. Logo, a matriz IA λ− é singular (não regular), o que é equivalente a 0IA =λ− . À equação 0IA λ− = , cujas raízes são os valores próprios de A, chama-se equação característica. Chama-se polinómio característico ao polinómio IA λ− em λ de grau igual à ordem de A. Para este polinómio é válido o seguinte teorema: 52 Teorema 4.23: Um polinómio característico não depende da matriz que representa o endomorfismo de um espaço vectorial. ϕ Demonstração: Sejam e { }( )ie,MA ϕ= { }( )ie,MB ′ϕ= , com { }ie e { }ie′ bases do espaço vectorial. Sabemos que , em que P é a matriz de passagem de { para {PAPB 1 ⋅⋅= − }ie }ie′ . Vamos mostrar que IAIB λ−=λ−
Compartilhar