Baixe o app para aproveitar ainda mais
Prévia do material em texto
Introdução à álgebra linear 1. Matrizes Definição 1.1: (Representação de uma matriz) Denominamos matriz a um conjunto de números reais dispostos em linhas e colunas, numa certa ordem, e colocados entre colchetes ou parênteses. Assim, uma matriz real que vamos denotar por A, com m linhas e n colunas é representada da forma: A = (a11 ⋯ a1j ⋯ a1n⋮ ⋯ aij ⋯ ⋮am1 ⋯ amj ⋯ a mn) ou A = [ a11 ⋯ a1j ⋯ a1n ⋮ ⋯ aij ⋯ ⋮ a m1 ⋯ amj ⋯ amn ] com aij ∈ ℝ , i = 1 a m e j = 1 a n. Os escalares aij são denominados elementos da matriz, onde o primeiro índice indica a linha e o segundo índice indica a coluna às quais pertence o elemento. Neste caso, dizemos que a matriz A é de ordem m×n . Por simplicidade, vamos utilizar a indicação A=(aij) ou A=[aij ] para denotar a matriz A e seus elementos. Exemplo 1.1: Ao recolhermos os dados referentes a altura, peso e idade de um grupo de 4 pessoas, podemos dispô-los na tabela Pessoa Altura ( m ) Peso ( kg ) Idade ( anos ) Pessoa 1 1,70 70 23 Pessoa 2 1,75 60 45 Pessoa 3 1,60 52 25 Pessoa 4 1,81 72 30 Ao abstrairmos os significados das linhas e colunas, temos a matriz A=(1,70 70 231,75 60 451,60 52 251,81 72 30) onde os elementos são: a11 = 1,70 a12 = 70 a13 = 23 a21 = 1,75 a22 = 60 a23 = 45 a31 = 1,60 a32 = 52 a33 = 25 a41 = 1,81 a42 = 72 a43 = 30 Definição 1.1a: (definição formal de matriz) Considere I m = {1,2 , ... , m } e I n = {1,2 , ... , n} subconjuntos de ℕ . Uma matriz sobre ℝ , de ordem m x n, é uma função A : I m×I n → ℝ que para cada par ordenado (i , j) ∈ I m× I n associa um único escalar aij = A(i , j) ∈ ℝ , denominado elemento da matriz A 1.1 Tipos especiais de matrizes Definição 1.2: (matriz quadrada) Dizemos que uma matriz A=(aij) de ordem m×n é quadrada se m = n, isto é, se possui o mesmo número de linhas e de colunas. Neste caso, dizemos simplesmente que A é uma matriz de ordem n. E, a diagonal principal são os elementos aii , i = 1 a n. Definição 1.3: (matriz nula) Dizemos que uma matriz A=(aij) de ordem m×n é a matriz nula se seus elementos aij são todos nulos. Neste caso, denotamos A = 0. Frequentemente, indicamos 0m×n para denotar uma matriz nula de ordem m×n , onde pode causar alguma dúvida sobre a ordem da matriz. Definição 1.4: (igualdade de matrizes) Sejam A=(aij) e B=(bij) duas matrizes de ordem m×n . Dizemos que as matrizes A e B são iguais se, e somente se, aij = bij ; i = 1, · · · , m e j = 1, · · · , n . Definição 1.5: (matriz coluna) Dizemos que uma matriz A=(aij) de ordem m×1 é uma matriz coluna. Definição 1.6: (matriz linha) Dizemos que uma matriz A=(aij) de ordem 1×n é uma matriz linha. Obs.: Em geral, uma matriz coluna também é denominada vetor coluna e uma matriz linha também é denominada vetor linha. Em particular, podemos considerar um escalar a IR como uma matriz∈ de ordem 1×1. Definição 1.7: ( matriz triangular superior) Seja U = (uij) uma matriz de ordem n. Dizemos que U é uma matriz triangular superior se os elementos abaixo da diagonal principal são todos nulos, isto é, uij=0 para j < i. Definição 1.8: (matriz triangular inferior) Seja L = (l ij) uma matriz de ordem n. Dizemos que L é um matriz triangular inferior se os elementos acima da diagonal principal são todos nulos, isto é, l ij=0 para j > i. Definição 1.9: ( matriz diagonal) Seja D = (d ij) uma matriz de ordem n. Dizemos que D é uma matriz diagonal se os elementos fora da diagonal principal são todos nulos, isto é, d ij=0 para j ≠ i. Frequentemente, indicamos D = diag (d 1 ,⋯ , d n) , para dizer que D é uma matriz diagonal de ordem n. Definição 1.10: (traço de uma matriz) O traço de uma matriz A = (aij) , de ordem n, que denotamos por tr(A), é a soma dos elementos da diagonal principal, isto é, tr( A ) = ∑ i=1 n aii = a11 +⋯+ ann . Definição 1.11: (matriz escalar) Uma matriz diagonal D = diag (d 1 ,⋯ , d n) cujos elementos da diagonal principal são todos iguais, isto é, d ii = α para i = 1, · · · , n, é denominada matriz escalar. Definição 1.12: (matriz identidade) Uma matriz diagonal cujos elementos da diagonal principal são todos iguais a 1 é denominada identidade. Frequentemente, indicamos I n para denotar uma matriz identidade de ordem n. Definição 1.13: (transposta de uma matriz) Se A é uma matriz de ordem m×n, denominamos transposta de A à matriz de ordem n×m obtida trocando–se as linhas pelas colunas. Denotamos a transposta da matriz A por At . 1.2 Operações com matrizes Ao utilizar matrizes, surge naturalmente a necessidade de efetuarmos certas operações. Por exemplo, consideremos as tabelas, que descrevem a produção de grãos em dois anos consecutivos. Se quisermos montar uma tabela que dê a produção por produto e por região nos dois anos conjuntamente, teremos que somar os elementos correspondentes das duas tabelas anteriores: Ou seja: Podemos considerar agora a seguinte situação. Existem muitos incentivos para se incrementar a produção, condições favoráveis etc., de tal forma que a previsão para a safra do terceiro ano será o triplo da produção do primeiro. Assim, a matriz de estimativa de produção deste último será: Acabamos de efetuar, neste exemplo, duas operações com matrizes: adição e multiplicação por um número real, que estão definidas, formalmente, a seguir. Definição 1.14: A soma de duas matrizes, A e B, de ordem m×n , é definida como sendo a matriz de mesma ordem, A + B, cujos elementos são somas dos elementos correspondentes de A e B. Assim, A + B = (aij + bij) . Podemos dizer também que a soma das matrizes A e B é uma matriz C, de ordem m×n , C = A + B obtida somando-se os elementos correspondente de A e B, ou seja, cij = aij + bij , para i = 1 a m e j = 1 a n. Obs.: Matrizes de ordens diferentes não podem ser somadas. Definição 1.15: A multiplicação de uma matriz A=(aij) de ordem m×n por um escalar (número real) α é definida pela matriz m×n B = αA obtida multiplicando-se cada elemento da matriz A pelo escalar α, ou seja, bij =α aij , para i = 1 a m e j = 1 a n. Escrevemos também (α A)ij =αaij . Dizemos que a matriz B é um múltiplo escalar da matriz A. Obs.: A diferença entre duas matrizes, de mesma ordem, A e B, é definida por A – B = A + ( - B ), ou seja, é a soma da matriz A com a oposta da matriz B. Definição 1.16: Sejam A uma matriz linha de ordem 1×n e B uma matriz coluna de ordem n×1 , o produto AB, nesta ordem é a matriz C de ordem 1×1 dada por: C = [a11b11 + a12b21 +…+ a1k bk1+…+ a1n bn1] Definição 1.17: O produto de duas matrizes A=(aij)m× p e B=(bij)p×n , tais que o número de colunas de A é igual ao número de linhas de B, é uma matriz C = AB, nessa ordem, m×n , onde cij = ai1b1j+ ai2b2j+…+ aip b pj , i = 1 a m e j = 1 a n. Notação de somatório: cij = ∑ k=1 p aik bkj para i = 1 a m e j = 1 a n. Obs.: a) Podemos definir o produto AB somente quando o número de colunas de A é igual ao número de colunas de B. b) Em geral, AB ≠ BA. Definição 1.18: Seja A=(aij) uma matriz quadrada. Dizemos que A é simétrica se At=A , isto é, aij=a ji para todo i, j. Definição 1.19: Seja A=(aij) uma matriz quadrada. Dizemos que A é antissimétrica se At=−A , isto é, aij=−a ji para todo i, j. Definição 20: Seja A uma matriz quadrada. Define–se potenciação para expoentes naturais da seguinte forma: Ak+1=AAk , onde A2=AA , A1=A e A0=I . Aqui I é a matriz identidade de mesma ordem da matriz A. Exemplo 1.2: O cálculo da expressão A2−2A+3I2 , onde A=[1 23 1] , é obtido da seguinte forma: A2−2A+3I2= [7 46 7]− [2 46 2]+ [3 00 3]= [8 00 8] . Podemos definir a matriz p (A)= A2−2A+3I2 , de mesma ordem da matriz A, que é o polinômio matricial em A associadoao polinômio p (x )= x2−2x+3 . Definição 1.21: Dizemos que a matriz quadrada A é idempotente se A2=A . Exemplo 1.3: A matriz A, dada abaixo, é idempotente, isto é, A2=A . A = 1 2 [1 11 1] Definição 22: Seja A uma matriz quadrada. Dizemos que A é periódica, com período k, se Ak+1=A , onde k é o menor inteiro positivo com tal propriedade. Exemplo 1.4: A matriz A = [ 1 −2 −6−3 2 92 0 −3] é periódica com período 2. Definição 1.23: Seja A uma matriz quadrada de ordem n. Dizemos que A é nilpotente se existe um k ∈ ℕ∖{0} tal que Ak=0n . Se k é o menor inteiro positivo tal que A k=0n , dizemos que A é nilpotente de índice k. Definição 1.24: Dizemos que a matriz quadrada A é autorreflexiva se A2=I . Definição 1.25: Se A e B são matrizes quadradas tais que AB = BA, dizemos que as matrizes A e B são comutativas. Definição 1.26: Se A e B são matrizes quadradas tais que AB = −BA, dizemos que as matrizes A e B são anti–comutativas. Definição 1.27: Seja A uma matriz real de ordem n. Dizemos que A é uma matriz normal se At A=AAt , isto é, as matrizes A e a sua transposta comutam. 1.3 Propriedades das matrizes Sejam A, B e C matrizes, α e β escalares. 1.3.1 Propriedades da adição de matrizes: a) comutatividade: A + B = B + A b) associatividade: A + (B + C) = (A + B) + C c) existência do elemento neutro: A + 0 = A, onde 0 é a matriz nula d) existência do simétrico: A + (-A) = 0 1.3.2 Propriedades da multiplicação de um escalar por uma matriz : a) associatividade: α(βA) = (αβ)A b) distributividade: (α + β)A = αA + βA e α(A + B) = αA + αB 1.3.3 Propriedades da multiplicação de matrizes: a) associatividade: A(BC) = (AB)C b) existência do elemento neutro: AI n=I m A=A , onde A é uma matriz m×n c) distributividade: A(B + C) = AB + AC e (B + C)A = BA + CA; α(AB) = ( αA)B = A( αB) 1.3.4 Propriedades da matriz transposta: a) (At )t=A b) (A+B)t=At+Bt c) (α A)t=α At d) (AB)t=B t At 2. Sistemas de equações lineares e matrizes Definição 2.1: Dados os coeficientes reais a1 , a2 ,⋯, an e o termo independente b ∈ ℝ , uma equação linear algébrica com n incógnitas é da forma a1 x1 + a2 x2 +⋯+ an xn = b onde x1 , x2 ,⋯, xn são os escalares reais que satisfazem essa equação. Definição 2.2: Seja A=(aij ) uma matriz de ordem m×n definida sobre ℝ , ou seja, seus elementos aij são números reais para i = 1 a m e j = 1 a n. Consideremos o problema de encontrar escalares x1 ,⋯ , x n ∈ ℝ satisfazendo simultaneamente o seguinte sistema de equações lineares algébricas a11 x1+ a12 x2 +⋯+ a1n xn = b1 a21 x1+ a22 x2 +⋯+ a2n xn = b2 ⋮ am1 x1+ am2 x2+⋯+ amn xn = bm conhecendo os escalares b1 ,⋯, bm ∈ ℝ . Esse problema é denominado sistema linear de equações algébricas, com m equações lineares e n incógnitas. Obs.: No texto diremos que um sistema linear de equações algébricas é simplesmente um sistema linear. Por simplicidade, vamos representar o sistema linear acima na sua forma matricial AX = B, onde A=[ a11 a12 ⋯ a1na21 a22 ⋯ a2n⋮ ⋮ ⋮ ⋮am1 am2 ⋯ amn] é a matriz dos coeficientes, X=[ x1x2⋮xn] é o vetor de incógnitas e B=[ b1b2⋮bm] é o vetor dos termos independentes. Definição 2.3: Toda n-upla (x1 , x2 ,⋯, xn) de números reais que satisfaz as equações do sistema linear simultaneamente é chamada uma solução do sistema linear. O vetor coluna X, associado a essa n-upla é denominado vetor solução do sistema linear. O conjunto de todas as soluções do sistema linear é chamado conjunto solução. Definição 2.4: Operações elementares sobre as equações de um sistema linear: a) Trocar a posição de duas equações do sistema linear; b) Multiplicar uma equação por um escalar diferente de zero; c) Somar a uma equação outra equação multiplicada por um escalar. Definição 2.5: Operações elementares sobre as linhas de uma matriz: a) Permuta das i-ésima e j-ésima linhas (Li⇔ L j) ; b) Multiplicação da i-ésima linha por um escalar não nulo (Li⇒α Li) ; c) Substituição da i-ésima linha pela i-ésima linha somada a j-ésima linha multiplicada por α (Li⇒ Li+α L j) . Definição 2.6: Matriz aumentada associada a um sistema linear com m equações de n incógnitas é uma matriz do tipo [A∣B ] onde A é a matriz dos coeficientes do sistema linear e B é o vetor dos termos independentes. Ou seja, a última coluna da matriz aumentada é formada pelos elementos do vetor B. Obs.: Quando aplicamos operações elementares sobre as equações de um sistema linear, na verdade, estamos aplicando operações elementares sobre as linhas da matriz aumentada. Definição 2.7: Se A e B são matrizes m×n , dizemos que B é linha equivalente ( ou equivalente por linhas ) a A, se B for obtida de A através de um número finito de operações elementares sobre as linhas de A. Propriedades: a) Reflexividade: Toda matriz é linha equivalente a ela mesma. b) Simetria: Se A é linha equivalente a B, então B é linha equivalente a A. c) Transitividade: Se A é linha equivalente a B e B é linha equivalente a C, então A é linha equivalente a C. Aplicando a definição anterior a dois sistemas, AX = B e CX = D, onde a matriz ampliada do segundo sistema é obtida aplicando-se operações elementares sobre as linhas da matriz ampliada do primeiro sistema, pode-se verificar então que os dois sistemas possuirão as mesmas soluções. Definição 2.8: Dois sistemas que possuem o mesmo conjunto solução são chamados sistemas equivalentes. Definição 2.9: Dois sistemas que possuem matrizes aumentadas linha equivalente são equivalentes. Definição 2.10: Uma matriz A m×n está na forma escalonada reduzida ( ou é linha reduzida à forma escada ) quando satisfaz as seguintes condições: a) Todas as linhas nulas ocorrem abaixo das linhas não nulas. b) O pivô ( primeiro elemento não nulo de uma linha ) de cada linha não nula é igual a 1. c) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior. Isto é, o número de zeros precedendo o primeiro elemento não nulo de uma linha aumenta a cada linha, até que sobrem somente linhas nulas, se houver. d) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero. Obs.: Se uma matriz satisfaz as condições a) e c), mas não necessariamente b) e d), dizemos que ela está na forma escalonada. Resultados Importantes: a) Toda matriz A m×n é linha equivalente a uma única matriz escalonada reduzida R m×n . b) Seja R uma matriz n×n na forma escalonada reduzida. Se R≠ In , então R tem uma linha nula. Veremos, agora, um método utilizado na resolução de sistemas lineares. 2.1 Resolução de um sistema linear com m equações a n incógnitas Definição 2.11: O método de Gauss-Jordan é o método de resolução de sistemas lineares que consiste em aplicar operações elementares às linhas da matriz aumentada até que ela esteja na forma escalonada reduzida. Exemplos: a) x1 + 4x2 + 3x3= 1 2x1+ 5x2 + 4x3 = 4 x1 − 3x2− 2x3= 5 é equivalente a x1 = 3 x2 =−2 x3= 2 O sistema é possível e determinado. b) x + 3y + 13z = 9 y + 5z = 2 −2y − 10z =−8 é equivalente a x − 2z = 3 y + 5z = 2 0 =−4 O sistema é impossível. A última linha não nula da forma escalonada reduzida da sua matriz aumentada é da forma c) 3z − 9w = 6 5x + 15y − 10z + 40w =−45 x + 3y − z + 5w =−7 é equivalente a x + 3y + 2w=−5 z − 3w = 2 O sistema é possível e indeterminado. Temos duas incógnitas que não estão associadas a pivôs. As incógnitas associadas a pivôs são chamadas variáveis básicas e as que não estão associadas a pivôs são denominadas variáveis livres Neste exemplo, as variáveis y e w são variáveis livres. E, dizemos que o sistema possui dois graus de liberdade. As variáveis básicas terão os seus valores dependentes dos valores associados às variáveis livres: [−5−2w−3yy2+3ww ]ou [ −5 0 2 0 ] + [ −3 1 0 0 ] . y + [ −2 0 3 1 ] . w, y e w números reais. [−5020 ] , [ −3 1 0 0 ] e [ −2 0 3 1 ] são soluções básicas. Obs.: Sejam A de ordem m×n e B de ordem m×1 . Se o sistema linear AX = B possui duas soluções distintas X 0 ≠ X 1 , então o sistema tem infinitas soluções. 2.2 Discussão de um sistema linear Definição 2.12: Dada uma matriz A de ordem m×n , seja B uma matriz de ordem m×n a forma escalonada reduzida equivalente a A. O posto de A, denotado por p, é o número de linhas não nulas de B. A nulidade de A é igual a n – p. Dado um sistema linear com m equações e n incógnitas, existem três possibilidades: a) ele admite uma única solução ( sistema possível e determinado ) b) ele tem infinitas soluções ( sistema possível e indeterminado ) c) ele não possui solução ( sistema impossível ) Considere o sistema AX = B com m equações e n incógnitas e, pc o posto da matriz A e pa o posto da matriz ampliada [A∣B ] : a) O sistema admite solução se, e somente se, pa = pc . b) O sistema é possível e determinado se, e somente se, pa = pc = n. c) O sistema é possível e indeterminado se, e somente se, pa = pc < n. d) O sistema é impossível se, e somente se, pc < pa . 2.3 Sistemas lineares homogêneos Todo sistema homogêneo da forma AX = 0, admite pelo menos a solução X = 0, chamada solução trivial. Obs.: a)Todo sistema homogêneo tem solução. b) Todo sistema homogêneo ou tem somente a solução trivial ou tem infinitas soluções. c) Para resolver um sistema homogêneo basta escalonarmos a matriz dos coeficientes do sistema. Se A=(aij) é uma matriz de ordem m×n , tal que m < n, então o sistema homogêneo AX = 0 tem solução diferente da solução trivial, ou seja, todo sistema homogêneo com menos equações do que incógnitas tem infinitas soluções. Propriedades: Seja A=(aij) de ordem m×n e α um escalar real: a) Se X e Y são soluções do sistema homogêneo, então X + Y também é. b) Se X é a solução do sistema homogêneo, então αX também é. 3. Determinantes Consideremos o sistema de uma equação com uma incógnita ax = b, a ≠ 0. A solução deste sistema é x=b a . Neste sistema o denominador está associado à matriz dos coeficientes do sistema, ou seja, [a ] . Em um sistema com duas equações e duas incógnitas a11 x + a12 y = b1 a21 x + a22 y = b2 , supondo que o sistema é possível e determinado, encontramos x= b1 a22−b2 a12 a11 a22−a12a21 e y= b2 a11 − b1 a21 a11a22− a12a 21 . Os denominadores são iguais e estão associados à matriz dos coeficientes do sistema [a11 a12a21 a22] . Os denominadores que aparecem na solução dos dois sistemas são casos particulares do que é chamado determinante de uma matriz quadrada. Notação: Quando nos referirmos ao determinante de uma matriz quadrada A, escreveremos det A ou | A |. 3.1 Conceitos preliminares Definição 3.1: Dado n ≥ 1 um número natural, N n = {1, 2, …, n} um conjunto com n elementos distintos, toda aplicação bijetota σ : N n→N n chama-se permutação dos elementos do conjunto N n . Se σ e ϕ são permutações de N n , então σ∘ϕ: N n→N n também é uma permutação. A aplicação idêntica de N n , id : N n→N n é uma permutação onde os termos estão na mesma ordem que aparecem no conjunto N n . A inversa de uma permutação σ de N n , σ −1 , também é uma permutação de N n . A quantidade de permutações de n objetos é dada por n! = n (n-1)(n-2). … .2.1 Por definição, 1! = 1 e 0! = 1. Definição 3.2: Dada uma permutação dos inteiros 1, 2, …, n, existe uma inversão quando um inteiro precede outro menor que ele. 3.2 O determinante de uma matriz Definição 3.3: Seja A uma matriz de ordem n, det A=∑ σ sgn(σ)a1σ(1)a2σ(2) ...anσ(n) , onde sgn(σ) = 1 se o número de inversões é par e sgn(σ) = -1 se o número de inversões é ímpar. Obs;: Em cada termo do somatório da definição do determinante de uma matriz existe um, e apenas um, elemento de cada linha e um, e apenas um, elemento de cada coluna. E, o número de parcelas ao desenvolver o somatório é igual a n! Propriedades: 1. Se todos os elementos de uma linha ou coluna de uma matriz A de ordem n são nulos, então det A = 0. 2. Dada uma matriz A de ordem n e sua transposta At , det A = det At . 3. Se multiplicarmos uma linha da matriz A por uma constante k, o determinante fica multiplicado por esta constante. 4. Trocando-se de posição duas linhas da matriz, o determinante troca-se de sinal. 5. O determinante de uma matriz que tem duas linhas ou colunas iguais é zero. 6. Se somarmos a uma linha da matriz outra linha multiplicada por uma constante, o determinante não se altera. 7. Em geral, det (A+B) ≠ det A + det B. 8. det (AB) = det A . det B. Obs.: a) Dada uma matriz diagonal A de ordem n, det A = a11a22 ... ann . b) Dada a matriz identidade de ordem n, I n , det I n = 1. 3.3 Desenvolvimento de Laplace ou em cofatores Definição 3.4: Dada uma matriz A de ordem n, o determinante pode ser dado pelo desenvolvimento em cofatores ou de Laplace em termos da i-ésima linha de A: det A= ai1Δi1+ ai2Δi2+ ... + ai nΔi n= ∑ j=1 n aijΔij , onde Δij =(−1) i+ j∣Aij∣ são os cofatores da matriz A e Aij é a submatriz de ordem (n-1) da matriz A obtida eliminando-se a i-ésima linha e a j-ésima coluna de A denominada menor do elemento aij . Obs.: O determinante de uma matriz de ordem n pode ser calculado fazendo-se o desenvolvimento de Laplace segundo qualquer linha ou coluna de A. 4. Inversão de matrizes Definição 4.1: Uma matriz A de ordem n é invertível ou não singular, se, e somente se, existe uma matriz B, de mesma ordem, tal que AB = BA = I n , onde I n é a matriz identidade de ordem n, e B caso exista é única, chama-se inversa de A e indicamos B por A−1 . Obs.: Se uma matriz A de ordem n não tem inversa, dizemos que A é não invertível ou sigular. 4.1 Processo prático para obtenção da inversa Teorema 4.1: Uma matriz A de ordem n é invertível se, e somente se, A é equivalente por linhas à matriz identidade I n . A demonstração desse teorema mostra não somente uma forma de descobrir se uma matriz A tem inversa mas também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [A∣I n] e encontramos a sua forma escalonada reduzida [ R|S ]. Se R = I n , então a matriz A é invertível e a inversa A−1 = S. Caso contrário, a matriz A é singular ou não invertível. Propriedades: Sejam A e B matrizes de ordem n. a) Se A é invertível, então A−1 também é e, (A−1)−1=A . b) Se A e B são invertíveis, então AB é invertível e, (AB )−1=B−1 A−1 . c) Se A é invertível a transposta também é e, (At)−1=( A−1)t . Teorema 4.2: Sejam A e B matrizes de ordem n. a) Se BA = I n , então AB = I n ; b) Se AB = I n , então BA = I n . 4.2 Matriz inversa e determinante Suponhamos, agora, que a matriz A de ordem n tenha inversa, isto é, existe A−1 tal que AA−1=I n . Usando propriedades do determinante det (AA−1)= det In det A. det A−1= 1 . Assim, concluímos que se A tem inversa, i) det A ≠ 0 e, ii) det A−1 = 1det A Obs.: Se det A = 0, então A não possui inversa. 4.2.1 Matriz adjunta Definição 4.2: Dada uma matriz A de ordem n podemos formar uma nova matriz Ā , chamada matriz dos cofatores de A, onde seus elementos são os cofatores dos elementos de A, ou seja, Ā=[Δij ] . Definição 4.3: Dada uma matriz A de ordem n, a matriz adjunta de A é a transposta da matriz dos cofatores de A, ou seja, adj A=Āt . Teorema 4.3: Uma matriz A de ordem n admite uma inversa se, e somente se, det A ≠ 0. E, neste caso, A−1 = 1det A adj A. 4.3 Sistemas de Cramer Definição 4.4: Um sistema de Cramer é um sistema linear de n equações com n incógnitas cuja matriz dos coeficientes é invertível. Seja AX = B a forma matricial de um sistemade Cramer, aplicando a definição de matriz inversa, X=A−1 B , ou seja, o sistema é possível e determinado e a sua única solução é dada por A−1 B . Em particular, um sistema com n equações e n incógnitas homogêneo cuja matriz dos coeficientes é invertível só admite a solução trivial. Ou seja, o sistema homogêneo com n equações e n incógnitas, AX = 0, tem solução não trivial, X ≠ 0, se e somente se, A é singular. 4.3.1 Regra de Cramer Seja AX = B a forma matricial de um sistema de Cramer com n equações e n incógnitas. Então, X=A−1 B e, como A−1 = 1det A adj A, X = 1 det A (adj A ) B: Então, Podemos notar que o numerador desta fração é igual ao determinante da matriz que obtemos de A, substituindo-se a primeira coluna pela matriz dos termos independentes. De fato, usando o desenvolvimento de Laplace, obtemos Ou seja, Generalizando, x j= det A j det A , j = 1, 2, …, n, onde A j é a matriz que se obtém de A substituindo-se a sua j-ésima coluna pelo vetor B dos termos independentes. Este método de resolução de sistemas lineares com n equações e n incógnitas que só pode ser aplicado quando o determinante da matriz dos coeficientes for não nulo é chamado Regra de Cramer. Obs.: Se a matriz A é singular, então a Regra de Cramer não pode ser aplicada para resolver o sistema. 5. Vetores no plano e no espaço Muitas grandezas físicas, como velocidade, força e impulso, para serem completamente identificadas, precisam, além da magnitude, da direção e do sentido. Estas grandezas são chamadas grandezas vetoriais ou simplesmente vetores. Geometricamente, vetores são representados por segmentos orientados no plano ou no espaço. A ponta da seta do segmento orientado é chamada ponto final ou extremidade e o outro ponto extremo é chamado de ponto inicial ou origem do segmento orientado. Segmentos orientados com mesma direção, mesmo sentido e mesmo comprimento, representam o mesmo vetor. A direção, o sentido e o comprimento do vetor são definidos como sendo a direção, o sentido e o comprimento de qualquer um dos segmentos orientados que o representam. Dois vetores u⃗ e v⃗ são paralelos, u⃗ // v⃗ , se tiverem a mesma direção. Dizemos que dois vetores são iguais se eles possuem o mesmo comprimento, a mesma direção e o mesmo sentido. Se o ponto inicial de um representante de um vetor v⃗ é A e o ponto final é B, então escrevemos v⃗= A⃗B . O vetor nulo 0⃗ é todo vetor onde a origem coincide com a extremidade. Obs.: O vetor nulo é paralelo a qualquer vetor. A cada vetor não-nulo u⃗ corresponde um vetor oposto −u⃗ , de mesmo comprimento e mesma direção de u⃗ , porém, de sentido contrário. Se v⃗= A⃗B , o vetor B⃗A é o oposto de A⃗B , isto é, B⃗A=−A⃗B . Um vetor u⃗ é unitário se tem comprimento igual a 1, ∥u⃗∥ = 1. E, o vetor unitário u⃗ que tem o mesmo sentido de um vetor v⃗ é chamado versor de v⃗ . Dois vetores u⃗ e v⃗ são ortogonais ( ou perpendiculares, se coplanares ), u⃗⊥ v⃗ , se u⃗ formar ângulo reto com v⃗ . E, considera-se o vetor nulo ortogonal a qualquer vetor. 5.1 Adição de vetores 1º caso: u⃗ // v⃗ Neste caso o vetor soma u⃗ + v⃗ tem origem na origem de u⃗ e extremidade na extremidade de v⃗ . Se u⃗ e v⃗ têm o mesmo sentido: Se u⃗ e v⃗ têm sentidos contrários: 2º caso: u⃗ e v⃗ não paralelos Neste caso o vetor soma u⃗ + v⃗ está na diagonal do paralelogramo determinado por u⃗ e v⃗ , quando os seus representantes estão representados com a mesma origem. Sendo u⃗ , v⃗ e w⃗ vetores quaisquer, valem as seguintes propriedades: a) comutativa: u⃗ + v⃗ = v⃗ + u⃗ . b) associativa: ( u⃗ + v⃗ ) + w⃗ = u⃗ + ( v⃗ + w⃗ ). c) existência do elemento neutro: u⃗ + 0⃗ = u⃗ . d) existência do oposto: u⃗ + ( - u⃗ ) = 0⃗ . Obs.: O vetor u⃗ + ( - v⃗ ), escreve-se u⃗ - v⃗ , é chamado diferença entre u⃗ e v⃗ . 5.2 Multiplicação de um vetor por um escalar A multiplicação de um vetor v⃗ por um número real a, a v⃗ , a ≠ 0 e v⃗ ≠ 0⃗ , possui as seguintes características: a) direção: a v⃗ é paralelo a v⃗ ; b) sentido: a v⃗ e v⃗ tem o mesmo sentido se a > 0 e contrário se a < 0; c) Se a = 0 ou v⃗ = 0⃗ , então a v⃗ = 0⃗ ; d) comprimento: a v⃗ tem o comprimento igual ao de v⃗ multiplicado por | a |. Obs.: a) Se u⃗ = a v⃗ , dizemos que u⃗ é um múltiplo escalar de v⃗ . b) Dois vetores não-nulos são paralelos ( ou colineares ) se, e somente se, um é múltiplo escalar do outro. 5.3 Ângulo formado por dois vetores Seja θ o ângulo entre os vetores u⃗ e v⃗ , 0 ≤ θ ≤ π ( ou 0º ≤ θ ≤ 180º ), se u⃗ // v⃗ e u⃗ e v⃗ têm o mesmo sentido, então θ = 0; se u⃗ // v⃗ e u⃗ e v⃗ têm sentidos contrários, então θ = π. 5.4 Componentes de um vetor Seja v⃗ um vetor no plano. Definimos as componentes de v⃗ como sendo as coordenadas (v1 , v 2) do ponto final do representante de v⃗ que tem ponto inicial na origem. Vamos identificar o vetor com as suas componentes e escreveremos simplesmente v⃗ = (v1 , v 2) . Assim, as coordenadas de um ponto P são iguais as componentes do vetor O⃗P , que vai da origem do sistema de coordenadas ao ponto P. Obs.: 0⃗=(0,0) . Sejam a um número real, u⃗ = (u1 , u2) e v⃗ = (v1 , v 2) : u⃗ + v⃗ = (u1+v1 , u2+v2) a u⃗ = (au1 , au2) Semelhantemente, se v⃗ é um vetor no espaço, v⃗ = (v1 , v 2 , v3) e 0⃗=(0,0 ,0) . E, também vale a soma e a multiplicação por escalar. Obs.: Conforme nós já vimos, um vetor também pode ser escrito como uma matriz coluna. Assim, v⃗=[v1v2] no plano e v⃗=[v1v2v3] no espaço. Propriedades dos vetores: Sejam u⃗ , v⃗ e w⃗ vetores e a e b números reais. São válidas as seguintes propriedades: a) u⃗ + v⃗ = v⃗ + u⃗ ; b) ( u⃗ + v⃗ ) + w⃗ = u⃗ + ( v⃗ + w⃗ ); c) u⃗ + 0⃗ = u⃗ ; d) u⃗ + ( - u⃗ ) = 0⃗ ; e) a ( b u⃗ ) = (ab) u⃗ ; f) a ( u⃗ + v⃗ ) = a u⃗ + a v⃗ ; g) ( a + b ) u⃗ = a u⃗ + b u⃗ ; h) 1 u⃗ = u⃗ . 5.5 Norma e produto escalar Já vimos que o comprimento de um vetor u⃗ é definido como sendo o comprimento de qualquer um dos segmentos orientados que o representam. O comprimento do vetor u⃗ também é chamado de norma de u⃗ e é denotado por || u⃗ ||. Assim, ∥u⃗∥= √u12+u22 , no plano e, ∥u⃗∥= √u12+u22+u32 no espaço. Obs.: a) ∥a u⃗∥=∣a∣∥u⃗∥ ; b) Um vetor de norma igual a 1 é chamado vetor unitário. c) Dado um vetor v⃗ não nulo, o vetor u⃗ = v⃗ ∥v⃗∥ é o versor de v⃗ . Definição 5.1: (produto escalar) O produto escalar (ou produto interno) de dois vetores u⃗ e v⃗ é definido por u⃗ . v⃗ = 0, se u⃗ ou v⃗ é o vetor nulo u⃗ . v⃗ =∥u⃗∥∥v⃗∥cosθ , caso contrário em que θ é o ângulo entre eles. O produto escalar , u⃗ . v⃗ , entre dois vetores é dado por u⃗ . v⃗ = u1 v1 + u2 v2 , se u⃗ = (u1 , u2) e v⃗ = (v1 , v 2) são vetores no plano e por u⃗ . v⃗ = u1 v1 + u2 v2 + u3 v3 , se u⃗ = (u1 , u2 , u3) e v⃗ = (v1 , v 2 , v3) são vetores no espaço. Obs.: a) cosθ = u⃗ . v⃗ ∥u⃗∥∥v⃗∥ . b) Se os dois vetores são não nulos, então i) o ângulo entre eles é agudo se, e somente se, u⃗ . v⃗ > 0; ii) o ângulo entre eles é reto se, e somente se, u⃗ . v⃗ = 0; iii) o ângulo entre eles é obtuso se, e somente se, u⃗ . v⃗ < 0. Propriedades do produto escalar: Sejam u⃗ e v⃗ e w⃗ vetores, a e b números reais, a) u⃗ . v⃗ = v⃗ . u⃗ ; b) u⃗ . ( v⃗ + w⃗ ) = u⃗ . v⃗ + u⃗ . w⃗ ; c) a ( u⃗ . v⃗ ) = ( a u⃗ ) . v⃗ = u⃗ . ( a v⃗ ); d) v⃗ . v⃗ = ∥v⃗∥2≥ 0 , para todo v⃗ e v⃗ . v⃗ = 0, se e somente se v⃗ = 0. 5.6 Produto vetorial Definição (produto vetorial): Sejam u⃗ e v⃗ vetores no espaço, definimos o produto vetorial, u⃗ x v⃗ , como sendo o vetor com as seguintes características: a) Tem comprimento dado numericamente por ∥u⃗× v⃗∥=∥u⃗∥∥v⃗∥senθ , ou seja, a norma de u⃗ x v⃗ é numericamente igual à área do paralelogramo determinado por u⃗ e v⃗ ;b) Tem direção perpendicular a u⃗ e a v⃗ ; c) Tem sentido dado pela regra da mão direita. Se o ângulo entre os dois vetores é θ, giramos o vetor u⃗ de um ângulo θ até que coincida com v⃗ e acompanhamos este movimento com os dedos da mão direita, e então o polegar vai apontar no sentido de u⃗ x v⃗ . Propriedades do produto vetorial: Sejam u⃗ e v⃗ e w⃗ vetores, a e b números reais, a) u⃗ x v⃗ = - ( v⃗ x u⃗ ); b) u⃗ x v⃗ = 0 se, e somente se, um dos vetores é múltiplo escalar do outro; c) ( u⃗ x v⃗ ) . u⃗ = ( u⃗ x v⃗ ) . v⃗ = 0; d) a( u⃗ x v⃗ ) = (a u⃗ ) x v⃗ = u⃗ x (a v⃗ ); e) u⃗ x ( v⃗ + w⃗ ) = u⃗ x v⃗ + u⃗ x w⃗ e ( u⃗ + v⃗ ) x w⃗ = u⃗ x w⃗ + v⃗ x w⃗ . Obs.: Sejam u⃗ = (u1 , u2 , u3) e v⃗ = (v1 , v 2 , v3) vetores no espaço. Então o produto vetorial u⃗ x v⃗ é dado por u⃗ x v⃗ = (det [u2 u3v 2 v3] ,−det[u1 u3v1 v3] , det[u1 u2v1 v 2]) . 6. Espaço Vetorial Definição 6.1 : (Espaço Vetorial ) Um espaço vetorial real é um conjunto V, não vazio, com duas operações: a) soma: V×V →+ V , onde para quaisquer dois elementos u, v em V, associa-se um elemento u + v também em V; b) multiplicação por escalar: ℝ×V →. V , onde para qualquer escalar a e qualquer elemento v de V, associa-se um elemento a .v em V; tais que para todo u, v, e w em V e a, b escalares reais são satisfeitas as seguintes condições: i) u + v = v + u; ii) ( u + v ) + w = u + ( v + w); iii) Existe 0 em V, tal que u + 0 = u; iv) Existe – u em V, tal que u + ( - u ) = 0; v) a ( b u ) = (ab) u; vi) a (u + v) = a u + a v; vii) ( a + b ) u = a u + b u; viii) 1 u = u. Obs.: a) Pelo fato das condições acima coincidirem com as propriedades dos vetores (seção 5.4), usaremos a palavra vetor para designar um elemento de um espaço vetorial. b) O vetor 0 que satisfaz a condição iii) é chamado vetor nulo. Exemplos: a) ℝ2 e ℝ3 são espaços vetoriais. b) ℝn , o conjunto formado por todas as n-uplas de números reais, é um espaço vetorial. c) M(m,n), o conjunto das matrizes reais de ordem m x n, é um espaço vetorial. Algumas propriedades que são consequências da definição de espaço vetorial: 1) Para todo número real a, a . 0 = 0. 2) Para todo u em V, 0 . u = 0. 3) a . u = 0, a∈ℝ e u∈V se, e somente se, a = 0 ou u = 0. 4) Para todo a∈ℝ e todo u∈V , (- a) . u = a . (- u ) = - (a . u). 5) Quaisquer que sejam a , b∈ℝ , e u∈V , ( a – b ) u = a u – b u. 6) Quaisquer que sejam a∈ℝ , u , v∈V , a ( u – v) = a u – a v. 7) Dados b , a1 , … , an ∈ ℝ e u1 , … , un ∈ V , então b(∑j=1 n a j u j)=∑j=1 n (b a j )u j . 8) O vetor nulo de um espaço vetorial é único. 9) Para cada vetor u de um espaço vetorial V existe um único vetor – u, oposto de u em V. 10) Para cada vetor u de V tem-se - ( - u ) = u. 11) Se u , v ,w∈V e u + v = u + w, então v = w ( lei do cancelamento da adição). 12) Se u ,w∈V , então existe um único vetor v em V tal que u + v = w. 6.1 Subespaço Vetorial Definição 6.2 : (Subespaço Vetorial ) Seja V um espaço vetorial real. Um subespaço vetorial de V é um subconjunto W de V, W⊂V , W W≠∅ , tal que a) Para todo u , v∈W , u+v ∈ W ; b) Quaisquer que sejam a∈ℝ e u∈W , a u ∈ W . Obs.: a) As condições da definição 7.2 garantem que ao operarmos em W ( soma e multiplicação por escalar ), não obteremos um vetor fora de W. Isto é suficiente para afirmar que W é ele próprio um espaço vetorial, pois assim as operações ficam bem definidas e, além disso, não é necessário verificar as condições da definição 7.1, porque elas são válidas em V, que contém W. b) Qualquer subespaço de W de V precisa necessariamente conter o vetor nulo. c) Todo espaço vetorial admite pelo menos dois subespaços, que são chamados subespaços triviais, o conjunto formado somente pelo vetor nulo e o próprio espaço vetorial. Exemplos: a) Seja V = M(n,n) o espaço vetorial das matrizes quadradas de ordem n. O conjunto W das matrizes triangulares superiores de ordem n é um subespaço vetorial de V. b) O conjunto-solução de um sistema linear homogêneo com n incógnitas é um subespaço vetorial de M(n,1). 7. Combinações lineares Definição 7.1: Sejam V um espaço vetorial real, v1 , v2 , … , vn ∈ V e a1 , a2 , … , a n números reais. Então, a1 v1+ a2v 2+…+ an v n é uma combinação linear desses vetores. O vetor v = a1 v1+ a2 v2+…+ a n vn é um elemento de V, e dizemos que v é combinação linear de v1 , v2 , … , vn . Exemplo: v = (2,−4) ∈ℝ2 é combinação linear de v1= (1,1 ) e v2 = (1,−1) . Definição 7.2: Uma vez fixados vetores w1 , w2 , … , wn ∈ V , o conjunto W de todos os vetores de V que são combinação linear destes, é um subespaço vetorial de V, chamado subespaço gerado pelos vetores w1 , w2 , … , wn , ou ainda subespaço gerado pelo conjunto {w1 , w2 , … , wn} . Usamos a notação W = [w1 ,w2 ,… ,wn ] ou W = [{w1 , w2 ,… , wn}] e dizemos que w1 , w2 ,… , wn são geradores de W. Formalmente, W = [w1 ,w2 ,… ,wn ] = {v ∈ V ; v = a1 w1+ a2 w2 +…+ an wn , ai ∈ ℝ , 1 ⩽ i ⩽ n } . Exemplos: a) ℝ2 é gerado pelos vetores i = (1,0) e j = (0,1) do ℝ2 . b) ℝ3 é gerado pelos vetores i = (1,0,0), j = (0,1,0) e k = (0,0,1) do ℝ3 . Obs.: Trabalharemos com espaços finitamente gerados. E, dizemos que um espaço vetorial V é finitamente gerado se exite um subconjunto S, não vazio, de V, S finito, de maneira que V = [ S ]. Definição 7.3: Sejam V um espaço vetorial e, v1 , v2 ,… , v n ∈ V . Dizemos que o conjunto {v1 , v2 ,… , vn} é linearmente independente (L.I.) ou que os vetores v1 , v2 ,… , v n são L.I., se a equação a1 v1+ a2v2+…+ an v n= 0 admite apenas a solução trivial a1= a2=…= a n= 0 . Definição 7.4: O conjunto {v1 , v2 ,… , vn} é chamado linearmente dependente (L.D.) quando a equação a1 v1+ a2v 2+…+ an v n= 0 admite alguma solução não trivial, isto é, existe algum ai≠0 , tal que igualdade seja verdadeira. Dizemos então que os vetores v1 , v2 ,… , v n são L.D. Obs.: a) O conjunto vazio é L.I. b) {v1 , v2 ,… , vn} é L.D. se, e somente se, um destes vetores for uma combinação linear dos outros. Exemplos: a) Considerando o espaço vetorial V =ℝ3 , v1 , v2 ∈ V , {v1 , v2} é L.D. se, e somente se, v1 e v2 estão na mesma reta que passa pela origem. b) Considerando o espaço vetorial V=ℝ3 , v1 , v2 , v3 ∈ V , {v1 , v2 , v3} é L.D. se, e somente se, v1 , v2 e v3 estão no mesmo plano que passa pela origem. Propriedades: a) Se um conjunto finito L⊂V contém o vetor nulo, então esse conjunto é L.D. b) Se S={u }⊂V e u≠0 , então S é L. I. c) Se S={u1 ,… , un}⊂V é L.D., então um dos seus vetores é combinação linear dos outros. d) Se S 1 e S 2 são subconjuntos finitos e não-vazios de V, se S 1⊂S 2 e S 1 é L.D., então S 2 também é L.D. e) Se S 1 e S 2 são subconjuntos finitos e não-vazios de V, se S 1⊂S 2 e S 2 é L.I., então S 1 também é L.I. f) Se S = {u1 ,… , un} é L.I., e para um certo u ∈ V tivermos S ∪ {u}= {u1 ,… , un , u} L.D., então o vetor u é combinação linear dos vetores u1 ,… , un , isto é, u ∈ [S ] . g) Se S={u1 ,… , un} e u j ∈ [S − {u j }] , isto é, u j é combinação linear dos demais vetores de S, então [S ] = [S−{u j }] . 7.1 Base e dimensão Definição 7.5: Seja V um espaço vetorial real. Um conjunto B={u1 ,… , un} de vetores de V será uma base de V se: i) B é um conjunto L.I.; ii) V=[v1 , v 2 ,… , v n] Exemplos: a) Considere V=ℝ2 , e1=(1,0) e e2=(0,1) vetores de V. {e1 , e2} é base de V, conhecida como base canônica de ℝ2 . b) Considere V=ℝ3 , {(1,0 ,0) ,(0,1 ,0) ,(0,0 ,1)} é uma base de ℝ3 . c) Seja V=ℝn , e1=(1,0 ,…,0) , … , en=(0,0 ,…,1) vetores de V (n-uplas de números reais). {e1 ,… , en} é uma base do ℝn , chamada base canônica. d) Seja V = M(2,2) o espaço vetorial das matrizes reais de ordem 2. {[1 00 0] ,[0 10 0] ,[0 01 0] ,[0 00 1]} é uma base de V. Obs.: Seja V um espaço vetorial de dimensão finita.Então, quaisquer duas bases de V têm o mesmo número de elementos. Definição 7.6: O número de elementos da base de um espaço vetorial V é chamado dimensão de V e escrevemos dim V. Exemplos: a) dim ℝ2 = 2 b) dim ℝ3 = 3 c) dim ℝn = n d) dim M(m,n) = m . n Definição 7.7: Sejam B={v1 ,… , vn} base de V e v∈V onde v=a1v1+a2 v2+…+an vn . Chamamos estes números a1 , a2 ,… , an de coordenadas de v em relação à base B e denotamos por [v ]B = [a1a2⋮an] . Exemplo: Considere o espaço vetorial V =ℝ2 , a base canônica B = {e1 ,e2} e v = (4,3). Então, [v ]B = [43] . 8. Autovalores e Autovetores Definição 8.1: Dada uma matriz A de ordem n. Se existirem vetores v ∈ ℝn , v não-nulo, e λ ∈ ℝ tais que Av = λv, λ é um autovalor ( ou valor característico ) de A e v é um autovetor ( ou vetor característico ) de A associado a λ. Obs.: Pela definição acima, λ pode ser zero, embora v não possa ser o vetor nulo. 8.1 Determinação dos autovalores e dos autovetores Seja A uma matriz de ordem n. a) Os autovalores reais de A são as raízes reais do polinômio p (λ)= det (A−λ I n) , onde I n é a matriz identidade de ordem n. b) Para cada autovalor λ, os autovetores associados a λ são os vetores não-nulos da solução do sistema (A− λ I n)v = 0 . O polinômio p( λ) de grau n, p (λ)= det (A−λ I n) é chamado polinômio característico de A. Assim, para determinarmos os autovalores de A precisamos determinar as raízes reais do seu polinômio característico, que tem a forma p (λ) = (−1)nλn+ an−1λ n−1 +…+ a1λ + a0 . Obs.: Se a0 , a1 ,… , an−1 são inteiros, então as raízes racionais ( se existirem ) são números inteiros e divisores do coeficiente do termo de grau zero, a0 . 8.2 Auto-espaço O conjunto-solução do sistema (A− λ I n)v = 0 é um subespaço vetorial de ℝn associado ao autovalor λ. Definição 8.2: O auto-espaço associado ao autovalor λ, denotado por E( λ), é o subespaço gerado por todos os autovetores associados a λ. 8.3 algébrica e geométrica Definição 8.3: A multiplicidade algébrica do autovalor λ é a sua multiplicidade como raiz do polinômio característico p (λ)= det (A−λ I n) . Definição 8.4: A multiplicidade geométrica do autovalor λ é a dimensão do auto-espaço E( λ). Obs.: A multiplicidade geométrica de um autovalor é sempre menor ou igual à sua multiplicidade algébrica. 9. Transformações geométricas Uma transformação geométrica é uma aplicação bijetiva entre duas figuras geométricas, de forma que, a partir de uma figura geométrica original forma-se outra geometricamente igual ou semelhante. Formalmente, uma transformação de um conjunto não vazio U em um conjunto não vazio V é uma correspondência F que, a cada elemento x de U, associa um único elemento y = F(x) de V: denota- se F :U →V . O conjunto de elementos y para o qual existe um x tal que F(x) = y, chama-se imagem de F. O conjunto U chama-se domínio e o conjunto V chama-se contra-domínio de F. No plano, vamos considerar U=V=ℝ2 , ou seja, U e V é o espaço vetorial ℝ2 . E no espaço, U = V =ℝ3 , portanto, U e V é o espaço vetorial ℝ3 . Vamos estudar duas transformações geométricas básicas: a translação e a rotação. Podemos dizer que a translação é uma transformação de corpo rígido que move objetos sem deformá-los. Assim, cada ponto de um objeto é transladado da mesma quantia. A rotação, como a translação, também é uma transformação de corpo rígido, caracterizada por reposicionar os objetos, sem deformá-los. Deste modo, cada ponto do objeto é rotacionado de um mesmo ângulo sobre um mesmo eixo. 9.1 Transformações geométricas no plano 9.1.1 Translações no plano Definição 9.1: Seja a ∈ ℝ2 fixado. Translação é uma aplicação bijetora T :ℝ2→ℝ2 dada por T(x) = x + a. Para realizarmos a translação de um objeto geométrico representado por um conjunto de pontos P i , pertencentes ao ℝ 2 , adicionamos quantidades inteiras às suas coordenadas. Chamando essas quantidades inteiras de dx e dy, seja P(x,y) um ponto sobre o qual será efetuada uma operação de translação e P' as coordenadas do ponto após a translação. Assim, F(P) = T(x,y) = (x + dx, y + dy) = P'. Matricialmente, [ x 'y ']=[ xy]+T ou [ x 'y ']=[1 00 1][ xy ]+T , onde T=[dxdy ] é o vetor de translação. 9.1.2 Rotações no plano Definição 9.2: Seja θ ϵ [0,2π) um número fixado. A transformação bijetora Rθ :ℝ 2→ℝ2 definida por Rθ( x , y)= ( x.cosθ – y.sen θ , x.sen θ + y.cos θ) é, geometricamente, uma rotação de ângulo θ no sentido anti-horário. Assim, F(P) = Rθ( x , y) = ( x.cos θ – y.sen θ, x.sen θ + y.cos θ ) = P'. Matricialmente, [ x 'y ']=Rθ[ xy] , onde Rθ=[cosθ −senθsenθ cos θ ] é a matriz de rotação. 9.1.3 Coordenadas homogêneas Vimos que, enquanto a translação é tratada como uma soma de vetores, a rotação é tratada como uma multiplicação de uma matriz por um vetor. Assim, para que se possa combinar facilmente essas transformações, devemos poder tratar do mesmo modo as duas transformações de forma consistente. A solução portanto, é representar os pontos P do plano através de três coordenadas, denominadas coordenadas homogêneas. A translação em coordenadas homogêneas fica na forma: T(x,y,1) = ( x + dx, y + dy, 1). Matricialmente, [ x 'y '1 ]=[1 0 dx0 1 dy0 0 1 ][ xy1 ] , onde T=[1 0 dx0 1 dy0 0 1 ] é a matriz de translação. Obs.: Em coordenadas homogêneas podemos verificar que a translação é aditiva. Ou seja, para transladar um objeto em (dx1 , dy1) unidades, e depois em (dx2 , dy2) unidades, basta multiplicar o ponto P pela matriz de translação [1 0 dx10 1 dy10 0 1 ] e depois pela matriz [1 0 dx20 1 dy20 0 1 ] , ou simplesmente, [ x 'y '1 ]=[1 0 dx1+dx20 1 dy1+dy20 0 1 ][ xy1 ] . A rotação em coordenadas homogêneas fica na forma: T(x,y,1) = ( x.cos θ – y.sen θ, x.sen θ + y.cos θ, 1 ). Matricialmente, [ x 'y '1 ]=Rθ[ xy1 ] , onde Rθ=[cosθ −senθ 0senθ cos θ 00 0 1] . Obs.: A rotação, em coordenadas homogêneas, também é uma operação aditiva. Uma sequência de transformações de rotações e translações é chamada de transformação afim. Obs.: Uma matriz de transformação cuja submatriz 2 x 2 do canto superior esquerdo é ortogonal preserva ângulos e comprimentos. Estas transformações são chamadas de transformações de corpo rígido, pois não há distorção do objeto. 9.1.4 Composição de transformações A composição de transformações é obtida ao aplicar-se uma transformação composta a um ponto em vez de aplicar-lhe uma série de transformações, uma após a outra. Exemplo: Rotação de um objeto em torno de um ponto arbitrário P1. Passos: 1º) Translação leva P1 à origem; 2º) Efetuar rotação; 3º) Efetuar translação oposta. Esta sequência é ilustrada acima, onde a casa é rotacionada em relação a P1(x1,y1). A primeira translação é por (- x1, - y1), e a última translação ( oposta à primeira ) é por ( x1, y1 ). A transformação em sequência é: [1 0 x 10 1 y1 0 0 1 ] . [cosθ −senθ 0senθ cosθ 00 0 1 ] . [1 0 −x10 1 −y10 0 1 ] = [cosθ −senθ x1(1−cosθ)+ y1 . senθsenθ cosθ y1(1−cosθ)+x1 . senθ0 0 1 ] 9.2 Transformações geométricas no espaço O sistema de coordenadas tridimensionais utilizado será o da “Regra da Mão Direita”. O sentido positivo de uma rotação é dado quando observando-se sobre um eixo positivo em direção à origem, uma rotação de 90º levará um eixo positivo em outro positivo. Ou conforme a tabela abaixo. Generalizando o que foi visto para transformações geométricas no plano, as transformações geométricas no espaço serão representadas por matrizes 4x4 também em coordenadas homogêneas. 9.2.1 Translações no espaço A translação no espaço pode ser vista, simplesmente, como uma extensão da translação no plano. Assim, F(P) = T(x,y,z) = (x + dx, y + dy, z + dz) = P'. Matricialmente,[ x 'y 'z ' ]=[ xyz]+T ou [ x 'y 'z ' ]=[1 0 00 1 00 0 1 ][ xyz ]+T , onde T=[dxdydz] é o vetor translação. Em coordenadas homogêneas, a translação fica representada da seguinte forma: [ x 'y 'z '1 ]=[ 1 0 0 dx 0 1 0 dy 0 0 1 dz 0 0 0 1 ][ x y z 1 ] , onde T=[ 1 0 0 dx 0 1 0 dy 0 0 1 dz 0 0 0 1 ] é a matriz de translação. 9.2.2 Rotações no espaço Os sentidos positivos de rotação em torno dos eixos segue “A Regra da Mão Direita” como na figura abaixo. i) Rotação em torno do eixo dos z [ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[cosθ −senθ 0senθ cos θ 00 0 1] é a matriz de rotação. Ou, em coordenadas homogêneas [ x 'y 'z '1 ]=Rθ[ x y z 1] , onde Rθ=[ cosθ −senθ 0 0 senθ cos θ 0 0 0 0 1 0 0 0 0 1] . ii) Rotação em torno do eixo dos x [ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[1 0 00 cosθ −sen θ0 senθ cosθ ] é a matriz de rotação. Em coordenadas homogêneas, [ x 'y 'z '1 ]=Rθ[ x y z 1] , onde Rθ=[ 1 0 0 0 0 cos θ −sen θ 0 0 senθ cosθ 0 0 0 0 1] . iii) Rotação em torno do eixo dos y [ x 'y 'z ' ]=Rθ[ xyz ] , onde Rθ=[ cosθ 0 sen θ0 1 0−senθ 0 cosθ] , é a matriz de rotação. Ou, em coordenadas homogêneas, [ x 'y 'z '1 ]=Rθ[ x y z 1] , onde Rθ=[ cos θ 0 sen θ 0 0 1 0 0 −senθ 0 cosθ 0 0 0 0 1] . Apêndice 1 - Números reais O conjunto dos números reais, denotado por ℝ , tem uma estrutura de corpo com relação as operações usuais de adição e multiplicação. Essas operações seguem os seguintes axiomas: Axiomas de Fechamento ( F1 ) ℝ é fechado com relação a operação de adição. Para todos x , y ∈ ℝ , temos que x+ y ∈ ℝ . ( F 2 ) ℝ é fechado com relação a operação de multiplicação. Para todos x , y ∈ ℝ , temos que x . y ∈ ℝ . Axiomas da Operação de Adição ( A1 ) Associatividade: para todos x , y , z ∈ℝ temos que ( x + y ) + z = x + ( y + z ). ( A2 ) Comutatividade: para todos x , y ∈ ℝ temos que x + y = y + x. ( A3 ) Elemento Neutro: existe um único elemento em ℝ , o zero, tal que x + 0 = x; para todo x ∈ ℝ . ( A4 ) Elemento Simétrico: todo elemento x ∈ ℝ possui um único elemento simétrico (−x) ∈ ℝ tal que x + ( - x ) = 0. Axiomas da Operação de Multiplicação ( M 1 ) Associatividade: para todos x , y , z ∈ℝ temos que ( x . y ) . z = x . ( y . z ). ( M 2 ) Comutatividade: para todos x , y ∈ ℝ temos que x . y = y . x. ( M 3 ) Elemento Neutro: existe um único elemento em ℝ , o um, tal que x . 1 = x; para todo x ∈ ℝ . ( M 4 ) Inverso Multiplicativo: todo elemento x ∈ ℝ , com x ≠ 0 possui um único elemento x−1 ∈ ℝ tal que x . x−1=1 . ( D1 ) Distributividade: para todos x , y , z ∈ℝ temos que x . ( y + z ) = ( x . y ) + ( x . z ). Lei do Cancelamento para a Adição ( ou propriedade da unicidade do elemento neutro da adição): Sejam a ,b , c ∈ ℝ com a + b = a + c. Então b = c. Operação de subtração Sejam a ,b ∈ℝ . Então, existe um único x∈ℝ tal que a + x = b. E, denotamos o elemento x = b – a para indicar a diferença entre os elementos a e b. A operação que a cada par (a, b), a ,b ∈ℝ , associa um número a – b, é denominada subtração. Obs.: Em particular, 0 – a é simplesmente escrito como – a que é denominado negativo ou simétrico do elemento a. Lei do Cancelamento para a Multiplicação (ou propriedade da unicidade do elemento neutro da multiplicação ): Sejam a ,b ,c ∈ ℝ com a . b = a . c, a ≠ 0. Então b = c. Operação de divisão Sejam a ,b ∈ℝ com a ≠ 0. Então, existe um único elemento x∈ℝ tal que a . x = b. E, denotamos o elemento x=b a para indicar o quociente do elemento b pelo elemento a. A operação que a cada par (a, b), a , b ∈ℝ , a ≠ 0, associa um número b a , é denominada divisão. Obs.: Em particular, 1 a é simplesmente escrito como a−1 e é chamado recíproco do elemento a. Sejam a ,b , c∈ℝ . Então, a) a . 0 = 0; b) (- a ) . b = a . (- b ) = - ( a . b); c) ( - a ) . ( - b ) = a . b. Considerando que existe um subconjunto ℝ+⊂ℝ , denominado conjunto dos números positivos, que satisfaz os seguintes axiomas: ( O1 ) Se x , y ∈ ℝ + , então x+ y ∈ ℝ+ e x . y ∈ ℝ+ . ( O2 ) Para todo x ≠ 0, temos que x ∈ ℝ + ou −x ∈ℝ+ . ( O3 ) O elemento neutro 0 ∉ ℝ + . temos que o conjunto dos números reais tem uma estrutura de corpo ordenado. Desse modo, sobre o corpo ordenado ℝ valem as seguintes observações: a) No corpo ordenado ℝ , podemos escrever x < y para indicar que y−x ∈ ℝ+ , isto é, o elemento y – x é positivo. De modo análogo, escrevemos y > x para indicar que o elemento y é maior que o elemento x. Em particular, escrevemos x > 0 para dizer que x ∈ ℝ+ , isto é, o elemento x é positivo. De mesmo modo, escrevemos x < 0 para dizer que o elemento x é negativo, isto é, o elemento −x ∈ℝ+ . b) A partir dos 3 axiomas anteriores, temos as seguintes propriedades: (1) Princípio da Comparação: Dados os elementos x , y ∈ ℝ . Ou x < y ou y < x ou x = y. (2) Transitividade: Dados os elementos x , y , z ∈ℝ com x < y e y < z, podemos concluir que x < z. (3) Consistência da Adição com a Relação de Ordem: Dados os elementos x , y , z ∈ℝ com y < z, segue que y + x < z + x. (4) Consistência da Multiplicação com a Relação de Ordem: Dados os elementos x , y ∈ ℝ com x > 0 e y > 0, segue que x . y > 0. Tomando os elementos x , y , z ∈ℝ com x < y e z > 0, segue que x . z < y . z. Importantes desigualdades obtidas pela relação de ordem: Dados a , b , c ∈ ℝ . a) Se a . b = 0, então a = 0 ou b = 0. b) Se a < b e c > 0, então a . c < b . c. c) Se a ≠ 0, então a2 > 0. d) Se a < b e c < 0, então a . c > b . c. e) Se a < c e b < d, então a + b < c + d. f) Se a . b > 0, então a e b são positivos ou ambos são negativos. Valor Absoluto ou módulo Definição A1.1: Para x ∈ ℝ , definimos seu valor absoluto, ou módulo, que vamos denotar por | x |, como sendo o número real não negativo ∣x∣= x , se x>0 0, se x=0 −x , se x<0 Podemos observar que | x | é escolhido o maior número entre x e -x. Logo, temos que | x | ≥ x e | x | ≥ -x. Portanto, podemos concluir que - | x | ≤ x ≤ | x |. Propriedades: a) Seja a ≥ 0. Então, | x | ≤ a se, e somente se, - a ≤ x ≤ a. b) Sejam a ,b , x ∈ ℝ . Então, | x – a | ≤ b se, e somente se, a – b ≤ x ≤ a + b. c) Sejam x , y ∈ ℝ . Então | x . y | = | x | . | y |. d) Desigualdade Triangular: Sejam x , y ∈ ℝ . Então, | x + y | ≤ | x | + | y |. e) Fazendo x = a - c e y = c – b, temos que x + y = a – b. Agora, utilizando a desigualdade triangular, obtemos | a – b | ≤ | a – c | + | b – c |. f) Sejam a1 , a2 ,⋯, an números reais quaisquer. Então, ∣∑k=1 n ak∣ ≤ ∑k=1 n ∣ak∣ . g) Sejam x , y ∈ ℝ . Então, | x | - | y | ≤ | x – y |. Apêndice 2 – Notação de Somatório São válidas algumas propriedades para a notação de somatório: a) O índice do somatório é uma variável muda que pode ser substituída por qualquer letra: ∑ i=1 n f i = ∑ j=1 n f j b) O somatório de uma soma pode ser escrito como uma soma de dois somatórios: ∑ i=1 n ( f i+g i)=∑ i=1 n f i +∑ i=1 n gi c) Se no termo geral do somatório aparece um produto, em que um fator não depende do índice do somatório, então este fator pode “sair” do somatório: ∑ i=1 n f i g k = g k ∑ i=1 n f i d) Num somatório duplo, a ordem dos somatórios pode ser trocada: ∑ i=1 n ∑ j=1 m f ij = ∑ j=1 m ∑ i=1 n f ij
Compartilhar