Baixe o app para aproveitar ainda mais
Prévia do material em texto
G1 PARAMETRIZAÇÃO DA RETA EM R2 A parametrização da reta que passa por u e direção v≠0, onde t é chamado de parâmetro e v é o vetor velocidade. R={u+tv, t ϵ R} ou R= u +<v> ->o vetor velocidade nunca pertence a reta ->o vetor u pertence a reta EQUAÇÃO CARTESIANA DO PLANO EM R3 Dados a, b, c, d ϵ R, com a≠0 ou b≠0 ou c ≠0, chamamos de equação cartesiana do plano a equação ax+by+cz=d. ->Matematicamente {(x,y,z) ϵR3| ax+by+cz=d} PARAMETRIZAÇÃO DO PLANO Dados u e v não nulos e não paralelos e w, chamamos de parametrização do plano paralelo ao gerado por v e u passando por w. Onde t e s são os parâmetros . Π={w+tv+su|s,t ϵR} ou Π=w+ <u,v> ->os vetores velocidade nunca pertencem ao plano ->o vetor w pertence ao plano COMBINAÇÃO LINEAR U ϵ Rn é combinação linear de u1,u2,...uk ϵ Rn se existem t1, t2,...tk ϵ R tais que u= u1.t1+ u2.t2+....+uk.tk= Ʃ ti.ui LINEARMENTE INDEPENDENTE Os vetores u1, u2,..uk de Rn são LI’s se a única maneira de produzir o vetor nulo (0,0..0) como combinação linear de u1,u2,..uk é com t1,t2,...tk=0 Ʃ ti.ui=0,só se t1=t2=..=tk=0 LINEARMENTE DEPENDENTE Quando um dos vetores é múltiplo do outro, ou quando um dos vetores pode ser obtido como combinação linear. Os vetores u1, u2,..uk são ditos LD’s se existem t1, t2,...tk ϵ R com pelo menos um deles não nulo. Ʃ ti.ui=0 ESPAÇO GERADO O espaço gerado pelos vetores u1,u2,..uk ϵ Rn é o conjunto de todas as possíveis combinações lineares desses vetores. <u1,u2,..uk> =span{u1,u2,..uk} = {Ʃ ti.ui, ti ϵ R } CONJUNTO GERADOR O conjunto ordenado {u1,u2,..uk} gera W se W= <u1,u2,..uk> -> O conjunto gerador os vetores tem que ser LI’s DIMENSÃO O espaço gerado H=<u1,...,uk> tem dimensão k se o conjunto gerador {u1,u2,...,uk} são LI’s. Para se determinar a dimensão do espaço gerado deve se eliminar os vetores dependentes (redundantes) do conjunto de vetores. Matriz Uma matriz de m linhas e n colunas é uma tabela de coeficientes aij ϵR. Dados m,n ϵ N,o conjunto de todas as matrizes de m linhas e n colunas (mxn) é denotado por Mmxn ->Forma matricial [A].[x]=[ b] -> Matriz Diagonal- se aij=0 , ɏ i≠j ->Matriz Inversa- A. A-1=A-1.A = I ->Matriz Simétrica - A= AT ->Matriz Ortogonal- AT.A= I Sistema Homogeneo (Ax=0) Sempre possui solução, solução única (apenas a trivial,( vetor nulo)), infinitas soluções Ax=b ->Solução particular S=v0 ->solução do sistema homogêneo associado Ax=0 ->solução geral S= v0 +S0 Hiperplano Um hiperplano em Rn é a translação de um espaço gerado de dimensão n-1 Espaço Vetorial (V,+, .) Um espaço vetorial consiste de 1) um conjunto não vazio V (cujos os elementos são chamados de vetores) 2) uma soma u,v ϵ V →u+v ϵ V 3)multiplicação por escalar real u ϵV, λ ϵ R →λ.u ϵ V SUBESPAÇO VETORIAL Dado V um subconjunto W c V tal que V é um espaço vetorial, então W é um subespaço vetorial tal que 1)0 ϵ W 2) W é fechado para a soma vetorial u, v ϵ W→ u +v ϵW 3) W é fechado para a multiplicação por escalar u ϵ W e λ ϵ R→λ.u ϵW Polinomio Seja Pn ={ a0 +a1x+a2x2 +...+anxn|ai ϵ R, i=0...n} o conjunto dos polinômios com coeficientes em R de grau até n. G2 BASE Um conjunto β é base de um subespaço vetorial H se todo e qualquer elemento desse subespaço pode ser reescrito como combinação linear conjunto β, ou seja, o conjunto ordenado β={v1,v2,v3,...vn} de elementos do espaço vetorial v é base do subespaço vetorial H c V se e só se: 1)β gera H, isto é H=span{v1,v2,v3,...vn} 2)β é LI 3)β é grande o suficiente para gerar todos os vetores 4)β é pequeno o suficiente para ser LI DIMENSÃO O espaço gerado H=<u1,...,uk> tem dimensão k se o conjunto gerador {u1,u2,...,uk} são LI’s. Para se determinar a dimensão do espaço gerado deve se eliminar os vetores dependentes (redundantes) do conjunto de vetores. INTERSEÇÃO E SOMA DE SUBESPAÇOS Seja (V,+, .) espaço vetorial, H,K c V subespaços. Então: dim(H+K)= dim (H) + dim (K) – dim (HΠK) SOMA DIRETA Se V=H+K e HΠK ={0}, dizemos que V é soma direta de H e K. COORDENADAS Seja V um espaço vetorial com base β={b1,b2,b3,...bn}. As coordenadas do vetor v ϵ V na base β são coeficientes αi’s usados para combinar linearmente os vetores bi’s de forma a gerar v, isto é: v= Ʃ αi.bi [v] β =|α1| |α2| |....| |αn| TRANSFORMAÇÃO LINEAR Uma função T:U → V, U,V, espaços vetoriais ɏ u, v ϵ T e α ϵ R 1)T(v) ϵ V 2) T( u+v) = T(u) +T(v) 3) T(λu) = λT(u) NÚCLEO O núcleo de uma transformação linear T:U→V é o conjunto dos vetores do domínio cujo a imagem é o vetor nulo. Nuc(T)={ u ϵ U|T(u)=0} IMAGEM Imagem de uma transformação linear T:U→V é o conjunto dos vetores do contra- domínio que são imagem de algum vetor do domínio. Im (T)= {v ϵ V| V=T(u) para u ϵ U} TEOREMA NUCLEO- IMAGEM Seja T:U→V linear com U de dimensão finita então: dim(U)= dim (Nuc(T)) + dim (Im(T)) INJETIVA Uma transformação linear T:U→V é injetiva, quando o núcleo for somente o vetor SOBREJETIVA Uma transformação linear T:U→V é sobrejetiva se, e somente se a dim (Im(t)) for igual a dim (V). Se a Im(T)= V, ou seja, o conjunto de vetores atingidos pela transformação linear for igual ao próprio subespaço vetorial V, significa que não tem nenhum elemento de U que não seja atingido pela TL. BIJETIVA Quando uma transformação T é injetiva e sobrejetiva COMPOSIÇÃO DE TL’S T:U→V e S: V→W com U,V,W espaço vetoriais e S,T,TL’S. A composta de S o T é definida como ( S o T) (u) = S(T(u)), S o T : U→W. -> Propriedades: 1) S o T é uma transformação linear 2) De forma geral S o T ≠ T o S (não é comutativo) 3) (S o T) o U = S o (T o U) ( Associatividade) MATRIZ ASSOCIADA À TL Sejam U e V espaços vetoriais de dimensão finita com dim(U)=n e dim (V)=m e bases β={u1,...un} de U e ϒ de V. Dada T ϵ (U,V), denotamos por [T]ϒ←β ϵ Mmxn a matriz de que representa T. Ela é definida por: | ↑ ↑ | [T]ϒ←β=|[T(u1)].....[T(un)] | | ↓ ↓ | RELAÇÃO ENTRE MATRIZ E TL Seja T ϵ (U,V) e bases β de U e ϒ de V. Então para todo u ϵ U. [T(u)]ϒ= [T]ϒ←β .[u]β MATRIZ MUDANÇA DE BASE Considere U espaço vetorial β e ϒ bases de U Id U:→U a transformação Id (u)=u , ɏ u. A matriz [Id]ϒ←β é chamada matriz de mudança de base de β paraϒ. | ↑ ↑ | [I]ϒ←β= |[I(u1)]ϒ.....[T(un)]ϒ | | ↓ ↓ | Considere bases β eϒ do espaço de dimensão finita U e a TL identidade I em U como : [I]ϒ←β .[u]β = [I]ϒ = [u]ϒ FUNÇÃO INVERSA T:U →V linear. A TL S: V→U é inversa de T se 1) SoT = U→V 2) (SoT) (u) = u INVERSA DA MUDANÇA DE BASE Considere basesβ e ϒ de U e a TL identidade I em U então amatriz mudança de base [I]ϒ←β =[I]-1 β←ϒ MATRIZ INVERSA E SINGULAR Diz se que uma matriz quadrada A ϵ Mnxn é invertível se existe B ϵ Mnxn tal que AB = BA = I. Neste caso dizemos que B é a inversa de A. Caso A ϵ Mnxn não seja invertível dizemos que A é singular Propriedade da inversa 1) Inversa de A é única 2) AB = BA = I 3)A matriz é invertível se e somente se Nuc (A) =0 [T]β←β =[Id]β←ϒ. [T]ϒ←ϒ . [Id]ϒ←β G3 Produto Interno Dados V=( v1, ...,vn) e u= (u1,...,um) vetores de Rn definisse o produto interno, o produto escalar de v e u por <v|u>=Ʃ vi.ui Propriedades 1) simetria <v|w> = <w|v> 2)Linearidade < αu+v|w>= α <u|w> + <v|w> ɏ α ϵ R 3) Positividade <v|v> >0 ɏ v ≠0 4) <v|v> =0 se e só se u =0 Ortogonalidade/ Vetor Ortogonal O vetor u, v ϵ R n são perpendiculares entre si se e somente se <u|v>=0 Ortonormalidade/ Vetor Ortonormal O vetor u, v ϵ R n são ortonormais se são entre si ortogonais <u|v>=0 e ambos são unitários. ||u||=||v||=1 Conjunto Ortogonal/ Base Ortogonal Diz se que o conjunto β{v1,v2,...,vp} é ortogonal se os vetores são dois a dois <vi|vj>=0 ɏ i≠j (ortogonais). Conjunto Ortonornal/ Base Ortonormal Diz se que o conjunto {v1,v2,...,vp} é ortonormal, se além deser ortogonal , todos os seus vetores são unitários. <vi|vj>=∂ij , onde ∂ij =0 se i≠j =1 se i=j Complemento Ortogonal Seja H um subespaço vetorial. O complemento ortogonal de H c Rn é o conjunto dos vetores ortogonais a todos os vetores de H H perp ={v ϵ Rn|<v|u>=0 ɏ u ϵ H Projeção Ortogonal Seja H c Rn um subespaço vetorial e PH:H +H perp →H dada por 1)PH(v)=v ɏ v ϵ H 2) PH(v)=0 ɏ v ϵ Hperp Reflexão Ortogonal Seja H c Rn um subespaço vetorial e RH:H +H perp →H linear dada por 1)RH(v)=v ɏ v ϵ H 2) RH(v)=-v ɏ v ϵ Hperp Determinante Seja Mmxn o conjunto das matrizes quadradas de ordem n, det(A) é uma função que associa a cada matriz desse conjunto um número real, satisfazendo três proposições fundamentais: 1)det(A)=0 → A possui colunas ou linhas LD’s 2)det(I)=1→ matriz identidade 3)det(A) é linear por linha Autovetores T:V→V, v ϵ V, não nulo é autovetor associado ao autovalor λ ϵ R, se T(v)= λ v. O conjunto de autovetores é chamado de espectro. Autoespaços T: U→U,VcU, subespaço é autoespaço associado ao autovalor λ, se T(v)= λv , ɏ v ϵ V. Teorema Nuc(T) – λI. Subespaço Invariante T: U→U,VcU, T(v) c V. Vé chamado de subespaço invariante de T. Diagonalização Té diagonalizável se T possui uma base de autovetores. Se a soma da dimensão dos autoespaços associados a cada autovalor λ é n. Se a matriz A de dimensão nxn tem n autovalores distintos Multiplicidade Algébrica É o numero de vezes em que λ é raiz do polinômio característico. Multiplicidade Geométrica É a dimensão dos autoespaços associados a cada autovalor λ. Polinomio Característico T: Rn → Rn, é dito polinômio característico p(λ)= det(T –λI) Teorema Espectral Seja Mmxn uma matriz simétrica. Então: 1)A é diagonalizável 2)Existe uma escolha de autovetores que formam uma base ortonormal de Rn Mínimos Quadrados Uma quase solução do sistema Ax=b chamada de solução de mínimos quadrados, é um vetor z tal que d(Az,b) ≤ d(Ax,b) para todo x no domínio de A AT A z= AT b
Compartilhar