Buscar

cn_minimos_quadrados

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 3, do total de 103 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 6, do total de 103 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você viu 9, do total de 103 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Prévia do material em texto

Ca´lculo Nume´rico
Teoria da Aproximac¸a˜o
Me´todo dos Mı´nimos Quadrados
Joa˜o Paulo Gois
Universidade Federal do ABC
1
1
Apresentac¸a˜o baseada nos slides do prof. John Carroll, Dublin City University, nos Livros Ana´lise Nume´rica
(Burden & Faires) e Ca´lculo Nume´rico (Neide B. Franco) e nas notas de Aula do prof. Claudio Meneses (UFABC)
Ajuste de curvas
Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por
uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas.
Formalmente, desejamos determinar os valores (nos reais) de
a0, a1, . . . , am de forma que
f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1)
onde
‖f(x)− F (x)‖ seja m´ınimo.
OBS.: ‖ · ‖ e´ uma norma.
Ajuste de curvas
Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por
uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas.
Formalmente, desejamos determinar os valores (nos reais) de
a0, a1, . . . , am de forma que
f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1)
onde
‖f(x)− F (x)‖ seja m´ınimo.
OBS.: ‖ · ‖ e´ uma norma.
Ajuste de curvas
Considere o problema de aproximar uma func¸a˜o f(x) : R→ R por
uma func¸a˜o F (x) : R→ R, usando func¸o˜es conhecidas.
Formalmente, desejamos determinar os valores (nos reais) de
a0, a1, . . . , am de forma que
f(x) ∼= a0g0(x) + a1g1(x) + · · ·+ amgm(x) = F (x) (1)
onde
‖f(x)− F (x)‖ seja m´ınimo.
OBS.: ‖ · ‖ e´ uma norma.
Exemplo
Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆnio do segundo
grau.
Ha´ va´rios me´todos que podem ser usados para tentar
aproximar F (x) de f(x)
Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas
Uma outra abordagem e´ pelo Me´todo dos Mı´nimos
Quadrados, que usa o conceito de projec¸o˜es ortogonais de
pontos em espac¸os vetoriais.
Ha´ va´rios me´todos que podem ser usados para tentar
aproximar F (x) de f(x)
Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas
Uma outra abordagem e´ pelo Me´todo dos Mı´nimos
Quadrados, que usa o conceito de projec¸o˜es ortogonais de
pontos em espac¸os vetoriais.
Ha´ va´rios me´todos que podem ser usados para tentar
aproximar F (x) de f(x)
Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas
Uma outra abordagem e´ pelo Me´todo dos Mı´nimos
Quadrados, que usa o conceito de projec¸o˜es ortogonais de
pontos em espac¸os vetoriais.
Ha´ va´rios me´todos que podem ser usados para tentar
aproximar F (x) de f(x)
Vimos me´todos de interpolac¸a˜o polinomial em aulas passadas
Uma outra abordagem e´ pelo Me´todo dos Mı´nimos
Quadrados, que usa o conceito de projec¸o˜es ortogonais de
pontos em espac¸os vetoriais.
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto
escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´
qualquer func¸a˜o definida em E×E com valores em R, satisfazendo
as seguintes propriedades:
(P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E;
(P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E;
(P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E;
(P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo).
Exemplo de Produto Escalar
Produto escalar usual em Rn
〈x, y〉 =
n∑
i=1
xiyi
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto
escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´
qualquer func¸a˜o definida em E×E com valores em R, satisfazendo
as seguintes propriedades:
(P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E;
(P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E;
(P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E;
(P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo).
Exemplo de Produto Escalar
Produto escalar usual em Rn
〈x, y〉 =
n∑
i=1
xiyi
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto
escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´
qualquer func¸a˜o definida em E×E com valores em R, satisfazendo
as seguintes propriedades:
(P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E;
(P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E;
(P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R,∀x, y ∈ E;
(P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo).
Exemplo de Produto Escalar
Produto escalar usual em Rn
〈x, y〉 =
n∑
i=1
xiyi
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto
escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´
qualquer func¸a˜o definida em E×E com valores em R, satisfazendo
as seguintes propriedades:
(P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E;
(P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E;
(P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R, ∀x, y ∈ E;
(P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo).
Exemplo de Produto Escalar
Produto escalar usual em Rn
〈x, y〉 =
n∑
i=1
xiyi
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial real. Sejam x, y ∈ E. Chama-se produto
escalar (ou produto interno) de x por y – em s´ımbolo 〈x, y〉 – e´
qualquer func¸a˜o definida em E×E com valores em R, satisfazendo
as seguintes propriedades:
(P1) 〈x, y〉 = 〈y, x〉 ∀x, y ∈ E;
(P2) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 ∀x, y, z ∈ E;
(P3) 〈λx, y〉 = λ〈x, y〉 ∀λ ∈ R, ∀x, y ∈ E;
(P4) 〈x, x〉 ≥ 0 e 〈x, x〉 = 0 se e somente se x = 0 (vetor nulo).
Exemplo de Produto Escalar
Produto escalar usual em Rn
〈x, y〉 =
n∑
i=1
xiyi
Conceitos ba´sicos
Definic¸a˜o
Seja E um espac¸o vetorial. Dados os vetores x, y ∈ E, denomina-se
distaˆncia entre x e y - em s´ımbolo dist(x, y) - o comprimento do
vetor x− y. Isto e´,
dist(x, y) = ‖x− y‖
=
√
〈x− y, x− y〉
Conceitos ba´sicos
Projec¸a˜o ortogonal de um vetor sobre outro vetor:
Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a
x− λy.
CAPI´TULO 1. CONCEITOS BA´SICOS 18
Assim P0(x), P1(x), P2(x) sa˜o dois a dois ortogonais.
Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi-
nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la.
Exerc´ıcios
1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base:
e1 = (1, 1, 1)
t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t .
1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base
na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o
processo de Gram-Schmidt.
1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16.
1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia
de polinoˆmios ortonormais.
1.4 Projec¸a˜o Ortogonal
Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um
vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo
dos mı´nimos quadrados.
Projec¸a˜o Ortogonal de um Vetor sobre Outro
Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y,
como sugere a Figura 1.2, no caso em que E = IR2.
x� � y
� y
x
y
6*
- -
Figura 1.2
De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que:
�(y, x)� �2(y, y) = 0 ! � = (x, y)
(y, y)
.
Assim, obtemos a seguinte definic¸a˜o.
Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o
vetor z definido por:
z = (projec¸a˜o de x sobre y) =
(x, y)
(y, y)
y.
De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto
λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉
Conceitos ba´sicos
Projec¸a˜o ortogonal de um vetor sobre outro vetor:
Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a
x− λy.
CAPI´TULO 1. CONCEITOS BA´SICOS 18
Assim P0(x), P1(x), P2(x) sa˜o dois a doisortogonais.
Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi-
nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la.
Exerc´ıcios
1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base:
e1 = (1, 1, 1)
t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t .
1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base
na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o
processo de Gram-Schmidt.
1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16.
1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia
de polinoˆmios ortonormais.
1.4 Projec¸a˜o Ortogonal
Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um
vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo
dos mı´nimos quadrados.
Projec¸a˜o Ortogonal de um Vetor sobre Outro
Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y,
como sugere a Figura 1.2, no caso em que E = IR2.
x� � y
� y
x
y
6*
- -
Figura 1.2
De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que:
�(y, x)� �2(y, y) = 0 ! � = (x, y)
(y, y)
.
Assim, obtemos a seguinte definic¸a˜o.
Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o
vetor z definido por:
z = (projec¸a˜o de x sobre y) =
(x, y)
(y, y)
y.
De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto
λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉
Conceitos ba´sicos
Projec¸a˜o ortogonal de um vetor sobre outro vetor:
Sejam x, y dois vetores na˜o nulos e λ ∈ R tal que λy e´ ortogonal a
x− λy.
CAPI´TULO 1. CONCEITOS BA´SICOS 18
Assim P0(x), P1(x), P2(x) sa˜o dois a dois ortogonais.
Observe que sempre que desejarmos obter uma sequeˆncia de polinoˆmios ortogonais sobre um determi-
nado intervalo, podemos tomar a sequeˆncia 1, x, x2, . . . como sendo a sequeˆncia original e ortogonaliza´-la.
Exerc´ıcios
1.19 - Usando o processo de Gram-Schmidt e o produto escalar usual do IR3, ortonormalizar a base:
e1 = (1, 1, 1)
t , e2 = (1, �1, 1)t , e3 = (�1, 0, 1)t .
1.20 - Os vetores {(0, 2, 1, 0)t, (1, �1, 0, 0)t, (1, 2, 0, �1)t, (1, 0, 0, 1)t} constituem uma base
na˜o ortonormal do IR4. Construir a partir desses vetores, uma base ortonormal para o IR4, usando o
processo de Gram-Schmidt.
1.21 - Ortonormalize a sequeˆncia de polinoˆmios obtida no exemplo 1.16.
1.22 - Usando o produto escalar usual em C[1, 2] e o processo de Gram-Schmidt construa uma sequeˆncia
de polinoˆmios ortonormais.
1.4 Projec¸a˜o Ortogonal
Veremos aqui a projec¸a˜o ortogonal de um vetor sobre outro bem como a projec¸a˜o ortogonal de um
vetor sobre um sub-espac¸o. Esse u´ltimo sera´ utilizado no estudo de aproximac¸o˜es de func¸o˜es pelo me´todo
dos mı´nimos quadrados.
Projec¸a˜o Ortogonal de um Vetor sobre Outro
Sejam x e y vetores na˜o nulos. Escolhemos um nu´mero real � tal que � y seja ortogonal a x � � y,
como sugere a Figura 1.2, no caso em que E = IR2.
x� � y
� y
x
y
6*
- -
Figura 1.2
De � y ? (x� � y), conclu´ımos que (� y, x� � y) = 0. Portanto, aplicando P3, segue que:
�(y, x)� �2(y, y) = 0 ! � = (x, y)
(y, y)
.
Assim, obtemos a seguinte definic¸a˜o.
Definic¸a˜o 1.14 - Num espac¸o euclidiano real, chama-se projec¸a˜o ortogonal de x sobre y, y 6= ✓, o
vetor z definido por:
z = (projec¸a˜o de x sobre y) =
(x, y)
(y, y)
y.
De λy ⊥ (x− λy) segue que 〈λy, x− λy〉 = 0 e portanto
λ〈y, x〉 − λ2〈y, y〉 = 0 ⇒ λ = 〈x, y〉〈y, y〉
Conceitos ba´sicos
Projec¸a˜o ortogonal de um vetor sobre outro vetor:
Assim obtemos a seguinte definic¸a˜o:
Definic¸a˜o
Em um espac¸o euclidiano real, denota-se projec¸a˜o ortogonal de
um vetor x sobre um vetor y, y 6= 0 (vetor nulo), o vetor z dado
por:
z = projec¸a˜o de x sobre y =
〈x, y〉
〈y, y〉y.
Conceitos ba´sicos
Exemplo
Projete o vetor x = (1, 2, 3) na reta sobre o vetor y = (1, 1, 1).
λ =
〈x, y〉
〈y, y〉 =
6
3
= 2
A projec¸a˜o e´ z = 2y.
Projec¸a˜o de um vetor sobre um sub-espac¸o
Seja E o espac¸o euclidiano e E′, de dimensa˜o finita n, um sub-
espac¸o de E. Suponha v ∈ E e v 6∈ E′.
Considere o seguinte problema: obter v0 ∈ E′ com v− v0 ortogonal
a todo vetor de E′.
CAPI´TULO 1. CONCEITOS BA´SICOS 19
Se k y k= 1, enta˜o a projec¸a˜o de x sobre y e´ dada por (x, y) y.
Projec¸a˜o Ortogonal de um Vetor sobre um Sub-Espac¸o
Seja E um espac¸o euclidiano e seja E0, de dimensa˜o finita n, um sub-espac¸o de E.
Seja v um vetor de E na˜o pertencente a E0.
O problema que desejamos resolver agora e´ o de obter um vetor v0 2 E0 tal que v� v0 seja ortogonal
a todo vetor de E0. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3 e E0 = IR2).
e1
e2
v � v0
v0
v
R
6✓
 
 
6
--
Figura 1.3
Seja {e1, e2, . . . , en} uma base de E0. Como v0 2 E0, v0 pode ser escrito como combinac¸a˜o linear dos
vetores da base de E0, isto e´:
v0 = �1 e1 + �2 e2 + . . .+ �n en . (1.17)
O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas �1, �2, . . . , �n de v0.
Sabemos que se v� v0 deve ser ortogonal a todo vetor de E0 enta˜o e´ necessa´rio e suficiente que v� v0
seja ortogonal a todo vetor de uma base de E0 (Teorema 1.2). Enta˜o, devemos ter:
(v � v0, ej) = 0 para j = 1, 2, . . . , n ; ou seja :
(v � (�1 e1 + �2 e2 + . . .+ �n en) , ej) = 0 , j = 1, 2, . . . , n.
A aplicac¸a˜o de P2 e P3, fornece:
�1 (e1, ej) + �2 (e2, ej) + . . .+ �n (en, ej) = (v, ej) , j = 1, . . . , n .
Tais equac¸o˜es sa˜o conhecidas por equac¸o˜es normais.
Assim, para obtermos as coordenadas de v0 na base {e1, e2, . . . , en}, devemos resolver o sistema de
equac¸o˜es lineares: 0BB@
(e1, e1) (e2, e1) . . . (en, e1)
(e1, e2) (e2, e2) . . . (en, e2)
. . .
(e1, en) (e2, en) . . . (en, en)
1CCA
0BBB@
�1
�2
...
�n
1CCCA =
0BBB@
(v, e1)
(v, e2)
...
(v, en)
1CCCA , (1.18)
cuja matriz dos coeficientes e´ sime´trica.
Mostremos agora que o sistema (1.18) tem uma e uma so´ soluc¸a˜o, isto e´, que o problema de deter-
minac¸a˜o do vetor v0 2 E0, tal que v � v0 seja ortogonal a todo vetor de E0, tem soluc¸a˜o u´nica.
Projec¸a˜o de um vetor sobre um sub-espac¸o
Seja E o espac¸o euclidiano e E′, de dimensa˜o finita n, um sub-
espac¸o de E. Suponha v ∈ E e v 6∈ E′.
Considere o seguinte problema: obter v0 ∈ E′ com v− v0 ortogonal
a todo vetor de E′.
CAPI´TULO 1. CONCEITOS BA´SICOS 19
Se k y k= 1, enta˜o a projec¸a˜o de x sobre y e´ dada por (x, y) y.
Projec¸a˜o Ortogonal de um Vetor sobre um Sub-Espac¸o
Seja E um espac¸o euclidiano e seja E0, de dimensa˜o finita n, um sub-espac¸o de E.
Seja v um vetor de E na˜o pertencente a E0.
O problema que desejamos resolver agora e´ o de obter um vetor v0 2 E0 tal que v� v0 seja ortogonal
a todo vetor de E0. (A Figura 1.3 ilustra o problema, para o caso em que E = IR3 e E0 = IR2).
e1
e2
v � v0
v0
v
R
6✓
 
 
6
--
Figura 1.3
Seja {e1, e2, . . . , en} uma base de E0. Como v0 2 E0, v0 pode ser escrito como combinac¸a˜o linear dos
vetores da base de E0, isto e´:
v0 = �1 e1 + �2 e2 + . . .+ �n en . (1.17)
O nosso problema consiste em determinar, caso poss´ıvel, as coordenadas �1, �2, . . . , �n de v0.
Sabemos que se v� v0 deve ser ortogonal a todo vetor de E0 enta˜o e´ necessa´rio e suficiente que v� v0
seja ortogonal a todo vetor de uma base de E0 (Teorema 1.2). Enta˜o, devemos ter:
(v � v0, ej) = 0 para j = 1, 2, . . . , n ; ou seja :
(v � (�1 e1 + �2 e2 + . . .+ �n en) , ej) = 0 , j = 1, 2, . . . , n.A aplicac¸a˜o de P2 e P3, fornece:
�1 (e1, ej) + �2 (e2, ej) + . . .+ �n (en, ej) = (v, ej) , j = 1, . . . , n .
Tais equac¸o˜es sa˜o conhecidas por equac¸o˜es normais.
Assim, para obtermos as coordenadas de v0 na base {e1, e2, . . . , en}, devemos resolver o sistema de
equac¸o˜es lineares: 0BB@
(e1, e1) (e2, e1) . . . (en, e1)
(e1, e2) (e2, e2) . . . (en, e2)
. . .
(e1, en) (e2, en) . . . (en, en)
1CCA
0BBB@
�1
�2
...
�n
1CCCA =
0BBB@
(v, e1)
(v, e2)
...
(v, en)
1CCCA , (1.18)
cuja matriz dos coeficientes e´ sime´trica.
Mostremos agora que o sistema (1.18) tem uma e uma so´ soluc¸a˜o, isto e´, que o problema de deter-
minac¸a˜o do vetor v0 2 E0, tal que v � v0 seja ortogonal a todo vetor de E0, tem soluc¸a˜o u´nica.
Projec¸a˜o de um vetor sobre um sub-espac¸o
Seja {e1, . . . , en} uma base de E′. Como v0 ∈ E′, v0 pode ser
escrito como uma combinac¸a˜o linear dos vetores da base de E′, isto
e´,
v0 = a1e1 + . . .+ anen
Projec¸a˜o de um vetor sobre um sub-espac¸o
O problema consiste em determinar a1, . . . , an, (caso seja poss´ıvel).
Note que estes valores sa˜o as coordenadas de v0.
Como v−v0 deve ser ortogonal a todo vetor de E′, enta˜o e´ necessa´rio
e suficiente que v − v0 seja ortogonal a todo vetor de uma base de
E′. Assim,
〈v − v0, ej〉 = 0 j = 1, . . . , n
que implica em
〈v − (a1e1 + . . .+ anen), ej〉 = 0 j = 1, . . . , n
Projec¸a˜o de um vetor sobre um sub-espac¸o
O problema consiste em determinar a1, . . . , an, (caso seja poss´ıvel).
Note que estes valores sa˜o as coordenadas de v0.
Como v−v0 deve ser ortogonal a todo vetor de E′, enta˜o e´ necessa´rio
e suficiente que v − v0 seja ortogonal a todo vetor de uma base de
E′. Assim,
〈v − v0, ej〉 = 0 j = 1, . . . , n
que implica em
〈v − (a1e1 + . . .+ anen), ej〉 = 0 j = 1, . . . , n
Projec¸a˜o de um vetor sobre um sub-espac¸o
Portanto,
〈v − a1e1 − a2e2 − a3e3 − · · · − anen, ej〉 = 0 j = 1, . . . , n
Aplicando (P2) e (P3), propriedades do produto escalar, temos
〈v, ej〉 = a1〈e1, ej〉+ a2〈e2, ej〉+ · · ·+ an〈en, ej〉 j = 1, . . . , n
Estas equac¸o˜es sa˜o conhecidas como equac¸o˜es normais.
Projec¸a˜o de um vetor sobre um sub-espac¸o
Portanto,
〈v − a1e1 − a2e2 − a3e3 − · · · − anen, ej〉 = 0 j = 1, . . . , n
Aplicando (P2) e (P3), propriedades do produto escalar, temos
〈v, ej〉 = a1〈e1, ej〉+ a2〈e2, ej〉+ · · ·+ an〈en, ej〉 j = 1, . . . , n
Estas equac¸o˜es sa˜o conhecidas como equac¸o˜es normais.
Conceitos ba´sicos
Para obtermos as coordenadas de v0 na base {e1, . . . , en},
precisamos resolver o sistema de equac¸o˜es lineares:
〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉
〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉
...
...
. . .
...
〈e1, en〉 〈e2, en〉 · · · 〈en, en〉


a1
a2
...
an
 =

〈v, e1〉
〈v, e2〉
...
〈v, en〉

Este sistema e´ chamado de sistema linear normal. Note que a
matriz de coeficientes e´ sime´trica.
Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado
projec¸a˜o ortogonal de v sobre o sub-espac¸o E′.
Conceitos ba´sicos
Para obtermos as coordenadas de v0 na base {e1, . . . , en},
precisamos resolver o sistema de equac¸o˜es lineares:
〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉
〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉
...
...
. . .
...
〈e1, en〉 〈e2, en〉 · · · 〈en, en〉


a1
a2
...
an
 =

〈v, e1〉
〈v, e2〉
...
〈v, en〉

Este sistema e´ chamado de sistema linear normal. Note que a
matriz de coeficientes e´ sime´trica.
Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado
projec¸a˜o ortogonal de v sobre o sub-espac¸o E′.
Conceitos ba´sicos
Para obtermos as coordenadas de v0 na base {e1, . . . , en},
precisamos resolver o sistema de equac¸o˜es lineares:
〈e1, e1〉 〈e2, e1〉 · · · 〈en, e1〉
〈e1, e2〉 〈e2, e2〉 · · · 〈en, e2〉
...
...
. . .
...
〈e1, en〉 〈e2, en〉 · · · 〈en, en〉


a1
a2
...
an
 =

〈v, e1〉
〈v, e2〉
...
〈v, en〉

Este sistema e´ chamado de sistema linear normal. Note que a
matriz de coeficientes e´ sime´trica.
Este sistema tem soluc¸a˜o u´nica e o vetor v0 e´ denominado
projec¸a˜o ortogonal de v sobre o sub-espac¸o E′.
Alguns resultados sobre projec¸a˜o ortogonal:
(a) Na geometria euclidiana plana: dados uma reta r e um ponto
v fora da reta, o ponto na reta r mais pro´ximo do ponto v e´ o
u´nico ponto u tal que o segmento de reta vu e´ ortogonal a r.
(b) Na geometria euclidiana so´lida: dados um plano α e um
ponto v fora do plano, o ponto no plano α mais pro´ximo do
ponto v e´ o pe´ da reta perpendicular trac¸ada de v a α.
(c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor
v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E.
O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a
projec¸a˜o ortogonal de v sobre E′.
Isto e´ o mesmo que dizer que o ponto u tem a propriedade
||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u
(c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor
v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E.
O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a
projec¸a˜o ortogonal de v sobre E′.
Isto e´ o mesmo que dizer que o ponto u tem a propriedade
||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u
(c) Em um espac¸o vetorial euclidiano E qualquer: dados um vetor
v ∈ E e um sub-espac¸o E′, de dimensa˜o finita n de E.
O u´nico vetor u ∈ E′ que e´ mais pro´ximo do vetor v e´ o a
projec¸a˜o ortogonal de v sobre E′.
Isto e´ o mesmo que dizer que o ponto u tem a propriedade
||v − u|| < ||v − y|| ∀ y ∈ E′, y 6= u
Me´todo dos mı´nimos quadrados
O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o.
No problema de aproximar uma func¸a˜o f(x) de E por uma F (x)
de E′ desejamos que
dist(f(x), F (x)) seja m´ınima
Pela definic¸a˜o de distaˆncia entre dois vetores, temos
dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12
Na verdade, desejamos obter
Q = ||f(x)− F (x)||2 = m´ınimo
Me´todo dos mı´nimos quadrados
O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o.
No problema de aproximar uma func¸a˜o f(x) de E por uma F (x)
de E′ desejamos que
dist(f(x), F (x)) seja m´ınima
Pela definic¸a˜o de distaˆncia entre dois vetores, temos
dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12
Na verdade, desejamos obter
Q = ||f(x)− F (x)||2 = m´ınimo
Me´todo dos mı´nimos quadrados
O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o.
No problema de aproximar uma func¸a˜o f(x) de E por uma F (x)
de E′ desejamos que
dist(f(x), F (x)) seja m´ınima
Pela definic¸a˜o de distaˆncia entre dois vetores, temos
dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12
Na verdade, desejamos obter
Q = ||f(x)− F (x)||2 = m´ınimo
Me´todo dos mı´nimos quadrados
O Me´todo dos m´ınimos quadrados basea-se na projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o.
No problema de aproximar uma func¸a˜o f(x) de E por uma F (x)
de E′ desejamos que
dist(f(x), F (x)) seja m´ınima
Pela definic¸a˜o de distaˆncia entre dois vetores, temos
dist(f(x), F (x)) = ||f(x)−F (x)|| = [(f(x)−F (x), f(x)−F (x))] 12
Na verdade, desejamos obter
Q = ||f(x)− F (x)||2 = m´ınimo
Aproximac¸a˜o polinomial
Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por
um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes
dois casos.
Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b];
C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado
de um produto escalar e uma norma, definidos no intervalo
fechado e limitado [a, b].
Caso discreto: f(x) e´ dada por um nu´mero finito de pares de
pontos.
Aproximac¸a˜opolinomial
Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por
um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes
dois casos.
Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b];
C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado
de um produto escalar e uma norma, definidos no intervalo
fechado e limitado [a, b].
Caso discreto: f(x) e´ dada por um nu´mero finito de pares de
pontos.
Aproximac¸a˜o polinomial
Consideramos o problema de aproximar uma func¸a˜o f(x) ∈ E por
um polinoˆmio de grau ≤ m, Pm(x) = F (x) ∈ E′ nos seguintes
dois casos.
Caso cont´ınuo: f(x) e´ uma expressa˜o anal´ıtica em C[a, b];
C[a, b] e´ o espac¸o vetorial das func¸o˜es cont´ınuas reais, dotado
de um produto escalar e uma norma, definidos no intervalo
fechado e limitado [a, b].
Caso discreto: f(x) e´ dada por um nu´mero finito de pares de
pontos.
Aproximac¸a˜o polinomial: caso cont´ınuo
Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por
um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x).
Formalmente, queremos determinar a0, a1, . . . , am tal que
f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2)
e a distaˆncia de f(x) para Pm(x) seja m´ınima.
Comparando as equac¸o˜es (1) e (2) vemos que
g0(x) = 1, g1(x) = x, . . . , gm(x) = x
m.
Aproximac¸a˜o polinomial: caso cont´ınuo
Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por
um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x).
Formalmente, queremos determinar a0, a1, . . . , am tal que
f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2)
e a distaˆncia de f(x) para Pm(x) seja m´ınima.
Comparando as equac¸o˜es (1) e (2) vemos que
g0(x) = 1, g1(x) = x, . . . , gm(x) = x
m.
Aproximac¸a˜o polinomial: caso cont´ınuo
Considere que desejamos aproximar uma func¸a˜o f(x), x ∈ [a, b] por
um polinoˆmio de grau menor ou igual a m, Pm(x) ∈ E′ = Km(x).
Formalmente, queremos determinar a0, a1, . . . , am tal que
f(x) ∼= a0 + a1x+ · · ·+ amxm = Pm(x) (2)
e a distaˆncia de f(x) para Pm(x) seja m´ınima.
Comparando as equac¸o˜es (1) e (2) vemos que
g0(x) = 1, g1(x) = x, . . . , gm(x) = x
m.
Aproximac¸a˜o polinomial: caso cont´ınuo
Observe que g0(x) = 1, g1(x) = x, . . . , gm(x) = x
m formam a base
canoˆnica de Km(x), que e´ o vetorial dos polinoˆmios de graus
menores ou iguais a m.
O problema torna-se enta˜o: determinar um polinoˆmio de grau
menor ou igual a m que minimiza
||f(x)− Pm(x)||2 =
∫ b
a
(f(x)− F (x))2dx
Considere que
〈f(x)− Pm(x), f(x)− Pm(x)〉 =
∫ b
a
(f(x)− Pm(x))2dx
Aproximac¸a˜o polinomial: caso cont´ınuo
Observe que g0(x) = 1, g1(x) = x, . . . , gm(x) = x
m formam a base
canoˆnica de Km(x), que e´ o vetorial dos polinoˆmios de graus
menores ou iguais a m.
O problema torna-se enta˜o: determinar um polinoˆmio de grau
menor ou igual a m que minimiza
||f(x)− Pm(x)||2 =
∫ b
a
(f(x)− F (x))2dx
Considere que
〈f(x)− Pm(x), f(x)− Pm(x)〉 =
∫ b
a
(f(x)− Pm(x))2dx
Aproximac¸a˜o polinomial: caso cont´ınuo
Sabemos que:
Os polinoˆmios de graus no ma´ximo m constituem um espac¸o
vetorial Km(x) gerado pela base canoˆnica {1, x, . . . , xm};
Km(x), para x ∈ [a, b], e´ um sub-espac¸o de C[a, b]
Assim, o problema de encontrar um polinoˆmio Pm(x) que mais se
aproxima de f(x) pode ser resolvido usando a teoria de projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o, onde a distaˆncia de f
e Pm e´ minimizada quando Pm for a projec¸a˜o ortogonal de f sobre
Km(x).
Aproximac¸a˜o polinomial: caso cont´ınuo
Sabemos que:
Os polinoˆmios de graus no ma´ximo m constituem um espac¸o
vetorial Km(x) gerado pela base canoˆnica {1, x, . . . , xm};
Km(x), para x ∈ [a, b], e´ um sub-espac¸o de C[a, b]
Assim, o problema de encontrar um polinoˆmio Pm(x) que mais se
aproxima de f(x) pode ser resolvido usando a teoria de projec¸a˜o
ortogonal de um vetor sobre um sub-espac¸o, onde a distaˆncia de f
e Pm e´ minimizada quando Pm for a projec¸a˜o ortogonal de f sobre
Km(x).
Aproximac¸a˜o polinomial: caso cont´ınuo
Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos
encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que

〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉
〈1, x〉 〈x, x〉 · · · 〈xm, x〉
...
...
. . .
...
〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉


a0
a1
...
am
 =

〈f, 1〉
〈f, x〉
...
〈f, xm〉

Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou
produto interno) entre f e g e´ dado por
〈f, g〉 =
∫ b
a
f(x)g(x)dx.
Aproximac¸a˜o polinomial: caso cont´ınuo
Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos
encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que
〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉
〈1, x〉 〈x, x〉 · · · 〈xm, x〉
...
...
. . .
...
〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉


a0
a1
...
am
 =

〈f, 1〉
〈f, x〉
...
〈f, xm〉

Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou
produto interno) entre f e g e´ dado por
〈f, g〉 =
∫ b
a
f(x)g(x)dx.
Aproximac¸a˜o polinomial: caso cont´ınuo
Fazendo E = C[a, b] e E′ = Km(x), onde x ∈ [a, b], precisamos
encontrar os coeficientes a0, a1, . . . , am de Pm(x) tal que
〈1, 1〉 〈x, 1〉 · · · 〈xm, 1〉
〈1, x〉 〈x, x〉 · · · 〈xm, x〉
...
...
. . .
...
〈1, xm〉 〈x, xm〉 · · · 〈xm, xm〉


a0
a1
...
am
 =

〈f, 1〉
〈f, x〉
...
〈f, xm〉

Considerando que f, g ∈ C[a, b], assuma que o produto escalar (ou
produto interno) entre f e g e´ dado por
〈f, g〉 =
∫ b
a
f(x)g(x)dx.
Aproximac¸a˜o polinomial: caso cont´ınuo
Exemplo
Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆmio do segundo
grau usando me´todo dos m´ınimos quadrados.
Soluc¸a˜o
Note que: f(x) ∈ C[−1, 1], x ∈ [−1, 1] e K2(x) e´ um sub-espac¸o de
C[−1, 1]. Queremos determinar os valores de a0, a1 e a2 nos reais
tal que
f(x) ∼= P2(x) = a0 + a1x+ a2x2,
onde P2(x) uma projec¸a˜o ortogonal de f sobre K2(x).
Aproximac¸a˜o polinomial: caso cont´ınuo
Exemplo
Aproximar f(x) = x4−5x, x ∈ [−1, 1] por um polinoˆmio do segundo
grau usando me´todo dos m´ınimos quadrados.
Soluc¸a˜o
Note que: f(x) ∈ C[−1, 1], x ∈ [−1, 1] e K2(x) e´ um sub-espac¸o de
C[−1, 1]. Queremos determinar os valores de a0, a1 e a2 nos reais
tal que
f(x) ∼= P2(x) = a0 + a1x+ a2x2,
onde P2(x) uma projec¸a˜o ortogonal de f sobre K2(x).
Sendo a base canoˆnica de K2(x) dada por {1, x, x2}, para
encontrar os valores de a0, a1, a2 devemos resolver o sistema linear: 〈1, 1〉 〈x, 1〉 〈x2, 1〉〈1, x〉 〈x, x〉 〈x2, x〉
〈1, x2〉 〈x, x2〉 〈x2, x2〉
 a0a1
a2
 =
 〈f, 1〉〈f, x〉
〈f, x2〉

Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 =〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Se usarmos o produto escalar usual de C[−1, 1], temos
〈1, 1〉 = ∫ 1−1 dx = x]1−1 = 2
〈1, x〉 = ∫ 1−1 xdx = x22 ]1−1 = 0 = 〈x, 1〉
〈1, x2〉 = ∫ 1−1 x2dx = x33 ]1−1 = 23 = 〈x2, 1〉 = 〈x, x〉
〈x, x2〉 = ∫ 1−1 x3dx = x44 ]1−1 = 0 = 〈x2, x〉
〈x2, x2〉 = ∫ 1−1 x4dx = x55 ]1−1 = 25
〈f, 1〉 = ∫ 1−1(x4 − 5x)dx = (x55 − 5x22 )]1−1 = 25
〈f, x〉 = ∫ 1−1(x5 − 5x2)dx = (x66 − 5x33 )]1−1 = − 103
〈f, x2〉 = ∫ 1−1(x6 − 5x3)dx = (x77 − 5x44 )]1−1 = 27
Aproximac¸a˜o polinomial: caso cont´ınuo
Portanto,  2 0 2/30 2/3 0
2/3 0 2/5
 a0a1
a2
 =
 2/5−10/3
2/7

cuja soluc¸a˜o u´nica e´ dada por: a0 = −3/35, a1 = −5, a2 = 6/7.
Assim, o polinoˆmio que estamos procurando e´
P2(x) = − 3
35
− 5x+ 6
7
x2.
Aproximac¸a˜o polinomial: caso cont´ınuo
Portanto,  2 0 2/30 2/3 0
2/3 0 2/5
 a0a1
a2
 =
 2/5−10/3
2/7

cuja soluc¸a˜o u´nica e´ dada por: a0 = −3/35, a1 = −5, a2 = 6/7.
Assim, o polinoˆmio que estamos procurando e´
P2(x) = − 3
35
− 5x+ 6
7
x2.
Aproximac¸a˜o polinomial: caso discreto
No caso discreto a func¸a˜o f(x) e´ dada por n+ 1 pares de pontos
(x0, y0), (x1, y1), . . . , (xn, yn)
onde yi = f(xi), para i = 0, . . . , n, e x0, x1, . . . , xn sa˜o distintos.
Queremos encontrar um polinoˆmio Pm(x), com coeficientes reais,
de grau menor ou igual a m, onde m < n tal que
Pm(x) = a0 + a1x+ . . .+ amx
m (3)
e
Q = ||f − Pm||2 e´ m´ınimo.
Aproximac¸a˜o polinomial: caso discreto
No caso discreto a func¸a˜o f(x) e´ dada por n+ 1 pares de pontos
(x0, y0), (x1, y1), . . . , (xn, yn)
onde yi = f(xi), para i = 0, . . . , n, e x0, x1, . . . , xn sa˜o distintos.
Queremos encontrar um polinoˆmio Pm(x), com coeficientes reais,
de grau menor ou igual a m, onde m < n tal que
Pm(x) = a0 + a1x+ . . .+ amx
m (3)
e
Q = ||f − Pm||2 e´ m´ınimo.
Aproximac¸a˜o polinomial: caso discreto
Sendo m < n podemos usar o seguinte produto escalar
〈f, g〉 =
n∑
k=0
f(xk)g(xk)
Assim, temos
Q = ||f − Pm||2 = 〈f − Pm, f − Pm〉
=
n∑
k=0
[(f(xk)− Pm(xk))]2
=
n∑
k=0
[yk − Pm(xk)]2 (4)
=
n∑
k=0
[yk − (a0 + a1xk + . . .+ amxmk )]2
Aproximac¸a˜o polinomial: caso discreto
Sendo m < n podemos usar o seguinte produto escalar
〈f, g〉 =
n∑
k=0
f(xk)g(xk)
Assim, temos
Q = ||f − Pm||2 = 〈f − Pm, f − Pm〉
=
n∑
k=0
[(f(xk)− Pm(xk))]2
=
n∑
k=0
[yk − Pm(xk)]2 (4)
=
n∑
k=0
[yk − (a0 + a1xk + . . .+ amxmk )]2
Aproximac¸a˜o polinomial: caso discreto
Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma
dos quadrados dos desvios yk − Pm(xk).
Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos
encontrar o polinoˆmio que minimiza Q.
Para encontrar este polinoˆmio precisamos determinar os seus
coeficientes, a0, a1, . . . , am.
Aproximac¸a˜o polinomial: caso discreto
Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma
dos quadrados dos desvios yk − Pm(xk).
Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos
encontrar o polinoˆmio que minimiza Q.
Para encontrar este polinoˆmio precisamos determinar os seus
coeficientes, a0, a1, . . . , am.
Aproximac¸a˜o polinomial: caso discreto
Da expressa˜o (4) vemos que o que desejamos e´ minimizar a soma
dos quadrados dos desvios yk − Pm(xk).
Ou seja, da classe dos polinoˆmios de graus ≤ m, precisamos
encontrar o polinoˆmio que minimiza Q.
Para encontrar este polinoˆmio precisamos determinar os seus
coeficientes, a0, a1, . . . , am.
Aproximac¸a˜o polinomial: caso discreto
Sejam
y =

y0
y1
...
yn
 e p =

Pm(x0)
Pm(x1)
...
Pm(xn)

onde y, p sa˜o vetores em Rn+1.
Usando (3), o vetor p pode ser escrito como
p = a0

1
1
...
1
+ a1

x0
x1
...
xn
+ a2

x20
x21
...
x2n
+ · · ·+ am

xm0
xm1
...
xmn
 .
Aproximac¸a˜o polinomial: caso discreto
Sejam
y =

y0
y1
...
yn
 e p =

Pm(x0)
Pm(x1)
...
Pm(xn)

onde y, p sa˜o vetores em Rn+1.
Usando (3), o vetor p pode ser escrito como
p = a0

1
1
...
1
+ a1

x0
x1
...
xn
+ a2

x20
x21
...
x2n
+ · · ·+ am

xm0
xm1
...
xmn
 .
Aproximac¸a˜o polinomial: caso discreto
Denotando por
u0 =

1
1
...
1
 e ui =

xi0
xi1
...
xin
 i = 1, 2, . . . ,m
podemos escrever p como
p = a0u0 + a1u1 + . . .+ amum
Aproximac¸a˜o polinomial: caso discreto
Denotando por
u0 =

1
1
...
1
 e ui =

xi0
xi1
...
xin
 i = 1, 2, . . . ,m
podemos escrever p como
p = a0u0 + a1u1 + . . .+ amum
Aproximac¸a˜o polinomial: caso discreto
Temos que: y ∈ Rn+1 e p ∈ V ⊂ Rn+1.
Para que a distaˆncia de y a p seja m´ınima, p precisa ser a projec¸a˜o
ortogonal de y sobre V .
Os coeficientes do polinoˆmio procurado sa˜o dados pela soluc¸a˜o do
sistema linear normal:
〈u0, u0〉 〈u1, u0〉 · · · 〈um, u0〉
〈u0, u1〉 〈u1, u1〉 · · · 〈um, u1〉
...
...
. . .
...
〈u0, um〉 〈u1, um〉 · · · 〈um, um〉


a0
a1
...
am
 =

〈y, u0〉
〈y, u1〉
...
〈y, um〉
 .
Aproximac¸a˜o polinomial: caso discreto
Temos que: y ∈ Rn+1 e p ∈ V ⊂ Rn+1.
Para que a distaˆncia de y a p seja m´ınima, p precisa ser a projec¸a˜o
ortogonal de y sobre V .
Os coeficientes do polinoˆmio procurado sa˜o dados pela soluc¸a˜o do
sistema linear normal:
〈u0, u0〉 〈u1, u0〉 · · · 〈um, u0〉
〈u0, u1〉 〈u1, u1〉 · · · 〈um, u1〉
...
...
. . .
...
〈u0, um〉 〈u1, um〉 · · · 〈um, um〉

a0
a1
...
am
 =

〈y, u0〉
〈y, u1〉
...
〈y, um〉
 .
Aproximac¸a˜o polinomial: caso discreto
Usamos normalmente o produto escalar usual do Rn, que e´ dado
por:
(x, y) =
n∑
i=0
xiyi
onde x = [x0, x1, . . . , xn]
T e y = [y0, y1, . . . , yn]
T
Aproximac¸a˜o polinomial: caso discreto
Example
Considere a func¸a˜o y = f(x) dada por:
x -1 0 1 2
y 0 -1 0 7
Ajuste esta func¸a˜o por um polinoˆmio do segundo grau, usando o
me´todo dos m´ınimos quadrados.
Aproximac¸a˜o polinomial: caso discreto
Soluc¸a˜o: Queremos encontrar P2(x) ∈ K2(x) tal que
f(x) ∼= P2(x) = a01 + a1x+ a2x2.
Assim, devemos construir u0, u1, u2 tal que
p = a0u0 + a1u1 + a2u2. Temos que:
y =

0
−1
0
7
 , u0 =

1
1
1
1
 , u1 =

−1
0
1
2
 , u2 =

1
0
1
4
 .
Aproximac¸a˜o polinomial: caso discreto
Soluc¸a˜o: Queremos encontrar P2(x) ∈ K2(x) tal que
f(x) ∼= P2(x) = a01 + a1x+ a2x2.
Assim, devemos construir u0, u1, u2 tal que
p = a0u0 + a1u1 + a2u2. Temos que:
y =

0
−1
0
7
 , u0 =

1
1
1
1
 , u1 =

−1
0
1
2
 , u2 =

1
0
1
4
 .
Precisamos resolver o sistema linear: 〈u0, u0〉 〈u1, u0〉 〈u2, u0〉〈u0, u1〉 〈u1, u1〉 〈u2, u1〉
〈u0, u2〉 〈u1, u2〉 〈u2, u2〉
 a0a1
a2
 =
 〈y, u0〉〈y, u1〉
〈y, u2〉
 .
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 =
1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 =
− 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 =
1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 =
1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Usando o produto escalar (produto interno) usual do R4, temos
〈u0, u0〉 = 1 + 1 + 1 + 1 = 4
〈u0, u1〉 = − 1 + 0 + 1 + 2 = 2 = 〈u1, u0〉
〈u0, u2〉 = 1 + 0 + 1 + 4 = 6 = 〈u2, u0〉
〈u1, u1〉 = 1 + 0 + 1 + 4 = 6
〈u1, u2〉 = −1 + 0 + 1 + 8 = 8 = 〈u2, u1〉
〈u2, u2〉 = 1 + 0 + 1 + 16 = 18 = 〈u1, u0〉
〈y, u0〉 = 0− 1 + 0 + 7 = 6
〈y, u1〉 = 0 + 0 + 0 + 14 = 14
〈y, u2〉 = 0 + 0 + 0 + 28 = 28
Aproximac¸a˜o polinomial: caso discreto
Assim, o sistema linear e´ dado por 4 2 62 6 8
6 8 18
 a0a1
a2
 =
 614
28

cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2.
Assim, a para´bola que melhor representa f(x) e´
P2(x) = −8
5
+
1
5
x+ 2x2.
Aproximac¸a˜o polinomial: caso discreto
Assim, o sistema linear e´ dado por 4 2 62 6 8
6 8 18
 a0a1
a2
 =
 614
28

cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2.
Assim, a para´bola que melhor representa f(x) e´
P2(x) = −8
5
+
1
5
x+ 2x2.
Aproximac¸a˜o polinomial: caso discreto
Assim, o sistema linear e´ dado por 4 2 62 6 8
6 8 18
 a0a1
a2
 =
 614
28

cuja soluc¸a˜o e´: a0 = −85 , a1 = 15 e a2 = 2.
Assim, a para´bola que melhor representa f(x) e´
P2(x) = −8
5
+
1
5
x+ 2x2.
Erro de truncamento
No me´todo dos m´ınimos quadrados, o erro de truncamento e´
calculado daseguinte maneira:
Caso cont´ınuo:
Q = ||f − Pm||2 =
∫ b
a
[f(x)− P (x)]2dx.
Caso discreto:
Q = ||f − Pm||2 =
n∑
k=0
[yk − P (xk)]2.
Erro de truncamento
O erro de truncamento no exemplo anterior e´ calculado como:
Q =
3∑
k=0
[yk − P (xk)]2
onde:
y = [y0, y1, y2, y3]
T = [0,−1, 0, 7]T
x = [x0, x1, x2, x3]
T = [−1, 0, 1, 2]T ,
P2(x) = −8
5
+
1
5
x+ 2x2
P2(x0 = −1) = 15 P2(x1 = 0) = − 85
P2(x2 = 1) =
17
5 P2(x2 = 2) =
34
5
Erro de truncamento
O erro de truncamento no exemplo anterior e´ calculado como:
Q =
3∑
k=0
[yk − P (xk)]2
onde:
y = [y0, y1, y2, y3]
T = [0,−1, 0, 7]T
x = [x0, x1, x2, x3]
T = [−1, 0, 1, 2]T ,
P2(x) = −8
5
+
1
5
x+ 2x2
P2(x0 = −1) = 15 P2(x1 = 0) = − 85
P2(x2 = 1) =
17
5 P2(x2 = 2) =
34
5
Erro de truncamento
Portanto,
Q =
3∑
k=0
[yk − P (xk)]2
= [y0 − P (x0)]2 + [y1 − P (x1)]2 + [y2 − P (x2)]2 + [y3 − P (x3)]2
= 0.8

Outros materiais