Buscar

Apostila Métodos Numéricos Cap. 03

Prévia do material em texto

21 
BIII – Cálculo Numérico de Raízes de Equações 
 
BIII.1 – Introdução 
 
 Em muitos problemas da Engenharia ou Física, há necessidade de se determinar 
um número ε para o qual a função f(x) se anula, ou seja: 
 
f(x) = ε 
 
 A partir de métodos analíticos é possível determinar as raízes de equações de 1º 
e 2º graus e algumas classes de equações de 3º e 4º graus. Equações de graus superiores 
só podem ser resolvidas por meio de métodos numéricos que aproximam as soluções. 
 Para se determinar uma raiz de uma equação, duas etapas devem ser seguidas: 
 
Etapa 1: localização ou isolamento das raízes, que consiste em obter um 
intervalo que contém a raiz ε; 
Etapa 2: refinamento, que consiste em, escolhidas as aproximações iniciais no 
intervalo encontrado na Etapa 1, melhorar sucessivamente a aproximação até um 
precisão pré-fixada. 
 
BIII.2 – Isolamento de raízes 
 
Teorema: seja f(x) contínua em [a, b]. Se f(x) assume valores de sinais opostos em 
pontos extremos do intervalo [a, b], f(a)·f(b) < 0, então existe, no mínimo, um número 
ε [a, b] / f(ε) = 0. Isso significa que existe pelo menos uma raiz entre a e b: 
 
 
Figura 3.1 – Raízes entre a e b. 
 
Observação: a raiz ε será definida e única se f’(x) existir e preservar o sinal dentro do 
intervalo [a, b], isto é: 
 
se 
0)('
0)('
<
>
xf
xf
 para a < x < b 
 
22 
 
Figura 3.2 – Sinal da derivada da função no intervalo [a, b]. 
 
 
 Uma forma de se isolar as raízes de f(x) é tabelar a função para vários valores de 
x e analisar as mudanças de sinal de f(x) e o sinal de f’(x) onde f(x) mudou. Exemplos: 
 
a) para f(x) = x3 – 9x +3, temos 
 
 
 
 
 
b) para xexxf −−= 5)( , x ≥ 0, temos 
 
 
 
 
A análise gráfica de f(x) é importante para uma boa aproximação. Para isso é suficiente: 
 
a) esboçar o gráfico de f(x), atribuindo valores e localizando os pontos de 
intersecção como o eixo das abscissas (eixo x) ; 
b) a partir de f(x), obter a equação g(x) = h(x) e esboçar os gráficos de g(x) e h(x) 
localizando os pontos onde as duas curvas se interceptam pois, neste caso, 
f(ε) = 0 g(ε) = h(ε). 
 
Exemplo: 
a) para f(x) = x3 – 9x +3, temos 
 
 
 
 
 
 
 
 
 
23 
 
b) para xexxf −−= 5)( , x ≥ 0, temos 
 
 
 
 
 
 
 
 
 
c) f(x) = x·log(x) – 1 
 
 
 
 
 
 
24 
Esboço de funções 
 
 
 
Figura 3.3 – Esboço de algumas funções. 
25 
 
BIII.3 – Refinamento 
 
BIII.3.1 – Critérios de parada 
 
 Seja ε uma raiz isolada exata e xn uma raiz aproximada de f(x) = 0, pertencentes 
ao intervalo [a, b]. xn está suficientemente próxima de ε quando, dado um valor de erro 
E, satisfaz-se: 
 
|xn – ε| ≤ E (3.1) 
 
 
 Mas como efetuar o testes acima se não conhecemos a raiz exata de ε??? 
 Para contornarmos este problema, aplica-se um dos critérios abaixo: 
 
 critério 1: |f(xn) | ≤ E 
 
 critério 2: |xn – xn-1 | ≤ E 
 
 critério 3: E
x
xx
n
nn ≤
−
−
||
|| 1 
 
Em cada aproximação xn para a raiz exata ε, aplica-se um destes critérios e compara-
se o resultado com a precisão E pré-fixada. 
 
BIII.3.2 – Método da bissecção 
 
 Seja f(x) contínua em [a, b] tal que f(a) · f(b) < 0. O objetivo do método é reduzir 
a amplitude do intervalo até atingir a precisão requerida, |a – b| < E, usando para isso 
sucessivas divisões em [a, b]. As iterações são feitas da seguinte forma: 
 
o
ooo
o
o
o
oo
o xb
aaxa
bf
xf
af
ba
x ←
←∴∈
+
+
−
⎪⎩
⎪⎨
⎧
>
>
<
+
= 1
1],[
0)(
0)(
0)(
2
ε
 
 
12
1211
1
1
1
11
1 ],[
0)(
0)(
0)(
2
bb
xabx
bf
xf
af
ba
x
←
←∴∈
+
−
−
⎪⎩
⎪⎨
⎧
>
<
<
+
= ε 
 
 
23
2322
2
2
2
22
2 ],[
0)(
0)(
0)(
2
bb
xabx
bf
xf
af
ba
x
←
←∴∈
+
−
−
⎪⎩
⎪⎨
⎧
>
<
<
+
= ε 
26 
 
Graficamente, temos: 
 
 
Figura 3.4 – Visualização gráfica do método da bissecção. 
 
Observação: o método da bissecção converge sempre que f(x) for contínua em [a, b] 
com f(a) · f(b) < 0. Terminando o processo, teremos um intervalo [a, b] que contém a 
raiz ε, tal que |b – a| < E é uma aproximação xn para a raiz exata. 
 
Exemplo: 
f(x) = x ·log(x) – 1, com zero em (2, 3) 
 
27 
Observação: para se estimar o número de iterações k do processo, dada uma precisão E 
e um intervalo inicial [a, b] até que se obtenha |bk – ak| < E, utiliza-se a equação abaixo: 
 
)2log(
)log()log( Eabk −−> (3.2) 
 
Para o exemplo anterior, admitindo-se E = 10–2, tem-se: 
 
 
 
 
 
 Se o intervalo inicial é tal que |bo – ao| >> E e se E for muito pequeno, o número 
de iterações tende a ser muito grande e a convergência muito lenta. 
 
Exemplo: 
f(x) = x3 – 9x +3, I = [0, 1], E = 10-3 
 
28 
 
BIII.3.3 – Método da posição falsa 
 
 No método da bissecção, xn é sempre o ponto médio entre [a, b]. Se | f(a)| estiver 
mais próximo do zero do que | f(b)|, é provável que a raiz esteja mais próxima de a do 
que b. Assim, o método da posição falsa, ou método das cordas, toma a média 
aritmética ponderada entre a e b com pesos | f(a)| e | f(b)|, respectivamente, ou seja: 
 
)()(
)()(
|)(||)(|
|)(||)(|
afbf
afbbfa
afbf
afbbfax
−
⋅−⋅
=
+
⋅+⋅
= (3.3) 
 
Graficamente, x é o ponto de intersecção entre o eixo x e a reta r que passa por 
(a, f(a)) e (b, f(b)). 
 
 
Figura 3.5 – Ponto de intersecção entre o eixo x e a reta r(x). 
 
As iterações são feitas da seguinte maneira: 
 
 
Figura 3.6 – Visualização das iterações no método da posição falsa. 
29 
Se uma função é côncava ou convexa em [a, b], então, no método da posição 
falsa uma das extremidades permanecerá fixa. Esta extremidade é aquela na qual o sinal 
da função coincide com o sinal da segunda derivada. 
 
 
 
Figura 3.7 – Fixação da extremidade em função da concavidade da curva. 
 
 
 
Convergência: 
Se f(x) é contínua em [a, b] com f(a) · f(b) < 0, então o método da posição falsa 
converge. 
 
Exemplo: 
Aplicar o método da posição falsa para encontrar a raiz de f(x) = x ·log(x) – 1 no 
intervalo [ao,bo] = [2, 3], com E < 10–4. 
 
 
 
 
30 
 
BIII.3.4 – Método da posição falsa modificado 
 
 O método da posição falsa modificado consiste em verificar, a cada iteração do 
método da posição falsa, se f(xk-1) · f(xk) > 0. Caso isso ocorra, trocar a reta secante que 
passa pelos pontos (a, f(a)) e (b, f(b)) por uma reta de inclinação menor. 
 
 
Figura 3.9 – Visualização do método da posição falsa modificado. 
 
Aplicando-se o método da posição falsa em f(x) = x ·log(x) – 1, para uma raiz no 
intervalo [ao,bo] = [2, 3], tem-se: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
BIII.3.5 – Método iterativo linear (MIL) 
 
 Seja f(x) uma função contínua em [a, b] e ε um número pertencente a este 
intervalo tal que f(ε) = 0 
 Por meio de um artifício algébrico, pode-se transformar f(x) = 0 em x = F(x), 
onde F(x) é chamada de função de iteração. 
31 
 A partir de um “chute” inicial x0, calcula-se o valor de F(x0). Em seguida, faz-se 
x1 = F(x0), x2 = F(x1), x3 = F(x2) e assim sucessivamente, ou seja: 
 
xk + 1 = F(xk), k = 0, 1, 2, ... (3.4) 
 
 Se a seqüência {x0, x1, x2,...} é convergente, isto é, se existe o limite ε=
∞→
kk
xlim 
e F(x) é contínua, então, passando ao limite a equação anterior tem-se: 
 ( )kkkk xFx ∞→+∞→ = limlim 1 , ou seja, 
 
ε = F(ε), onde ε é uma raiz de f(x) = 0. 
 
 A forma geral dessas funções F(x) é F(x) = x + A(x) f(x), com a condição de que 
em ε, ponto fixo de F(x), se tenha A(ε) ≠ 0. 
 Graficamente, a raiz da equação x = F(x) é a abscissa do ponto de intersecção da 
reta y = x e da curva y = F(x). 
 
 
Figura 3.10 – Convergência de F(x). 
 
 Portanto, para certas F(x), o processo pode gerar uma seqüência que diverge de 
ε. 
 
Convergência: 
Não é para qualquer escolha de F(x) que o processo recursivo definido por uma 
xk + 1 = F(xk) gera uma seqüência que converge para ε. Portanto, antes de se aplicar o 
método iterativo linear, deve-se verificar se a função F(x) escolhida conduzirá a um 
processo convergente. Para tanto, é suficiente atender o teorema abaixo: 
32 
 
Teorema: seja ε [a, b] uma raiz da equação f(x) = 0 e seja F(x) contínua e 
diferenciável em [a, b]. Se |F’(x)| ≤ M < 1 para todos os pontosno intervalo [a, b] e 
x0 [a, b], então os valores dados pela equação xk + 1 = F(xk) converge para ε. 
 
Exemplo: 
Para a equação f(x) = x2 + x – 6 = 0, pode-se facilmente obter funções de iteração do 
tipo x = F(x): 
 
a) 21 6)( xxF −= 
 
b) xxF −±= 6)(2 
c) 16)(3 −= x
xF 
d) 
1
6)(4 +
=
x
xF 
 
A questão é determinar se todas convergem. Através de métodos analíticos, 
temos que as raízes da equação x2 + x – 6 = 0 são ε1 = 2 e ε2 = -3. Mas e através do 
método numérico Mil??? 
Tomando-se a primeira função iteração, 21 6)( xxF −= , e considerando-se um 
chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos: 
 
 
 
 
 
 
Observe que {xk}está divergindo da raiz ε1 = 2 [1, 3]. Graficamente, temos: 
 
 
Figura 3.11 – Resolução gráfica do exemplo. 
 
33 
 
Tomando-se a segunda função interação, xxF −±= 6)(2 , e, novamente, 
considerando-se um chute inicial x0 = 1,5 [1, 3] que contém uma das raízes, temos: 
 
 
 
 
 
 
 
 
 
Observe que {xk} está convergindo para a raiz ε1 = 2 [1, 3]. 
 
 
Figura 3.12 – Resolução gráfica do exemplo. 
 
 No exemplo anterior, constatou-se que F1(x) gera uma seqüência divergente e 
que F2(x) gera uma seqüência convergente. 
 
Para F1(x), temos: 
 
xxFxxF 2)(6)( '1
2
1 −=⇒−= 
 
Portanto, F1(x) é diferenciável e F1(x) e )('1 xF são contínuas em IR . 
 
2
1
2
11|2|1|)(| '1 <<−⇒<−⇔< xxxF 
 
 Então, não existe um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '1 <xF , 
 x [a, b]. Portanto, F1(x) não conduzirá a um processo convergente. 
 
 Para F2(x), temos: 
 
'
2 2
1( ) 6 ( )
2 6
F x x F x
x
= − ⇒ =− − 
 
34 
Portanto, 
 
F2(x) é diferenciável; 
F2(x) é contínua em S = {x IR / x ≤ 6} 
)('2 xF é contínua em S = {x IR / x < 6} 
 
75,51
62
11|)(| '2 <⇒<
−
−⇔< x
x
xF 
 
 Então, é possível obter um intervalo [a, b], centrado em ε1= 2 tal que 1|)(| '2 <xF , 
 x [a, b]. Portanto, F2(x) conduzirá a um processo convergente. 
 
Critério de parada: no algoritmo Mil, escolhe-se xk como raiz aproximada de ε se: 
 
ExxFxx kkkk <−=− −−− |)(||| 111 (3.5) 
 
ou 
 
Exf k <|)(| , (3.6) 
 
onde E é o erro. 
 
Exemplo: 
Encontre a raiz da equação f(x) = x3 – 9x + 3 contida no intervalo [0, 1] a partir do chute 
inicial x0 = 0,5, considerando-se um erro E = 5 10–4 e, utilizando-se a função de 
iteração 
3
1
9
)(
3
+=
xxF , convergente. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
35 
BIII.3.6 – Método de Newton-Raphson (N-R) 
 
 O método de Newton-Raphson acelera a convergência do Mil, escolhendo-se 
para função iteração a função F(x) tal que F’(ε) = 0. Então, dada uma equação f(x) = 0 e 
partindo-se da foram geral F(x) = x + A(x) f(x), queremos obter a função A(x) tal que 
F’(ε) = 0. Portanto, 
 
F(x) = x + A(x) f(x) 
F’(x) = 1 + A’(x) f(x) + A(x) f ’(x) 
F’(ε) = 1 + A’(ε) f(ε) + A(ε) f ’(ε) 
 
 Ora, como f(ε) = 0, então, 
 
F’(ε) = 1 + A(ε) f ’(ε) 
 
 Assim, para F’(ε) = 0, temos: 
 
1 + A(ε) f ’(ε) = 0 
)('
1)(
ε
ε
f
A −= , de onde toma-se que: 
 
)('
1)(
xf
xA −= 
 
 Então, dada uma função f(x) qualquer, a função iteração será dada por: 
 
)('
)()(
xf
xfxxF −= 
 
 Assim, escolhendo-se x0 como o ponto de partida, a seqüência {xk}será definida 
por: 
 
)('
)(
1
k
k
kk xf
xf
xx −=+ , k = 0, 1, 2, ..., n. (3.7) 
 
Interpretação geométrica: dado xk, o ponto xk + 1 é obtido de forma que xk + 1 é a 
abscissa do ponto de intersecção entre o eixo 
→
OX e a reta tangente à curva f(x) em 
(xk, f(xk)) 
 
36 
 
Figura 3.13 – Visualização gráfica do método de Newton-Raphson. 
 
Convergência: é condição suficiente para a convergência do método de N-R que f ’(x) e 
f’’(x) sejam não nulas e preservem o sinal em [a, b] e x0 seja tal que f(x) f’’(x) > 0. 
 
Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, e x0 = 1,5. 
 
 
 
 
 
 
 
 
 
37 
 
BIII.3.7 – Método da secante 
 
A maior desvantagem do método de N-R é a necessidade de se calcular o valor 
de f ’(x) a cada iteração. Uma forma de se contornar esse problema é substituir a 
derivada f ’(x) pelo coeficiente das diferenças. Dessa forma, tem-se: 
 
1
1)()()('
+
+
−
−
≅
kk
kk
k xx
xfxfxf (3.8) 
 
 Neste caso, a função iteração fica: 
 
( )1
1
1
1 )()(
)(
)()(
)()( +
+
+
+
−⋅
−
−=
−
−
−= kk
kk
k
k
kk
kk
k
kk xxxfxf
xfx
xx
xfxf
xfxxF 
 
 Portanto, 
 
)()(
)()(
)()(
)()()(
1
11
1
1
11
−
−−
+
−
−−
−
⋅−⋅
=⇒
−
⋅−⋅
=
kk
kkkk
k
kk
kkkk
k xfxf
xfxxfxx
xfxf
xfxxfxxF (3.9) 
 
Interpretação geométrica: 
 
 
Figura 3.14 – Visualização gráfica do método da secante. 
 
Para se utilizar o método da secante, são necessárias duas aproximações iniciais, 
xk – 1 e xk. A partir dessas aproximações, o ponto xk + 1 é obtido como sendo a abscissa do 
ponto de intersecção entre o eixo 
→
OX e da reta secante que passa por (xk – 1, f(xk – 1)) e 
(xk, f(xk)). 
38 
 
Exemplo: considere f(x) = x2 + x – 6 = 0, ε = 2, x0 = 1,5 e x1 = 1,7 
	I – Erros
	I.1 – Tipos de erros
	I.2 – Exatidão ( precisão
	I.3 – Erros durante a descrição dos problemas
	I.3.1 – Erros na fase de modelagem
	I.3.2 – Erros na fase de resolução
	I.4 – Propagação de erros
	I.5 – Aritmética de ponto flutuante
	II – Resolução Numérica de Sistemas Lineares
	II.1 – Definições
	II.2 – Métodos diretos
	II.2.1 – Método de Eliminação de Gauss
	II.2.1.1 – Estratégia de pivoteamento parcial
	II.2.1.2 – Estratégia de pivoteamento completo
	II.2.2 – Método de Jordam
	II.3 – Métodos Iterativos
	II.3.1 – Introdução
	II.3.2 – Testes de parada
	II.3.3 – Método de Jacobi
	II.3.4 – Método de Gauss-Seidel
	II.3.5 – Convergência dos métodos iterativos
	II.3.5.1 – Critério das linhas
	II.3.5.2 – Critério das colunas
	II.3.5.3 – Critério de Sassenfeld
	III – Cálculo Numérico de Raízes de Equações
	III.1 – Introdução
	III.2 – Isolamento de raízes
	III.3 – Refinamento
	III.3.1 – Critérios de parada
	III.3.2 – Método da bissecção
	III.3.3 – Método da posição falsa
	III.3.4 – Método da posição falsa modificado
	III.3.5 – Método iterativo linear (MIL)
	III.3.6 – Método de Newton-Raphson (N-R)
	III.3.7 – Método da secante
	IV – Interpolação
	IV.1 – Introdução
	IV.2 – Interpolação polinomial
	IV.3 – Formas de obtenção do polinômio interpolador
	IV.3.1 – Resolução do sistema linear
	IV.3.2 – Forma de Lagrange
	IV.3.3 – Forma de Newton
	IV.3.4 – Forma de Newton-Gregory
	IV.3.5 – Erro na interpolação
	V – Integração Numérica
	V.1 – Introdução
	V.2 – Fórmulas de Newton-Cotes
	V.2.1 – Regra dos retângulos
	V.2.2 – Regra dos trapézios
	V.2.2.1 – Fórmula simples
	V.2.2.2 – Erro de trucamento da fórmula simples
	V.2.2.3 – Fórmula composta
	V.2.2.4 – Erro de truncamento da forma composta
	V.2.3 – Primeira regra de Simpson
	V.2.3.1 – Fórmula simples
	V.2.3.2 – Erro de truncamento da fórmula simples
	V.2.3.3 – Fórmula composta
	V.2.3.4 – Erro de trucamento da formula composta
	V.2.4 – Segunda regra de Simpson
	V.2.4.1 – Fórmula simples
	V.2.4.2 – Erro de truncamento da fórmula simples
	V.2.4.3 – Fórmula composta
	V.2.4.4 – Erro de truncamento da fórmula composta
	V.2.5 – Extrapolação de Richardson
	V.2.5.1 – Extrapolação de Richardson para a regra dos trapézios
	V.2.5.2 – Extrapolação de Richardson para as regras de Simpson
	V.3 – Fórmulas de Quadratura Gaussiana
	VI – Resolução Numérica de equações diferenciais ordinárias
	VI.1 – Introdução
	VI.2 – Método de Euler
	VI.3 – Métodos de Runge-Kutta
	VI.3.1 – Métodos de Runge-Kutta de 1ª ordem
	VI.3.2 – Métodos de Runge-Kutta de 2ª ordem
	VI.3.3 – Métodos de Runge-Kutta de 3ª e 4ª ordens
	VI.4 – Outros métodos de resolução numérica de EDO
	VI.4.1 – Método de Adams-Bashforth de passo dois
	VI.4.2 – Método de Adams-Bashforth de passo quatro

Continue navegando