Baixe o app para aproveitar ainda mais
Prévia do material em texto
OTIMIZAÇÃO Método do Gradiente Notas de Aula, prof. Ricardo H. C. Takahashi – UFMG 2007 Prof. Lenir Jr. - 2013 Conceito Método do Gradiente é uma extensão dos Métodos de Direção de Busca, proposta de uma diferente forma de se fazer escolha de uma direção; Particularidade: Utiliza-se do Gradiente da função objetivo −𝛻 f(𝑥𝑘), para fins de cálculo da direção dk a ser otimizada em busca do mínimo no ponto xk. Conceito Algoritmo Gradiente que se define por: Definição do Gradiente Função f(𝑥𝑘) seja diferenciável. Algoritmo que: entradas = vetores de variáveis de otimização xk; saídas = funções que explicitamente forneçam o gradiente da f dados os vetores de variáveis. 𝑥𝑘= 𝑥1 𝑥2 ⋮ 𝑥𝑛 𝛻 f(𝑥𝑘)= 𝛻 f(𝑥1) 𝛻 f(𝑥2) ⋮ 𝛻 f(𝑥𝑛) Otimização Unidimensional Premissas quanto a parcela αk a ser deslocada na direção dk dado um ponto xk de referência e válido para uma vizinhança local de um ótimo restrito. Otimização Unidimensional A convergência para um mínimo local no intervalo [a,b], define a menor distância a ser percorrida para se encontrar este valor restrito, com uma precisão sempre menor ou igual à metade do comprimento remanescente. Uma das formas adequadas a escolher os pontos xa e xb reduzindo o número de iterações, é frequentemente utilizado o método da seção áurea, onde: Método da Seção Áurea Exemplo Livro Texto Exemplo Livro Texto Exemplo Livro Texto
Compartilhar