Buscar

Existem vários métodos de otimização numérica multidimensionais sem restrições que usam na solução de problemas a função derivada o gradiente e a m...

Existem vários métodos de otimização numérica multidimensionais sem restrições que usam na solução de problemas a função derivada o gradiente e a matriz Hessiana. Leia e associe as duas colunas conforme as características dos métodos de otimização multidimensionais.
I-Gradiente conjugado; II-Gradiente descendente; III-Newton-Raphson; IV-Busca Seccionada.
A-É uma otimização que utiliza a derivada de 2ª ordem, que faz a aproximação da função objetivo utilizando a série de Taylor, derivando em relação a x(k) e igualando a zero.; B-Utiliza a derivada de 1ª ordem, sendo que o gradiente aponta para a direção de maior variação da função objetivo. E na minimização, a direção da busca é determinada por −∇????(????(????)).; C-Utiliza a derivada de 1ª ordem e combina o gradiente de iteração anterior com o gradiente da iteração atual. Tem, também, uma taxa de convergência quadrática. É uma otimização que utiliza a derivada de 2ª ordem, que faz a aproximação da função objetivo utilizando a série de Taylor, derivando em relação a x(k) e igualando a zero.; D-Executa a busca em uma única direção por vez, e utiliza métodos unidimensionais de otimização em cada direção, buscando sempre o ponto mínimo.

I-A; II-C; III-D; IV-B.
I-D; II-C; III-B; IV-A.
I-B; II-D; III-A; IV-C.
I-C; II-A; III-B; IV-D.
I-C; II-B; III-A; IV-D.

Essa pergunta também está no material:

4 - Otimização numérica
9 pág.

Estatistica Basica I AnhangueraAnhanguera

💡 1 Resposta

User badge image

Ed Verified user icon

A associação correta entre as características dos métodos de otimização multidimensionais e as letras correspondentes é a alternativa III - B; II - D; III - A; IV - C. Explicação: - I - Gradiente conjugado: Utiliza a derivada de 1ª ordem e combina o gradiente de iteração anterior com o gradiente da iteração atual. Tem, também, uma taxa de convergência quadrática. Letra D. - II - Gradiente descendente: Utiliza a derivada de 1ª ordem, sendo que o gradiente aponta para a direção de maior variação da função objetivo. E na minimização, a direção da busca é determinada por −∇f(x(k)). Letra C. - III - Newton-Raphson: É uma otimização que utiliza a derivada de 2ª ordem, que faz a aproximação da função objetivo utilizando a série de Taylor, derivando em relação a x(k) e igualando a zero. Letra A. - IV - Busca Seccionada: Executa a busca em uma única direção por vez, e utiliza métodos unidimensionais de otimização em cada direção, buscando sempre o ponto mínimo. Letra B.

0
Dislike0

✏️ Responder

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Outros materiais