Buscar

Efeito das restrições na otimização de estruturas: EFICIÊNCIA E ROBUSTEZ DE DIFERENTES TIPOS DE ALGORITMOS DE OTIMIZAÇÃO

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

UNIVERSIDADE FEDERAL DE SANTA CATARINA 
PROJETO DE INICIAÇÃO CIENTÍFICA – PIBIC/CNPq 
 
 
ANDRESSA AIRES DA FRAGA CUNHA 
 
 
 
 
 
 
 
 
 
 
Efeito das restrições na otimização de estruturas: 
EFICIÊNCIA E ROBUSTEZ DE DIFERENTES TIPOS DE ALGORITMOS DE 
OTIMIZAÇÃO 
 
 
 
 
 
 
 
 
 
 
 
 
FLORIANÓPOLIS 
2020 
ANDRESSA AIRES DA FRAGA CUNHA 
 
 
 
 
 
 
 
 
 
 
 
 
 
Efeito das restrições na otimização de estruturas: 
EFICIÊNCIA E ROBUSTEZ DE DIFERENTES TIPOS DE ALGORITMOS DE 
OTIMIZAÇÃO 
 
 
 
 
 
Trabalho de Iniciação Científica do curso 
de graduação de engenharia civil da 
Universidade Federal de Santa Cataria 
Orientador: Dr. Wellison Gomes 
 
 
 
 
FLORIANÓPOLIS 
2020 
SUMÁRIO 
 
1. INTRODUÇÃO .................................................................................................................. 4 
2. OBJETIVO ........................................................................................................................ 5 
3. OTIMIZAÇÃO ................................................................................................................... 6 
3.1 Visão geral .................................................................................................................. 6 
3.2 Classificação dos problemas de otimização ............................................................. 8 
3.3 Métodos utilizados ................................................................................................. 12 
3.3.1 Pontos Interiores (Interior-Point) ........................................................... 12 
3.3.2 Programação Sequencial Quadrática (PSQ ou SQP – Sequential 
Quadratic Programming) .................................................................................. 14 
3.3.3 Restrições Ativas (Active-Set) ................................................................. 15 
3.3.4 Algoritmo Genético (AG ou GA – Genetic Algorithm) ........................... 16 
4. METODOLOGIA DE APLICAÇÃO DOS MÉTODOS DE OTIMIZAÇÃO SELECIONADOS ... 19 
5. EXEMPLOS NUMÉRICOS ............................................................................................... 21 
5.1 Problemas Benchmark ............................................................................................ 21 
5.1.1 Função Esfera .......................................................................................... 22 
5.1.2 Função Goldstein-Price ........................................................................... 23 
5.1.3 Função Himmelblau ................................................................................ 24 
5.1.4 Função Rosenbrock .................................................................................. 25 
5.1.5 Função Beale ........................................................................................... 26 
5.1.6 Resultados ................................................................................................ 27 
5.2 Treliças planas ......................................................................................................... 31 
5.2.1 Treliça plana de duas barras ................................................................... 32 
5.2.1.1 Resultados ............................................................................... 33 
5.2.2 Treliça plana de cinco barras .................................................................. 35 
5.2.2.1 Resultados ............................................................................... 36 
5.2.3 Treliça plana de cinco barras com apoio intermediário ........................ 38 
5.2.3.1 Resultados ............................................................................... 39 
6. CONCLUSÃO .................................................................................................................. 41 
7. REFERÊNCIAS ................................................................................................................. 42 
 
 
 
 
https://en.wikipedia.org/wiki/Rosenbrock_function
4 
 
1. INTRODUÇÃO 
Vem-se discutindo cada vez mais na engenharia de estruturas a utilização de métodos de 
otimização a fim de se obter estruturas mais econômicas e eficientes. Tais métodos permitem 
buscar, por meio de algoritmos computacionais, as configurações estruturais que maximizam ou 
minimizam uma ou mais funções pré-determinadas, que dependem dos parâmetros da 
estrutura e estabelecem os objetivos da otimização. Por exemplo, pode-se buscar a 
configuração de uma estrutura treliçada que faça com que a mesma suporte as cargas às quais 
está submetida e que apresente o mínimo volume de material possível. No entanto, vários 
desafios são encontrados para essa prática. 
Um dos desafios encontrados diz respeito à escolha de qual método utilizar. Cada problema, 
a partir de suas especificidades, seria melhor explorado por certo método. Entretanto, como o 
problema dificilmente é inteiramente conhecido a priori, ou seja, não se sabe como o problema 
se comporta ao longo das infinitas configurações possíveis, o melhor que pode ser feito a este 
respeito geralmente consiste em empregar métodos robustos o suficiente e que já tenham sido 
aplicados com sucesso a problemas semelhantes. Outro desafio é quanto aos pontos de mínimo 
global e local. Um ponto de mínimo local é aquele que corresponde ao menor valor da função 
dentre as demais soluções da vizinhança, enquanto que, no mínimo global a comparação é feita 
com todas as soluções viáveis (NOCEDAL e WRIGHT, 2006). Em problemas de caráter 
real/prático, dificilmente se sabe se a solução ótima encontrada é um ponto de mínimo global 
ou mínimo local e, neste último caso, não seria então a verdadeira solução ótima. Assim, muitas 
vezes os engenheiros acabam desperdiçando tempo ao resolver, por tentativa e erro, várias 
vezes o mesmo problema com diversos algoritmos na busca de encontrar aquele que conduza à 
solução ótima e que seja satisfatório computacionalmente (CHASE et al.). 
No intuito de contribuir para o avanço quanto a essas dificuldades, no presente trabalho 
realizam-se diversos estudos sobre a escolha de algoritmos e alguns desenvolvimentos 
relacionados à proposição de algoritmos mais robustos. 
 
 
 
 
 
5 
 
2. OBJETIVO 
Algoritmos de otimização são usualmente avaliados e reconhecidos por dois diferentes 
critérios: eficiência e robustez. A eficiência de um algoritmo é frequentemente quantificada em 
termos do número de chamadas da função objetivo necessárias à convergência para o ótimo, 
pois cada chamada demanda certo tempo de CPU para ser executada podendo levar a tempos 
computacionais inviáveis. A robustez de um algoritmo está relacionada à sua capacidade de 
convergir para o mínimo global independente do ponto inicial escolhido ou do tipo de problema 
que se está trabalhando, refletindo a confiança atribuída aos resultados do método (CHASE et 
al.). 
Neste estudo, avalia-se e compara-se a eficiência e robustez de diferentes tipos de 
algoritmos de otimização em problemas Benchmark analíticos de otimização, bem como em 
problemas de otimização estrutural com restrições. 
O objetivo principal desta pesquisa consiste então em identificar, dentre os algoritmos aqui 
investigados, quais se apresentam mais robustos e eficientes frente aos problemas escolhidos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6 
 
3. OTIMIZAÇÃO 
3.1 Visão geral 
O processo de otimizar busca o melhor arranjo de valores para as incógnitas de uma função 
de forma a atingir o valor extremo (máximo ou mínimo) da mesma. Em outras palavras, torna 
um sistema o mais apropriado possível (MARTÍNEZ, 2009). 
Um problema de otimização pode ser, matematicamente, apresentado como (CARVALHO, 
2014): 
Encontrar �̅�𝑜𝑡𝑚 = (𝑥1, 𝑥2, … , 𝑥𝑛) tal que 𝑓(�̅�) = 𝑓𝑜𝑡𝑚 (1.1)
respeitando: 
𝑥𝑖
𝐿 ≤ 𝑥𝑖 ≤ 𝑥𝑖
𝑈 𝑖 = 1,2, … , 𝑛 (1.2) 
 𝑔𝑗(�̅�) ≤ 0 𝑗 = 1,2, … , 𝑛𝑔 (1.3) 
 ℎ𝑘(�̅�) = 0 𝑘 = 1,2, … , 𝑛ℎ (1.4) 
Onde: 
𝑓(�̅�) é a função objetivo, isto é, a função que descreve o comportamento do problema 
analisado e que se deseja maximizar ou minimizar. Possui tantas dimensões quanto o número 
de variáveis. 
�̅� é o ponto ou vetor das n variáveis do problema que se alteram no decorrer do processo de 
otimização. Os valores devem estar acima do limite mínimo 𝑥𝑖
𝐿 e abaixo do limite máximo 𝑥𝑖
𝑈. 
�̅�𝑜𝑡𝑚 é o ponto de solução ótima encontrado que detém os valores das variáveis de forma a 
minimizar, ou maximizar, a função respeitando as condições dadas. 
𝑓𝑜𝑡𝑚 é o valor mínimo, ou máximo, da função (encontrado em �̅�𝑜𝑡𝑚). 
𝑔𝑗(�̅�) são as 𝑛𝑔 restrições de inequações e ℎ𝑘(�̅�) são as 𝑛ℎ restrições de equações impostas. 
As restrições retratam matematicamente situações que são (ou não) desejáveis. Também 
delimitam o espaço de busca, que compreende as possíveis soluções para as variáveis do 
problema como mostrado na Figura 1. 
7 
 
 
Figura 1 - Espaço de busca delimitado pelas restrições. Imagem obtida de CARVALHO, 2014. 
É necessário tomar cuidado ao formular um problema de otimização, pois a solução 
encontrada só poderá ser tão boa quanto a formulação empregada. Para a elaboração de um 
projeto estrutural ótimo deve-se, primeiramente, ter claro o objetivo do respectivo problema 
de otimização, bem como os requisitos que devem ser atendidos. A seguir, coleta-se dados e 
informações para o desenvolvimento da formulação matemática e, posteriormente, define-se 
quais são as variáveis. Cria-se, então, a expressão da função objetivo identificando ainda todas 
as restrições. As variáveis devem ser independentes ou, quando relacionadas, terem sua relação 
explicitada na forma de restrição (ARORA, 2011). 
Depois de escolhido o método a ser utilizado, o processo de solução da otimização é 
usualmente um processo iterativo, que parte do fornecimento de valores estimados para as 
variáveis, que funcionam como dados de entrada, e termina quando o critério de convergência 
é atingido, retornando a solução e valor ótimo. O Esquema 1 mostra, resumidamente, o 
processo de otimização. 
Como critérios de parada pode-se citar, por exemplo, número máximo de iterações ou de 
avaliações da função objetivo (SOTERRONI, 2012), tempo máximo de execução, estabilização do 
valor da função-objetivo ou do vetor de variáveis de otimização, anulação do vetor gradiente 
(RAMÍREZ et al.) entre outros. 
8 
 
 
Esquema 1 - Processo de otimização. 
 
3.2 Classificação dos problemas de otimização 
De acordo com as escolhas tomadas na formulação e execução do problema de otimização, 
diferentes classificações podem ser feitas, exibindo as características que moldam o projeto e 
facilitando a compreensão do mesmo (CARVALHO, 2014). Elas podem ser: 
 De acordo com o número de funções objetivo 
Mono-objetivo: possui apenas uma única função objetivo. 
Multiobjetivo: possui duas ou mais funções objetivo a serem solucionadas simultaneamente. 
Geralmente possui mais de uma solução (ARORA, 2011). 
9 
 
A presente pesquisa aborda apenas problemas com uma única função objetivo. 
 De acordo com a presença de restrições 
Sem restrições: a função objetivo é não restringida. No caso de problemas sem restrições, é 
comum se apresentar uma classificação dos métodos de otimização com relação à estratégia 
empregada pelo método para encontrar a solução ótima (KALID): 
Método direto: utiliza a derivada da função, a cada iteração, no cálculo do ponto ótimo. 
Geralmente possui menor número de iterações porém requerem mais tempo. 
Método indireto: não utiliza a derivada da função no cálculo do ponto ótimo. Possui 
maior número, mas que demandam menor tempo, de iterações. 
Com restrições: a função objetivo é restringida por expressões de igualdade e/ou desigualdade. 
Neste caso, surge outra classificação dos métodos de acordo com a estratégia empregada pelo 
método na verificação das restrições (SILVA): 
Método direto: verifica as restrições durante a execução do método. 
Método indireto: modifica a função objetivo de forma que ela não possua mais 
restrições. 
No presente trabalho são resolvidos problemas com e sem restrições, empregando métodos 
diretos e indiretos segundo as duas classificações. 
 De acordo com o número de variáveis 
Unidimensional: possui apenas uma única incógnita. 
Multidimensional: possui duas ou mais incógnitas. 
 De acordo com o tipo de variáveis 
Variável discreta: a incógnita só pode assumir valores especificados. 
Variável contínua: a incógnita pode assumir qualquer valor dentro de um intervalo de variação. 
 De acordo com o grau das variáveis 
Linear: todas as variáveis são de primeiro grau, tanto na função objetivo quanto nas restrições. 
Não-linear: ocorre quando pelo menos uma variável, seja na função objetivo ou em alguma 
restrição, possui grau superior ou igual a 2. 
10 
 
A presente pesquisa aborda problemas lineares e não-lineares, com variáveis contínuas. 
 De acordo com o parâmetro representado pela variável de projeto 
Otimização dimensional: a variável é um parâmetro de dimensão do elemento estrutural, não 
altera a geometria do sistema. 
Otimização de forma: a variável refere-se à geometria do elemento estrutural, são alterados os 
contornos internos e externos mas não se modifica as dimensões do sistema. 
Otimização topológica: a variável cria espaços no elemento estrutural (SILVA) buscando melhor 
distribuir o material dentro do domínio do projeto (OZIMBOSK et al. 2019). 
 De acordo com a técnica do método de otimização 
Determinístico: também chamado de método clássico, utiliza o cálculo de derivadas de primeira 
ou segunda ordem, portanto é necessário que a função seja contínua e diferenciável no espaço 
de busca. Além disso, um mesmo ponto inicial levará sempre a mesma solução o que pode 
facilitar a estagnação em mínimos locais (MEDEIROS e KRIPKA, 2012). Nesta categoria, para 
problemas lineares, o método mais conhecido na literatura é o Simplex. Para problemas não-
lineares sem restrição, os métodos mais conhecidos são o Método do Máximo Declive, Método 
de Newton-Raphson, Método dos Gradientes Conjugados e o Quase Newton-Raphson; e quando 
há restrições, o Método das Penalidades, Método de Programação Quadrática Sequencial e o 
Método Lagrangeano Aumentado (MARTÍNEZ, 2009). 
Probabilístico: conhecido como método Heurístico, baseia-se no empirismo imitando, muitas 
vezes, fenômenos da natureza. No processo de otimização são empregados parâmetros 
estocásticos (aleatórios) garantindo uma resposta diferente a cada execução, independente se 
o ponto inicial for o mesmo (MEDEIROs e KRIPKA, 2012). Consequentemente, amplia-se a 
possibilidade de contornar-se mínimos locais aumentando a eficiência, robustez e a capacidade 
de solucionar problemas maiores e mais complexos (JEHIHARA, 1998). Outras vantagens quanto 
ao métodos determinísticos, a função objetivo e as restrições não precisam estar explicitadas e 
podem trabalhar com variáveis discretas. Não utilizam derivadas e sim, as informações obtidas 
com os resultados anteriores. Dessa forma, exige-se um grande número de chamadas da função 
objetivo podendo tornar-se caro computacionalmente. Destacam-se na literatura os métodos 
Algoritmo Genético, Recozimento Simulado, Sistemas Imunológicos Artificiais, Colônia de 
Formigas, Colônia de Abelhas Artificial, Algoritmo Vaga-lume, Algoritmo Cuckoo Search e 
Enxame de Partículas (CARVALHO, 2014).
11 
 
Na presente pesquisa, o foco é mantido na aplicação de métodos determinísticos em 
problemas são de otimização dimensional, apesar de um método probabilístico também ser 
empregado para fins de comparação. 
O Esquema 2 resume as classificações dos problemas de otimização, onde os tipos de 
problemas aqui abordados são indicados. 
 
Esquema 2 - Classificações dos problemas de otimização. 
12 
 
3.3 Métodos utilizados 
A seguir, é apresentada uma breve descrição dos quatro métodos utilizados nos processos 
de otimização: Pontos Interiores, Programação Sequencial Quadrática, Restrições Ativas e 
Algoritmo Genético. 
3.3.1 Pontos Interiores (Interior-Point) 
O método dos Pontos Interiores foi desenvolvido inicialmente como sendo um método de 
programação linear. Este método realiza a busca do ponto ótimo a partir do interior do poliedro 
que determina a região de busca. A Figura 2 ilustra esse procedimento. 
 
Figura 2 - Busca do ponto ótimo a partir do interior da região de busca. Imagem obtida de OLIVEIRA, 2019. 
Uma vez que a evolução da solução se dá pelo interior da região de busca, e não pelas 
arestas do poliedro, torna-se necessário considerar todas as direções possíveis. Para resolver 
esse impasse de qual orientação seguir, observou-se que quando o ponto atual está no centro 
do poliedro toma-se a orientação de descida mais acentuada (em inglês, steepest descent). 
13 
 
 
Figura 3 - Descidas conforme a localização dos pontos no interior da região de busca. Imagem obtida de 
OLIVEIRA,2019. 
Nota-se que, na Figura 3, o ponto 𝑥𝑐, ao centro, tem descida mais acentuada (−∇𝑧) que os 
pontos 𝑥1 e 𝑥2 , já que esses não podem ultrapassar as fronteiras pois violariam alguma 
restrição. Assim, são realizadas sucessivas transformações projetivas, mas preservando as 
propriedades fundamentais do problema, as quais distorcem o espaço de busca mantendo a 
solução atual no centro deste espaço distorcido (OLIVEIRA, 2019). 
Essencialmente, realiza-se o processo indicado no Esquema 3. 
 
Esquema 3 - Processo de otimização do Método dos Pontos Interiores. 
 
14 
 
A partir da base teórica, a evolução do método proporcionou uma série de novos algoritmos. 
Algumas variações são a substituição da transformação projetiva pela transformação afim 
(OLIVEIRA e LYRA) e a busca do ponto ótimo a partir do exterior do poliedro. Atualmente é 
possível resolver também problemas não-lineares (FRESSATO, 2015). Os algoritmos de maior 
importância são os Primal Afim-Escala, Dual Afim-Escala e, o aqui utilizado, Primal-Dual. 
O Método dos Pontos Interiores vem sendo usado em problemas complexos e com muitas 
variáveis (DUTRA, 2004), a quantidade de iterações necessárias cresce muito mais lentamente 
que o aumento do número de dimensões (YE, 1997) embora demandem maior tempo 
computacionalmente. 
 
3.3.2 Programação Sequencial Quadrática (PSQ ou SQP – Sequential Quadratic 
Programming) 
O método PQS é um método de programação não-linear com restrição, baseado também 
em gradientes. Sua estratégia consiste em resolver o problema supostamente mais complicado 
substituindo-o por vários outros problemas mais simples. Tomando-se uma primeira estimativa 
de solução 𝒙𝑘, elabora-se um subproblema de forma que a função objetivo seja quadrática, as 
restrições sejam aproximadas linearmente e que, pelo menos localmente, retrate 
apropriadamente o problema original. 
Na resolução do subproblema encontra-se, utilizando suas derivadas, uma nova solução 
𝒙𝑘+1 melhor que a anterior. Portanto, cada subproblema é uma aproximação melhorada criada 
a partir da reposta do subproblema precedente. Repete-se, sequencialmente, esse processo em 
cada iteração até que se atinja o critério de convergência. 
O Esquema 4 resume o procedimento do método PQS. 
 
Esquema 4 - Processo de otimização do Método Programação Sequencial Quadrática. 
15 
 
Ressalta-se que, para esse método, uma solução melhor não significa somente uma solução 
mais próxima da ótima. Como o PQS pode partir e percorrer pontos fora da região de busca, é 
necessário que a nova solução obtida não se distancie demasiadamente do conjunto viável. É 
introduzida então no algoritmo, uma função chamada função de mérito, responsável por manter 
o equilíbrio entre a proximidade da solução ótima e a proximidade do conjunto viável no cálculo 
da solução de cada subproblema. A função de mérito mais conhecida é o Lagrangiano 
Aumentado (NUNES, 2009). 
Outras duas características relevantes deste método são que problemas quadráticos são 
fáceis de se resolver e apresentam boa velocidade de convergência (BOGGS e TOLLE, 1995; 
NUNES, 2009). 
 
3.3.3 Restrições Ativas (Active-Set) 
O método de Restrições Ativas é um método de programação não-linear com restrição. Sua 
técnica consiste em tornar a função num problema irrestrito ao descobrir quais são as restrições 
ativas na solução ótima. Uma restrição é dita ativa quando a solução está sobre sua fronteira 
(que delimita a região de busca). 
Partindo de um conjunto estimado de restrições ativas W, são fixadas todas a variáveis de 
projeto que pertençam a este conjunto, criando um subproblema irrestrito. Verifica-se então se 
a solução do subproblema é também solução do problema original, se for, o conjunto W está 
correto e a solução encontrada é a solução ótima. Caso contrário, altera-se o conjunto W e o 
processo é repetido (GENTIL, 2010; POTSCHKA et al. 2014). 
Nota-se que, ao fixar variáveis de projeto a região de busca é dividida em partes. Cada parte, 
chamada de face, é um subproblema irrestrito que pode, ou não, conter a solução ótima. É 
conveniente avaliar se é mais vantajoso permanecer na face atual ou ir para outra. Essa 
avaliação é feita observando a direção percorrida com a diminuição da função objetivo do 
subproblema. Se a solução caminha para as fronteiras, de forma que a norma do gradiente 
projetado contínuo seja consideravelmente maior que a norma do gradiente interno, muda-se 
de face. 
Para abandonar uma face, executa-se o algoritmo Gradiente Espectral Projetado (SPG) 
obtendo uma nova solução, menor que a anterior, localizada além dos limites da face. Uma vez 
que a face é abandonada, ela não será verificada novamente. Entretanto se for viável 
permanecer na face atual, realiza-se uma iteração de um algoritmo para minimização irrestrita 
16 
 
calculando um ponto dentro dos limites da face que tenha valor menor que o antecessor 
(ANDRETTA, 2010). 
Simplificadamente, o Esquema 5 apresenta a metodologia. 
 
Esquema 5 - Processo de otimização do Método de Restrições Ativas. 
O Método de Restrições Ativas converge com número finito de iterações uma vez que o 
número de faces é finito e os algoritmos irrestrito e SPG possuem convergência garantida, 
apesar de não necessariamente para o mínimo global. Entretanto, o Método das Restrições 
Ativas é relativamente caro do ponto de vista computacional (ANDRETTA, 2010). 
 
3.3.4 Algoritmo Genético (AG ou GA – Genetic Algorithm) 
O Algoritmo Genético é um método estocástico de programação não linear com restrições 
que se baseia no princípio de Darwin da seleção natural bem como em mecanismos da genética 
(CHEN e CHANG, 1995). 
Inicialmente, são criados vários pontos no espaço de busca, usualmente de forma aleatória. 
Cada ponto é chamado de indivíduo e ao conjunto de pontos dá-se o nome de população. O 
indivíduo é caracterizado (codificado) por uma estrutura de dados, por exemplo, vetores de 
números reais, vetores de números inteiros, cadeias de bits, etc., denominados cromossomos. 
Por meio de uma função de aptidão (fitness) avalia-se a competência de cada indivíduo na 
17 
 
resolução da função objetivo. Essa função tenta medir o quão próxima a solução atual está da 
solução ótima. 
 Em seguida, são selecionados indivíduos aos pares, os denominados pais, para realização 
do cruzamento (crossover). Os pais geram novos pontos,
os filhos, que podem sofrer, ou não, 
mutação. Os operadores genéticos (cruzamento e mutação) são os responsáveis por 
transformarem a população, prolongando a busca até um resultado satisfatório. Dessa forma, a 
cada geração, isto é, iteração, os indivíduos são melhorados. 
A seleção dirige o Algoritmo Genético para as regiões do espaço de busca mais próximas da 
solução ótima. Geralmente indivíduos mais aptos possuem maiores chances de serem 
selecionados, mas existem diferentes maneiras de efetuar a seleção, tais como, o método de 
seleção por Roleta e o método de seleção Torneio (POZO et al). No cruzamento, o cromossomo 
do filho é uma combinação dos cromossomos dos pais, que pode se dar de diversas formas. Já 
na mutação, acrescentam-se aleatoriamente dados no cromossomo dos filhos que não existiam 
antes nos pais. A mutação é o mecanismo que proporciona diversidade na população 
permitindo explorar áreas desconhecidas do espaço de busca. 
Por fim, executando-se um critério de sobrevivência dos cromossomos que decide quais 
indivíduos permanecerão e quais deixarão de existir, atualiza-se a população e repete-se todo o 
processo (POZO et al). 
A técnica empregada pelo método AG é vista, sucintamente, no Esquema 6. 
 
Esquema 6 - Processo de otimização do Método do Algoritmo Genético. 
 
18 
 
Alguns parâmetros merecem destaque por afetarem o desempenho global do método. O 
tamanho da população, por exemplo, quando muito pequeno não cobre adequadamente o 
espaço de busca podendo conduzir a uma convergência não muito boa. Entretanto, se for 
excessivamente grande, perde-se eficiência computacional, uma vez que é necessário avaliar 
vários indivíduos da população em cada iteração. Quanto à função de aptidão, se for pouco 
precisa em sua avaliação pode-se perder uma solução com grande potencial ou manter uma 
solução pouco promissora que acarretará em perda de tempo (POZO et al.). 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
19 
 
4. METODOLOGIA DE APLICAÇÃO DOS MÉTODOS DE OTIMIZAÇÃO SELECIONADOS 
Sabe-se que a trajetória seguida por cada algoritmo varia de acordo com o ponto inicial, 
assim, as iterações e o número de chamadas não são necessariamente os mesmos em cada 
execução e também não é certo que o método irá convergir para a mesma solução (pode-se 
ficar estacionado em mínimos locais). Desta forma, na aplicação dos métodos de otimização 
selecionados cada execução parte de um ponto inicial diferente, dentro do espaço de busca, ou 
de uma população inicial diferente, para o caso do método GA. 
Os resultados são apresentados, numa tabela, em termos das médias (µfmin) e desvios 
padrão (σfmin) do menor valor da função objetivo encontrado pelo algoritmo, obtidos a partir de 
100 execuções de cada algoritmo. No intuito de investigar a velocidade de convergência dos 
métodos, apresenta-se outra tabela em termos da média (µNCALL) e desvio padrão (σNCALL) do 
número de chamadas à função objetivo. Quando os resultados não convergem para um mesmo 
valor, são destacados em verde os valores de médias mais próximos da solução ótima e os 
menores desvios padrão (melhores resultados). Em vermelho são indicados os valores de médias 
mais distantes da solução e maiores desvios padrão (piores resultados). 
Os códigos computacionais foram implementados utilizando-se o software Matlab 2017, 
bem como várias funções disponibilizadas pelo mesmo. Os pontos iniciais foram obtidos a partir 
da amostragem por hipercubo latino (LHS) por meio do comando ‘lhsdesign’, e adaptados 
respeitando os limites superiores e inferiores de cada variável de otimização do problema. Para 
os problemas envolvendo treliças, executou-se rotinas do MASTAN2. 
Os parâmetros utilizados na execução do Algoritmo Genético foram os pré-definidos pelo 
próprio software Matlab, apresentados na Tabela 1. 
20 
 
 
Tabela 1 - Parâmetros defaulf do Algoritmo Genético, via comando gaoptimset. Tabela adaptada de COÊLHO, 2017. 
Parâmetro Descrição Valor
PopulationType Tipo dos indivíduos que formam a população doubleVector'
PopInitRange Faixa inicial para população []
PopulationSize Tamanho da população
'50 when numberOfVariables <= 
5, else 200'
EliteCount Número de indivíduos selecionados por elitismo '0.05*PopulationSize'
CrossoverFraction
Fração da população na próxima geração, exceto 
filhos de elitismo, que são criados por crossover
0.8000
ParetoFraction
Escalar entre 0 e 1 especificando a fração de 
indivíduos para manter na primeira frente de 
Pareto enquanto o solucionador seleciona
indivíduos de frentes mais altas
[]
MigrationDirection Direção da migração 'forward'
MigrationInterval Intervalo da migração 20
MigrationFraction Frequencia da migração 0.2000
Generations Número de gerações permitido 100*numberOfVariables'
TimeLimit Tempo máximo para execução do algoritmo Inf
FitnessLimit
Limite para parada do algoritmo, caso a função 
objetivo o atinja
-Inf
StallGenLimit
O algoritmo pára se a mudança média relativa no 
melhor indivíduo do valor estabelecido de 
"StallGenLimit" é menor ou igual a tolerância 
estabelecida (TolFun)
50
StallTest Condiciona o tipo de parada 'averageChange'
StallTimeLimit
O algoritmo pára se não há melhoria na função 
objetivo no tempo estabelecido em 
StallTimeLimit
Inf
TolFun
O algoritmo pára se a mudança média relativa no 
melhor indivíduo do valor estabelecido de 
"StallGenLimit" é menor ou igual a tolerância 
estabelecida (TolFun)
1.00E-6
TolCon Tolerância para parada do algoritmo 1.00E-3
InitialPopulation População inicial []
InitialScores Valores iniciais usados para determinar a aptidão []
InitialPenalty Valor inicial do parâmetro de penalidade 10
PenaltyFactor Parâmetro de atualização de penalidade 100
PlotInterval
Número inteiro positivo que especifica o número 
de gerações entre chamadas consecutivas para as 
funções de plotagem.
1
CreationFcn
Especificação do tipo de função que cria a 
população inicial
@gacreationuniform
FitnessScalingFcn Função que escala os valores da função de aptidão @fitscalingrank
SelectionFcn
Função que seleciona pais de filhos formados por 
crossover e mutação
@selectionstochunif
CrossoverFcn
Função que o algoritmo usa para criar filhos de 
crossover
@crossoverscattered
MutationFcn
Função que o algoritmo usa para criar filhos de 
mutação
{[@mutationgaussian] [1] [1]}
DistanceMeasureFcn
Especificação da função que calcula a distância 
entre os indivíduos. O valor aplica-se à variável de 
decisão ou espaço de projeto (genótipo) ou ao 
espaço de função (fenótipo)
[]
HybridFcn
Utilizado em otimização com algoritmo híbrido, 
função de otimização a ser utilizada após 
conclusão da parte do GA
[]
Display Nível de exibição das informações da otimização 'final'
PlotFcns
Funções para criação de gráficos e informações 
neles apresentadas
[]
OutputFcns
Funções que são chamadas pelo AG em cada 
iteração
[]
Vectorized As informações são passadas por vetores off'
UseParallel
Função para calcular a aptidão e funções de 
restrição não-linear em paralelo
0 {false}
21 
 
5. EXEMPLOS NUMÉRICOS 
Nesta seção, os métodos de otimização em estudo são primeiramente aplicados a 
problemas Benchmark da literatura, e em seguida à otimização de treliças, no intuito de 
comparar a eficiência e robustez dos algoritmos. 
5.1 Problemas Benchmark 
Considera-se um conjunto de 5 problemas Benchmark disponíveis na literatura: Função 
Esfera (Sphere Function), Goldstein-Price, Himmelblau, Rosenbrock e Beale. Estes problemas 
proporcionam a avaliação do desempenho dos algoritmos uma vez que seus mínimos já são 
conhecidos (CUNHA et al. 2016). Salienta-se também, que a análise foi feita somente em funções 
analíticas uma vez que estas requerem pouco tempo de processamento computacional na 
execução dos algoritmos (CHASE et al.). 
O comportamento de uma função pode ser descrito por suas características. Neste trabalho, 
as funções são caracterizadas
de acordo com sua continuidade, diferenciabilidade, convexidade 
e número de pontos extremos. Uma função 𝑓 é: 
 Contínua no ponto 𝑎 de seu domínio quando lim
 𝑥→𝑎
𝑓(𝑥) = 𝑓(𝑎). Uma função é dita 
contínua quando for contínua em todos os pontos de seu domínio; 
 Diferenciável quando sua derivada existe em cada ponto de seu domínio; 
 Convexa se a reta que liga quaisquer dois pontos (𝑥; 𝑓(𝑥)) e (𝑦; 𝑓(𝑦)) está acima do 
gráfico da função no intervalo determinado pelos pontos, e abaixo do gráfico quando 
fora do intervalo; 
 Multimodal quando possui vários pontos de mínimo, ou máximo, e unimodal quando só 
possuir um. 
 
 
 
 
 
 
 
22 
 
5.1.1 Função Esfera 
A Função Esfera é contínua, convexa, diferenciável e unimodal. Sua definição matemática é 
dada por: 
 𝑓(𝑥) = ∑ 𝑥𝑖
2𝑛
𝑖=1 
Para a criação da superfície e curvas de nível foi utilizado um espaço bidimensional e o 
domínio foi restringido em −2 < 𝑥𝑖 < 2. Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto 
(𝑥1, 𝑥2) = (0,0). 
 
Figura 4 - Superfície bidimensional da Função Esfera. 
 
Figura 5 - Curvas de nível da Função Esfera. 
 
23 
 
5.1.2 Função Goldstein-Price 
A Função Goldstein-Price é contínua, não-convexa, bidimensional, diferenciável e 
multimodal. Sua definição matemática é dada por: 
𝑓(𝑥, 𝑦) = [1 + (𝑥 + 𝑦 + 1)2 (19 − 14𝑥 + 3𝑥2 − 14𝑦 + 6𝑥𝑦 + 3𝑦2] [30 + (2𝑥 − 3𝑦)2 (18 −
32𝑥 + 12𝑥2 + 48𝑦 − 36𝑥𝑦 + 27𝑦2)] 
Para a criação da superfície e curvas de nível o domínio foi restringido em −2 < 𝑥𝑖 < 2. 
Seu mínimo global tem valor 𝑓 = 3 e ocorre no ponto (𝑥, 𝑦) = (0, −1). 
 
Figura 6- Superfície da Função Goldstein-Price. 
 
Figura 7 - Curvas de nível da Função Goldstein-Price. 
24 
 
5.1.3 Função Himmelblau 
A Função Himmelblau é contínua, não-convexa, bidimensional e multimodal. Sua definição 
matemática é dada por: 
 𝑓(𝑥, 𝑦) = (𝑥2 + 𝑦 − 11)2 + (𝑥 + 𝑦2 − 7)2 
Para a criação da superfície e curvas de nível o domínio foi restringido em −5 < 𝑥𝑖 < 5. 
Seu mínimo global tem valor 𝑓 = 0 e ocorre nos pontos 
(𝑥, 𝑦) = (3, 2), (−2.805112, 3.131312), (−3.779310, −3,283186), (3.584428, −1.848126). 
 
Figura 8 - Superfície da Função Himmelblau. 
 
Figura 9 - Curvas de nível da Função Himmelblau. 
25 
 
5.1.4 Função Rosenbrock 
A Função Rosenbrock é contínua, não-convexa, diferenciável, e multimodal. Sua definição 
matemática é dada por: 
 𝑓(𝑥) = ∑ [100 (𝑥𝑖+1 − 𝑥𝑖
2)2 + (1 − 𝑥𝑖)
2]𝑛−1𝑖=1 
Para a criação da superfície e curvas de nível foi utilizado um espaço bidimensional e o 
domínio foi restringido em −3 < 𝑥𝑖 < 3. Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto 
(𝑥1, 𝑥2) = (1,1). 
 
Figura 10 - Superfície da Função Rosenbrock. 
 
Figura 11 - Curvas de Nível da Função Rosenbrock. 
https://en.wikipedia.org/wiki/Rosenbrock_function
https://en.wikipedia.org/wiki/Rosenbrock_function
26 
 
5.1.5 Função Beale 
A Função Beale é contínua, não-convexa, bidimensional e multimodal. Sua definição 
matemática é dada por: 
𝑓(𝑥, 𝑦) = (1.5 − 𝑥 + 𝑥𝑦)2 + (2.25 − 𝑥 + 𝑥𝑦2)2 + (2.625 − 𝑥 + 𝑥𝑦3)2 
Para a criação da superfície e curvas de nível o domínio foi restringido em −4.5 < 𝑥𝑖 < 4.5. 
Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto (𝑥, 𝑦) = (3, 0.5). 
 
Figura 12 - Superfície da Função Beale. 
 
Figura 13 - Curvas de nível da Função Beale. 
 
27 
 
5.1.6 Resultados 
Os resultados quanto aos problemas Benchmarks são mostrados nas Tabelas 2 e 3. 
 
Tabela 2 - Valores da média e desvio padrão dos valores mínimos de cada função. 
Verifica-se que o menor desvio padrão está, geralmente, associado à menor média, mas não 
há consenso quanto ao melhor ou pior método ao se considerar todos os casos em questão. 
Quanto à Função Esfera, apesar de todos os algoritmos terem convergido para a solução 
nota-se que os métodos baseados em gradiente se aproximaram muito mais do valor ótimo. 
Isso pode ser explicado pelo fato da função ser convexa e unimodal proporcionando uma rápida 
descida segundo os gradientes, em direção à solução. 
Na Função Goldstein-Price, observa-se que nenhum dos algoritmos conseguiu encontrar 
soluções próximas ao mínimo em todas as execuções. A fim de se entender melhor estes 
resultados, os Gráficos 1,2,3 e 4 ilustram os valores mínimos da função encontrados em cada 
execução dos algoritmos. Percebe-se que o valor de µfmin encontrado pelo método AG foi o mais 
próximo da verdadeira solução. Pelo gráfico vê-se que suas soluções são aproximadamente 
constantes enquanto os outros métodos possuem alguns picos muito altos. Isto acontece pelo 
fato da função em questão ser não-convexa, tendo diversas regiões onde os gradientes não 
apontam em direção ao ponto de mínimo. Quanto ao AG, muito provavelmente seria capaz de 
convergir para a solução ótima, desde que fossem consideradas mais iterações ou um maior 
número de indivíduos na população. 
Função
µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin
Função Esfera 2,1E-15 1,3E-14 8,3E-17 6,6E-17 3,0E-16 3,3E-16 2,9E-10 4,4E-10
Função Godstein-Price 4,0E+01 1,2E+02 4,5E+01 1,4E+02 4,8E+01 1,4E+02 3,5E+00 3,8E+00
Função Himmelblaus 4,8E-14 3,0E-14 5,7E-14 5,7E-14 9,5E-08 1,3E-07 1,1E-08 1,7E-08
Função Rosenbrock 2,1E-11 1,1E-12 1,8E-11 4,3E-12 1,0E-07 1,2E-07 4,8E-02 1,1E-01
Função Beale 7,1E-01 2,0E+00 4,3E-01 1,4E+00 2,8E-01 3,7E-01 4,1E-02 1,8E-01
Pontos Interiores PQS Restrições Ativas AG
28 
 
 
Gráfico 1 - Plotagem do valor mínimo encontrado em cada execução do Método dos Pontos Interiores. 
 
 
Gráfico 2 - Plotagem do valor mínimo encontrado em cada execução do Método PQS. 
 
 
Gráfico 3 - Plotagem do valor mínimo encontrado em cada execução do Método das Restrições Ativas. 
0,0E+00
2,0E+02
4,0E+02
6,0E+02
8,0E+02
1,0E+03
1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97
V
al
o
r 
ó
ti
m
o
 o
b
ti
d
o
Nº da execução
Método dos Pontos Interiores
0,0E+00
2,0E+02
4,0E+02
6,0E+02
8,0E+02
1,0E+03
1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97
V
al
o
r 
ó
ti
m
o
 o
b
ti
d
o
Nº da execução
Método PQS
0,0E+00
1,0E+02
2,0E+02
3,0E+02
4,0E+02
5,0E+02
6,0E+02
7,0E+02
8,0E+02
9,0E+02
1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97
V
al
o
r 
ó
ti
m
o
 o
b
ti
d
o
Nº da execução
Método das Restrições Ativas
29 
 
 
Gráfico 4 - Plotagem do valor mínimo encontrado em cada execução do Método AG. 
Na função Himmelblau como o mínimo global ocorre em 4 pontos, facilita-se a convergência 
dos métodos. Com relação aos resultados obtidos, destacam-se os métodos dos Pontos 
Interiores e PQS. 
Nota-se no caso da Função Beale que, quando comparada às outras funções (com exceção 
da Função Goldstein-Price), a média dos valores mínimos está menos próxima da solução ótima. 
Novamente trata-se de uma função não-convexa, onde os gradientes podem confundir os 
métodos determinísticos ao não apontarem na direção do ponto de mínimo, e onde o método 
AG provavelmente convergiria desde que um maior número de indivíduos e/ou de iterações 
fosse utilizado. 
 
Tabela 3 - Valores da média e desvio padrão do número de chamadas da função objetivo de cada função. 
Em todas as funções o método AG, conforme esperado, foi o que apresentou a maior média 
e maior desvio padrão, enquanto o método de Restrições Ativas foi o que apresentou menor 
média e, majoritariamente, menor desvio padrão. 
Para as funções Goldstein-Price e Himmelblau, os resultados da Tabela 2 indicam que o 
método de Restrições Ativas obteve o pior resultado quanto à convergência para a solução 
ótima, entretanto, conforme a Tabela 3, foi o método que chamou menos vezes a função 
objetivo. Isso implica que este método tende a convergir rapidamente, porém é também o mais 
susceptível a ficar preso
em mínimos locais. 
0,0E+00
1,0E+02
2,0E+02
3,0E+02
4,0E+02
5,0E+02
6,0E+02
7,0E+02
8,0E+02
9,0E+02
1 4 7
1
0
1
3
1
6
1
9
2
2
2
5
2
8
3
1
3
4
3
7
4
0
4
3
4
6
4
9
5
2
5
5
5
8
6
1
6
4
6
7
7
0
7
3
7
6
7
9
8
2
8
5
8
8
9
1
9
4
9
7
1
0
0
V
al
o
r 
ó
ti
m
o
 o
b
ti
d
o
Nº da execução
Método AG
Função
µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL
Função Esfera 2,8E+01 8,9E+00 1,0E+01 0,0E+00 7,1E+00 3,4E-01 3,4E+03 2,1E+02
Função Godstein-Price 8,1E+01 1,9E+01 6,2E+01 1,1E+01 4,9E+01 1,3E+01 4,0E+03 2,9E+02
Função Himmelblaus 4,4E+01 7,1E+00 4,4E+01 5,4E+00 3,4E+01 6,1E+00 3,8E+03 2,8E+02
Função Rosenbrock 1,1E+02 3,2E+01 1,2E+02 3,6E+01 8,9E+01 3,0E+01 9,4E+03 1,8E+03
Função Beale 8,9E+01 3,4E+01 7,7E+01 2,3E+01 6,0E+01 1,8E+01 6,3E+03 2,7E+03
Pontos Interiores PQS Restrições Ativas AG
30 
 
Analogamente, nas funções Goldstein-Price e Beale o método AG obteve mínimo mais 
próximo da solução, porém foi o método com maior número de chamadas da função objetivo. 
 Em resumo, o método das Restrições Ativas foi o que se apresentou mais rápido, em 
termos de velocidade de convergência, mas não o mais preciso. Este método pode ser indicado 
para os casos em que as funções objetivo sejam convexas e bem comportadas, e não haja 
necessidade de um alto grau de refinamento da solução obtida. O método PQS foi o que mostrou 
maior precisão nos casos convexos, porém requerendo mais avaliações da função objetivo que 
o método das Restrições Ativas. Finalmente, para os casos não convexos, é necessário recorrer 
a métodos de busca global, tais como o AG, mesmo que a função objetivo apresente apenas um 
mínimo global na região de interesse. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
31 
 
5.2 Treliças planas 
Neste trabalho, dois exemplos da literatura são estudados: treliça plana de duas barras, com 
carregamento que varia de direção em cada caso, e treliça plana de cinco barras, em situações 
com diferentes tipos de apoio. Na análise aqui feita, busca-se otimizar a estrutura minimizando 
o volume de seus elementos e considerando restrições em cada barra quanto ao escoamento e 
flambagem (JULIANI et al. 2019). 
Quando a barra está sob tensão de tração, 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 > 0, deve-se respeitar a condição de 
escoamento: 
𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 ≤ 𝜎𝑦 
Onde 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 é a tensão atuante na barra e 𝜎𝑦 é a tensão de escoamento do material. 
Quando sob compressão, 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 ≤ 0, é necessário impedir, além do escoamento, que a 
flambagem ocorra: 
|𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒| ≤ 𝜎𝑦 
E 
|𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒| ≤ 𝜎𝑐𝑟𝑖 
𝜎𝑐𝑟𝑖 = 
𝜋2𝐸𝐼
𝐴𝐿𝑓
2 
Onde: 
𝜎𝑐𝑟𝑖 = tensão crítica de flambagem de Euler; 
𝐸 = módulo de elasticidade do material; 
𝐼 = momento de inércia da barra; 
𝐴 = área da barra; 
𝐿𝑓
2 = comprimento de flambagem. Em barras biapoiadas, como ocorre em treliças, 𝐿𝑓
2 é o próprio 
comprimento da barra. 
 
 
 
32 
 
5.2.1 Treliça plana de duas barras 
A treliça, ilustrada na Figura 14, é composta por duas barras circulares vazadas e possui base 
fixa. Assim, o vetor de variáveis de projeto é dado por 𝒙 = (𝐻, 𝑑1, 𝑡1, 𝑑2, 𝑡2) sendo 𝐻 a altura 
da treliça, 𝑑1, 𝑡1, respectivamente, diâmetro médio e espessura da barra 1, 𝑑2, 𝑡2, diâmetro 
médio e espessura da barra 2. 
 
Figura 14 - Treliça plana de duas barras. Imagem obtida de JULIANI et al. 2019. 
A Tabela 4 mostra os valores utilizados na resolução do problema. 
 
Tabela 4 - Valores de dados utilizados para treliça de 2 barras. Tabela adaptada de JULIANI et al. 2019. 
Foram considerados 9 casos distintos, com diferentes direções da carga aplicada, 
conforme mostrado na Figura 15. 
 
Figura 15 - Direções assumidas para a carga aplicada na treliça de 2 barras. Imagem obtida de JULIANI et al. 2019. 
Dado Valor
Base 2B 6 m
Carregamento P 674 kN
Módulo de elasticidade E 30 Gpa
Tensão de escoamento 105 Mpa
33 
 
Além das restrições anteriormente discutidas, acrescentou-se a limitação 10 ≥ 
𝑑
𝑡
 ≥ 2 de 
forma que o diâmetro seja pelo menos o dobro da espessura mas não excessivamente maior, 
ou seja, a espessura não deve ser muito pequena, para que se evite instabilidade local das 
paredes da barra. 
 
5.2.1.1 Resultados 
Os resultados quanto ao problema de treliça plana de duas barras, com diferentes direções 
assumidas para a carga aplicada, são mostrados nas Tabelas 5 e 6. 
 
Tabela 5 - Valores da média e desvio padrão dos valores mínimos encontrados para cada ângulo de carregamento. 
A média da solução ótima encontrada pelos métodos de Pontos Interiores, PQS e Restrições 
ativas é praticamente igual, entretanto o PQS possui desvio padrão consideravelmente menor. 
Já o AG foi o que apresentou piores resultados independente da direção do carregamento. 
Observa-se também que a função objetivo diminui com o aumento do ângulo de 
carregamento até que este atinja 90º, e depois começa a aumentar. 
 
Tabela 6 - Valores da média e desvio padrão do número de chamada da função objetivo encontrados para cada 
ângulo de carregamento. 
Ângulo
µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin
θ = 0 5,7E-02 3,1E-07 5,7E-02 5,3E-11 5,7E-02 5,1E-08 6,2E-02 4,0E-03
θ = 30 5,2E-02 3,5E-07 5,2E-02 2,3E-09 5,2E-02 1,7E-07 5,8E-02 4,3E-03
θ = 45 4,6E-02 2,9E-06 4,6E-02 7,7E-10 4,6E-02 7,4E-07 5,0E-02 3,1E-03
θ = 60 3,8E-02 2,6E-06 3,8E-02 3,7E-11 3,8E-02 2,5E-09 4,0E-02 2,2E-03
θ = 90 3,2E-02 1,5E-06 3,2E-02 2,7E-12 3,2E-02 2,3E-09 3,5E-02 2,5E-03
θ = 120 3,3E-02 1,6E-06 3,3E-02 2,3E-09 3,3E-02 4,4E-07 3,4E-02 5,8E-04
θ = 135 3,6E-02 1,1E-06 3,6E-02 8,9E-10 3,6E-02 7,4E-07 3,7E-02 8,5E-04
θ = 150 3,6E-02 7,8E-07 3,6E-02 7,1E-12 3,6E-02 6,3E-08 3,8E-02 1,5E-03
θ = 190 4,2E-02 7,0E-07 4,2E-02 1,2E-10 4,2E-02 6,0E-09 4,3E-02 1,1E-03
Pontos Interiores PQS Restrições Ativas AG
Ângulo
µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL
θ = 0 1,5E+02 1,6E+01 6,2E+01 5,0E+00 5,1E+01 5,2E+00 1,6E+04 7,5E+03
θ = 30 1,5E+02 1,5E+01 6,8E+01 6,3E+00 5,4E+01 6,6E+00 1,2E+04 4,9E+03
θ = 45 1,5E+02 2,0E+01 7,2E+01 1,0E+01 5,4E+01 8,0E+00 1,2E+04 4,5E+03
θ = 60 1,8E+02 3,0E+01 5,0E+01 6,9E+00 4,4E+01 6,6E+00 1,2E+04 5,9E+03
θ = 90 1,6E+02 2,4E+01 5,3E+01 1,5E+01 4,3E+01 6,6E+00 9,6E+03 1,8E+03
θ = 120 2,1E+02 2,8E+01 6,8E+01 1,5E+01 5,0E+01 1,1E+01 8,1E+03 1,1E+03
θ = 135 1,7E+02 2,4E+01 6,8E+01 2,2E+01 4,8E+01 1,1E+01 8,5E+03 1,2E+03
θ = 150 2,0E+02 1,9E+01 5,0E+01 7,8E+00 4,3E+01 5,8E+00 9,1E+03 1,1E+03
θ = 190 1,7E+02 3,1E+01 5,7E+01 5,2E+01 4,5E+01 7,8E+00 8,8E+03 6,4E+02
Pontos Interiores PQS Restrições Ativas AG
34 
 
Note que o resultado mostrado na Tabela 6 é muito semelhante ao obtido pelos problemas 
Benchmark. Em todas as funções o AG foi o que apresentou a maior média e desvio padrão 
quanto ao número de chamadas, enquanto o método de Restrições Ativas foi o que apresentou 
menor média e, majoritariamente, menor desvio padrão. 
Comparando as Tabelas 5 e 6, percebe-se que o pior método para a resolução da treliça 
plana de duas barras foi o Algoritmo Genético, e o melhor, a Programação Sequencial Quadrática 
quanto à precisão, ou o método das Restrições ativas, se for priorizado o número de chamadas 
da função objetivo. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
35 
 
5.2.2 Treliça plana de cinco barras 
A treliça, ilustrada na Figura 16, é composta por cinco barras circulares de seção cheia, 
possui base e altura fixa. Assim, o vetor de variáveis de projeto é dado por 𝒙 =
(𝐴1, 𝐴2, 𝐴3, 𝐴4,, 𝐴5) sendo 𝐴1, 𝐴2, 𝐴3, 𝐴4,, 𝐴5, respectivamente, as áreas das barras 1, 2, 3, 4 e 5. 
Na primeira situação, a treliça possui um apoio de 1º gênero e outro de 2º gênero. 
 
Figura 16 - Treliça plana de cinco barras. Imagem obtida de JULIANI et al. 2019. 
A Tabela 7 mostra os valores utilizados na resolução do problema. 
 
Tabela 7 - Valores de dados utilizados para treliça de 5 barras. Tabela adaptada de JULIANI
et al. 2019. 
O problema foi resolvido também substituindo o apoio do nó 4 por um apoio de 2º 
gênero, conforme ilustrado na Figura 17. 
Dado Valor
Carregamento P 15 kN
Carregamento F 20 kN
Módulo de elasticidade E 68.95 GPa
Tensão de escoamento 172 GPa
36 
 
 
Figura 17 - Treliça plana de cinco barras com apoio modificado. Imagem obtida de JULIANI et al. 2019. 
Para esse problema, optou-se não usar o método Algoritmo Genético devido ao alto custo 
computacional por ele requerido. 
 
5.2.2.1 Resultados 
Os resultados quanto ao problema de treliça plana de cinco barras, com diferentes 
situações de apoio, são mostrados nas Tabelas 8 e 9. 
 
Tabela 8 - Valores da média e desvio padrão dos valores mínimos encontrados nas diferentes situações de apoio. 
Em ambas as situações, todos os algoritmos convergiram para a mesma média de 
solução ótima sendo que o Método das Restrições Ativas mostrou desvio padrão bem menor 
que os demais. 
 
Tabela 9 - Valores da média e desvio padrão do número de chamadas da função objetivo encontrados nas diferentes 
situações de apoio. 
Situação
µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin
1 1,9E-02 2,1E-05 1,9E-02 5,1E-05 1,9E-02 1,8E-10
2 2,0E-02 6,2E-06 2,0E-02 7,7E-04 2,0E-02 9,6E-11
Pontos Interiores PQS Restrições Ativas
Situação
µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL
1 1,9E+02 9,0E+01 5,8E+01 1,0E+01 6,0E+01 9,7E+00
2 2,1E+02 5,6E+01 1,3E+02 1,1E+02 7,6E+01 1,3E+01
Pontos Interiores PQS Restrições Ativas
37 
 
Na situação 1, o Método PQS apresenta a menor média do número de chamadas da função 
objetivo, porém, ela é muito parecida com a do Método de Restrições Ativas sendo que este 
tem a vantagem de possuir menor desvio padrão. Na situação 2, o Método de Restrições Ativas 
obteve melhores resultados. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
38 
 
5.2.3 Treliça plana de cinco barras com apoio intermediário 
É proposta uma terceira situação onde o apoio do nó quatro, da treliça anteriormente 
apresentada e ilustrada na Figura 16, possui rigidez variável. Dessa forma, é simulado um apoio 
intermediário que representa situações variando entre os apoios de primeiro e segundo gênero. 
Foram utilizados nove diferentes valores de rigidez K, sendo o menor deles (K = 10 N/m) 
praticamente equivalente a um apoio de primeiro gênero e o maior (K = 1E12 N/m) 
correspondente ao apoio de segundo gênero. 
No programa computacional MASTAN2, não é permitido acrescentar de forma direta uma 
mola, assim, para a resolução desse problema, foi acrescentado um nó 5 com apoio de segundo 
gênero que permite a inserção de uma nova barra (do nó 4 ao nó 5) como mostrado na Figura 
18. A barra 6 possui área e comprimento fixos e sua rigidez 𝐾 = 
𝐸𝐴
𝐿
 varia alterando-se seu 
módulo de elasticidade. Este modelo foi validado ao conferir-se os valores dos esforços 
internos, por ele apresentados, com os calculados a partir do software Ftool onde utilizou-se 
molas conforme ilustrado na Figura 19. 
 
Figura 18 - Treliça plana de cinco barras com apoio intermediário. 
 
39 
 
 
Figura 19 - Treliça plana de cinco barras com apoio intermediário, modelada no software Ftool. 
 
5.2.3.1 Resultados 
Os resultados quanto ao problema de treliça plana de cinco barras, com diferentes valores 
de rigidez para um dos apoios, são mostrados nas Tabelas 10 e 11. 
 
Tabela 10 - Valores da média e desvio padrão dos valores mínimos encontrados nas diferentes valores de rigidez. 
De maneira geral, os métodos de Pontos Interiores e Restrições Ativas apresentaram 
valores bem parecidos de média, entretanto o método de Restrições Ativas obteve vantagem 
ao possuir menor desvio padrão. Já o método PQS revelou, visivelmente, pior desempenho com 
maiores mínimos da função e desvio padrão. 
Rigidez K
µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin
1,0E+01 0,0191 7,6E-06 0,0191 3,0E-10 0,0191 3,4E-10
1,0E+04 0,0199 9,8E-06 0,0199 1,1E-04 0,0199 4,3E-06
1,0E+05 0,0217 4,9E-06 0,0219 4,4E-04 0,0217 7,6E-07
1,0E+06 0,0225 1,1E-04 0,0233 1,4E-03 0,0224 2,4E-08
1,0E+07 0,0205 8,1E-04 0,0207 1,4E-03 0,0204 1,8E-07
1,0E+08 0,0202 1,5E-05 0,0202 4,9E-04 0,0202 8,3E-08
1,0E+09 0,0201 1,8E-05 0,0203 7,9E-04 0,0201 2,5E-10
1,0E+10 0,0201 1,5E-05 0,0202 5,0E-04 0,0201 8,7E-11
1,0E+12 0,0201 1,5E-05 0,0203 7,2E-04 0,0202 4,5E-04
Pontos Interiores PQS Restrições Ativas
40 
 
 
Tabela 11 - Valores da média e desvio padrão do número de chamadas da função objetivo encontrados para os 
diferentes valores de rigidez. 
O método de Restrições Ativas se destacou por ter menores valores de média e desvio 
padrão do número de chamadas da função objetivo. O método de Pontos Interiores foi o que 
chamou mais vezes a função objetivo enquanto que o método PQS possui maior desvio padrão. 
O Gráfico 5 foi elaborado com os valores das médias, obtidas executando-se 100 vezes 
o algoritmo de Pontos Interiores, da solução ótima encontrada para cada diferente valor de 
rigidez. Os métodos de PQS e Restrições Ativas possuem resultados similares aos aqui 
apresentados. 
 
Gráfico 5 - Relação entre volume ótimo e rigidez do apoio. 
Conforme a rigidez aumenta (o apoio aproxima-se de um do segundo gênero) o volume 
da treliça também aumenta até atingir seu valor máximo em K = 1E6 N/m. Após esse pico, o 
volume diminui e se estabiliza em, aproximadamente, 1E9 N/m com valor pouco menor que a 
média dos valores máximo e mínimo anteriores. 
Rigidez K
µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL
1,0E+01 1,8E+02 6,6E+01 5,8E+01 1,1E+01 6,1E+01 9,6E+00
1,0E+04 2,1E+02 6,1E+01 7,0E+01 2,2E+01 7,2E+01 1,6E+01
1,0E+05 2,2E+02 5,7E+01 1,2E+02 1,1E+02 9,0E+01 2,0E+01
1,0E+06 2,6E+02 7,0E+01 1,8E+02 1,8E+02 7,5E+01 2,0E+01
1,0E+07 2,6E+02 6,5E+01 1,1E+02 1,2E+02 5,7E+01 1,5E+01
1,0E+08 2,1E+02 5,4E+01 1,2E+02 1,0E+02 7,5E+01 1,2E+01
1,0E+09 2,1E+02 4,6E+01 1,2E+02 1,1E+02 7,5E+01 1,0E+01
1,0E+10 2,0E+02 5,0E+01 1,0E+02 8,1E+01 7,7E+01 1,3E+01
1,0E+12 2,0E+02 5,0E+01 1,2E+02 1,1E+02 7,5E+01 1,4E+01
Pontos Interiores PQS Restrições Ativas
0,0185
0,0190
0,0195
0,0200
0,0205
0,0210
0,0215
0,0220
0,0225
0,0230
1,E+01 1,E+04 1,E+05 1,E+06 1,E+07 1,E+08 1,E+09 1,E+10 1,E+12
V
o
lu
m
e 
ó
ti
m
o
 (
m
3
)
Rigidez K (N/m)
Volume X Rigidez
Interior Point
41 
 
6. CONCLUSÃO 
Nesta pesquisa, analisou-se a performance dos algoritmos Pontos Interiores, Programação 
Quadrática Sequencial, Restrições Ativas e Algoritmo Genético na resolução de problemas 
Benchmark clássicos da literatura. Ressalta-se o antagonismo entre os métodos que mais se 
aproxima da solução ótima e o que possui menor número de chamadas da função objetivo. O 
método das Restrições Ativas foi o que se apresentou mais rápido, em termos de velocidade de 
convergência. Entretanto, os métodos mais precisos foram o PQS, em casos convexos, e o AG 
nos demais casos. Este último, ainda que apresente melhor convergência, é o método com 
maior custo computacional o que pode impossibilitar o seu uso em alguns casos. Um exemplo 
dessa inutilização foi a resolução do volume ótimo em treliças planas. 
Com exceção do Algoritmo Genético, os demais métodos também foram testados em 
treliça plana com duas e cinco barras e em diferentes situações de apoio. Na resolução do 
problema mais complexo (treliça de cinco barras com apoio de rigidez variável) o método dos 
Pontos Interiores foi o que mais demandou tempo para convergir e o método PQS o menos 
preciso. Nos demais casos, o método das Restrições Ativas mostrou-se, mais uma vez, ser o mais 
rápido e, de maneira geral, todos os algoritmos revelaram-se igualmente precisos. 
Nota-se que não há consenso quanto ao melhor ou pior método revelando a importância 
de manter pesquisas referentes à aplicabilidade dos diferentes algoritmos de otimização. Nesse 
contexto, o Programa de Iniciação Científica apresenta-se como uma oportunidade vantajosa 
quanto à aprendizagem do aluno ao acrescentar
conhecimento e experiência à sua formação 
acadêmica. 
 
 
 
 
 
 
 
 
 
42 
 
7. REFERÊNCIAS 
Chase, N.; Rademacher, M.; Goodman, E. A Benchmark Study of Optimization Search 
Algorithms. 
Fressato, A. A. Métodos de Pontos Interiores - Algoritmo para resolução de programação não 
linear. 2015. 
Oliveira, A. R. L.; Filho, C. L.. Implementação de um método de pontos interiores para 
programação linear. 
Ye, Y. Interior point algorithms theory and analysis. 1997 
Boggs, P. T; Tolle, J. W. Sequential Quadratic Programming. 1995 
Nunes. F. T. Programação quadrática sequencial e condições de qualificação. 2009 
Gentil, J. M. P. Estudo e implementação de um método de restrições ativas para problemas de 
otimização em caixas. 2010 
Ferreau, H. J.; Kirches, C.; Potschka, A.; Bock, H. G.; Diehl, M. qpOASES: a parametric active-set 
algorithm for quadratic programming. 2014 
Chen, P.; Chang, H. LARGE-SCALE ECONOMIC DISPATCH BY GENETIC ALGORITHM. 1995 
Cunha, V. H.; Campos, E. S.; Guimarães, L. C.; Dantas, M. P, J. ALGORITMO GENÉTICO DE 
CODIFICAÇÃO REAL APLICADO À OTIMIZAÇÃO DE FUNÇÕES DE BENCHMARK. 2016 
Nocedal, J.; Wright, S. J. NUMERICAL OPTIMIZATION. 2006 
Arora, J. S. INTRODUCTION TO OPTIMUM DESIGN. 2011 
Carvalho, E. C. R. Solução de problemas de otimização com restrições usando estratégias de 
penalização adaptativa e um algoritmo do tipo pso. 2014 
Silva, E. C. N. PMR 5215 – otimização aplicada ao projeto de sistemas mecânicos. 
Ozimboski, J. M,; Guarnieri, G. B.; Medeiros, G. F.; Kripka, M. Otimização dimensional, 
geométrica e topológica de treliças: validação experimental por meio de estruturas de palitos 
de picolé. 2019 
Kalid, R. Otimização de processos químicos: problemas sem restrições. 
Medeiros, G. F.; Kripka M. Algumas aplicações de métodos heurísticos na otimização de 
estruturas. 2012 
Martínez, L. C.C. otimização dos circuitos de refrigerante nos trocadores de calor de sistemas 
de refrigeração por compressão de vapor. 2009 
Jehihara, J. A. Um método de solução heurístico para a programação de edifícios dotados de 
múltiplos pavimentos-tipo. 1998 
Oliveira, R. C. L. F. IA881 – otimização linear. Aula métodos de pontos interiores em 
programação linear. 2019 
Dutra, A. S. Método de pontos interiores aplicado a um problema de sequenciamento job-shop. 
2004 
43 
 
Andretta, M. Aula método de restrições ativas icmc-usp. 2010 
Pozo, A.; Cavalheiro, A. F.; Ishida, C.; Spinosa, E.; Rodriguez, E. M. COMPUTAÇÃO EVOLUTIVA. 
Juliani, M. A.; Milanez, M. O.; Gomes, W. J .S. Structural optimization of trusses under elastic 
and inelastic buckling constraints. 2019 
Soterroni, A. C. O METODO DO Q-GRADIENTE PARA OTIMIZAÇÃO GLOBAL. 2012. 
Ramírez, J. A; Campelo, F; Guimaráes, F. G; Batista, L. S; Takahashi, R. H. C. Aula métodos 
numéricos para otimização irrestrita. 
Coêlho, G. A. G. OTIMIZAÇÃO DE PÓRTICOS PLANOS DE CONCRETO ARMADO UTILIZANDO 
AJUSTE DE PARÂMETROS E OPERADORES DO ALGORITMO GÉNETICO. 2017

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais