Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
UNIVERSIDADE FEDERAL DE SANTA CATARINA PROJETO DE INICIAÇÃO CIENTÍFICA – PIBIC/CNPq ANDRESSA AIRES DA FRAGA CUNHA Efeito das restrições na otimização de estruturas: EFICIÊNCIA E ROBUSTEZ DE DIFERENTES TIPOS DE ALGORITMOS DE OTIMIZAÇÃO FLORIANÓPOLIS 2020 ANDRESSA AIRES DA FRAGA CUNHA Efeito das restrições na otimização de estruturas: EFICIÊNCIA E ROBUSTEZ DE DIFERENTES TIPOS DE ALGORITMOS DE OTIMIZAÇÃO Trabalho de Iniciação Científica do curso de graduação de engenharia civil da Universidade Federal de Santa Cataria Orientador: Dr. Wellison Gomes FLORIANÓPOLIS 2020 SUMÁRIO 1. INTRODUÇÃO .................................................................................................................. 4 2. OBJETIVO ........................................................................................................................ 5 3. OTIMIZAÇÃO ................................................................................................................... 6 3.1 Visão geral .................................................................................................................. 6 3.2 Classificação dos problemas de otimização ............................................................. 8 3.3 Métodos utilizados ................................................................................................. 12 3.3.1 Pontos Interiores (Interior-Point) ........................................................... 12 3.3.2 Programação Sequencial Quadrática (PSQ ou SQP – Sequential Quadratic Programming) .................................................................................. 14 3.3.3 Restrições Ativas (Active-Set) ................................................................. 15 3.3.4 Algoritmo Genético (AG ou GA – Genetic Algorithm) ........................... 16 4. METODOLOGIA DE APLICAÇÃO DOS MÉTODOS DE OTIMIZAÇÃO SELECIONADOS ... 19 5. EXEMPLOS NUMÉRICOS ............................................................................................... 21 5.1 Problemas Benchmark ............................................................................................ 21 5.1.1 Função Esfera .......................................................................................... 22 5.1.2 Função Goldstein-Price ........................................................................... 23 5.1.3 Função Himmelblau ................................................................................ 24 5.1.4 Função Rosenbrock .................................................................................. 25 5.1.5 Função Beale ........................................................................................... 26 5.1.6 Resultados ................................................................................................ 27 5.2 Treliças planas ......................................................................................................... 31 5.2.1 Treliça plana de duas barras ................................................................... 32 5.2.1.1 Resultados ............................................................................... 33 5.2.2 Treliça plana de cinco barras .................................................................. 35 5.2.2.1 Resultados ............................................................................... 36 5.2.3 Treliça plana de cinco barras com apoio intermediário ........................ 38 5.2.3.1 Resultados ............................................................................... 39 6. CONCLUSÃO .................................................................................................................. 41 7. REFERÊNCIAS ................................................................................................................. 42 https://en.wikipedia.org/wiki/Rosenbrock_function 4 1. INTRODUÇÃO Vem-se discutindo cada vez mais na engenharia de estruturas a utilização de métodos de otimização a fim de se obter estruturas mais econômicas e eficientes. Tais métodos permitem buscar, por meio de algoritmos computacionais, as configurações estruturais que maximizam ou minimizam uma ou mais funções pré-determinadas, que dependem dos parâmetros da estrutura e estabelecem os objetivos da otimização. Por exemplo, pode-se buscar a configuração de uma estrutura treliçada que faça com que a mesma suporte as cargas às quais está submetida e que apresente o mínimo volume de material possível. No entanto, vários desafios são encontrados para essa prática. Um dos desafios encontrados diz respeito à escolha de qual método utilizar. Cada problema, a partir de suas especificidades, seria melhor explorado por certo método. Entretanto, como o problema dificilmente é inteiramente conhecido a priori, ou seja, não se sabe como o problema se comporta ao longo das infinitas configurações possíveis, o melhor que pode ser feito a este respeito geralmente consiste em empregar métodos robustos o suficiente e que já tenham sido aplicados com sucesso a problemas semelhantes. Outro desafio é quanto aos pontos de mínimo global e local. Um ponto de mínimo local é aquele que corresponde ao menor valor da função dentre as demais soluções da vizinhança, enquanto que, no mínimo global a comparação é feita com todas as soluções viáveis (NOCEDAL e WRIGHT, 2006). Em problemas de caráter real/prático, dificilmente se sabe se a solução ótima encontrada é um ponto de mínimo global ou mínimo local e, neste último caso, não seria então a verdadeira solução ótima. Assim, muitas vezes os engenheiros acabam desperdiçando tempo ao resolver, por tentativa e erro, várias vezes o mesmo problema com diversos algoritmos na busca de encontrar aquele que conduza à solução ótima e que seja satisfatório computacionalmente (CHASE et al.). No intuito de contribuir para o avanço quanto a essas dificuldades, no presente trabalho realizam-se diversos estudos sobre a escolha de algoritmos e alguns desenvolvimentos relacionados à proposição de algoritmos mais robustos. 5 2. OBJETIVO Algoritmos de otimização são usualmente avaliados e reconhecidos por dois diferentes critérios: eficiência e robustez. A eficiência de um algoritmo é frequentemente quantificada em termos do número de chamadas da função objetivo necessárias à convergência para o ótimo, pois cada chamada demanda certo tempo de CPU para ser executada podendo levar a tempos computacionais inviáveis. A robustez de um algoritmo está relacionada à sua capacidade de convergir para o mínimo global independente do ponto inicial escolhido ou do tipo de problema que se está trabalhando, refletindo a confiança atribuída aos resultados do método (CHASE et al.). Neste estudo, avalia-se e compara-se a eficiência e robustez de diferentes tipos de algoritmos de otimização em problemas Benchmark analíticos de otimização, bem como em problemas de otimização estrutural com restrições. O objetivo principal desta pesquisa consiste então em identificar, dentre os algoritmos aqui investigados, quais se apresentam mais robustos e eficientes frente aos problemas escolhidos. 6 3. OTIMIZAÇÃO 3.1 Visão geral O processo de otimizar busca o melhor arranjo de valores para as incógnitas de uma função de forma a atingir o valor extremo (máximo ou mínimo) da mesma. Em outras palavras, torna um sistema o mais apropriado possível (MARTÍNEZ, 2009). Um problema de otimização pode ser, matematicamente, apresentado como (CARVALHO, 2014): Encontrar �̅�𝑜𝑡𝑚 = (𝑥1, 𝑥2, … , 𝑥𝑛) tal que 𝑓(�̅�) = 𝑓𝑜𝑡𝑚 (1.1) respeitando: 𝑥𝑖 𝐿 ≤ 𝑥𝑖 ≤ 𝑥𝑖 𝑈 𝑖 = 1,2, … , 𝑛 (1.2) 𝑔𝑗(�̅�) ≤ 0 𝑗 = 1,2, … , 𝑛𝑔 (1.3) ℎ𝑘(�̅�) = 0 𝑘 = 1,2, … , 𝑛ℎ (1.4) Onde: 𝑓(�̅�) é a função objetivo, isto é, a função que descreve o comportamento do problema analisado e que se deseja maximizar ou minimizar. Possui tantas dimensões quanto o número de variáveis. �̅� é o ponto ou vetor das n variáveis do problema que se alteram no decorrer do processo de otimização. Os valores devem estar acima do limite mínimo 𝑥𝑖 𝐿 e abaixo do limite máximo 𝑥𝑖 𝑈. �̅�𝑜𝑡𝑚 é o ponto de solução ótima encontrado que detém os valores das variáveis de forma a minimizar, ou maximizar, a função respeitando as condições dadas. 𝑓𝑜𝑡𝑚 é o valor mínimo, ou máximo, da função (encontrado em �̅�𝑜𝑡𝑚). 𝑔𝑗(�̅�) são as 𝑛𝑔 restrições de inequações e ℎ𝑘(�̅�) são as 𝑛ℎ restrições de equações impostas. As restrições retratam matematicamente situações que são (ou não) desejáveis. Também delimitam o espaço de busca, que compreende as possíveis soluções para as variáveis do problema como mostrado na Figura 1. 7 Figura 1 - Espaço de busca delimitado pelas restrições. Imagem obtida de CARVALHO, 2014. É necessário tomar cuidado ao formular um problema de otimização, pois a solução encontrada só poderá ser tão boa quanto a formulação empregada. Para a elaboração de um projeto estrutural ótimo deve-se, primeiramente, ter claro o objetivo do respectivo problema de otimização, bem como os requisitos que devem ser atendidos. A seguir, coleta-se dados e informações para o desenvolvimento da formulação matemática e, posteriormente, define-se quais são as variáveis. Cria-se, então, a expressão da função objetivo identificando ainda todas as restrições. As variáveis devem ser independentes ou, quando relacionadas, terem sua relação explicitada na forma de restrição (ARORA, 2011). Depois de escolhido o método a ser utilizado, o processo de solução da otimização é usualmente um processo iterativo, que parte do fornecimento de valores estimados para as variáveis, que funcionam como dados de entrada, e termina quando o critério de convergência é atingido, retornando a solução e valor ótimo. O Esquema 1 mostra, resumidamente, o processo de otimização. Como critérios de parada pode-se citar, por exemplo, número máximo de iterações ou de avaliações da função objetivo (SOTERRONI, 2012), tempo máximo de execução, estabilização do valor da função-objetivo ou do vetor de variáveis de otimização, anulação do vetor gradiente (RAMÍREZ et al.) entre outros. 8 Esquema 1 - Processo de otimização. 3.2 Classificação dos problemas de otimização De acordo com as escolhas tomadas na formulação e execução do problema de otimização, diferentes classificações podem ser feitas, exibindo as características que moldam o projeto e facilitando a compreensão do mesmo (CARVALHO, 2014). Elas podem ser: De acordo com o número de funções objetivo Mono-objetivo: possui apenas uma única função objetivo. Multiobjetivo: possui duas ou mais funções objetivo a serem solucionadas simultaneamente. Geralmente possui mais de uma solução (ARORA, 2011). 9 A presente pesquisa aborda apenas problemas com uma única função objetivo. De acordo com a presença de restrições Sem restrições: a função objetivo é não restringida. No caso de problemas sem restrições, é comum se apresentar uma classificação dos métodos de otimização com relação à estratégia empregada pelo método para encontrar a solução ótima (KALID): Método direto: utiliza a derivada da função, a cada iteração, no cálculo do ponto ótimo. Geralmente possui menor número de iterações porém requerem mais tempo. Método indireto: não utiliza a derivada da função no cálculo do ponto ótimo. Possui maior número, mas que demandam menor tempo, de iterações. Com restrições: a função objetivo é restringida por expressões de igualdade e/ou desigualdade. Neste caso, surge outra classificação dos métodos de acordo com a estratégia empregada pelo método na verificação das restrições (SILVA): Método direto: verifica as restrições durante a execução do método. Método indireto: modifica a função objetivo de forma que ela não possua mais restrições. No presente trabalho são resolvidos problemas com e sem restrições, empregando métodos diretos e indiretos segundo as duas classificações. De acordo com o número de variáveis Unidimensional: possui apenas uma única incógnita. Multidimensional: possui duas ou mais incógnitas. De acordo com o tipo de variáveis Variável discreta: a incógnita só pode assumir valores especificados. Variável contínua: a incógnita pode assumir qualquer valor dentro de um intervalo de variação. De acordo com o grau das variáveis Linear: todas as variáveis são de primeiro grau, tanto na função objetivo quanto nas restrições. Não-linear: ocorre quando pelo menos uma variável, seja na função objetivo ou em alguma restrição, possui grau superior ou igual a 2. 10 A presente pesquisa aborda problemas lineares e não-lineares, com variáveis contínuas. De acordo com o parâmetro representado pela variável de projeto Otimização dimensional: a variável é um parâmetro de dimensão do elemento estrutural, não altera a geometria do sistema. Otimização de forma: a variável refere-se à geometria do elemento estrutural, são alterados os contornos internos e externos mas não se modifica as dimensões do sistema. Otimização topológica: a variável cria espaços no elemento estrutural (SILVA) buscando melhor distribuir o material dentro do domínio do projeto (OZIMBOSK et al. 2019). De acordo com a técnica do método de otimização Determinístico: também chamado de método clássico, utiliza o cálculo de derivadas de primeira ou segunda ordem, portanto é necessário que a função seja contínua e diferenciável no espaço de busca. Além disso, um mesmo ponto inicial levará sempre a mesma solução o que pode facilitar a estagnação em mínimos locais (MEDEIROS e KRIPKA, 2012). Nesta categoria, para problemas lineares, o método mais conhecido na literatura é o Simplex. Para problemas não- lineares sem restrição, os métodos mais conhecidos são o Método do Máximo Declive, Método de Newton-Raphson, Método dos Gradientes Conjugados e o Quase Newton-Raphson; e quando há restrições, o Método das Penalidades, Método de Programação Quadrática Sequencial e o Método Lagrangeano Aumentado (MARTÍNEZ, 2009). Probabilístico: conhecido como método Heurístico, baseia-se no empirismo imitando, muitas vezes, fenômenos da natureza. No processo de otimização são empregados parâmetros estocásticos (aleatórios) garantindo uma resposta diferente a cada execução, independente se o ponto inicial for o mesmo (MEDEIROs e KRIPKA, 2012). Consequentemente, amplia-se a possibilidade de contornar-se mínimos locais aumentando a eficiência, robustez e a capacidade de solucionar problemas maiores e mais complexos (JEHIHARA, 1998). Outras vantagens quanto ao métodos determinísticos, a função objetivo e as restrições não precisam estar explicitadas e podem trabalhar com variáveis discretas. Não utilizam derivadas e sim, as informações obtidas com os resultados anteriores. Dessa forma, exige-se um grande número de chamadas da função objetivo podendo tornar-se caro computacionalmente. Destacam-se na literatura os métodos Algoritmo Genético, Recozimento Simulado, Sistemas Imunológicos Artificiais, Colônia de Formigas, Colônia de Abelhas Artificial, Algoritmo Vaga-lume, Algoritmo Cuckoo Search e Enxame de Partículas (CARVALHO, 2014). 11 Na presente pesquisa, o foco é mantido na aplicação de métodos determinísticos em problemas são de otimização dimensional, apesar de um método probabilístico também ser empregado para fins de comparação. O Esquema 2 resume as classificações dos problemas de otimização, onde os tipos de problemas aqui abordados são indicados. Esquema 2 - Classificações dos problemas de otimização. 12 3.3 Métodos utilizados A seguir, é apresentada uma breve descrição dos quatro métodos utilizados nos processos de otimização: Pontos Interiores, Programação Sequencial Quadrática, Restrições Ativas e Algoritmo Genético. 3.3.1 Pontos Interiores (Interior-Point) O método dos Pontos Interiores foi desenvolvido inicialmente como sendo um método de programação linear. Este método realiza a busca do ponto ótimo a partir do interior do poliedro que determina a região de busca. A Figura 2 ilustra esse procedimento. Figura 2 - Busca do ponto ótimo a partir do interior da região de busca. Imagem obtida de OLIVEIRA, 2019. Uma vez que a evolução da solução se dá pelo interior da região de busca, e não pelas arestas do poliedro, torna-se necessário considerar todas as direções possíveis. Para resolver esse impasse de qual orientação seguir, observou-se que quando o ponto atual está no centro do poliedro toma-se a orientação de descida mais acentuada (em inglês, steepest descent). 13 Figura 3 - Descidas conforme a localização dos pontos no interior da região de busca. Imagem obtida de OLIVEIRA,2019. Nota-se que, na Figura 3, o ponto 𝑥𝑐, ao centro, tem descida mais acentuada (−∇𝑧) que os pontos 𝑥1 e 𝑥2 , já que esses não podem ultrapassar as fronteiras pois violariam alguma restrição. Assim, são realizadas sucessivas transformações projetivas, mas preservando as propriedades fundamentais do problema, as quais distorcem o espaço de busca mantendo a solução atual no centro deste espaço distorcido (OLIVEIRA, 2019). Essencialmente, realiza-se o processo indicado no Esquema 3. Esquema 3 - Processo de otimização do Método dos Pontos Interiores. 14 A partir da base teórica, a evolução do método proporcionou uma série de novos algoritmos. Algumas variações são a substituição da transformação projetiva pela transformação afim (OLIVEIRA e LYRA) e a busca do ponto ótimo a partir do exterior do poliedro. Atualmente é possível resolver também problemas não-lineares (FRESSATO, 2015). Os algoritmos de maior importância são os Primal Afim-Escala, Dual Afim-Escala e, o aqui utilizado, Primal-Dual. O Método dos Pontos Interiores vem sendo usado em problemas complexos e com muitas variáveis (DUTRA, 2004), a quantidade de iterações necessárias cresce muito mais lentamente que o aumento do número de dimensões (YE, 1997) embora demandem maior tempo computacionalmente. 3.3.2 Programação Sequencial Quadrática (PSQ ou SQP – Sequential Quadratic Programming) O método PQS é um método de programação não-linear com restrição, baseado também em gradientes. Sua estratégia consiste em resolver o problema supostamente mais complicado substituindo-o por vários outros problemas mais simples. Tomando-se uma primeira estimativa de solução 𝒙𝑘, elabora-se um subproblema de forma que a função objetivo seja quadrática, as restrições sejam aproximadas linearmente e que, pelo menos localmente, retrate apropriadamente o problema original. Na resolução do subproblema encontra-se, utilizando suas derivadas, uma nova solução 𝒙𝑘+1 melhor que a anterior. Portanto, cada subproblema é uma aproximação melhorada criada a partir da reposta do subproblema precedente. Repete-se, sequencialmente, esse processo em cada iteração até que se atinja o critério de convergência. O Esquema 4 resume o procedimento do método PQS. Esquema 4 - Processo de otimização do Método Programação Sequencial Quadrática. 15 Ressalta-se que, para esse método, uma solução melhor não significa somente uma solução mais próxima da ótima. Como o PQS pode partir e percorrer pontos fora da região de busca, é necessário que a nova solução obtida não se distancie demasiadamente do conjunto viável. É introduzida então no algoritmo, uma função chamada função de mérito, responsável por manter o equilíbrio entre a proximidade da solução ótima e a proximidade do conjunto viável no cálculo da solução de cada subproblema. A função de mérito mais conhecida é o Lagrangiano Aumentado (NUNES, 2009). Outras duas características relevantes deste método são que problemas quadráticos são fáceis de se resolver e apresentam boa velocidade de convergência (BOGGS e TOLLE, 1995; NUNES, 2009). 3.3.3 Restrições Ativas (Active-Set) O método de Restrições Ativas é um método de programação não-linear com restrição. Sua técnica consiste em tornar a função num problema irrestrito ao descobrir quais são as restrições ativas na solução ótima. Uma restrição é dita ativa quando a solução está sobre sua fronteira (que delimita a região de busca). Partindo de um conjunto estimado de restrições ativas W, são fixadas todas a variáveis de projeto que pertençam a este conjunto, criando um subproblema irrestrito. Verifica-se então se a solução do subproblema é também solução do problema original, se for, o conjunto W está correto e a solução encontrada é a solução ótima. Caso contrário, altera-se o conjunto W e o processo é repetido (GENTIL, 2010; POTSCHKA et al. 2014). Nota-se que, ao fixar variáveis de projeto a região de busca é dividida em partes. Cada parte, chamada de face, é um subproblema irrestrito que pode, ou não, conter a solução ótima. É conveniente avaliar se é mais vantajoso permanecer na face atual ou ir para outra. Essa avaliação é feita observando a direção percorrida com a diminuição da função objetivo do subproblema. Se a solução caminha para as fronteiras, de forma que a norma do gradiente projetado contínuo seja consideravelmente maior que a norma do gradiente interno, muda-se de face. Para abandonar uma face, executa-se o algoritmo Gradiente Espectral Projetado (SPG) obtendo uma nova solução, menor que a anterior, localizada além dos limites da face. Uma vez que a face é abandonada, ela não será verificada novamente. Entretanto se for viável permanecer na face atual, realiza-se uma iteração de um algoritmo para minimização irrestrita 16 calculando um ponto dentro dos limites da face que tenha valor menor que o antecessor (ANDRETTA, 2010). Simplificadamente, o Esquema 5 apresenta a metodologia. Esquema 5 - Processo de otimização do Método de Restrições Ativas. O Método de Restrições Ativas converge com número finito de iterações uma vez que o número de faces é finito e os algoritmos irrestrito e SPG possuem convergência garantida, apesar de não necessariamente para o mínimo global. Entretanto, o Método das Restrições Ativas é relativamente caro do ponto de vista computacional (ANDRETTA, 2010). 3.3.4 Algoritmo Genético (AG ou GA – Genetic Algorithm) O Algoritmo Genético é um método estocástico de programação não linear com restrições que se baseia no princípio de Darwin da seleção natural bem como em mecanismos da genética (CHEN e CHANG, 1995). Inicialmente, são criados vários pontos no espaço de busca, usualmente de forma aleatória. Cada ponto é chamado de indivíduo e ao conjunto de pontos dá-se o nome de população. O indivíduo é caracterizado (codificado) por uma estrutura de dados, por exemplo, vetores de números reais, vetores de números inteiros, cadeias de bits, etc., denominados cromossomos. Por meio de uma função de aptidão (fitness) avalia-se a competência de cada indivíduo na 17 resolução da função objetivo. Essa função tenta medir o quão próxima a solução atual está da solução ótima. Em seguida, são selecionados indivíduos aos pares, os denominados pais, para realização do cruzamento (crossover). Os pais geram novos pontos, os filhos, que podem sofrer, ou não, mutação. Os operadores genéticos (cruzamento e mutação) são os responsáveis por transformarem a população, prolongando a busca até um resultado satisfatório. Dessa forma, a cada geração, isto é, iteração, os indivíduos são melhorados. A seleção dirige o Algoritmo Genético para as regiões do espaço de busca mais próximas da solução ótima. Geralmente indivíduos mais aptos possuem maiores chances de serem selecionados, mas existem diferentes maneiras de efetuar a seleção, tais como, o método de seleção por Roleta e o método de seleção Torneio (POZO et al). No cruzamento, o cromossomo do filho é uma combinação dos cromossomos dos pais, que pode se dar de diversas formas. Já na mutação, acrescentam-se aleatoriamente dados no cromossomo dos filhos que não existiam antes nos pais. A mutação é o mecanismo que proporciona diversidade na população permitindo explorar áreas desconhecidas do espaço de busca. Por fim, executando-se um critério de sobrevivência dos cromossomos que decide quais indivíduos permanecerão e quais deixarão de existir, atualiza-se a população e repete-se todo o processo (POZO et al). A técnica empregada pelo método AG é vista, sucintamente, no Esquema 6. Esquema 6 - Processo de otimização do Método do Algoritmo Genético. 18 Alguns parâmetros merecem destaque por afetarem o desempenho global do método. O tamanho da população, por exemplo, quando muito pequeno não cobre adequadamente o espaço de busca podendo conduzir a uma convergência não muito boa. Entretanto, se for excessivamente grande, perde-se eficiência computacional, uma vez que é necessário avaliar vários indivíduos da população em cada iteração. Quanto à função de aptidão, se for pouco precisa em sua avaliação pode-se perder uma solução com grande potencial ou manter uma solução pouco promissora que acarretará em perda de tempo (POZO et al.). 19 4. METODOLOGIA DE APLICAÇÃO DOS MÉTODOS DE OTIMIZAÇÃO SELECIONADOS Sabe-se que a trajetória seguida por cada algoritmo varia de acordo com o ponto inicial, assim, as iterações e o número de chamadas não são necessariamente os mesmos em cada execução e também não é certo que o método irá convergir para a mesma solução (pode-se ficar estacionado em mínimos locais). Desta forma, na aplicação dos métodos de otimização selecionados cada execução parte de um ponto inicial diferente, dentro do espaço de busca, ou de uma população inicial diferente, para o caso do método GA. Os resultados são apresentados, numa tabela, em termos das médias (µfmin) e desvios padrão (σfmin) do menor valor da função objetivo encontrado pelo algoritmo, obtidos a partir de 100 execuções de cada algoritmo. No intuito de investigar a velocidade de convergência dos métodos, apresenta-se outra tabela em termos da média (µNCALL) e desvio padrão (σNCALL) do número de chamadas à função objetivo. Quando os resultados não convergem para um mesmo valor, são destacados em verde os valores de médias mais próximos da solução ótima e os menores desvios padrão (melhores resultados). Em vermelho são indicados os valores de médias mais distantes da solução e maiores desvios padrão (piores resultados). Os códigos computacionais foram implementados utilizando-se o software Matlab 2017, bem como várias funções disponibilizadas pelo mesmo. Os pontos iniciais foram obtidos a partir da amostragem por hipercubo latino (LHS) por meio do comando ‘lhsdesign’, e adaptados respeitando os limites superiores e inferiores de cada variável de otimização do problema. Para os problemas envolvendo treliças, executou-se rotinas do MASTAN2. Os parâmetros utilizados na execução do Algoritmo Genético foram os pré-definidos pelo próprio software Matlab, apresentados na Tabela 1. 20 Tabela 1 - Parâmetros defaulf do Algoritmo Genético, via comando gaoptimset. Tabela adaptada de COÊLHO, 2017. Parâmetro Descrição Valor PopulationType Tipo dos indivíduos que formam a população doubleVector' PopInitRange Faixa inicial para população [] PopulationSize Tamanho da população '50 when numberOfVariables <= 5, else 200' EliteCount Número de indivíduos selecionados por elitismo '0.05*PopulationSize' CrossoverFraction Fração da população na próxima geração, exceto filhos de elitismo, que são criados por crossover 0.8000 ParetoFraction Escalar entre 0 e 1 especificando a fração de indivíduos para manter na primeira frente de Pareto enquanto o solucionador seleciona indivíduos de frentes mais altas [] MigrationDirection Direção da migração 'forward' MigrationInterval Intervalo da migração 20 MigrationFraction Frequencia da migração 0.2000 Generations Número de gerações permitido 100*numberOfVariables' TimeLimit Tempo máximo para execução do algoritmo Inf FitnessLimit Limite para parada do algoritmo, caso a função objetivo o atinja -Inf StallGenLimit O algoritmo pára se a mudança média relativa no melhor indivíduo do valor estabelecido de "StallGenLimit" é menor ou igual a tolerância estabelecida (TolFun) 50 StallTest Condiciona o tipo de parada 'averageChange' StallTimeLimit O algoritmo pára se não há melhoria na função objetivo no tempo estabelecido em StallTimeLimit Inf TolFun O algoritmo pára se a mudança média relativa no melhor indivíduo do valor estabelecido de "StallGenLimit" é menor ou igual a tolerância estabelecida (TolFun) 1.00E-6 TolCon Tolerância para parada do algoritmo 1.00E-3 InitialPopulation População inicial [] InitialScores Valores iniciais usados para determinar a aptidão [] InitialPenalty Valor inicial do parâmetro de penalidade 10 PenaltyFactor Parâmetro de atualização de penalidade 100 PlotInterval Número inteiro positivo que especifica o número de gerações entre chamadas consecutivas para as funções de plotagem. 1 CreationFcn Especificação do tipo de função que cria a população inicial @gacreationuniform FitnessScalingFcn Função que escala os valores da função de aptidão @fitscalingrank SelectionFcn Função que seleciona pais de filhos formados por crossover e mutação @selectionstochunif CrossoverFcn Função que o algoritmo usa para criar filhos de crossover @crossoverscattered MutationFcn Função que o algoritmo usa para criar filhos de mutação {[@mutationgaussian] [1] [1]} DistanceMeasureFcn Especificação da função que calcula a distância entre os indivíduos. O valor aplica-se à variável de decisão ou espaço de projeto (genótipo) ou ao espaço de função (fenótipo) [] HybridFcn Utilizado em otimização com algoritmo híbrido, função de otimização a ser utilizada após conclusão da parte do GA [] Display Nível de exibição das informações da otimização 'final' PlotFcns Funções para criação de gráficos e informações neles apresentadas [] OutputFcns Funções que são chamadas pelo AG em cada iteração [] Vectorized As informações são passadas por vetores off' UseParallel Função para calcular a aptidão e funções de restrição não-linear em paralelo 0 {false} 21 5. EXEMPLOS NUMÉRICOS Nesta seção, os métodos de otimização em estudo são primeiramente aplicados a problemas Benchmark da literatura, e em seguida à otimização de treliças, no intuito de comparar a eficiência e robustez dos algoritmos. 5.1 Problemas Benchmark Considera-se um conjunto de 5 problemas Benchmark disponíveis na literatura: Função Esfera (Sphere Function), Goldstein-Price, Himmelblau, Rosenbrock e Beale. Estes problemas proporcionam a avaliação do desempenho dos algoritmos uma vez que seus mínimos já são conhecidos (CUNHA et al. 2016). Salienta-se também, que a análise foi feita somente em funções analíticas uma vez que estas requerem pouco tempo de processamento computacional na execução dos algoritmos (CHASE et al.). O comportamento de uma função pode ser descrito por suas características. Neste trabalho, as funções são caracterizadas de acordo com sua continuidade, diferenciabilidade, convexidade e número de pontos extremos. Uma função 𝑓 é: Contínua no ponto 𝑎 de seu domínio quando lim 𝑥→𝑎 𝑓(𝑥) = 𝑓(𝑎). Uma função é dita contínua quando for contínua em todos os pontos de seu domínio; Diferenciável quando sua derivada existe em cada ponto de seu domínio; Convexa se a reta que liga quaisquer dois pontos (𝑥; 𝑓(𝑥)) e (𝑦; 𝑓(𝑦)) está acima do gráfico da função no intervalo determinado pelos pontos, e abaixo do gráfico quando fora do intervalo; Multimodal quando possui vários pontos de mínimo, ou máximo, e unimodal quando só possuir um. 22 5.1.1 Função Esfera A Função Esfera é contínua, convexa, diferenciável e unimodal. Sua definição matemática é dada por: 𝑓(𝑥) = ∑ 𝑥𝑖 2𝑛 𝑖=1 Para a criação da superfície e curvas de nível foi utilizado um espaço bidimensional e o domínio foi restringido em −2 < 𝑥𝑖 < 2. Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto (𝑥1, 𝑥2) = (0,0). Figura 4 - Superfície bidimensional da Função Esfera. Figura 5 - Curvas de nível da Função Esfera. 23 5.1.2 Função Goldstein-Price A Função Goldstein-Price é contínua, não-convexa, bidimensional, diferenciável e multimodal. Sua definição matemática é dada por: 𝑓(𝑥, 𝑦) = [1 + (𝑥 + 𝑦 + 1)2 (19 − 14𝑥 + 3𝑥2 − 14𝑦 + 6𝑥𝑦 + 3𝑦2] [30 + (2𝑥 − 3𝑦)2 (18 − 32𝑥 + 12𝑥2 + 48𝑦 − 36𝑥𝑦 + 27𝑦2)] Para a criação da superfície e curvas de nível o domínio foi restringido em −2 < 𝑥𝑖 < 2. Seu mínimo global tem valor 𝑓 = 3 e ocorre no ponto (𝑥, 𝑦) = (0, −1). Figura 6- Superfície da Função Goldstein-Price. Figura 7 - Curvas de nível da Função Goldstein-Price. 24 5.1.3 Função Himmelblau A Função Himmelblau é contínua, não-convexa, bidimensional e multimodal. Sua definição matemática é dada por: 𝑓(𝑥, 𝑦) = (𝑥2 + 𝑦 − 11)2 + (𝑥 + 𝑦2 − 7)2 Para a criação da superfície e curvas de nível o domínio foi restringido em −5 < 𝑥𝑖 < 5. Seu mínimo global tem valor 𝑓 = 0 e ocorre nos pontos (𝑥, 𝑦) = (3, 2), (−2.805112, 3.131312), (−3.779310, −3,283186), (3.584428, −1.848126). Figura 8 - Superfície da Função Himmelblau. Figura 9 - Curvas de nível da Função Himmelblau. 25 5.1.4 Função Rosenbrock A Função Rosenbrock é contínua, não-convexa, diferenciável, e multimodal. Sua definição matemática é dada por: 𝑓(𝑥) = ∑ [100 (𝑥𝑖+1 − 𝑥𝑖 2)2 + (1 − 𝑥𝑖) 2]𝑛−1𝑖=1 Para a criação da superfície e curvas de nível foi utilizado um espaço bidimensional e o domínio foi restringido em −3 < 𝑥𝑖 < 3. Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto (𝑥1, 𝑥2) = (1,1). Figura 10 - Superfície da Função Rosenbrock. Figura 11 - Curvas de Nível da Função Rosenbrock. https://en.wikipedia.org/wiki/Rosenbrock_function https://en.wikipedia.org/wiki/Rosenbrock_function 26 5.1.5 Função Beale A Função Beale é contínua, não-convexa, bidimensional e multimodal. Sua definição matemática é dada por: 𝑓(𝑥, 𝑦) = (1.5 − 𝑥 + 𝑥𝑦)2 + (2.25 − 𝑥 + 𝑥𝑦2)2 + (2.625 − 𝑥 + 𝑥𝑦3)2 Para a criação da superfície e curvas de nível o domínio foi restringido em −4.5 < 𝑥𝑖 < 4.5. Seu mínimo global tem valor 𝑓 = 0 e ocorre no ponto (𝑥, 𝑦) = (3, 0.5). Figura 12 - Superfície da Função Beale. Figura 13 - Curvas de nível da Função Beale. 27 5.1.6 Resultados Os resultados quanto aos problemas Benchmarks são mostrados nas Tabelas 2 e 3. Tabela 2 - Valores da média e desvio padrão dos valores mínimos de cada função. Verifica-se que o menor desvio padrão está, geralmente, associado à menor média, mas não há consenso quanto ao melhor ou pior método ao se considerar todos os casos em questão. Quanto à Função Esfera, apesar de todos os algoritmos terem convergido para a solução nota-se que os métodos baseados em gradiente se aproximaram muito mais do valor ótimo. Isso pode ser explicado pelo fato da função ser convexa e unimodal proporcionando uma rápida descida segundo os gradientes, em direção à solução. Na Função Goldstein-Price, observa-se que nenhum dos algoritmos conseguiu encontrar soluções próximas ao mínimo em todas as execuções. A fim de se entender melhor estes resultados, os Gráficos 1,2,3 e 4 ilustram os valores mínimos da função encontrados em cada execução dos algoritmos. Percebe-se que o valor de µfmin encontrado pelo método AG foi o mais próximo da verdadeira solução. Pelo gráfico vê-se que suas soluções são aproximadamente constantes enquanto os outros métodos possuem alguns picos muito altos. Isto acontece pelo fato da função em questão ser não-convexa, tendo diversas regiões onde os gradientes não apontam em direção ao ponto de mínimo. Quanto ao AG, muito provavelmente seria capaz de convergir para a solução ótima, desde que fossem consideradas mais iterações ou um maior número de indivíduos na população. Função µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin Função Esfera 2,1E-15 1,3E-14 8,3E-17 6,6E-17 3,0E-16 3,3E-16 2,9E-10 4,4E-10 Função Godstein-Price 4,0E+01 1,2E+02 4,5E+01 1,4E+02 4,8E+01 1,4E+02 3,5E+00 3,8E+00 Função Himmelblaus 4,8E-14 3,0E-14 5,7E-14 5,7E-14 9,5E-08 1,3E-07 1,1E-08 1,7E-08 Função Rosenbrock 2,1E-11 1,1E-12 1,8E-11 4,3E-12 1,0E-07 1,2E-07 4,8E-02 1,1E-01 Função Beale 7,1E-01 2,0E+00 4,3E-01 1,4E+00 2,8E-01 3,7E-01 4,1E-02 1,8E-01 Pontos Interiores PQS Restrições Ativas AG 28 Gráfico 1 - Plotagem do valor mínimo encontrado em cada execução do Método dos Pontos Interiores. Gráfico 2 - Plotagem do valor mínimo encontrado em cada execução do Método PQS. Gráfico 3 - Plotagem do valor mínimo encontrado em cada execução do Método das Restrições Ativas. 0,0E+00 2,0E+02 4,0E+02 6,0E+02 8,0E+02 1,0E+03 1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97 V al o r ó ti m o o b ti d o Nº da execução Método dos Pontos Interiores 0,0E+00 2,0E+02 4,0E+02 6,0E+02 8,0E+02 1,0E+03 1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97 V al o r ó ti m o o b ti d o Nº da execução Método PQS 0,0E+00 1,0E+02 2,0E+02 3,0E+02 4,0E+02 5,0E+02 6,0E+02 7,0E+02 8,0E+02 9,0E+02 1 5 9 13 17 21 25 29 33 37 41 45 49 53 57 61 65 69 73 77 81 85 89 93 97 V al o r ó ti m o o b ti d o Nº da execução Método das Restrições Ativas 29 Gráfico 4 - Plotagem do valor mínimo encontrado em cada execução do Método AG. Na função Himmelblau como o mínimo global ocorre em 4 pontos, facilita-se a convergência dos métodos. Com relação aos resultados obtidos, destacam-se os métodos dos Pontos Interiores e PQS. Nota-se no caso da Função Beale que, quando comparada às outras funções (com exceção da Função Goldstein-Price), a média dos valores mínimos está menos próxima da solução ótima. Novamente trata-se de uma função não-convexa, onde os gradientes podem confundir os métodos determinísticos ao não apontarem na direção do ponto de mínimo, e onde o método AG provavelmente convergiria desde que um maior número de indivíduos e/ou de iterações fosse utilizado. Tabela 3 - Valores da média e desvio padrão do número de chamadas da função objetivo de cada função. Em todas as funções o método AG, conforme esperado, foi o que apresentou a maior média e maior desvio padrão, enquanto o método de Restrições Ativas foi o que apresentou menor média e, majoritariamente, menor desvio padrão. Para as funções Goldstein-Price e Himmelblau, os resultados da Tabela 2 indicam que o método de Restrições Ativas obteve o pior resultado quanto à convergência para a solução ótima, entretanto, conforme a Tabela 3, foi o método que chamou menos vezes a função objetivo. Isso implica que este método tende a convergir rapidamente, porém é também o mais susceptível a ficar preso em mínimos locais. 0,0E+00 1,0E+02 2,0E+02 3,0E+02 4,0E+02 5,0E+02 6,0E+02 7,0E+02 8,0E+02 9,0E+02 1 4 7 1 0 1 3 1 6 1 9 2 2 2 5 2 8 3 1 3 4 3 7 4 0 4 3 4 6 4 9 5 2 5 5 5 8 6 1 6 4 6 7 7 0 7 3 7 6 7 9 8 2 8 5 8 8 9 1 9 4 9 7 1 0 0 V al o r ó ti m o o b ti d o Nº da execução Método AG Função µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL Função Esfera 2,8E+01 8,9E+00 1,0E+01 0,0E+00 7,1E+00 3,4E-01 3,4E+03 2,1E+02 Função Godstein-Price 8,1E+01 1,9E+01 6,2E+01 1,1E+01 4,9E+01 1,3E+01 4,0E+03 2,9E+02 Função Himmelblaus 4,4E+01 7,1E+00 4,4E+01 5,4E+00 3,4E+01 6,1E+00 3,8E+03 2,8E+02 Função Rosenbrock 1,1E+02 3,2E+01 1,2E+02 3,6E+01 8,9E+01 3,0E+01 9,4E+03 1,8E+03 Função Beale 8,9E+01 3,4E+01 7,7E+01 2,3E+01 6,0E+01 1,8E+01 6,3E+03 2,7E+03 Pontos Interiores PQS Restrições Ativas AG 30 Analogamente, nas funções Goldstein-Price e Beale o método AG obteve mínimo mais próximo da solução, porém foi o método com maior número de chamadas da função objetivo. Em resumo, o método das Restrições Ativas foi o que se apresentou mais rápido, em termos de velocidade de convergência, mas não o mais preciso. Este método pode ser indicado para os casos em que as funções objetivo sejam convexas e bem comportadas, e não haja necessidade de um alto grau de refinamento da solução obtida. O método PQS foi o que mostrou maior precisão nos casos convexos, porém requerendo mais avaliações da função objetivo que o método das Restrições Ativas. Finalmente, para os casos não convexos, é necessário recorrer a métodos de busca global, tais como o AG, mesmo que a função objetivo apresente apenas um mínimo global na região de interesse. 31 5.2 Treliças planas Neste trabalho, dois exemplos da literatura são estudados: treliça plana de duas barras, com carregamento que varia de direção em cada caso, e treliça plana de cinco barras, em situações com diferentes tipos de apoio. Na análise aqui feita, busca-se otimizar a estrutura minimizando o volume de seus elementos e considerando restrições em cada barra quanto ao escoamento e flambagem (JULIANI et al. 2019). Quando a barra está sob tensão de tração, 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 > 0, deve-se respeitar a condição de escoamento: 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 ≤ 𝜎𝑦 Onde 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 é a tensão atuante na barra e 𝜎𝑦 é a tensão de escoamento do material. Quando sob compressão, 𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒 ≤ 0, é necessário impedir, além do escoamento, que a flambagem ocorra: |𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒| ≤ 𝜎𝑦 E |𝜎𝑎𝑡𝑢𝑎𝑛𝑡𝑒| ≤ 𝜎𝑐𝑟𝑖 𝜎𝑐𝑟𝑖 = 𝜋2𝐸𝐼 𝐴𝐿𝑓 2 Onde: 𝜎𝑐𝑟𝑖 = tensão crítica de flambagem de Euler; 𝐸 = módulo de elasticidade do material; 𝐼 = momento de inércia da barra; 𝐴 = área da barra; 𝐿𝑓 2 = comprimento de flambagem. Em barras biapoiadas, como ocorre em treliças, 𝐿𝑓 2 é o próprio comprimento da barra. 32 5.2.1 Treliça plana de duas barras A treliça, ilustrada na Figura 14, é composta por duas barras circulares vazadas e possui base fixa. Assim, o vetor de variáveis de projeto é dado por 𝒙 = (𝐻, 𝑑1, 𝑡1, 𝑑2, 𝑡2) sendo 𝐻 a altura da treliça, 𝑑1, 𝑡1, respectivamente, diâmetro médio e espessura da barra 1, 𝑑2, 𝑡2, diâmetro médio e espessura da barra 2. Figura 14 - Treliça plana de duas barras. Imagem obtida de JULIANI et al. 2019. A Tabela 4 mostra os valores utilizados na resolução do problema. Tabela 4 - Valores de dados utilizados para treliça de 2 barras. Tabela adaptada de JULIANI et al. 2019. Foram considerados 9 casos distintos, com diferentes direções da carga aplicada, conforme mostrado na Figura 15. Figura 15 - Direções assumidas para a carga aplicada na treliça de 2 barras. Imagem obtida de JULIANI et al. 2019. Dado Valor Base 2B 6 m Carregamento P 674 kN Módulo de elasticidade E 30 Gpa Tensão de escoamento 105 Mpa 33 Além das restrições anteriormente discutidas, acrescentou-se a limitação 10 ≥ 𝑑 𝑡 ≥ 2 de forma que o diâmetro seja pelo menos o dobro da espessura mas não excessivamente maior, ou seja, a espessura não deve ser muito pequena, para que se evite instabilidade local das paredes da barra. 5.2.1.1 Resultados Os resultados quanto ao problema de treliça plana de duas barras, com diferentes direções assumidas para a carga aplicada, são mostrados nas Tabelas 5 e 6. Tabela 5 - Valores da média e desvio padrão dos valores mínimos encontrados para cada ângulo de carregamento. A média da solução ótima encontrada pelos métodos de Pontos Interiores, PQS e Restrições ativas é praticamente igual, entretanto o PQS possui desvio padrão consideravelmente menor. Já o AG foi o que apresentou piores resultados independente da direção do carregamento. Observa-se também que a função objetivo diminui com o aumento do ângulo de carregamento até que este atinja 90º, e depois começa a aumentar. Tabela 6 - Valores da média e desvio padrão do número de chamada da função objetivo encontrados para cada ângulo de carregamento. Ângulo µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin θ = 0 5,7E-02 3,1E-07 5,7E-02 5,3E-11 5,7E-02 5,1E-08 6,2E-02 4,0E-03 θ = 30 5,2E-02 3,5E-07 5,2E-02 2,3E-09 5,2E-02 1,7E-07 5,8E-02 4,3E-03 θ = 45 4,6E-02 2,9E-06 4,6E-02 7,7E-10 4,6E-02 7,4E-07 5,0E-02 3,1E-03 θ = 60 3,8E-02 2,6E-06 3,8E-02 3,7E-11 3,8E-02 2,5E-09 4,0E-02 2,2E-03 θ = 90 3,2E-02 1,5E-06 3,2E-02 2,7E-12 3,2E-02 2,3E-09 3,5E-02 2,5E-03 θ = 120 3,3E-02 1,6E-06 3,3E-02 2,3E-09 3,3E-02 4,4E-07 3,4E-02 5,8E-04 θ = 135 3,6E-02 1,1E-06 3,6E-02 8,9E-10 3,6E-02 7,4E-07 3,7E-02 8,5E-04 θ = 150 3,6E-02 7,8E-07 3,6E-02 7,1E-12 3,6E-02 6,3E-08 3,8E-02 1,5E-03 θ = 190 4,2E-02 7,0E-07 4,2E-02 1,2E-10 4,2E-02 6,0E-09 4,3E-02 1,1E-03 Pontos Interiores PQS Restrições Ativas AG Ângulo µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL θ = 0 1,5E+02 1,6E+01 6,2E+01 5,0E+00 5,1E+01 5,2E+00 1,6E+04 7,5E+03 θ = 30 1,5E+02 1,5E+01 6,8E+01 6,3E+00 5,4E+01 6,6E+00 1,2E+04 4,9E+03 θ = 45 1,5E+02 2,0E+01 7,2E+01 1,0E+01 5,4E+01 8,0E+00 1,2E+04 4,5E+03 θ = 60 1,8E+02 3,0E+01 5,0E+01 6,9E+00 4,4E+01 6,6E+00 1,2E+04 5,9E+03 θ = 90 1,6E+02 2,4E+01 5,3E+01 1,5E+01 4,3E+01 6,6E+00 9,6E+03 1,8E+03 θ = 120 2,1E+02 2,8E+01 6,8E+01 1,5E+01 5,0E+01 1,1E+01 8,1E+03 1,1E+03 θ = 135 1,7E+02 2,4E+01 6,8E+01 2,2E+01 4,8E+01 1,1E+01 8,5E+03 1,2E+03 θ = 150 2,0E+02 1,9E+01 5,0E+01 7,8E+00 4,3E+01 5,8E+00 9,1E+03 1,1E+03 θ = 190 1,7E+02 3,1E+01 5,7E+01 5,2E+01 4,5E+01 7,8E+00 8,8E+03 6,4E+02 Pontos Interiores PQS Restrições Ativas AG 34 Note que o resultado mostrado na Tabela 6 é muito semelhante ao obtido pelos problemas Benchmark. Em todas as funções o AG foi o que apresentou a maior média e desvio padrão quanto ao número de chamadas, enquanto o método de Restrições Ativas foi o que apresentou menor média e, majoritariamente, menor desvio padrão. Comparando as Tabelas 5 e 6, percebe-se que o pior método para a resolução da treliça plana de duas barras foi o Algoritmo Genético, e o melhor, a Programação Sequencial Quadrática quanto à precisão, ou o método das Restrições ativas, se for priorizado o número de chamadas da função objetivo. 35 5.2.2 Treliça plana de cinco barras A treliça, ilustrada na Figura 16, é composta por cinco barras circulares de seção cheia, possui base e altura fixa. Assim, o vetor de variáveis de projeto é dado por 𝒙 = (𝐴1, 𝐴2, 𝐴3, 𝐴4,, 𝐴5) sendo 𝐴1, 𝐴2, 𝐴3, 𝐴4,, 𝐴5, respectivamente, as áreas das barras 1, 2, 3, 4 e 5. Na primeira situação, a treliça possui um apoio de 1º gênero e outro de 2º gênero. Figura 16 - Treliça plana de cinco barras. Imagem obtida de JULIANI et al. 2019. A Tabela 7 mostra os valores utilizados na resolução do problema. Tabela 7 - Valores de dados utilizados para treliça de 5 barras. Tabela adaptada de JULIANI et al. 2019. O problema foi resolvido também substituindo o apoio do nó 4 por um apoio de 2º gênero, conforme ilustrado na Figura 17. Dado Valor Carregamento P 15 kN Carregamento F 20 kN Módulo de elasticidade E 68.95 GPa Tensão de escoamento 172 GPa 36 Figura 17 - Treliça plana de cinco barras com apoio modificado. Imagem obtida de JULIANI et al. 2019. Para esse problema, optou-se não usar o método Algoritmo Genético devido ao alto custo computacional por ele requerido. 5.2.2.1 Resultados Os resultados quanto ao problema de treliça plana de cinco barras, com diferentes situações de apoio, são mostrados nas Tabelas 8 e 9. Tabela 8 - Valores da média e desvio padrão dos valores mínimos encontrados nas diferentes situações de apoio. Em ambas as situações, todos os algoritmos convergiram para a mesma média de solução ótima sendo que o Método das Restrições Ativas mostrou desvio padrão bem menor que os demais. Tabela 9 - Valores da média e desvio padrão do número de chamadas da função objetivo encontrados nas diferentes situações de apoio. Situação µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin 1 1,9E-02 2,1E-05 1,9E-02 5,1E-05 1,9E-02 1,8E-10 2 2,0E-02 6,2E-06 2,0E-02 7,7E-04 2,0E-02 9,6E-11 Pontos Interiores PQS Restrições Ativas Situação µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL 1 1,9E+02 9,0E+01 5,8E+01 1,0E+01 6,0E+01 9,7E+00 2 2,1E+02 5,6E+01 1,3E+02 1,1E+02 7,6E+01 1,3E+01 Pontos Interiores PQS Restrições Ativas 37 Na situação 1, o Método PQS apresenta a menor média do número de chamadas da função objetivo, porém, ela é muito parecida com a do Método de Restrições Ativas sendo que este tem a vantagem de possuir menor desvio padrão. Na situação 2, o Método de Restrições Ativas obteve melhores resultados. 38 5.2.3 Treliça plana de cinco barras com apoio intermediário É proposta uma terceira situação onde o apoio do nó quatro, da treliça anteriormente apresentada e ilustrada na Figura 16, possui rigidez variável. Dessa forma, é simulado um apoio intermediário que representa situações variando entre os apoios de primeiro e segundo gênero. Foram utilizados nove diferentes valores de rigidez K, sendo o menor deles (K = 10 N/m) praticamente equivalente a um apoio de primeiro gênero e o maior (K = 1E12 N/m) correspondente ao apoio de segundo gênero. No programa computacional MASTAN2, não é permitido acrescentar de forma direta uma mola, assim, para a resolução desse problema, foi acrescentado um nó 5 com apoio de segundo gênero que permite a inserção de uma nova barra (do nó 4 ao nó 5) como mostrado na Figura 18. A barra 6 possui área e comprimento fixos e sua rigidez 𝐾 = 𝐸𝐴 𝐿 varia alterando-se seu módulo de elasticidade. Este modelo foi validado ao conferir-se os valores dos esforços internos, por ele apresentados, com os calculados a partir do software Ftool onde utilizou-se molas conforme ilustrado na Figura 19. Figura 18 - Treliça plana de cinco barras com apoio intermediário. 39 Figura 19 - Treliça plana de cinco barras com apoio intermediário, modelada no software Ftool. 5.2.3.1 Resultados Os resultados quanto ao problema de treliça plana de cinco barras, com diferentes valores de rigidez para um dos apoios, são mostrados nas Tabelas 10 e 11. Tabela 10 - Valores da média e desvio padrão dos valores mínimos encontrados nas diferentes valores de rigidez. De maneira geral, os métodos de Pontos Interiores e Restrições Ativas apresentaram valores bem parecidos de média, entretanto o método de Restrições Ativas obteve vantagem ao possuir menor desvio padrão. Já o método PQS revelou, visivelmente, pior desempenho com maiores mínimos da função e desvio padrão. Rigidez K µ fmin σ fmin µ fmin σ fmin µ fmin σ fmin 1,0E+01 0,0191 7,6E-06 0,0191 3,0E-10 0,0191 3,4E-10 1,0E+04 0,0199 9,8E-06 0,0199 1,1E-04 0,0199 4,3E-06 1,0E+05 0,0217 4,9E-06 0,0219 4,4E-04 0,0217 7,6E-07 1,0E+06 0,0225 1,1E-04 0,0233 1,4E-03 0,0224 2,4E-08 1,0E+07 0,0205 8,1E-04 0,0207 1,4E-03 0,0204 1,8E-07 1,0E+08 0,0202 1,5E-05 0,0202 4,9E-04 0,0202 8,3E-08 1,0E+09 0,0201 1,8E-05 0,0203 7,9E-04 0,0201 2,5E-10 1,0E+10 0,0201 1,5E-05 0,0202 5,0E-04 0,0201 8,7E-11 1,0E+12 0,0201 1,5E-05 0,0203 7,2E-04 0,0202 4,5E-04 Pontos Interiores PQS Restrições Ativas 40 Tabela 11 - Valores da média e desvio padrão do número de chamadas da função objetivo encontrados para os diferentes valores de rigidez. O método de Restrições Ativas se destacou por ter menores valores de média e desvio padrão do número de chamadas da função objetivo. O método de Pontos Interiores foi o que chamou mais vezes a função objetivo enquanto que o método PQS possui maior desvio padrão. O Gráfico 5 foi elaborado com os valores das médias, obtidas executando-se 100 vezes o algoritmo de Pontos Interiores, da solução ótima encontrada para cada diferente valor de rigidez. Os métodos de PQS e Restrições Ativas possuem resultados similares aos aqui apresentados. Gráfico 5 - Relação entre volume ótimo e rigidez do apoio. Conforme a rigidez aumenta (o apoio aproxima-se de um do segundo gênero) o volume da treliça também aumenta até atingir seu valor máximo em K = 1E6 N/m. Após esse pico, o volume diminui e se estabiliza em, aproximadamente, 1E9 N/m com valor pouco menor que a média dos valores máximo e mínimo anteriores. Rigidez K µ NCALL σ NCALL µ NCALL σ NCALL µ NCALL σ NCALL 1,0E+01 1,8E+02 6,6E+01 5,8E+01 1,1E+01 6,1E+01 9,6E+00 1,0E+04 2,1E+02 6,1E+01 7,0E+01 2,2E+01 7,2E+01 1,6E+01 1,0E+05 2,2E+02 5,7E+01 1,2E+02 1,1E+02 9,0E+01 2,0E+01 1,0E+06 2,6E+02 7,0E+01 1,8E+02 1,8E+02 7,5E+01 2,0E+01 1,0E+07 2,6E+02 6,5E+01 1,1E+02 1,2E+02 5,7E+01 1,5E+01 1,0E+08 2,1E+02 5,4E+01 1,2E+02 1,0E+02 7,5E+01 1,2E+01 1,0E+09 2,1E+02 4,6E+01 1,2E+02 1,1E+02 7,5E+01 1,0E+01 1,0E+10 2,0E+02 5,0E+01 1,0E+02 8,1E+01 7,7E+01 1,3E+01 1,0E+12 2,0E+02 5,0E+01 1,2E+02 1,1E+02 7,5E+01 1,4E+01 Pontos Interiores PQS Restrições Ativas 0,0185 0,0190 0,0195 0,0200 0,0205 0,0210 0,0215 0,0220 0,0225 0,0230 1,E+01 1,E+04 1,E+05 1,E+06 1,E+07 1,E+08 1,E+09 1,E+10 1,E+12 V o lu m e ó ti m o ( m 3 ) Rigidez K (N/m) Volume X Rigidez Interior Point 41 6. CONCLUSÃO Nesta pesquisa, analisou-se a performance dos algoritmos Pontos Interiores, Programação Quadrática Sequencial, Restrições Ativas e Algoritmo Genético na resolução de problemas Benchmark clássicos da literatura. Ressalta-se o antagonismo entre os métodos que mais se aproxima da solução ótima e o que possui menor número de chamadas da função objetivo. O método das Restrições Ativas foi o que se apresentou mais rápido, em termos de velocidade de convergência. Entretanto, os métodos mais precisos foram o PQS, em casos convexos, e o AG nos demais casos. Este último, ainda que apresente melhor convergência, é o método com maior custo computacional o que pode impossibilitar o seu uso em alguns casos. Um exemplo dessa inutilização foi a resolução do volume ótimo em treliças planas. Com exceção do Algoritmo Genético, os demais métodos também foram testados em treliça plana com duas e cinco barras e em diferentes situações de apoio. Na resolução do problema mais complexo (treliça de cinco barras com apoio de rigidez variável) o método dos Pontos Interiores foi o que mais demandou tempo para convergir e o método PQS o menos preciso. Nos demais casos, o método das Restrições Ativas mostrou-se, mais uma vez, ser o mais rápido e, de maneira geral, todos os algoritmos revelaram-se igualmente precisos. Nota-se que não há consenso quanto ao melhor ou pior método revelando a importância de manter pesquisas referentes à aplicabilidade dos diferentes algoritmos de otimização. Nesse contexto, o Programa de Iniciação Científica apresenta-se como uma oportunidade vantajosa quanto à aprendizagem do aluno ao acrescentar conhecimento e experiência à sua formação acadêmica. 42 7. REFERÊNCIAS Chase, N.; Rademacher, M.; Goodman, E. A Benchmark Study of Optimization Search Algorithms. Fressato, A. A. Métodos de Pontos Interiores - Algoritmo para resolução de programação não linear. 2015. Oliveira, A. R. L.; Filho, C. L.. Implementação de um método de pontos interiores para programação linear. Ye, Y. Interior point algorithms theory and analysis. 1997 Boggs, P. T; Tolle, J. W. Sequential Quadratic Programming. 1995 Nunes. F. T. Programação quadrática sequencial e condições de qualificação. 2009 Gentil, J. M. P. Estudo e implementação de um método de restrições ativas para problemas de otimização em caixas. 2010 Ferreau, H. J.; Kirches, C.; Potschka, A.; Bock, H. G.; Diehl, M. qpOASES: a parametric active-set algorithm for quadratic programming. 2014 Chen, P.; Chang, H. LARGE-SCALE ECONOMIC DISPATCH BY GENETIC ALGORITHM. 1995 Cunha, V. H.; Campos, E. S.; Guimarães, L. C.; Dantas, M. P, J. ALGORITMO GENÉTICO DE CODIFICAÇÃO REAL APLICADO À OTIMIZAÇÃO DE FUNÇÕES DE BENCHMARK. 2016 Nocedal, J.; Wright, S. J. NUMERICAL OPTIMIZATION. 2006 Arora, J. S. INTRODUCTION TO OPTIMUM DESIGN. 2011 Carvalho, E. C. R. Solução de problemas de otimização com restrições usando estratégias de penalização adaptativa e um algoritmo do tipo pso. 2014 Silva, E. C. N. PMR 5215 – otimização aplicada ao projeto de sistemas mecânicos. Ozimboski, J. M,; Guarnieri, G. B.; Medeiros, G. F.; Kripka, M. Otimização dimensional, geométrica e topológica de treliças: validação experimental por meio de estruturas de palitos de picolé. 2019 Kalid, R. Otimização de processos químicos: problemas sem restrições. Medeiros, G. F.; Kripka M. Algumas aplicações de métodos heurísticos na otimização de estruturas. 2012 Martínez, L. C.C. otimização dos circuitos de refrigerante nos trocadores de calor de sistemas de refrigeração por compressão de vapor. 2009 Jehihara, J. A. Um método de solução heurístico para a programação de edifícios dotados de múltiplos pavimentos-tipo. 1998 Oliveira, R. C. L. F. IA881 – otimização linear. Aula métodos de pontos interiores em programação linear. 2019 Dutra, A. S. Método de pontos interiores aplicado a um problema de sequenciamento job-shop. 2004 43 Andretta, M. Aula método de restrições ativas icmc-usp. 2010 Pozo, A.; Cavalheiro, A. F.; Ishida, C.; Spinosa, E.; Rodriguez, E. M. COMPUTAÇÃO EVOLUTIVA. Juliani, M. A.; Milanez, M. O.; Gomes, W. J .S. Structural optimization of trusses under elastic and inelastic buckling constraints. 2019 Soterroni, A. C. O METODO DO Q-GRADIENTE PARA OTIMIZAÇÃO GLOBAL. 2012. Ramírez, J. A; Campelo, F; Guimaráes, F. G; Batista, L. S; Takahashi, R. H. C. Aula métodos numéricos para otimização irrestrita. Coêlho, G. A. G. OTIMIZAÇÃO DE PÓRTICOS PLANOS DE CONCRETO ARMADO UTILIZANDO AJUSTE DE PARÂMETROS E OPERADORES DO ALGORITMO GÉNETICO. 2017
Compartilhar