Prévia do material em texto
Inteligência de Enxame Swarm Intelligence é um ramo da Inteligência Artificial que estuda o comportamento coletivo de sistemas descentralizados, auto-organizados, naturais ou artificiais. O conceito é usado em trabalhos com inteligência artificial. A expressão foi introduzida por Gerardo Beni e Wang Jing em 1989, no contexto de sistemas robóticos móveis. Inspirados na natureza, especialmente em certos sistemas biológicos, os sistemas de inteligência de enxame são tipicamente compostos de uma população de agentes simples que interagem localmente entre si e com seu ambiente. Os agentes seguem regras simples e, embora não haja uma estrutura de controle centralizado que dite o comportamento de cada um deles, as interações locais entre os agentes levam ao surgimento de comportamentos globais complexos. Exemplos naturais incluem colônias de formigas, o alinhamento de pássaros em vôo, o comportamento dos rebanhos durante o pastejo e crescimento bacteriano. A otimização baseada em colônias de formigas (OCH) é uma classe de algoritmos para otimização inspirada nas ações de uma colônia de formigas. Os métodos OCH são úteis em problemas que precisam encontrar caminhos para objetivos. O objetivo da 'simulação de formiga artificial' por meio de agentes é localizar soluções ótimas movendo-se por um espaço de parâmetros que representa todas as soluções possíveis. Formigas naturais usam feromônios que dirigem uns aos outros, recursos e exploram seu ambiente. A simulação de 'formigas' também permite registrar suas posições e a qualidade de suas soluções, de forma que nas iterações de simulação subsequentes mais formigas possam encontrar as melhores soluções. Otimização de enxame de Firefly (GSO), introduzida por Krishnanand e Ghose em 2005 para o cálculo simultâneo de múltiplos ótimos de funções multimodais. O algoritmo compartilha algumas características com alguns algoritmos mais conhecidos, como otimização de colônia de formigas e otimização de enxame de partículas, mas com várias diferenças significativas. Os agentes em GSO são considerados vaga-lumes que carregam uma quantidade de luminescência chamada luciferina junto com eles. Os vagalumes codificam o estado físico de suas localizações atuais, avaliados usando a função objetivo, em um valor de luciferina para transmitir aos seus vizinhos. O vaga-lume identifica seus vizinhos e calcula seus movimentos explorando uma zona adaptativa, que é limitada superiormente por seu alcance de sensor. Cada vaga-lume seleciona, usando um mecanismo probabilístico, um vizinho que tem um valor de Luciferina mais alto do que o seu e se move em sua direção. Esses movimentos são baseados exclusivamente em informações locais para permitir que o enxame de vaga- lumes se divida em subgrupos disjuntos que convergem em vários ótimos de um determinado tratamento multimodal funcional e seleção de recursos. Este tipo de algoritmo tem sido aplicado na otimização de pontes pré-moldadas de concreto protendido. Embora controversa, a teoria sustenta que o algoritmo de busca gravitacional (GSA) é baseado na lei da gravidade e na noção de interações de comunicação. O algoritmo GSA usa a teoria da física newtoniana e seus agentes de busca são a coleção de massa. No GSA, existe um sistema de massa isolado. Usando a força gravitacional, cada massa no sistema pode ver a localização das outras massas; portanto, a força gravitacional é uma forma de transferir informações entre diferentes massas. No GSA, os agentes são considerados objetos e seu desempenho é medido por suas massas. Todos esses objetos são atraídos uns pelos outros por uma força gravitacional, e essa força causa um movimento de todos os objetos globalmente em direção a objetos com massas mais pesadas, este último correspondendo às boas soluções do problema. A posição do agente corresponde a uma solução do problema, e sua massa é determinada usando uma função de aptidão. Com o passar do tempo, as massas são atraídas pela massa mais pesada, que idealmente apresentaria uma solução ótima no espaço de busca.