Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
INTELIGÊNCIA ARTIFICIAL Aula de Revisão para AV2 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Conteúdo programático desta aula Inspiração e princípios dos modelos evolucionários. Aplicações dos Algoritmos Genéticos. Parametrização dos operadores genéticos. Características dos modelos conexionistas . Topologias e aplicações das redes neurais. Funcionamento das redes neurais de treinamento supervisionado. Características das redes neurais auto organizadas. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Conceituando um problema de otimização Encontrar o “ótimo” pode ser encontrar o máximo ou o mínimo Ex: na função f(x)= -x2+3, podemos querer achar o “x” que maximiza f(x) Para uma função de muitos parâmetros, temos f( x1, x2, x3,...xn) Função a otimizar: Função Objetivo Intervalo de busca da solução: Espaço de Busca Espaço de busca pode ter restrições. Ex: Função objetivo: f(x,y) = x2 + y2 + 4 Restrições: 2x - 3y < 5 e x + y = 7. Otimização combinatória: busca-se uma sequência ótima de valores Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Características que a função a otimizar pode apresentar Mínimos locais Estabilidade da função Ex: função mono parâmetro f(x) = x sen (3 x) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Soluções para problemas de otimização Existem vários modelos matemáticos de otimização: Métodos analíticos (ex: Newton-Raphson): usam cálculo diferencial e dependem das funções serem conhecidas, contínuas e diferenciáveis Métodos de subida de encosta (ex: gradiente descendente, recozimento simulado, busca tabu): são métodos de buscas locais, em geral rápidos, mas sensíveis a mínimos locais Métodos heurísticos (ex: algoritmos genéticos, colônia de formigas e enxames de abelhas): são métodos que exploram de forma mais uniforme o espaço de busca, são robustos quanto a mínimos locais, mas em geral são mais lentos . Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Algoritmos Genéticos: características Possibilitam exploração simultânea (paralelizável) do espaço de busca; Funcionam em espaços de busca contínuos ou discretos; Não são sensíveis à existência de mínimos locais; Capazes de descobrir várias soluções (útil para funções multi-modais); Não impõem condições especiais (continuidade, existência de derivada); Funcionam bem em espaços de busca com muitas dimensões; Permitirem modelar restrições e otimizar simultaneamente múltiplas funções, mesmo que conflitantes; e, São fáceis de implantar computacionalmente, não dependendo de compreensão do problema a ser otimizado e de sua modelagem. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Algoritmos Genéticos: inspiração original Modelo computacional proposto por John Holland; Inspirado na biologia evolutiva (A Origem das Espécies - Charles Darvin); Ideia principal: seres mais adaptados têm mais chances de sobrevivência Capacidade de adaptação determina a sobrevivência Evolução das espécies se dá com mecanismos como: Seleção dos mais aptos (seleção natural) Recombinação genética (reprodução sexuada) Mutações aleatórias (mutação genética) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Algoritmos Genéticos: o modelo computacional Modela as soluções do problema como indivíduos de uma espécie; Lida com um conjunto de soluções chamado de população; Modela cada solução como uma cadeia de bits que representa o genoma; Associa a cada solução uma medida de qualidade que reflete a capacidade do indivíduo em relação aos demais indivíduos da população; A evolução se dá pela criação de sucessivas gerações de indivíduos onde novos indivíduos são criados aplicando os mecanismos genéticos de seleção natural, reprodução por combinação e mutação aleatória. A evolução da população favorece o aparecimento de indivíduos mais adaptados, ou seja, de soluções otimizadas para o problema original. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Modelo computacional: Inicialmente é necessário criar uma representação para as soluções, chamado de cromossomo do indivíduo: É uma cadeia de bits que representam os parâmetros da função Pode conter valores discretos ou contínuos É necessário estabelecer uma função de avaliação da aptidão de cada indivíduo que reflita a qualidade de cada solução/indivíduo Estabelecer formas de aplicar os operadores genéticos de cruzamento e mutação para criação dos novos indivíduos Estabelecer parâmetros de intensidade para aplicação dos operadores genéticos e critérios de parada para encerramento da evolução. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL modelo computacional: ciclo evolutivo Criar aleatoriamente uma população inicial Enquanto o critério de parada não for satisfeito: Associar grau de aptidão a cada indivíduo da população Criar uma nova população baseada no grau de aptidão: Inserir cópia de indivíduo muito apto na população do próximo ciclo Recombinar dois indivíduos por cruzamento genético, formando dois novos indivíduos para o próximo ciclo. Alterar a representação de um indivíduo em uma posição aleatória, gerando uma mutação genética desse indivíduo. Indivíduo com maior aptidão é a melhor solução nesta geração Critérios de parada possíveis: Melhor indivíduo atual ser satisfatório Número máximo de gerações ter sido atingido Tempo limite de processamento ter sido atingido Não haver melhora da população após várias gerações Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL modelo computacional: resumo do ciclo evolutivo Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Detalhando os operadores: seleção Ideia central: privilegiar os mais aptos sem zerar chances dos menos aptos Métodos mais usados: torneio e roleta Torneio: forma-se grupos de indivíduos e escolhe-se o mais apto do grupo Roleta (amostragem estocástica): indivíduos são selecionados por amostragem em uma roleta em que cada indivíduo ocupa uma fatia proporcional à sua aptidão relativa na população Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Detalhando os operadores: cruzamento (crossover) Ideia central: transmitir características genéticas aos descendentes Métodos mais usados: cruzamento de um ponto, multi pontos e uniforme Cruzamento de um ponto: um ponto é escolhido e o material genético dos pais é trocado para gerar os filhos Multi pontos: pontos distintos são escolhidos para troca do material Uniforme: para cada gene é determinada uma probabilidade de troca Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Detalhando os operadores: mutação Ideia central: alterar aleatoriamente os indivíduos para manter a diversidade genética e explorar novas regiões no espaço de buscas Método mais usado: alteração aleatória de um gene do genoma, geralmente invertendo um bit do cromossomo de um dos indivíduos também aleatoriamente escolhido Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Ajuste dos parâmetros genéticos Tamanho da população Taxa de cruzamento Taxa de mutação Taxa de elitismo Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL A função de aptidão É o ponto central para o funcionamento da técnica Geralmente é determinante no tempo global do algoritmo Associa um valor escalar a cada indivíduo, refletindo a qualidade relativa do mesmo dentro da população Se a função a ser otimizada é conhecida, a função de aptidão é a própria função a ser otimizada Em outros casos é uma métrica que reflita a qualidade. Ex: o tamanho do caminho (caixeiro viajante), a quantidade de regiões adjacentes de mesma cor (colorir mapas), etc. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exemplos de aplicações Maximização ou minimização de funções Problema do caixeiro viajante (otimização de roteamento) Elaboração de escalas de trabalho em ambientes de saúde Alocação de horários e professores em grades de ensino Definição de componentes de circuitos eletrônicos Recuperação de informação em documentos de texto Projeto de transformadores elétricos Planejamento de eventos (paraolimpíadas de Barcelona) Apoio às decisões táticas de batalhas Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercícios Deseja-se maximizar a função f(x) = 2x no domínio [0, 63]. a) Qual a melhor solução para o problema? b) Quantos bits irão compor os cromossomas? c) Que função será usada para avaliar a aptidão dos indivíduos? Marque como verdadeiro ou falso: ) a) A população inicial não pode ter grau de aleatoriedade b) A mutação combina indivíduos para formar novos indivíduos c) Os mais adaptados sempre participam do cruzamento d) O elitismo visa preservar a(s) melhor(es) solução(ões) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Diferenças entre os modelos Simbolista e Conexionista Modelos Simbolistas: Representam o conhecimento com algoritmos, regras, etc. Modelos Conexionistas: Não há representação do conhecimento Aprendem por meio de exemplos (treinamento) Armazenam o conhecimento nas conexões da rede Após treinadas o conhecimento armazenado não é interpretável Não justificam o raciocínio, pois decisões não são interpretáveis Possuem capacidade de generalizar o conhecimento aprendido Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Os modelos conexionistas Originalmente inspirados no funcionamento do cérebro Utilizam uma unidade básica chamada de neurônio artificial Juntam neurônios artificiais em conjuntos chamados de Redes Neurais (ou Neuronais) Neurônios artificiais ou nós da rede são conectados por ligações que possuem pesos ajustáveis O treinamento da rede consiste em um algoritmo de ajuste dos pesos, portanto, é nos pesos que, ao final do treinamento, se encontram as informações aprendidas. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Inspiração biológica O neurônio artificial é inspirado no neurônio biológico Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL O neurônio artificial é um modelo computacional x1, x2, ..., xp são os sinais de entrada; w1, w2, ..., wp são pesos aplicados aos sinais de entrada; Σ é a função somadora que gera “a” (entrada líquida); f(a) é a função de função de ativação do neurônio y é a saída do neurônio Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Função de ativação Determinam a forma e a intensidade da saída do neurônio Primeira FA proposta (McCullock-Pitts): função de limiar Funções de limiar: Unidades binárias (0 e 1 ou -1 e 1) Usada na primeira RN (Rosenblatt) com saídas -1 e 1 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Conectando neurônios em Redes Neurais Neurônios são conectados uns aos outros com alguma topologia onde as conexões ponderadas influenciam na transmissão dos estímulos de um neurônio para o outro. Redes mais usadas: redes diretas multicamadas (entrada saída) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Classificação das topologias: redes diretas Não possuem ciclos, propagando o sinal sempre para a frente Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Classificação das topologias: redes com ciclos A característica principal é que realimentam o sinal Com neurônios dinâmicos são redes recorrentes Com neurônios que competem pelo direito de produzir a saída são chamadas de redes competitivas Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Treinamentos supervisionados e não supervisionados Algoritmos de aprendizado podem ser: Supervisionados: são apresentados as entradas e as saídas correspondentes que se deseja que a rede produza. Esse conjunto constitui os padrões de treinamento. O ajuste dos pesos é feito a cada padrão entrada/saída para produzir a saída desejada. Usado em redes diretas. Não supervisionados: são apresentadas apenas entradas. As saídas correspondem às características de interesse dos padrões de entrada. Usado em redes competitivas. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Projeto da Rede Neural Parâmetros importantes a serem considerados: Topologia da rede Quantidade de camadas (redes diretas em camadas) Quantidade de neurônios Função de transferência Representação dos dados Dinâmica do aprendizado Condições de parada Não existe modelo ou procedimento sistemático Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes com função de limiar Com e sem polarização: Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Resolvendo um problema Com um neurônio desse tipo é possível resolver um problema de lógica booleana (porta lógica OU) : É um problema de classificação resolvível com a rede: Separação obedece à: E1 . w1 + E2 . w2 + w0 = 0 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Como descobrir os pesos O treinamento consiste em encontrar uma regra de atualização automática dos pesos A regra de Hebb tem essa característica e funciona para: Neurônios com função de limiar bipolar (-1 e 1) Pesos iniciam todos com 0 Wi novo = Wi antigo+ Wi Wi = Ei . d ; onde d é a saída desejada, W0 = b e E0 = 1 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Treinando com a regra de Hebb Aplicando a regra de Hebb teremos: Ao final, a rede ficou assim: Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercício: Considere a rede com neurônios de McCullochPitts ao lado: 1) Considere a rede com neurônios de McCullochPitts ao lado: Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar = 0. Qual é a função lógica emulada por esta rede? Apresente a saída da rede para cada possível combinação das entradas binárias, sabendo-se que cada neurônio z1, z2 e z3 possui o limiar = 0. Qual é a função lógica emulada por esta rede? Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercício: 1) Considere a rede com neurônios de McCullochPitts ao lado: Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar = 0. Qual é a função lógica emulada por esta rede? Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercício: 1) Considere a rede com neurônios de McCullochPitts ao lado: Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar = 0. Qual é a função lógica emulada por esta rede? Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercício: 1) Considere a rede com neurônios de McCullochPitts ao lado: Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar = 0. Qual é a função lógica emulada por esta rede? Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercício: 1) Considere a rede com neurônios de McCullochPitts ao lado: Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar = 0. Qual é a função lógica emulada por esta rede? Porta XOR Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Regra de treinamento Perceptron Função de ativação pode ter limiar 0. Fator de aprendizado regula as mudanças dos pesos Aplicando a regra de Perceptron teremos: Neurônios com função de limiar bipolar (-1 e 1) Pesos iniciam com valores aleatórios Wi novo = Wi antigo+ Wi Wi = . Ei . D y d; onde d é a saída desejada, W0 = b e E0 = 1 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Regra Perceptron Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Regra Perceptron Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes ADALINE (ADaptative LINear Element) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Rede ADALINE: exemplo do OR bipolar Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Limitações das redes de uma camada Lidam apenas com problemas linearmente separáveis: Ex: não é possível emular um uma porta XOR Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes PERCEPTRON de múltiplas camadas (MLP) Algoritmo de retropropagação dos erros (backpropagation): Apresentar um padrão (entrada + saída desejada) à rede; Calcular o erro na saída (saída obtida – saída desejada); Retropropagar o erro na rede calculando de que forma as mudanças nos pesos afetam o erro; Modificar os pesos para minimizar o erro médio dos padrões; Retornar ao passo 1 enquanto haja padrões; Se um erro máximo desejado não tiver sido atingido, retornar ao passo 1 para a próxima iteração. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes PERCEPTRON de múltiplas camadas (MLP) Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes PERCEPTRON de múltiplas camadas (MLP) Apresentar um padrão de entrada; Propagar o sinal para a frente, calculando as saídas; Calcular os ’s para os neurônios da camada de saída; Retropropagar o erro da saída calculando os ’s das camadas ocultas; Atualizar os pesos e retornar ao passo 1. Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Redes PERCEPTRON de múltiplas camadas (MLP) Alguns aspectos relevantes sobre a função de ativação a ser empregada, dadas as características do algoritmo: A função de ativação precisa ser diferenciável em todo o domínio; A função de ativação precisa ser não decrescente para que a sua derivada não troque de sinal comprometendo a convergência do algoritmo; Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Características praticas do treinamento backpropagation: Dados de treinamento x dados de validação Atualização dos pesos (a cada padrão ou batelada) Parada do treinamento Escolha dos pesos iniciais Termo de momento: Mínimos locais Atualização das taxas de aprendizado e de momento Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Exercícios sobre treinamento backpropagation: Dentre os padrões usados no treinamento, uma parte, conhecida como padrões de validação, é separada e não é usada para alterar os pesos da rede. Qual é o papel destes padrões durante o treinamento? Quais critérios são tipicamente utilizados para encerrar o treinamento? O que pode acarretar para a qualidade da rede treinada, o treinamento além do ponto desejado? Porque tal tipo de treinamento é chamado de treinamento supervisionado? Qual é a origem do nome do treinamento (Backpropagation)? Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Treinamento supervisionado X não supervisionado No treinamento não supervisionado: Padrões de treinamento possuem apenas entradas Padrões apresentados não possuem classificação conhecida Treinamento é direcionado para auto organizar os padrões de entrada semelhantes em grupos (clusters) Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Aplicações de redes não supervisionadas Problemas gerais de agrupamento, exemplos: Identificar grupos de clientes (marketing/vendas) Identificar problemas comuns de usuários (suporte) Estabelecer protótipo de comportamento de fraude (segurança corporativa) Análise de capacidade de pagamento (empréstimos) Identificação de potencial falimentar (finanças) Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Redes auto organizadas com aprendizado competitivo Neurônios competem entre si pelo direito de atualizar seus pesos Utilizadas para agrupamento de dados similares Aplicações: Extração de características Formação de clusters (agrupamentos) Redes desse tipo: ART, SOM Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Estrutura das redes competitivas Possuem uma só camada (camada de saída) As entradas (camada i) são ligadas diretamente nas saídas (camada j) por meio dos pesos wij Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Treinamento das redes competitivas Nós competem entre si pela atualização dos pesos Para cada padrão de entrada, apenas um nó é declarado vencedor e terá os pesos atualizados O nó vencedor é o mais representativo do cluster ao qual pertence aquele padrão de entrada. A representatividade é medida pela distância entre o vetor de pesos e o vetor de entrada. Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Estrutura das redes competitivas Durante o treinamento, a rede identifica o nó que melhor representa o padrão e ajusta-o um pouco Após a rede ser treinada, cada padrão de entrada pertence a um nó de saída que é representativo do grupo (cluster) a que ele pertence. Os pesos de um nó, após a rede treinada, são o protótipo dos elementos daquele agrupamento. Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Treinamento das redes competitivas Para cada padrão de entrada (vetor) é calculada a distância para cada nó (vetor de pesos do nó) O nó escolhido tem seus pesos ajustados para ficar ainda mais parecido com o padrão de entrada Padrões de entrada parecidos entre si terão o mesmo nó como vencedor e provocarão ajustes nos mesmos pesos Considere entradas com 3 valores (vetor tridimensional) e uma rede com 3 nós (vetor de pesos também com valores). A figura a seguir ilustra a situação inicial caso haja 19 padrões de entrada. Tema da Apresentação REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10 INTELIGÊNCIA ARTIFICIAL Redes auto organizáveis A distância entre o vetor de entrada e o vetor de pesos de cada nó pode ser medida usando: Produto escalar dos dois vetores (para vetores normalizados). Quanto maior o produto escalar, mais próximos estão os valores. Distância Euclidiana entre o vetor de pesos e o vetor de entrada (wk-x)2 Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen Padrões parecidos no espaço n-dimensional estarão próximos no espaço bi-dimensional. Tema da Apresentação INTELIGÊNCIA ARTIFICIAL AULA DE REVISÃO AV2 AULA DE REVISÃO AV2 INTELIGÊNCIA ARTIFICIAL Mapas auto organizáveis (ciclo de treinamento) Iniciar os pesos com valores aleatórios Definir o raio de vizinhança e a taxa de treinamento Repetir enquanto o critério deparada não for atingido: Para cada padrão de treinamento: Para cada neurônio: Calcular a saída dK de todos os neurônios Selecionar o neurônio nk com o menor dK Atualizar os pesos do neurônio nk e de seus vizinhos Tema da Apresentação MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8 INTELIGÊNCIA ARTIFICIAL Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen O neurônio vencedor e os seus vizinhos (definidos por algum raio) sofrem alterações nos pesos. Ajuste dos pesos é feito da seguinte forma: wij(t +1) = η (xi(t) - wij(t)) (yj é um nó da vizinhança do nó vencedor) Taxa de treinamento é ajustável Cria mapeamento em regiões do espaço bi-dimensional que aglutina indivíduos parecidos no espaço n-dimensional (mapa topológico). Tema da Apresentação *
Compartilhar