Buscar

revisaoav2

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

INTELIGÊNCIA ARTIFICIAL
Aula de Revisão para AV2
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conteúdo programático desta aula
Inspiração e princípios dos modelos evolucionários. 
Aplicações dos Algoritmos Genéticos. 
Parametrização dos operadores genéticos.
Características dos modelos conexionistas .
Topologias e aplicações das redes neurais.
Funcionamento das redes neurais de treinamento supervisionado.
Características das redes neurais auto organizadas. 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conceituando um problema de otimização
Encontrar o “ótimo” pode ser encontrar o máximo ou o mínimo
Ex: na função f(x)= -x2+3, podemos querer achar o “x” que maximiza f(x)
Para uma função de muitos parâmetros, temos f( x1, x2, x3,...xn) 
Função a otimizar: Função Objetivo
Intervalo de busca da solução: Espaço de Busca
Espaço de busca pode ter restrições. Ex:
Função objetivo: f(x,y) = x2 + y2 + 4
Restrições: 2x - 3y < 5 e x + y = 7.
Otimização combinatória: busca-se uma sequência ótima de valores
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Características que a função a otimizar pode apresentar
Mínimos locais
Estabilidade da função
Ex: função mono parâmetro
 f(x) = x sen (3 x)
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Soluções para problemas de otimização
Existem vários modelos matemáticos de otimização:
Métodos analíticos (ex: Newton-Raphson): usam cálculo diferencial e dependem das funções serem conhecidas, contínuas e diferenciáveis
Métodos de subida de encosta (ex: gradiente descendente, recozimento simulado, busca tabu): são métodos de buscas locais, em geral rápidos, mas sensíveis a mínimos locais 
Métodos heurísticos (ex: algoritmos genéticos, colônia de formigas e enxames de abelhas): são métodos que exploram de forma mais uniforme o espaço de busca, são robustos quanto a mínimos locais, mas em geral são mais lentos .
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: características
Possibilitam exploração simultânea (paralelizável) do espaço de busca;
Funcionam em espaços de busca contínuos ou discretos;
Não são sensíveis à existência de mínimos locais;
Capazes de descobrir várias soluções (útil para funções multi-modais);
Não impõem condições especiais (continuidade, existência de derivada);
Funcionam bem em espaços de busca com muitas dimensões;
Permitirem modelar restrições e otimizar simultaneamente múltiplas funções, mesmo que conflitantes; e,
São fáceis de implantar computacionalmente, não dependendo de compreensão do problema a ser otimizado e de sua modelagem.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: inspiração original 
Modelo computacional proposto por John Holland;
Inspirado na biologia evolutiva (A Origem das Espécies - Charles Darvin);
Ideia principal: seres mais adaptados têm mais chances de sobrevivência
Capacidade de adaptação determina a sobrevivência
Evolução das espécies se dá com mecanismos como:
Seleção dos mais aptos (seleção natural)
Recombinação genética (reprodução sexuada) 
Mutações aleatórias (mutação genética)
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: o modelo computacional 
Modela as soluções do problema como indivíduos de uma espécie;
Lida com um conjunto de soluções chamado de população;
Modela cada solução como uma cadeia de bits que representa o genoma;
Associa a cada solução uma medida de qualidade que reflete a capacidade do indivíduo em relação aos demais indivíduos da população;
A evolução se dá pela criação de sucessivas gerações de indivíduos onde novos indivíduos são criados aplicando os mecanismos genéticos de seleção natural, reprodução por combinação e mutação aleatória.
A evolução da população favorece o aparecimento de indivíduos mais adaptados, ou seja, de soluções otimizadas para o problema original.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Modelo computacional: 
Inicialmente é necessário criar uma representação para as soluções, chamado de cromossomo do indivíduo:
É uma cadeia de bits que representam os parâmetros da função
Pode conter valores discretos ou contínuos
É necessário estabelecer uma função de avaliação da aptidão de cada indivíduo que reflita a qualidade de cada solução/indivíduo
Estabelecer formas de aplicar os operadores genéticos de cruzamento e mutação para criação dos novos indivíduos
Estabelecer parâmetros de intensidade para aplicação dos operadores genéticos e critérios de parada para encerramento da evolução.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
modelo computacional: ciclo evolutivo
Criar aleatoriamente uma população inicial 
Enquanto o critério de parada não for satisfeito:
Associar grau de aptidão a cada indivíduo da população
Criar uma nova população baseada no grau de aptidão:
Inserir cópia de indivíduo muito apto na população do próximo ciclo
Recombinar dois indivíduos por cruzamento genético, formando dois novos indivíduos para o próximo ciclo.
Alterar a representação de um indivíduo em uma posição aleatória, gerando uma mutação genética desse indivíduo.
Indivíduo com maior aptidão é a melhor solução nesta geração
Critérios de parada possíveis: 
Melhor indivíduo atual ser satisfatório
Número máximo de gerações ter sido atingido
Tempo limite de processamento ter sido atingido
Não haver melhora da população após várias gerações
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
modelo computacional: resumo do ciclo evolutivo
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: seleção
Ideia central: privilegiar os mais aptos sem zerar chances dos menos aptos
Métodos mais usados: torneio e roleta
Torneio: forma-se grupos de indivíduos e escolhe-se o mais apto do grupo
Roleta (amostragem estocástica): indivíduos são selecionados por amostragem em uma roleta em que cada indivíduo ocupa uma fatia proporcional à sua aptidão relativa na população
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: cruzamento (crossover)
Ideia central: transmitir características genéticas aos descendentes
Métodos mais usados: cruzamento de um ponto, multi pontos e uniforme
Cruzamento de um ponto: um ponto é escolhido e o material genético dos pais é trocado para gerar os filhos
Multi pontos: pontos distintos são escolhidos para troca do material
Uniforme: para cada gene é determinada uma probabilidade de troca
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: mutação
Ideia central: alterar aleatoriamente os indivíduos para manter a diversidade genética e explorar novas regiões no espaço de buscas
Método mais usado: alteração aleatória de um gene do genoma, geralmente invertendo um bit do cromossomo de um dos indivíduos também aleatoriamente escolhido
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Ajuste dos parâmetros genéticos
Tamanho da população
Taxa de cruzamento
Taxa de mutação
Taxa de elitismo
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
A função de aptidão
É o ponto central para o funcionamento da técnica
Geralmente é determinante
no tempo global do algoritmo
Associa um valor escalar a cada indivíduo, refletindo a qualidade relativa do mesmo dentro da população
Se a função a ser otimizada é conhecida, a função de aptidão é a própria função a ser otimizada
Em outros casos é uma métrica que reflita a qualidade. Ex: o tamanho do caminho (caixeiro viajante), a quantidade de regiões adjacentes de mesma cor (colorir mapas), etc. 
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exemplos de aplicações
Maximização ou minimização de funções
Problema do caixeiro viajante (otimização de roteamento)
Elaboração de escalas de trabalho em ambientes de saúde
Alocação de horários e professores em grades de ensino
Definição de componentes de circuitos eletrônicos
Recuperação de informação em documentos de texto
Projeto de transformadores elétricos
Planejamento de eventos (paraolimpíadas de Barcelona)
Apoio às decisões táticas de batalhas 
 	 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercícios
Deseja-se maximizar a função f(x) = 2x no domínio [0, 63]. 
 a) Qual a melhor solução para o problema? 
 b) Quantos bits irão compor os cromossomas? 
 c) Que função será usada para avaliar a aptidão dos indivíduos? 
 Marque como verdadeiro ou falso:
 ) a) A população inicial não pode ter grau de aleatoriedade
 b) A mutação combina indivíduos para formar novos indivíduos
 c) Os mais adaptados sempre participam do cruzamento 
 d) O elitismo visa preservar a(s) melhor(es) solução(ões)
 	 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Diferenças entre os modelos Simbolista e Conexionista 
Modelos Simbolistas:
Representam o conhecimento com algoritmos, regras, etc.
Modelos Conexionistas:
Não há representação do conhecimento
Aprendem por meio de exemplos (treinamento)
Armazenam o conhecimento nas conexões da rede
Após treinadas o conhecimento armazenado não é interpretável
Não justificam o raciocínio, pois decisões não são interpretáveis
Possuem capacidade de generalizar o conhecimento aprendido 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Os modelos conexionistas 
Originalmente inspirados no funcionamento do cérebro
Utilizam uma unidade básica chamada de neurônio artificial
Juntam neurônios artificiais em conjuntos chamados de Redes Neurais (ou Neuronais)
Neurônios artificiais ou nós da rede são conectados por ligações que possuem pesos ajustáveis
O treinamento da rede consiste em um algoritmo de ajuste dos pesos, portanto, é nos pesos que, ao final do treinamento, se encontram as informações aprendidas.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Inspiração biológica 
O neurônio artificial é inspirado no neurônio biológico
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
O neurônio artificial é um modelo computacional
 
x1, x2, ..., xp são os sinais de entrada;
w1, w2, ..., wp são pesos aplicados aos sinais de entrada;
Σ é a função somadora que gera “a” (entrada líquida);
f(a) é a função de função de ativação do neurônio
y é a saída do neurônio
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Função de ativação 
 
Determinam a forma e a intensidade da saída do neurônio
Primeira FA proposta (McCullock-Pitts): função de limiar
Funções de limiar: Unidades binárias (0 e 1 ou -1 e 1)
Usada na primeira RN (Rosenblatt) com saídas -1 e 1
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conectando neurônios em Redes Neurais 
 
Neurônios são conectados uns aos outros com alguma topologia onde as conexões ponderadas influenciam na transmissão dos estímulos de um neurônio para o outro.
Redes mais usadas: 
 redes diretas
 multicamadas
 (entrada  saída)
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Classificação das topologias: redes diretas 
 
Não possuem ciclos, propagando o sinal sempre para a frente
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Classificação das topologias: redes com ciclos
 
A característica principal é que realimentam o sinal 
Com neurônios
dinâmicos são 
redes recorrentes
Com neurônios
que competem 
pelo direito de
produzir a saída
são chamadas de
redes competitivas 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Treinamentos supervisionados e não supervisionados 
 
Algoritmos de aprendizado podem ser:
Supervisionados: são apresentados as entradas e as saídas correspondentes que se deseja que a rede produza. Esse conjunto constitui os padrões de treinamento. O ajuste dos pesos é feito a cada padrão entrada/saída para produzir a saída desejada. Usado em redes diretas.
Não supervisionados: são apresentadas apenas entradas. As saídas correspondem às características de interesse dos padrões de entrada. Usado em redes competitivas.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Projeto da Rede Neural 
 
Parâmetros importantes a serem considerados:
Topologia da rede
Quantidade de camadas (redes diretas em camadas)
Quantidade de neurônios
Função de transferência
Representação dos dados
Dinâmica do aprendizado
Condições de parada
Não existe modelo ou procedimento sistemático
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes com função de limiar 
 
Com e sem polarização:
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Resolvendo um problema
 
Com um neurônio desse tipo é possível resolver um problema de lógica booleana (porta lógica OU) :
É um problema de classificação resolvível com a rede:
Separação obedece à: E1 . w1 + E2 . w2 + w0 = 0 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Como descobrir os pesos
 
O treinamento consiste em encontrar uma regra de atualização automática dos pesos
A regra de Hebb tem essa característica e funciona para:
Neurônios com função de limiar bipolar (-1 e 1)
Pesos iniciam todos com 0
Wi novo = Wi antigo+ Wi
Wi = Ei . d	; 	onde d é a saída desejada,
				W0 = b e E0 = 1
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Treinando com a regra de Hebb
 
Aplicando a regra de Hebb teremos:
Ao final, a rede ficou assim: 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
 
Considere a rede com neurônios de McCullochPitts ao lado:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar  = 0. Qual é a função lógica emulada por esta rede? 
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendo-se que cada neurônio z1, z2 e z3 possui o limiar = 0. 
Qual é a função lógica emulada por esta rede? 
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
 
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio
z1, z2 e z3 possui o patamar  = 0. Qual é a função lógica emulada por esta rede? 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
 
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar  = 0. Qual é a função lógica emulada por esta rede? 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
 
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar  = 0. Qual é a função lógica emulada por esta rede? 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
 
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar  = 0. Qual é a função lógica emulada por esta rede? 
 Porta XOR
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra de treinamento Perceptron
 
Função de ativação pode ter limiar   0.
Fator de aprendizado  regula as mudanças dos pesos
Aplicando a regra de Perceptron teremos:
Neurônios com função de limiar bipolar (-1 e 1)
Pesos iniciam com valores aleatórios
Wi novo = Wi antigo+ Wi
Wi =  . Ei . D  y  d; 	onde d é a saída desejada,
				W0 = b e E0 = 1
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra Perceptron
 
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra Perceptron
 
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes ADALINE (ADaptative LINear Element)
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Rede ADALINE: exemplo do OR bipolar
 
 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Limitações das redes de uma camada 
Lidam apenas com problemas linearmente separáveis:
Ex: não é possível emular um uma porta XOR
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
Algoritmo de retropropagação dos erros (backpropagation):
Apresentar um padrão (entrada + saída desejada) à rede;
Calcular o erro na saída (saída obtida – saída desejada);
Retropropagar o erro na rede calculando de que forma as mudanças nos pesos afetam o erro;
Modificar os pesos para minimizar o erro médio dos padrões;
Retornar ao passo 1 enquanto haja padrões;
Se um erro máximo desejado não tiver sido atingido, retornar ao passo 1 para a próxima iteração.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
Apresentar um padrão de entrada;
Propagar o sinal para a frente, calculando as saídas; 
Calcular os ’s para os neurônios da camada de saída;
Retropropagar o erro da saída calculando os ’s das camadas ocultas;
Atualizar os pesos e retornar ao passo 1.
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
Alguns aspectos relevantes sobre a função de ativação a ser empregada, dadas as características do algoritmo:
A função de ativação precisa ser diferenciável em todo o domínio;
A função de ativação precisa ser não decrescente para que a sua derivada não troque de sinal comprometendo a convergência do algoritmo;
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Características praticas do treinamento backpropagation: 
Dados de treinamento x dados de validação
Atualização dos pesos (a cada padrão ou batelada)
Parada do treinamento
Escolha dos pesos iniciais
Termo de momento: 
Mínimos locais
Atualização das taxas de aprendizado e de momento 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercícios sobre treinamento backpropagation: 
Dentre os padrões usados no treinamento, uma parte, conhecida como padrões de validação, é separada e não é usada para alterar os pesos da rede. Qual é o papel destes padrões durante o treinamento? 
Quais critérios são tipicamente utilizados para encerrar o treinamento? 
O que pode acarretar para a qualidade da rede treinada, o treinamento além do ponto desejado? 
Porque tal tipo de treinamento é chamado de treinamento supervisionado? 
Qual é a origem do nome do treinamento (Backpropagation)? 
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Treinamento supervisionado X não supervisionado 
No treinamento não supervisionado:
Padrões de treinamento possuem apenas entradas 
Padrões apresentados não possuem classificação conhecida
Treinamento é direcionado para auto organizar os padrões de entrada semelhantes em grupos (clusters)
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Aplicações de redes não supervisionadas 
Problemas gerais de agrupamento, exemplos:
Identificar grupos de clientes (marketing/vendas)
Identificar problemas comuns de usuários (suporte)
Estabelecer protótipo de comportamento de fraude (segurança corporativa)
Análise de capacidade de pagamento (empréstimos)
Identificação de potencial falimentar (finanças)
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Redes auto organizadas com aprendizado competitivo
Neurônios competem entre si pelo direito de atualizar seus pesos
Utilizadas para agrupamento de dados similares
Aplicações:
Extração de características
Formação de clusters (agrupamentos)
Redes desse tipo: ART, SOM
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Estrutura das redes competitivas
Possuem uma só camada (camada de saída) 
As entradas (camada i) são ligadas diretamente nas saídas (camada j) por meio dos pesos wij
 
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Treinamento das redes competitivas
Nós competem entre si pela atualização dos pesos 
Para cada padrão de entrada, apenas um nó é declarado vencedor e terá os pesos atualizados
O nó vencedor é o mais representativo do cluster ao qual pertence aquele padrão de entrada.
A representatividade é medida pela distância entre o vetor de pesos e o vetor de entrada. 
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Estrutura das redes competitivas
Durante o treinamento, a rede identifica o nó que melhor representa o padrão e ajusta-o um pouco
Após a rede ser treinada, cada padrão de entrada pertence a um nó de saída que é representativo do grupo (cluster) a que ele pertence. 
Os pesos de um nó, após a rede treinada, são o protótipo dos elementos daquele agrupamento.
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA
ARTIFICIAL
Treinamento das redes competitivas
Para cada padrão de entrada (vetor) é calculada a distância para cada nó (vetor de pesos do nó)
O nó escolhido tem seus pesos ajustados para ficar ainda mais parecido com o padrão de entrada
Padrões de entrada parecidos entre si terão o mesmo nó como vencedor e provocarão ajustes nos mesmos pesos
Considere entradas com 3 valores (vetor tridimensional) e uma rede com 3 nós (vetor de pesos também com valores). A figura a seguir ilustra a situação inicial caso haja 19 padrões de entrada.
Tema da Apresentação
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Redes auto organizáveis
A distância entre o vetor de entrada e o vetor de pesos de cada nó pode ser medida usando:
Produto escalar dos dois vetores (para vetores normalizados). Quanto maior o produto escalar, mais próximos estão os valores.
Distância Euclidiana entre o vetor de pesos e o vetor de entrada  (wk-x)2 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen
Padrões parecidos no espaço n-dimensional estarão próximos no espaço bi-dimensional. 
Tema da Apresentação
INTELIGÊNCIA ARTIFICIAL
AULA DE REVISÃO AV2
AULA DE REVISÃO AV2
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (ciclo de treinamento)
Iniciar os pesos com valores aleatórios
Definir o raio de vizinhança e a taxa de treinamento
Repetir enquanto o critério deparada não for atingido:
Para cada padrão de treinamento:
Para cada neurônio:
Calcular a saída dK de todos os neurônios
Selecionar o neurônio nk com o menor dK
Atualizar os pesos do neurônio nk e de seus vizinhos 
Tema da Apresentação
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen
O neurônio vencedor e os seus vizinhos (definidos por algum raio) sofrem alterações nos pesos.
	Ajuste dos pesos é feito da seguinte forma:
 wij(t +1) = η (xi(t) - wij(t)) 
 (yj é um nó da vizinhança do nó vencedor)
Taxa de treinamento  é ajustável 
Cria mapeamento em regiões do espaço bi-dimensional que aglutina indivíduos parecidos no espaço n-dimensional (mapa topológico).
Tema da Apresentação
*

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Outros materiais