Buscar

Inteligência Artificial - Revisão Av2

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 60 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

INTELIGÊNCIA ARTIFICIAL
Aula de Revisão para AV2
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conteúdo programático desta aula
 Inspiração e princípios dos modelos evolucionários. 
 Aplicações dos Algoritmos Genéticos. 
 Parametrização dos operadores genéticos.
 Características dos modelos conexionistas .
 Topologias e aplicações das redes neurais.
 Funcionamento das redes neurais de treinamento supervisionado.
 Características das redes neurais auto organizadas. 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conceituando um problema de otimização
• Encontrar o “ótimo” pode ser encontrar o máximo ou o mínimo
• Ex: na função f(x)= -x2+3, podemos querer achar o “x” que maximiza f(x)
• Para uma função de muitos parâmetros, temos f( x1, x2, x3,...xn)
• Função a otimizar: Função Objetivo
• Intervalo de busca da solução: Espaço de Busca
• Espaço de busca pode ter restrições. Ex:
• Função objetivo: f(x,y) = x2 + y2 + 4
• Restrições: 2x - 3y < 5 e x + y = 7.
• Otimização combinatória: busca-se uma sequência ótima de valores
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Características que a função a otimizar pode apresentar
• Mínimos locais
• Estabilidade da função
• Ex: função mono parâmetro
f(x) = x sen (3 x)
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Soluções para problemas de otimização
• Existem vários modelos matemáticos de otimização:
• Métodos analíticos (ex: Newton-Raphson): usam cálculo diferencial e 
dependem das funções serem conhecidas, contínuas e diferenciáveis
• Métodos de subida de encosta (ex: gradiente descendente, 
recozimento simulado, busca tabu): são métodos de buscas locais, em 
geral rápidos, mas sensíveis a mínimos locais 
• Métodos heurísticos (ex: algoritmos genéticos, colônia de formigas e 
enxames de abelhas): são métodos que exploram de forma mais 
uniforme o espaço de busca, são robustos quanto a mínimos locais, 
mas em geral são mais lentos .
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: características
• Possibilitam exploração simultânea (paralelizável) do espaço de busca;
• Funcionam em espaços de busca contínuos ou discretos;
• Não são sensíveis à existência de mínimos locais;
• Capazes de descobrir várias soluções (útil para funções multi-modais);
• Não impõem condições especiais (continuidade, existência de derivada);
• Funcionam bem em espaços de busca com muitas dimensões;
• Permitirem modelar restrições e otimizar simultaneamente múltiplas 
funções, mesmo que conflitantes; e,
• São fáceis de implantar computacionalmente, não dependendo de 
compreensão do problema a ser otimizado e de sua modelagem.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: inspiração original 
• Modelo computacional proposto por John Holland;
• Inspirado na biologia evolutiva (A Origem das Espécies - Charles Darvin);
• Ideia principal: seres mais adaptados têm mais chances de sobrevivência
• Capacidade de adaptação determina a sobrevivência
• Evolução das espécies se dá com mecanismos como:
• Seleção dos mais aptos (seleção natural)
• Recombinação genética (reprodução sexuada) 
• Mutações aleatórias (mutação genética)
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Algoritmos Genéticos: o modelo computacional 
• Modela as soluções do problema como indivíduos de uma espécie;
• Lida com um conjunto de soluções chamado de população;
• Modela cada solução como uma cadeia de bits que representa o genoma;
• Associa a cada solução uma medida de qualidade que reflete a 
capacidade do indivíduo em relação aos demais indivíduos da população;
• A evolução se dá pela criação de sucessivas gerações de indivíduos onde 
novos indivíduos são criados aplicando os mecanismos genéticos de 
seleção natural, reprodução por combinação e mutação aleatória.
• A evolução da população favorece o aparecimento de indivíduos mais 
adaptados, ou seja, de soluções otimizadas para o problema original.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Modelo computacional: 
• Inicialmente é necessário criar uma representação para as soluções, 
chamado de cromossomo do indivíduo:
• É uma cadeia de bits que representam os parâmetros da função
• Pode conter valores discretos ou contínuos
• É necessário estabelecer uma função de avaliação da aptidão de cada 
indivíduo que reflita a qualidade de cada solução/indivíduo
• Estabelecer formas de aplicar os operadores genéticos de cruzamento e 
mutação para criação dos novos indivíduos
• Estabelecer parâmetros de intensidade para aplicação dos operadores 
genéticos e critérios de parada para encerramento da evolução.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
modelo computacional: ciclo evolutivo
1. Criar aleatoriamente uma população inicial 
2. Enquanto o critério de parada não for satisfeito:
• Associar grau de aptidão a cada indivíduo da população
• Criar uma nova população baseada no grau de aptidão:
• Inserir cópia de indivíduo muito apto na população do próximo 
ciclo
• Recombinar dois indivíduos por cruzamento genético, formando 
dois novos indivíduos para o próximo ciclo.
• Alterar a representação de um indivíduo em uma posição aleatória, 
gerando uma mutação genética desse indivíduo.
• Indivíduo com maior aptidão é a melhor solução nesta geração
3. Critérios de parada possíveis: 
• Melhor indivíduo atual ser satisfatório
• Número máximo de gerações ter sido atingido
• Tempo limite de processamento ter sido atingido
• Não haver melhora da população após várias gerações
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
modelo computacional: resumo do ciclo evolutivo
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: seleção
• Ideia central: privilegiar os mais aptos sem zerar chances dos menos aptos
• Métodos mais usados: torneio e roleta
• Torneio: forma-se grupos de indivíduos 
e escolhe-se o mais apto do grupo
• Roleta (amostragem estocástica): 
indivíduos são selecionados por 
amostragem em uma roleta em que 
cada indivíduo ocupa uma fatia 
proporcional à sua aptidão relativa na 
população
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: cruzamento (crossover)
• Ideia central: transmitir características genéticas aos descendentes
• Métodos mais usados: cruzamento de um ponto, multi pontos e uniforme
• Cruzamento de um ponto: um ponto é escolhido e o material genético 
dos pais é trocado para gerar os filhos
• Multi pontos: pontos distintos são escolhidos para troca do material
• Uniforme: para cada gene é determinada uma probabilidade de troca
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Detalhando os operadores: mutação
• Ideia central: alterar aleatoriamente os indivíduos para manter a 
diversidade genética e explorar novas regiões no espaço de buscas
• Método mais usado: alteração aleatória de um gene do genoma, 
geralmente invertendo um bit do cromossomo de um dos indivíduos 
também aleatoriamente escolhido
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Ajuste dos parâmetros genéticos
• Tamanho da população
• Taxa de cruzamento
• Taxa de mutação
• Taxa de elitismo
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
A função de aptidão
• É o ponto central para o funcionamento da técnica
• Geralmenteé determinante no tempo global do algoritmo
• Associa um valor escalar a cada indivíduo, refletindo a 
qualidade relativa do mesmo dentro da população
• Se a função a ser otimizada é conhecida, a função de aptidão 
é a própria função a ser otimizada
• Em outros casos é uma métrica que reflita a qualidade. Ex: o 
tamanho do caminho (caixeiro viajante), a quantidade de 
regiões adjacentes de mesma cor (colorir mapas), etc. 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exemplos de aplicações
1. Maximização ou minimização de funções
2. Problema do caixeiro viajante (otimização de roteamento)
3. Elaboração de escalas de trabalho em ambientes de saúde
4. Alocação de horários e professores em grades de ensino
5. Definição de componentes de circuitos eletrônicos
6. Recuperação de informação em documentos de texto
7. Projeto de transformadores elétricos
8. Planejamento de eventos (paraolimpíadas de Barcelona)
9. Apoio às decisões táticas de batalhas
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercícios
1. Deseja-se maximizar a função f(x) = 2x no domínio [0, 63].
a) Qual a melhor solução para o problema?
b) Quantos bits irão compor os cromossomas?
c) Que função será usada para avaliar a aptidão dos indivíduos?
2. Marque como verdadeiro ou falso:
) a) A população inicial não pode ter grau de aleatoriedade
b) A mutação combina indivíduos para formar novos indivíduos
c) Os mais adaptados sempre participam do cruzamento
d) O elitismo visa preservar a(s) melhor(es) solução(ões)
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Diferenças entre os modelos Simbolista e Conexionista 
• Modelos Simbolistas:
• Representam o conhecimento com algoritmos, regras, etc.
• Modelos Conexionistas:
• Não há representação do conhecimento
• Aprendem por meio de exemplos (treinamento)
• Armazenam o conhecimento nas conexões da rede
• Após treinadas o conhecimento armazenado não é interpretável
• Não justificam o raciocínio, pois decisões não são interpretáveis
• Possuem capacidade de generalizar o conhecimento aprendido 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Os modelos conexionistas 
• Originalmente inspirados no funcionamento do cérebro
• Utilizam uma unidade básica chamada de neurônio artificial
• Juntam neurônios artificiais em conjuntos chamados de 
Redes Neurais (ou Neuronais)
• Neurônios artificiais ou nós da rede são conectados por 
ligações que possuem pesos ajustáveis
• O treinamento da rede consiste em um algoritmo de ajuste 
dos pesos, portanto, é nos pesos que, ao final do 
treinamento, se encontram as informações aprendidas.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Inspiração biológica 
• O neurônio artificial é inspirado no neurônio biológico
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
O neurônio artificial é um modelo computacional
• x1, x2, ..., xp são os sinais de entrada;
• w1, w2, ..., wp são pesos aplicados aos sinais de entrada;
• Σ é a função somadora que gera “a” (entrada líquida);
• f(a) é a função de função de ativação do neurônio
• y é a saída do neurônio
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Função de ativação 
• Determinam a forma e a intensidade da saída do neurônio
• Primeira FA proposta (McCullock-Pitts): função de limiar
• Funções de limiar: Unidades binárias (0 e 1 ou -1 e 1)
• Usada na primeira RN (Rosenblatt) com saídas -1 e 1
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Conectando neurônios em Redes Neurais 
• Neurônios são conectados uns aos outros com alguma 
topologia onde as conexões ponderadas influenciam na 
transmissão dos estímulos de um neurônio para o outro.
• Redes mais usadas: 
redes diretas
multicamadas
(entrada  saída)
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Classificação das topologias: redes diretas 
• Não possuem ciclos, propagando o sinal sempre para a frente
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Classificação das topologias: redes com ciclos
• A característica principal é que realimentam o sinal 
Com neurônios
dinâmicos são 
redes recorrentes
Com neurônios
que competem 
pelo direito de
produzir a saída
são chamadas de
redes competitivas
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Treinamentos supervisionados e não supervisionados 
• Algoritmos de aprendizado podem ser:
• Supervisionados: são apresentados as entradas e as saídas 
correspondentes que se deseja que a rede produza. Esse 
conjunto constitui os padrões de treinamento. O ajuste 
dos pesos é feito a cada padrão entrada/saída para 
produzir a saída desejada. Usado em redes diretas.
• Não supervisionados: são apresentadas apenas entradas. 
As saídas correspondem às características de interesse 
dos padrões de entrada. Usado em redes competitivas.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Projeto da Rede Neural 
• Parâmetros importantes a serem considerados:
• Topologia da rede
• Quantidade de camadas (redes diretas em camadas)
• Quantidade de neurônios
• Função de transferência
• Representação dos dados
• Dinâmica do aprendizado
• Condições de parada
• Não existe modelo ou procedimento sistemático
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes com função de limiar 
• Com e sem polarização:
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Resolvendo um problema
• Com um neurônio desse tipo é possível resolver um problema 
de lógica booleana (porta lógica OU) :
• É um problema de classificação resolvível com a rede:
• Separação obedece à: E1 . w1 + E2 . w2 + w0 = 0 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Como descobrir os pesos
• O treinamento consiste em encontrar uma regra de 
atualização automática dos pesos
• A regra de Hebb tem essa característica e funciona para:
• Neurônios com função de limiar bipolar (-1 e 1)
• Pesos iniciam todos com 0
• Wi novo = Wi antigo+ Wi
• Wi = Ei . d ; onde d é a saída desejada,
W0 = b e E0 = 1
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Treinando com a regra de Hebb
• Aplicando a regra de Hebb teremos:
• Ao final, a rede ficou assim: 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
Considere a rede 
com neurônios de 
McCulloch Pitts ao 
lado:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar
Apresente a saída da rede para cada possível combinação das 
entradas binárias, sabendo-se que cada neurônio z1, z2 e z3 
possui o limiar = 0. 
Qual é a função lógica emulada por esta rede? 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar
x1 x2 U1 y1 U2 y2 u3 y3
0 0
0 1
1 0
1 1
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2e z3 possui o patamar
x1 x2 U1 y1 U2 y2 u3 y3
0 0 0+0-1=-1 0 0+0-3=-3 0 0+0-1=-1 0
0 1 0+2-1=1 1 0+2-3=-1 0 2+0-1=1 1
1 0 2+0-1=1 1 2+0-3=-1 0 2+0-1=1 1
1 1 2+2-1=3 1 2+2-3=1 1 2-2-1=-1 0
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar
x1 x2 U1 y1 U2 y2 u3 y3
0 0 0
0 1 1
1 0 1
1 1 0
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercício:
1) Considere a rede com neurônios de McCullochPitts ao lado:
Apresente a saída da rede para cada possível combinação das entradas binárias, sabendose que cada neurônio z1, z2 e z3 possui o patamar
x1 x2 U1 y1 U2 y2 u3 y3
0 0 0
0 1 1
1 0 1
1 1 0
Porta XOR
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra de treinamento Perceptron
• Função de ativação pode ter limiar   0.
• Fator de aprendizado  regula as mudanças dos pesos
• Aplicando a regra de Perceptron teremos:
• Neurônios com função de limiar bipolar (-1 e 1)
• Pesos iniciam com valores aleatórios
• Wi novo = Wi antigo+ Wi
• Wi =  . Ei . D  y  d; onde d é a saída desejada,
W0 = b e E0 = 1
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra Perceptron
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Regra Perceptron
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes ADALINE (ADaptative LINear Element)
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Rede ADALINE: exemplo do OR bipolar
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Limitações das redes de uma camada 
• Lidam apenas com problemas linearmente separáveis:
• Ex: não é possível emular um uma porta XOR
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
• Algoritmo de retropropagação dos erros (backpropagation):
1. Apresentar um padrão (entrada + saída desejada) à rede;
2. Calcular o erro na saída (saída obtida – saída desejada);
3. Retropropagar o erro na rede calculando de que forma as 
mudanças nos pesos afetam o erro;
4. Modificar os pesos para minimizar o erro médio dos padrões;
5. Retornar ao passo 1 enquanto haja padrões;
6. Se um erro máximo desejado não tiver sido atingido, 
retornar ao passo 1 para a próxima iteração.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
1. Apresentar um padrão de entrada;
2. Propagar o sinal para a frente, calculando as saídas; 
3. Calcular os ’s para os neurônios da camada de saída;
4. Retropropagar o erro da saída calculando os ’s das 
camadas ocultas;
5. Atualizar os pesos e retornar ao passo 1.
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Redes PERCEPTRON de múltiplas camadas (MLP) 
Alguns aspectos relevantes sobre a função de ativação a ser 
empregada, dadas as características do algoritmo:
1. A função de ativação precisa ser diferenciável em todo o 
domínio;
2. A função de ativação precisa ser não decrescente para que a 
sua derivada não troque de sinal comprometendo a 
convergência do algoritmo;
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Características praticas do treinamento backpropagation: 
• Dados de treinamento x dados de validação
• Atualização dos pesos (a cada padrão ou batelada)
• Parada do treinamento
• Escolha dos pesos iniciais
• Termo de momento: 
• Mínimos locais
• Atualização das taxas de aprendizado e de momento 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Exercícios sobre treinamento backpropagation: 
1. Dentre os padrões usados no treinamento, uma parte, 
conhecida como padrões de validação, é separada e não é 
usada para alterar os pesos da rede. Qual é o papel destes 
padrões durante o treinamento? 
2. Quais critérios são tipicamente utilizados para encerrar o 
treinamento? 
3. O que pode acarretar para a qualidade da rede treinada, o 
treinamento além do ponto desejado? 
4. Porque tal tipo de treinamento é chamado de treinamento 
supervisionado? 
5. Qual é a origem do nome do treinamento (Backpropagation)? 
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Treinamento supervisionado X não supervisionado 
• No treinamento não supervisionado:
• Padrões de treinamento possuem apenas entradas
• Padrões apresentados não possuem classificação 
conhecida
• Treinamento é direcionado para auto organizar os 
padrões de entrada semelhantes em grupos 
(clusters)
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Aplicações de redes não supervisionadas 
• Problemas gerais de agrupamento, exemplos:
• Identificar grupos de clientes (marketing/vendas)
• Identificar problemas comuns de usuários (suporte)
• Estabelecer protótipo de comportamento de fraude 
(segurança corporativa)
• Análise de capacidade de pagamento (empréstimos)
• Identificação de potencial falimentar (finanças)
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Redes auto organizadas com aprendizado competitivo
• Neurônios competem entre si pelo direito de 
atualizar seus pesos
• Utilizadas para agrupamento de dados similares
• Aplicações:
• Extração de características
• Formação de clusters (agrupamentos)
• Redes desse tipo: ART, SOM
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Estrutura das redes competitivas
• Possuem uma só camada (camada de saída) 
• As entradas (camada i) são ligadas diretamente 
nas saídas (camada j) por meio dos pesos wij
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Treinamento das redes competitivas
• Nós competem entre si pela atualização dos pesos 
• Para cada padrão de entrada, apenas um nó é 
declarado vencedor e terá os pesos atualizados
• O nó vencedor é o mais representativo do cluster
ao qual pertence aquele padrão de entrada.
• A representatividade é medida pela distância
entre o vetor de pesos e o vetor de entrada. 
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Estrutura das redes competitivas
• Durante o treinamento, a rede identifica o nó que 
melhor representa o padrão e ajusta-o um pouco
• Após a rede ser treinada, cada padrão de entrada 
pertence a um nó de saída que é representativo 
do grupo (cluster) a que ele pertence. 
• Os pesos de um nó, após a rede treinada, são o 
protótipo dos elementos daquele agrupamento.
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Treinamento das redes competitivas
• Para cada padrão de entrada (vetor) é calculada a 
distância para cada nó (vetor de pesos do nó)
• O nó escolhido tem seus pesos ajustados para ficar ainda 
mais parecido com o padrão de entrada
• Padrões de entrada parecidos entre si terão o mesmo nó 
como vencedor e provocarão ajustes nos mesmos pesos
• Considere entradas com 3 valores (vetor tridimensional) 
e uma rede com 3nós (vetor de pesos também com 
valores). A figura a seguir ilustra a situação inicial caso 
haja 19 padrões de entrada.
REDES NEURAIS AUTO ORGANIZADAS DE TREINAMENTO NÃO SUPERVISIONADO – AULA 10
INTELIGÊNCIA ARTIFICIAL
Redes auto organizáveis
• A distância entre o vetor de entrada e o vetor de 
pesos de cada nó pode ser medida usando:
• Produto escalar dos dois vetores (para vetores 
normalizados). Quanto maior o produto 
escalar, mais próximos estão os valores.
• Distância Euclidiana entre o vetor de pesos e o 
vetor de entrada  (wk-x)
2
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen
• Padrões parecidos no espaço n-dimensional 
estarão próximos no espaço bi-dimensional. 
INTELIGÊNCIA ARTIFICIAL
AULA DE REVISÃO AV2AULA DE REVISÃO AV2
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (ciclo de treinamento)
1. Iniciar os pesos com valores aleatórios
2. Definir o raio de vizinhança e a taxa de treinamento
3. Repetir enquanto o critério deparada não for atingido:
• Para cada padrão de treinamento:
• Para cada neurônio:
• Calcular a saída dK de todos os neurônios
• Selecionar o neurônio nk com o menor dK
• Atualizar os pesos do neurônio nk e de seus vizinhos 
MODELOS CONEXIONISTAS E REDES NEURAIS – AULA 8
INTELIGÊNCIA ARTIFICIAL
Mapas auto organizáveis (SOM-Self Organized Maps): Kohonen
• O neurônio vencedor e os seus vizinhos (definidos 
por algum raio) sofrem alterações nos pesos.
• Ajuste dos pesos é feito da seguinte forma:
wij(t +1) = η (xi(t) - wij(t)) 
(yj é um nó da vizinhança do nó vencedor)
• Taxa de treinamento  é ajustável 
• Cria mapeamento em regiões do espaço bi-
dimensional que aglutina indivíduos parecidos no 
espaço n-dimensional (mapa topológico).

Outros materiais