Buscar

LeandroAntonioPasa-TESE

Prévia do material em texto

UNIVERSIDADE DO RIO GRANDE DO NORTEFEDERAL
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE
CENTRO DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E
DE COMPUTAÇÃO
Contribuição ao Estudo de Fusão de Mapas
Auto Organizáveis de Kohonen com Ponderação
por meio de Índices de Validação de
Agrupamentos
Leandro Antonio Pasa
Orientador: Prof. Dr. José Alfredo Ferreira Costa
Tese de Doutorado apresentada ao Pro-
grama de Pós-Graduação em Engenharia
Elétrica e da Computação da UFRN (área de
concentração: Engenharia de Computação)
como parte dos requisitos para obtenção do
título de Doutor em Ciências.
Número de ordem PPgEEC: D163
Natal, RN, Fevereiro de 2016.
Seção de Informação e Referência
Catalogação da publicação na fonte. UFRN / Biblioteca Central Zila Mamede
Pasa, Leandro Antonio.
Contribuição ao Estudo de Fusão de Mapas Auto Organizáveis de Kohonen
com Ponderação por meio de Índices de Validação de Agrupamentos / Leandro
Antonio Pasa. - Natal, 2016.
95 f.: il.
Orientador: José Alfredo Ferreira Costa.
Tese (Doutorado em Engenharia Elétrica e de Computação) - Universidade
Federal do Rio Grande do Norte. Centro de Tecnologia - Programa de Pós-
Graduação em Engenharia Elétrica e de Computação.
1. Comitês de máquinas - Tese. 2. Mapas auto-organizáveis de Kohonen -
Tese. 3. Índice de validação de agrupamentos - Tese. I. Costa, José Alfredo
Ferreira. II. Título.
RN/UF/BCZM CDU 621.3:004
Contribuição ao Estudo de Fusão de Mapas
Auto Organizáveis de Kohonen com Ponderação
por meio de Índices de Validação de
Agrupamentos
Leandro Antonio Pasa
Tese de Doutorado aprovada em 19 de fevereiro de 2016 pela banca examinadora com-
posta pelos seguintes membros:
Este trabalho é dedicado à querida
Carine e ao querido Eduardo.
Agradecimentos
A Deus, pela força e iluminação sempre presentes em nossas vidas.
A minha esposa Carine, pelo apoio, amor, paciência e compreensão durante a realização
deste trabalho.
À minha família, pelo apoio durante esta jornada, principalmente à minha mãe Teresinha
(sempre presente) e ao meu pai Evaristo, que sempre incentivaram os seus filhos a estudar.
Ao meu orientador, Professor José Alfredo Ferreira Costa, pela amizade e por comparti-
lhar seus conhecimentos, me orientando neste caminho.
Ao amigo Marcial Guerra de Medeiros, pela amizade, estímulo, contribuições fundamen-
tais e todo o tempo dedicado para auxiliar neste trabalho.
Ao amigo Fábio Augusto Procópio de Paiva, pela amizade e pelas sugestões para este
trabalho.
À Universidade Tecnológica Federal do Paraná, pelo apoio e tempo concedidos para a
realização deste trabalho.
Resumo
A quantidade de informações coletadas e armazenadas cresce a cada dia nas mais
diversas áreas do conhecimento e técnicas de mineração de dados são aplicadas a estes
conjuntos de dados com o objetivo de extrair conhecimento útil. A utilização de um ou
outro algoritmo, ou o mesmo algoritmo com diferentes atributos pode levar a diferentes
resultados, devido à diversidade dos conjuntos de dados. Na busca por soluções eficientes
para este problema, foram desenvolvidos métodos de comitês de máquinas. Um comitê
de máquinas é um conjunto de redes neurais trabalhando independentemente cujos resul-
tados são combinados em uma única saída, alcançando uma melhor generalização do que
cada uma das redes trabalhando separadamente. A proposta deste trabalho é desenvolver
um novo método para comitês de mapas de Kohonen, em que a combinação (fusão) dos
mapas seja ponderada por índices de validação de agrupamentos, que seja válido para
combinação de mapas de tamanhos iguais e mapas de tamanhos diferentes. O algoritmo
proposto foi testado em variados conjuntos de dados provenientes do repositório UCI e
do Conjunto de Problemas Fundamentais de Agrupamento. As simulações computaci-
onais demonstram que o método proposto neste trabalho é capaz de alcançar resultados
promissores, conseguindo elevar a performance em comparação com um único mapa de
Kohonen.
Palavras-chave: Comitês de máquinas, Mapas auto-organizáveis de Kohonen, Índice
de validação de agrupamentos.
Abstract
The amount of collected and stored information is growing every day in several areas
of knowledge and data mining techniques are applied to these datasets in order to extract
useful knowledge. One or another algorithm, or the same algorithm with different attri-
butes, can lead to different results due to the dataset diversity. To solve this problem,
machines committees methods were developed. A machine committee is a set of neural
networks working independently and the results are combined into a single output, achi-
eving a better generalization. The purpose of this work is to develop a new method for
Kohonen maps ensemble, where the maps fusion is weighted by cluster validation indi-
ces and is suitable for equal size maps fusion and for different size maps fusion. The
proposed algorithm has been tested in multiple data sets from the UCI Machine Learning
Repository and Fundamental Clustering Problems Suite. Computer simulations show the
proposed method is able to reach encouraging results, obtaining raising performance com-
pared with a single Kohonen map.
Keywords: Machine committee, Kohonen Self Organizing Maps, Cluster validity
index.
Sumário
Sumário i
Lista de Figuras iii
Lista de Tabelas v
List of Algorithms vi
1 Introdução 1
1.1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Organização do documento . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Fundamentação Teórica 5
2.1 Mapas Auto-organizáveis de Kohonen . . . . . . . . . . . . . . . . . . . 5
2.1.1 Treinamento do Mapa . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Índices de Validação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 O índice de Dunn . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.2 O índice de Calinski e Harabasz . . . . . . . . . . . . . . . . . . 9
2.2.3 O índice Davies-Bouldin . . . . . . . . . . . . . . . . . . . . . . 10
2.2.4 O índice PBM . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 O índice CDbw . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Modificação de índices de validação . . . . . . . . . . . . . . . . . . . . 14
2.4 Comitês de máquinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Construção de um comitê de máquinas . . . . . . . . . . . . . . 16
2.4.2 Algumas aplicações de comitês de máquinas . . . . . . . . . . . 18
2.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3 Materiais e Métodos 21
3.1 Fusão de mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . 21
3.1.1 Seleção e dos candidatos . . . . . . . . . . . . . . . . . . . . . . 22
i
3.1.2 Equações de fusão . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Experimento fatorial . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Abordagens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.5 Algoritmo proposto . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Fusão de mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . 27
3.2.1 Estrutura com 7 mapas . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 30
3.2.3 Validação Cruzada . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3 Medida de performance . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Teste estatístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Resultados 37
4.1 Conjunto de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1 Estrutura com7 mapas . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.2 Estrutura com 49 mapas . . . . . . . . . . . . . . . . . . . . . . 51
4.3.3 Estrutura de fusão com validação cruzada . . . . . . . . . . . . . 58
4.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5 Conclusão 63
5.1 Considerações finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.1.1 Mapas de tamanhos iguais . . . . . . . . . . . . . . . . . . . . . 64
5.1.2 Mapas de tamanhos diferentes . . . . . . . . . . . . . . . . . . . 64
5.2 Trabalhos futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Publicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Referências bibliográficas 67
Apêndice A Conjuntos de dados utilizados 73
Apêndice B Trabalhos publicados 75
Lista de Figuras
2.1 Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011) 6
2.2 Atualização do BMU e vizinhos. (Vesanto, 2002) . . . . . . . . . . . . . 7
2.3 Diagrama do cálculo do índice de Dunn. . . . . . . . . . . . . . . . . . . 9
2.4 Diagrama do cálculo do índice Davies-Bouldin. . . . . . . . . . . . . . . 10
2.5 Estrutura de um comitê de méquinas. (Coelho, 2006) . . . . . . . . . . . 15
3.1 Visão geral do processo. . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Seleção e combinação dos mapas. . . . . . . . . . . . . . . . . . . . . . 23
3.3 Estrutura do experimento fatorial. . . . . . . . . . . . . . . . . . . . . . 24
3.4 Abordagens para a fusão dos mapas. . . . . . . . . . . . . . . . . . . . . 25
3.5 Estrutura com 7 mapas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Estrutura com 49 mapas. . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.1 Acurácia média para mapas de tamanhos iguais. . . . . . . . . . . . . . . 41
4.2 Acurácia para mapas iguais - BC Wisconsin. . . . . . . . . . . . . . . . . 42
4.3 Acurácia para mapas iguais - Chainlink. . . . . . . . . . . . . . . . . . . 42
4.4 Acurácia para mapas iguais - Column. . . . . . . . . . . . . . . . . . . . 42
4.5 Acurácia para mapas iguais - Engytime. . . . . . . . . . . . . . . . . . . 42
4.6 Acurácia para mapas iguais - Heart. . . . . . . . . . . . . . . . . . . . . 43
4.7 Acurácia para mapas iguais - Ionosphere. . . . . . . . . . . . . . . . . . 43
4.8 Acurácia para mapas iguais - Iris. . . . . . . . . . . . . . . . . . . . . . . 43
4.9 Acurácia para mapas iguais - Lsun. . . . . . . . . . . . . . . . . . . . . . 43
4.10 Acurácia para mapas iguais - Pimaindians. . . . . . . . . . . . . . . . . . 43
4.11 Acurácia para mapas iguais - Seeds. . . . . . . . . . . . . . . . . . . . . 43
4.12 Acurácia para mapas iguais - Tetra. . . . . . . . . . . . . . . . . . . . . . 44
4.13 Acurácia para mapas iguais - Wine. . . . . . . . . . . . . . . . . . . . . 44
4.14 Acurácia para mapas iguais - Two diamonds. . . . . . . . . . . . . . . . 44
4.15 Acurácia para mapas iguais - Wingnut. . . . . . . . . . . . . . . . . . . . 44
4.16 Acurácia para 7 mapas diferentes - BC Wisconsin. . . . . . . . . . . . . . 49
4.17 Acurácia para 7 mapas diferentes - Chainlink. . . . . . . . . . . . . . . . 49
iii
4.18 Acurácia para 7 mapas diferentes - Column. . . . . . . . . . . . . . . . . 49
4.19 Acurácia para 7 mapas diferentes - Engytime. . . . . . . . . . . . . . . . 49
4.20 Acurácia para 7 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 50
4.21 Acurácia para 7 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 50
4.22 Acurácia para 7 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 50
4.23 Acurácia para 7 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 50
4.24 Acurácia para 7 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . . 50
4.25 Acurácia para 7 mapas diferentes - PimaIndians. . . . . . . . . . . . . . . 50
4.26 Acurácia para 7 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . . 51
4.27 Acurácia para 7 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 51
4.28 Acurácia para 7 mapas diferentes - Two Diamonds. . . . . . . . . . . . . 51
4.29 Acurácia para 7 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 51
4.30 Acurácia para 7 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . . 51
4.31 Acurácia para 49 mapas diferentes - BC Wisconsin. . . . . . . . . . . . . 56
4.32 Acurácia para 49 mapas diferentes - Chainlink. . . . . . . . . . . . . . . 56
4.33 Acurácia para 49 mapas diferentes - Column. . . . . . . . . . . . . . . . 56
4.34 Acurácia para 49 mapas diferentes - Engytime. . . . . . . . . . . . . . . 56
4.35 Acurácia para 49 mapas diferentes - Heart. . . . . . . . . . . . . . . . . . 57
4.36 Acurácia para 49 mapas diferentes - Hepatitis. . . . . . . . . . . . . . . . 57
4.37 Acurácia para 49 mapas diferentes - Ionosphere. . . . . . . . . . . . . . . 57
4.38 Acurácia para 49 mapas diferentes - Iris. . . . . . . . . . . . . . . . . . . 57
4.39 Acurácia para 49 mapas diferentes - Lsun. . . . . . . . . . . . . . . . . . 57
4.40 Acurácia para 49 mapas diferentes - PimaIndians. . . . . . . . . . . . . . 57
4.41 Acurácia para 49 mapas diferentes - Seeds. . . . . . . . . . . . . . . . . 58
4.42 Acurácia para 49 mapas diferentes - Tetra. . . . . . . . . . . . . . . . . . 58
4.43 Acurácia para 49 mapas diferentes - Two Diamonds. . . . . . . . . . . . 58
4.44 Acurácia para 49 mapas diferentes - Wine. . . . . . . . . . . . . . . . . . 58
4.45 Acurácia para 49 mapas diferentes - Wingnut. . . . . . . . . . . . . . . . 58
4.46 Acurácia com validação cruzada estratificada. . . . . . . . . . . . . . . . 61
A.1 Conjunto de dados UCI. . . . . . . . . . . . . . . . . . . . . . . . . . . 73
A.2 Conjunto de dados do FCPS. (Ultsch, 2005) . . . . . . . . . . . . . . . . 74
Lista de Tabelas
4.1 Conjuntos de dados utilizados. . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Resultados da fusão de mapas de tamanhos iguais . . . . . . . . . . . . . 40
4.3 Resultados da fusão de 7 mapas com a Equação 3.1 . . . . . . . . . . . . 46
4.4 Resultados da fusão de 7 mapas com a Equação 3.2 . . . . . . . . . . . . 47
4.5 Resultados da fusão de 7 mapas com a Equação 3.3 . . . . . . . . . . . . 48
4.6 Resultados das fusões para os 49 mapas com a Equação 3.1 . . . . . . . . 53
4.7 Resultados das fusões para os 49 mapas com a Equação 3.2 . . . . . . . 54
4.8 Resultados das fusões para os 49 mapas com a Equação 3.3 . . . . . . . . 55
4.9 Resultados para a validação cruzada estratificada . . . . . . . . . . . . . 60
v
Lista de Algoritmos
1 FUSÃO DE MAPAS DE TAMANHOS IGUAIS . . . . . . . . . . . . . . . . . 26
2 FUSÃO DE 7 MAPAS DE TAMANHOS DIFERENTES . . . . . . . . . . . . . 29
3 FUSÃO DE 49 MAPAS DE TAMANHOS DIFERENTES . . . . . . . . . . . . 31
4 FUSÃO ATRAVÉS DA VALIDAÇÃO CRUZADA . . . . . . . . . . . . . . . . 33
5 TESTE DE WILCOXON . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
vii
Capítulo 1
Introdução
Em várias áreas do conhecimento, cresce a cada dia a quantidade de informações
coletadas e armazenadas e devido ao volume e dimensionalidade, estes dados acabam
ficando sem uma análise e interpretação adequadas.
A diversidade de características dos conjuntos de dados pode fazer com que a utiliza-
ção de um ou outro algoritmo de agrupamento, ou o mesmo algoritmo, mas com diferen-
tes atributos, resulte em diferentes resultados. O aumento do desempenho de sistemas de
classificação, agrupamentos e análise de dados é uma busca constante em Mineração de
Dados e áreas correlatas.
Algoritmos novos ou variações de algoritmos já existentes são publicados na litera-
tura constantemente. Algoritmos não supervisionados são empregados quando não há um
conhecimento prévio sobre a estrutura e a distribuição do conjunto de dados. Dentre os
algoritmos não supervisionados, destaca-se a Rede de Kohonen, com aprendizado com-
petitivo e não supervisionado, capaz de projetar um mapa bidimensional de um conjunto
multidimensional de dados, preservando as relações topológicas destes dados.
Na buscapor soluções eficientes na exploração do conhecimento embutido nas massas
de dados, foram criados métodos de comitês de máquinas (ensemble), onde combinam-
se os resultados de várias redes neurais artificiais em um só. Esta abordagem tem sido
muito explorada, pois trata-se de uma técnica simples e que pode aumentar o poder de
generalização das redes neurais.
A combinação de múltiplos componentes é vantajosa, uma vez que componentes di-
ferentes podem implicitamente representar aspectos distintos e, ao mesmo tempo, rele-
vantes para a solução de um dado problema. Esta técnica é capaz de fornecer um melhor
resultado do que cada componente individualmente.
Duas características são fundamentais para o bom desempenho de um comitê de má-
quinas: diversidade de resultados e erros descorrelacionados dos componentes. É preciso
que os componentes do comitê apresentem resultados diferentes, pois de nada adianta
2 CAPÍTULO 1. INTRODUÇÃO
combinar soluções iguais. Também é necessário que os erros apresentados pelos compo-
nentes sejam independentes uns dos outros, pois não há ganho para o comitê se os todos
os componentes, por exemplo, errarem a mesma classificação de um padrão de entrada.
Para os mapas auto-organizáveis de Kohonen (Kohonen Self-Organizing Maps - SOM)
(Kohonen, 1982), erros descorrelacionados podem ser obtidos, por exemplo, utilizando
diferentes conjuntos de treinamento ou variando parâmetros de treinamento para cada
rede neural. A combinação das saídas dos mapas SOM em uma única saída pode ser feita
a partir da fusão dos neurônios dos mapas que compõem o comitê de máquinas.
1.1 Motivação
Tanto a abordagem de comitês de máquinas quanto o uso de Mapas Auto Organi-
záveis de Kohonen têm sido muito explorados nos últimos anos. Comitês de máquinas
são relativamente simples em seu conceito e complexos em sua implementação, mas são
capazes de aumentar a capacidade de generalização de um modelo. As Redes de Koho-
nen trabalham com dados multidimensionais, projetando-os em um mapa bidimensional,
preservando a topologia dos dados.
A motivação deste trabalho é desenvolver um novo método para combinação de mapas
de Kohonen que empregue a ponderação por índices de validação de agrupamentos, com
o objetivo de aumentar a acurácia desse método em relação a uma única rede de Kohonen.
1.2 Objetivos
A proposta deste trabalho é apresentar um método para fusão de Mapas de Kohonen
por meio de comitês de máquinas e com ponderação por índices de validação de agrupa-
mentos.
Os objetivos específicos desta pesquisa são:
1. Propor uma metodologia para implementar o comitê de máquinas de mapas de
Kohonen de tamanhos iguais e de tamanhos diferentes;
2. Verificar a influência da quantidade de hits e BMUs no resultado final do comitê de
máquinas;
3. Verificar a eficácia em empregar índices de validação de agrupamentos na seleção
de componentes do comitê de máquinas.
1.3. ORGANIZAÇÃO DO DOCUMENTO 3
1.3 Organização do documento
Este documento está organizado da seguinte forma: no Capítulo 1 é apresentada uma
breve descrição da proposta desta tese, bem como os aspectos que motivaram o seu de-
senvolvimento e os objetivos. No Capítulo 2 os conceitos principais que serão utilizados
neste trabalho são descritos e são apresentados alguns trabalhos relacionados. No Capí-
tulo 3 é apresentada a proposta para a fusão de mapas de Kohonen de tamanhos iguais e de
tamanhos diferentes. No Capítulo 4 são apresentados os resultados obtidos na aplicação
dos algoritmos propostos para a fusão de mapas de Kohonen. Por fim, no Capítulo 5 são
apresentadas as conclusões e os trabalhos futuros.
4 CAPÍTULO 1. INTRODUÇÃO
Capítulo 2
Fundamentação Teórica
Neste capítulo são apresentados os conceitos utilizados no desenvolvimento deste tra-
balho. Uma visão geral sobre mapas auto organizáveis de Kohonen é vista na Seção 2.1.
Já na Seção 2.2, são apresentadas descrições simplificadas de alguns índices de validação
e na Seção 2.3 temos a modificação dos índices de validação modificados para uso com o
SOM. Ao final, na Seção 2.4 temos uma introdução aos métodos de comitês de máquinas.
2.1 Mapas Auto-organizáveis de Kohonen
Os mapas auto-organizáveis de Kohonen (Self-Organizing Maps - SOM) (Kohonen,
1982) tornaram-se um modelo de rede neural muito popular. Constituem uma rede neural
artificial, com aprendizado competitivo e não supervisionado, que realiza uma projeção
não-linear de um espaço de entrada ℜp, sendo p >> 2, em uma grade de neurônios dis-
postos em um arranjo, normalmente, bidimensional, tendo apenas duas camadas: uma de
entrada de dados e outra de saída de dados.
As entradas da rede x são vetores no espaço p-dimensional. Os neurônios i da camada
de saída são conectados a todas as entradas da rede, representados por um vetor de pesos
sinápticos no espaço p-dimensional, wi = [wi1,wi2, ...,wip]T . Estes neurônios são conec-
tados aos neurônios adjacentes por uma relação de vizinhança que descreve a estrutura
topológica do mapa. A Figura 2.1 mostra um diagrama representativo da arquitetura da
Rede de Kohonen.
Na fase de treinamento, em uma sequência aleatória, os padrões de entrada x são
comparados com os neurônios da camada de saída. O neurônio vencedor, chamado de
BMU (Best Match Unit), representa o vetor peso com a menor distância, usualmente a
Euclidiana, em relação ao padrão de entrada x.
Chamando o neurônio vencedor de c, ele pode ser formalmente definido de acordo
com a Equação 2.1.
6 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
Figura 2.1: Diagrama esquemático bidimensional da Rede de Kohonen. (Mattos, 2011)
‖x−wc‖= argmini‖x−wi‖ (2.1)
Os pesos do neurônio vencedor são ajustados de acordo com a Equação 2.2, junta-
mente com os pesos dos neurônios vizinhos.
wi (t +1) = wi (t)+α(t)hci (t) [x(t)−wi (t)] (2.2)
Onde t indica a iteração (ou época), x(t) é o padrão de entrada, hci(t) é a função de
vizinhança, centrada no neurônio vencedor ix, enquanto que α(t) é a taxa de aprendizado,
com valores entre 0 e 1.
Na Figura 2.2 é ilustrado o processo de atualização de pesos do neurônio vencedor e
sua vizinhança. As linhas sólidas correspondem à situação antes da atualização dos pesos
e as linhas tracejadas mostram a mudança devido à aproximação do BMU e seus vizinhos
do padrão de entrada x. Os círculos escuros e claros representam, respectivamente, os
neurônios antes e depois do ajuste dos pesos.
2.1.1 Treinamento do Mapa
São duas as maneiras de treinamento de um Mapa de Kohonen: treinamento se-
quencial e treinamento em lote. O processo de treinamento sequencial dos mapas auto-
organizáveis consiste em três etapas, segundo Haykin (2001):
1. Competição: a cada padrão de entrada que é apresentado para a rede, os neurônios
da camada de saída competem entre si, (esta competição é baseada em uma medida
de similaridade), Geralmente a menor distância euclidiana entre os pesos sinápticos
dos neurônios e o padrão de entrada determinará o único vencedor (BMU).
2.1. MAPAS AUTO-ORGANIZÁVEIS DE KOHONEN 7
Figura 2.2: Atualização do BMU e vizinhos. (Vesanto, 2002)
2. Cooperação: escolhido o neurônio vencedor, este torna-se o centro de uma vizi-
nhança topológica de neurônios excitados.
3. Adaptação: os neurônios da vizinhança topológica determinada na fase de coo-
peração têm seus pesos sinápticos ajustados, de maneira que os neurônios mais
próximos ao BMU sofrem ajustes maiores do que os neurônios mais distantes.
A função gaussiana é utilizada para descrever a influência do BMU sobre seus vizi-
nhos (atualização dos pesos sinápticos), pois apresenta um significado biológico coerente:
o neurônio ativado tende a excitar com maior intensidade os neurônios na sua vizinhança
imediata e decai suavemente com a distância lateral (Haykin, 2001). A Equação 2.3 mos-
tra como é calculada a excitação do neurônio j, em relação ao neurônio vencedor i, sendo
d ji a distância entre eles (normalmente, a distância euclidiana é utilizada).
hi j = exp
(
−
d2i j
2σ2
)
(2.3)
Com o fim do processo de aprendizagem, os vetores de código do SOMconstituem
uma aproximação não-linear dos padrões de entrada. O processo busca manter a preser-
vação topológica dos padrões, isto é, padrões próximos no conjunto de entrada da rede
permanecerão relacionados a neurônios próximos na grade de saída.
O processo de treinamento em lote difere do treinamento sequencial por apresentar
todos os vetores de entrada para a rede. de uma única vez. Assim, não é necessário o
parâmetro taxa de aprendizagem, α(t), da Equação 2.2 e também não se faz necessária
aleatoriedade para a apresentação dos vetores de entrada.
Na próxima seção, serão apresentados os índices de validação de agrupamentos utili-
zados como ponderação na fusão dos mapas de Kohonen.
8 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
2.2 Índices de Validação
Devido às diferentes geometrias e dimensionalidades dos conjuntos de dados, não
existe um algoritmo único que possa agrupar, de forma não supervisionada, um conjunto
de dados qualquer. Os índices de validação são necessários para avaliar e validar os
resultados destes algoritmos de agrupamentos, auxiliando na tomada de decisão quanto à
definição da quantidade correta, ou natural, de grupos formados a partir de um conjunto
de dados.
Existe, na literatura, uma variedade muito grande de índices de validação de agrupa-
mentos, cada um com características próprias para aplicação em conjuntos de dados com
determinadas características. Alguns aplicam-se à conjuntos de dados que apresentam boa
separação entre os agrupamentos, outros se destinam a dados de alta dimensionalidade,
outros não apresentam boa resposta na presença de ruídos. Para cada tipo de aplicação,
um método para validar os agrupamentos foi desenvolvido.
Na validação de agrupamentos podem ser abordados três critérios: o externo, o interno
e o relativo (Theodoridis e Koutroumbas, 2009).
No critério externo a estrutura dos grupos é avaliada em termos de uma estrutura
independente, imposta ao conjunto de dados a priori.
No critério interno a estrutura dos grupos é avaliada em base em informações estatís-
ticas dos dados de cada grupo (por exemplo, a matriz de proximidade).
No critério relativo a estrutura dos grupos é avaliada por comparação com outras es-
truturas de agrupamentos, resultantes da aplicação do mesmo algoritmo (mas com parâ-
metros com diferentes valores), ou comparada com outros algoritmos de agrupamentos.
Como exemplos de índices de validação que utilizam critérios relativos, temos: o
índice de Dunn, o índice de Calinski e Harabasz o índice Davies-Bouldin, o índice PBM
e o índice CDbw. Nas seções 2.2.1, 2.2.3 e 2.2.5 estes índices serão explicados.
2.2.1 O índice de Dunn
O índice de Dunn (Dunn, 1973) é calculado pela razão entre a mínima distância entre
dois pontos pertencentes a dois diferentes grupos (δ(Ci,C j)) e a máxima distância entre
dois pontos pertencentes ao mesmo grupo (∆(Ck)), como ilustra a Figura 2.3. É adequado
para conjunto de dados que possuam grupos compactos e bem separados. É sensível a
ruídos, pois eles interferem no cálculo do diâmetro do grupo, e seu custo computacional
é elevado.
2.2. ÍNDICES DE VALIDAÇÃO 9
Figura 2.3: Diagrama do cálculo do índice de Dunn.
Fonte: Elaborada pelo autor.
O seu cálculo é mostrado na Equação 2.4
D = min
1≤i≤c
{
min
1≤ j≤c,i 6= j
{
δ(Ci,C j)
max1≤k≤c ∆(Ck)
}}
(2.4)
No artigo de Bezdec (Bezdek e Pal, 1998) são propostas generalizações do Índice de
Dunn, para melhor adequação às diferentes geometrias dos agrupamentos. Estas generali-
zações são obtidas pelas variações nos cálculos dos diâmetros dos grupos e das distâncias
entre grupos.
Valores elevados para o Índice de Dunn indicam a existência de grupos compactos
(diâmetro pequeno) e bem separados (distâncias grandes entre os grupos).
2.2.2 O índice de Calinski e Harabasz
O índice de Calinski e Harabasz (Calinski e Harabasz, 1974) avalia a quantidade de
grupos presentes em um conjunto de dados por meio de medidas de dispersão entre e intra
grupos. O seu cálculo é mostrado na Equação 2.5.
CH(k) =
B(k)/(k−1)
W (k)(n− k)
(2.5)
Onde:
• k indica a quantidade de grupos no conjunto de dados.
• n é a quantidade de pontos no conjunto.
• B(k) é a dispersão entre os grupos.
• W (k) é a soma das dispersões intra-grupos.
O número de ótimo de grupos é o valor de k que maximiza a função 2.5.
10 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
2.2.3 O índice Davies-Bouldin
O índice Davies-Bouldin (Davies e Bouldin, 1979) é uma função da razão entre a
soma da dispersão interna dos grupos e a separação entre eles. Na Figura 2.4, as linhas
vermelhas no interior do grupo Ci, ilustram a dispersão interna, enquanto a linha verde
que une os centroides dos grupos Ci e C j representa a separação entre eles.
Figura 2.4: Diagrama do cálculo do índice Davies-Bouldin.
Fonte: Elaborada pelo autor.
A dispersão interna de um grupo é dada pela Equação 2.6:
S (Ci) =
1
c ∑
c∈Ci
‖x− ci‖ (2.6)
Onde:
• c indica a quantidade de elementos do grupo.
• ci representa o centroide do grupo.
• x representa cada ponto do grupo.
• ‖.‖ é a distância Euclidiana.
A separação entre os grupos é dada pela distância Euclidiana entre os centroides dos
grupos, como mostra a Equação 2.7:
δ
(
Ci,C j
)
=
∥∥ci,c j∥∥ (2.7)
Por fim, a Equação 2.8 calcula o índice Davies-Bouldin
DB =
1
k
k
∑
i=1
i6= j
max
S (Ci)+S
(
C j
)
δ
(
Ci,C j
) (2.8)
Onde k é o número de agrupamentos, S representa a dispersão interna do agrupa-
mento (distância intra-grupos), com relação ao centroide e δ corresponde à distância inter-
2.2. ÍNDICES DE VALIDAÇÃO 11
grupos, baseada nos centroides.
Valores pequenos para o Índice Davies-Bouldin indicam grupos compactos cujos cen-
tros estão bem separados entre si. O valor de k que minimiza o índice representará o valor
mais provável do número real de grupos no conjunto de dados. Este índice não depende
do número de grupos no conjunto de dados e nem do algoritmo utilizado para formar estes
grupos.
2.2.4 O índice PBM
O índice PBM (Pakhira et al., 2004), (acrônimo formado pelas iniciais dos autores
Pakhira, Bandyopadhyay and Maulik), baseia-se em compactação de grupos e separação
entre grupos. A compactação é medida pela soma das distâncias entre cada ponto do
grupo e seu centroide. A separação entre os grupos é medida pela máxima distância entre
dois centroides.
PBM(k) =
(
1
k
· E1
Ek
·Dk
)2
(2.9)
Onde:
• k indica a quantidade de grupos.
• E1 é a soma das distâncias entre cada ponto de um grupo e o centroide desse grupo.
• Ek é a soma das distâncias entre cada ponto e o centroide do conjunto de dados.
• Dk é a máxima distância entre dois quaisquer centroides de grupos.
Maximizando este índice, obtem-se o número ótimo de grupos em um conjunto de
dados.
2.2.5 O índice CDbw
Em Halkidi e Vazirgiannis (2008), foi proposto um índice de validação de agrupamen-
tos chamado CDbw (Composing Density Between and With clusters). Este índice CDbw
ajusta-se bem a geometrias não esféricas dos dados por considerar multi-representantes
por grupos e não apenas o centroide, podendo ser aplicado a conjuntos de dados com alta
dimensionalidade. Para um conjunto de dados particionados em c agrupamentos, define-
se um conjunto de pontos representativos Vi = {vi1,vi2, ...,vir} para o agrupamento i,
sendo que r representa o número de pontos de representação do agrupamento i.
Os representantes de cada grupo são assim determinados: na 1a iteração escolhe-se o
ponto mais distante do centro. Nas seguintes iterações escolhe-se o ponto mais distante
12 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
do ponto escolhido previamente. Isso resulta em um conjunto de pontos r que representa
a periferia, ou contorno, do grupo. O critério de parada é definido empiricamente, ou seja,
escolhe-se previamente o número de representantes de cada grupo (Halkidi e Vazirgiannis,
2008).
Este índice de validação baseia-se na densidade intra-grupos e na separação entre os
grupos, conforme a Equação 2.10.
CDbw(c) = DensIntra(c)×Sep(c) (2.10)
Sendo DensIntra(c) a densidade intra-grupos e Sep(c) a separação entre os grupos. A
densidadeintra-grupos é definida como o número de pontos que pertencem à vizinhança
dos pontos que representam os grupos r. A densidade intra-grupos é alta para grupos bem
separados.
DensIntra(c) =
1
c
c
∑
i=1
1
ri
ri
∑
i=1
density(vi j),c > 1 (2.11)
Onde:
• c é o número de grupos.
• ri é número de pontos representativos.
• vi j é j-ésima a representação do agrupamento i.
Sendo a densidade:
density(vi j) =
ni
∑
l=1
f (xl,vi j) (2.12)
Onde:
• xl pertence ao i-ésimo agrupamento.
• ri é número de pontos representativos.
• vi j é j-ésima a representação do agrupamento i.
O termo do somatório é definido da seguinte maneira:
f (xl,vi j)i j =
1, se
∥∥xl− vi j∥∥≤ stdev,
0, se caso contrario.
Aqui, stdev corresponde à média dos desvios padrões de cada um dos c agrupamentos
(desvio padrão dos pontos do grupo até o centroide deste grupo).
2.2. ÍNDICES DE VALIDAÇÃO 13
A densidade inter-grupos é definida como a densidade nas áreas entre os grupos. Essa
densidade deve ser baixa quando temos grupos compactos e bem separados.
DensInter(c) =
c
∑
i=1
c
∑
j=1
∥∥close repi− close rep j∥∥
(‖stdev(i)‖+‖stdev( j)‖)
·density(ui j),c > 1 (2.13)
Onde:
• close repi− close rep j representam o par de pontos de representação mais próxi-
mos entre o agrupamento i e j.
• ui j é o ponto médio entre este par de pontos.
Sendo esta densidade:
density(ui j) =
ni+n j
∑
k=1
f (xk,ui j) (2.14)
Sendo xk o vetor de entrada que pertence ao grupo i ou j. Já o termo do somatório é
assim definido:
f (xk,ui j) =
1, se ‖x− v‖ ≤ 12 × (‖stdev(i)‖+‖stdev( j)‖),0, caso contrario.
A separação entre agrupamentos leva em conta a distância inter-grupos e a densidade
inter-grupos.
Sep(c) =
c
∑
i=1
c
∑
j=1
j 6=i
∥∥close repi− close rep j∥∥
1+ Inter den(c)
,c > 1 (2.15)
Assim, o índice de validação de agrupamentos CDbw é dado por pela equação 2.10.
O número ideal de grupos é indicado quando o valor do CDbw atinge o valor máximo,
independente do algoritmo utilizado para o agrupamento dos dados.
Este índice adapta-se bem a grupos com as mais variadas formas geométricas, uma
vez que usa vários vetores representativos para cada grupo e não somente o centroide.
Na seção seguinte será mostrada a modificação no cálculo dos índices de validação de
agrupamentos, adaptados para uso com os mapas de Kohonen, proposto em (Gonçalves,
2009).
14 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
2.3 Modificação de índices de validação
Devido à alta complexidade computacional exigida no cálculo dos índices de vali-
dação de agrupamentos, Gonçalves (2009) propôs em sua Tese de doutoramento uma
modificação nos cálculos dos índices de validação, para aplicá-los em conjuntos de dados
de imagens de sensoriamento remoto que, por sua natureza, são bastante volumosos.
O autor modificou alguns índices de validação através da quantização vetorial produ-
zida pelo SOM. Assim, não foram utilizados os padrões originais e sim os vetores de pesos
sinápticos dos neurônios do SOM nos cálculos destes índices. Desta forma, diminui-se a
quantidade de dados e, consequentemente, a complexidade computacional para o cálculo
do índice de validação.
Para contornar possíveis diferenças de valores entre o cálculo do índice considerando
todos os dados e considerando apenas os protótipos, o autor também propôs que fossem
utilizados os níveis de atividade conjuntamente com os vetores de pesos sinápticos. O
nível de atividade significa a quantidade de padrões de entrada que foram associados a
cada protótipo pelo processo de mapeamento do SOM.
A modificação proposta no cálculo dos índices pode ser compreendida através de um
exemplo no cálculo de distância entre dois agrupamentos CI e C j:
δi, j =
1
|Ci|
∣∣C j∣∣∑x∈Ci
y∈C j
d (x,y) (2.16)
Na Equação 2.16, d (x,y) é uma medida de distância e |Ci|e
∣∣C j∣∣ referem-se à quanti-
dade de elementos dos grupos Ci e C j, respectivamente.
Quando a quantidade de elementos do grupo é elevada, a complexidade computacio-
nal é elevada. A Equação 2.17 mostra a modificação do cálculo através da metodologia
proposta em (Gonçalves, 2009) :
δ
SOM
i, j =
1
|Ci|
∣∣C j∣∣ ∑wi∈Wi
w j∈Wj
h(wi) ·h
(
w j
)
·d
(
wi,w j
)
(2.17)
Onde Wi e Wj são os conjuntos de protótipos do SOM que representam os grupos Ci
e C j, respectivamente, d (x,y) é a mesma medida de distância da Equação 2.16, h(wi) é
o nível de atividade do protótipo wi pertencente a Wi e h
(
w j
)
é o nível de atividade do
protótipo w j pertencente a Wj.
Assim o cálculo da distância apresenta um custo computacional mais baixo, uma vez
2.4. COMITÊS DE MÁQUINAS 15
que as quantidades envolvidas, Wi e Wj, são menores do que Ci e C j.
Com a inclusão dos níveis de atividades h(.) dos protótipos no cálculo, obtém-se
uma minimização dos erros causados pela quantização vetorial que o Mapa de Kohonen
produz, já que introduz no cálculo a aproximação da densidade de pontos no espaço de
entrada ora representados pelos protótipos.
Na sequência, os comitês de máquinas são introduzidos, abordando aspectos relativos
à geração, seleção e combinação dos componentes destes comitês.
2.4 Comitês de máquinas
Um comitê de máquinas, ou ensemble, pode ser visto como uma coleção de redes
neurais artificiais individuais, que possuem diversidade entre si e que levam à uma maior
capacidade de generalização do que quando trabalhando em separado (Dietterich, 2000).
Cada componente atua independentemente dos outros e gera uma solução que é com-
binada pelo comitê, produzindo uma única saída. A Figura 2.5 mostra a estrutura geral de
um comitê de máquinas.
Figura 2.5: Estrutura de um comitê de méquinas. (Coelho, 2006)
O estudo de comitês de máquinas iniciou com o trabalho de Hansen e Salamon (1990),
combinando redes neurais artificiais, treinadas separadamente, conseguindo melhorar a
capacidade de generalização do sistema.
Um comitê de máquinas baseia-se no princípio de "dividir-para-conquistar", bus-
cando superar o desempenho de uma máquina de aprendizado operando de modo isolado
(Haykin, 2001). Os comitês de máquinas podem ser divididos em dinâmicos e estáticos.
No caso dinâmico, o comitê recebe o nome de mistura de especialistas, onde a di-
visão de tarefas e a síntese dos especialistas são realizadas simultaneamente e de forma
automática pelo algoritmo de aprendizagem (Haykin, 2001).
Nos comitês estáticos cada componente apresenta uma solução para o problema e
estas soluções são agregadas fornecendo um só resultado. Desta forma, há um aumento
16 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
da capacidade de generalização, diminuição da variância do modelo e maior tolerância à
ruídos quando comparados ao resultado de um único componente (Haykin, 2001).
Um dos requisitos básicos para o bom resultado do comitê de máquinas é que os com-
ponentes generalizem de forma diferente, pois de nada adianta combinar modelos que
adotam os mesmos procedimentos e hipóteses para a solução de um problema, sendo
fundamental que os erros apresentados por cada um dos componentes sejam descorrelaci-
onados (Perrone e Cooper, 1993). Isso pode ser obtido, por exemplo, utilizando diferentes
conjuntos para o treinamento ou variando os parâmetros de treinamento de cada rede neu-
ral que compõe o comitê de máquinas, entre outras maneiras.
2.4.1 Construção de um comitê de máquinas
As etapas da construção de um comitê de máquinas são: geração de componentes,
seleção dos componentes e combinação dos componentes individuais (Villanueva, 2006).
Inicialmente, geram-se os componentes candidatos a participarem do comitê. Na
sequência, selecionam-se os componentes candidatos que irão contribuir realmente para a
melhoria do desempenho do comitê. Por fim, combinam-se as saídas de cada componente
em uma única saída.
Na etapa da geração de componentes é preciso considerar um baixo erro de treina-
mento e uma descorrelação entre os erros de cada componente. Também é necessário
que haja diversidade entre os componentes, para garantir que generalizem de modo dife-
rente. Para garantir que as redes neurais tenham diversidade entresi, pode-se adotar como
estratégias:
• Inicialização aleatória dos pesos para cada componente.
• Variação na arquitetura da rede neural.
• Variação do algoritmo de treinamento.
• Re-amostragem dos dados.
No caso da re-amostragem dos dados duas técnicas são bastante utilizadas: Bagging
e Boosting.
Bagging (Breiman, 1996) é uma técnica de geração de conjuntos distintos de treina-
mento a partir de um único conjunto, através de re-amostragem com reposição.
Por exemplo, considere um único conjunto de treinamento com N amostras, para trei-
nar m componentes. O objetivo é construir m conjuntos de treinamento com N amostras
cada um. Com uma distribuição de probabilidade uniforme para seleção das amostras a
2.4. COMITÊS DE MÁQUINAS 17
partir do conjunto fonte, teremos algumas amostras selecionadas mais de uma vez, pois
há reposição.
Há a possibilidade de os componentes não generalizarem de forma satisfatória, mas
a combinação destes modelos pode resultar em uma generalização melhor do que cada
componente individual.
Boosting (Schapire, 1990) é um método em que os conjuntos de treinamento são ge-
rados através de uma amostragem não uniforme, diferentemente do método Bagging.
A probabilidade de uma dada amostra ser escolhida depende da contribuição desta
para o erro dos componentes já treinados.
Tomando como exemplo um problema de classificação, uma amostra que não seja cor-
retamente classificada pelos componentes já treinados terá uma maior probabilidade de
ser selecionada do que uma amostra que seja corretamente classificada. Assim, esta amos-
tra terá uma chance maior de compor o conjunto de treinamento do próximo componente
a ser treinado.
Um dos problemas desta técnica é a necessidade de treinamento sequencial dos com-
ponentes do comitê, uma vez que as probabilidades devem ser redefinidas de acordo com
o comportamento dos componentes já treinados.
A versão mais popular do algoritmo de Boosting é chamada AdaBoost, na qual cada
componente é treinado sequencialmente e a distribuição dos dados de treinamento é feita
levando-se em consideração os erros do componente treinado no passo imediatamente
anterior.
Considerando a etapa da seleção de componentes, pode ser que nem todos os com-
ponentes contribuam para o desempenho global do comitê. Assim, é preciso identificar
e descartar estes componentes, uma vez que a inclusão de todos eles no comitê pode
degradar sua performance (Zhou et al., 2002).
Uma maneira de selecionar os componentes é através de alguma medida de erro, por
exemplo. Dois são os métodos mais citados na literatura para seleção de componentes: o
construtivo e o da poda.
O método construtivo pode ser descrito desta maneira: os M candidatos a comporem
o comitê são ordenados com base em algum critério, por exemplo medida de erro, que irá
mensurar o desempenho individual de cada componente. O que tiver melhor desempenho
individual é inserido no comitê. O próximo candidato (o de segundo melhor desempenho
individual), é adicionado ao comitê. Se o desempenho do comitê de máquinas melhorar,
o comitê passa a ter dois componentes. Caso contrário, o elemento recém-inserido é
removido. Este processo se repete então para todos os demais candidatos restantes na
lista ordenada gerada inicialmente.
18 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
O método da poda funciona de modo oposto ao método construtivo. Os M candida-
tos também são ordenados a partir de seu desempenho individual em relação à medida de
erro, por exemplo. Todos os candidatos são inseridos no comitê. O candidato com pior
performance individual é removido e o comitê de máquinas tem seu desempenho avaliado
novamente. Se ocorrer uma melhora de seu desempenho em relação à configuração an-
terior, o comitê passa a contar então com M-1 componentes. Senão, o candidato retirado
volta ao comitê e o processo se repete para os demais candidatos, exceto o de melhor
desempenho individual, que nunca é removido do comitê de máquinas.
A seleção de componentes é realizada basicamente para maximizar a generalização
do modelo, descartando componentes que não contribuam para o desempenho do comitê.
De acordo com Greene et al. (2004), a diversidade entre os componentes é necessária,
porém não é suficiente para gerar uma solução melhor do que um único componente se
não for utilizado um método de integração adequado para combinar estes componentes.
De acordo com Villanueva (2006), a combinação dos componentes para obter o re-
sultado final do comitê de máquinas pode ser baseada em técnicas de votação simples,
para tarefas de classificação de dados ou média simples ou ponderada, para tarefas de
regressão de dados. No caso de agrupamentos de dados, onde não há conhecimento à pri-
ori, uma opção é empregar a matriz de co-associação. Esta combinação dos componentes
é feita através da chamada função consenso. Ela deve ser escolhida cuidadosamente, pois
influencia diretamente o resultado do comitê de máquinas.
2.4.2 Algumas aplicações de comitês de máquinas
É possível encontrar variações nas implementações dos métodos de comitês de má-
quinas e suas aplicações em diversas áreas do conhecimento: Wang (2006) empregou
comitês para a classificação e predição de dados de expressão de genes, para a correta e
confiável classificação de tumores, o que é essencial para o sucesso do tratamento. Outra
aplicação médica é encontrada em Krawczyk et al. (2012), que utilizou comitês para re-
conhecimento não invasivo de fibrose hepática. Greene et al. (2004) também estudou as
técnicas de comitês aplicadas em diagnósticos médicos.
Em Villanueva (2006) e Chitra e Uma (2010) foram empregados comitês de máquinas
para predição de séries temporais, obtendo um ganho significativo quando comparado
com o uso de um único modelo preditor. Curiac e Volosencu (2012) utilizou comitês de
classificadores para detecção de anomalias em redes de sensores sem fio.
Comitês de máquinas também foram aplicados em previsão de tempo, com resultados
satisfatórios (Maqsood et al., 2004).
2.4. COMITÊS DE MÁQUINAS 19
A abordagem de comitês demonstrou ser uma forma eficaz para aumentar a precisão
e robustez de reconstrução de sinal de sensores em uma planta de geração de energia
nuclear (Baraldi et al., 2010).
Em seu trabalho, Coelho (2006), propôs uma metodologia de criação de comitês de
máquinas para problemas de classificação, onde os componentes são redes neurais ar-
tificiais do tipo perceptron multicamadas. Para que fossem gerados bons candidatos a
comporem o comitê, atendendo a critérios de desempenho e de diversidade, foi aplicada
uma meta-heurística populacional imuno-inspirada, caracterizada por definir automati-
camente o número de indivíduos na população a cada iteração, promover diversidade e
preservar ótimos locais ao longo da busca. Os resultados obtidos indicam a validade da
metodologia de criação de comitês de máquinas.
Em Naldi (2011), o autor investigou as técnicas de combinação de agrupamentos,
através de algoritmos evolutivos e de índices de validação aplicadas na seleção de agru-
pamentos para combinação e na mineração distribuída de dados, conseguindo partições
de boa qualidade e com bom desempenho computacional.
No trabalho de Ferreira (2012), o método para construção de comitês é baseado em
rotação, que utiliza a técnica de extração de características da análise de componentes
principais (PCA) como artifício para rotacionar os eixos formados pelos subgrupos de
atributos para construção de comitês diversos e acurados.
Até aqui foram relatados alguns trabalhos utilizando a técnica de comitês de máquinas,
para demonstrar a diversidade e exito na aplicação desta técnica em diversas áreas do
conhecimento. Neste trabalho são empregados comitês de Mapas de Kohonen. A seguir
são descritos apenas alguns trabalhos para ilustrar o emprego do método em variadas
áreas.
Em Jiang e Zhou (2004), um método de segmentação de imagens, baseado em um
conjunto de redes SOM é proposto. Os pixels são agrupados de acordo com a cor e carac-
terísticas espaciais em cada rede SOM. Após combinam-seos resultados de agrupamento
para dar a segmentação final. Os resultados experimentais mostram que o método pro-
posto apresenta um desempenho melhor do que métodos baseados em segmentação de
imagem.
Georgakis et al. (2005) comparou um comitê de máquinas de SOM com o SOM tra-
dicional em organização e recuperação de documentos. Como critério para combinação
dos mapas, foi utilizada a distância euclidiana entre os neurônios, para determinar quais
neurônios estavam alinhados, possibilitando a fusão. Os mapas foram avaliados dois a
dois, até que todos os mapas foram combinados em um só. O comitê de SOM obteve um
melhor resultado do que a aplicação tradicional. Para esta metodologia, todos os mapas
20 CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
devem ter o mesmo tamanho.
No trabalho de Saavedra et al. (2007), a fusão dos neurônios foi denominada Fusion-
SOM e baseia-se nos polígonos de Voronoi - regiões do espaço de entrada às quais os
neurônios do mapa de Kohonen podem ser associados, ou seja, para os neurônios serem
combinados, precisam representar a mesma região do espaço de entrada.
O trabalho de Low et al. (2005) apresenta uma abordagem de comitê chamada Mapa
de Kohonen Extendido e Cooperativo (Cooperative EKM - Extendend Kohonen Maps)
com mapeamento indireto aplicado a movimentação de robôs.
No trabalho de DeLooze (2006) um conjunto de redes SOM são utilizadas para iden-
tificar e caracterizar adequadamente ataques a computadores.
Tsai (2014) desenvolveu modelos de previsão de dificuldades no mercado financeiro,
baseados em comitê de SOM, obtendo resultados melhores do que modelos individuais.
Em Fustes et al. (2013) foi utilizado comitê de SOM, para análise não supervisionada
de outliers, que permite a descoberta de conhecimento em bancos de dados astronômicos,
como a missão Gaia, da agência espacial européia que vai observar com uma precisão
posições, distâncias, movimentos do espaço, e muitas propriedades físicas de mais de um
bilhão de objetos em nossa galáxia e além.
2.5 Resumo
Neste capítulo foram apresentados os principais conceitos que serão utilizados neste
trabalho: mapas auto organizáveis de Kohonen, índices de validação e comitês de má-
quinas. Os mapas auto organizáveis de Kohonen são uma rede neural artificial que têm
demonstrado bons resultados em tarefas de classificação, agrupamento e visualização de
conjuntos de dados multidimensionais. Os índices de validação de agrupamentos tem por
finalidade quantificar o quanto um algoritmo pode ser eficiente em agrupar dados. Os co-
mitês de máquinas constituem uma maneira para lidar com grandes conjuntos de dados,
produzindo bons resultados em relação ao custo computacional envolvido. No próximo
capítulo serão detalhadas as abordagens desenvolvidas neste trabalho para a fusão de ma-
pas de Kohonen.
Capítulo 3
Materiais e Métodos
Para projetar um comitê de máquinas é preciso definir três parâmetros importantes:
como obter a diversidade entre os componentes do comitê; como selecionar os com-
ponentes que farão parte do comitê e como agregar, ou combinar, o resultado de cada
componente.
Neste capítulo serão apresentadas as metodologias para a investigação da solução do
tema proposto por este trabalho através de duas Seções: fusão de mapas de tamanhos
iguais e fusão de mapas de tamanhos diferentes.
3.1 Fusão de mapas de tamanhos iguais
O método consiste na fusão de mapas de Kohonen formados a partir de subconjuntos
do conjunto de dados, criados por re-amostragem (Bagging).
Como descrito na Seção 2.4.1, Bagging e Boosting são duas técnicas bastante empre-
gadas para a re-amostragem de dados. Neste trabalho foi escolhida a técnica de Bagging
por ser de implementação e execução mais simples.
Uma visão geral do processo é mostrado na Figura 3.1. A fusão ocorre entre dois
neurônios que têm a mínima distância Euclidiana entre eles, indicando que eles represen-
tam a mesma região do espaço de entrada.
Figura 3.1: Visão geral do processo.
Fonte: Elaborada pelo autor.
22 CAPÍTULO 3. MATERIAIS E MÉTODOS
O método de re-amostragem foi utilizado para gerar subconjuntos a partir do conjunto
de treinamento, com probabilidade uniforme e reposição. O SOM foi aplicado a cada
subconjunto gerado e todos os mapas foram segmentadas pelo algoritmo k-means. Os
mapas segmentados são os candidatos a comporem o comitê de máquinas.
3.1.1 Seleção e dos candidatos
De acordo com Zhou et al. (2002), não se deve utilizar todos os componentes, pois
isso pode afetar o desempenho do comitê. Assim, a maneira de selecionar estes can-
didatos será através de índices de validação de agrupamentos modificados, propostos
por Gonçalves (2009), a saber: CDbw, Calinski-Harabasz, Dunn generalizado, PBM e
Davies-Bouldin. Estes índices serão a função consenso do comitê.
O método de seleção é baseado na ordenação dos componentes pelos índices de va-
lidação e pode ser descrito da seguinte maneira: os candidatos a compor o comitê são
ordenados com base nos valores dos índices de validação, do melhor para o pior. Assim,
temos uma medida de desempenho individual de cada componente.
O processo de seleção dos mapas de Kohonen desenvolvido neste trabalho é ilustrado
pela Figura 3.2. Neste exemplo os mapas foram ordenados pelo índice de validação de
agrupamentos CDbw e os valores foram normalizados no intervalo [0,1]. O mapa com o
melhor índice CDbw (0,5369), letra (a) na Figura, é o primeiro componente do comitê.
O mapa com o segundo melhor índice CDbw (0,4386), letra (b) na figura, é primeiro
candidato a compor o comitê. A combinação entre eles resultou em um mapa que, ao
ser segmentado, alcançou um valor para o índice CDbw igual a 0,7207, que é maior do
que o mapa melhor ordenado anteriormente. Desta forma, o segundo mapa é mantido no
comitê, letra (c) na figura. Caso o valor do índice do mapa combinado fosse menor do que
o índice do primeiro mapa, o segundo mapa seria retirado do comitê e o terceiro mapa
seria testado. Este processo de seleção prossegue até que todos os mapas disponíveis
sejam testados.
As equações de fusão, as abordagens e a estrutura geral do experimento fatorial são
descritas a seguir.
3.1.2 Equações de fusão
Foram testadas três diferentes equações para a fusão dos neurônios dos mapas de
Kohonen. A primeira, Equação 3.1, é uma média aritmética simples entre os vetores de
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 23
Figura 3.2: Seleção e combinação dos mapas.
Fonte: Elaborada pelo autor.
peso dos neurônios as serem fundidos.
wc =
wi +w j
2
(3.1)
onde wc representa cada neurônio do mapa combinado; wi e w j são os neurônios dos
mapas a serem combinados.
A segunda equação é uma média ponderada entre os pesos dos neurônios e seus res-
pectivos hits. O propósito de incluir os hits é evitar a influência de neurônios sem hits no
resultado da fusão, como mostra a Equação 3.2
wc =
wi ·hi +w j ·h j
hi +h j
(3.2)
onde hi e h j são os hits de cada neurônio de cada mapa.
Através da Equação 3.3, a terceira equação testada, analisamos se o índice de valida-
ção de agrupamento influencia na melhora da acurácia do algoritmo.
wc =
wi ·hi ·V Ii +w j ·h j ·V I j
hi ·V Ii +h j ·V I j
(3.3)
onde V Ii e V I j são os valores dos índices de validação para cada um dos mapas a serem
combinados.
24 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.1.3 Experimento fatorial
Foi definido um experimento fatorial para avaliar o algoritmo proposto para a fusão
dos mapas. Foram avaliados três tamanhos de mapas: o 10x10, o 15x15 e o 20x20. Atra-
vés da re-amostragem, foram gerados dez conjuntos de dados, com a seguinte quantidade
de subconjuntos: 10, 20, 30, 40, 50, 60, 70, 80, 90 e 100 subconjuntos. Cada um dos
subconjuntos foi criado com três diferentes porcentagens de Bagging, sendo 50%, 70% e
90% dos dados de treinamento.
Isto significa que para cada tamanho de mapa, há dez diferentes subconjuntos e três
valores de porcentagem da re-amostragem, resultando em 900 mapas. Assim, no primeiro
experimento o mapa tem o tamanho de 10x10, com 10 subconjuntos gerados pela re-
amostragemcom uma porcentagem de 50% dos dados de treinamento, como mostra a
Figura 3.3.
Figura 3.3: Estrutura do experimento fatorial.
Fonte: Elaborada pelo autor.
3.1.4 Abordagens
A ordenação dos mapas foi baseada nos cinco índices de validação de agupamentos
descritos na Seção 2.2 e ainda o MSQE (Mean Square Quantization Error).
O MSQE indica o quão bem os neurônios do mapa se aproximam dos dados do con-
junto de entrada (Corchado e Baruque, 2012), sendo utilizado para avaliar a qualidade da
adaptação do mapa aos dados (Saavedra et al., 2007).
3.1. FUSÃO DE MAPAS DE TAMANHOS IGUAIS 25
Nesta pesquisa, foram testadas quatro abordagens para ordenar as performances dos
mapas e para estabelecer os critérios de combinação ou fusão:
Abordagem 1: Mapas ordenados pelo índice de validação e combinados pelo critério da
melhora do MSQE.
Abordagem 2: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
índice de validação.
Abordagem 3: Mapas ordenados pelos índice de validação e combinados pelo critério da
melhora do índice de validação.
Abordagem 4: Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
MSQE.
Na primeira abordagem, os mapas são ordenados por cada um dos cinco índices de
validação, mas a fusão é controlada pela melhora do MSQE do mapa fundido. Na segunda
abordagem, os mapas foram ordenados pelo MSQE e o processo de fusão foi controlado
pela melhora do índice de validação de agrupamento do mapa fundido. Na terceira abor-
dagem, os mapas foram ordenados por cada índice de validação de agrupamento e a fusão
foi controlada pela melhora destes índices. É importante destacar que , por exemplo, se os
mapas foram ordenados de acordo com o índice Davies-Bouldin, a fusão será controlada
pela melhoria deste índice. Finalmente, na quarta abordagem os mapas foram ordenados
pelo MSQE e fundidos pelo critério de melhoria do MSQE. A Figura 3.4 mostra o que foi
descrito.
Figura 3.4: Abordagens para a fusão dos mapas.
Fonte: Elaborada pelo autor.
26 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.1.5 Algoritmo proposto
O algoritmo proposto foi aplicado em cada uma das combinações mostrada na Figura
3.3, de acordo com as abordagens ilustradas na Figura 3.4. O algoritmo é descrito a
seguir:
Algoritmo 1: FUSÃO DE MAPAS DE TAMANHOS IGUAIS
Entrada: Conjunto de dados, tamanho do mapa, número de subconjuntos,
porcentagem da re-amostragem
Saída: Mapas fundido
1 início
2 Gerar, através da re-amostragem (Bagging), os subconjuntos a partir do
conjunto de treinamento
3 Aplicar o SOM nos subconjuntos gerados, resultando em Ni (i = 1,2, ...) mapas
com a mesma dimensão
4 Segmentar os mapas com o algoritmo k-means
5 Calcular os índices de validação de agrupamentos e o MSQE para cada Ni
(i = 1,2, ...) mapa e ordená-los de acordo com os valores obtidos, do melhor
para o pior
6 Fundir o melhor mapa (mapa base - o que possuir o melhor valor para o índice
de validação de agrupamento ou MSQE) com o próximo melhor mapa, de
acordo com a ordenação, seguindo as Equações 3.1, 3.2 e 3.3
7 Calcular o índice de validação de agrupamento ou o MSQE do mapa fundido
8 Se
9 Há melhoria no índice de validação de agrupamento ou MSQE
10 Então
11 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 6 até
que todos os mapas sejam fundidos;
12 Senão
13 A fusão é descartada, retorne ao PASSO 6 até que todos os mapas sejam
fundidos;
14 fim
Os principais parâmetros do SOM foram: grade hexagonal, vizinhança gaussiana,
raio inicial de treinamento igual a 4, raio final de treinamento igual a 1 e 2000 épocas de
treinamento. Devido à inicialização aleatória, o algoritmo k-means foi repetido dez vezes
e foi selecionado o resultado que apresentou a menor soma dos quadrados dos erros.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 27
3.2 Fusão de mapas de tamanhos diferentes
Na literatura, até o momento, não foram encontrados métodos que possam resolver
o problema de fusão de mapas de Kohonen com diferentes tamanhos. A complexidade
está no fato de que, em mapas de tamanhos diferentes, teremos diferenças topológicas.
Mapas considerados pequenos têm neurônios vencedores (BMU) com grande número
de hits, isto é, vários padrões de entrada associados a eles. Por outro lado, em mapas
considerados grandes a vantagem é a distância elevada entre os BMUs, o que possibilita
melhor visualização do mapa.
Neste trabalho foi desenvolvido um novo método para combinar as saídas de mapas de
Kohonen com tamanhos diferentes em uma única saída. O objetivo é melhorar a acurácia
do comitê em relação à acurácia de um único mapa de Kohonen.
Para a fusão de mapas com tamanhos diferente novamente foram investigadas as pos-
sibilidades de ordenação e fusão de acordo com o que foi estabelecido para a fusão de
mapas de tamanhos iguais (Subseção 3.1.3).
O comitê é composto por mapas de diferentes tamanhos, derivados de um Mapa Base,
isto é, o mapa que será melhorado através de fusões consecutivas com outros mapas de
tamanhos diferentes.
Para determinação do tamanho do Mapa Base foi utilizada a Equação 3.4, definida em
Kohonen (1982), onde as dimensões x e y (linhas e colunas, respectivamente) do mapa
devem ser proporcionais aos dois maiores autovalores da matriz de covariância dos dados:
λ1 e λ2:
x
y
≈
√
λ1
λ2
(3.4)
O Mapa Base é o primeiro componente do comitê e os mapas restantes são candidatos
a comporem o comitê. Estes mapas são organizados de acordo com a performance obtida
(MSQE e os cinco índices de validação de agrupamentos). Os mapas são combinados aos
pares acordo com as três Equações de fusão: 3.1, 3.2 e 3.3.
Assim como na abordagem para fusão de mapas de mesmo tamanho, apresentada na
Seção 3.1, é preciso identificar e retirar do comitê os componentes que não contribuem
para o aumento do desempenho do comitê (Zhou et al., 2002).
Deste modo, o processo de seleção dos componentes é o mesmo que foi descrito para
mapas de tamanhos iguais (ver Figura 3.2), iniciando com o Mapa Base sendo combinado
com o mapa que apresenta a melhor performance entre os outros mapas. Se a performance
resultante da combinação dos mapas for melhorada em relação à performance do mapa
base, a combinação destes mapas é mantida. Caso contrário, a combinação destes dois
28 CAPÍTULO 3. MATERIAIS E MÉTODOS
mapas é descartada e o próximo mapa, com a segunda melhor performance, é combinado
com o mapa base. Cada vez que a combinação dos mapas resulta em um aumento da
performance, o próximo mapa (em ordem descendente de performance) é combinado a
eles e assim sucessivamente até que todos os mapas sejam testados na combinação.
Para a segmentação dos mapas foi utilizado o algoritmo k-means. O mesmo é repetido
dez vezes e o resultado escolhido é o que apresentar a menor soma dos quadrados dos
erros, devido à natureza de inicialização aleatória do k-means.
Para esta abordagem foram testadas duas maneiras distintas para a realização da fusão
dos mapas. A primeira maneira refere-se a uma estrutura de 7 mapas. Na segunda maneira
a estrutura é composta por 49 mapas. As diferenças e características de cada uma destas
variações é explicada nas subseções seguintes.
A influência do número de hits e BMUs no processo de fusão foi avaliada através da
variação das porcentagens destas medidas desde 10% até 100%, com passo de 10%. Cada
neurônio do Mapa Base tem um número de hits (quantas vezes o neurônio foi o vencedor
- BMU). Quando este neurônio é fundido a outro neurônio (de outro mapa), será levado
em consideração o valor mínimo da porcentagem de hits que este neurônio deve ter em
relação ao neurônio do Mapa Base.
A limitação da porcentagem de BMUs é o coração do método de fusão de mapas
com tamanhos diferentes. No processo de fusão, os mapas são avaliados aos pares. Os
neurônios destes mapas também são avaliados aos pares, através da distância Euclidiana.
Quando o Mapa Base tem dimensões menores do que o mapa a ser fundido com ele,
haverá mais neurônios neste segundo mapa do que no Mapa Base. Por exemplo, conside-
rando que um Mapa Base tenha tamanho de 10x10 e o mapaa ser com ele fundido tenha
tamanho de 12x12, haverá 100 neurônios no primeiro mapa e 144 no segundo mapa. Com
a limitação da porcentagem de BMUs, a fusão ficará limitada a 100% dos neurônios do
Mapa Base. Significa que, para o exemplo dado, apenas 100 dos 144 neurônios serão
avaliados no processo de fusão. Estes 100 neurônios são os que possuem as menores
distâncias Euclidianas com os 100 neurônios do Mapa Base. Os outros 44 neurônios não
entram no processo. Assim é possível fundir mapas maiores à mapas menores.
3.2.1 Estrutura com 7 mapas
Considerando o Mapa Base com dimensões N x M, os outros seis mapas têm as se-
guintes dimensões: (N+3) x M, N x (M+3), (N-3) x M, (N-3) x (M+3), (N-3) x (M-3),
N x (M-3), como mostrado na Fig. 3.5. Desta maneira teremos mapas com tamanhos
variados, promovendo uma certa diversidade entre estes mapas.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 29
Figura 3.5: Estrutura com 7 mapas.
Fonte: Elaborada pelo autor.
O algoritmo para a fusão dos sete mapas é descrito a seguir.
Algoritmo 2: FUSÃO DE 7 MAPAS DE TAMANHOS DIFERENTES
Entrada: Conjunto de dados
Saída: Fusão dos mapas de Kohonen
1 início
2 Dividir o conjunto de dados em treinamento (80%) e teste (20%)
3 Calcular o tamanho do Mapa Base, através da Equação 3.4
4 Criar, a partir do Mapa Base, os outros seis mapas
5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
sete mapas
6 Segmentar todos os mapas, através do algoritmo k-means
7 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
10 Calcular a performance do mapa fundido
11 Se
12 Há melhoria na performance
13 Então
14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até
que todos os mapas sejam fundidos;
15 Senão
16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam
fundidos;
17 fim
30 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.2.2 Estrutura com 49 mapas
O comitê é composto por 49 mapas, sendo um Mapa Base e 48 mapas com tamanhos
derivados a partir do tamanho do Mapa Base.
As dimensões do Mapa Base são definidas pela Equação 3.4, tal como na estrutura
com 7 mapas. Neste trabalho definiu-se que uma permutação de 3 valores acima e abaixo
dos valores das dimensões do Mapa Base seria utilizada para gerar os outros 48 mapas.
Por exemplo, se o Mapa Base tiver dimensões iguais a 10x10, os mapas restantes
teriam os valores de linha e coluna variando entre 7 e 13, isto é, 7x7, 7x8, ..., 13x12,
13x13, totalizando 49 mapas com diferentes tamanhos, como mostra a Figura 3.6.
Figura 3.6: Estrutura com 49 mapas.
Fonte: Elaborada pelo autor.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 31
O algoritmo para a fusão dos 49 mapas é descrito a seguir.
Algoritmo 3: FUSÃO DE 49 MAPAS DE TAMANHOS DIFERENTES
Entrada: Conjunto de dados
Saída: Fusão dos mapas de Kohonen
1 início
2 Dividir o conjunto de dados em treinamento (80%) e teste (20%)
3 Calcular o tamanho do Mapa Base, através da Equação 3.4
4 Criar, a partir do Mapa Base, os outros quarenta e oito mapas
5 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
mapas
6 Segmentar todos os mapas, através do algoritmo k-means
7 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
8 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
9 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
10 Calcular a performance do mapa fundido
11 Se
12 Há melhoria na performance
13 Então
14 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 9 até
que todos os mapas sejam fundidos;
15 Senão
16 A fusão é descartada, retorne ao PASSO 9 até que todos os mapas sejam
fundidos;
17 fim
32 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.2.3 Validação Cruzada
A validação cruzada (ou Cross Validation) é um procedimento para estimar a perfor-
mance de um algoritmo. Basicamente o conjunto de dados é dividido aleatoriamente em
K subconjuntos (ou folds), mutuamente exclusivos e com tamanhos iguais ou aproxima-
damente iguais.
Uma maneira usual é utilizar K igual a 10, chamando a validação cruzada de "10-fold
cross-validation". Neste caso, um dos subconjuntos é utilizado para o teste do algoritmo
e os outros K−1 subconjuntos formam o conjunto de treinamento. Este procedimento é
repetido K vezes, sendo que em cada repetição, um subconjunto diferente é usado para o
teste os subconjuntos restantes são utilizados no treinamento. Ao final, a performance do
algoritmo (acurácia, por exemplo) é obtida pela média das performances obtidas a cada
repetição deste procedimento (Kuncheva, 2004).
Uma variação do deste procedimento é a Validação Cruzada Estratificada. Aqui,
ao dividir o conjunto de dados em K subconjuntos, a distribuição de classes em cada
subconjunto é aproximadamente a mesma do conjunto original de dados (Diamantidis
et al., 2000).
Neste trabalho, foi utilizada a validação cruzada estratificada, para mapas de tamanhos
diferentes, na estrutura de 49 mapas, para estimar a acurácia do algoritmo proposto para
a fusão.
O algoritmo desenvolvido para a validação cruzada é descrito a seguir.
3.2. FUSÃO DE MAPAS DE TAMANHOS DIFERENTES 33
Algoritmo 4: FUSÃO ATRAVÉS DA VALIDAÇÃO CRUZADA
Entrada: Conjunto de dados
Saída: Estimativa de acurácia da fusão de mapas de tamanhos diferentes
1 início
2 Dividir o conjunto de dados em K=10 partes (folds), mantendo a proporção de
classes do conjunto de dados original
3 Retirar uma das partes (um dos subconjuntos) para o teste
4 Calcular o tamanho do Mapa Base, através da Equação 3.4, utilizando K-1
subconjuntos
5 Criar, a partir do Mapa Base, os outros 48 mapas
6 Aplicar o algoritmo SOM ao conjunto de treinamento, criando as estruturas dos
mapas
7 Segmentar todos os mapas, através do algoritmo k-means
8 Calcular as performances de cada mapa - os cinco índices de validação de
agrupamentos e o MSQE
9 Ordenar os mapas de acordo com os critérios de performance, do melhor para o
pior
10 Fundir cada mapa ao Mapa Base de acordo com a equação de fusão
11 Calcular a performance do mapa fundido, com o conjunto de testes (o
subconjunto que não foi utilizado no treinamento)
12 Se
13 Há melhoria na performance
14 Então
15 O mapa resultante da fusão torna-se o mapa base, retorne ao PASSO 10
até que todos os mapas sejam fundidos;
16 Senão
17 A fusão é descartada, retorne ao PASSO 10 até que todos os mapas sejam
fundidos
18 Retornar ao PASSO 2 até que o algoritmo seja repetido 10 vezes
19 Calcular a performance do algoritmo, como sendo a média das 10
performances obtidas.
20 fim
34 CAPÍTULO 3. MATERIAIS E MÉTODOS
3.3 Medida de performance
Quando há um conhecimento prévio da estrutura original dos dados, pode-se adotar
critérios externos para avaliação da performance do algoritmo de agrupamento.
Assim, os algoritmos são mensurados de forma a avaliar o quão bem o agrupamento
coincide com as classes verdadeiras presentes em um dado conjunto de dados.
A pureza (purity, em inglês) é um critério externo de qualidade para o agrupamento e
é utilizado quando os rótulos dos dados são conhecidos (Manning et al., 2008).
Esta medida de performance de agrupamento é calculada pela somatória das amostras
corretamente posicionadas em um dado grupo, dividida pelo número total de amostras.
A maneira mais fácil de calcular a pureza de um agrupamento é encontrar a classe
majoritária em cada grupo e contar o número de objetos marcados dessa classe em cada
grupo. Depois divide-se o valor desta somatória pela quantidade total de amostras do
conjunto de dados (Forestier et al., 2010). Os valores da pureza do agrupamento ficam
entre 0 e 1, sendo que valores próximos a 1 indicam bons agrupamentos e valores baixos
indicam agrupamentos ruins.
Esta definição da pureza e sua utilização como medida de performance de algoritmos
de agrupamento pode ser encontrada nostrabalhos de Amigó et al. (2009), Rendón et al.
(2011), Sripada e Rao (2011) e Deepa e Revathy (2012), entre outros.
Já nos trabalhos de Greene et al. (2004) e de Kuncheva et al. (2006), o critério para
avaliação de um comitê de máquinas de agrupamento foi uma medida de desempenho
denominada acurácia e definida como a proporção de atribuição correta de rótulos às
amostras em função do número total de amostras. Ou seja, a definição de pureza e acurácia
é a mesma.
Neste trabalho, será utilizado o termo “acurácia” para designar a performance dos
algoritmos propostos.
3.4 Teste estatístico
No trabalho de Demšar (2006) são apresentados alguns testes para comparação esta-
tística das performances de algoritmos considerando múltiplos conjuntos de dados. Com
base nos estudos apontados no trabalho, o autor sugere que seja utilizado o teste não pa-
ramétrico de Wilcoxon (Wilcoxon Signed Rank Test) para comparação de dois algoritmos,
pois é um teste simples, seguro e robusto.
Testes não paramétricos são mais seguros do que testes paramétricos, uma vez que
não assumem distribuição normal ou homogeneidade da variância dos dados. Assim, eles
3.5. RESUMO 35
podem ser aplicados para verificação da acurácia do modelo, taxas de erro ou qualquer
outra medida para avaliação de algoritmos. Os resultados empíricos sugerem que eles
também são mais fortes do que os outros testes estudados.
Por essa razão, entre os testes apresentados pelo autor, foi escolhido o teste não pa-
ramétrico de Wilcoxon (Signed Rank Test), com nível de significância de 0,05. Através
deste teste, serão avaliados os resultados obtidos pelo comitê de mapas de Kohonen, isto
é, se o algoritmo proposto leva a resultados estatisticamente diferentes das acurácias ob-
tidas por um único mapa. A hipótese nula, H0, é que não há diferença entre as acurácias
obtidas pelo mapa único e pelo comitê de mapas. O algoritmo para o teste de Wilcoxon é
descrito a seguir.
Algoritmo 5: TESTE DE WILCOXON
Entrada: Resultados obtidos por dois diferentes algoritmos
Saída: Aceitação ou rejeição da Hipótese nula
1 início
2 Calcular a diferença di = Xi−Yi, onde xi e yi são os pares dos resultados para
cada conjunto de dados
3 Ordenar os resultados de di, sem considerar os sinais, ou seja, atribuir o posto 1
para o menor valor de |di|, posto 2 para o próximo e assim por diante.
4 Atribuir o sinal para cada posto de acordo com o sinal de di
5 Calcular a soma dos postos positivos (R+) e a soma dos postos negativos (R−)
6 Escolha T = min(R+,R−)
7 Verificar o valor crítico para aceitação ou rejeição de H0
8 A Hipótese nula é rejeitada se o valor de T for menor do que o valor
encontrado nas tabelas de valores críticos para o teste de Wilcoxon
9 fim
3.5 Resumo
Neste capítulo foram apresentadas propostas de abordagens para a fusão de mapas de
Kohonen com tamanhos iguais e com tamanhos diferentes. Foram definidas as equações
para a fusão dos mapas, os critérios para ordenação e fusão, bem como os algoritmos
correspondentes a cada uma das abordagens, além da definição da acurácia utilizada neste
trabalho. Também foi apresentado o teste estatístico de Wilcoxon, que será utilizado na
comparação dos resultados obtidos. No próximo capítulo são apresentados os resultados
obtidos na fusão de mapas de Kohonen através dos algoritmos aqui propostos.
36 CAPÍTULO 3. MATERIAIS E MÉTODOS
Capítulo 4
Resultados
Este capítulo apresenta os resultados obtidos na aplicação dos algoritmos propostos
para a fusão de mapas de Kohonen. Está dividido em duas seções: fusão de mapas de
mesmo tamanho e fusão de mapas de tamanhos diferentes. Esta última contém três sub-
seções: estrutura com 7 mapas, estrutura com 49 mapas e validação cruzada estratificada.
4.1 Conjunto de dados
O algoritmo proposto foi testado em variados conjuntos de dados do Repositório UCI
(Lichman, 2013) e do FCPS (Fundamental Clustering Problems Suite) (Ultsch, 2005). As
características de cada conjunto de dados são mostradas na Tabela 4.1 e no Apêndice A
estão as ilustrações destes conjuntos de dados.
Tabela 4.1: Conjuntos de dados utilizados.
No Dataset Repositório Instâncias Atributos Classes
01 BC Wisconsin UCI 699 10 2
02 Column UCI 310 6 2
03 Heart UCI 303 75 2
04 Hepatitis UCI 155 19 2
05 Ionosphere UCI 351 34 2
06 Iris UCI 150 4 3
07 Pima Indians UCI 768 8 2
08 Seeds UCI 210 7 3
09 Wine UCI 178 13 3
10 Chainlink FCPS 1000 3 2
11 Engytime FCPS 4096 2 2
12 Lsun FCPS 400 2 3
13 Tetra FCPS 400 3 4
14 Two Diamonds FCPS 800 2 2
15 Wingnut FCPS 1070 2 2
38 CAPÍTULO 4. RESULTADOS
4.2 Mapas de tamanhos iguais
O objetivo da simulação foi verificar em qual configuração de tamanho do mapa, de
número de subconjuntos e de percentagem de bagging, o melhor valor da acurácia poderia
ser obtida.
Cada experimento foi executado 10 vezes e foram obtidos valores médios para um
intervalo de confiança de 95%. Os resultados foram comparados com um único mapa
SOM, para verificar a melhora na acurácia.
A Tabela 4.2 apresenta os resultados experimentais para cada conjunto de dados. A
coluna “Equação” mostra qual foi a equação de fusão que alcançou o melhor resultado,
para cada conjunto de dados. A Equação (3.1) é a mais simples das três equações tes-
tadas, sendo apenas uma média simples entre os vetores dos dois neurônios de peso. A
Equação (3.2) é uma média ponderada entre pesos dos neurônios e seus hits. A Equação
(3.3) é uma média ponderada entre pesos dos neurônios, hits e índice de validação de
agrupamento. Esta última equação, a mais complexa dentre as três utilizadas, apresentou
o melhor resultado para apenas 2 dos 15 conjuntos de dados avaliados.
A coluna “Abordagem” refere-se à forma como os mapas foram ordenados e fundidos,
tal como especificado na Subseção 3.1.3. Para a maioria dos conjuntos de dados, as
abordagens 2 (Mapas ordenados pelo MSQE e combinados pelo critério da melhora do
índice de validação) e 3 (Mapas ordenados pelo índice de validação e combinados pelo
critério da melhora do índice de validação) foram as que levaram aos melhores resultados
para o método proposto.
A coluna “CVI”, de Cluster Validity Index - índice de validação de agrupamentos -
mostra qual índice foi usado para conseguir a melhor acurácia de fusão em relação ao
único mapa, para cada conjunto de dados (DB é o índice Davies-Bouldin e CH é o índice
Calinski e Harabasz). O índice Davies-Bouldin é o que aparece mais vezes e o índice
PBM não conduziu a bons resultados para os conjuntos de dados utilizados.
A coluna “Tamanho do mapa” refere-se ao tamanho do mapa que alcançou o melhor
valor da acurácia. O mapa 15x15 não obteve resultados para os conjuntos de dados ava-
liados. Isto não significa que mapas com estas dimensões, ou seja, com 225 neurônios
na camada de saída, não são apropriados. Apenas significa que, para estes conjuntos de
dados, mapas com 100 ou com 400 neurônios se adaptaram melhor aos dados de entrada
e conduziram à melhores acurácias.
A coluna “Bagging” mostra que, para grande parte dos conjuntos de dados, utilizando
90% das amostras foi possível obter os melhores resultados. Uma elevada percentagem
do valor Bagging significa que há uma maior variedade de dados para o treinamento,
4.2. MAPAS DE TAMANHOS IGUAIS 39
levando a um melhor resultado de acurácia da fusão. Estes resultados mostram que é
possível obter boas precisões sem utilizar todos os elementos do conjunto de treinamento.
A coluna “Número de Subconjuntos” mostra o número de subconjuntos que foram
avaliados para encontrar a melhor acurácia. Para a maioria dos conjuntos de dados utili-
zados nesta experimento, as melhores acurácias foram obtidas com grandes quantidades
de subconjuntos. Isto era esperado, uma vez que quanto mais subconjuntos disponíveis,
mais fusões podem ocorrer e, consequentemente, o resultado da acurácia melhora.
A acurácia de um único mapa de Kohonen é comparado com os resultados da acurácia
do comitê de mapas nas duas últimas colunas da tabela.
Como pode ser visto na Tabela 4.2, para todos os conjuntos de dados utilizados neste
experimento,

Continue navegando