Buscar

eei-monara

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 47 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 6, do total de 47 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 9, do total de 47 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Ilha SolteiraIlha Solteira
UNIVERSIDADE ESTADUAL PAULISTA
“JÚLIO DE MESQUITA FILHO”
Câmpus de Ilha Solteira - SP
MONARA PEREIRA DA ROSA CARVALHO
ESTUDO E IMPLEMENTAÇÃO DAS TOOLBOXES DO
MATLAB PARA APLICAÇÕES EM ENGENHARIA
Ilha Solteira - SP
2015
MONARA PEREIRA DA ROSA CARVALHO
ESTUDO E IMPLEMENTAÇÃO DAS TOOLBOXES DO
MATLAB PARA APLICAÇÕES EM ENGENHARIA
Trabalho apresentado ao Programa de
Pós-Graduação em Engenharia Elétrica -
UNESP - Campus de Ilha Solteira, para
composição de nota de aprovação na
disciplina Estudos Especiais I.
Profa. Dra. Anna Diva Plasencia Lotufo
Orientadora
Ilha Solteira - SP
2015
RESUMO
Este trabalho apresenta um estudo sobre o aplicativo MATLAB R© e duas das suastoolboxes.
Primeiramente através de um ponto de vista teórico para introduzir os conceitos necessários
afim de que seja possível a compreensão das mesmas. Uma dastoolboxesutilizadas é a de
Redes Neurais Artificiais, onde seu objetivo é a realização deprevisões de carga e preço, a
outra, é atoolboxde lógicafuzzycujo propósito é simular um sistema de inferênciafuzzysobre
consumo de energia e analisar os dados de saída através das variáveis linguísticas.
Palavras-chave:Redes Neurais Artificiais. LógicaFuzzy. MATLAB R©. Toolbox.
LISTA DE FIGURAS
Figura 1 Componentes de um neurônio biológico. . . . . . . . . . . . .. . . . 9
Figura 2 Componentes de um neurônio artificial. . . . . . . . . . . . .. . . . . 10
Figura 3 Modelo de um Neurônio Artificial. . . . . . . . . . . . . . . . .. . . 11
Figura 4 Função relé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Figura 5 Função lógica threshold. . . . . . . . . . . . . . . . . . . . . . .. . . 12
Figura 6 Função sigmoide 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Figura 7 Função sigmoide 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Figura 8 Comportamento da função sigmoide com a variação de lambda. . . . . 13
Figura 9 Rede neural artificial. . . . . . . . . . . . . . . . . . . . . . . . . .. 14
Figura 10 Treinamento supervisionado. . . . . . . . . . . . . . . . . .. . . . . 15
Figura 11 Treinamento não-supervisionado. . . . . . . . . . . . . .. . . . . . . 16
Figura 12 Rede neural feedforward com não-linearidade sigmoidal. . . . . . . . 18
Figura 13 Treinamento de uma rede neural via técnica retropropagação. . . . . . 19
Figura 14 Exemplo de variável linguística. . . . . . . . . . . . . . .. . . . . . . 24
Figura 15 Arquitetura de sistemas baseados em regras fuzzy.. . . . . . . . . . . 25
Figura 16 Command Window para a abertura da toolbox de redes neurais . . . . 26
Figura 17 Carregando os dados para o MATLAB R© . . . . . . . . . . . . . . . . 27
Figura 18 Neural Network / Data Manager (nntool) . . . . . . . . . .. . . . . . 28
Figura 19 Criação de uma nova rede do tipo MLP com treinamento BP. . . . . 30
Figura 20 Criação de uma nova rede do tipo MLP com treinamento LM . . . . . 31
Figura 21 Visualizador da rede neural . . . . . . . . . . . . . . . . . . .. . . . 32
Figura 22 Rede: BP (aba de treinamento) . . . . . . . . . . . . . . . . . . . .. 33
Figura 23 Treinamendo da rede BP . . . . . . . . . . . . . . . . . . . . . . . . .34
Figura 24 Treinamendo da rede LM . . . . . . . . . . . . . . . . . . . . . . . .35
Figura 25 Rede: BP (aba de simulação) . . . . . . . . . . . . . . . . . . . . . .36
Figura 26 Dados exportados da toolbox para o ambiente MATLAB R© . . . . . . . 37
Figura 27 Gráfico da previsão de preço usando o algoritmo de treinamento BP . . 38
Figura 28 Gráfico da previsão de preço usando o algoritmo de treinamento LM . 38
Figura 29 Gráfico da comparação dos erros das previsões realizadas . . . . . . . 39
Figura 30 Command Window para a abertura da toolbox de lógica fuzzy . . . . . 40
Figura 31 FIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Figura 32 Editor das regras fuzzy . . . . . . . . . . . . . . . . . . . . . . .. . 41
Figura 33 Regras do FIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Figura 34 Gráfico de superfície do FIS . . . . . . . . . . . . . . . . . . . .. . . 43
LISTA DE ABREVIAÇÕES E SIGLAS
BP - Backpropagation
FIS - Fuzzy Inference System
LM - Levenberg-Marquardt
LMS - Least Mean-Square
MAPE - Mean Absolute Percentage Error
MATLAB R© - Matrix Laboratory
MLP - Multilayer Perceptron
RNA - Rede Neural Artificial
SUMÁRIO
1 INTRODUÇÃO E OBJETIVO 7
2 REDES NEURAIS 8
2.1 BREVE HISTÓRICO DASREDESNEURAIS ARTIFICIAIS 8
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 9
2.3 ESTRUTURA DASRNAS 14
2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS 15
2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS 16
2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 17
2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 19
3 LÓGICA FUZZY 22
3.1 BREVE HISTÓRICO DA LÓGICA FUZZY 22
3.2 VARIÁVEIS L INGUÍSTICAS 23
3.3 REGRASFUZZY 24
4 MatLab 26
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 26
4.2 USO DA TOOLBOX DE LÓGICA FUZZY 40
5 Resultados e Discussões 44
6 Referências 45
7
1 INTRODUÇÃO E OBJETIVO
Este trabalho é resultado do Estudo Especial I, onde teve como objetivo o estudo do apli-
cativo MATLAB R© e as suas principaistoolboxes, destacando as de Redes Neurais Articiciais e
LógicaFuzzy, com aplicações na área da engenharia.
O MATLAB R© é umsoftwarede alto desempenho que foi criado com o objetivo de resolver
diversos tipos de problemas matemáticos através da sua própria linguagem de programação,
que é de alto nível e as toolboxes são seus componentes que foram desenvolvidos para facilitar
o uso do software.
Para a realização deste trabalho foram usadas as seguintestoolboxes:
1. Primeiramente a “nntool” (Neural Network Toolbox
TM
), que torna possível a utilização
das redes neurais artificiais como método para realizar previsão de preços em um sistema
de 24 barras, que tem como entrada e saída respectivamente matrizes de cargas e de preço
de dimensões 24x200.
2. Em seguida atoolbox “fuzzy”, onde será simulado um sistema de inferênciafuzzy(FIS -
Fuzzy Inference System), no qual descreve a frequência de funcionarios em uma empresa
qualquer de acordo com o consumo de energia.
8
2 REDES NEURAIS
De maneira geral, uma rede neural pode ser definida como um aparelho no qual foi progra-
mado para imitar o funcionamento do cérebro humano, se adaptando a maneira como o mesmo
realiza tarefas específicas (HAYKIN, 1994). Já matematicamente uma rede neural é dita como
um sistema dinâmico no qual pode ser adaptado da mesma forma que um conjunto de equações
diferenciais e/ou algébricas (KARTALOPOULOS, 1996; LOTUFO, 2004).
As redes neurais são compostas de neurônios interligados, formando estruturas de proces-
samento de informação, onde os neurônios são as unidades de processamento. As mesmas são
capazes de fornecer saídas referentes a entradas lineares ou não-lineares (LOPES, 2005).
2.1 BREVE HISTÓRICO DASREDESNEURAIS ARTIFICIAIS
O trabalho pioneiro de McCulloch e Pitss (1943) foi publicadona década de 40, o que deu
início a era moderna das redes neurais (McCulloch & Pitts, 1943), neste trabalho é descrito um
cálculo lógico das redes neurais no qual unem os estudos sobre neurofisiologia com a lógica
matemática. McCulloch foi um psiquiatra e neuro-anatomistae Pitts um prodígio matemático,
eles se associaram em 1942 (HAYKIN, 1994). Em 1949 foi publicado o livro de Donald Hebb,
intitulado “The Organization of Behavioir” (HEBB, 1949), onde foi introduzido o conceito de
aprendizagem Hebbiana (LOPES, 2005).
Na década de 50, foi proposto por Minsky (1951) as redes baseadas em reforço com formas
simples de aprendizado (LOPES, 2005; ALTRAN, 2010), e tambémfoi publicado um livro inti-
tulado “The Computer and the Brain” (VON NEUMANN, 1958) que descreve a modelagem do
desempenho do cérebro através de hardware. Foi introduzidopor Rosenbaltt, proximadamente
15 anos depois da publicação do artido de MacColloch e Pitts, uma nova abordagem para o pro-
blema de reconhecimento de padrões,em seu trabalho sobre perceptron, um diferente método
de aprendizagem supervisionada (HAYKIN, 1994).
Widrow e Hoff introduziram em 1960 o algoritmo do mínimo quadrado médio (LMS -Le-
ast Mean-Square) e usaram o mesmo para a execução do Adaline (adaptive linear element)
(HAYKIN, 1994). Widrow e seus estudantes propuseram uma dasprimeiras redes neurais com
múltiplos elementos adaptativos em camadas treináveis, que é a estrutura Madaline (multiple-
adaline) (WIDROW, 1962). Ainda em 1962, foi publicado por Rosenblatt olivro “ Principles
of Neurodynamics” (ROSEMBLATT, 1962), onde ele introduziu a rede chamada perceptron.
É no processo de aprendizagem onde encontramos a diferença entre o perceptron e o Adaline
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 9
(HAYKIN, 1994). Porém, em 1969 surgiu o livro de Minsky e Papert que demonstraram ma-
tematicamente que existem limites básicos para que os perceptrons de camada única possam
calcular (HAYKIN, 1994), como o problema do ou-exclusivo, diminuindo assim o interesse de
pesquisa nesta área (LOPES, 2005) ao longo dos anos 70.
O interesse nas redes neurais artificiais foi renovado no final da década de 70 e início da
década de 80, quando vários pesquisadores retomaram seus trabalhos, mas a maior contribuição
neste período foi a proposta de (WERBOS, 1974) que desenvolveu oalgoritmoBackpropaga-
tion (Retropropagação), no qual se tornou o mais conhecido na área.
Desde então, o interesse nos estudos de redes neurais se expandiu de tal forma que se espera
usar redes mais eficientes para solucionar os diversos problemas importantes da vida real.
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL
São necessários em torno de 100 bilhões de neurônios para compor o sistema nervoso hu-
mano, onde cada um se comunica com outros 10 mil em média, consequentemente sua resposta
pode ser modificada de acordo com o comportamento dos outros neurônios (ALTRAN, 2010),
fazendo com que eles executem papel fundamental na determinação do funcionamento e com-
portamento do corpo humano e do raciocínio (LOPES, 2005). Oscomponentes de um neurônio
mais comum são ilustrados na Figura 1 (Mendes Filho Carvalho,1997).
Figura 1 - Componentes de um neurônio biológico.
Fonte: LOPES(2005).
Onde, o corpo celular (do grego, soma) é a parte central do neurônio, responsável por re-
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 10
ceber e gerar os impulsos nervosos; os dendritos recebem as informações de outros neurônios
e conduzem estes sinais de entrada até o corpo celular através do axônio, que pode medir cerca
de 0,1 milímetro e chegar a mais de 1 metro de comprimento, os mesmos se interligam através
das sinapses que são seus pontos de contato, no qual possuem uma capacidade chamada efi-
ciência sináptica, que os torna capazes de controlar o fluxo de informação entre os neurônios
(MINUSSI & LOTUFO, 2008)
As redes neurais artificiais possuem neurônios artificiais,que são responsáveis por imi-
tar o neurônio biológico e suas características, tornando-se uma unidade de processamento de
informação fundamental para o funcionamento de uma RNA (ALTRAN, 2010).
O primeiro modelo de neurônio artificial proposto por McCulloch e Pitts (1943), que atu-
almente é o mais conhecido na literatura especializada é ilustrado na Figura 2, mostrando seus
componentes de acordo com o neurônio biológico.
Figura 2 - Componentes de um neurônio artificial.
Fonte: LOPES(2005).
A atividadesé a soma do conjunto den entradas aplicadas ao neurônio que são ponderadas
por seus respectivos pesos. Uma função não-linearf (s) é alimentada pela atividades, onde
produz um sinal no qual é enviado aos demais neurônios (MINUSSI & LOTUFO, 2008). Existe
também um pesow0 (bias) que é alimentado por uma entrada (arbitrária)x0 = +1 que opera
como o controle do nível de saída do neurônio (WIDROW & LEHR, 1990) como ilustrado na
Figura 3.
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 11
Figura 3 - Modelo de um Neurônio Artificial.
Fonte: LOPES(2005).
A função não-linearf (s) é denominada função de ativação. As Figuras 4, 5, 6 e 7 mostram
alguns exemplos das não-linearidades mais utilizadas.
Figura 4 - Função relé.
Fonte: MINUSSI & LOTUFO (2008).
f (s) =
{
+1 ses≥ 0,
−1 ses≤ 0
(1)
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 12
Figura 5 - Função lógica threshold.
Fonte: MINUSSI & LOTUFO (2008).
Figura 6 - Função sigmoide 1.
Fonte: MINUSSI & LOTUFO (2008).
f (s) =
1eλs
1+eλs
(2)
2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 13
Figura 7 - Função sigmoide 2.
Fonte: MINUSSI & LOTUFO (2008).
f (s) =
1
1+eλs
(3)
sendo:
λ = inclinação da função sigmoide.
O efeito da variação deλ (λ1> λ2> λ3> 0) é ilustrado na Figura 8 para melhor compre-
ensão.
Figura 8 - Comportamento da função sigmoide com a variação de lambda.
Fonte: MINUSSI (2008).
2.3 ESTRUTURA DASRNAS 14
2.3 ESTRUTURA DASRNAS
Uma rede neural artificial é composta de neurônios, que são oselementos de processamento
e sinapses, que os interligam para formar a rede (MINUSSI & LOTUFO, 2008), no qual são
dispostos formando camadas distintas: camada de entrada, camada escondida ou intermediária
e camada de saída (LOTUFO, 2004) como ilustrado na Figura 9 (MINUSSI & LOTUFO, 2008).
Figura 9 - Rede neural artificial.
Fonte: MINUSSI & LOTUFO (2008).
As redes neurais artificiais podem ser classificadas em duas classes de acordo com sua
propagação de dados (KROSE & SMAGT, 1996):
1. Redesfeedforward(não-recorrentes): O sentido dos dados é sempre das unidades de
entrada para as unidades de saída. Os dados podem ser processados sobre múltiplas
camadas, mas as conexões feedback não existem (KROSE & SMAGT, 1996).
2. Redesfeedback(recorrentes): Contém laços de realimentação. Em alguns casos, os
valores de ativação das unidades submetem-se a um processo de adaptação no qual a
rede passa para um estado estável no qual estas ativações nãovariarão mais (KROSE &
SMAGT, 1996).
Na redefeedforwarda saída é determinada somente de acordo com as entradas e os valores
dos pesos, enquanto nos neurônios da rede recorrente é desenvolvida uma memória em longo
prazo (LOPES, 2005; WARD SYSTEMS GROUP, 2000; WASSERMAN, 1989).
2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS 15
2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS
As redes neurais têm como sua propriedade mais importante a habilidade de aprender e com
isso melhorar sua execução (LOTUFO, 2004), que acontece através de um processo que se re-
pete ajustando seus pesos correspondendo ao treinamento. Existem dois tipos de aprendizagem,
a forma supervisionado e a não-supervisionado (WIDROW & LEHR,1990):
1. Treinamento Supervisionado: A rede aprende através da combinação dos padrões de en-
trada e saída (vetor da saída desejada). Este treinamento necessita de avaliação de de-
sempenho, por isso existe a presença de um agente externo, o professor (“teacher”), que
informa a rede sobre o seu desempenho. Pode-se citar a rede Madaline como um exem-
plo, pois possui este tipo de treinamento através do algoritmo backpropagation (KROSE
& SMAGT, 1996; WASSERMAN, 1989), que é um dos mais difundidos para este tipo de
treinamento. Este tipo de treinamendo é ilustrado na Figura10.
Figura 10 - Treinamento supervisionado.
Fonte: MINUSSI & LOTUFO (2008).
2. Treinamento Não-supervisionado: Este treinamento necessita apenas de padrões de en-
trada, não possui professor, possui um procedimento de treinamento auto-organizável,
como mostra a Figura 11. Pode-se citar como exemplo as redes Hopfield, Kohonen e
ART (KROSE & SMAGT, 1996; WASSERMAN, 1989).
2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS 16
Figura 11 - Treinamento não-supervisionado.
Fonte: MINUSSI & LOTUFO (2008).
3. Treinamento por competição: Este treinamento é parecidocom o supervisionado, pois
existe uma saída desejada. As redes deste tipo têm vários neurônios de saída. Quando se
aplica um vetor de entrada na rede, os neurônios de saída “competem” para que apenas
um neurônio (o vencedor) prevaleça, fornecendo a saídadesejada. (STORB & WAZ-
LAWICK, 1999).
4. Treinamento Híbrido: Nesse tipo de treinamento o treinamento supervisionado e o não-
supervisionado se alternam.
2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS
Para uma rede neural que é usada para classificar padrões que se encontram em lados opos-
tos do hiperplano (linearmente separáveis) o perceptron é aforma mais simples de realizar. Ele
é formado exclusivamente de um único neurônio com pesos sinápticos ajustáveis e bias. Ele
realiza apenas classificações de padrões com duas classes, que devem ser linearmente separá-
veis para o funcionamento adequado do algoritmo (HAYKIN, 1994). Surgiu então a pesquisa
de (MINSKY; PAPERT, 1969), no qual descreve a incapacidade da rede perceptron em resolver
problemas básicos como ou-exclusivo, que necessita de maisde um neurônio.
Já o perceptron multicamadas (MLP -Multilayer Perceptron) possui a composição básica
da rede neural artificial, uma camada de entrada, uma ou mais camadas intermediárias e uma
camada de saída, como ilustrado anteriormente pela Figura 9.
Nas redes de várias camadas, cada camada possui uma tarefa específica. A camada de
saída monta o vetor de resposta baseado nos estímulos recebidos da camada de entrada. As
2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 17
camadas escondidas extraem características, usando os pesos de entrada para desenvolver sua
própria representação do problema. Com conexões certas entre as unidades de entrada e as
intermediárias, sempre pode-se encontrar uma representação que produzirá o mapeamento certo
da entrada para a saída através das unidades intermediárias(ALTRAN, 2010).
Foi provado por Cybenko que é suficiente para a rede possuir apenas uma camada interme-
diária para ser feita a aproximação de qualquer função contínua. Para a produção de qualquer
mapeamento são necessárias no máximo duas camadas intermediárias com um número satisfa-
tório de unidades por camada (CYBENKO, 1989).
O treinamento dessa rede ocorre de forma supervisionada usando o algoritmo backpropa-
gation, por isso o perceptron multicamadas tem muito sucesso na aplicação em resoluções de
problemas complexos (WERBOS, 1974), esse treinamento se dá em dois passos:
1. Um vetor é apresentado à camada de entrada, e então as camadas intermediárias calculam
a resposta que é produzida na camada de saída e o erro é calculado (ALTRAN, 2010);
2. Em seguida o erro é transmitido da camada de saída até a camada de entrada, modificando
os pesos das conexões dos neurônios das camadas intermediárias (ALTRAN, 2010).
2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION
São apresentadas grandes dificuldades na realização das redes neuraisfeedforwardcom
não-linearidade do tipo relé, considerando a baixa eficiência das técnicas de treinamento dis-
poníveis (MINUSSI, 2008). Foi então proposto por Werbos (1974) um novo mecanismo de
adaptação de pesos, o algoritmo “Retropropagação”, que apresenta a substituição da função
não-linear relé por uma função sigmoidal. Esse mecanismo é um procedimento baseado no erro
quadrático dos neurônios da camada de saída da rede neural, onde o erro é transmitido da saída
para a entrada (MINUSSI, 2008). Determina-se as variações dos pesos usando o algoritmo gra-
diente descendente (WIDROW & LEHR, 1990). A Figura 12 mostra o diagrama esquemático
de uma rede neural apta para o uso do algoritmoBackpropagation.
2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 18
Figura 12 - Rede neural feedforward com não-linearidade sigmoidal.
Fonte: MINUSSI (2008).
A função sigmoide foi expressa pela Figura 6, tendo a sua variação ilustrada na Figura 7,
podendo ser calculadas utilizando as equações 2 e 3 respectivamente.
O treinamento da rede é iniciado apresentando-se um vetorX à rede, que irá produzir uma
saídaY (MINUSSI, 2008), passando pela camada intermediária. A resposta real produzida pela
camada de saída será comparada com a resposta desejada, o queproduzirá um erro, que será re-
calculado através de um algoritmo de minimização chamado gradiente descendente. Existe uma
tolerância preestabelecida no qual será sempre comparada ao erro, que influencia na convergên-
cia do algoritmo que se dá quando esse erro por menor ou igual atolerância (LOTUFO, 2004).
São adotados valores randômicos para iniciar os pesos (HAYKIN, 1994; KARTALOPOULOS,
1996; WIDROW & LEHR, 1990).
Na Figura 13 é apresentado o treinamento completo de uma redefeedforwardutilizando o
algoritmo retropropagação.
2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 19
Figura 13 - Treinamento de uma rede neural via técnica retropropagação.
Fonte: MINUSSI (2008).
2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT
O algoritmo de Levenberg - Maquardt é caracterizado por possuir uma quantidade mode-
rada de pesos sinápticos, que são determinados pela derivada de segunda ordem do erro qua-
drático em relação aos pesos, o que se difere do treinamento via retropropagação, no qual é
considerado apenas as derivadas de primeira ordem (BARBOSA etal, 2005).
Esse algoritmo tem como base um método de otimização, que fazaproximação para a ma-
triz descrita na equação 4, onde se determina em função da matriz Jacobiana expressa na equa-
ção 6 que contém as primeiras derivadas dos pesos em função dos pesos sinápticos (FREITAS,
2013; ZHANG, 2011; BARBOSA et al, 2005).
H =
∂ 2ER(W)
∂W2
(4)
OndeER(W) é expresso por 5:
2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 20
ER(W) =
1
n
n
∑
i=1
(y1−yei)
2 (5)
J =
∂e(W)
∂ (W)
(6)
E e(W) pode ser descrito conforme 7:
e(W) =
n
∑
i=1
(y1−yei) (7)
Sendo:
y1 = saída fornecida pela rede
yei = valor exato correspondente a saída da rede
A matriz Jacobiana possui uma determinação mais simples do que a determinação da matriz
Hessiana. Quando a performance de treinamento é expressa emfunção da soma dos erros
quadráticos, para uma rede neural, a matriz Hessiana é expressa pela expressão 8 (ABREU,
2012; BARBOSA et al, 2005).
H = JT(W)J(W) (8)
E gk pode ser escrito conforme a equação 9.
gk = 2J
T(W)e(W) (9)
A atualização dos pesos do algoritmo Levenberg - Marquardt ébaseado na mesma expres-
são do método de Newton, descrito pela equação 10:
W(k+1) =W(k)−H−1gk (10)
Onde, são realizadas algumas modificações para determinar amatriz Hessiana, mostrada
em 11
W(k+1) =W(k)− [JT(W)J(W)+µkI ]−1JT(W)e(W) (11)
2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 21
Sendo:
I = matriz identidade
µk = constante do método de Levenberg - Marquardt
A variávelµk é um parâmetro que funciona como um fator de estabilização dotreinamento,
onde a aproximação é ajustada de forma a utilizar a rápida convergência do método de Newton,
o que evita erros de convergência que se dão pelos passos longos (ABREU, 2012; BARBOSA
et al., 2005).
O método de Levenberg - Marquardt aprensenta convergência com a realização de menos
iterações, porém requer mais cálculos por iteração devido aos cálculos de matrizes inversas, o
que exige maior esforço computacional. Esse algoritmo de treinamento é considerado o mais
rápido para redes neurais, trabalhando com um número razoável de parâmetros na rede, quando
esse número é elevado, a utilização do mesmo não é recomendada (ABREU, 2012; RANGA-
NATHAN, 2004).
22
3 LÓGICA FUZZY
O termofuzzytraduzido do inglês possui o significado de algo incerto, vago ou indefinido.
Diferente da lógica clássica, a lógicafuzzyapresenta valores além de 1 (um) e 0 (zero) ou
“verdadeiro” e “falso”, que podem se encontrar acima de 1 (um) ou “muito verdadeiro”, pode
estar abaixo de 0 (zero) ou “muito falso” e pode estar entre osdois, sendo assim, “mais ou
menos”.
A teoria de conjuntosfuzzycomeçou em 1965 como sendo uma teoria matemática aplicada a
conceitos difusos. A partir daí, a pesquisa e a aplicação dessa teoria em sistemas de informação
têm crescido (PANDORFI, 2007).
O chamado “raciocínio aproximado” é uma área de aplicação dateoriafuzzy, no qual se as-
semelha à forma do pensamento humano. Deste modo, variáveislinguísticas são representadaspor conjuntosfuzzy, interpretando variáveis linguísticas como sendo variáveis cujos valores são
palavras ou sentenças em linguagem natural, existindo também, variação nas opções (ZADEH,
1965).
3.1 BREVE HISTÓRICO DA LÓGICA FUZZY
A ciência da lógica foi fundada pelo filósofo grego Aristóteles (384 - 322 a.C.), que também
estabeleceu um conjunto de regras rígidas para que conclusões logicamente válidas pudessem
ser aceitas. Esta lógica é binária, ou seja, é uma declaraçãoque pode ser verdadeira ou falsa,
não podendo ser parcialmente verdadeira ou parcialmente falsa (MALLUTA, 2004).
Em 1847, George Boole, atribuiu valores numéricos para as afirmações verdadeiras e falsas,
sendo 1 (um) para as verdadeiras e 0 (zero) para as falsas (CAMPOS FILHO, 2004), criando
assim a álgebra booleana, que é realizada com operações baseadas nesses valores.
Porém em 1903, Bertrand Russell publicou um problema que ficou conhecido como o “pa-
radoxo de Russell”, que não pode ser resolvido pela lógica tradicional. Então, em seu livro “A
Free Man’s Worship” sobre filosofia de 1923, ele afirma: “Habitualmente, toda a lógica tradici-
onal supõe que se empregam símbolos precisos. Entretanto, isso não se aplica à vida terrestre,
mas somente a uma existência celestial imaginada” (CAMPOS FILHO, 2004).
Já por volta de 1930, foi desenvolvida uma lógica multinívelpor Jan Lukasiewicz, onde o
mesmo argumentou sobre a lei da contradição, que diz respeito a uma determinada afirmação
ser verdadeira, ou não, ao mesmo tempo.
3.2 VARIÁVEIS L INGUÍSTICAS 23
A teoria dos conjuntosfuzzyfoi desenvolvida por Lotfi Asker Zadeh, em meados de 1960,
onde, pela primeira vez foi mencionado o termo “lógicafuzzy” em uma publicação feita pelo
mesmo (ZADEH, 1965).
Desde então, as outras tecnologias recentes têm o exemplo seguido pela lógicafuzzy: sendo
inventada nos Estados Unidos, desenvolvida na Europa e massificada no Japão (CAMPOS FI-
LHO, 2004).
Apenas depois de 1970 foram realizadas as primeiras aplicações industriais de lógicafuzzy,
na Europa.
No início dos anos 80, também na Europa, foram desenvolvidasmuitas das mais avança-
das tecnologias de lógicafuzzypara aplicações e projetos de pesquisa, o que influenciou as
companhias japonesas a começarem a utilizá-la em engenharia de controle (CAMPOS FILHO,
2004).
3.2 VARIÁVEIS L INGUÍSTICAS
As variáveis linguísticas possuem valores representados por palavras ou frases, ao invés de
números, ou seja, as descrições das informações são dispostas de forma qualitativa (PEDRYCZ
GOMIDE, 1998). Quando se utiliza essas expressões linguísticas são definidos grupos que
pertencem a diferentes graus de pertinência entre zero (falso) e um (verdadeiro), rompendo
assim, os limites da rígida divisão da lógica clássica (SOUSA, 2006).
Cada variável linguística possui um grupo de expressõesfuzzyassociadas (chamadas termos
primários) que são os valores que a variávelfuzzypode ter. Por exemplo, a variávelfuzzy
“consumo de energia” pode ter um grupo de termos primários baixo, médio, alto, onde cada um
desses termos representa um conjuntofuzzyespecífico.
Um bom exemplo para o entendimento de variáveis linguísticas é descrito por (MALUTTA,
2004), onde explica que a variável linguística é caracterizada porn,T,X,m(n), onden é o nome
da variável (ph),T são os termos linguísticos den (baixo, neutro, elevado),X são os valores de
n onde o significado do termo linguístico é determinado (o ph pode estar, por exemplo, entre 4,0
e 6,5), em(n) é uma função semântica que distingue para cada termo linguístico n pertencente
aT o seu significado, que é um conjuntofuzzyemX (ou seja,m : T → (X), onde(X) é o espaço
dos conjuntosfuzzy).
É ilustrado na Figura 14 um exemplo de variável linguística,que se refere à composição do
pH em aterros sanitários. Tendo em cada termo linguístico umconjuntofuzzy m(n) associado
que o caracteriza.
3.3 REGRASFUZZY 24
Figura 14 - Exemplo de variável linguística.
Fonte: MALUTTA (2004).
3.3 REGRASFUZZY
As regrasfuzzysão operações realizadas com as variáveis linguísticas utilizando os conec-
tivos “e”, “ou” e “não”.
Uma regrafuzzyé uma unidade que consegue capturar algum conhecimento específico,
enquanto um conjunto de regras pode descrever um sistema em suas várias possibilidades. Cada
regra fuzzy é possui uma parte antecedente (Se) e uma parte consequente (Então), tendo como
resultado uma estrutura do tipo:
Se {antecedentes} Então {consequentes}
Onde, os antecedentes descrevem uma condição e os consequentes descrevem uma conclu-
são (MALUTTA, 2004).
Um sistema baseado em regrasfuzzyé composto de basicamente quatro componentes: o
fuzzificador (que é um processador de entrada), um conjunto de regras linguísticas, um método
de inferênciafuzzye o defuzzificador (que é um processador de saída), que gera umnúmero
real como saída (RIBACIONKA, 1999). Um sistemafuzzyé mostrado na Figura 15.
3.3 REGRASFUZZY 25
Figura 15 - Arquitetura de sistemas baseados em regras fuzzy.
Fonte: Adaptado de GABRIEL (2008).
É representado por essa estrutura de controlador a transformação que acontece com nú-
meros reais, que pertencem domínio do mundo real para os números fuzzyque pertencem ao
domínio fuzzy. Um conjunto de inferênciasfuzzyé usado nessa transofrmação para as toma-
das de decisões, então, existe uma transformação inversa dodomíniofuzzypara o domínio do
mundo real, para ocorrer a acoplagem entre a saída do algoritmo fuzzye as variáveis de atuação
(SHAW & SIMÕES, 1999).
O processo de fuzzyficação é onde os valores de entrada são convertidos em conjuntosfuzzy,
ou seja, um mapeamento do domínio de números reais para o domínio fuzzy. A fuzzyficação
também representa a atribuição de valores linguísticos, descrições qualitativas, definidas por
funções de pertinência às variáveis de entrada. É uma espécie de pré-processamento das cate-
gorias ou classes dos sinais de entrada, o que reduz grandemente o número de valores que serão
processados. Quanto menos valores a serem processados maior a velocidade computacional
(SHAW & SIMÕES, 1999).
Já na defuzzyficação, a variável linguística de saída deduzida pelas regrasfuzzytem seu
valor traduzido num valor real. A meta é ter como saída um único número real que melhor
represente os valoresfuzzyinferidos da variável linguísticas de saída. Para selecionar o método
conveniente pode-se utilizar um enfoque com base no centroide ou nos valores máximos que
ocorrem na função de pertinência resultante (GABRIEL, 2008).Centroide ou método do Centro
de Gravidade é a técnica de defuzzificação mais comumente usada.
26
4 MATLAB
O MATLAB R© é uma linguagem de programação de alto nível e um ambiente interativo
para computação numérica, visualização e programação. No ambiente MATLAB R© é possível
analisar dados, desenvolver algoritmos, e também criar modelos e aplicações. Com o uso da
linguagem do MATLAB R© e suas ferramentas é possível chegar a resoluções de diversos pro-
blemas numéricos em um tempo muito pequeno comparado ao que seria gasto para escrever
um programa semelhante em outras linguagens de programação(THE MATHWORKS, 1994-
2015).
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS
A toolboxde redes neurais (Neural Network Toolbox
TM
) fornece funções e aplicativos para
modelagem de sistemas não-lineares que não são modelados manualmente com facilidade. Essa
toolboxsuporta aprendizado do tipo supervisionado comfeedforward, com base radial e redes
dinâmicas, e também suporta aprendizado não supervisionado. Com essatoolboxé possível
projetar, treinar, visualizar e simular redes neurais, podendo usá-la para aplicações tais como
reconhecimento de padrões, clustering, previsão de sériestemporais e modelagem do sistema
dinâmico e controle (THE MATHWORKS, 1994-2015).
Para acessar atoolboxde redes neurais utilizada nesse trabalho através do MATLAB R© é
necessário digitar “nntool” na Janela de Comando (ouCommand Window) do aplicativo como
sugere a Figura 16, o que irá resultar em uma janela como mostraa Figura 18.
Figura 16 - Command Window para a abertura da toolbox de redes neurais
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 27
Na Figura 17 estão descritas as linhas de código que fazem a importação dos dados para o
MATLAB R© e a normalização dos mesmos através do editor de código, ondetambém é possível
chamar a ferramenta, como podemos ver na linha 20.
Figura 17 - Carregando os dados para o MATLAB R©
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 28
A Figura 18 mostra a interface datoolboxde redes neurais com as entradas, saídas e redes
já adicionadas ao ambiente.
Figura 18 - Neural Network / Data Manager (nntool)
Fonte: MATLAB R©2015.
Sendo (quadrosInput DataeTarget Data):
x = entrada para o treinamento, uma matriz de cargas 24x200;
s = saída para o treinamento, uma matriz de preço 24x200;
x_sim = entrada para a simulação da previsão, sendo uma matriz de 24x1;
d = saída desejada da simulação de x_sim, sendo uma matriz de 24x1;
cmape = entrada para o cálculo do MAPE, matriz 24x200; e
pmape = MAPE desejado, matriz 24x200.
As redes criadas foram (quadroNetworks):
BP = rede do tipo MLP com treinamento via retropropagação; e
LM = rede do tipo MLP com treinamento Levenberg - Marquardt.
As saídas e erros são mostradas nos quadrosOutput DataeError Data, onde:
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 29
BP_saida = saída resultante do treinamento da rede BP;
BP_saida_sim = saída da simulação da rede BP;
BP_saida_mape = saída do MAPE da rede BP;
LM_saida = saída resultante do treinamento da rede LM;
LM_saida_sim = saída da simulação da rede LM;
LM_saida_mape = saída do MAPE da rede LM;
BP_erro = erro resultante do treinamento da rede BP;
BP_erro_sim = erro da simulação da rede BP;
BP_erro_mape = erro do MAPE da rede BP;
LM_erro = erro resultante do treinamento da rede LM;
LM_erro_sim = erro da simulação da rede LM; e
LM_erro_mape = erro do MAPE da rede BP;
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 30
As Figuras 19 e 20 mostram o processo de criação das redes neurais BP e LM do tipo MLP,
onde a função de treinamento (Training function) TRAINGDA se refere a rede com treinamento
via retropropagção e TRAINLM ao treinamento com o algoritmo de Levenberg - Marquardt.
A função de transferência (Transfer function) usada é a LOGSIG ilustrado no Capítulo 2 pela
Figura 7.
Figura 19 - Criação de uma nova rede do tipo MLP com treinamentoBP
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 31
Figura 20 - Criação de uma nova rede do tipo MLP com treinamentoLM
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 32
A Figura 21 pode ser vizualizada clicando no botãoView (Vizualizar), onde mostra como
será a estrutura da rede neural criada, neste caso, com 24 neurônios na camada de entrada (Input
Layer), 25 neurônios na camada escondida (Hidden Layer) e 24 neurônios na camada de saída
(Output Layer).
Figura 21 - Visualizador da rede neural
Fonte: MATLAB R©2015.
As redes podem ser abertas através de um duplo clique em seus nomes depois que elas
foram criadas. Elas ficam localizadas no campoNetwork, como foi mostrado na Figura 18.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 33
A Figura 22 mostra uma rede aberta na aba de treinamento (Train).
Figura 22 - Rede: BP (aba de treinamento)
Fonte: MATLAB R©2015.
Onde será necessário selecionar os dados de entrada e saída desejados para a realização do
treinamento da rede. Esse treinamento irá gerar uma saída e um erro referente a este treina-
mento.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 34
As Figuras 23 e 24 apresentam a interface datoolboxquando o treinamento é acionado
através do botãoTrain Network.
Figura 23 - Treinamendo da rede BP
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 35
Figura 24 - Treinamendo da rede LM
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 36
Após a finalização do treinamento das redes, é possível fazeruma simulação/previsão. É
necessário selecionar como entrada os dados, de carga, neste caso, para a rede dar a saída
calculada, assim, em seguida podermos fazer uma comparaçãodos resultados calculados com
os resultados reais. Na Figura 25 podemos ver a interface da aba de simulação da rede, que dá
os resultados atrávez do clique no botão “Simular Rede” (Simulate Network).
Figura 25 - Rede: BP (aba de simulação)
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 37
Os resultados das simulações feitas pelatoolbox foram exportados para aworkspacedo
MATLAB R©, ilustrados na Figura 26, e em seguida foram feitas comparações dos mesmos com
os resultados esperados.
Figura 26 - Dados exportados da toolbox para o ambiente MATLAB R©
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 38
As Figuras 27 e 28 ilustram graficamente a comparação dos resultados calculados com os
desejados feitos pelos trenamentos BP e LM respectivamente.
Figura 27 - Gráfico da previsão de preço usando o algoritmo de treinamento BP
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
0
5
10
15
20
25
30
Barras
P
re
ço
 (
$/
M
W
h)
 
 
Real
Previsto
Fonte: MATLAB R©2015.
Figura 28 - Gráfico da previsão de preço usando o algoritmo de treinamento LM
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
0
5
10
15
20
25
30
Barras
P
re
ço
 (
$/
M
W
h)
 
 
Real
Previsto
Fonte: MATLAB R©2015.
4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 39
Já a Figura 29 mostra a comparação dos erros de cada treinamento.
Figura 29 - Gráfico da comparação dos erros das previsões realizadas
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
0
1
2
3
4
5
6
7
8
9
10
Barras
P
re
ço
 (
$/
M
W
h)
 
 
Erro do BP
Erro do LM
Fonte: MATLAB R©2015.
4.2 USO DA TOOLBOX DE LÓGICA FUZZY 40
4.2 USO DA TOOLBOX DE LÓGICA FUZZY
A toolboxde lógicafuzzy(Fuzzy Logic Toolbox
TM
) é um programa autossuficiente que pode
ser usado para simular as saídas do seu sistema de inferênciafuzzy(FIS - Fuzzy Inference
System) sem precisar digitar linhas de código no MATLAB R© (THE MATHWORKS, 1994-
2015).
Para acessar o ambientefuzzyé necessário digitar “fuzzy” na janela de comando do MATLAB R©,
como sugere a Figura 30, o que irá resultar na abertura de uma janela tal como apresenta a Fi-
gura 31, na qual já está configurada com as regras escolhidas para a apresentação destatoolbox.
Figura 30 - Command Window para a abertura da toolbox de lógicafuzzy
Fonte: MATLAB R©2015.
Figura 31 - FIS
Fonte: MATLAB R©2015.
4.2 USO DA TOOLBOX DE LÓGICA FUZZY 41
Temos as variáveis “consumo” e “dia” que passam pela base de regras “Fuzzy” e tem como
resultado “funcionários”.
Sendo:
consumo= se refere ao consumo de energia em uma determinada empresa;
dia= dia da semana a ser analizado; e
funcionários= quantidade de funcionários presentes na empresa no dia selecionado.
A Figura 32 apresenta a base de regras criada para este exemplo.
Figura 32 - Editor das regras fuzzy
Fonte: MATLAB R©2015.
Estas regras dizem respeito à uma empresa fictícia, onde teremos como base o consumo de
energia da mesma para sabermos a quantidade aproximada de funcionários presentes em cada
dia da semana.
4.2 USO DA TOOLBOX DE LÓGICA FUZZY 42
A primeira regra diz que se o consumo de energia for baixo e o dia não for domingo, e sim
os demais dias da semana, então, existem poucos funcionários na empresa nesse dia.
A segunda regra mostra que se o consumo for alto e o dia também não for domingo, então,
neste dia existem muitos funcionários presentes na empresa.
A terceira regra fala que se o consumo de energia for médio em odia não for domingo,
existe na empresa uma quantidade média de funcionários.
É mostrado na Figura 33 como o FIS apresenta graficamente as regras criadas. Arrastando
os ponteiros vermelhos presentes em cima dos gráficos “consumo” e “dia” veremos uma modi-
ficaçãonos gráficos “funcionários”.
Figura 33 - Regras do FIS
Fonte: MATLAB R©2015.
4.2 USO DA TOOLBOX DE LÓGICA FUZZY 43
A toolboxde LógicaFuzzytambém possui a opção de plotagem de gráficos, como exemplo,
foi gerado um gráfico de superfície, onde temos uma visão ampla dos resultados, mostrado pela
Figura 34.
Figura 34 - Gráfico de superfície do FIS
Fonte: MATLAB R©2015.
44
5 RESULTADOS E DISCUSSÕES
Pode-se concluir com este trabalho, que o uso dastoolboxesé viável, pois economiza muito
tempo na realização das tarefas desejadas, devido a complexidade das mesmas, tendo os mes-
mos resultados.
No caso datoolboxde Redes Neurais, foi possível realizar o treinamento das redes através
de um clique, o que não seria possível programando manualmente a rede, pois teria que ser
escritas várias linhas de código apenas para realizar o treinamento. Neste trabalho foram usados
dois algoritmos de treinamento, oBackpropagatione o Levenbert - Marquardt, o que levaria um
longo tempo para ser alterado sem o uso da ferramenta.
Com relação àtoolboxde LógicaFuzzy, conseguimos chegar a um resultado satisfatório em
um pequeno período de tempo. Não são feitos cálculos visivelmente, os resultados são determi-
nados apenas com a ajuda das variáveis linguísticas, o que facilita o entendimento dos mesmos.
É possível ver claramente que o sistema de inferênciafuzzypode ser usado em aplicações de
diferentes tipos e em diferentes áreas.
Tendo uma visão geral das toolboxes utilizadas, é possível concluir que existe a possibili-
dade de realizar vários trabalhos com aplicações na área da engenharia com muita facilidade e
rapidez, pois, com o tempo economizado na parte de programação, o que não seria o real foco,
pode ser usado para a realização e aprimoramento da pesquisaem si.
45
6 REFERÊNCIAS
ABREU, T. A. S. Previsão de Cargas Elétricas através de um ModeloHíbrido de Regressão
com Redes Neurais, Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia
Elétrica, UNESP de Ilha Solteira, 2012.
ALTRAN, A. B. Sistema Inteligente Para Previsão de Carga Multimodal em Sistemas Elé-
tricos de Potência, Tese de Doutorado, Programa de Pós-graduação em Engenharia Elétrica,
UNESP de Ilha Solteira, novembro-2010.
BARBOSA, A. H; FREITAS, M. S. R; NEVES, A. F. Confiabilidade estrutural utilizando
os métodos de Monte Carlo e redes neurais, UFOP - Escola de Minas - Departamento de Enge-
nharia Civil, Ouro Preto MG, setembro-2005.
CAMPOS FILHO, P. Método de Apoio à Decisão na Verificação da Sustentabilidade de
uma Unidade de Conservação, Usando Lógica Fuzzy, Tese de Doutorado, Programa de Pós-
Graduação em Engenharia de Produção, Universidade Federalde Santa Catarina, dezembro-
2004.
FREITAS, P. F. S. Previsão de Preços (LMP) por redes GRNN, Dissertação de Mestrado,
Programa de Pós-Graduação em Engenharia Elétrica, UNESP deIlha Solteira, 2013.
HAYKIN, S. Neural Networks: A Comprehensive Foundation, Prentice-Hall, Upper Saddle
River, New Jersey, USA, 1994.
KARTALOPOULOS, S. V. Understanding Neural Networks and Fuzzy Logic, New York,
NY, U.S.A., IEEE Press, 1996.
KROSE, B. and SMAGT, P. V. An introduction to neural networks,Online Book, University
of Amsterdam, Eighth Edition, 1996.
LOPES, M. L. M. Desenvolvimento de Redes Neurais para Previsão de Cargas Elétricas de
Sistemas de Energia Elétrica, Tese de Doutorado, Programa de Pós-Graduação em Engenharia
Elétrica, UNESP de Ilha Solteira, dezembro-2005.
LOTUFO, A. D. P. Análise de Sensibilidade por Redes Neurais Para Estudos da Estabi-
lidade Transitória de Sistemas Elétricos de Potência, Tesede Doutorado, Programa de Pós-
Graduação em Engenharia Elétrica, UNESP de Ilha Solteira, agosto-2004.
LOTUFO, A. D. P. Mercados elétricos e redes neurais. Ciudad Real. Universidad de castilla
la Mancha, 2012. (Processo CAPES BEX, 5665/11-6). Relatório final de estágio de Pós-
6 Referências 46
Doutorado.
MALUTTA, C. Método de Apoio à Tomada de Decisão Sobre a Adequação de Aterros
Sanitários Utilizando a Lógica Fuzzy, Tese de Doutorado, Programa de Pós-Graduação em
Engenharia de Produção, Universidade Federal de Santa Catarina, dezembro-2004.
MENDES FILHO, E. F.; CARVALHO, A. C. P. L. Evolutionary design of MLP neural
network architectures, IV SBRN - Simpósio Brasileiro de Redes Neurais, Campos do Jordão -
São Paulo, pp. 58-65, 1997.
MINUSSI, C. R; LOTUFO, A. D. P. Redes Neurais: Introdução e Principais Conceitos,
Programa de Pós-Graduação em Engenharia Elétrica, UNESP deIlha Solteira, maio-2008.
MINUSSI, C. R. Rede Neural Retropropagação, Programa de Pós-Graduação em Engenha-
ria Elétrica, UNESP de Ilha Solteira, maio-2008.
PEDRYCZ, W; GOMIDE, F.A.C. An Introduction to Fuzzy Sets - Analysis and Design,
MIT Press, 1998.
RANGANATHAN, A. The Levenberg - Marquardt algorithm. [S.1: s.n.], 2004. 5p.
SOUSA, C. A. DUARTE, P. S. PEREIRA, J. C. R. Lógica fuzzy e regressãologística na
decisão para prática de cintilografia das paratiróides, Rev.Saúde Pública.2006, vol.40, n.5, pp.
898-906. ISSN 0034-8910.
STORB, B. H. and WAZLAWICK, R. S. AlgumaśSpinceladasŠ sobre redes neurais arti-
ficiais, Departamento de Informática e Estatística - Universidade Federal de Santa Catarina -
UFSC, 1990.
The MathWorks, Inc. Disponível em: <http://www.mathworks.com>. Acesso em: 01 ago.
2015. l’ 1994-2015.
WIDROW, B. and LEHR, M. A. 30 years of adaptive neural networks: perceptron, mada-
line, and backpropagation, Proceedings of the IEEE, Vol. 78, No. 9, pp. 1415-1442, 1990.
ZADEH, L. A. Fuzzy sets. Fuzzy Sets, Information and Control,8:338 - 353., 1965.
ZHANG, N.; BEHERA, P. P. K. Solar radiation prediction based onrecurrent neural networks
trained by levenberg-marquardt backpropagation learningalgorithm. In: IEEE ELECTRI-
CAL POWER & ENERGY CONFERENCE,1, 2012, Whashington. conferenceĚ Whashing-
ton: Institute of Electrical and Electronics Engineers, 2012. p. 1Ű 7. Disponível em: <
http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6175757 >. Acesso em: 7 nov. 2012.
	Introdução e Objetivo
	Redes Neurais
	Breve Histórico das Redes Neurais Artificiais
	Neurônio Biológico x Neurônio Artificial
	Estrutura das RNAs
	Treinamento das Redes Neurais Artificiais
	Rede Neural Perceptron de múltiplas camadas
	Algoritmo de Treinamento Backpropagation
	Algoritmo de Treinamento Levenberg - Maquardt
	Lógica Fuzzy
	Breve Histórico da Lógica Fuzzy
	Variáveis Linguísticas
	Regras Fuzzy
	MatLab
	Uso da Toolbox de Redes Neurais Artificiais
	Uso da Toolbox de Lógica Fuzzy
	Resultados e Discussões
	Referências

Continue navegando