Baixe o app para aproveitar ainda mais
Prévia do material em texto
Ilha SolteiraIlha Solteira UNIVERSIDADE ESTADUAL PAULISTA “JÚLIO DE MESQUITA FILHO” Câmpus de Ilha Solteira - SP MONARA PEREIRA DA ROSA CARVALHO ESTUDO E IMPLEMENTAÇÃO DAS TOOLBOXES DO MATLAB PARA APLICAÇÕES EM ENGENHARIA Ilha Solteira - SP 2015 MONARA PEREIRA DA ROSA CARVALHO ESTUDO E IMPLEMENTAÇÃO DAS TOOLBOXES DO MATLAB PARA APLICAÇÕES EM ENGENHARIA Trabalho apresentado ao Programa de Pós-Graduação em Engenharia Elétrica - UNESP - Campus de Ilha Solteira, para composição de nota de aprovação na disciplina Estudos Especiais I. Profa. Dra. Anna Diva Plasencia Lotufo Orientadora Ilha Solteira - SP 2015 RESUMO Este trabalho apresenta um estudo sobre o aplicativo MATLAB R© e duas das suastoolboxes. Primeiramente através de um ponto de vista teórico para introduzir os conceitos necessários afim de que seja possível a compreensão das mesmas. Uma dastoolboxesutilizadas é a de Redes Neurais Artificiais, onde seu objetivo é a realização deprevisões de carga e preço, a outra, é atoolboxde lógicafuzzycujo propósito é simular um sistema de inferênciafuzzysobre consumo de energia e analisar os dados de saída através das variáveis linguísticas. Palavras-chave:Redes Neurais Artificiais. LógicaFuzzy. MATLAB R©. Toolbox. LISTA DE FIGURAS Figura 1 Componentes de um neurônio biológico. . . . . . . . . . . . .. . . . 9 Figura 2 Componentes de um neurônio artificial. . . . . . . . . . . . .. . . . . 10 Figura 3 Modelo de um Neurônio Artificial. . . . . . . . . . . . . . . . .. . . 11 Figura 4 Função relé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Figura 5 Função lógica threshold. . . . . . . . . . . . . . . . . . . . . . .. . . 12 Figura 6 Função sigmoide 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Figura 7 Função sigmoide 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Figura 8 Comportamento da função sigmoide com a variação de lambda. . . . . 13 Figura 9 Rede neural artificial. . . . . . . . . . . . . . . . . . . . . . . . . .. 14 Figura 10 Treinamento supervisionado. . . . . . . . . . . . . . . . . .. . . . . 15 Figura 11 Treinamento não-supervisionado. . . . . . . . . . . . . .. . . . . . . 16 Figura 12 Rede neural feedforward com não-linearidade sigmoidal. . . . . . . . 18 Figura 13 Treinamento de uma rede neural via técnica retropropagação. . . . . . 19 Figura 14 Exemplo de variável linguística. . . . . . . . . . . . . . .. . . . . . . 24 Figura 15 Arquitetura de sistemas baseados em regras fuzzy.. . . . . . . . . . . 25 Figura 16 Command Window para a abertura da toolbox de redes neurais . . . . 26 Figura 17 Carregando os dados para o MATLAB R© . . . . . . . . . . . . . . . . 27 Figura 18 Neural Network / Data Manager (nntool) . . . . . . . . . .. . . . . . 28 Figura 19 Criação de uma nova rede do tipo MLP com treinamento BP. . . . . 30 Figura 20 Criação de uma nova rede do tipo MLP com treinamento LM . . . . . 31 Figura 21 Visualizador da rede neural . . . . . . . . . . . . . . . . . . .. . . . 32 Figura 22 Rede: BP (aba de treinamento) . . . . . . . . . . . . . . . . . . . .. 33 Figura 23 Treinamendo da rede BP . . . . . . . . . . . . . . . . . . . . . . . . .34 Figura 24 Treinamendo da rede LM . . . . . . . . . . . . . . . . . . . . . . . .35 Figura 25 Rede: BP (aba de simulação) . . . . . . . . . . . . . . . . . . . . . .36 Figura 26 Dados exportados da toolbox para o ambiente MATLAB R© . . . . . . . 37 Figura 27 Gráfico da previsão de preço usando o algoritmo de treinamento BP . . 38 Figura 28 Gráfico da previsão de preço usando o algoritmo de treinamento LM . 38 Figura 29 Gráfico da comparação dos erros das previsões realizadas . . . . . . . 39 Figura 30 Command Window para a abertura da toolbox de lógica fuzzy . . . . . 40 Figura 31 FIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Figura 32 Editor das regras fuzzy . . . . . . . . . . . . . . . . . . . . . . .. . 41 Figura 33 Regras do FIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 Figura 34 Gráfico de superfície do FIS . . . . . . . . . . . . . . . . . . . .. . . 43 LISTA DE ABREVIAÇÕES E SIGLAS BP - Backpropagation FIS - Fuzzy Inference System LM - Levenberg-Marquardt LMS - Least Mean-Square MAPE - Mean Absolute Percentage Error MATLAB R© - Matrix Laboratory MLP - Multilayer Perceptron RNA - Rede Neural Artificial SUMÁRIO 1 INTRODUÇÃO E OBJETIVO 7 2 REDES NEURAIS 8 2.1 BREVE HISTÓRICO DASREDESNEURAIS ARTIFICIAIS 8 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 9 2.3 ESTRUTURA DASRNAS 14 2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS 15 2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS 16 2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 17 2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 19 3 LÓGICA FUZZY 22 3.1 BREVE HISTÓRICO DA LÓGICA FUZZY 22 3.2 VARIÁVEIS L INGUÍSTICAS 23 3.3 REGRASFUZZY 24 4 MatLab 26 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 26 4.2 USO DA TOOLBOX DE LÓGICA FUZZY 40 5 Resultados e Discussões 44 6 Referências 45 7 1 INTRODUÇÃO E OBJETIVO Este trabalho é resultado do Estudo Especial I, onde teve como objetivo o estudo do apli- cativo MATLAB R© e as suas principaistoolboxes, destacando as de Redes Neurais Articiciais e LógicaFuzzy, com aplicações na área da engenharia. O MATLAB R© é umsoftwarede alto desempenho que foi criado com o objetivo de resolver diversos tipos de problemas matemáticos através da sua própria linguagem de programação, que é de alto nível e as toolboxes são seus componentes que foram desenvolvidos para facilitar o uso do software. Para a realização deste trabalho foram usadas as seguintestoolboxes: 1. Primeiramente a “nntool” (Neural Network Toolbox TM ), que torna possível a utilização das redes neurais artificiais como método para realizar previsão de preços em um sistema de 24 barras, que tem como entrada e saída respectivamente matrizes de cargas e de preço de dimensões 24x200. 2. Em seguida atoolbox “fuzzy”, onde será simulado um sistema de inferênciafuzzy(FIS - Fuzzy Inference System), no qual descreve a frequência de funcionarios em uma empresa qualquer de acordo com o consumo de energia. 8 2 REDES NEURAIS De maneira geral, uma rede neural pode ser definida como um aparelho no qual foi progra- mado para imitar o funcionamento do cérebro humano, se adaptando a maneira como o mesmo realiza tarefas específicas (HAYKIN, 1994). Já matematicamente uma rede neural é dita como um sistema dinâmico no qual pode ser adaptado da mesma forma que um conjunto de equações diferenciais e/ou algébricas (KARTALOPOULOS, 1996; LOTUFO, 2004). As redes neurais são compostas de neurônios interligados, formando estruturas de proces- samento de informação, onde os neurônios são as unidades de processamento. As mesmas são capazes de fornecer saídas referentes a entradas lineares ou não-lineares (LOPES, 2005). 2.1 BREVE HISTÓRICO DASREDESNEURAIS ARTIFICIAIS O trabalho pioneiro de McCulloch e Pitss (1943) foi publicadona década de 40, o que deu início a era moderna das redes neurais (McCulloch & Pitts, 1943), neste trabalho é descrito um cálculo lógico das redes neurais no qual unem os estudos sobre neurofisiologia com a lógica matemática. McCulloch foi um psiquiatra e neuro-anatomistae Pitts um prodígio matemático, eles se associaram em 1942 (HAYKIN, 1994). Em 1949 foi publicado o livro de Donald Hebb, intitulado “The Organization of Behavioir” (HEBB, 1949), onde foi introduzido o conceito de aprendizagem Hebbiana (LOPES, 2005). Na década de 50, foi proposto por Minsky (1951) as redes baseadas em reforço com formas simples de aprendizado (LOPES, 2005; ALTRAN, 2010), e tambémfoi publicado um livro inti- tulado “The Computer and the Brain” (VON NEUMANN, 1958) que descreve a modelagem do desempenho do cérebro através de hardware. Foi introduzidopor Rosenbaltt, proximadamente 15 anos depois da publicação do artido de MacColloch e Pitts, uma nova abordagem para o pro- blema de reconhecimento de padrões,em seu trabalho sobre perceptron, um diferente método de aprendizagem supervisionada (HAYKIN, 1994). Widrow e Hoff introduziram em 1960 o algoritmo do mínimo quadrado médio (LMS -Le- ast Mean-Square) e usaram o mesmo para a execução do Adaline (adaptive linear element) (HAYKIN, 1994). Widrow e seus estudantes propuseram uma dasprimeiras redes neurais com múltiplos elementos adaptativos em camadas treináveis, que é a estrutura Madaline (multiple- adaline) (WIDROW, 1962). Ainda em 1962, foi publicado por Rosenblatt olivro “ Principles of Neurodynamics” (ROSEMBLATT, 1962), onde ele introduziu a rede chamada perceptron. É no processo de aprendizagem onde encontramos a diferença entre o perceptron e o Adaline 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 9 (HAYKIN, 1994). Porém, em 1969 surgiu o livro de Minsky e Papert que demonstraram ma- tematicamente que existem limites básicos para que os perceptrons de camada única possam calcular (HAYKIN, 1994), como o problema do ou-exclusivo, diminuindo assim o interesse de pesquisa nesta área (LOPES, 2005) ao longo dos anos 70. O interesse nas redes neurais artificiais foi renovado no final da década de 70 e início da década de 80, quando vários pesquisadores retomaram seus trabalhos, mas a maior contribuição neste período foi a proposta de (WERBOS, 1974) que desenvolveu oalgoritmoBackpropaga- tion (Retropropagação), no qual se tornou o mais conhecido na área. Desde então, o interesse nos estudos de redes neurais se expandiu de tal forma que se espera usar redes mais eficientes para solucionar os diversos problemas importantes da vida real. 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL São necessários em torno de 100 bilhões de neurônios para compor o sistema nervoso hu- mano, onde cada um se comunica com outros 10 mil em média, consequentemente sua resposta pode ser modificada de acordo com o comportamento dos outros neurônios (ALTRAN, 2010), fazendo com que eles executem papel fundamental na determinação do funcionamento e com- portamento do corpo humano e do raciocínio (LOPES, 2005). Oscomponentes de um neurônio mais comum são ilustrados na Figura 1 (Mendes Filho Carvalho,1997). Figura 1 - Componentes de um neurônio biológico. Fonte: LOPES(2005). Onde, o corpo celular (do grego, soma) é a parte central do neurônio, responsável por re- 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 10 ceber e gerar os impulsos nervosos; os dendritos recebem as informações de outros neurônios e conduzem estes sinais de entrada até o corpo celular através do axônio, que pode medir cerca de 0,1 milímetro e chegar a mais de 1 metro de comprimento, os mesmos se interligam através das sinapses que são seus pontos de contato, no qual possuem uma capacidade chamada efi- ciência sináptica, que os torna capazes de controlar o fluxo de informação entre os neurônios (MINUSSI & LOTUFO, 2008) As redes neurais artificiais possuem neurônios artificiais,que são responsáveis por imi- tar o neurônio biológico e suas características, tornando-se uma unidade de processamento de informação fundamental para o funcionamento de uma RNA (ALTRAN, 2010). O primeiro modelo de neurônio artificial proposto por McCulloch e Pitts (1943), que atu- almente é o mais conhecido na literatura especializada é ilustrado na Figura 2, mostrando seus componentes de acordo com o neurônio biológico. Figura 2 - Componentes de um neurônio artificial. Fonte: LOPES(2005). A atividadesé a soma do conjunto den entradas aplicadas ao neurônio que são ponderadas por seus respectivos pesos. Uma função não-linearf (s) é alimentada pela atividades, onde produz um sinal no qual é enviado aos demais neurônios (MINUSSI & LOTUFO, 2008). Existe também um pesow0 (bias) que é alimentado por uma entrada (arbitrária)x0 = +1 que opera como o controle do nível de saída do neurônio (WIDROW & LEHR, 1990) como ilustrado na Figura 3. 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 11 Figura 3 - Modelo de um Neurônio Artificial. Fonte: LOPES(2005). A função não-linearf (s) é denominada função de ativação. As Figuras 4, 5, 6 e 7 mostram alguns exemplos das não-linearidades mais utilizadas. Figura 4 - Função relé. Fonte: MINUSSI & LOTUFO (2008). f (s) = { +1 ses≥ 0, −1 ses≤ 0 (1) 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 12 Figura 5 - Função lógica threshold. Fonte: MINUSSI & LOTUFO (2008). Figura 6 - Função sigmoide 1. Fonte: MINUSSI & LOTUFO (2008). f (s) = 1eλs 1+eλs (2) 2.2 NEURÔNIO BIOLÓGICO X NEURÔNIO ARTIFICIAL 13 Figura 7 - Função sigmoide 2. Fonte: MINUSSI & LOTUFO (2008). f (s) = 1 1+eλs (3) sendo: λ = inclinação da função sigmoide. O efeito da variação deλ (λ1> λ2> λ3> 0) é ilustrado na Figura 8 para melhor compre- ensão. Figura 8 - Comportamento da função sigmoide com a variação de lambda. Fonte: MINUSSI (2008). 2.3 ESTRUTURA DASRNAS 14 2.3 ESTRUTURA DASRNAS Uma rede neural artificial é composta de neurônios, que são oselementos de processamento e sinapses, que os interligam para formar a rede (MINUSSI & LOTUFO, 2008), no qual são dispostos formando camadas distintas: camada de entrada, camada escondida ou intermediária e camada de saída (LOTUFO, 2004) como ilustrado na Figura 9 (MINUSSI & LOTUFO, 2008). Figura 9 - Rede neural artificial. Fonte: MINUSSI & LOTUFO (2008). As redes neurais artificiais podem ser classificadas em duas classes de acordo com sua propagação de dados (KROSE & SMAGT, 1996): 1. Redesfeedforward(não-recorrentes): O sentido dos dados é sempre das unidades de entrada para as unidades de saída. Os dados podem ser processados sobre múltiplas camadas, mas as conexões feedback não existem (KROSE & SMAGT, 1996). 2. Redesfeedback(recorrentes): Contém laços de realimentação. Em alguns casos, os valores de ativação das unidades submetem-se a um processo de adaptação no qual a rede passa para um estado estável no qual estas ativações nãovariarão mais (KROSE & SMAGT, 1996). Na redefeedforwarda saída é determinada somente de acordo com as entradas e os valores dos pesos, enquanto nos neurônios da rede recorrente é desenvolvida uma memória em longo prazo (LOPES, 2005; WARD SYSTEMS GROUP, 2000; WASSERMAN, 1989). 2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS 15 2.4 TREINAMENTO DAS REDESNEURAIS ARTIFICIAIS As redes neurais têm como sua propriedade mais importante a habilidade de aprender e com isso melhorar sua execução (LOTUFO, 2004), que acontece através de um processo que se re- pete ajustando seus pesos correspondendo ao treinamento. Existem dois tipos de aprendizagem, a forma supervisionado e a não-supervisionado (WIDROW & LEHR,1990): 1. Treinamento Supervisionado: A rede aprende através da combinação dos padrões de en- trada e saída (vetor da saída desejada). Este treinamento necessita de avaliação de de- sempenho, por isso existe a presença de um agente externo, o professor (“teacher”), que informa a rede sobre o seu desempenho. Pode-se citar a rede Madaline como um exem- plo, pois possui este tipo de treinamento através do algoritmo backpropagation (KROSE & SMAGT, 1996; WASSERMAN, 1989), que é um dos mais difundidos para este tipo de treinamento. Este tipo de treinamendo é ilustrado na Figura10. Figura 10 - Treinamento supervisionado. Fonte: MINUSSI & LOTUFO (2008). 2. Treinamento Não-supervisionado: Este treinamento necessita apenas de padrões de en- trada, não possui professor, possui um procedimento de treinamento auto-organizável, como mostra a Figura 11. Pode-se citar como exemplo as redes Hopfield, Kohonen e ART (KROSE & SMAGT, 1996; WASSERMAN, 1989). 2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS 16 Figura 11 - Treinamento não-supervisionado. Fonte: MINUSSI & LOTUFO (2008). 3. Treinamento por competição: Este treinamento é parecidocom o supervisionado, pois existe uma saída desejada. As redes deste tipo têm vários neurônios de saída. Quando se aplica um vetor de entrada na rede, os neurônios de saída “competem” para que apenas um neurônio (o vencedor) prevaleça, fornecendo a saídadesejada. (STORB & WAZ- LAWICK, 1999). 4. Treinamento Híbrido: Nesse tipo de treinamento o treinamento supervisionado e o não- supervisionado se alternam. 2.5 REDE NEURAL PERCEPTRON DE MÚLTIPLAS CAMADAS Para uma rede neural que é usada para classificar padrões que se encontram em lados opos- tos do hiperplano (linearmente separáveis) o perceptron é aforma mais simples de realizar. Ele é formado exclusivamente de um único neurônio com pesos sinápticos ajustáveis e bias. Ele realiza apenas classificações de padrões com duas classes, que devem ser linearmente separá- veis para o funcionamento adequado do algoritmo (HAYKIN, 1994). Surgiu então a pesquisa de (MINSKY; PAPERT, 1969), no qual descreve a incapacidade da rede perceptron em resolver problemas básicos como ou-exclusivo, que necessita de maisde um neurônio. Já o perceptron multicamadas (MLP -Multilayer Perceptron) possui a composição básica da rede neural artificial, uma camada de entrada, uma ou mais camadas intermediárias e uma camada de saída, como ilustrado anteriormente pela Figura 9. Nas redes de várias camadas, cada camada possui uma tarefa específica. A camada de saída monta o vetor de resposta baseado nos estímulos recebidos da camada de entrada. As 2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 17 camadas escondidas extraem características, usando os pesos de entrada para desenvolver sua própria representação do problema. Com conexões certas entre as unidades de entrada e as intermediárias, sempre pode-se encontrar uma representação que produzirá o mapeamento certo da entrada para a saída através das unidades intermediárias(ALTRAN, 2010). Foi provado por Cybenko que é suficiente para a rede possuir apenas uma camada interme- diária para ser feita a aproximação de qualquer função contínua. Para a produção de qualquer mapeamento são necessárias no máximo duas camadas intermediárias com um número satisfa- tório de unidades por camada (CYBENKO, 1989). O treinamento dessa rede ocorre de forma supervisionada usando o algoritmo backpropa- gation, por isso o perceptron multicamadas tem muito sucesso na aplicação em resoluções de problemas complexos (WERBOS, 1974), esse treinamento se dá em dois passos: 1. Um vetor é apresentado à camada de entrada, e então as camadas intermediárias calculam a resposta que é produzida na camada de saída e o erro é calculado (ALTRAN, 2010); 2. Em seguida o erro é transmitido da camada de saída até a camada de entrada, modificando os pesos das conexões dos neurônios das camadas intermediárias (ALTRAN, 2010). 2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION São apresentadas grandes dificuldades na realização das redes neuraisfeedforwardcom não-linearidade do tipo relé, considerando a baixa eficiência das técnicas de treinamento dis- poníveis (MINUSSI, 2008). Foi então proposto por Werbos (1974) um novo mecanismo de adaptação de pesos, o algoritmo “Retropropagação”, que apresenta a substituição da função não-linear relé por uma função sigmoidal. Esse mecanismo é um procedimento baseado no erro quadrático dos neurônios da camada de saída da rede neural, onde o erro é transmitido da saída para a entrada (MINUSSI, 2008). Determina-se as variações dos pesos usando o algoritmo gra- diente descendente (WIDROW & LEHR, 1990). A Figura 12 mostra o diagrama esquemático de uma rede neural apta para o uso do algoritmoBackpropagation. 2.6 ALGORITMO DE TREINAMENTO BACKPROPAGATION 18 Figura 12 - Rede neural feedforward com não-linearidade sigmoidal. Fonte: MINUSSI (2008). A função sigmoide foi expressa pela Figura 6, tendo a sua variação ilustrada na Figura 7, podendo ser calculadas utilizando as equações 2 e 3 respectivamente. O treinamento da rede é iniciado apresentando-se um vetorX à rede, que irá produzir uma saídaY (MINUSSI, 2008), passando pela camada intermediária. A resposta real produzida pela camada de saída será comparada com a resposta desejada, o queproduzirá um erro, que será re- calculado através de um algoritmo de minimização chamado gradiente descendente. Existe uma tolerância preestabelecida no qual será sempre comparada ao erro, que influencia na convergên- cia do algoritmo que se dá quando esse erro por menor ou igual atolerância (LOTUFO, 2004). São adotados valores randômicos para iniciar os pesos (HAYKIN, 1994; KARTALOPOULOS, 1996; WIDROW & LEHR, 1990). Na Figura 13 é apresentado o treinamento completo de uma redefeedforwardutilizando o algoritmo retropropagação. 2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 19 Figura 13 - Treinamento de uma rede neural via técnica retropropagação. Fonte: MINUSSI (2008). 2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT O algoritmo de Levenberg - Maquardt é caracterizado por possuir uma quantidade mode- rada de pesos sinápticos, que são determinados pela derivada de segunda ordem do erro qua- drático em relação aos pesos, o que se difere do treinamento via retropropagação, no qual é considerado apenas as derivadas de primeira ordem (BARBOSA etal, 2005). Esse algoritmo tem como base um método de otimização, que fazaproximação para a ma- triz descrita na equação 4, onde se determina em função da matriz Jacobiana expressa na equa- ção 6 que contém as primeiras derivadas dos pesos em função dos pesos sinápticos (FREITAS, 2013; ZHANG, 2011; BARBOSA et al, 2005). H = ∂ 2ER(W) ∂W2 (4) OndeER(W) é expresso por 5: 2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 20 ER(W) = 1 n n ∑ i=1 (y1−yei) 2 (5) J = ∂e(W) ∂ (W) (6) E e(W) pode ser descrito conforme 7: e(W) = n ∑ i=1 (y1−yei) (7) Sendo: y1 = saída fornecida pela rede yei = valor exato correspondente a saída da rede A matriz Jacobiana possui uma determinação mais simples do que a determinação da matriz Hessiana. Quando a performance de treinamento é expressa emfunção da soma dos erros quadráticos, para uma rede neural, a matriz Hessiana é expressa pela expressão 8 (ABREU, 2012; BARBOSA et al, 2005). H = JT(W)J(W) (8) E gk pode ser escrito conforme a equação 9. gk = 2J T(W)e(W) (9) A atualização dos pesos do algoritmo Levenberg - Marquardt ébaseado na mesma expres- são do método de Newton, descrito pela equação 10: W(k+1) =W(k)−H−1gk (10) Onde, são realizadas algumas modificações para determinar amatriz Hessiana, mostrada em 11 W(k+1) =W(k)− [JT(W)J(W)+µkI ]−1JT(W)e(W) (11) 2.7 ALGORITMO DE TREINAMENTO LEVENBERG - MAQUARDT 21 Sendo: I = matriz identidade µk = constante do método de Levenberg - Marquardt A variávelµk é um parâmetro que funciona como um fator de estabilização dotreinamento, onde a aproximação é ajustada de forma a utilizar a rápida convergência do método de Newton, o que evita erros de convergência que se dão pelos passos longos (ABREU, 2012; BARBOSA et al., 2005). O método de Levenberg - Marquardt aprensenta convergência com a realização de menos iterações, porém requer mais cálculos por iteração devido aos cálculos de matrizes inversas, o que exige maior esforço computacional. Esse algoritmo de treinamento é considerado o mais rápido para redes neurais, trabalhando com um número razoável de parâmetros na rede, quando esse número é elevado, a utilização do mesmo não é recomendada (ABREU, 2012; RANGA- NATHAN, 2004). 22 3 LÓGICA FUZZY O termofuzzytraduzido do inglês possui o significado de algo incerto, vago ou indefinido. Diferente da lógica clássica, a lógicafuzzyapresenta valores além de 1 (um) e 0 (zero) ou “verdadeiro” e “falso”, que podem se encontrar acima de 1 (um) ou “muito verdadeiro”, pode estar abaixo de 0 (zero) ou “muito falso” e pode estar entre osdois, sendo assim, “mais ou menos”. A teoria de conjuntosfuzzycomeçou em 1965 como sendo uma teoria matemática aplicada a conceitos difusos. A partir daí, a pesquisa e a aplicação dessa teoria em sistemas de informação têm crescido (PANDORFI, 2007). O chamado “raciocínio aproximado” é uma área de aplicação dateoriafuzzy, no qual se as- semelha à forma do pensamento humano. Deste modo, variáveislinguísticas são representadaspor conjuntosfuzzy, interpretando variáveis linguísticas como sendo variáveis cujos valores são palavras ou sentenças em linguagem natural, existindo também, variação nas opções (ZADEH, 1965). 3.1 BREVE HISTÓRICO DA LÓGICA FUZZY A ciência da lógica foi fundada pelo filósofo grego Aristóteles (384 - 322 a.C.), que também estabeleceu um conjunto de regras rígidas para que conclusões logicamente válidas pudessem ser aceitas. Esta lógica é binária, ou seja, é uma declaraçãoque pode ser verdadeira ou falsa, não podendo ser parcialmente verdadeira ou parcialmente falsa (MALLUTA, 2004). Em 1847, George Boole, atribuiu valores numéricos para as afirmações verdadeiras e falsas, sendo 1 (um) para as verdadeiras e 0 (zero) para as falsas (CAMPOS FILHO, 2004), criando assim a álgebra booleana, que é realizada com operações baseadas nesses valores. Porém em 1903, Bertrand Russell publicou um problema que ficou conhecido como o “pa- radoxo de Russell”, que não pode ser resolvido pela lógica tradicional. Então, em seu livro “A Free Man’s Worship” sobre filosofia de 1923, ele afirma: “Habitualmente, toda a lógica tradici- onal supõe que se empregam símbolos precisos. Entretanto, isso não se aplica à vida terrestre, mas somente a uma existência celestial imaginada” (CAMPOS FILHO, 2004). Já por volta de 1930, foi desenvolvida uma lógica multinívelpor Jan Lukasiewicz, onde o mesmo argumentou sobre a lei da contradição, que diz respeito a uma determinada afirmação ser verdadeira, ou não, ao mesmo tempo. 3.2 VARIÁVEIS L INGUÍSTICAS 23 A teoria dos conjuntosfuzzyfoi desenvolvida por Lotfi Asker Zadeh, em meados de 1960, onde, pela primeira vez foi mencionado o termo “lógicafuzzy” em uma publicação feita pelo mesmo (ZADEH, 1965). Desde então, as outras tecnologias recentes têm o exemplo seguido pela lógicafuzzy: sendo inventada nos Estados Unidos, desenvolvida na Europa e massificada no Japão (CAMPOS FI- LHO, 2004). Apenas depois de 1970 foram realizadas as primeiras aplicações industriais de lógicafuzzy, na Europa. No início dos anos 80, também na Europa, foram desenvolvidasmuitas das mais avança- das tecnologias de lógicafuzzypara aplicações e projetos de pesquisa, o que influenciou as companhias japonesas a começarem a utilizá-la em engenharia de controle (CAMPOS FILHO, 2004). 3.2 VARIÁVEIS L INGUÍSTICAS As variáveis linguísticas possuem valores representados por palavras ou frases, ao invés de números, ou seja, as descrições das informações são dispostas de forma qualitativa (PEDRYCZ GOMIDE, 1998). Quando se utiliza essas expressões linguísticas são definidos grupos que pertencem a diferentes graus de pertinência entre zero (falso) e um (verdadeiro), rompendo assim, os limites da rígida divisão da lógica clássica (SOUSA, 2006). Cada variável linguística possui um grupo de expressõesfuzzyassociadas (chamadas termos primários) que são os valores que a variávelfuzzypode ter. Por exemplo, a variávelfuzzy “consumo de energia” pode ter um grupo de termos primários baixo, médio, alto, onde cada um desses termos representa um conjuntofuzzyespecífico. Um bom exemplo para o entendimento de variáveis linguísticas é descrito por (MALUTTA, 2004), onde explica que a variável linguística é caracterizada porn,T,X,m(n), onden é o nome da variável (ph),T são os termos linguísticos den (baixo, neutro, elevado),X são os valores de n onde o significado do termo linguístico é determinado (o ph pode estar, por exemplo, entre 4,0 e 6,5), em(n) é uma função semântica que distingue para cada termo linguístico n pertencente aT o seu significado, que é um conjuntofuzzyemX (ou seja,m : T → (X), onde(X) é o espaço dos conjuntosfuzzy). É ilustrado na Figura 14 um exemplo de variável linguística,que se refere à composição do pH em aterros sanitários. Tendo em cada termo linguístico umconjuntofuzzy m(n) associado que o caracteriza. 3.3 REGRASFUZZY 24 Figura 14 - Exemplo de variável linguística. Fonte: MALUTTA (2004). 3.3 REGRASFUZZY As regrasfuzzysão operações realizadas com as variáveis linguísticas utilizando os conec- tivos “e”, “ou” e “não”. Uma regrafuzzyé uma unidade que consegue capturar algum conhecimento específico, enquanto um conjunto de regras pode descrever um sistema em suas várias possibilidades. Cada regra fuzzy é possui uma parte antecedente (Se) e uma parte consequente (Então), tendo como resultado uma estrutura do tipo: Se {antecedentes} Então {consequentes} Onde, os antecedentes descrevem uma condição e os consequentes descrevem uma conclu- são (MALUTTA, 2004). Um sistema baseado em regrasfuzzyé composto de basicamente quatro componentes: o fuzzificador (que é um processador de entrada), um conjunto de regras linguísticas, um método de inferênciafuzzye o defuzzificador (que é um processador de saída), que gera umnúmero real como saída (RIBACIONKA, 1999). Um sistemafuzzyé mostrado na Figura 15. 3.3 REGRASFUZZY 25 Figura 15 - Arquitetura de sistemas baseados em regras fuzzy. Fonte: Adaptado de GABRIEL (2008). É representado por essa estrutura de controlador a transformação que acontece com nú- meros reais, que pertencem domínio do mundo real para os números fuzzyque pertencem ao domínio fuzzy. Um conjunto de inferênciasfuzzyé usado nessa transofrmação para as toma- das de decisões, então, existe uma transformação inversa dodomíniofuzzypara o domínio do mundo real, para ocorrer a acoplagem entre a saída do algoritmo fuzzye as variáveis de atuação (SHAW & SIMÕES, 1999). O processo de fuzzyficação é onde os valores de entrada são convertidos em conjuntosfuzzy, ou seja, um mapeamento do domínio de números reais para o domínio fuzzy. A fuzzyficação também representa a atribuição de valores linguísticos, descrições qualitativas, definidas por funções de pertinência às variáveis de entrada. É uma espécie de pré-processamento das cate- gorias ou classes dos sinais de entrada, o que reduz grandemente o número de valores que serão processados. Quanto menos valores a serem processados maior a velocidade computacional (SHAW & SIMÕES, 1999). Já na defuzzyficação, a variável linguística de saída deduzida pelas regrasfuzzytem seu valor traduzido num valor real. A meta é ter como saída um único número real que melhor represente os valoresfuzzyinferidos da variável linguísticas de saída. Para selecionar o método conveniente pode-se utilizar um enfoque com base no centroide ou nos valores máximos que ocorrem na função de pertinência resultante (GABRIEL, 2008).Centroide ou método do Centro de Gravidade é a técnica de defuzzificação mais comumente usada. 26 4 MATLAB O MATLAB R© é uma linguagem de programação de alto nível e um ambiente interativo para computação numérica, visualização e programação. No ambiente MATLAB R© é possível analisar dados, desenvolver algoritmos, e também criar modelos e aplicações. Com o uso da linguagem do MATLAB R© e suas ferramentas é possível chegar a resoluções de diversos pro- blemas numéricos em um tempo muito pequeno comparado ao que seria gasto para escrever um programa semelhante em outras linguagens de programação(THE MATHWORKS, 1994- 2015). 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS A toolboxde redes neurais (Neural Network Toolbox TM ) fornece funções e aplicativos para modelagem de sistemas não-lineares que não são modelados manualmente com facilidade. Essa toolboxsuporta aprendizado do tipo supervisionado comfeedforward, com base radial e redes dinâmicas, e também suporta aprendizado não supervisionado. Com essatoolboxé possível projetar, treinar, visualizar e simular redes neurais, podendo usá-la para aplicações tais como reconhecimento de padrões, clustering, previsão de sériestemporais e modelagem do sistema dinâmico e controle (THE MATHWORKS, 1994-2015). Para acessar atoolboxde redes neurais utilizada nesse trabalho através do MATLAB R© é necessário digitar “nntool” na Janela de Comando (ouCommand Window) do aplicativo como sugere a Figura 16, o que irá resultar em uma janela como mostraa Figura 18. Figura 16 - Command Window para a abertura da toolbox de redes neurais Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 27 Na Figura 17 estão descritas as linhas de código que fazem a importação dos dados para o MATLAB R© e a normalização dos mesmos através do editor de código, ondetambém é possível chamar a ferramenta, como podemos ver na linha 20. Figura 17 - Carregando os dados para o MATLAB R© Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 28 A Figura 18 mostra a interface datoolboxde redes neurais com as entradas, saídas e redes já adicionadas ao ambiente. Figura 18 - Neural Network / Data Manager (nntool) Fonte: MATLAB R©2015. Sendo (quadrosInput DataeTarget Data): x = entrada para o treinamento, uma matriz de cargas 24x200; s = saída para o treinamento, uma matriz de preço 24x200; x_sim = entrada para a simulação da previsão, sendo uma matriz de 24x1; d = saída desejada da simulação de x_sim, sendo uma matriz de 24x1; cmape = entrada para o cálculo do MAPE, matriz 24x200; e pmape = MAPE desejado, matriz 24x200. As redes criadas foram (quadroNetworks): BP = rede do tipo MLP com treinamento via retropropagação; e LM = rede do tipo MLP com treinamento Levenberg - Marquardt. As saídas e erros são mostradas nos quadrosOutput DataeError Data, onde: 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 29 BP_saida = saída resultante do treinamento da rede BP; BP_saida_sim = saída da simulação da rede BP; BP_saida_mape = saída do MAPE da rede BP; LM_saida = saída resultante do treinamento da rede LM; LM_saida_sim = saída da simulação da rede LM; LM_saida_mape = saída do MAPE da rede LM; BP_erro = erro resultante do treinamento da rede BP; BP_erro_sim = erro da simulação da rede BP; BP_erro_mape = erro do MAPE da rede BP; LM_erro = erro resultante do treinamento da rede LM; LM_erro_sim = erro da simulação da rede LM; e LM_erro_mape = erro do MAPE da rede BP; 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 30 As Figuras 19 e 20 mostram o processo de criação das redes neurais BP e LM do tipo MLP, onde a função de treinamento (Training function) TRAINGDA se refere a rede com treinamento via retropropagção e TRAINLM ao treinamento com o algoritmo de Levenberg - Marquardt. A função de transferência (Transfer function) usada é a LOGSIG ilustrado no Capítulo 2 pela Figura 7. Figura 19 - Criação de uma nova rede do tipo MLP com treinamentoBP Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 31 Figura 20 - Criação de uma nova rede do tipo MLP com treinamentoLM Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 32 A Figura 21 pode ser vizualizada clicando no botãoView (Vizualizar), onde mostra como será a estrutura da rede neural criada, neste caso, com 24 neurônios na camada de entrada (Input Layer), 25 neurônios na camada escondida (Hidden Layer) e 24 neurônios na camada de saída (Output Layer). Figura 21 - Visualizador da rede neural Fonte: MATLAB R©2015. As redes podem ser abertas através de um duplo clique em seus nomes depois que elas foram criadas. Elas ficam localizadas no campoNetwork, como foi mostrado na Figura 18. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 33 A Figura 22 mostra uma rede aberta na aba de treinamento (Train). Figura 22 - Rede: BP (aba de treinamento) Fonte: MATLAB R©2015. Onde será necessário selecionar os dados de entrada e saída desejados para a realização do treinamento da rede. Esse treinamento irá gerar uma saída e um erro referente a este treina- mento. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 34 As Figuras 23 e 24 apresentam a interface datoolboxquando o treinamento é acionado através do botãoTrain Network. Figura 23 - Treinamendo da rede BP Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 35 Figura 24 - Treinamendo da rede LM Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 36 Após a finalização do treinamento das redes, é possível fazeruma simulação/previsão. É necessário selecionar como entrada os dados, de carga, neste caso, para a rede dar a saída calculada, assim, em seguida podermos fazer uma comparaçãodos resultados calculados com os resultados reais. Na Figura 25 podemos ver a interface da aba de simulação da rede, que dá os resultados atrávez do clique no botão “Simular Rede” (Simulate Network). Figura 25 - Rede: BP (aba de simulação) Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 37 Os resultados das simulações feitas pelatoolbox foram exportados para aworkspacedo MATLAB R©, ilustrados na Figura 26, e em seguida foram feitas comparações dos mesmos com os resultados esperados. Figura 26 - Dados exportados da toolbox para o ambiente MATLAB R© Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 38 As Figuras 27 e 28 ilustram graficamente a comparação dos resultados calculados com os desejados feitos pelos trenamentos BP e LM respectivamente. Figura 27 - Gráfico da previsão de preço usando o algoritmo de treinamento BP 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 0 5 10 15 20 25 30 Barras P re ço ( $/ M W h) Real Previsto Fonte: MATLAB R©2015. Figura 28 - Gráfico da previsão de preço usando o algoritmo de treinamento LM 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 0 5 10 15 20 25 30 Barras P re ço ( $/ M W h) Real Previsto Fonte: MATLAB R©2015. 4.1 USO DA TOOLBOX DE REDESNEURAIS ARTIFICIAIS 39 Já a Figura 29 mostra a comparação dos erros de cada treinamento. Figura 29 - Gráfico da comparação dos erros das previsões realizadas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 0 1 2 3 4 5 6 7 8 9 10 Barras P re ço ( $/ M W h) Erro do BP Erro do LM Fonte: MATLAB R©2015. 4.2 USO DA TOOLBOX DE LÓGICA FUZZY 40 4.2 USO DA TOOLBOX DE LÓGICA FUZZY A toolboxde lógicafuzzy(Fuzzy Logic Toolbox TM ) é um programa autossuficiente que pode ser usado para simular as saídas do seu sistema de inferênciafuzzy(FIS - Fuzzy Inference System) sem precisar digitar linhas de código no MATLAB R© (THE MATHWORKS, 1994- 2015). Para acessar o ambientefuzzyé necessário digitar “fuzzy” na janela de comando do MATLAB R©, como sugere a Figura 30, o que irá resultar na abertura de uma janela tal como apresenta a Fi- gura 31, na qual já está configurada com as regras escolhidas para a apresentação destatoolbox. Figura 30 - Command Window para a abertura da toolbox de lógicafuzzy Fonte: MATLAB R©2015. Figura 31 - FIS Fonte: MATLAB R©2015. 4.2 USO DA TOOLBOX DE LÓGICA FUZZY 41 Temos as variáveis “consumo” e “dia” que passam pela base de regras “Fuzzy” e tem como resultado “funcionários”. Sendo: consumo= se refere ao consumo de energia em uma determinada empresa; dia= dia da semana a ser analizado; e funcionários= quantidade de funcionários presentes na empresa no dia selecionado. A Figura 32 apresenta a base de regras criada para este exemplo. Figura 32 - Editor das regras fuzzy Fonte: MATLAB R©2015. Estas regras dizem respeito à uma empresa fictícia, onde teremos como base o consumo de energia da mesma para sabermos a quantidade aproximada de funcionários presentes em cada dia da semana. 4.2 USO DA TOOLBOX DE LÓGICA FUZZY 42 A primeira regra diz que se o consumo de energia for baixo e o dia não for domingo, e sim os demais dias da semana, então, existem poucos funcionários na empresa nesse dia. A segunda regra mostra que se o consumo for alto e o dia também não for domingo, então, neste dia existem muitos funcionários presentes na empresa. A terceira regra fala que se o consumo de energia for médio em odia não for domingo, existe na empresa uma quantidade média de funcionários. É mostrado na Figura 33 como o FIS apresenta graficamente as regras criadas. Arrastando os ponteiros vermelhos presentes em cima dos gráficos “consumo” e “dia” veremos uma modi- ficaçãonos gráficos “funcionários”. Figura 33 - Regras do FIS Fonte: MATLAB R©2015. 4.2 USO DA TOOLBOX DE LÓGICA FUZZY 43 A toolboxde LógicaFuzzytambém possui a opção de plotagem de gráficos, como exemplo, foi gerado um gráfico de superfície, onde temos uma visão ampla dos resultados, mostrado pela Figura 34. Figura 34 - Gráfico de superfície do FIS Fonte: MATLAB R©2015. 44 5 RESULTADOS E DISCUSSÕES Pode-se concluir com este trabalho, que o uso dastoolboxesé viável, pois economiza muito tempo na realização das tarefas desejadas, devido a complexidade das mesmas, tendo os mes- mos resultados. No caso datoolboxde Redes Neurais, foi possível realizar o treinamento das redes através de um clique, o que não seria possível programando manualmente a rede, pois teria que ser escritas várias linhas de código apenas para realizar o treinamento. Neste trabalho foram usados dois algoritmos de treinamento, oBackpropagatione o Levenbert - Marquardt, o que levaria um longo tempo para ser alterado sem o uso da ferramenta. Com relação àtoolboxde LógicaFuzzy, conseguimos chegar a um resultado satisfatório em um pequeno período de tempo. Não são feitos cálculos visivelmente, os resultados são determi- nados apenas com a ajuda das variáveis linguísticas, o que facilita o entendimento dos mesmos. É possível ver claramente que o sistema de inferênciafuzzypode ser usado em aplicações de diferentes tipos e em diferentes áreas. Tendo uma visão geral das toolboxes utilizadas, é possível concluir que existe a possibili- dade de realizar vários trabalhos com aplicações na área da engenharia com muita facilidade e rapidez, pois, com o tempo economizado na parte de programação, o que não seria o real foco, pode ser usado para a realização e aprimoramento da pesquisaem si. 45 6 REFERÊNCIAS ABREU, T. A. S. Previsão de Cargas Elétricas através de um ModeloHíbrido de Regressão com Redes Neurais, Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia Elétrica, UNESP de Ilha Solteira, 2012. ALTRAN, A. B. Sistema Inteligente Para Previsão de Carga Multimodal em Sistemas Elé- tricos de Potência, Tese de Doutorado, Programa de Pós-graduação em Engenharia Elétrica, UNESP de Ilha Solteira, novembro-2010. BARBOSA, A. H; FREITAS, M. S. R; NEVES, A. F. Confiabilidade estrutural utilizando os métodos de Monte Carlo e redes neurais, UFOP - Escola de Minas - Departamento de Enge- nharia Civil, Ouro Preto MG, setembro-2005. CAMPOS FILHO, P. Método de Apoio à Decisão na Verificação da Sustentabilidade de uma Unidade de Conservação, Usando Lógica Fuzzy, Tese de Doutorado, Programa de Pós- Graduação em Engenharia de Produção, Universidade Federalde Santa Catarina, dezembro- 2004. FREITAS, P. F. S. Previsão de Preços (LMP) por redes GRNN, Dissertação de Mestrado, Programa de Pós-Graduação em Engenharia Elétrica, UNESP deIlha Solteira, 2013. HAYKIN, S. Neural Networks: A Comprehensive Foundation, Prentice-Hall, Upper Saddle River, New Jersey, USA, 1994. KARTALOPOULOS, S. V. Understanding Neural Networks and Fuzzy Logic, New York, NY, U.S.A., IEEE Press, 1996. KROSE, B. and SMAGT, P. V. An introduction to neural networks,Online Book, University of Amsterdam, Eighth Edition, 1996. LOPES, M. L. M. Desenvolvimento de Redes Neurais para Previsão de Cargas Elétricas de Sistemas de Energia Elétrica, Tese de Doutorado, Programa de Pós-Graduação em Engenharia Elétrica, UNESP de Ilha Solteira, dezembro-2005. LOTUFO, A. D. P. Análise de Sensibilidade por Redes Neurais Para Estudos da Estabi- lidade Transitória de Sistemas Elétricos de Potência, Tesede Doutorado, Programa de Pós- Graduação em Engenharia Elétrica, UNESP de Ilha Solteira, agosto-2004. LOTUFO, A. D. P. Mercados elétricos e redes neurais. Ciudad Real. Universidad de castilla la Mancha, 2012. (Processo CAPES BEX, 5665/11-6). Relatório final de estágio de Pós- 6 Referências 46 Doutorado. MALUTTA, C. Método de Apoio à Tomada de Decisão Sobre a Adequação de Aterros Sanitários Utilizando a Lógica Fuzzy, Tese de Doutorado, Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal de Santa Catarina, dezembro-2004. MENDES FILHO, E. F.; CARVALHO, A. C. P. L. Evolutionary design of MLP neural network architectures, IV SBRN - Simpósio Brasileiro de Redes Neurais, Campos do Jordão - São Paulo, pp. 58-65, 1997. MINUSSI, C. R; LOTUFO, A. D. P. Redes Neurais: Introdução e Principais Conceitos, Programa de Pós-Graduação em Engenharia Elétrica, UNESP deIlha Solteira, maio-2008. MINUSSI, C. R. Rede Neural Retropropagação, Programa de Pós-Graduação em Engenha- ria Elétrica, UNESP de Ilha Solteira, maio-2008. PEDRYCZ, W; GOMIDE, F.A.C. An Introduction to Fuzzy Sets - Analysis and Design, MIT Press, 1998. RANGANATHAN, A. The Levenberg - Marquardt algorithm. [S.1: s.n.], 2004. 5p. SOUSA, C. A. DUARTE, P. S. PEREIRA, J. C. R. Lógica fuzzy e regressãologística na decisão para prática de cintilografia das paratiróides, Rev.Saúde Pública.2006, vol.40, n.5, pp. 898-906. ISSN 0034-8910. STORB, B. H. and WAZLAWICK, R. S. AlgumaśSpinceladasŠ sobre redes neurais arti- ficiais, Departamento de Informática e Estatística - Universidade Federal de Santa Catarina - UFSC, 1990. The MathWorks, Inc. Disponível em: <http://www.mathworks.com>. Acesso em: 01 ago. 2015. l’ 1994-2015. WIDROW, B. and LEHR, M. A. 30 years of adaptive neural networks: perceptron, mada- line, and backpropagation, Proceedings of the IEEE, Vol. 78, No. 9, pp. 1415-1442, 1990. ZADEH, L. A. Fuzzy sets. Fuzzy Sets, Information and Control,8:338 - 353., 1965. ZHANG, N.; BEHERA, P. P. K. Solar radiation prediction based onrecurrent neural networks trained by levenberg-marquardt backpropagation learningalgorithm. In: IEEE ELECTRI- CAL POWER & ENERGY CONFERENCE,1, 2012, Whashington. conferenceĚ Whashing- ton: Institute of Electrical and Electronics Engineers, 2012. p. 1Ű 7. Disponível em: < http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6175757 >. Acesso em: 7 nov. 2012. Introdução e Objetivo Redes Neurais Breve Histórico das Redes Neurais Artificiais Neurônio Biológico x Neurônio Artificial Estrutura das RNAs Treinamento das Redes Neurais Artificiais Rede Neural Perceptron de múltiplas camadas Algoritmo de Treinamento Backpropagation Algoritmo de Treinamento Levenberg - Maquardt Lógica Fuzzy Breve Histórico da Lógica Fuzzy Variáveis Linguísticas Regras Fuzzy MatLab Uso da Toolbox de Redes Neurais Artificiais Uso da Toolbox de Lógica Fuzzy Resultados e Discussões Referências
Compartilhar