Baixe o app para aproveitar ainda mais
Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original
Introdução as Redes Neurais Artificiais Daniel Henrique Breda Binoti Mayra Luiza Marques da Silva Binoti Helio Garcia Leite 1 Estrutura do Curso – Redes Neurais Artificiais Duas partes principais: Parte Teórica: Noções sobre a técnicas de Redes Neurais Artificiais (RNA); Aplicações da técnica no inventário florestal. Parte Prática: Aplicações em pequenos Estudos de Caso com o Software Statistica 7 e 8. 2 Principais Referências: 3 Redes Neurais Artificiais - Teoria e Prática Braga, Antônio de Padua; Ludermir, André Ponce de Leon F. De Carvalho; Bernarda, Teresa / LTC Neural Networks - Methodology and Applications Dreyfus, Gérard Redes Neurais - Princípios e Praticas Haykin, Simon Summary 4 Noções Teóricas 5 6 O que são Redes Neurais? 1. Redes Neurais (RNs) são redes de neurônios conectados, por exemplo, Sistema nervoso central. 7 O que são Redes Neurais? 2. Os neurônios artificiais são aproximações grosseiras dos neurônios encontrados no cérebros. Eles podem ser dispositivos físicos ou puramente matemático. O que são Redes Neurais? 3. Redes Neurais Artificiais (RNAs) são redes de neurônios artificiais, e, portanto, constituem aproximações grosseiras às partes do cérebro real. Eles podem ser dispositivos físicos ou simulados em computadores. 8 O que são Redes Neurais? 4. Do ponto de vista prático, uma RNA é apenas um sistema computacional paralelo composto de muitos elementos de processamento simples ligados entre si de uma maneira específica, a fim de executar uma tarefa. 5. Nunca se deve perder o ponto de vista de que as RNAs são grosseiras aproximações e excessivamente simplificada quando comparadas com os cérebros reais 9 Por que estudar Redes Neurais? 1. São dispositivos computacionais extremamente poderosos. Matematicamente superior as regressões – “sempre”. 2. Paralelismo maciço os torna muito eficiente. 3. Elas podem aprender e generalizar a partir de dados de treinamento - por isso não há necessidade de enormes proezas na sua programação. 4. Elas são altamente tolerantes a falhas - o que é equivalente a graciosa “degradação "encontrados em sistemas biológicos. 5. Elas são muito tolerantes ruídos. 6. Em princípio, elas podem fazer qualquer coisa que um sistema de lógica simbólica pode fazer, e mais. 10 Qual a utilização das Redes Neurais Artificiais? Tal como acontece com o campo da AI, em geral, existem dois objetivos básicos para a investigação de redes neurais artificiais: Modelagem do Cérebro: O objetivo científico de construção de modelos para compreensão do real funcionamento do cérebro (Aplicação médica e didática). Construção de Sistemas Artificiais: O objetivo da engenharia é a construção de sistemas computacionais eficientes para aplicações do mundo real. 11 Inspiração Biológica 12 O Sistema Nervoso O sistema nervoso humano pode ser dividido em três fases que podem ser representada na seguinte forma: 13 Níveis de organização do cérebro O cérebro é formado por pequenas e grande estruturas anatômicas e diferentes funções ocorrem nos níveis superiores e inferiores. Uma simplificação do Hierarquia do Sistema Nervoso: 1. Moléculas e íons 2. Sinapses 3. Microcircuitos Neuronais 4. Árvores dendríticas 5. Neurônios 6. Circuitos locais 7. Circuitos inter-regional 8. Sistema nervoso central As RNAs estudadas neste módulo são aproximações grosseiras para os níveis 5 e 6. 14 Componentes Básicos de neurônios biológicos 1. A maioria dos neurônios codificam suas ativações e saídas como uma série de breves impulsos elétricos (isto é, picos ou potenciais de ação). 2. O corpo do neurônio celular (soma) processa as ativações de entrada e os converte em ativações de saída. 3. O núcleo do neurônio contém o material genético sob a forma de DNA, que defini sua codificação. 4. Os dendritos são fibras que emanam do corpo celular e fornecem as zonas receptivas que recebem a ativação de outros neurônios. 5. Os axônios são fibras atuando como linhas de transmissão que envia para a ativação de outros neurônios. 6. As junções que permitem a transmissão de sinais entre os axônios e dendritos são chamadas de sinapses. O processo de transmissão é através da difusão de substâncias químicas chamadas neurotransmissores através da fenda sináptica. 15 16 Neurônio Artificial 17 18 As sinapses (entradas), com seus pesos associados A Função somatória; e A Função de ativação. Componentes do neurônio artificial Neurônio McCulloch e Pitts O efeito de uma sinapse particular i no neurônio pós-sináptico é dado por: xi w e os pesos determinam “em que grau” o neurônio deve considerar sinais de disparo que ocorrem naquela conexão. 19 Um exemplo 20 21 Exemplo: um neurônio para a função E de 2 entradas Entradas Saída 22 Iniciamos o neurônio com os pesos 0.5 e 0.6 para as duas entradas, e -0.3 para o limiar (w0). Isso é equivalente à equação: u = 0.5 x1 + 0.6 x2 - 0.3 x0 onde x0 é a entrada estável sempre igual a 1. Assim, a saída y deve disparar quando u >= 0 Exemplo: um neurônio para a função E de 2 entradas 23 24 1º Interação 25 Sequência de passos na aplicação do algoritmo Inicio w1 = 0.5 w2 = 0.6 w0 = -0.3 Entrada 0 0 u = - 0.3 y = 0 correta Entrada 0 1 u = 0.3 y = 1 incorreta Correção dos pesos de 0.1 para baixo w1 = 0.5 w2 = 0.5 w0 = -0.4 Entrada 1 0 u = 0.1 y = 1 incorreta Correção dos pesos de 0.1 para baixo w1 = 0.4 w2 = 0.5 w0 = -0.5 Entrada 1 1 u = 0.4 y = 1 correta Entrada 0 0 u = - 0.5 y = 0 correta Entrada 0 1 u = 0 y = 1 incorreta Correção dos pesos de 0.1 para baixo w1 = 0.4 w2 = 0.4 w0 = -0.6 Entrada 1 0 u = - 0.2 y = 0 correta Entrada 1 1 u = 0.2 y = 1 correta Entrada 0 0 u = -0.6 y = 0 correta Entrada 0 1 u = - 0.2 y = 0 correta Entrada 1 0 u = - 0.2 y = 0 correta Entrada 1 1 u = 0.2 y = 1 correta Fim w1 = 0.4 w2 = 0.4 w0 = -0.6 26 Resultado do aprendizado 27 Exemplo de Perceptron não-linear no Excel 28 Função continua ADALINE - Adaptive Linear Neuron Princípio de funcionamento A operação de um neurônio artificial se resume em: Sinais são apresentados à entrada (x1 à xm); Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade (wk); É feita a soma ponderada dos sinais que produz um nível de atividade (uk); A função de ativação f(uk) tem a função de limitar a saída e introduzir não-linearidade ao modelo. O bias bk tem o papel de aumentar ou diminuir a influência do valor das entradas. É possível considerar o bias como uma entrada de valor constante 1, multiplicado por um peso igual a bk. 29 29 30 Expressão matemática do neurônio artificial Matematicamente a saída pode ser expressa por: ou considerando o bias como entrada de valor x0=1 e peso wk0=bk, Funções de Ativação Outros modelos disparam não somente zero ou um: y = x 31 32 Função de ativação tangente hiperbólica Tangente hiperbólica (a) e sua derivada (b). (a) (b) 33 Função de ativação logística (sigmoide) Sigmóide (a) e sua derivada (b). (a) (b) 34 Função de ativação semi-linear Função de ativação semi-linear (a) e sua derivada (b). (a) (b) 35 Exemplo ADALINE Principais Arquiteturas 36 Arquitetura da RNA A definição da Arquitetura é extremamente importante na concepção de uma RNA – Define o tipo de problema a ser tratado pela rede. Arquiteturas: Número de camadas; Número de Neurônios; Tipo de conexão; Topologia da rede; 37 Arquitetura – Número de Camadas Redes de Camada Única: Há somente uma camada de ligações com pesos. As unidades podem ser distinguidas como unidades de entrada e de saída. As de entrada são neurônios que recebem os sinais externos na rede e as de saída são os neurônios nos quais a resposta da rede pode ser lida. 38 Arquitetura – Número de Camadas Redes Múltiplas Camadas: Uma ou mais camadas de nós intermediários às unidades de entrada e saída, chamadas unidades ocultas(hidden). (Multilayer Perceptron – MLP) As camadas ocultas servem para auxiliar as camadas de entrada e saída na extração de um número maior de características dos sinais de entradas. Assim problemas mais complicados podem ser resolvidos. 39 Arquitetura – Tipo de Conexão Feedforward ou Acíclica - assim a saída de um neurônio na i-ésima camada da rede não pode ser usada como entrada de neurônios em camadas de índice menor ou igual a i, isto é , não há conexões que retornam a camadas anteriores. 40 Arquitetura – Tipo de Conexão Feedback ou cíclica: Saída de um neurônio na i-ésima camada da rede é usada como entrada de neurônios em camadas de índice menor ou igual a i. 41 Treinamento 42 Como uma RNA aprende? Processo iterativo de ajuste dos parâmetros da rede Pesos: armazenam o conhecimento adquirido pela rede “Aprendizagem é o processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo de estimulação pelo ambiente no qual a rede está inserida. O tipo de aprendizado é determinado pela maneira pela qual a modificação dos parâmetros ocorre” (Haykin, 2001) Os algoritmos são agrupados em dois paradigmas principais: aprendizado supervisionado e aprendizado não supervisionado Aprendizado por esforço e competição pouco usados 43 Como uma RNA aprende? EXEMPLOS (entrada – saída) RESPOSTA SAÍDA DESEJADA ERRO Modificação dos parâmetros da RNA 44 Aprendizado Supervisionado O método mais comum de treinamento de RNAs. A entrada e saída da rede são fornecidas por um supervisor (professor) externo; Ajusta-se os parâmetros da rede, encontrando alguma ligação entre os pares de entrada e saída; O professor indica um comportamento bom ou ruim da rede. 45 Aprendizado Supervisionado 46 Aprendizado Supervisionado Os pesos da rede, a cada iteração, são ajustados com o intuito de minimizar o erro. A desvantagem: Na ausência de professor, a rede não aprende novas estratégias; Algoritmos: Regra Delta, Backpropagation 47 Aprendizado não-supervisionado Não há professor ou supervisor; Estágios iniciais da visão e audição humana; Temos apenas os padrões de entrada; Codifica características da entrada; Só é possível com redundância dos dados; 48 Qual é o procedimento geral de construção de uma RNA? Entradas e saídas do problema RNA mais simples Treinamento (software) Generalização (software) O resultado é bom? SIM RNA pronta! NÃO RNA mais elaborada 1 2 3 dap HT VCC 49 49 Etapas para o desenvolvimento da RNA 1- Coleta de dados Os dados devem ser significativos e cobrir amplamente o domínio do problema e também as exceções. 2- Separação em conjuntos Dados de treinamento e dados de teste (verificar performance sob condições reais de utilização). 3- Configuração da rede Seleção do paradigma neural Definição da topologia da rede Determinação de parâmetros do algoritmo de treinamento e funções de ativação 50 4- Treinamento Emprego do algoritmo de treinamento Ajuste do peso das conexões 5- Teste Determinar a performance da rede, medida nesta fase, é uma boa indicação de sua performance real. 51 Etapas para o desenvolvimento da RNA Demonstração Backpropagation 52 53 Algoritmo Backpropagation Treinamento é feito em duas fases: Fase forward Fase backward 54 Fase forward Camadas intermediárias Camada de entrada Camada de saída Entrada é apresentada à primeira camada da rede e propagado em direção às saídas. 55 Fase forward Camadas intermediárias Camada de entrada Camada de saída Os neurônios da camada i calculam seus sinais de saída e propagam à camada i + 1 56 Fase forward Camadas intermediárias Camada de entrada Camada de saída A última camada oculta calcula seus sinais de saída e os envia à camada de saída 57 Fase forward Camadas intermediárias Camada de entrada Camada de saída A camada de saída calcula os valores de saída da rede. 58 Fase backward Camadas intermediárias Camada de entrada Camada de saída 59 Fase backward Camadas intermediárias Camada de entrada Camada de saída A camada de saída calcula o erro da rede: j Erro (j) 60 Fase backward Camadas intermediárias Camada de entrada Camada de saída Calcula o termo de correção dos pesos (a atualização será feita depois) Dwji = adjxi Erro (dj) 61 Fase backward Camadas intermediárias Camada de entrada Camada de saída Envia o erro para a última camada oculta Erro (dj) 62 Fase backward Camadas intermediárias Camada de entrada Camada de saída A camada oculta calcula o seu erro dj = f’(uj). kwlk Erro (dj) Erro (dk) 63 Fase backward Camadas intermediárias Camada de entrada Camada de saída Calcula o termo de correção dos pesos (a atualização será feita depois) Dwij = adjxi Erro (dj) 64 Fase backward Camadas intermediárias Camada de entrada Camada de saída A camada oculta calcula o seu erro dj = f’(uj). kwlk Erro (dk) Erro (dj) 65 Fase backward Camadas intermediárias Camada de entrada Camada de saída Calcula o termo de correção dos pesos (a atualização será feita depois) Dwij = adjxi Erro (dj) 66 Fase backward Camadas intermediárias Camada de entrada Camada de saída Cada unidade atualiza seus pesos wij(novo) = wij(velho) + wjk 67 Backpropagation Camadas intermediárias Camada de entrada Camada de saída Repete-se o processo enquanto enquanto a rede não aprender o padrão de entrada Mesmos dados Diferentes redes 68 69 Por que os mesmos dados podem ter diferentes redes? Função de otimização não-linear Mínimos locais x Mínimos Globais Problemas... 70 71 Número excessivo de neurônios na camada escondida No entanto, quando esse número for muito grande, o modelo pode se sobre-ajustar ou decorar os dados, na presença de ruído nas amostras de treinamento. Diz-se que a rede está sujeito ao sobre-treinamento (overfitting). Principais Problemas... 72 Principais Problemas... Rede Sobre-treinamento 73 Por outro lado, uma rede com poucos neurônios na camada escondida pode não ser capaz de realizar o mapeamento desejado, o que é denominado de underfitting. O underfitting também pode ser causado quando o treinamento é interrompido de forma prematura. Principais Problemas... Treinamento Insuficiente 74 Principais Problemas... Treinamento Insuficiente Principais Softwares 75 Matlab 76 Mathematica 77 JavaNNS - Free 78 SNNS - Free 79 Neurosolutions 80 NeuralTools - @Risk 81 R 82 Statistica 83 Artificial Neural Network for Forest -ANNForest 84 O NeuroForest 85 Aplicações Gerais - Florestal 86 O que uma RNA pode fazer? Classificação Designa um padrão de entrada representado por um vetor de características para uma entre várias classes pré-definidas Aprendizado supervisionado Fonte: Queiroz et al., 2004. 87 O que uma RNA pode fazer? Categorização Um algoritmo explora a similaridade entre os padrões e agrupa os padrões similares Classe não são conhecidas preliminarmente Aprendizado não-supervisionado Estrato A Estrato B Estrato C 88 O que uma RNA pode fazer? Aproximação de função Um conjunto de n padrões de treinamento, pares de entrada(s)-saída, {(x1, y1), (x2, y2),..., (xn, yn)}, são apresentados à RNA para que aproxime uma função desconhecida f(x) 89 O que uma RNA pode fazer? Aproximação de função Volume de árvores (GÖRGENS, 2006; SILVA et al., 2009) dap HT VOLUME 90 O que uma RNA pode fazer? Aproximação de função Volume do povoamento florestal (BINOTI, 2010) Área basal ou dap Altura dominante ou HT Solo Precipitação Espaçamento Relevo VOLUME 91 O que uma RNA pode fazer? Aproximação de função Afilamento do fuste (LEITE et al., 2010) dcc dap HT h dsc dcerne 92 O que uma RNA pode fazer? 93 O que uma RNA pode fazer? 94 O que uma RNA pode fazer? Previsão Dado um conjunto de n amostras {y(t1), y(t2),..., y(tn)} em uma sequência temporal, t1, t2,..., tn, a tarefa é predizer a amostra y(tn+1) em algum tempo futuro tn+1 95 O que uma RNA pode fazer? Otimização Encontrar uma solução que satisfaça um conjunto de restrições tal que uma função objetivo é maximizada ou minimizada ? 96 Aplicações Gerais Análise, processamento e tratamento de sinais Controle de processos Classificação de dados Reconhecimento de formas e padrões Análise de imagens Avaliação de crédito e risco Visão, fala Previsão e modelagem Auxílio à decisão Robótica 97 Aplicações Florestais – Exemplos Aplicáveis 98 Aplicações de RNA. As áreas com resultados comprovados: Cubagem; Equações Volumétricas; Modelos de Afilamento (taper) do fuste e do cerne; Modelos Hipsométricos; Distribuição Diamétrica; Modelos de Crescimento e Produção em nível de Povoamento (MCP); Modelos de Distribuição Diamétrica (MDD); Modelos em nível de árvore (MAI); Redução de Custo; Previsão de preços; 99 AJUSTE DO MODELO DE SCHUMACHER E HALL E APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMACÃO DO VOLUME DE ÁRVORES 100 em que: V= volume, m3; DAP= diâmetro a 1,3 m de altura, cm; Ht= altura total da árvore, m; βi = parâmetros; e ε = erro aleatório, ε ~ NID (0, σ2 Schumacher e Hall RNA V= f(clone, DAP e Ht) Vantagem: Exatidão e Variável Categórica. AJUSTE DO MODELO DE SCHUMACHER E HALL E APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMACÃO DO VOLUME DE ÁRVORES 101 Schumacher e Hall RNA A vantagem está no fato de ser somente 1 RNA. O Schumacher foi estratificado por clone (12). ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS Variáveis utilizadas foram: Diâmetro com casca a 1,3m (DAP): 4,1 a 31, 6 cm; Altura total (Ht): 3,4 a 21,7 m; Diâmetro com casca ao longo do fuste (dcc): 3,2 a 48,2 cm; Diâmetro sem casca ao longo do fuste (dsc): 2,5 a 45,0 cm; Diâmetro do cerne ao longo do fuste (dcerne): 0,0 a 34,2 cm. Espessura da casca a 1,3m = 0,25 a 2,19 cm. 102 103 104 Estimação do dsc e dcerne dsc: por estrato, inputs testados DAP, Ht, h, dcc DAP, Ht, h, dcc, espessura da casca a 1,3m DAP, Ht, h, dcc, projeto DAP, HT, h, dcc DAP, Ht, h, dcc, espessura da casca a 1,3m dcerne: DAP, h, Ht, dcc Kozak ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS Redes Neurais dsc dcerne 105 ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS Kozak dsc e dcerne 106 ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS Modelagem tradicional 107 Weibull UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS Parâmetro de Escala MDD - Rede MDD - Tradicional 108 UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS Parâmetro de Forma MDD - Tradicional MDD - Rede 109 Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais Autômatos celulares (AC) são sistemas de interações locais, discretos no tempo e no espaço, compostos de células, onde o estado de cada célula é resultado de seu estado atual, da sua regra de transição e da sua interação células vizinhas. A dinâmica do sistema é resultante de interações a nível de células 110 111 Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais 112 Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais 113 Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais 114 Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais MODELAGEM DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTOS EUCALIPTO SUBMETIDOS A DESBASTE UTILIZANDO AUTÔMATOS CELULARES 115 REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES Dados de cubagens Necessidade de Cubagem de 100 a 150 árvores distribuídas igualmente em todos as classes de dap, ou em média 5-6 árvores por classe de 2 cm. Altura Total 116 REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES Metodologia: Cubar apenas 1 árvore por classe de dap e estimar o volume das demais árvores em função de medições nas posições: 0.0, 0.5, 1.0, 1.5, 2.0, os volumes obtidos até 2 metros, e dap e altura total. Após a obtenção da rede com características de Clone e Local, não é necessária mais cubagens. Aplicação em testes clonais e cubagens de inventário. 117 REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES 118 APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAÇÃO DA ALTURA DE POVOAMENTOS EQÜIÂNEOS DE EUCALIPTO Medição de 20 % das parcelas normalmente, e estimação para o restante das parcelas em função do dap e altura dominante. Cenário (a) Introdução de um novo Material genético 119 APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAÇÃO DA ALTURA DE POVOAMENTOS EQÜIÂNEOS DE EUCALIPTO Cenário (b) Tendência de crescimento em altura conhecida Não há necessidade de medição de alturas, somente a utilização das informações dos antigos IFC. H = f(dap, Hd), outras variáveis como clone e região podem ser incluídas. 120 REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS Simulação de redução da porcentagem de parcelas a serem medidas (10 – 90 %) da parcelas. Aplicação onde não se conhece a relação hipsométrica Não há diferença nas estimativas com relação à percentagem das parcelas medidas. Podemos deixar de medir a altura em 90% das parcelas. 121 REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS Simulação de redução da porcentagem de parcelas a serem medidas. Exemplo redução de 90% medição. Onde se tem dados de IFC anteriores, não há necessidade de medição de alturas (somente avaliação e atualização) 122 REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS Redução de custos pela economia de tempo. 123 REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS Redução de custos pela economia de tempo Custo é o custo médio resultante da aplicação da metodologia (em reais), valorParcela é o valor atual da parcela (em reais), Parc% representa a quantidade de parcelas sem medição de alturas. 124 125 UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL 125 RNA 2: LINEAR 47-1 RNA 3: MLP 20-1-1 126 UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL 127 UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL NÍVEL DE ÁRVORE Na projeção do dap e Ht RBF 30-328-1 dap2 = f(I1, dap1, I2, Projeto, Solo, Relevo, Textura, Espaçamento) RBF 30-371-1 Ht2 = f(I1, Ht1, I2, Projeto, Solo, Relevo, Textura, Espaçamento) dap Ht Na quantificação de Volume: RBF 29-823-1 v = f(dap, Ht, Projeto, Solo, Relevo, Textura, Espaçamento) 128 Aplicações Práticas no Statistica Aplicações: Volumétricos; Hipsométrico; Modelos de Crescimento e Produção em nível de Povoamento; Cubagens; 129 Testes na Duratex e sugestões Programação da RNA 130 Obrigado e até outro dia! Fun��o de transfer�ncia (ativa��o) j (u)� x1� x2� x0� w1� w2� w0� Sa�da y = j (u)� entradas� pesos� u = S xi wi� = 0.5� = 0.6� = -0.3� = 1� Fun��o de transfer�ncia (ativa��o) j (u)� x1� x2� x0� w1� w2� w0� Sa�da y = j (u)� entradas� pesos� u = S xi wi� = 0.4� = 0.4� = -0.6� = 1�
Compartilhar