Buscar

RNA_BinotiAndHGL_Setembro2011

Esta é uma pré-visualização de arquivo. Entre para ver o arquivo original

Introdução as Redes Neurais Artificiais
Daniel Henrique Breda Binoti
Mayra Luiza Marques da Silva Binoti
Helio Garcia Leite
1
Estrutura do Curso – Redes Neurais Artificiais
Duas partes principais:
Parte Teórica:
Noções sobre a técnicas de Redes Neurais Artificiais (RNA);
Aplicações da técnica no inventário florestal.
Parte Prática:
Aplicações em pequenos Estudos de Caso com o Software Statistica 7 e 8.
2
Principais Referências:
3
Redes Neurais Artificiais - Teoria e Prática 
Braga, Antônio de Padua; Ludermir, André Ponce de Leon F. De Carvalho; Bernarda, Teresa / LTC
Neural Networks - Methodology and Applications
Dreyfus, Gérard
Redes Neurais - Princípios e Praticas
Haykin, Simon
Summary
4
Noções Teóricas
5
6
O que são Redes Neurais?
1. Redes Neurais (RNs) são redes de neurônios conectados, por exemplo, Sistema nervoso central.
7
O que são Redes Neurais?
2. Os neurônios artificiais são aproximações grosseiras dos neurônios encontrados no cérebros. Eles podem ser dispositivos físicos ou puramente matemático.
O que são Redes Neurais?
3. Redes Neurais Artificiais (RNAs) são redes de neurônios artificiais, e, portanto, constituem aproximações grosseiras às partes do cérebro real. Eles podem ser dispositivos físicos ou simulados em computadores.
8
O que são Redes Neurais?
4. Do ponto de vista prático, uma RNA é apenas um sistema computacional paralelo composto de muitos elementos de processamento simples ligados entre si de uma maneira específica, a fim de executar uma tarefa.
5. Nunca se deve perder o ponto de vista de que as RNAs são grosseiras aproximações e excessivamente simplificada quando comparadas com os cérebros reais
9
Por que estudar Redes Neurais?
1. São dispositivos computacionais extremamente poderosos. Matematicamente superior as regressões – “sempre”.
2. Paralelismo maciço os torna muito eficiente.
3. Elas podem aprender e generalizar a partir de dados de treinamento - por isso não há necessidade de enormes proezas na sua programação.
4. Elas são altamente tolerantes a falhas - o que é equivalente a graciosa “degradação "encontrados em sistemas biológicos.
5. Elas são muito tolerantes ruídos.
6. Em princípio, elas podem fazer qualquer coisa que um sistema de lógica simbólica pode fazer, e mais.
10
Qual a utilização das Redes Neurais Artificiais?
Tal como acontece com o campo da AI, em geral, existem dois objetivos básicos para a investigação de redes neurais artificiais:
Modelagem do Cérebro: O objetivo científico de construção de modelos para compreensão do real funcionamento do cérebro (Aplicação médica e didática).
Construção de Sistemas Artificiais: O objetivo da engenharia é a construção de sistemas computacionais eficientes para aplicações do mundo real. 
11
Inspiração Biológica
12
O Sistema Nervoso
O sistema nervoso humano pode ser dividido em três fases que podem ser representada na seguinte forma:
13
Níveis de organização do cérebro
O cérebro é formado por pequenas e grande estruturas anatômicas e diferentes funções ocorrem nos níveis superiores e inferiores.
Uma simplificação do Hierarquia do Sistema Nervoso:
1. Moléculas e íons
2. Sinapses
3. Microcircuitos Neuronais
4. Árvores dendríticas
5. Neurônios
6. Circuitos locais
7. Circuitos inter-regional
8. Sistema nervoso central
As RNAs estudadas neste módulo são aproximações grosseiras para os níveis 5 e 6.
14
Componentes Básicos de neurônios biológicos
1. A maioria dos neurônios codificam suas ativações e saídas como uma série de breves impulsos elétricos (isto é, picos ou potenciais de ação).
2. O corpo do neurônio celular (soma) processa as ativações de entrada e os converte em ativações de saída.
3. O núcleo do neurônio contém o material genético sob a forma de DNA, que defini sua codificação.
4. Os dendritos são fibras que emanam do corpo celular e fornecem as zonas receptivas que recebem a ativação de outros neurônios.
5. Os axônios são fibras atuando como linhas de transmissão que envia para a ativação de outros neurônios.
6. As junções que permitem a transmissão de sinais entre os axônios e dendritos são chamadas de sinapses. O processo de transmissão é através da difusão de substâncias químicas chamadas neurotransmissores através da fenda sináptica.
15
16
Neurônio Artificial
17
18
As sinapses (entradas), com seus pesos associados
A Função somatória; e
A Função de ativação.
Componentes do neurônio artificial
Neurônio McCulloch e Pitts
O efeito de uma sinapse particular i no neurônio pós-sináptico é dado por: xi w e os pesos determinam “em que grau” o neurônio deve considerar sinais de disparo que ocorrem naquela conexão.
19
Um exemplo
20
21
Exemplo: um neurônio para a função E
de 2 entradas
Entradas
Saída
22
Iniciamos o neurônio com os pesos 0.5 e 0.6 para as duas entradas, e -0.3 para o limiar (w0). Isso é equivalente à equação:
 u = 0.5 x1 + 0.6 x2 - 0.3 x0
onde x0 é a entrada estável sempre igual a 1.
 
Assim, a saída y deve disparar quando u >= 0
Exemplo: um neurônio para a função E
de 2 entradas
23
24
1º Interação
25
Sequência de passos na aplicação do algoritmo
Inicio w1 = 0.5 w2 = 0.6 w0 = -0.3
Entrada 0 0 u = - 0.3 y = 0 correta
Entrada 0 1 u = 0.3 y = 1 incorreta 
Correção dos pesos de 0.1 para baixo  w1 = 0.5 w2 = 0.5 w0 = -0.4
Entrada 1 0 u = 0.1 y = 1 incorreta
Correção dos pesos de 0.1 para baixo  w1 = 0.4 w2 = 0.5 w0 = -0.5
Entrada 1 1 u = 0.4 y = 1 correta
Entrada 0 0 u = - 0.5 y = 0 correta 
Entrada 0 1 u = 0 y = 1 incorreta
Correção dos pesos de 0.1 para baixo  w1 = 0.4 w2 = 0.4 w0 = -0.6
Entrada 1 0 u = - 0.2 y = 0 correta
Entrada 1 1 u = 0.2 y = 1 correta
Entrada 0 0 u = -0.6 y = 0 correta
Entrada 0 1 u = - 0.2 y = 0 correta
Entrada 1 0 u = - 0.2 y = 0 correta
Entrada 1 1 u = 0.2 y = 1 correta
Fim w1 = 0.4 w2 = 0.4 w0 = -0.6
26
Resultado do aprendizado
27
Exemplo de Perceptron não-linear no Excel
28
Função continua
ADALINE - Adaptive Linear Neuron
Princípio de funcionamento
A operação de um neurônio artificial se resume em: 
Sinais são apresentados à entrada (x1 à xm); 
Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade (wk); 
É feita a soma ponderada dos sinais que produz um nível de atividade (uk); 
A função de ativação f(uk) tem a função de limitar a saída e introduzir não-linearidade ao modelo.
O bias bk tem o papel de aumentar ou diminuir a influência do valor das entradas.
É possível considerar o bias como uma entrada de valor constante 1, multiplicado por um peso igual a bk.
29
29
30
Expressão matemática do neurônio artificial
Matematicamente a saída pode ser expressa por:
 ou considerando o bias como entrada de valor x0=1 e peso wk0=bk,
Funções de Ativação
Outros modelos disparam não somente zero ou um:
y =  x 
31
32
Função de ativação tangente hiperbólica
Tangente hiperbólica (a) e sua derivada (b).
(a)
(b)
33
Função de ativação logística (sigmoide)
Sigmóide (a) e sua derivada (b).
(a)
(b)
34
Função de ativação semi-linear
Função de ativação semi-linear (a) e sua derivada (b).
(a)
(b)
35
Exemplo ADALINE
Principais Arquiteturas
36
Arquitetura da RNA
A definição da Arquitetura é extremamente importante na concepção de uma RNA – Define o tipo de problema a ser tratado pela rede.
Arquiteturas:
Número de camadas;
Número de Neurônios;
Tipo de conexão;
Topologia da rede;
37
Arquitetura – Número de Camadas
Redes de Camada Única: Há somente uma camada de
ligações com pesos. As unidades podem ser distinguidas como unidades de entrada e de saída. As de entrada são neurônios que recebem os sinais externos na rede e as de saída são os neurônios nos quais a resposta da rede pode ser lida. 
38
Arquitetura – Número de Camadas
Redes Múltiplas Camadas: Uma ou mais camadas de nós intermediários às unidades de entrada e saída, chamadas unidades ocultas(hidden). (Multilayer Perceptron – MLP)
 As camadas ocultas servem para auxiliar as camadas de entrada e saída na extração de um número maior de características dos sinais de entradas. 
Assim problemas mais complicados podem ser resolvidos.
39
Arquitetura – Tipo de Conexão
Feedforward ou Acíclica - assim a saída de um neurônio na i-ésima camada da rede não pode ser usada como entrada de neurônios em camadas de índice menor ou igual a i, isto é , não há conexões que retornam a camadas anteriores.
40
Arquitetura – Tipo de Conexão
Feedback ou cíclica: Saída de um neurônio na i-ésima camada da rede é usada como entrada de neurônios em camadas de índice menor ou igual a i.
41
Treinamento
42
Como uma RNA aprende?
Processo iterativo de ajuste dos parâmetros da rede
Pesos: armazenam o conhecimento adquirido pela rede
“Aprendizagem é o processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo de estimulação pelo ambiente no qual a rede está inserida. O tipo de aprendizado é determinado pela maneira pela qual a modificação dos parâmetros ocorre” (Haykin, 2001)
 Os algoritmos são agrupados em dois paradigmas principais: aprendizado supervisionado e aprendizado não supervisionado
Aprendizado por esforço e competição pouco usados
		
43
Como uma RNA aprende?
		
EXEMPLOS
(entrada – saída)
RESPOSTA
SAÍDA DESEJADA
ERRO
Modificação dos parâmetros da RNA
44
Aprendizado Supervisionado
O método mais comum de treinamento de RNAs.
A entrada e saída da rede são fornecidas por um supervisor (professor) externo;
Ajusta-se os parâmetros da rede, encontrando alguma ligação entre os pares de entrada e saída;
O professor indica um comportamento bom ou ruim da rede.
45
Aprendizado Supervisionado
46
Aprendizado Supervisionado
Os pesos da rede, a cada iteração, são ajustados com o intuito de minimizar o erro.
A desvantagem:
Na ausência de professor, a rede não aprende novas estratégias;
Algoritmos:
Regra Delta, Backpropagation
47
Aprendizado não-supervisionado
Não há professor ou supervisor;
Estágios iniciais da visão e audição humana;
Temos apenas os padrões de entrada;
Codifica características da entrada;
Só é possível com redundância dos dados;
48
Qual é o procedimento geral de construção de uma RNA?
Entradas e saídas do problema
RNA mais simples
Treinamento (software)
Generalização (software)
O resultado é bom?
SIM
RNA pronta!
NÃO
RNA mais elaborada
1
2
3
dap
HT
VCC
49
49
Etapas para o desenvolvimento da RNA
1- Coleta de dados
Os dados devem ser significativos e cobrir amplamente o domínio do problema e também as exceções.
2- Separação em conjuntos
Dados de treinamento e dados de teste (verificar performance sob condições reais de utilização).
3- Configuração da rede
 Seleção do paradigma neural
 Definição da topologia da rede
 Determinação de parâmetros do algoritmo de treinamento e funções de ativação
50
4- Treinamento
 Emprego do algoritmo de treinamento
 Ajuste do peso das conexões
5- Teste
Determinar a performance da rede, medida nesta fase, é uma boa indicação de sua performance real.
51
Etapas para o desenvolvimento da RNA
Demonstração Backpropagation
52
53
Algoritmo Backpropagation
Treinamento é feito em duas fases:
Fase forward
Fase backward
54
Fase forward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Entrada é apresentada à primeira
camada da rede e propagado em 
direção às saídas.
55
Fase forward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Os neurônios da camada i calculam 
seus sinais de saída e propagam 
à camada i + 1
56
Fase forward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
A última camada oculta calcula 
seus sinais de saída e os envia 
à camada de saída
57
Fase forward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
A camada de saída calcula 
os valores de saída da rede.
58
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
59
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
A camada de saída 
calcula o erro da rede: j 
Erro (j)
60
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Calcula o termo de correção dos pesos
(a atualização será feita depois)
Dwji = adjxi
Erro (dj)
61
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Envia o erro para a 
 última camada oculta
Erro (dj)
62
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
A camada oculta calcula o seu erro
dj = f’(uj).  kwlk
Erro (dj)
Erro (dk)
63
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Calcula o termo de correção dos pesos
(a atualização será feita depois)
Dwij = adjxi
Erro (dj)
64
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
A camada oculta calcula o seu erro
dj = f’(uj). kwlk
Erro (dk)
Erro (dj)
65
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Calcula o termo de correção dos pesos
(a atualização será feita depois)
Dwij = adjxi
Erro (dj)
66
Fase backward
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Cada unidade atualiza seus pesos
wij(novo) = wij(velho) + wjk
67
Backpropagation
Camadas intermediárias
Camada de 
entrada
Camada de 
saída
Repete-se o processo enquanto
enquanto a rede não aprender 
o padrão de entrada
Mesmos dados Diferentes redes
68
69
Por que os mesmos dados podem ter diferentes redes?
Função de otimização não-linear
Mínimos locais x Mínimos Globais
Problemas...
70
71
Número excessivo de neurônios na camada escondida
No entanto, quando esse número for muito grande, o modelo pode se sobre-ajustar ou decorar os dados, na presença de ruído nas amostras de treinamento. 
Diz-se que a rede está sujeito ao sobre-treinamento (overfitting).
Principais Problemas...
72
Principais Problemas...
Rede Sobre-treinamento
73
Por outro lado, uma rede com poucos neurônios na camada escondida pode não ser capaz de realizar o mapeamento desejado, o que é denominado de underfitting.
O underfitting também pode ser causado quando o treinamento é interrompido de forma prematura.
Principais Problemas...
Treinamento Insuficiente
74
Principais Problemas...
Treinamento Insuficiente
Principais Softwares
75
Matlab
76
Mathematica
77
JavaNNS - Free
78
SNNS - Free
79
Neurosolutions
80
NeuralTools - @Risk
81
R
82
Statistica
83
Artificial Neural Network for Forest -ANNForest
84
O NeuroForest
85
Aplicações Gerais - Florestal
86
O que uma RNA pode fazer?
 Classificação
Designa um padrão de entrada representado por um vetor de características para uma entre várias classes pré-definidas
Aprendizado supervisionado
		
Fonte: Queiroz et al., 2004.
87
O que uma RNA pode fazer?
 Categorização
Um algoritmo explora a similaridade entre os padrões e agrupa os padrões similares
Classe não são conhecidas preliminarmente
Aprendizado não-supervisionado
		
Estrato A
Estrato B
Estrato C
88
O que uma RNA pode fazer?
 Aproximação de função
Um conjunto de n padrões de treinamento, pares de entrada(s)-saída, {(x1, y1), (x2, y2),..., (xn, yn)}, são apresentados à RNA para que aproxime uma função desconhecida f(x)
		
89
O que uma RNA pode fazer?
 Aproximação de função
Volume de árvores (GÖRGENS, 2006; SILVA et al., 2009)
		
dap
HT
VOLUME
90
O que uma RNA
pode fazer?
 Aproximação de função
Volume do povoamento florestal (BINOTI, 2010)
		
Área basal ou dap
Altura dominante ou HT
Solo
Precipitação
Espaçamento
Relevo
VOLUME
91
O que uma RNA pode fazer?
 Aproximação de função
Afilamento do fuste (LEITE et al., 2010)
dcc
dap
HT
h 
dsc dcerne
92
O que uma RNA pode fazer?
93
O que uma RNA pode fazer?
94
O que uma RNA pode fazer?
 Previsão
Dado um conjunto de n amostras {y(t1), y(t2),..., y(tn)} em uma sequência temporal, t1, t2,..., tn, a tarefa é predizer a amostra y(tn+1) em algum tempo futuro tn+1
		
95
O que uma RNA pode fazer?
 Otimização
Encontrar uma solução que satisfaça um conjunto de restrições tal que uma função objetivo é maximizada ou minimizada
		
?
96
Aplicações Gerais
Análise, processamento e tratamento de sinais
Controle de processos
Classificação de dados
Reconhecimento de formas e padrões
Análise de imagens
Avaliação de crédito e risco
Visão, fala
Previsão e modelagem
Auxílio à decisão
Robótica
97
Aplicações Florestais – Exemplos Aplicáveis
98
Aplicações de RNA.
As áreas com resultados comprovados:
 Cubagem;
 Equações Volumétricas;
 Modelos de Afilamento (taper) do fuste e do cerne;
 Modelos Hipsométricos;
 Distribuição Diamétrica;
 Modelos de Crescimento e Produção em nível de Povoamento (MCP);
 Modelos de Distribuição Diamétrica (MDD);
 Modelos em nível de árvore (MAI);
 Redução de Custo;
 Previsão de preços;
99
AJUSTE DO MODELO DE SCHUMACHER E HALL E APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMACÃO DO VOLUME DE ÁRVORES 
100
em que:
V= volume, m3;
DAP= diâmetro a 1,3 m de altura, cm;
Ht= altura total da árvore, m;
βi = parâmetros; e
ε = erro aleatório, ε ~ NID (0, σ2	
Schumacher e Hall
RNA
V= f(clone, DAP e Ht)
Vantagem: Exatidão e Variável Categórica.
AJUSTE DO MODELO DE SCHUMACHER E HALL E APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMACÃO DO VOLUME DE ÁRVORES 
101
Schumacher e Hall
RNA
A vantagem está no fato de ser somente 1 RNA.
O Schumacher foi estratificado por clone (12).
ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS
Variáveis utilizadas foram: 
Diâmetro com casca a 1,3m (DAP): 4,1 a 31, 6 cm; 
Altura total (Ht): 3,4 a 21,7 m;
Diâmetro com casca ao longo do fuste (dcc): 3,2 a 48,2 cm;
Diâmetro sem casca ao longo do fuste (dsc): 2,5 a 45,0 cm;
Diâmetro do cerne ao longo do fuste (dcerne): 0,0 a 34,2 cm. 
Espessura da casca a 1,3m = 0,25 a 2,19 cm. 
102
103
104
Estimação do dsc e dcerne 
dsc: por estrato, inputs testados
 DAP, Ht, h, dcc
 DAP, Ht, h, dcc, espessura da casca a 1,3m
 DAP, Ht, h, dcc, projeto
 DAP, HT, h, dcc
 DAP, Ht, h, dcc, espessura da casca a 1,3m
dcerne: DAP, h, Ht, dcc
Kozak
ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS
Redes Neurais dsc dcerne
105
ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS
Kozak dsc e dcerne 
106
ESTIMAÇÃO DO DIÂMETRO SEM CASCA E DIÂMETRO DO CERNE PARA ÁRVORES DE Tectona grandis UTILIZANDO REDES NEURAIS ARTIFICIAIS
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS
Modelagem tradicional
107
Weibull
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS
Parâmetro de Escala
MDD - Rede
MDD - Tradicional
108
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROJEÇÃO DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTO EQUIÂNEOS
Parâmetro de Forma
MDD - Tradicional
MDD - Rede
109
Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais
Autômatos celulares (AC) são sistemas de interações locais, discretos no tempo e no espaço, compostos de células, onde o estado de cada célula é resultado de seu estado atual, da sua regra de transição e da sua interação células vizinhas.
A dinâmica do sistema é resultante de interações a nível de células
110
111
Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais
112
Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais
113
Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais
114
Modelagem da distribuição diamétrica utilizando autômatos celulares e Redes Neurais Artificiais
MODELAGEM DA DISTRIBUIÇÃO DIAMÉTRICA DE POVOAMENTOS EUCALIPTO SUBMETIDOS A DESBASTE UTILIZANDO AUTÔMATOS CELULARES
115
REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES
Dados de cubagens
Necessidade de Cubagem de 100 a 150 árvores distribuídas igualmente em todos as classes de dap, ou em média 5-6 árvores por classe de 2 cm.
Altura Total
116
REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES
Metodologia: Cubar apenas 1 árvore por classe de dap e estimar o volume das demais árvores em função de medições nas posições: 0.0, 0.5, 1.0, 1.5, 2.0, os volumes obtidos até 2 metros, e dap e altura total.
Após a obtenção da rede com características de Clone e Local, não é necessária mais cubagens.
Aplicação em testes clonais e cubagens de inventário.
117
REDES NEURAIS ARTIFICIAIS PARA A ESTIMAÇÃO DO VOLUME DE ÁRVORES
118
APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAÇÃO DA ALTURA DE POVOAMENTOS EQÜIÂNEOS DE EUCALIPTO
Medição de 20 % das parcelas normalmente, e estimação para o restante das parcelas em função do dap e altura dominante.
Cenário (a) Introdução de um novo Material genético
119
APLICAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA ESTIMAÇÃO DA ALTURA DE POVOAMENTOS EQÜIÂNEOS DE EUCALIPTO
Cenário (b) Tendência de crescimento em altura conhecida
Não há necessidade de medição de alturas, somente a utilização das informações dos antigos IFC.
H = f(dap, Hd), outras variáveis como clone e região podem ser incluídas.
120
REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS
Simulação de redução da porcentagem de parcelas a serem medidas (10 – 90 %) da parcelas.
Aplicação onde não se conhece a relação hipsométrica
Não há diferença nas estimativas com relação à percentagem das parcelas medidas.
Podemos deixar de medir a altura em 90% das parcelas.
121
REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS
Simulação de redução da porcentagem de parcelas a serem medidas. Exemplo redução de 90% medição.
Onde se tem dados de IFC anteriores, não há necessidade de medição de alturas (somente avaliação e atualização)
122
REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS
Redução de custos pela economia de tempo.
123
REDUÇÃO DOS CUSTOS EM INVENTÁRIO DE POVOAMENTOS EQUIÂNEOS
Redução de custos pela economia de tempo
Custo é o custo médio resultante da aplicação da metodologia (em reais), valorParcela é o valor atual da parcela (em reais), 
Parc% representa a quantidade de parcelas sem medição de alturas.
124
125
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL
125
RNA 2: LINEAR 47-1 
RNA 3: MLP 20-1-1 
126
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL
127
UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA A PROGNOSE DA PRODUÇÃO FLORESTAL NÍVEL DE ÁRVORE
 Na projeção do dap e Ht 
	RBF 30-328-1 dap2 = f(I1, dap1, I2, Projeto, Solo, Relevo, Textura, Espaçamento) 
	RBF 30-371-1 Ht2 = f(I1, Ht1, I2, Projeto, Solo, Relevo, Textura, Espaçamento)
 
 dap Ht
 
Na quantificação de Volume:
 RBF 29-823-1 v = f(dap, Ht, Projeto, Solo, Relevo, Textura, Espaçamento)
128
Aplicações Práticas
no Statistica
Aplicações:
Volumétricos;
Hipsométrico;
Modelos de Crescimento e Produção em nível de Povoamento;
Cubagens;
129
Testes na Duratex e sugestões
Programação da RNA
130
Obrigado e até outro dia!
Fun��o de transfer�ncia
(ativa��o)
j (u)�
x1�
x2�
x0�
w1�
w2�
w0�
Sa�da y = j (u)�
entradas�
pesos�
u = S xi wi�
= 0.5�
= 0.6�
= -0.3�
= 1�
Fun��o de transfer�ncia
(ativa��o)
j (u)�
x1�
x2�
x0�
w1�
w2�
w0�
Sa�da y = j (u)�
entradas�
pesos�
u = S xi wi�
= 0.4�
= 0.4�
= -0.6�
= 1�

Teste o Premium para desbloquear

Aproveite todos os benefícios por 3 dias sem pagar! 😉
Já tem cadastro?

Continue navegando