Baixe o app para aproveitar ainda mais
Prévia do material em texto
1:05 Métodos de Calibração de Modelos hidrológicos Carlos Ruberto Fragoso Júnior 3:50 Sumário � Conceito básicos � O que é calibração? � Problemas comuns na calibração de modelos hidrológicos � Ciclo da calibração � Métodos de calibração � Função objetivo � Técnicas numéricas � Busca aleatória � Técnicas iterativas; � Busca direta; � Técnicas de otimização global; � Algoritmos genéticos � Critérios de parada 3:50 O que é calibração � Procura de valores dos parâmetros de um modelo matemático que resultem em uma boa concordância entre dados observados e calculados; � O erro é minimizado!! 3:50 Calibração - Otimização � Encontrar o mínimo ou o máximo de uma função 0 20 40 60 80 100 120 140 160 0 10 20 30 3:50 Problemas comuns em modelos hidrológicos � Encontrar um conjunto ótimo de parâmetros que ajusta um evento de cheia ou uma série de vazões; � Encontrar o coeficiente do reservatório linear simples que ajusta adequadamente uma recessão de vazão. 3:50 Problema: � Encontrar o coeficiente do reservatório linear simples que ajusta adequadamente uma recessão de vazão. � Q = V / k � Q(t+dt) = Q(t) . exp(-dt/k) 3:50 3:50 3:50 Q(t+dt) = Q(t) . exp(-dt/k) Primeiro teste: k = 20 3:50 � Modelos hidrológicos geralmente tem muitos parâmetros � Não lineares � Técnicas de otimização automáticas � Usar Funções Objetivo Problemas na calibração de modelos hidrológicos 3:50 Ciclo da calibração Rodar o modelo Verificar o erro Ajustar os parâmetros Critérios de parada Critérios para um “bom ajuste” (Função objetivo) Critérios para mudança dos parâmetros 3:50 Métodos de calibração Métodos de calibração Tentativa e erro (Manual) Técnicas numéricas Aleatório Ajusta os parâmetros manualmente baseado nos resultados Assume faixa de probabilidade para cada parâmetro Usa algoritmos numéricos para encontrar um conjunto de parâmetros ótimo 3:50 Funções Objetivo (FO) � Medida do erro – objetivo é minimizar a FO � Diferentes funções objetivo � Somatório dos erros: compensação de erros � Somatório do módulo dos erros � Somatório dos erros ao quadrado � Somatório de erros relativos � Somatório dos desvios dos inversos da vazão � Erro de volume (bias) � Coeficiente de eficiência de Nash-Sutcliffe 0 10 20 30 40 50 60 70 0 20 40 60 80 100 120 140 tempo v a z õ e s Observada simulada 3:50 Funções objetivo � Raiz do Erro Médio Quadrado (RSME) n XX RMSE n i idelmoiobs∑ = −= 1 2 ,, )( 3:50 Funções objetivo � Raiz do Erro Médio Quadrado Normalizado (NRSME) min,max, obsobs XX RMSE NRMSE − = obsX RMSE NRMSE = 3:50 Funções objetivo � Coeficiente de correlação de Pearson ∑∑ ∑ == = −⋅− −⋅− = n i i n i i n i ii yyxx yyxx r 1 2 1 2 1 )()( )()( 3:50 Funções objetivo � Coeficiente de eficiência de Nash-Sutcliffe ∑ ∑ = = − − −= n i obsiobs n i delmoiobs XX XX E 1 2 , 1 2 , )( )( 1 3:50 Funções Objetivo 2N 1i ii )QCQO(1F ∑ = −= Função quadrática ∑ = −= N 1i ii2 QCQOF Função módulo ∑ = −= N 1i 2 ii ) QC 1 QO 1 (3F Função para mínimos ∑ = − = N 1i 2) QOi QCiQOi (4F Função relativa 3:50 Exemplo 3:50 Técnicas de otimização � Cálculo analítico � Técnicas numéricas � Busca aleatória � Busca direta � Algoritmos genéticos 3:50 Cálculo analítico � Encontrar pontos da função em que a derivada é zero. � vantagens (pode ser rápido, é mais elegante) � desvantagens (funções de picos múltiplos, funções descontínuas, ausência da forma analítica da função - por exemplo no problema de calibração de um modelo chuva- vazão) 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 2x.cx.ba)x(F ++= 0 dx dF = 3:50 Haverá sempre um ponto de máximo ou mínimo, seja no interior da região delimitada pelas restrições ou nos limites, desde que a função objetivo seja contínua. A condição necessária para que exista um ponto de máximo ou mínimo é a seguinte: pontos estacionários 1,2,...n = i para 0 x F i = ∂ ∂ A condição suficiente para que um ponto estacionário seja um mínimo é a seguinte onde Ri são os menores principais da matriz Hessiana H. 1,2,...n=i para 0 R i > Cálculo analítico - Conceitos 3:50 2 n 2 2n 2 1n 2 n2 2 2 2 2 12 2 n1 2 21 2 2 1 2 x F ... xx F xx F ............ xx F ... x F xx F xx F ... xx F x F ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ =H 3:50 Exemplo 21 2 21 2 1 xxx2x14xy −+−= Determine o mínimo da função 0 xx4 x y 0 14xx2 x y 12 2 21 1 =−= ∂ ∂ =−−= ∂ ∂ 1- = xx y = xx y 4; = x y ;2 x y 12 2 21 2 2 2 2 2 1 2 ∂ ∂ ∂ ∂ ∂ ∂ = ∂ ∂ 4 1 12 − − H = x1= 8 x2 = 2 y = -56 Matriz positiva definida 3:50 Técnicas numéricas - Busca Aleatória � Vantagens: funções descontínuas; picos múltiplos � Desvantagens: demorado; não existe garantia de atingir o ponto ótimo global 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 “Ótimo” 3:50 Características das Técnicas Numéricas � Definição do ponto de partida: o critério para inicializar o processo de tentativa em geral depende mais do problema em questão do que do método. � Direção de pesquisa: a direção de pesquisa identifica o vetor no qual serão realizadas as alterações das variáveis. � Espaçamento de cada tentativa: identifica a variação que ocorrerá na direção de pesquisa a cada tentativa. � Critérios de parada: envolve a definição dos critérios para aceitar uma determinada solução como o ótimo de uma função. 3:50 Técnicas numéricas - Busca direta � Estratégia de caminhar “morro acima” 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Máximo global Máximo local Função objetivo: F(x1,x2) x1 x2 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Início: ponto coordenadas (parâmetros) aleatórias X1=valor aleatório entre a e b X2=valor aleatório entre c e d 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Determina direção de busca: exemplo x2=x2+0,3; x1=x1 Função objetivo melhorou? Não, então tenta no outro sentido. 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 F.O melhorou? Sim, então continua no mesmo sentido 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 F.O melhorou? Sim, então continua no mesmo sentido 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 F.O melhorou? Sim, então continua no mesmo sentido 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 F.O melhorou? Não, então volta para o ponto anterior... 3:50 F.O melhorou? Sim, então continua no mesmo sentido 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 ...e muda a direção de busca. 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 E assim segue até encontrar um ponto em que não existe direção de busca que melhore o valor da FO 3:50 Método unidirecional 1. Direção de pesquisa paralela aos eixos; 2. Pesquisa em cada direção: espaçamento constante ou variável 3. Critério de parada desvantagens: (ao lado) 3:50 Método da rotação das coordenadas (Rosenbrook) �Primeiro ciclo igual ao univariacional �segundo ciclo com rotação �duas alternativas para pesquisa em cada direção: método original que alterna a pesquisa de cada direção em cada tentativa; 3:50 17,16 = y6 ;82,1375,3x5,188,6x 10,52 =y5 ;88,625,2x5,125,10x 34,56=y4 ; 25,105,1x5,15,12x 63,25=y3 ;5,121x5,114Sxx 88=y2 ;14Sxx 6 1 5 1 4 1 1 1 1 3 1 1 0 1 2 1 =−= =−= =−= =−=α−= =−= Primeiro ciclo direção x1 -31,67=y11 ;13,425,2.5,175,0x -47,67=y10 ;75,05,1.5,15,1x -33,02=y9 ;5,10,1.5,13x -12,01=y8 ;314x 4 2 3 2 22 1 2 =+= =+−= −=+−= −=+−= Primeiro ciclo direção x2 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Rosenbrock: Método um pouco mais eficiente Direção de busca é a que potencialmente dará maior incremento da FO 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Limitação da busca direta: Ótimos locais Região que atrai solução para o ótimo local 3:50 Tentativa de contornar problema: Busca direta com inicialização múltipla 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Várias tentativas; espera se que o ótimo global seja a melhor solução testada. Problema: Ineficiente e ineficaz quando a FO tem muitos ótimos locais 3:50 Técnicas numéricas – Busca direta � Busca direta (Rosenbrock e cia.) � vantagens: funções descontínuas; otimização por simulação (funções que não podem ser expressas analiticamente - calibração de modelos) � desvantagens: funções com picos múltiplos 3:50 Técnicas numéricas – Algoritmos genéticos Início Inicialização da população Cálculo da aptidão Solução encontrada? Seleção Reprodução Mutação Fim Nova população 3:50 •Conceitos de população, reprodução e gerações •Filhos são semelhantes aos pais •Os pais mais “adaptados” tem maior probabilidade de gerar filhos •Os filhos não são completamente iguais aos pais Algumas regras gerais dos algoritmos genéticos 3:50 Pais mais adaptados têm maior probabilidade de gerar filhos (sobrevivência do mais apto = seleção natural) Darwin 3:50 Algoritmos genéticos � Na natureza: indivíduos mais adaptados têm maior probabilidade de sobreviver até chegar à fase reprodutiva e de participar do processo de reprodução. � No algoritmo: pontos com maior FO têm maior probabilidade de serem escolhidos para participar dos complexos. 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 Algoritmo genético “puro” 1 - gera população (pontos aleatórios) 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 2 - escolhe pontos para participar do processo de “reprodução” (pontos com melhor FO tem maior probabilidade de escolha 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 2 - Exemplo de reprodução: escolhidos dois pontos Xa=8 Xb=19 Xa=01000binário Xb=10011 3:50 Genética: filhos “recebem” cromossomos dos pais 01000 10011 É determinado um (ou mais) ponto de “corte” (aleatório) Xa=01011 = 11 Xb=10000 = 16 01011 10000 Filho 1: parte dos “cromossomos” do pai e parte da mãe Filho 2: outra parte dos “cromossomos” do pai e parte da mãe Filhos: 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 pais filhos 3:50 Genética: filhos “recebem” cromossomos dos pais 01000 10011 É determinado um (ou mais) ponto de “corte” (aleatório) Xa=01011 = 11 Xb=10100 = 20 01011 10100 Filho 1: sem mutação Filho 2: mutação Filhos: Mutação: evento de baixa probabilidade 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 Reprodução de todos os pontos escolhidos resulta na nova geração 3:50 0 2 0 4 0 6 0 8 0 1 0 0 1 2 0 1 4 0 1 6 0 0 1 0 2 0 3 0 Depois de algumas gerações 3:50 Algumas desvantagens do algoritmo genético puro •Números binários •Transformação de variáveis de base decimal para binária Variável Y -0,05 +180,3 decimal 0000000000 1111111111 Usando 10 bits; Resolução = 0,176 3:50 Algumas vantagens do algoritmo genético puro Otimização com números inteiros Diâmetros comerciais 3:50 Evolução de complexos misturados (Shuffled complex evolution) � SCE - UA � Usa técnicas de � busca aleatória � algoritmos genéticos � simplex (Nelder e Mead) � Proposto por Duan, Gupta e Sorooshian (U. Arizona) � Descrito no livro Sistemas Inteligentes da ABRH 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 1 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 2 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 3 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 4 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 5 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 6 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 7 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 8 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 9 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 10 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Passo 20 3:50 1 - Geração aleatória de pontos 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Complexos = “casais” Obs.: Casais podem ser de mais de dois pontos. 3:50 2 - Formar complexos Complexos = “casais” Obs.: Casais podem ser de mais de dois pontos. Exemplo: complexos de 4 pontos 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 3 - Formar sub-complexo (exemplo) Obs.: Nem todos os pontos de um complexo fazem parte do sub-complexo. Exemplo: subcomplexo de 3 pontos extraído de um complexo de 4 pontos. 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 A probabilidade de um ponto do complexo participar do sub-complexo é proporcional à FO. 3:50 Define pior ponto do sub-complexo Exemplo: sub-complexo de 3 pontos 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 Define centróide dos melhores pontos 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 Passo de reflexão Passo de reflexão: distância a = distância b 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 a b Verifica valor da FO no novo ponto, se é melhor do que pior ponto, novo ponto é aceito, se não, vai para o passo de contração. 3:50 Passo de contração 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 a b Passo de contração: distância a = distância b Verifica valor da FO no novo ponto, se é melhor do que pior ponto, novo ponto é aceito, se não, cria ponto aleatório. 3:50 � Um novo ponto é gerado no espaço definido pelos limites mínimo e máximo de cada um dos parâmetros no complexo. Ponto aleatório 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 � Um novo ponto é gerado no espaço definido pelos limites mínimo e máximo de cada um dos parâmetros no complexo. Ponto aleatório 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 Nova geração � Cada complexo gera um novo ponto (filhote), seja por um passo de reflexão, de contração ou aleatório. O novo ponto substitui o pior ponto do complexo. Ao final de uma rodada de evolução existe uma nova geração, com o mesmo tamanho de população (número de pontos). 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 3:50 Pais mais adaptados têm maior probabilidade de gerar filhos (sobrevivência do mais apto = seleção natural) � 1) Classificar os pontos do complexo em ordem de FO (ranking) � 2) Atribuir probabilidade de escolha para participar do sub- complexo segundo a função do desenho:Posição no ranking P ro ba bi li da de d e es co lh a 0 1 Valor da FO 3:50 Complexo Sub-Complexo Exemplo 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Dois pontos do complexo ficaram fora do sub-complexo. Não necessariamente os piores pontos ficam fora. 3:50 Filhos são semelhantes aos pais Genética: filhos “recebem” cromossomosdos pais 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 a b Algoritmo SCE-UA: No lugar dos “casais” estão os “complexos”, que são “casais” de n pontos 3:50 Aplicações � Calibração do modelo IPH-2 � Calibração multi-objetivo do modelo IPH-2 � Calibração multi-objetivo do modelo de grandes bacias � Ajuste de parâmetros de curva de infiltração de trincheira (Vladimir) 3:50 Calibração automática com SCE-UA Função objetivo: Coeficiente de Nash Sutcliffe 3:50 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 Cada ponto representa os valores dos parâmetros escolhidos. A FO é o coeficiente de Nash Sutcliffe. Para ser avaliada, deve ser realizada uma simulação completa (por exemplo, 10 anos de dados diários). 0 100 200 300 400 500 600 700 01/jun/72 01/jul/72 31/jul/72 30/ago/72 29/set/72 29/out/72 28/nov/72 V az ão ( m 3/ s) calculada observada 3:50 Teste 1: Calibração com série sintética de vazões I0 Ib h Ks Kbas Rmax Alf 50,0 1,0 0,8 5,0 100,0 4,0 2,0 Vazão observada é substituída pela vazão gerada pelo modelo Teoricamente o método de calibração deve encontrar os parâmetros utilizados na geração da série. Valores dos parâmetros utilizados no teste 3:50 Resultados teste 1 0 20 40 60 80 100 120 140 0 2000 4000 6000 8000 10000 12000 Número de avaliações da função V a lo r d o p a râ m e tr o I 0 I0 = 50 � Em 10 aplicações sucessivas o algoritmo de calibração atingiu sempre o ótimo global (conjunto de parâmetros que gerou a série sintética), em menos do que 10.000 avaliações da função objetivo � Literatura mostra testes semelhantes com métodos Rosenbrock e outros, que não conseguem superar este teste. Valor do parâmetro ao longo do processo 3:50 Calibração I0 Ib h Ks Kbas Rmax Alf R2 1 36,04 0,46 0,93 7,52 11,11 2,80 19,99 0,85915 2 36,04 0,46 0,93 7,52 11,16 2,80 19,99 0,85915 3 36.03 0.46 0.93 7,52 11,05 2,80 19,99 0,85915 4 35.91 0.46 0,93 7.56 11.95 2.81 19.69 0,85915 5 36.02 0.46 0,93 7.52 11.09 2.80 19.98 0,85915 6 36.04 0.46 0.93 7.52 11.14 2.80 19.99 0,85915 7 36.04 0.46 0,93 7.52 11.12 2.80 19.99 0,85915 8 36.05 0.46 0,93 7.52 11.13 2.80 19.99 0,85915 9 36.03 0.46 0.93 7.52 11.11 2.79 19.99 0,85915 10 36.04 0.46 0.93 7.52 11.16 2.80 19.99 0,85915 Calibração do modelo IPH-2 (10 vezes) Teste 2: calibração dados observados 3:50 SCE-UA aplicado ao IPH-2 � Fortes evidências de que o algoritmo encontra o ótimo global. � Melhor que Rosenbrock. � Pior que calibração manual porque só leva em conta uma função objetivo. 3:50 Otimização multi-objetivo � Considerar mais de uma FO. � Calibração de modelos hidrológicos distribuídos � Otimização de sistemas de reservatórios de usos múltiplos (controle de cheias x regularização de vazão) � Vazão e evapotranspiração 3:50 Otimização multi-objetivo -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 x F (x ) F1 F2 Região de Pareto Em geral o ótimo de uma função não corresponde ao ótimo da outra. Função 1 Função 2 3:50 Otimização multi-objetivo � Um problema de otimização multi-objetivo tem um conjunto de soluções igualmente válidas. -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 x F (x ) F1 F2 Região de Pareto 3:50 � Conjunto de pontos em que a solução não pode ser considerada pior do que qualquer outra solução. -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 x F (x ) F1 F2 Região de Pareto Região de Pareto ou Curva de Pareto 3:50 Exemplo IPH 2 Parâmetr o Unidade Valor mínimo Valor máximo Io mm.∆t-1 10 300 Ib mm.∆t-1 0,1 10 H - 0,0 1,0 Ks ∆t 0,01 10,0 Ksub ∆t 30,0 40,0 Rmáx mm 0,0 9,0 Alf - 0,01 20,0 2 FO: Erro volume e RMSE Faixa válida dos parâmetros. 3:50 0 1 2 3 4 5 6 7 8 15000 17000 19000 21000 23000 25000 Soma desvios quadrados E rr o n o v o lu m e Geração 1 3:50 0 1 2 3 4 5 6 7 8 15000 17000 19000 21000 23000 25000 Soma desvios quadrados E rr o n o v o lu m e Geração 10 3:50 0 1 2 3 4 5 6 7 8 15000 17000 19000 21000 23000 25000 Soma desvios quadrados E rr o n o v o lu m e Geração 20 3:50 0 1 2 3 4 5 6 7 8 15000 17000 19000 21000 23000 25000 Soma desvios quadrados E rr o n o v o lu m e Geração 50 3:50 0 1 2 3 4 5 6 7 8 15000 17000 19000 21000 23000 25000 Soma desvios quadrados E rr o n o v o lu m e Geração 138 3:50 Avaliação da incerteza: usar todos os conjuntos e gerar vários hidrogramas 3:50 Propagação da incerteza: Q90 calculada, por exemplo, vai de 8,9 a 10,5 m3.s-1, sendo que a Q90 observada é de 9,1 m 3.s-1 3:50 Problemas de recursos hídricos esperando por uma abordagem com algoritmos genéticos no CTEC � Dimensionamento de sistema de reservatórios de abastecimento ou controle de cheias � Dimensionamento de canais e redes de abastecimento � Otimização de operação de reservatórios � Substituir Rosenbrock � Substituir programação linear � Substituir programação dinâmica 3:50 � Problemas de otimização com inteiros � diâmetros comerciais de condutos � parâmetros comerciais de bombas Problemas de recursos hídricos esperando por uma abordagem com algoritmos genéticos no CTEC 3:50 Sugestões de leitura � Yapo, P. O.; Gupta, H. V.; Sorooshian, S. 1998 Multi-objective global optimization for hydrologic models. Journal of Hydrology, Vol. 204 pp. 83-97. � Sorooshian, S.; Gupta, V. K. 1995 Model calibration In: Singh, V. J. (editor) Computer models of watershed hydrology. Water Resources Publications, Highlands Ranch. 1130 p. � Duan, Q.; Sorooshian, S.; Gupta, V. 1992 Effective and efficient global optimization for conceptual rainfall-runoff models. Water Resources Research Vol. 28 No. 4. pp. 1015-1031. � Duan, Q.; Sorooshian, S.; Gupta, V. 1994 Optimal use of the SCE – UA global optimization method for calibrating watershed models. Journal of Hydrology, Vol 158 pp. 265-284. � Bonabeau, E.; Dorigo, M.; Theraulaz, G. 2000 Inspiration for optimization from social insect behaviour.Nature Vol. 406 July pp.39-42. � Goldberg, D. 1989 Genetic Algorithms in Search, Optimization and Machine Learning Addison- Wesley, 412 pp. 3:50 Sugestões de leitura � Klemes, V. 1986 Operational testing of hydrological simulation models. Hydrological Sciences Journal V. 31 No. 1 pp. 13-24. � Nash e Sutcliffe, 1970 (Journal of Hydrology) � Particle Swarm Optimization
Compartilhar