Prévia do material em texto
1 Universidade Federal de Santa Catarina DAS / Curso: Engenharia de Controle e Automação Industrial Disciplina: Identificação e Controle Adaptativo Prof. Antonio Augusto Rodrigues Coelho Controle Adaptativo O que é controle adaptativo? Algumas definições e conceitos básicos Os sistemas biológicos são conhecidos por tratarem facilmente e eficientemente com mudanças em seus ambientes. “Adaptar-se” significa mudar (ajustar) um comportamento para lidar com novas circunstâncias. - alguma alteração na estrutura ou função de um organismo para fazer ele mais apto para sobreviver e multiplicar-se no seu ambiente; - mudança em resposta a alterações das condições ambientes através dos órgãos sensores; - uma lenta e usualmente inconsciente modificação do indivíduo e atividade social em ajuste a circunstâncias ambientais. “Aprender” para adquirir conhecimento ou habilidade pelo estudo, instrução ou experiência. Problema: adaptação ou realimentação? Controle adaptativo Muitos esforços na teoria de controle de sistemas visam incorporar características de sistemas biológicos para o tratamento de sistemas com incertezas, introduzindo diversos termos, tais como: adaptação, aprendizado, reconhecimento de padrões e auto-organização. Controle adaptativo foi provavelmente o primeiro destes termos a ser introduzido. Controle inteligente apareceu mais tarde e, atualmente, vem recebendo considerável atenção. 2 O termo “adaptive system” foi formalmente introduzido na literatura de controle por Drenick e Shahbender em 1957. Outra definição é a de John G. Truxal, http://www.ece.purdue.edu/ECE/Alumni/OEE/1992/truxal.whtml, em 1961, que “um sistema adaptativo é um sistema projetado de um ponto de vista adaptativo”. Truxal, John G. "The Concept of Adaptive Control," Adaptive Control Systems, ed. by Eli Miskin and Ludwig Braun, Jr., New York: McGraw-Hill, 1961. Intuitivamente, um controlador adaptativo é um controlador que pode modificar seu comportamento em resposta a mudanças a dinâmica do processo e perturbações. Segundo Åström http://www.control.lth.se/~kja/ e Wittenmark http://www.control.lth.se/~bjorn/ (1995), um controlador adaptativo é um controlador com parâmetros ajustáveis e apresenta um mecanismo para ajuste dos parâmetros. Um diagrama de um sistema de controle adaptativo é apresentado na figura 1. Figura 1. Esquema de um controlador adaptativo. controlador processo ajuste de parâmetros referência parâmetros do controlador sinal de controle saída 3 Um engenheiro de controle deve conhecer os sistemas adaptativos porque têm propriedades úteis, que podem ser usadas com vantagens para projetar sistemas de controle com aprimoramento do desempenho e funcionalidade. Conceitos essenciais para discussões sobre controle adaptativo Comportamento regulatório e servo (regulation and tracking) O objeto do controle é manter as variáveis de saída de um dado processo em valores desejados ou com limites prescritos de tais valores. Se os valores desejados são constantes, o problema é de regulação. Se são função do tempo, este é um problema de comportamento servo (tracking ou seguimento de referência). Controle direto ou indireto Existem duas abordagens distintas filosoficamente para o controle de um sistema sob incerteza. Em controle indireto, a estimação dos parâmetros do processo precede a geração de uma entrada de controle. Em outras palavras, no procedimento de projeto indireto, baseado na técnica self-tuning, o controle é calculado supondo que os parâmetros do processo sejam conhecidos. Um estimador é utilizado para obter os parâmetros do processo a partir das medidas de entrada e saída e, a seguir, substitui-se os parâmetros pelos valores estimados, de forma recursiva. A partir dos parâmetros estimados calcula-se os parâmetros do controlador (ver figura 2). Figura 2. Esquema de controle adaptativo indireto. controlador processo cálculo dos parâmetros do controlador referência parâmetros do controlador sinal de controle saída estimação dos parâmetros do processo parâmetros do processo 4 No controle direto, os parâmetros do controlador são diretamente ajustados pela otimização de um índice de desempenho baseado na saída do processo. No esquema de controle direto, o modelo do processo é re-parametrizado em termos dos parâmetros do controlador. A parametrização é possível usando os métodos de controle de variância mínima, preditivo, alocação de pólos ou modelo de referência. Logo, o estimador é utilizado para obter os parâmetros do controlador diretamente a partir das medidas de entrada e saída (ver figura 3). Figura 3. Esquema de controle adaptativo direto. Conseqüentemente, uma metodologia de controle indireto pode ser considerada como “adaptativo por parâmetro”, enquanto controle direto é “adaptativo por desempenho”. Em controle direto, a identificação está implícita, enquanto em controle indireto, é explícita. Por conseguinte, o controle direto e o controle indireto também têm sido referidos como esquemas de controle implícito e explícito. O problema de controle adaptativo Dado um processo que é conhecido de forma “imprecisa”, o problema do controle adaptativo pode ser definido qualitativamente como o do projeto de um controlador que resulta em desempenho satisfatório. controlador processo referência parâmetros do controlador sinal de controle saída estimação dos parâmetros do controlador 5 O controlador adaptativo é um controlador com parâmetros ajustáveis com mecanismo para ajuste dos parâmetros. A implementação do controlador adaptativo contém os seguintes passos: (i) caracterizar o comportamento desejado do sistema em malha fechada; (ii) determinar a lei controle adequada com os parâmetros ajustáveis; (iii) encontrar um mecanismo para ajuste dos parâmetros; (iv) implementar a lei de controle. Histórico Anos 1950 - pesquisas intensas em conexão com o projeto de pilotos automáticos para aeronaves (X-15 da U. S. Air Force e NASA) de alto desempenho. Tais aeronaves operam sobre um vasto intervalo (diferentes condições operacionais) de velocidades e altitudes. O interesse em controle adaptativo diminuiu parcialmente porque o problema de controle adaptativo foi muito complexo para tratar com a utilização das técnicas avaliadas naquela época (1955). http://www.nasm.si.edu/nasm/aero/aircraft/NAX-15.htm http://www.hq.nasa.gov/office/pao/History/SP-60/ch-7.html http://www.hq.nasa.gov/office/pao/History/hyperrev-x15/ch-6.html http://www.hq.nasa.gov/office/pao/History/hyperrev-x15/ch-7.html 6 Anos 1960 - pesquisas da teoria de controle que contribuíram para o desenvolvimento de controle adaptativo: • teoria de espaço de estados; • estabilidade de Lyapunov http://www-gap.dcs.st-and.ac.uk/~history/Mathematicians/Lyapunov.html; • avanços em estimação estocástica: filtro de Bucy-Kalman http://www.cs.unc.edu/~welch/kalman/ e programação dinâmica de Ricard E. Bellman; http://www.cas.mcmaster.ca/~se3c03/journal_papers/dy_birth.pdf Richard Bellman. Dynamic programming and stochastic control processes. Information and Control, 1(3):228-239, September 1958; • contribuições de Tsypkin http://www.autsubmit.com/editorials/ed34_5.html mostrando que muitos esquemas de aprendizado e controle adaptativo podem ser descritos em uma estrutura comum; • publicação do brilhante livro Adaptive Control Processes de Bellman R.E. Bellman, Adaptive Control Processes. PrincetonUniv. Press, 1961. • conexão entre identificação e controle e, a introdução do termo “controle dual” por A. A. Feldbaum em 1965. 7 Aleksandr Mikhailovich Lyapunov Rudolph E. Kalman Yakov Zalmanovitch Tsypkin - as pesquisas de controle adaptativo nos anos 1960 podem ser classificadas em três frentes: • adaptação “extrema”: - apelo devido a simplicidade e aplicabilidade em processos não-lineares; - contribuições relevantes: Draper e Li; McGrath, Rajaraman; Rideout; Eveligh; Douce, Ng e Gupta; e Kronauer e Drew. • métodos de sensibilidade (propostos por Bykhovsky nos anos 1940): - usam derivadas parciais para concepção de métodos indiretos de controle; - tratam essencialmente sistemas adaptativos como lineares e com coeficientes que variam lentamente no tempo. Isto faz a análise de estabilidade difícil; - contribuições relevantes: Kokotovic e Rutman, Narendra McBride; Wilkie e Perkins, e Meissinger; - regra MIT: primeiro modelo de sistema adaptativo baseado em modelo de referência porposto por Whitaker, Yamron e Kezer em 1958; • métodos adaptativos baseados na teoria de Lyapunov: - sistemas adaptativos estáveis: Grayson em 1963; - contribuições relevantes: Shakcloth e Butchart (1966), Park (1966), Zemlyakov e Rutkovskii (1966), Monopoli (1967), Winsor e Roy (1968), Phillipson (1968-1969), Porter e Tatnall (1970). Anos 1970 - desenvolvimento de diferentes esquemas de estimação de parâmetros combinados com vários métodos de projeto (livro de Tsypkin, Adaptation and Learning in Automatic Systems em 1971); - contribuições relevantes: Åström e Wittenmark (1973); Carroll e Lindorff (1973); Luders e Narendra (1973); Narendra e Kudva (1974); 8 - muitos resultados de aplicações foram reportados, mas os resultados teóricos estavam limitados; Final dos anos 1970 e anos 1980 - provas de estabilidade para sistemas adaptativos aparecem, no entanto, assumindo-se diversas restrições; - desenvolvimentos em controle robusto e identificação de sistemas; - desenvolvimentos de robustez de controladores adaptativos. - contribuições relevantes: Åström e Wittenmark; Narendra e Valavani; Goodwin; Ramadge e Caines; Narendra e Lin; Morse; Narendra, Lin e Valavani; Egardt; de Larminat; Fuchs; Llandau; e Clarke. Final dos anos 1980 e anos 1990 - primeiros controladores adaptativos aparecem no mercado; - novas abordagens de robustez de controladores adaptativos (tese de Rohrs) - novas investigações em sistemas não-lineares, controle adaptativo multivariável, controle híbrido; - contribuições relevantes: Egardt, Peterson, Narendra, Kreisselmeier, Tsakalis, Ioannou, Praly, Anderson, Goodwin, Annaswamy, Johnson e Bitmead, Fu, Hsu, Nussbaum, Mudgett, MÅrtennson, Barmish, Miller, Willems, Byrnes, Kokotovic, Middleton. Anos 1990 em diante - controladores adaptativos inteligentes e sistemas de estrutura variável; - aplicações industriais Esquemas de controle adaptativo c Escalonamento de ganhos (gain scheduling ⎯ GS) Em alguns sistemas existem variáveis auxiliares que relatam bem as características do comportamento dinâmico do processo e perturbações. Se as variáveis (auxiliares) podem ser medidas, então podem ser utilizadas para mudar os parâmetros do controlador. Esta abordagem é denominada escalonamento de ganhos porque o esquema foi originalmente utilizado para acomodar mudanças no ganho do processo. O conceito de escalonamento de ganhos teve origem na conexão com o desenvolvimento dos sistemas de controle de vôo. Nesta aplicação o número 9 de Mach (velocidade do objeto / velocidade do som) http://www.grc.nasa.gov/WWW/K- 12/airplane/mach.html e a pressão dinâmica são medidas por sensores (de dados do ar) e usadas como variáveis de escalonamento. Existem controvérsias se o escalonamento de ganhos deve ser considerado como um sistema adaptativo ou não. Apesar disso, escalonamento de ganhos (ver figura 4) é uma técnica muito utilizada para reduzir os efeitos da variação de parâmetros em aplicações industriais. Exemplos: controle de velocidade em máquinas, controle da taxa de produção (constantes de tempo e atrasos são freqüentemente inversamente proporcionais a taxa de produção), ... Figura 4. Esquema de controle com escalonamento de ganhos. d Sistemas adaptativos baseados em modelo de referência (Model- Reference Adaptive Systems - MRAS) ou métodos de gradiente direto A otimização foi um dos primeiros esforços na construção de mecanismos para ajuste de parâmetros. Isto levou os MRAS a serem um das primeiras abordagens sistemáticas para controle adaptativo, principalmente em controle de combate (Whitaker, Yaker and Kezer, 1958, MIT). O sistema é baseado em duas idéias: O propósito do sistema em malha fechada é formulado como um problema de seguimento de modelo (especificações de desempenho), e os parâmetros do controlador são ajustados por um esquema de gradiente. Um diagrama de blocos de um MRAS é apresentado na figura 5. controlador processo escaloamento de ganhos referência sinal de controle saída condição de operação parâmetros do controlador 10 Figura 5. Esquema do MRAS. O problema essencial como MRAS é determinar o mecanismo de ajuste de maneira que um sistema estável que leve o erro para zero seja obtido. Este problema não é trivial. O seguinte mecanismo de ajuste, denominado regra MIT foi usado no original MRAS: d dt e θ γϕ= − ϕ ∂∂θ= − e Nesta equação, e y ym= − denota o erro do modelo e θ é um parâmetro do controlador. A valor de ∂ ∂θ e são as derivadas da sensibilidade do erro com respeito ao parâmetro θ . O parâmetro γ determina a taxa de adaptação. Existem diversos problemas com a aplicação da regra MIT. Um problema é que na prática é necessário fazer-se aproximações para obter a derivada de sensibilidade. A regra MIT pode ser considerada como um esquema de gradiente para minimizar o erro quadrático, J e e( ) = 2. controlador processo modelo de referência referência parâmetros do controlador sinal de controle, u saída, y mecanismo de ajuste ym 11 Figura 6. Mecanismo de ajuste dos parâmetros em um MRAS. O mecanismo de ajuste de parâmetros é não-linear por causa da multiplicação do erro com as derivadas de sensibilidade. A regra MIT é muito simples. No entanto, ela pode resultar em sistemas instáveis, particularmente se a taxa de adaptação γ é alta. Uma quantidade considerável de pesquisa tem sido devotada para MRAS. Existem muitas variações da lei de ajuste: d dt e θ γϕ= − ϕ ∂∂θ= − e É vantajoso introduzir a regra normalizada da lei de MIT, onde d dt e T θ γ ϕα ϕ ϕ= + e Regulatores auto-ajustáveis (self-tuning regulators ⎯ STR) Os esquemas adaptativos discutidos até este momento (GS e MRAS) são denominados métodos diretos, porque as regras de ajuste dizem como os parâmetros do controlador devem ser atualizados. Um esquema diferente é obtido se as estimativas dos parâmetros do processo são atualizadas e os parâmetros do controlador são obtidos da solução de um modelo de referência θ derivadas de sensibilidade ym ysp y u Σy - + e X γ s ∂ ∂θ e 12 problema de projeto usando os parâmetros estimados. Um diagrama de tal sistema é mostrado na figura 7. Figura 7. Esquema de um STR. O controlador adaptativo pode ser considerado como sendo composto de duas malhas. A malha interna consiste do processo e uma realimentação da saída do processo. Os parâmetrosdo controlador são ajustados pela malha exterior, que é composta por um estimador de parâmetros recursivo e um cálculo de projeto. Às vezes, este procedimento não é possível para estimar os parâmetros do processo sem a introdução de sinais extras de controle ou perturbações. Esta abordagem de controle pode ser vista como uma automação da modelagem e projeto, em que o modelo do processo e o projeto de controle são atualizados a cada período de amostragem. Um controlador com esta concepção de projeto é denominado STR para enfatizar que o controlador sintonia automaticamente seus parâmetros para obter as propriedades desejadas do sistema em malha em fechada. O bloco da figura 7 denominado “projeto do controlador” representa uma solução on-line para um problema de projeto para um sistema com parâmetros conhecidos. controlador processo projeto do controlador referência parâmetros do controlador sinal de controle saída estimação dos parâmetros do processo parâmetros do processo especificação STR 13 O esquema de controle STR é muito flexível com relação a escolha do projeto e métodos de estimação. Diversas combinações diferentes têm sido exploradas. No STR, os parâmetros do controlador ou os parâmetros do processo são estimados em tempo real. As estimativas são então utilizadas como se fossem iguais aos parâmetros “verdadeiros” (reais). Isto é, as incertezas das estimativas não são consideradas. Isto é denominado certainty equivalence principle (Simon, 1956; Theil, 1957). http://www1.fee.uva.nl/welfare/Web-TheilConf/abstracts/Sargent.Hansen.theil2.pdf Em muitos esquemas de estimação é possível obter-se uma medida da qualidade das estimativas. Esta incerteza pode então ser utilizada no projeto do controlador. f Controle dual O controle dual é uma técnica de controle ótimo que visa obter um compromisso entre bom controle e pequenos erros de estimação. Os esquemas adaptativos discutidos até este momento (GS e MRAS) apresentam algumas limitações. Por exemplo, incertezas nos parâmetros não são levadas em conta no projeto do controlador. Então é natural perguntar se existem abordagens melhores que o certainty equivalence principle. Uma abordagem possível para obter-se uma solução que segue para formulação de um problema abstrato é usando a teoria de otimização. Uma técnica em particular poderia usar a teoria de controle estocástico não-linear. Isto levará a noção de controle dual. Esta abordagem da uma estrutura de controlador com propriedades interessantes. Uma conseqüência principal é que as incertezas nos parâmetros estimados são levadas em conta no projeto do controlador. Esta abordagem leva ações especiais devido ao conhecimento pobre sobre o processo. No entanto, esta abordagem é de projeto complexo. 14 O modelo de um processo com incertezas nos parâmetros é obtido pela ampliação das variáveis de estado do processo e seu ambiente em que a dinâmica é dada pela equação d dt θ = 0 com uma distribuição inicial que reflete a incerteza nos parâmetros. Nesta formulação não existe distinção entre estes parâmetros e as outras variáveis de estado. Isto significa que o controlador resultante pode manipular mais rapidamente variações de parâmetros. Um estado aumentado ( )z xT T T= θ consistindo do estado do processo e os parâmetros pode agora ser introduzido. A meta do controle é então formulada para minimizar uma função custo ( )V E G z T u T g z u dtT= + ∫⎛⎝⎜ ⎞ ⎠⎟( ), ( ) ( , )0 onde E denota a esperança matemática, u é a variável de controle, e G e g são funções escalares de z e u. A esperança considera a distribuição de todos valores iniciais e todos distúrbios que aparecem no modelo do sistema. O problema de encontrar um controlador que minimiza a função custo é difícil. Fazendo-se as considerações suficientes, uma solução pode ser obtida pelo uso de programação dinâmica. A solução é dada então em termos de uma equação funcional que é denominada equação de Bellman, uma extensão da equação de Hamilton-Jacobi. Algumas propriedades estruturais são mostradas na figura 8. Figura 8. Diagrama de blocos de um controlador dual. lei de controle não-linear processo sinal de controle, u saída, y cálculo hiperestado hiperestado referência, yr 15 O controlador é composto de duas partes: um estimador não-linear e uma realimentação de controle. O estimador gera uma distribuição de probabilidade condicional do estado para as medidas, ( )p z y u, . Esta distribuição é denominada hiperestado do problema. Detalhes em: http://www.control.lth.se/~bjorn/seminal/dual.pdf O controlador realimentado é uma função não-linear que mapeia o hiperestado dentro do espaço das variáveis de controle. Referências Narendra, K. S. Parameter adaptive control ⎯ the end ... or the beginning, Proceedings of the 33rd Conference on Decision and Control, Lake Buena Vista, FL, pp. 2117-2125, 1994. Åström, K. J., Wittenmark, B. Tuning and adaptation, 13th Triennial World Congress, San Francisco, USA, pp. 1-18, 1996. Åström, K. J., Wittenmark, B. Adaptive control, 2nd edition, Addison-Wesley, 1995. Sugestão de leitura Dumont, G. A.; Huzmezan, M. Concepts, Methods and Techniques in Adaptive Control, American Control Conference, 2002. http://www.ece.ubc.ca/~huzmezan/docs/acc2002paper.pdf