Baixe o app para aproveitar ainda mais
Prévia do material em texto
UNIVERSIDADE FEDERAL DO RIO DE JANEIRO ESCOLA DE QUÍMICA PROGRAMA DE PÓS-GRADUAÇÃO EM TECNOLOGIA DE PROCESSOS QUÍMICOS E BIOQUÍMICOS EQE717 – Redes Neurais TRABALHO FINAL Estimação da Produtividade e do Índice de Polidispersão em um Retor Contínuo de Polimerização em estado Estacionário através de Redes Neurais MLP PROF. MAURÍCIO BEZERRA Aluno: Ivan Delduga Rio de Janeiro, 2021 UNIVERSIDADE FEDERAL DO RIO DE JANEIRO ESCOLA DE QUÍMICA PROGRAMA DE PÓS-GRADUAÇÃO EM Tecnologia de Processos Químicos e Bioquímicos Estimação da Produtividade e do Índice de Polidispersão em um Retor Contínuo de Polimerização em estado Estacionário através de Redes Neurais MLP Rio de Janeiro, 2021 INTRODUÇÃO .......................................................................................................... 4 Contextualização: Motivação para o trabalho ................................................. 5 Escopo do Trabalho ........................................................................................ 7 1. REVISÃO DA LITERATURA ............................................................................... 8 1.1. Reator de Poliestireno .................................................................................. 8 1.2. Modelagem da Reação de Polimerização do Estireno ................................. 9 1.3. Parâmetros do Processo ............................................................................. 13 1.4. Redes Neurais ............................................................................................. 15 2. METODOLOGIA .................................................................................................. 20 2.1. Utilização do Modelo..................................................................................... 21 2.2. Geração de Dados para a Rede ................................................................... 22 2.3. Testes de Sensibilidade ................................................................................ 23 2.4. Desenvolvimento da Rede ............................................................................ 31 3. RESULTADOS E DISCUSSÕES ........................................................................ 32 3.1. Utilizando Gradiente Descendente ............................................................... 32 3.2. Utilizando Gradiente Descendente com Momento........................................ 35 3.3. Jogando com Regularização Bayesiana ....................................................... 37 4. CONCLUSÃO ....................................................................................................... 40 5. REFERÊNCIAS ..................................................................................................... 41 Anexo 1 ..................................................................................................................... 43 Anexo 2 ..................................................................................................................... 45 Anexo 3 ..................................................................................................................... 47 Anexo 4 ..................................................................................................................... 49 Anexo 5 ..................................................................................................................... 51 Anexo 6 ..................................................................................................................... 53 Anexo 7 ..................................................................................................................... 57 INTRODUÇÃO Os polímeros são macromoléculas constituídas pela ligação de um grande número de moléculas menores. Essas pequenas moléculas que se combinam umas com as outras para formar moléculas maiores (polímeros) são denominadas de monômeros e as reações são denominadas de polimerizações (ODIAN, 2004). Esses compostos têm significativa importância no desenvolvimento tecnológico dos séculos XX e XXI e a cada ano observa-se sua participação cada vez mais efetiva no setor industrial, seja na produção, seja no produto final. Esta participação, além de apresentar uma grande variedade de produtos, também possui aplicações específicas com crescente importância tecnológica e econômica, principalmente pela capacidade de aumentar a produtividade através da redução de custo e da praticidade de aplicação (DELDUGA, 2013). De fato, a participação dos polímeros na sociedade moderna tem apresentado um deslocamento dos aspectos quantitativos para os qualitativos. Ou seja, no início, houve uma procura maior pela diversidade de aplicações intensivas desses produtos, porém, atualmente, as aplicações estão mais direcionadas, com uso de produtos com características mais particulares, obtendo, assim, maior importância sob uma ótica tecnológica e, sobretudo, econômica (ALMEIDA, 1997). A busca efetiva por ganho de produtividade é inerente às atividades produtivas e é determinante na existência e longevidade de instituições com fins lucrativos. No entanto, a busca por ganhos de produção com redução de custos esbarra em premissas cada vez mais consolidadas na atualidade. A qualidade, que é uma dessas premissas, tem se tornado um dos mais importantes fatores de decisão dos consumidores e, muitas vezes, concorre com a necessidade de reduzir os recursos empregados no processo (DELDUGA, 2013). Essa nova conjuntura, de busca de produtos com alto valor agregado, foco na qualidade final do produto e na segurança, respeito ao meio ambiente e a preocupação com o aumento de produtividade, privilegia, consequentemente, a capacidade de otimização, simulação e previsão de produção. Neste cenário, torna-se, portanto, cada vez mais necessária a busca por técnicas, preferencialmente computacionais, capazes de auxiliar no planejamento e controle da produção e do processo. Nesse sentido, pode-se tomar a ideia exposta por de Souza Jr (1993), que afirma que “as redes neurais se tornaram um paradigma computacional capaz de prover uma representação de processos complexos para padrões de entradas e de saídas do processo que se deseja representar. Estas, através de sua estrutura e topologia internas, se adequam a estes padrões e dá a possibilidade de extrair informação a partir de dados brutos e isso traz uma grande promessa no campo de problemas de modelagem de processos químicos. Segundo de Souza Jr (2005) e reforçando a ideia já apresentada, muitas indústrias químicas têm empregado redes neurais como uma tecnologia viável, pois são indicadas para resolver problemas devido a sua grande aplicabilidade e a sua habilidade no treinamento de processos complexos e não lineares, como em geral são características dos processos químicos na indústria. Contextualização: Motivação para o trabalho Para indústrias competitivas, incluindo-se aí as empresas de commodities, há uma grande necessidade de se reduzir custos de produção. A prática de se ter processos controlados próximos, ou com tendências de se aproximar, do ponto ótimo de operação é cada vez mais necessária. Isso ocorre devido aos grandes volumes de produção envolvidos, à necessidade de alta disponibilidade das instalações para produção, o baixo valor agregado de produtos dessa natureza e à própria característica do mercado. O Poliestireno (também denominado por PS) é o polímero, cujo processo será avaliado para desenvolvimento e implementação de uma estratégia de controle alternativa. Este polímero pode ser encontrado no mercado sob algumas formas, como mostrado por Odian (2004): cristal de poliestireno (o termo é usado para descrever a clareza óptica do produto e não sua estruturamolecular, que é amorfa), poliestireno expandido (EPS), que é usado na fabricação de espumas, e o poliestireno de alto impacto (HIPS), que apresenta melhor resistência que o poliestireno e baixo custo comparado ao ABS em algumas aplicações, como a de copos. O poliestireno é comercializado nos EUA há mais de 60 anos, sintetizado pela simples polimerização do monômero estireno (MOORE, 1989). Cada tipo possui uma aplicação específica, que pode variar desde a confecção de embalagens de copos descartáveis, no caso do tipo standard à confecção de materiais de isolação térmica, no caso do EPS (SERFATY e MONTENEGRO, 2002). Tem-se observado um aumento global pelo composto. A previsão para 2020, comparada ao ano de 2010, era de 5,6%, conforme apontado pelo site Plastemart. Embora todo o mercado tenha sido impactado recentemente pela pandemia do Corona Vírus, pode-se ver ao menos em dados previstos, qual o crescimento esperado. Esse crescimento se justifica pelo desenvolvimento observado do setor nos países emergentes Brasil, Índia e China. O setor de embalagens no Brasil merece destaque, pois o Poliestireno é amplamente empregado, seja na forma cristal, seja como EPS. Os maiores produtores são a Dow e a BASF (SERFATY e MONTENEGRO, 2002). Demonstrada a importância do produto, é de se destacar que o processo tenha uma operação devidamente controlada, buscando sempre o ponto ótimo de operação. Bem como, a capacidade de estimar e prever comportamentos de variáveis desejadas que sejam críticas para o processo, surgem como uma necessidade, nesse sentido, a utilidade de um sistema [...] que lide com um processo multivariável (MELEIRO, 2002). Em Baughman e Liu (1995), observa-se que as redes neurais têm uma série de propriedades que lhe atribuem algumas vantagens sobre outras técnicas computacionais, a saber: 1. A informação é distribuída por um campo de nós, oferecendo maior flexibilidade; 2. As redes neurais têm a capacidade de aprender, inclusive com erros ou ineditismos, através do uso de técnicas de treinamento; 3. As redes neurais permitem uma ampla indexação de conhecimento, que é a capacidade de armazenar uma grande quantidade de informações e acessá-las facilmente; 4. As redes neurais são mais adequadas para processar dados com ruído, incompletos ou inconsistentes, pois a malha criada atua globalmente, enquanto os nós tem impactos de microcaracterísticas; 5. As redes neurais imitam os processos de aprendizagem humana, que é por tentativa e erro. Após vários ajustes iterativos, a rede pode prever adequadamente as relações de causa e efeito; 6. Abstração automatizada - redes neurais podem determinar os fundamentos de relações de entrada-saída automaticamente, sem a necessidade de um especialista; 7. Potencial para uso online, pois seus cálculos, após o período de treinamento tornam-se muito rápidos. Por todas essas características, pode-se notar o potencial de uso das redes neurais, objeto de estudo desse trabalho. . Escopo do Trabalho O presente trabalho tem a pretensão de realizar a modelagem de um reator teórico do tipo CSTR de poliestireno, que vem sendo estudado como benchmarking no desenvolvimento de outras estratégias de controle. Os dados, bem como os modelos cinéticos e resultados empíricos, são fornecidos por Alvarez e Odloak (2012 e 2013). O trabalho fará uso das equações cinéticas da reação de polimerização, disponibilizadas pela literatura. Este é composto por introdução, com contextualização e o escopo do estudo para a indústria química; revisão bibliográfica analisando rapidamente a necessidade do reator e das redes; descrição do processo com detalhes do reator, parâmetros, modelos fenomenológicos; metodologia utilizada fazendo a descrição dos eventos, o passo a passo de desenvolvimento do trabalho, dificuldades e pontos importantes; por fim, são apresentados os resultados e a conclusão do trabalho com a apresentação das referências utilizadas. Para implementação e acompanhamento dos resultados três variáveis do processo, que são o foco do trabalho, foram utilizadas como variáveis manipuladas e adotadas como entrada para a rede: a temperatura de reação (T ou TR) a vazão do iniciador (Qi) e a vazão do monômero (Qm). Através destas variáveis, foi estabelecido o cálculo e a estimação da produtividade do reator (PR) e a viscosidade intrínseca do polímero () que é função do peso molecular médio do polímero. O trabalho foi desenvolvido considerando-se estados estacionários. 1. REVISÃO DA LITERATURA Para dar início ao desenvolvimento do presente trabalho, buscou-se referências na literatura disponível, a fim de dar suporte teórico, embasamento técnico e que se criasse um ambiente de aprendizado com as experiências e resultados obtidos por diversos especialistas da área de reatores de polimerização, redes neurais e disciplinas afins. A revisão de literatura para a realização deste trabalho foi feita em duas etapas. Em um primeiro momento foi feita uma avaliação do modelo do reator e como a literatura trata do assunto. Posteriormente, o presente trabalho debruço-se sobre conteúdos de Redes Neurais, especialmente MLP e os mecanismos a ela atrelados. 1.1. Reator de Poliestireno O reator de polimerização é o coração do processo de produção de polímero e a sua operação pode ocorrer de modo complicado, uma vez que envolve reações exotérmicas, cinéticas de reação algumas vezes desconhecidas e altamente não- lineares e alta viscosidade, ocorrendo, por exemplo, o efeito gel. A maioria dos polímeros de estireno é produzida em processo contínuo. O presente trabalho considera a polimerização em massa e solução de estireno de radicais livres em um CSTR com jaqueta de resfriamento. Como mostrado na Fig. 1, o CSTR tem três correntes de alimentação: a do monômero de estireno puro (Qm) a dada concentração de entrada (Mf) e temperatura de entrada (Tf), a do iniciador 2,2'-azoisobutironitrilo (AIBN) dissolvido em benzeno (Qi) a uma dada concentração de entrada (If) e temperatura de entrada (Tf), e a do solvente benzeno puro (Qs) a uma temperatura de entrada (Tf). O fluxo de saída contém a corrente de polímero (Qm) com sua viscosidade característica (), monômero não reagido (M), iniciador não reagido (I) e solvente. Todos à mesma temperatura do reator (T). O fluido refrigerante passa pela jaqueta a uma vazão característica do processo (Qc), com dada temperatura de entrada (Tcf) e sai com temperatura pós-troca térmica (Tc). O mecanismo cinético considerado para este processo de homopolimerização é muito geral e foi descrito como segue: A Fig. 1 abaixo exibe o diagrama de processo do reator de polimerização CSTR: Figura 1 – Modelo do reator contínuo de polimerização. 1.2. Modelagem da Reação de Polimerização do Estireno A cinética de polimerização é de interesse primordial sob dois pontos de vista: A síntese prática de polímeros requer um conhecimento da cinética da reação de polimerização, e; do ponto de vista teórico, as diferenças significativas entre as reações de polimerização residem em grande parte nas suas respectivas características cinéticas (ODIAN, 2004). Comparando com as demais reações químicas, a reação de polimerização se distingue pelo fato de gerar compostos de alto peso molecular e envolver cinética de reação complexa. Como resultado da polimerização, têm-se o aumento da viscosidade do produto e aumento da temperatura do sistema pelas reações exotérmicas envolvidas. O produto de reação consiste em uma mistura de compostos com diferentes tamanhos de cadeia molecular, sendo a distribuição tamanhos dada por uma curva Gaussiana (JAISINGHANI e RAY, 1997). Este trabalho consiste no estudo de uma homopolimerização radicalar por adição, tendo como reagente o monômero de estireno, iniciador o 2,2’-azoisobutironitrila dissolvidoem benzeno puro (ALMEIDA, 2004). Do ponto de vista de um único radical, a seqüência de eventos pela qual o monômero de estireno se converte em um polímero de alta massa molar pode ser dividida em quatro etapas distintas: formação dos radicais de iniciação, iniciação das cadeias, propagação e terminação das cadeias (ALMEIDA, 2004). Conforme esclarecido por Almeida (2004), o mecanismo de polimerização pode ser interpretado da seguinte forma: as moléculas do iniciador se decompõem e formam dois radicais livres. A segunda parte da iniciação consiste na adição de um o radical na primeira molécula de monômero, transformando-se em outro radical livre, cuja base é o monômero de estireno. Tal radical reage com outra molécula de monômero e forma um dímero radicalar conforme reação de Diels-Alder. A reação continua e vão surgindo longas cadeias poliméricas. Estas cadeias continuam a aumentar até ocorrer uma das seguintes situações: há a ocorrência de desproporcionamento, quando a temperatura de reação é inferior a 80ºC ou as cadeias poliméricas se unem por combinação, para temperaturas superiores a 80ºC. Conforme apontado por Alvarez e Odloak (2012), a reação de polimerização do estireno possui uma natureza exotérmica e como consequência, seus efeitos não podem passar despercebidos pela estratégia de controle. O reator deve ser constituído de uma jaqueta de refrigeração, pela qual o escoamento de um fluido refrigerante, no caso a água, promoverá a troca de calor desse fluido com o reator, permitindo a manutenção da temperatura em seu interior apesar do efeito exotérmico da reação de polimerização. Para o presente trabalho, foi usado o modelo fenomenológico desenvolvido por Hidalgo e Brosilow (1990) e Maner et al. (1996) para um reator contínuo de mistura perfeita de polimerização de estireno. Foi estudado, e a partir das dos balanços de massa dos componentes presentes na reação e do balanço de energia envolvendo o reator e a camisa de refrigeração, foram obtidas as equações diferenciais para quatro variáveis (ou estados), como se vê a seguir: Também foram definidas as seguintes reações: Também é possível, determinar o peso molecular médio, conforme apresentado por Maner et al. (1996) através de duas equações de momento da reação de polimerização: (1.13) (1.14) (1.15) As variáveis ideais para a determinação das especificações do poliestireno são a Temperatura na saída do reator (T) e o peso molecular na saída do reator (Mw). Entretanto, devido à dificuldade de se medir o peso molecular, optou-se por utilizar medidas simuladas da viscosidade intrínseca (GAZI et al., 1996): Onde: e para casos onde não utiliza-se a equação 1.15: Considerou-se que a vazão do solvente é determinada pela relação das vazões de monômero e iniciador. O índice de polidispersão (PD) é uma propriedade da distribuição do peso molecular do polímero morto, conforme abaixo, e a produtividade (PR) é definida como a vazão total (Qt) e o índice de momento de primeira ordem (D1). Esse produto representa o peso total de polímero morto por unidade de tempo: (1.19) PR = Qt.D1 (1.20) A tabela 1 mostra a descrição de todos os parâmetros do Modelo de Polimerização. Mais abaixo, no tópico seguinte, serão listados os valores desses parâmetros. Tabela 1– Parâmetros do Modelo de Polimerização Parâmetro Descrição Ad Fator de frequência da decomposição de iniciador Ed Energia de ativação para decomposição do iniciador Ap Fator de frequência para a reação de propagação Ep Energia de ativação para a reação de propagação At Fator de frequência a reação de terminação Et Energia de ativação para reação de terminação fi Eficiência do iniciador (-Hr) Entalpia de polimerização hA Troca térmica entre o reator e a camisa de refrigeração Cp Capacidade calorífica do fluido no reator Cpc Capacidade calorífica do fluido de troca térmica Mm Peso molecular do monômero Qt Vazão total de entrada Qi Vazão de iniciador Qs Vazão de solvente Qm Vazão de monômero Qc Vazão do fluido de refrigeração V Volume do reator Vc Volume da camisa de refrigeração [If] Concentração de iniciador na alimentação [Mf] Concentração de monômero na alimentação Tf Temperatura da corrente de entrada Tcf Temperatura de entrada do fluido de troca térmica [I] Concentração de iniciador no reator [M] Concentração de monômero no reator T Temperatura do reator Tc Temperatura da camisa de refrigeração D0 Concentração molar das cadeias poliméricas não radicalares D1 Concentração mássica das cadeias poliméricas não radicalares D2 Momento de segunda ordem 1.3. Parâmetros do Processo Para facilitar a análise do presente trabalho, optou-se em manter os mesmos valores das constantes descritas na Tabela 1 do trabalho de Alvarez e Odloak (2013). Assim, a Tabela 2 resume os dados utilizados nesta proposta: Tabela 2 – Parâmetros utilizados Parâmetro Valor Unidade Ad 2,14E+17 h-1 Ed 1,49E+04 K Ap 3,82E+10 L.mol-1.h-1 Ep 3,56E+03 K At 4,50E+12 L.mol-1.h-1 Et 8,43E+02 K fi 6,00E-01 - (-Hr) 6,99E+04 J.mol-1 hA 1,05E+06 J.K-1.h-1 Cp 1,51E+03 J.K-1.L-1 Cpc 4,04E+03 J.K-1.L-1 Mm 1,04E+02 g.mol-1 Qt 1,08E+02 L.h-1 Qi 4,59E+02 L.h-1 Qs 3,78E+02 L.h-1 Qm 4,72E+02 L.h-1 Qc 3,00E+03 L V 2,14E+17 h-1 Vc 3,31E+03 L [If] 5,89E-01 mol.L-1 [Mf] 8,70E+00 mol.L-1 Tf 3,30E+02 K Tcf 2,95E+02 K [I] 6,6832E-02 mol.L-1 [M] 3,32E+00 mol.L-1 T 3,24E+02 K Tc 3,05E+02 K D0 2,7547E-04 mol.L-1 D1 1,61E+01 g.L-1 1.4. Redes Neurais Redes Neurais Artificiais (RNA’s) é uma área da inteligência artificial que se baseia no funcionamento do cérebro humano, uma vez que este é capaz de receber continuamente informações, percebê-las e tomar decisões apropriadas rapidamente. O cérebro é um computador (sistema de processamento de informação) altamente complexo, não-linear e paralelo (HAYKIN, 2016). As RNAs foram desenvolvidas a partir de uma tentativa de reproduzir em computador um modelo que simule a estrutura e funcionamento do cérebro humano. Uma RNA é um sistema que tem capacidade computacional adquirida por meio de aprendizado e generalização (Braga, Carvalho e Ludemir 2000). O aprendizado está relacionado com a capacidade das RNAs de adaptaram seus parâmetros como conseqüência com a interação com o ambiente externo. A generalização, por sua vez, está associada à capacidade destas redes de fornecerem respostas consistentes para dados não apresentados durante a etapa de treinamento. O processo de aprendizagem, conforme visto em Baughman e Liu (1995), é de suma importância para uma rede neural, pois é através da habilidade de aprender a partir de seu ambiente e da melhoria de seu desempenho através da aprendizagem que ela pode fornecer resultados convenientes. Para tanto, se faz necessário que a rede neural passe por uma fase de treinamento, onde seus pesos são ajustados de forma que ela se adapte aos diferentes estímulos de entrada; é durante esta fase de treinamento que ocorre o seu aprendizado. As redes neurais de múltiplas camadas têm sido aplicadas com sucesso para resolver diversos tipos de problemas difíceis, através do treinamento supervisionado com o algoritmo de retropropagação do erro, um algoritmo popularmente conhecido baseado na regra de aprendizado por correção de erro. A aprendizagem por retropropagação consiste em uma fase de treinamento em dois passos: forward e backward. No passo forward, um padrão é apresentado à camada de entrada e se propaga para frente através da rede, camada por camada, até uma saída ser gerada pela rede. No passo backward, a saída obtida é comparada com a desejada para um padrão particular. Se a diferença for menor que uma tolerância pré estabelecida, o processo é finalizado; casocontrário, o erro é retropropagado a partir da camada de saída até a camada de entrada, nesse passo os pesos vão sendo recalculados através da técnica gradiente descendente (FREEMAN; SKAPURA, 1991). As RNAs caracterizam-se por possuírem elementos de processamento de estrutura bem simples, inspirados no funcionamento do neurônio biológico, com conexões entre estes elementos de processamento. Cada conexão na rede tem um peso associado e este peso representa a intensidade de interação ou acoplamento entre os elementos de processamento e se a sua natureza é excitatória ou inibitória (Haykin 2001). A definição da arquitetura de uma RNA tem sua importância na medida em que restringe o tipo de problema que pode ser tratado. Uma RNA formada por um único elemento processador simples (neurônio artificial), como o apresentado está limitada a solução de problemas linearmente separáveis. Existem diversos parâmetros que fazem parte da definição da arquitetura da rede, tais como o número de camadas da rede, número de neurônios em cada camada, tipo de conexão e a topologia da rede (Braga, Carvalho e Ludemir 2000). Observe a Figura 2, abaixo (PELLI NETO 2006): Figura 2 – Representação esquemática de uma RNA feed-forward. Wi Ui f(x) f(x) f(x) f(x) 1.5. Redes Perceptron Multicamadas (MLP) Conforme se observa em de Souza Jr. (1993), as redes que são desenvolvidas através do método de retropropagação (backpropagation) são multicamadas. Essas redes não apresentam conexões laterais, ou seja, entre nós da mesma camada e os seus sinais são do tipo feedforward. Ou seja, para um dado vetor de entrada, obtém-se um vetor de saída que é calculado em um passo para frente (“forward”) que obtém os níveis de atividade de cada camada por vez, usando as atividades previamente computadas nas camadas anteriores. Para as redes feedforward, esse método calcula o gradiente do erro a regra da cadeia. Portanto, as funções de ativação dos neurônios da rede precisam ser funções continuamente diferenciáveis. Nota-se em de Souza Jr (2005) que: “O objetivo do treinamento pelo método retropropagação é ajustar os pesos e “biases” da rede (pela apresentação de muitos exemplos de padrões de entrada e de saída), modificando-os até que a aplicação de um conjunto de entradas produza saídas da rede que correspondam às saídas desejadas (ou alvos). Treinar a rede, neste caso, corresponde a minimizar a função objetivo não linear que dá o erro entre as saídas “s”, preditas pela rede, e as saídas alvos “t” para Np padrões em função dos pesos e “biases”, que são as variáveis independentes de otimização (W na forma vetorial): (1.21) (1.22) (1.23) O método de retropropagação, a função objetivo (1.22) é minimizada usando a estratégia do gradiente descendente, com tamanho do passo fixo η , que é a taxa de aprendizagem: ∆Wk+1 = - η ∇E (Wk) (1.24) Na etapa forward, tem-se que a passagem pela primeira camada de neurônios produz as seguintes ativações: spj,1 = f(spj,0), (1.25) onde: j = 1, 2,... ni e f é dado pela função de ativação específica. Posteriormente, as ativações da(s) camada(s) escondida(s) tem as seguintes ativações: spj,2 = f(spj,2), (1.26) pj,2 =[ ∑ 𝑤𝑗𝑖𝑙 𝑛𝑖 𝑖=1 spi,1] + j,2 (1.27) onde: j = 1, 2,... nh; f é dado pela função de ativação específica e nh é o número de neurônios. Para a saída da rede, tem-se: spj,L = f(pj,L), (1.28) pj,L =[ ∑ 𝑤𝑗𝑖2 𝑛ℎ 𝑖=1 spi,2] + j,L (1.29) onde: j = 1, 2,... nL; f é dado pela função de ativação específica e nL é o número de neurônios. Já na etapa do backpropagation, o erro obtido na sída da rede vai sendo propagado para as camadas antecessoras e corrigindo-se os pesos e biases. Para cálculo dos elementos do ∇E (Wk), tem-se as seguintes equações: (1.30) Derivada, com a regra da cadeia, de E em relação ao peso wij2. (1.31) Derivada, com a regra da cadeia, de E em relação ao bias j,L. (1.32) Derivada, com a regra da cadeia, de E em relação ao peso wijL. (1.33) Derivada, com a regra da cadeia, de E em relação ao bias j,2. Enquanto o erro estiver superior ao valor aceitável, o processo continua iteragindo e recalculando os pesos e biases até que se alcance o valor mínimo da função objetivo, ou seja, até que o erro seja mínimo. Uma vez alcançado este patamar a rede estará pronta para ser usada. É importante destacar que de Souza Jr (2005), analisando Himmelblau e Edgar (1988) comenta sobre a limitação do método com passo fixo (). Em resumo, pode-se comentar que ao se aproximar do mínimo da solução o processo fica muito lento quando usados passos pequenos e leva a oscilações quando se usam passos grandes. Dessa forma, alternativas a esse método foram surgindo. Por exemplo, pode ser atribuído um termo de momento (Rumelhart e McClelland 1988): ∆Wk+1 = - η ∇E (Wk) + ε ∆Wk (1.34) Outra alternativa pode ser o do gradiente conjugado, como apresentado por Leonard e Kramer (1990) e apontado por de Souza Jr (2005), onde o e são dinâmicos: s0 = −∇E (W0) (1.35) sk+1 = -∇E (Wk+1) + εsk (1.36) ε = ∇E(Wk+1) T ∇E(Wk+1)/(∇E(Wk) T ∇E(Wk)) (1.37) Wk+1 = Wk + η sk (1.38) 2. METODOLOGIA A seguir serão apontados os eventos simulados neste presente trabalho. Conforme mencionado na parte introdutória, o objetivo principal deste estudo é a estimação dos dados da rede neural MLP que foi desenvolvida com os resultados do modelo fenomenológico de um reator contínuo de mistura perfeita de poliestireno. Para isso, será utilizado o trabalho desenvolvido por Alvarez e Odloak (2013) como referência. Dessa forma, a metodologia foi realizada em quatro etapas, a saber: uso do modelo fenomenológico; geração e tratativa dos dados; desenvolvimento da rede; treinamento da rede. 2.1. Utilização do Modelo Fenomenológico O trabalho tomou como base o estudo realizado por Alvarez e Odloak (2013), onde as equações de balanço de massa e de energia estão devidamente indicadas conforme modelos apresentados no capítulo 1 desse trabalho e que não serão reproduzidos aqui nesse capítulo. Alguns pontos são importantes de serem destacados. Por exemplo, a verificação das unidades dos dados apresentadas foi feito com cuidado para evitar falhas. Outro ponto é que buscou-se os artigos originais (HIDALGO AND BROSILOW 1990 e MANER et al. 1996) que Alvarez e Odloak (2013) se basearam para confirmar se os dados e os modelos não continham erros que pudessem prejudicar o desenvolvimento deste trabalho. Ao analisar a modelagem e os dados apresentados no capítulo 1, percebe-se que não há dado de referência para o D2 (observar equação 1.15 e tabela 2). Essa dificuldade foi superada utilizando-se a equação 1.19 e tomando o índice de PD como 1,5, conforme indicam Alvarez e Odloak (2013). Nesse presente trabalho, optou-se em trabalhar com o reator em regime estacionário e em não implementar o sistema de controle proposto no artigo. Dessa forma, as equações 1.8 e 1.9 não foram implementadas no modelo que se desenvolveu. E a temperatura de reação adotada na equação 1.11 foi tomada como constante no estado estacionário. Após implementação do modelo e dos dados no Matlab® (anexo 1), o programa foi testado para validação e os valores alcançados foram próximos do artigo original, podendo ser utilizado no trabalho. Tabela 3 – Quadro comparativo das variáveis de saída para validação da modelagem 2.2. Geração dos Dados para a Rede Para o treinamento de rede, optou-se por gerar os dados para 3 variáveis (Qm, Qi e T) em duas etapas: primeiro os dados de entrada da rede foram gerados aleatoriamente através do programaMinitab® para tentar evitar viés. Aqui cabe um detalhamento importe que serviu de aprendizado. Inicialmente tentou-se gerar os dados através do Excel®, (anexo 2) mas a metodologia escolhida fez com que no final, os dados não apresentassem uma distribuição aleatória. Essa distribuição foi verificada através de gráfico de histograma no Minitab®, conforme se observa nas figuras 3, 4 e 5, abaixo: Coluna1 Faixa artigo original Trabalho Viscosidade (1/g) 3,5 - 4,15 3,8955 Produtividade (kg/h) 12 - 20 15,2304 Polidispersão 1,49 - 1,51 1,5089 Figura 3 – Teste de Normalidade para os dados da Temperatura de Reação. Os dados azuis não seguem a linha reta vermelha e o Valor-P inferior a 0,05 indicam que não é distribuição-normal. Figura 4 – Teste de Normalidade para os dados da Vazão de Monômero. Os dados azuis não seguem a linha reta vermelha e o Valor-P inferior a 0,05 indicam que não é distribuição-normal. Figura 5 – Teste de Normalidade para os dados da Vazão do Iniciador. Os dados azuis não seguem a linha reta vermelha e o Valor-P inferior a 0,05 indicam que não é distribuição-normal. Após isso, optou-se em gerar os dados aleatórios diretamente no Minitab® para as e variáveis escolhidas (anexo 3). Os dados foram gerados para atender uma distribuição normal e ficaram com os seguintes parâmetros: média_temperatura = 326,1; desv_padrão_temperatura = 11,79; média_vazão_inicaidor = 107,4; desv_padrão_vazão_iniciador = 10,99; média_vazão_monômero = 378,2; desv_padrão_vazão_monômero = 15,13. Conforme figuras 6, 7 e 8. A ideia é que os devios também não tivessem um padrão idêntico para os 3 parâmetros, imaginando que assim, pudesse exigir mais da rede. Figura 6 – Histograma para os dados da Temperatura de Reação, indicando média e desvio-padrão. 350340330320310300290 20 15 10 5 0 Média 326,1 DesvPad 11,79 N 100 Temperatura ºC F re q u ê n c ia Histograma da Temperatura de Reação Distribuição Normal Figura 7 – Histograma para os dados da Vazão do Iniciador, indicando média e desvio-padrão. Figura 8 – Histograma para os dados da Vazão do Monômero, indicando média e desvio-padrão. 13012011010090 25 20 15 10 5 0 Média 107,4 DesvPad 10,99 N 100 L_iniciador / h F re q u ê n c ia Histograma da Vazão do Iniciador Distribuição Normal 410400390380370360350 16 14 12 10 8 6 4 2 0 Média 378,2 DesvPad 15,13 N 100 L_monômero / h F re q u ê n c ia Histograma da Vazão do Monômero Distribuição Normal Posteriormente, após a geração dos dados de entrada os dados de saída para viscosidade e produtividade foram gerados em Matlab® (anexo 3), simulando o modelo com os dados de entrada gerados no Minitab®. Esses dados foram salvos em planilha específica para que pudessem alimentar a rede desenvolvida (anexo 4). 2.3. Testes de Sensibilidade Com o objetivo de se buscar os melhores parâmetros a serem trabalhados, foi feito um teste de sensibilidade do modelo em Matlab® (anexo 5). Esse teste variou os 6 parâmetros (Qi, Qm, Qs, [I], [M] e T) de menos 20% a mais 20% do valor de referência e observou o comportamento de 3 variáveis de saída: viscosidade, produtividade e índice de polidispersão. E os resultados são os apresentados abaixo: Figura 9 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus vazão de monômero (Qm) variando de -20% a +20% do valor de referência. Figura 10 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus vazão de iniciador (Qi) variando de -20% a +20% do valor de referência. Figura 10 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus vazão de solvente (Qs) variando de -20% a +20% do valor de referência. Figura 10 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus concentração do iniciador (If) variando de -20% a +20% do valor de referência. Figura 11 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus concentração do monômero (Mf) variando de -20% a +20% do valor de referência. Figura 12 – Gráfico de viscosidade (), produtividade (PR) e índice de polidispersão (PD) versus Temperatura de reação (T) variando de -20% a +20% do valor de referência. Alguns pontos precisam ser observados a fim de prosseguir com o trabalho. Em todos os casos, a variação do índice de polidispersão variou muito pouco em valores absolutos. Dessa forma, entendeu-se que essa variável não deveria entrar na estimativa da rede a ser desenvolvida, pois acrescentaria pouco. Com exceção das correlações com temperatura, todos os demais gráficos apresentam comportamento linear quase retilíneo. Isso ocorre, pois como estamos trabalhando em regime estacionário e simulando o reator como isotérmico, o sistema de equações se simplifica. Isso traz alguma facilidade para o trabalho, mesmo a intenção sendo dificultar o trabalho da rede. Analisando a viscosidade e a produtividade, nota-se que em ordem de grandeza o comportamento de todos é na mesma proporção com a variação das variáveis de entrada. Porém, são duas variáveis de saída de grande interesse, dessa forma, optou- se em adotar ambas para que a rede possa estimar. Em relação às variáveis de entrada, como os resultados mostram que seus pesos sobre as variáveis de saída em ordem de grandeza são muito similares, optou-se em adotar as vazões como as variáveis de entrada e o motivo foi operacional. No sentido prático, a concentração não é uma variável que costuma estar no controle da operação, mas vazões, sim. Dessa forma, o trabalho delimitou a atuação com 3 variáveis de entrada (Qm, Qi e T) e 2 variáveis de saída (Viscosidade e Produtividade). 2.4. Desenvolvimento da Rede A rede foi desenvolvida em Matlab® (anexo 6). No desenvolvimento, foi definida a proporção 70-15-15 de uso de dados para treinamento (70%), teste (15%) e validação (15%). Essa opção adotada foi por ser a mais comum. Os dados foram alimentados por arquivo .xlsx para os dados de entrada e .txt para os dados de saída. Os dados passaram por tratamento pelo próprio programa que foi desenvolvido com a determinação dos valores máximo, mínimo e posterior normalização. Foi criada uma rede feedforward com 3 neurônios de entrada e 2 neurônios de saída para atender adequadamente à quantidade de variáveis de entrada (Qm, Qi e T) e à quantidade de variáveis de saída (viscosidade e produtividade). Inicialmente pensou- se em ter uma rede com uma única saída e que os parâmetros fossem determinados separadamente, porém, entendeu-se que o problema não justificava e que a determinação simultânea das variáveis de saída seriam um problema interessante para a rede. Parâmetros da rede como número de neurônios na camada escondida (definiu-se ter 1 única camada escondida), épocas de treinamento, limite de tolerância, funções de ativação, método de treinamento etc. foram deixados “em branco” para que pudesse ser feito o exercício através de tentativas e erros até se chegar a valores de interesse. Sobre os métodos, se definiu até dois: gradiente descendente e gradiente descendente com momento, devidamente explicados no capítulo 1 desse trabalho. 3. RESULTADOS E DISCUSSÕES Dando continuidade ao trabalho, serão apresentados os resultados das operações realizadas com a rede desenvolvida como indicada no item anterior. 3.1. Utilizando Gradiente Descendente Como era esperado, a rede com gradiente descendente apresentou bastante dificuldade de realização o processo de treinamento, teste e valid0ação. Inicialmente partiu-se com uma rede bem simples e alguns parâmetros foram sendo alterados para verificação do comportamento, conforme tabela 4. Tabela 4 – Quadro comparativo das variáveis de saída para validação da modelagemLimite Real Entrada Escondida Saída entrada Escondida Saída Treino Teste Validação Treino Teste Validação 1 100 100 1,00E-06 3 1 2 linear linear linear Grad. Descendente 0,93315 0,94189 0,91281 0,83137 0,84597 0,64136 2 100 Erro 1,00E-06 3 1 2 linear linear linear Grad. Descendente Erro Erro Erro Erro Erro Erro 3 100 100 1,00E-06 3 1 2 linear linear linear Grad. Descendente 0,93323 0,94198 0,91308 0,83125 0,84585 0,64008 4 1000 1000 1,00E-06 3 1 2 linear linear linear Grad. Descendente 0,93318 0,94192 0,91297 0,83133 0,84594 0,64108 5 1000 Erro 1,00E-06 3 3 2 linear linear linear Grad. Descendente Erro Erro Erro Erro Erro Erro 6 1000 Erro 1,00E-06 3 5 2 linear linear linear Grad. Descendente Erro Erro Erro Erro Erro Erro 7 1000 1000 1,00E-06 3 1 2 linear tangente linear Grad. Descendente 0,96991 0,97641 0,9658 0,72177 0,73983 0,46951 8 1000 Erro 1,00E-06 3 3 2 linear tangente linear Grad. Descendente Erro Erro Erro Erro Erro Erro 9 1000 Erro 1,00E-06 3 5 2 linear tangente linear Grad. Descendente Erro Erro Erro Erro Erro Erro 10 1000 1000 1,00E-06 3 1 2 linear logsigma linear Grad. Descendente 0,9493 0,94281 0,91598 0,83136 0,84434 0,63277 11 1000 1000 1,00E-06 3 10 2 linear logsigma linear Grad. Descendente 0,94197 0,96067 0,92164 0,93979 0,94224 0,91456 12 1000 1000 1,00E-06 3 10 2 linear logsigma linear Grad. Desc. Momento 0,98776 0,98501 0,96477 0,988 0,98805 0,9583 13 1000 1000 1,00E-06 3 10 2 linear tangente linear Grad. Desc. Momento 0,99718 0,99704 0,99039 0,99694 0,98349 0,97242 14 1000 1000 1,00E-06 3 15 2 linear logsigma linear Grad. Desc. Momento 0,96152 0,9293 0,91888 0,95527 0,93802 0,94398 15 1000 1000 1,00E-06 3 15 2 linear tangente linear Grad. Desc. Momento 0,98628 0,96101 0,91379 0,96231 0,94767 0,909 16 1000 1000 1,00E-06 3 10 2 linear tangente linear Grad. Desc. Momento 0,98845 0,98592 0,98298 0,96801 0,97418 0,95291 17 1000 1000 1,00E-06 3 10 2 linear linear linear Regulariz. Bayes. 0,99665 0,9979 0,99791 0,9969 0,99817 0,9972 18 1000 88 1,00E-06 3 10 2 linear tangente linear Regulariz. Bayes. 1 1 1 1 1 1 19 1000 49 1,00E-06 3 10 2 linear logsigma linear Regulariz. Bayes. 1 1 1 1 1 1 20 1000 49 1,00E-06 3 2 2 linear logsigma linear Regulariz. Bayes. 0,99998 0,99999 0,99996 0,99998 0,99999 0,99999 Item Topologia Função R (Correlação) Prod.Passos R (Correlação) Visc. Convergência Função Treinamento Figuras 13 e 14 – Gráficos de Correlação para o treino com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. Figuras 15 e 16 – Gráficos de Correlação para o teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. Figuras 17 e 18 – Gráficos de Correlação para a validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. 7 Figuras 19 e 20 – Gráficos de Previsão Etapa Treinamento com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. Figuras 21 e 22 – Gráficos de Previsão Etapa Teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. Figuras 23 e 24 – Gráficos de Previsão Etapa Validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 4 da tabela 4. Nos gráficos das figuras de 13 a 24 nota-se que para a estimativa da viscosidade a correlação até apresenta bons comportamentos. Mas a rede tem muita dificuldade com a produtividade. A dificuldade maior nota-se principalmente nos dados de validação. Pode-se notar que em todos os casos houve saturação dos passos, indicando que a rede não conseguiu atingir o ponto ótimo. Como trata-se de um trabalho acadêmico, optou-se em não aumentar exageradamente o número de iterações em razão do curto tempo. Porém, testes pontuais não listados nesse trabalho indicaram que até 50.000 passos a rede ainda não convergia. De um modo geral esse comportamento foi observado mesmo variando alguns parâmetros, como número de neurônios na camada escondida. Inclusive, por alguns momentos a rede apresentou erro, conforme indica a tabela 4. O melhor resultado obtido para as combinações de parâmetros ocorreu com a rede do item 11 da tabela 4, com uso da função de treinamento Logarítmica e com 10 neurônios na camada escondida. Afirma-se isso, pois as correlações tanto para viscosidade, quanto para produtividade estiveram altas. Além disso, as demais correlações das outras etapas também apresentam bons patamares e mais equilibrado. Até o momento, não se observou nenhuma relação direta entre número de neurônios e resultados. 3.2. Utilizando Gradiente Descendente com Momento O uso do momento é uma estratégia que compensa o uso de passo fixo na técnica do gradiente descendente. Dessa forma, espera-se que haja uma melhora nos resultados. A simulação do item 12 fez isso dos mesmos parâmetros do item 11, porém mudou a função de treinamento para gradiente descendente com momento. Observa-se uma melhora significativa do resultado. Porém, o número de iterações continua estourando o limite. Com o uso do gradiente com momento, voltou-se a usar a função tangente hiperbólica, como se vê no item 13 da tabela 4 e apresentou excelente resultado, mantendo-se a topologia do teste anterior que também havia sido muito bem sucedido. Figuras 25 e 26 – Gráficos de Correlação para o treino com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Figuras 27 e 28 – Gráficos de Correlação para o teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Figuras 29 e 30 – Gráficos de Correlação para a validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Figuras 31 e 32 – Gráficos de Previsão Etapa Treinamento com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Figuras 33 e 34 – Gráficos de Previsão Etapa Teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Figuras 35 e 36 – Gráficos de Previsão Etapa Validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. 3.3. Regularização Bayesiana Para fechar a etapa de estudo, por fim, optou-se em adotar uma rede com treinamento por regularização Bayesiana com uso de uma rotina específica do Matlab. Embora esse tipo de treinamento de rede não seja escopo inicial do trabalho, foi feita a análise para caracterizar o potencial da rede neural na previsão/estimativa de variáveis de processos. Um comentário rápido a respeito, a regularização Bayesiana altera a função objetivo do erro quadrático. O aprendizado considera que os termos peso e bias são variáveis aleatórias e inicia com uma densidade. Figuras 37 e 38 – Gráficos de Correlação para o treino com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 20 da tabela 4. Figuras 39 e 40 – Gráficos de Correlação para o teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 20 da tabela 4. Figuras 41 e 42 – Gráficos de Correlação para a validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 20 da tabela 4. Figuras 43 e 44 – Gráficos dePrevisão Etapa Treinamento com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 20 da tabela 4. Figuras 45 e 46 – Gráficos de Previsão Etapa Teste com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 20 da tabela 4. Figuras 47 e 48 – Gráficos de Previsão Etapa Validação com dados de viscosidade () e produtividade (PR) respectivamente. Equivale ao item 16 da tabela 4. Os resultados da performance da rede falam por si, tanto no tempo de processamento, traduzido pelo número de passos muito inferior, quando a precisão da previsão para os diversos casos. 4. CONCLUSÃO O presente trabalho consistiu na avaliação sistemática comparativa da estimativa de variáveis de processo através do uso de Redes Neurais MLP. Utilizou-se procedimentos específicos de treinamento e ajustes de alguns parâmetros da rede. Ao fim, foi possível perceber a capacidade da estrutura de Rede Neural. Os diversos resultados mostram a possibilidade de construir boas redes com MLP usando backpropagation com ou sem momento, embora, nitidamente a ausência de momento no algoritmo implicou em maior dificuldade da rede alcançar os resultados desejáveis. No aspecto de aprendizado, o trabalho permitiu maior interação com estruturas de rede e de modelagem. Experimentar diversas abordagens para construção de uma rede, e manipular as redes com o objetivo de melhorar a eficiência. 5. REFERÊNCIAS ALMEIDA, A. Balanço de energia em tempo real para o monitoramento e controle de reatores de polimerização não-contínuos. 1997. VI, 192 f. Tese (Doutorado em Engenharia Química) – COPPE/UFRJ. Universidade Federal do Rio de Janeiro, Rio de Janeiro. ALMEIDA, A. Simulação de Reatores de Polimerização de Estireno: Modelagem Cinética e Termodinâmica. Dissertação de Mestrado, Universidade Federal do Rio Grande do Sul, pg. 27- 40. 2004. ALVAREZ, L. A, ODLOAK, D. Optimization and control of a continuous polymerization reactor. Braz. J. Chem. Eng.,v.29,n.4,p.807-820,2012. ALVAREZ, L. A, ODLOAK, D. Robust Operation of a continuous polymerization reactor. Universidade de São Paulo. 2013. BAUGHMAN, D. R. & LIU, Y. A., 1995, Neural Networks in Bioprocessing and Chemical Engineering, San Diego, Academic Press. BEQUETTE, B. W. Nonlinear control of chemical processes: A review, Ind. Eng. Chem. Res. 30: 1391-1413. 1991. BEQUETTE, B. W. Process Control. Modeling, Design and Simulation. Nova Jersey: John Wiley, 1ª edição, 2003. BEQUETTE, B. W. Process Dynamics. Modeling, Analysis and Simulation. Nova Jersey: John Wiley, 1ª edição, 1998. BISHOP, C., 1995, Neural Networks for Pattern Recognition, Oxford, University Press. BRAGA, A. P., LUDERMIR, T. B., CARVALHO, A. C. P. L. F., 2000, Redes Neurais Artificiais – Teoria e Aplicações, Rio de Janeiro, Editora LTC. DELDUGA, I. Controle de temperatura em reatores de polimerização baseado em modelos simplificados do balanço de energia com estimação de parâmetros em tempo real. Dissertação (mestrado) – Universidade Federal Rural do Rio de Janeiro, Curso de Pós-Graduação em Engenharia Química. 2013. f. 139-145. HAYKIN, S., 1994, Neural Networks – A Comprehensive Foundation, New York, Macmillan Publishing Company. HIDALGO, P., BROSILOW C. Nonlinear model predictive control of styrene polymerization at unstable operating points. Comp. Chem. Eng. 14, pp. 481-494. 1990. http://www.plastemart.com/Plastic-Technical-Article.asp?LiteratureID=1916&Paper= polystyrene-expandable-polystyrene-eps-market-to-grow-healthy-rate-5.6-percent-from-2010- 2020. Acessado em 26.09.2016 International Journal of Control, 68, 797–818. 1997. JAISINGHANI, R., RAY, W. On the dynamic behavior of a class of homogeneous continous stirred tank polimerization reactor. Chem. Eng. Sci. 32, pg. 811-825. 1997. LUYBEN, W. L.; LUYBEN, M. L. Essentials of Process Control. Singapura: McGraw-Hill, 1997. MACIEJOWSKI, J. M. Predictive Control with Constraints. Prentice Hall, Harlow, England. 2002. MANER, B., DOYLE III, F., OGUNNAIKE, B., PEARSON, R. Nonlinear model predictive control of a simulated multivariable polymerization reactor using second-order Volterra models. Automatica, 32, (9), p. 1285-1301 (1996). MELEIRO, L. A. C. Projeto e aplicação de controladores baseados em modelos lineares, neurais e nebulosos. 2002. Tese (Doutorado em Engenharia Química) – DEQ/UNICAMP. Universidade Estadual de Campinas, Campinas. MOORE, E. R., ed., Styrene Polymers, The Dow Chemical Company, Encyclopedia of Polymer and Engineering, v. 16, p. 1-246, 2ª ed. by John Wiley & Sons, Inc.,1989. NUNES, G. C.; MEDEIROS, J. L.; ARAÚJO, O. Q. F., Modelagem e Controle na Produção de Petróleo. Aplicações em Matlab. São Paulo: Blucher. 1ª edição. 2010. ODIAN, G. Principles of Polymerization. Nova Jersey: John Wiley, 4ª edição, 2004. SERFATY, M., MONTENEGRO, R. Aspectos Gerais do Poliestireno. BNDES Setorial, Rio de Janeiro, n. 16, pg. 123-136. 2002. ANEXO 1 function main %Parametros %Parametros Qi=108; % L/h fluxo iniciador Qs=459; % L/h fluxo solvente Qm=378; % L/h fluxo do monômero Qc=471.6; % L/h fluxo fluido refrigerante da jaqueta Qcn=Qc; V=3000; % L volume do reator Vc=3312.4; % L volume da jaqueta If=0.5888; % gmol/L concentração do iniciador na alimentação Mf=8.6981; % gmol/L concentração do monômero na alimentação Tf=330; % K temperatura de alimentação do reator Tcf=295; % K temperatura de entrada da jaqueta I=6.6832*10^-2; % gmol/L concentração do iniciador na reação M=3.3245; % gmol/L concentração do monômero na reação Tr=323.56; % K temperatura de reação Tc=305.17; % K temperatura da jaqueta (fluido na jaqueta) D0=2.7547*10^-4; % gmol/L D1=16.110; % g/L PD0=1.5; % Polidispersão padrão +/-0.01 Mm=104.14; % peso molecular%f_I = par(6); D2 = PD0*D1^2/(Mm*D0); % g/L Ad=2.142*10^17; % 1/h Ap=3.816*10^10; % L.gmol/h At=4.50*10^12; % L.gmol/h Ed=14897; % K Ep=3557; % K Et=843; % K fi=0.6; % eficiência do iniciador DHr=6.99*10^4; %+/-(16700???); % calor de polimerização J/gmol hA=1.05*10^6; %2.52*10^5; % coeficiente global de transferência roCp=1506; %360; % J/K.L capacidade calorífica do reator rocCpc=4043; %966.3; % J/K.L capacidade calorífica da jaqueta Qt=Qi+Qm+Qs; kd=Ad*exp(-Ed/Tr); % dm^3/gmol.h kp=Ap*exp(-Ep/Tr); % dm^3/gmol.h kt=At*exp(-Et/Tr); % dm^3/gmol.h %% Integração % CI's y0=[If Mf D0 D1 D2];% Tr Tc]; tspan=[0 400]; tic [t,y]=ode15s(@polycstr,tspan,y0); toc P=((2*fi*kd*y(end,1))/kt)^0.5; % polymer concentration mol/L PD=Mm*(y(end,5)*y(end,3))/((y(end,4))^2); %PD Mw=Mm*y(end,5)/y(end,4); % massa molar média vi=0.0012*(Mw)^(0.71); % viscosidade PR = Qt*y(end,4)/1e3; % production rate - kg/h %% Graficos % Viscosidade figure(1) eta = 0.0012*(Mm*y(:,5)./y(:,4)).^(0.71); plot(t,eta,'-k','LineWidth',1.5) title('Viscosidade (\eta)') ylabel('\bf \eta (Pa \cdot s)') xlabel('\bf Tempo (h)') % ylim([3.2 4.2]) % Produtividade figure(2) pr = Qt*y(:,4)/1e3; plot(t,pr,'-r','LineWidth',1.5) title('Produtividade') ylabel('\bf Produtividade (kg/h)') xlabel('\bf Tempo (h)') % ylim([10 20]) % % Temperatura Reação % figure(3) % Tr = y(:,6); % dT/dt ou dy/dt % plot(t,Tr,'-r','LineWidth',1.5) % title('Temp Reaç') % ylabel('\bf Temp reaç (kg/h)') % xlabel('\bf Tempo (h)') % % ylim([10 20]) %% Sistema de Equação Diferencial function dydt=polycstr(~,y) % kd=Ad*exp(-Ed/y(6)); % dm^3/gmol.h % kp=Ap*exp(-Ep/y(6)); % dm^3/gmol.h % kt=At*exp(-Et/y(6)); % dm^3/gmol.h % P=((2*fi*kd*y(1))/kt)^0.5; dydt(1,1)=(1/V)*(Qi*If-Qt*y(1))-(kd*y(1)); % dI/dt dydt(2,1)=(1/V)*(Qm*Mf-Qt*y(2))-(kp*y(2)*P); % dM/dt ou dy/dt dydt(3,1)=(0.5*kt*(P^2))-(Qt*y(3)/V); % dD0/dt dydt(4,1)=(Mm*kp*y(2)*P)-(Qt*y(4)/V);% dD1/dt dydt(5,1)=(5*Mm*kp*y(2)*P)+3*Mm*(y(2)^2)*((kp^2)/kt)-(Qt*y(5)/V); % dD2/dt % dydt(6,1)=(Qt/V)*(Tf-y(6))+(DHr/roCp)*kp*y(2)*P-(hA/(roCp*V))*(y(6)-y(7)); % dT/dt ou dy/dt % dydt(7,1)=(Qcn/Vc)*(Tcf-y(7))+(hA/(rocCpc*Vc))*(y(6)-y(7)); % dTc/dt ou dy/dt end end ANEXO 2 Dados Excel Qi - 108 - 15% Qm - 378 - 13% T - 326,56 - 10% 120,864 361,734 315,873 117,401 417,622 324,690 106,936 377,649 343,650 106,201 360,976 351,438 119,155 406,603 350,839 123,636 414,160 359,071 107,642 355,384 324,755 120,921 375,011 314,237 123,029 404,837 310,676 119,987 356,338 343,368 100,795 426,948 320,045 106,753 372,528 351,541 106,228 417,008 321,651 105,199 359,773 347,074 121,685 374,569 350,528 122,356 361,465 321,970 116,107 360,934 351,237 121,483 406,686 322,294 105,444 421,265 321,621 120,381 363,145 346,628 101,957 421,128 311,302 105,769 360,073 356,982 117,290 419,125 354,428 106,170 372,887 354,729 105,759 367,361 321,486 103,298 374,386 313,833 104,340 358,345 313,491 117,754 415,898 321,615 102,018 412,454 355,937 119,392 357,039 316,792 117,031 362,211 342,987 119,783 417,149 343,993 117,311 362,462 357,943 102,656 424,427 343,178 119,755 358,529 350,318 120,500 408,792 351,028 121,263 408,803 325,115 104,729 420,213 348,300 104,680 415,001 326,460 106,875 411,173 320,909 123,235 367,981 324,441 105,830 417,020 318,237 117,030 375,409 320,853 122,786 363,088 354,585 117,571 405,052 321,934 102,400 421,309 351,611 119,156 365,812 347,559 117,553 407,388 325,492 107,919 358,740 325,581 123,356 409,083 355,827 102,095 426,223 346,651 123,957 415,342 322,182 117,342 355,096 315,151 118,440 418,852 345,265 123,830 358,247 349,459 107,187 377,526 355,510 119,463 405,523 313,107 100,128 419,383 314,968 122,636 403,064 345,108 122,809 409,108 321,931 116,601 355,388 323,653 120,238 410,587 318,020 121,709 375,282 347,248 116,865 360,633 317,724 118,649 410,169 317,440 123,512 374,412 349,734 104,313 421,751 322,162 101,935 422,813 351,898 106,275 413,403 326,011 119,417 375,567 310,233 118,976 356,684 315,587 100,524 371,062 355,507 124,044 402,784 356,641 121,623 360,981 324,335 122,928 370,860 351,864 120,353 409,286 356,045 119,505 369,156 356,359 116,157 411,123 319,151 105,515 424,078 319,371 107,386 367,398 310,478 106,030 426,048 347,530 103,805 363,238 322,479 104,035 372,902 343,407 118,305 407,490 310,977 107,184 356,884 347,621 106,236 354,100 346,014 103,000 413,138 356,436 107,171 425,276 317,076 121,770 425,503 321,492 121,120 364,690 355,575 118,538 425,704 313,372 122,990 376,879 355,459 117,173 403,929 348,644 117,390 403,911 345,791 120,806 362,762 353,734 123,503 420,335 312,746 104,265 424,530 320,231 119,027 416,027 344,545 106,041 354,264 311,882 122,792 357,011 359,112 ANEXO 3 Dados minitab 330,397 92,005 388,394 307,320 118,970 359,912 343,461 108,179 370,988 333,048 116,442 372,545 330,368 104,284 367,972 320,610 110,854 364,461 327,260 119,088 383,473 318,700 85,564 368,864 315,381 115,292 376,101 318,635 97,498 377,999 326,080 109,064 401,136 332,586 108,317 363,928 325,469 109,848 370,922 320,907 106,013 398,638 317,318 97,906 367,253 332,730 96,168 377,535 322,264 101,885 392,922 325,100 124,467 373,660 334,789 110,719 378,463 309,048 82,909 370,588 327,993 113,172 390,158 310,241 100,879 397,027 333,218 107,202 384,797 317,587 122,176 377,161 309,536 107,154 382,970 313,885 95,761 377,313 330,635 125,414 349,237 309,692 125,695 370,166 334,006 102,552 360,777 347,712 131,442 370,748 318,002 99,200 376,007 317,378 93,488 403,850 330,857 118,907 382,395 320,560 121,694 373,738 297,391 103,649 361,860 333,469 107,021 365,011 336,208 114,689 373,002 308,176 101,043 381,911 335,064 106,888 353,719 333,485 112,777 385,470 331,284 109,024 374,488 323,714 101,371 385,899 336,957 123,385 381,511 330,145 91,986 363,508 333,458 108,945 390,085 332,064 106,855 345,052 344,676 105,030 368,339 310,110 109,849 373,891 341,245 134,044 403,782 315,199 120,679 402,120 330,196 117,366 394,882 328,534 119,482 361,123 332,604 130,060 362,103 321,805 116,978 374,410 323,179 89,745 401,850 319,140 88,609 379,222 339,182 105,340 348,708 320,633 100,705 372,223 314,074 116,677 397,960 329,387 123,274 394,950 316,329 108,058 396,401 319,898 98,564 386,994 336,239 102,774 378,176 328,681 91,114 393,657 353,978 109,491 365,949 306,437 110,059 387,824 321,010 106,330 386,538 336,581 112,143 387,047 340,307 101,626 376,410 337,257 107,335 408,503 330,669 116,736 409,646 317,190 86,380 378,770 313,522 91,842 374,785 341,972 108,073 351,565 289,044 106,755 379,605 329,000 106,789 368,991 334,395 119,850 390,141 315,637 113,977 358,956 323,745 118,059 363,623 341,416 106,024 352,462 336,380 94,290 387,292 326,861 84,367 384,366 322,317 102,973 376,906 321,613 104,946 379,343 347,536 121,270 370,642 308,277 114,497 381,058 320,988 102,176 375,059 331,329 117,471 363,486 304,954 100,665 351,362 351,787 104,024 417,473 333,298 91,070 407,383 321,531 105,848 378,835 337,211 103,257 395,395 327,711 115,053 352,847 347,721 116,325 393,998 337,231 83,247 371,251 330,925 100,902 389,292 324,464 103,830 387,767 316,617 100,408 386,487 317,801 104,133 358,069 ANEXO 4 Dados de saída do modelo 4.2200352e+00 1.4617753e+01 3.6395557e+00 1.5351476e+01 3.8506467e+00 1.5115732e+01 3.7465904e+00 1.5489766e+01 3.8894840e+00 1.4889105e+01 3.7733766e+00 1.5112518e+01 3.7757337e+00 1.5792034e+01 4.2158025e+00 1.3958295e+01 3.7826872e+00 1.5507462e+01 4.0591447e+00 1.4737204e+01 4.0162180e+00 1.5661422e+01 3.8056555e+00 1.4994924e+01 3.8264765e+00 1.5186812e+01 4.0477166e+00 1.5480833e+01 3.9849260e+00 1.4577159e+01 4.0786154e+00 1.4662997e+01 4.0786353e+00 1.5193401e+01 3.6525204e+00 1.5819636e+01 3.8593291e+00 1.5357267e+01 4.2803900e+00 1.3833502e+01 3.8935838e+00 1.5663174e+01 4.1195660e+00 1.5208498e+01 3.9479320e+00 1.5310200e+01 3.7005022e+00 1.5798536e+01 3.9377371e+00 1.5277317e+01 4.0841572e+00 1.4638782e+01 3.4991298e+00 1.5373711e+01 3.6178860e+00 1.5798543e+01 3.8708862e+00 1.4682425e+01 3.5554075e+00 1.6012420e+01 4.0187234e+00 1.4788002e+01 4.2885578e+00 1.4928639e+01 3.7718672e+00 1.5765715e+01 3.6867488e+00 1.5717023e+01 3.8610817e+00 1.4751674e+01 3.8308789e+00 1.4958288e+01 3.7724604e+00 1.5427038e+01 4.0254139e+00 1.4974913e+01 3.7628307e+00 1.4744661e+01 3.8718035e+00 1.5566606e+01 3.8596483e+00 1.5214325e+01 4.0444826e+00 1.5055872e+01 3.7104472e+00 1.5923965e+01 4.0613266e+00 1.4216836e+01 3.9535170e+00 1.5476759e+01 3.7087445e+00 1.4577694e+01 3.8805819e+00 1.4929270e+01 3.8443124e+00 1.5239588e+01 3.7073257e+00 1.6711827e+01 3.8605089e+00 1.6176381e+01 3.8634790e+00 1.5919463e+01 3.6403648e+00 1.5394356e+01 3.5216562e+00 1.5794790e+01 3.7505440e+00 1.5545191e+01 4.3463783e+00 1.4692909e+01 4.2249002e+00 1.4291075e+01 3.7534781e+00 1.4583270e+01 3.9710661e+00 1.4796570e+01 3.8901999e+00 1.5942348e+01 3.7874601e+00 1.6157768e+01 4.0036672e+00 1.5539739e+01 4.0969992e+00 1.4935717e+01 3.9752726e+00 1.4995024e+01 4.2694277e+00 1.4648988e+01 3.8013925e+00 1.5082028e+01 3.9240622e+00 1.5488559e+01 3.9713470e+00 1.5299526e+01 3.8898798e+00 1.5566298e+01 3.9824060e+00 1.4911198e+01 4.0847965e+00 1.5696557e+01 3.9550767e+00 1.6135180e+01 4.2649365e+00 1.4159493e+01 4.1367155e+00 1.4395208e+01 3.7326397e+00 1.4754345e+01 3.9234837e+00 1.5202277e+01 3.8586376e+00 1.5019235e+013.8039521e+00 1.5939345e+01 3.6978893e+00 1.5137822e+01 3.6730500e+00 1.5387524e+01 3.7673250e+00 1.4683816e+01 4.1721062e+00 1.4722025e+01 4.3416174e+00 1.4128446e+01 3.9644138e+00 1.4982944e+01 3.9490065e+00 1.5115576e+01 3.6740603e+00 1.5643150e+01 3.8224101e+00 1.5562597e+01 3.9654691e+00 1.4914287e+01 3.6797211e+00 1.5362047e+01 3.8399572e+00 1.4424991e+01 4.1884762e+00 1.5671617e+01 4.3552010e+00 1.4846235e+01 3.9323547e+00 1.5148120e+01 4.0715498e+00 1.5298763e+01 3.6467553e+00 1.5062887e+01 3.8724320e+00 1.5861276e+01 4.2779242e+00 1.3863474e+01 4.0726126e+00 1.5087767e+01 4.0169525e+00 1.5203551e+01 4.0635899e+00 1.5018603e+01 3.8301343e+00 1.4704739e+01 ANEXO 5 Dados de saída para a rede function data_for_ANN clc; clear %Parametros Qi=108; % L/h fluxo iniciador Qs=459; % L/h fluxo solvente Qm=378; % L/h fluxo do mon�mero V=3000; % L volume do reator If=0.5888; % gmol/L concentra��o do iniciador na alimenta��o Mf=8.6981; % gmol/L concentra��o do mon�mero na alimenta��o T=323.56; % K temperatura de rea��o D0=2.7547e-4; % mol/L D1=16.110; % g/L PD0=1.5; % Polidispers�o padr�o +/-0.01 Mm=104.14; % peso molecular%f_I = par(6); D2 = PD0*D1^2/(Mm*D0); % g/L Ad=2.142*10^17; % 1/h Ap=3.816*10^10; % L.gmol/h At=4.50*10^12; % L.gmol/h Ed=14897; % K Ep=3557; % K Et=843; % K fi=0.6; % efici�ncia do iniciador kd=Ad*exp(-Ed/T); % dm^3/gmol.h kp=Ap*exp(-Ep/T); % dm^3/gmol.h kt=At*exp(-Et/T); % dm^3/gmol.h %% Leitura de Entradas Inlets = readmatrix('Inlets_data_Qi_Qm_T.xlsx'); %% Integração % CI's y0=[If Mf D0 D1 D2]; tspan=[0 400]; Outlets = zeros(length(Inlets),2); tic for i=1:length(Inlets) Qi = Inlets(i,1); Qm = Inlets(i,2); T = Inlets(i,3); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média Outlets(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3]; end toc save('Outlets_T.txt','Outlets','-ascii') %% Sistema de Equação Diferencial function dydt=polycstr(~,y) P=((2*fi*kd*y(1))/kt)^0.5; dydt(1,1)=(1/V)*(Qi*If-Qt*y(1))-(kd*y(1)); % dI/dt dydt(2,1)=(1/V)*(Qm*Mf-Qt*y(2))-(kp*y(2)*P); % dM/dt ou dy/dt dydt(3,1)=(0.5*kt*(P^2))-(Qt*y(3)/V); % dD0/dt dydt(4,1)=(Mm*kp*y(2)*P)-(Qt*y(4)/V); % dD1/dt dydt(5,1)=(5*Mm*kp*y(2)*P)+3*Mm*(y(2)^2)*((kp^2)/kt)-(Qt*y(5)/V); % dD2/dt % dydt(6,1)=(Qt/V)*(Tf-y(6))+(DHr/roCp)*kp*y(2)*P-(hA/(roCp*V))*(y(6)-Tc); % dT/dt ou dy/dt % dydt(7,1)=(Qc/Vc)*(Tcf-y(7))+(hA/(rocCpc*Vc))*(T-y(7)); % dTc/dt ou dy/dt end end ANEXO 6 Teste de sensibilidade function analise_sensibilidade clc; clear %Parametros Qi=108; % L/h fluxo iniciador Qs=459; % L/h fluxo solvente Qm=378; % L/h fluxo do mon�mero V=3000; % L volume do reator If=0.5888; % gmol/L concentra��o do iniciador na alimenta��o Mf=8.6981; % gmol/L concentra��o do mon�mero na alimenta��o T=323.56; % K temperatura de rea��o D0=2.7547e-4; % mol/L D1=16.110; % g/L PD0=1.5; % Polidispers�o padr�o +/-0.01 Mm=104.14; % peso molecular%f_I = par(6); D2 = PD0*D1^2/(Mm*D0); % g/L Ad=2.142*10^17; % 1/h Ap=3.816*10^10; % L.gmol/h At=4.50*10^12; % L.gmol/h Ed=14897; % K Ep=3557; % K Et=843; % K fi=0.6; % efici�ncia do iniciador kd=Ad*exp(-Ed/T); % dm^3/gmol.h kp=Ap*exp(-Ep/T); % dm^3/gmol.h kt=At*exp(-Et/T); % dm^3/gmol.h VS = [0.8 0.85 0.9 0.95 1 1.05 1.1 1.15 1.2]; % Vetor Sensibilidade VV = [Qi Qs Qm If Mf T]; % Vetor Variaveis %% Integração % CI's y0=[If Mf D0 D1 D2]; tspan=[0 400]; out_Qi = zeros(length(VS),3); out_Qs = zeros(length(VS),3); out_Qm = zeros(length(VS),3); out_If = zeros(length(VS),3); out_Mf = zeros(length(VS),3); out_T = zeros(length(VS),3); tic for i=1:length(VS) Qi = VV(1)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_Qi(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end Qi = VV(1); for i=1:length(VS) Qs = VV(2)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_Qs(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end Qs = VV(2); for i=1:length(VS) Qm = VV(3)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_Qm(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end Qm = VV(3); for i=1:length(VS) If = VV(4)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_If(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end If = VV(4); for i=1:length(VS) Mf = VV(5)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_Mf(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end Mf = VV(5); for i=1:length(VS) T = VV(6)*VS(i); Qt=Qi+Qm+Qs; [~,y]=ode15s(@polycstr,tspan,y0); Mw=Mm*y(end,5)/y(end,4); % massa molar média out_T(i,:) = [0.0012*(Mw)^(0.71) Qt*y(end,4)/1e3 Mm*(y(end,5)*y(end,3))/((y(end,4))^2)]; end Tr = VV(6); toc %% Graficos - Analise de Sensibilidade x = (VS-1)*100; % Qi figure(1) subplot(3,1,1) plot(x,out_Qi(:,1),'-pr') title('\eta vs Qi') subplot(3,1,2) plot(x,out_Qi(:,2),'-pr') title('Produtividade vs Qi') subplot(3,1,3) plot(x,out_Qi(:,3),'-pr') title('PD vs Qi') xlabel('\bf %') % Qs figure(2) subplot(3,1,1) plot(x,out_Qs(:,1),'-hb') title('\eta vs Qs') subplot(3,1,2) plot(x,out_Qs(:,2),'-hb') title('Produtividade vs Qs') subplot(3,1,3) plot(x,out_Qs(:,3),'-hb') title('PD vs Qs') xlabel('\bf %') % Qs figure(3) subplot(3,1,1) plot(x,out_Qm(:,1),'-dk') title('\eta vs Qm') subplot(3,1,2) plot(x,out_Qm(:,2),'-dk') title('Produtividade vs Qm') subplot(3,1,3) plot(x,out_Qm(:,3),'-dk') title('PD vs Qm') xlabel('\bf %') % If figure(4) subplot(3,1,1) plot(x,out_If(:,1),'-om') title('\eta vs [If]') subplot(3,1,2) plot(x,out_If(:,2),'-om') title('Produtividade vs [If]') subplot(3,1,3) plot(x,out_If(:,3),'-om') title('PD vs [If]') xlabel('\bf %') % Mf figure(5) subplot(3,1,1) plot(x,out_Mf(:,1),'-sc') title('\eta vs [Mf]') subplot(3,1,2) plot(x,out_Mf(:,2),'-sc') title('Produtividade vs [mf]') subplot(3,1,3) plot(x,out_Mf(:,3),'-sc') title('PD vs [Mf]') xlabel('\bf %') %Tr figure(6) subplot(3,1,1) plot(x,out_T(:,1),'-dk') title('\eta vs T') subplot(3,1,2) plot(x,out_T(:,2),'-dk') title('Produtividade vs T') subplot(3,1,3) plot(x,out_T(:,3),'-dk') title('PD vs T') xlabel('\bf %') %% Sistema de Equação Diferencial function dydt=polycstr(~,y) P=((2*fi*kd*y(1))/kt)^0.5; kd=Ad*exp(-Ed/T); % dm^3/gmol.h kp=Ap*exp(-Ep/T); % dm^3/gmol.h kt=At*exp(-Et/T); % dm^3/gmol.h dydt(1,1)=(1/V)*(Qi*If-Qt*y(1))-(kd*y(1)); % dI/dt dydt(2,1)=(1/V)*(Qm*Mf-Qt*y(2))-(kp*y(2)*P); % dM/dt ou dy/dt dydt(3,1)=(0.5*kt*(P^2))-(Qt*y(3)/V); % dD0/dt dydt(4,1)=(Mm*kp*y(2)*P)-(Qt*y(4)/V); % dD1/dt dydt(5,1)=(5*Mm*kp*y(2)*P)+3*Mm*(y(2)^2)*((kp^2)/kt)-(Qt*y(5)/V); % dD2/dt % dydt(6,1)=(Qt/V)*(Tf-y(6))+(DHr/roCp)*kp*y(2)*P-(hA/(roCp*V))*(y(6)-Tc); % dT/dt ou dy/dt % dydt(7,1)=(Qc/Vc)*(Tcf-y(7))+(hA/(rocCpc*Vc))*(T-y(7)); % dTc/dt ou dy/dt end end ANEXO 7 Pesos e Biases: Item 1: wi = 1.8712 -0.2060 0.0111wo = -0.5047 0.3801 bi = 0.0354 bo = -0.0468 -0.0385 Item 2: Erro Item 3: wi = 1.8940 -0.2090 0.0106 wo = -0.4985 0.3755 bi = 0.0056 bo = -0.0508 -0.0355 Item 4: wi = 1.8740 -0.2065 0.0106 wo = -0.5037 0.3795 bi = 0.0141 bo = -0.0492 -0.0366 Item 5: Erro Item 6: Erro Item 7: wi = -1.4131 0.3864 -0.0983 wo = 0.8689 -0.5051 bi = -0.2737 bo = 0.0570 -0.0975 Item 8: Erro Item 9: Erro Item 10: wi = 2.8116 -0.3012 -0.0127 wo = -1.7241 1.2982 bi = 0.4003 bo = 0.9313 -0.7750 Item 11: wi = -2.2286 5.7015 -2.1308 -2.1927 -20.5089 8.9322 -8.3469 3.7300 -8.8957 4.6895 4.5925 -1.2895 7.4009 3.8463 -2.3275 1.8870 2.5446 -1.1829 -3.6432 -2.1162 -4.1364 -0.8280 -2.5366 0.9217 -2.5238 2.6951 -0.3134 -4.8087 -0.3738 0.1813 wo = 0.7027 -22.8779 -14.8255 -0.4644 -3.1095 -3.9174 -3.0244 -4.1118 -1.4538 0.9904 0.3628 -13.6496 -8.7295 -0.8336 -1.5362 -2.3011 -1.3334 -2.7839 -2.4813 -1.1843 bi = -2.8904 -54.1744 -60.7083 -42.8980 -43.1913 -28.0510 -54.6691 -10.5653 -8.7603 -0.7019 bo = -0.6110 0.3511 Item 12: wi = 0.8523 5.9490 -0.1837 -3.6912 -7.5847 1.8367 -6.5177 -1.0966 -4.2227 -6.2535 -0.7156 2.8419 4.6047 0.8219 -0.6144 2.7985 -3.9835 -3.6542 -4.7690 2.4119 -1.1657 5.5110 -5.8044 -1.7548 4.9684 1.8239 -6.5447 5.5993 5.3996 2.9820 wo = 0.7194 -0.1588 -0.1207 0.9605 -1.1506 0.3219 0.8852 -0.5960 -0.0318 - 0.0982 0.2848 -0.2229 -0.2236 -0.7041 1.0154 -0.0415 -0.2295 0.0320 0.1692 0.3965 bi = -5.7913 -3.4207 -5.5394 -5.4447 -4.5096 -6.1177 -2.5579 -4.3392 -3.9083 -0.5227 bo = -0.1050 -0.1750 Item 13: wi = -0.8127 1.3741 -1.1628 2.4415 1.1127 0.3017 -2.2518 -1.0515 1.2526 1.3520 0.0272 0.7460 -1.1542 1.6808 0.9460 -0.7649 -0.6063 1.1684 0.3897 -0.2417 0.1329 2.4809 0.7819 -1.0483 -1.6105 1.4802 0.4121 0.6451 1.4093 -1.2887 wo = 1.7830 0.0054 0.1086 -0.4252 0.1599 -0.9188 -2.7913 -0.1239 0.0457 0.1626 -0.4550 0.0508 -0.3092 0.5106 0.2621 1.5339 1.9190 0.3586 0.8898 - 0.8192 bi = 3.3108 -2.1226 1.1454 -3.7719 0.2985 3.0613 0.9566 1.0376 -2.8804 4.1258 bo = 0.5361 -0.3469 Item 14: wi = -13.5560 0.3209 0.6525 1.8357 1.4378 -6.2919 2.9089 -5.5834 -3.2226 -4.9296 3.4611 6.7176 6.3425 2.2136 1.2400 1.8770 2.4599 -3.5995 1.8625 -3.4961 4.5528 -3.7658 -4.6278 -1.9586 -3.8434 -3.6445 0.2303 -5.0253 -1.2337 0.6043 -3.2206 -2.4012 -3.9678 -1.5426 -2.9174 -5.0959 7.3598 7.7130 -1.2447 -3.8697 -0.8515 -5.5734 -6.6341 -2.5942 -1.0934 wo = Columns 1 through 13 0.6766 0.3882 -0.7094 1.5731 -0.5068 0.5660 -2.1415 -1.7696 -1.0978 0.4660 0.4375 -0.4687 0.0846 -0.3612 1.1548 -0.2133 -5.9503 0.8796 1.7994 0.2671 3.7401 1.3726 - 0.4975 0.6155 -0.2703 -0.3751 Columns 14 through 15 0.7938 -0.7550 -0.4224 -0.3893 bi = -5.9054 -5.8150 -1.8727 -16.4918 -2.9917 -9.4885 -8.3626 -12.9629 -10.0675 -7.8822 -6.9256 -5.8132 -15.0310 -5.2647 -6.4076 bo = 0.0997 -0.0954 Item 15: wi = -1.4098 5.6043 -0.6611 2.3523 0.0589 -1.8394 -4.9990 0.2675 4.2709 1.7993 9.8799 -0.5267 -2.4391 1.2883 -3.1169 -0.5979 -5.6937 -1.3996 3.4686 0.2948 2.9605 -0.0827 7.4434 -2.9463 0.4619 4.3665 2.7950 3.1447 -0.3052 1.0008 -2.5910 -1.6860 -0.7877 -0.1577 1.4015 -0.7131 6.6047 -0.4010 -5.5525 3.4891 5.8102 -4.7489 -4.0852 1.5110 -6.5221 wo = Columns 1 through 13 0.2035 -0.0715 1.2249 -0.0362 0.2319 0.9956 -12.0249 0.0767 0.0424 -2.7901 9.2132 -4.6413 0.9131 -0.0423 -2.5300 -0.4194 0.1077 -0.1969 0.6907 -7.3199 0.0142 0.1568 - 5.4873 4.5162 -3.3597 -0.1707 Columns 14 through 15 -0.0327 0.1416 0.0557 -0.0999 bi = 1.4196 4.8445 -0.3721 1.4368 -2.2445 -7.8611 15.9491 -1.2002 -1.8184 -8.4497 8.2979 -5.0832 0.5124 -0.4359 0.8644 bo = -3.4898 -2.9270 Item 16: wi = 3.2695 -3.2591 0.7091 -4.5979 -6.5172 -0.7262 -6.1296 -1.0546 2.3914 -2.6827 1.9857 -0.6242 0.1281 1.3256 -0.8553 -0.7657 0.0872 -0.0026 -4.3878 2.1044 -1.6118 -3.7884 -1.4012 -1.3417 3.3017 4.4091 -0.3170 6.9299 -3.6605 -0.3183 wo = -0.2139 0.0053 -1.5389 0.8936 6.1251 1.4279 1.3325 -1.7162 0.1534 - 0.0647 -0.1190 0.0061 1.4300 -3.4169 -15.1757 -1.0485 0.6208 5.0687 0.2083 -0.0982 bi = -5.5591 -7.9785 -9.5350 -19.4268 15.1710 -0.2583 8.3699 12.8843 0.3505 -1.3129 bo = -6.3667 7.0492 Item 17: Item 20: wi = -0.0103 -0.1598 0.0000 0.3721 -0.0588 0.0004 wo = -10.3326 -28.9870 -16.9077 24.2337 bi = -1.1125 2.2917 bo = 28.7842 -17.8540
Compartilhar