Prévia do material em texto
Um novo modelo de previsão de dados financeiros usando algoritmo genético e rede de memória de longo e curto prazo Yusheng Huang , Mao YeYelin Gao, , c b a d informações do artigo abstrato Neurocomputação da Yan Gan c,d,ÿ b página inicial da revista: www.elsevier.com/locate/neucom Listas de conteúdos disponíveis em ScienceDirect Aceito em 20 de abril de 2020 Recebido em 7 de novembro de 2019 Lingnan College, Universidade Sun Yat-sen, Guangzhou 510220, China Algoritmo genético Historia do artigo: Escola de Engenharia de Informação e Comunicação, Universidade de Ciência e Tecnologia Eletrônica da China, Chengdu 610054, China Neurocomputação 425 (2021) 207–218 Rede de memória de longo prazo Decomposição do modo variacional ÿ Autor correspondente em: Faculdade de Ciência da Computação, Universidade de Chongqing, Chongqing 400044, China. Endereço de e-mail: shiyangancq@gmail.com (Y. Gan). Dados financeiros Escola de Ciência da Computação e Engenharia, Universidade de Ciência Eletrônica e Tecnologia da China, Chengdu 610054, China Palavras-chave: Comunicado por Nianyin Zeng Disponível on-line em 22 de abril de 2020 0925-2312/ 2020 Elsevier BV Todos os direitos reservados. Revisado em 2 de abril de 2020 Faculdade de Ciência da Computação, Universidade de Chongqing, Chongqing 400044, China modelo de previsão de dados. Neste modelo, o algoritmo genético é utilizado para otimizar os parâmetros do VMD. rede de memória de longo e curto prazo (LSTM) para prever os dados futuros com entradas geradas pelo VMD. O as contribuições são: (1) Propomos um modelo aprimorado de previsão de dados financeiros baseado em VMD e LSTM; 2020 Elsevier BV Todos os direitos reservados. No entanto, a precisão da previsão dos métodos atuais é baixa. Propomos um novo sistema financeiro baseado em VMD Em seguida, o VMD decompõe a sequência de dados em tendências de longo e curto prazo. Por fim, empregamos o Recentemente, a decomposição no modo variacional (VMD) foi introduzida no campo da previsão de dados financeiros. A previsão de dados financeiros é propícia para obter uma melhor compreensão da situação económica futura. modelos na previsão um passo à frente de séries temporais financeiras. proposto. Resultados experimentais indicam que nosso modelo é promissor em termos de precisão e superior à linha de base (2) Foi elaborada uma diretriz sobre a seleção de parâmetros do VMD para processar dados financeiros; (3) Um método de redução de erros de predição que reduz o erro inerente causado pela insensibilidade do VMD à flutuação é modelo de média móvel (ARIMA). Resolveu o defeito do Nos últimos anos, muitos métodos modernos de previsão têm sido Em 1970, Box e Pierce [6] propuseram o sistema integrado autoregressivo métodos de previsão. modelo de algoritmo de decomposição de sinal (SDA). Especificamente, o AT 1. Introdução volatilidade da série temporal. Os métodos convencionais são clássicos estes métodos em modelos tradicionais e modernos. Os modelos da série GARCH são capazes de prever as séries temporais um tópico de pesquisa sobre calor há muito tempo [3]. Muitos métodos foram classificados como “métodos de computação suave” [14]. Como é mostrado na Tabela 1, https://doi.org/10.1016/j.neucom.2020.04.086 Bollerslev [8] adaptou o modelo ARCH e propôs o modelo de heterocedasticidade condicional autorregressiva generalizada (GARCH). são muito populares, como rede LSTM [10], rede neural artificial (ANN) [11], máquinas de vetores de suporte (SVM) [12] e rede neural recorrente (RNN) [13]. Esses métodos modernos são desafiador [2]. Portanto, a previsão de dados financeiros permaneceu Modelo ARMA para lidar com sequências não estacionárias. Em 1982, proposto com o desenvolvimento da tecnologia de computação. No uma proxy para risco de mercado e volatilidade [1]. Para compreender melhor a situação económica futura, é necessário prever situação económica actual e futura. O preço das ações reflete o modelos de previsão tradicionais. Em [4], esses métodos são classificados e estabelecer uma base sólida para o desenvolvimento da série temporal Os dados financeiros são parte integrante da economia. Ele reflete o Nos primeiros dias da pesquisa, os pesquisadores propuseram muitas modelo autorregressivo (AR) com o modelo de média móvel (MA). cuja variância não é constante. Em 1987, Hull e White [9] propuseram o modelo de volatilidade estocástica (SV) para enfrentar o problema estocástico. existem três tipos de métodos de computação suave, incluindo modelo de análise técnica (TA) [15], modelo de análise fundamental (FA) e propôs enfrentá-lo. Para facilitar a ilustração, dividimos Engle [7] propôs o modelo de heterocedasticidade condicional autorregressivo (ARCH) para processar a volatilidade de séries temporais. Em 1986, os dados financeiros. No entanto, as características não lineares e não estacionárias das sequências de dados financeiros tornam a previsão mais área de previsão de dados financeiros, métodos computacionais modernos operação da empresa e fornece uma importante referência de investimento para os investidores. O índice financeiro mostra a situação geral do mercado. Por exemplo, o Índice de Volatilidade (VIX) serve como como “métodos convencionais”. Em 1969, Akaike [5] utilizou o modelo thautoregressivo (AR) para previsão. Em seguida, foi proposto o modelo de média móvel autorregressiva (ARMA), que combinou o Machine Translated by Google http://www.elsevier.com/locate/neucom http://www.sciencedirect.com/science/journal/09252312 https://doi.org/10.1016/j.neucom.2020.04.086 mailto:shiyangancq@gmail.com https://doi.org/10.1016/j.neucom.2020.04.086 Tabela 1 Classificação dos métodos de soft-computação. Modelo de análise técnica (AT) Utilize apenas a própria sequência financeira como entrada. Use mais informações de mercado como entrada.Modelo de análise fundamental (FA) Modelo de algoritmo de decomposição de sinal (SDA) Método Recurso Y. Huang et al. / Neurocomputação 425 (2021) 207–218208 Utilize séries decompostas da sequência financeira como insumos. Além do mais, Lahmiri [23] provou a superioridade do VMD no campo da previsão de dados financeiros. Recentemente, os pesquisadores propuseram muitos modelos variantes de VMD, como o modelo que mistura o VMD e a máquina de aprendizado extremo [24], o modelo que combina o VMD com a rede neural de retropropagação (BPNN) [25], o modelo construído com o VMD e General Rede Neural de Regressão (GRNN) [23], e o modelo combinando VMD e Rede Neural de Vetor de Suporte [26], etc. O método VMD também foi aplicado à análise de dados financeiros [27,28]. Comparado com o modelo FA, o modelo SDA evita o complexo processo de escolha de fatores. O modelo SDA é classificado com base nos métodos de decomposição adotados, como método wavelet [19], decomposição em modo empírico (EMD) [20], métodos de ajuste sazonal, decomposição em modo variacional (VMD) e decomposição intrínseca em escala de tempo, etc. 21]. Os métodos EMD e wavelet são amplamente utilizadosna previsão de dados financeiros. No entanto, o método wavelet tem limitações, como a natureza não adaptativa [21]. Como novo método de decomposição, o VMD proposto por Dragomiretskiy e Zosso [22] foi recentemente introduzido na previsão de dados financeiros. (1) Propomos um novo modelo de previsão de dados financeiros combinando o VMD, a rede LSTM, o BPNN e o GA. Comparado com o EMD, o método VMD é mais eficiente e menos sensível ao ruído. Ele decompõe os dados financeiros em modos (sinais modulados em amplitude, modulados em frequência) e extrai suas frequências centrais. Esses modos extraídos são altamente não correlacionados no domínio da frequência, o que significa que os modos podem ser usados diretamente para treinar a rede neural para previsão. Isso pode resultar no erro de previsão do modelo. Assim, propomos um método de redução de erros de predição baseado em BPNN. O método proposto é fornecido na Seção 2.4. O modelo SDA é um método recentemente desenvolvido. Ele utiliza algoritmos de decomposição de sinal para decompor as séries de dados financeiros em modos. Os modos refletem as tendências de longo prazo e as flutuações de curto prazo dos dados financeiros. Comparado com o modelo TA, o modelo SDA poderia extrair mais informações das séries de dados financeiros decompostos e prever com mais precisão. 2.1. Rede de memória de longo prazo Além disso, a rede LSTM é capaz de extrair as características dos dados financeiros e refletir as características da rede [32]. Portanto, é amplamente utilizado no campo de previsão de séries temporais, como previsão de poluição do ar [33], previsão de aparelhos de energia [34], previsão de tempo de chegada de ônibus [35] e previsão de admissão em departamentos de emergência hospitalar [36], etc. Inspirados neles, utilizamos a rede LSTM para prever dados financeiros. No entanto, como escolher os factores adequados é um problema complicado que exige conhecimentos económicos. Qual é o melhor, o modelo FA ou o modelo TA, ainda não é conclusivo. Portanto, uma diretriz de seleção de parâmetros do VMD é definida para minimizar a perda de decomposição na Seção 2.2. Na Seção 2.3, são ilustrados o processo de produção da entrada de treinamento e da entrada de predição do modelo GVL. Como mencionado anteriormente, o VMD é insensível às flutuações aleatórias dos dados financeiros. Concretamente, a rede LSTM consiste em três partes, incluindo uma camada de entrada, uma camada de saída e várias camadas ocultas entre elas [37]. Cada camada oculta recursiva possui vários módulos de memória. O núcleo do módulo de memória é a célula de memória autoconectada com três portas, a saber, a porta de entrada, a porta de esquecimento. modelo utiliza apenas a própria sequência financeira como entrada, como [16]. Tendo apenas os dados financeiros como entrada, o modelo de AT é fácil de construir. No entanto, a singularidade das variáveis de entrada torna difícil para o modelo TA responder prontamente às mudanças do mercado. Ao contrário do modelo TA, o modelo FA utiliza mais informações de mercado. Por exemplo, Borovkova e Tsiamas [10] usaram indicadores de análise matemática como dados de previsão; Nofer e Hinz [17] escolheram o nível de humor derivado das mídias sociais como fator; Vargas et al. [18] utilizaram semântica extraída de artigos de notícias financeiras. Na Seção 2.1, são fornecidos alguns conhecimentos básicos da rede LSTM. O VMD causa perda de decomposição quando é usado para decompor a série de dados financeiros. Além disso, faltam diretrizes gerais para a seleção dos parâmetros VMD [29]. A arquitetura do modelo GA-VMD-LSTM (GVL) proposto é demonstrada na Figura 1. Como é mostrado na Figura 1, o modelo GVL consiste na parte de treinamento e na parte de predição. Na parte de treinamento, o AG é usado para calcular os parâmetros necessários ao algoritmo VMD. Então, o gerador de entrada 1 gera a entrada de treinamento da rede LSTM utilizando o VMD. Na última etapa, a rede LSTM é treinada. Na parte de previsão, tendo como entrada os dados dos últimos 31 dias de negociação, o gerador de entrada 2 produz a entrada de previsão da rede LSTM. Em seguida, a rede LSTM prevê os dados do dia de negociação seguinte. Portanto, o modelo GVL é um modelo de previsão com um dia de antecedência. No entanto, os atuais modelos de previsão de dados financeiros baseados em VMD ainda são de baixa precisão de previsão. Enquanto isso, faltam diretrizes gerais para a seleção dos parâmetros VMD [29]. Além disso, o VMD é insensível a flutuações aleatórias dos dados financeiros, o que significa que o modelo VMD não é capaz de responder a flutuações acentuadas dos dados financeiros. Para resolver os problemas acima, propomos um novo modelo de previsão de dados financeiros baseado em VMD, combinando o GA, a rede LSTM e o BPNN. Neste modelo, o GA é utilizado primeiramente para otimizar os parâmetros do VMD para reduzir a perda de decomposição causada pelo VMD. Então, a entrada da rede LSTM é gerada (4) Os resultados experimentais demonstram que o método proposto é mais eficaz do que os modelos de referência. 2. Métodos e modelo de previsão de dados financeiros proposto O restante do nosso artigo está estruturado da seguinte forma. A seção 2 ilustra nosso modelo e os algoritmos necessários. Na Seção 3, avaliamos nosso modelo. A seção 4 conclui este artigo. (3) A fim de reduzir o erro inerente ao modelo causado pela insensibilidade do VMD à flutuação, é proposto um método de redução de erros de predição baseado em BPNN. pelo VMD. Depois disso, a rede LSTM produz a saída de previsão. Por fim, para reduzir o erro inerente ao modelo, adota-se o BPNN para criar um mapeamento entre o erro de predição e as flutuações das séries financeiras. Nossas contribuições estão listadas abaixo: A rede LSTM proposta por Hochreiter e Schmidhuber [30] possui células de memória e unidades de disparo não lineares [31], o que a torna capaz de processar sequências de longo prazo e não estacionárias. (2) Definimos uma diretriz sobre a seleção de parâmetros do VMD. A diretriz é então abstraída em um problema de otimização. Finalmente, o problema de otimização é resolvido pelo AG. Machine Translated by Google 0 WF ; WI; BANHEIRO; WO implica as conexões do olho mágico, e Em primeiro lugar, o vetor X ¼ ðx1; x2; xT Þ é a entrada do LSTM bF ; bi; BC; bO denota a matriz de peso de entrada. Ct ¼ tanh½WC ðht1; xtÞ + bC: Ct ¼ Ft Ct1 þ It k¼1 XK Ct: T t¼1 ~ Ct do estado da célula 2.2. Seleção de parâmetros do VMD (iv) Depois disso, o estado da célula é atualizado da seguinte forma (Ct1 representa o estado anterior da célula armazenado na célula de memória): sequencialmente. O processo de cálculo correspondente ao tempo t é escrito da seguinte forma: é decidido de acordo com as seguintesequações: ; e a porta de saída, respectivamente. Então, de acordo com a série temporal t = 1 T [37], o estado da célula Ct da célula de memória e os valores de ativação das portas são calculados pela camada oculta. (v) Finalmente, a porta de saída Ot é atualizada e a saída final ht rede. Isto; Ft e Ot denotam a porta de entrada, a porta de esquecimento Nós temos: Nas equações acima, rðÞ representa a função sigmóide. deve ser adicionado ao estado atual da célula da seguinte forma: todo o algoritmo VMD como uma função f vmdðÞ. Da literatura [22], (ii) A porta de entrada determina quanta informação nova equação abaixo: acima controlam o fluxo de informações no módulo de memória. é gerado de acordo com a seguinte equação: o sinal original, a saber: e poderia reproduzir o sinal de entrada coletivamente. Nós visualizamos o (i) A célula de memória lê a entrada xt e o estado oculto anterior ht1. Então, a porta do esquecimento é determinada pela Eq. (8) mostra como os modos reconstroem o sinal reconstruído S N½n. Idealmente, o sinal reconstruído deve ser o mesmo que porta e a porta de saída. Os valores dos três portões mencionados extrai os modos e as frequências centrais dos modos simultaneamente. Esses modos se enquadram na definição da função de modo intrínseco (iii) Enquanto isso, um novo vetor candidato VMD é um método de decomposição de sinal não recursivo [22]. Isto 209Y. Huang et al. / Neurocomputação 425 (2021) 207–218 Figura 1. Arquitetura do modelo GVL. ht ¼ Ot tanhðCtÞ: Pé ¼ r½WF ðht1; xtÞ + bF : ¼ f vmdðSN½n; K; a; s;eÞ; K; n = 1; 2; ... ;Ng ð8Þ fuk½njk ¼ 1; 2; ... ð2Þ ~ uk½n ¼ S0 N½n; Ot¼ r½WOðht1 ; xtÞ + bO: ð5Þ É ¼ r½WIðht1; xtÞ + bI: ð3Þ PerdaVMD ¼ ð4Þ ð10Þ Xffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ðSN½n S0 N½nÞ2 : ~ 2s ð9Þ N S0 N½n ¼ SN½n: ð7Þ ð6Þ ~ ð1Þ ; sinal. K e a são inteiros positivos. s é definido como 0 ou 1. e é normalmente No entanto, a Eq. (9) geralmente não é válido, pois o VMD causa K; n = 1; 2; ... ;Ng dos modos do originalfuk½njk ¼ 1; 2; ... N½nis dado por: nível de tolerância e como entradas, o VMD gera o conjunto SNðnÞe S sinal de tempo discreto SN½n, o número de modos K, restrição de fidelidade de dados a, o multiplicador Lagrangiano s e convergência como segue: Perda de VMD: Root Mean Squared Error (RMSE) entre modo do sinal en é o script de tempo. Com o original ; a diferença entre o sinal reconstruído e o sinal original, onde N implica o comprimento do sinal, uk½n representa o k-ésimo perda de decomposição. Portanto, definimos a perda VMD para medir por volta de 1e6 [22]. 0 Machine Translated by Google ; ; Perda mínimaVMD ¼ 108g Xffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ðSN½n S0 N½nÞ2 e2f104 ; 105 K; n = 1; 2; ...; 30gÞ; K 2 f2; 3; ...; 34g ; ð15Þ um 2f10; 102 >>>< ; ; ; s:t: N ; fuAk½njk ¼ 1; 2; ... 107g fK; a; por exemplo, ¼ GAðSN½nÞ: 106>>>: ð13Þ 103 s 2 f0; 1g ; ð12Þ Pout ¼ FLSTMPredictionðfu0 k½njk ¼ 1; 2; ... FLSTMPrediction ¼ FLSTMTrainning ðfuk½njk ¼ 1;2;...;K; n ¼ 1;2;... ;NgÞ; 8 ð14Þ ... fKA; aA; sA;eAg ¼ GAðANA ½nÞ; ¼ f vmdðANA ½n; KÁ; aA; sA;eAÞ; ð11Þ FLSTMPrediction ¼ FLSTMTrainning ðfuAk½njk ¼ 1; 2; ... 2s ð16Þ KÁ; n = 1; 2; ... ;NAgÞ:; Passo (1): Inicie a primeira geração e avalie sua aptidão. Gerador de Entrada 2 Produzir a entrada do processo de predição é complexo. De acordo com a Eq. (13), a entrada também são modos. Em como: Etapa (7): Se o número de iterações for maior que 200 ou o (11), a expressão da função das operações acima poderia ser escrita preciso. Considerando as razões mencionadas acima, definimos um Combinando todos os dados de modo dos últimos 30 dias de negociação, Passo (2): Registre o melhor condicionamento físico e seu código correspondente. Gerador de Entrada 1 A geração da entrada de treinamento segue um exemplo. escala de a e s é mais importante do que seu valor exato. Por isso, ; Kag. A saída do VMD A regra de escolha de parâmetros é na verdade um problema de otimização restrito. Como o GA [38] é uma otimização eficaz o processo de seleção de parâmetros é denotado como: dados do dia TA 31 e dia TA 30, que é ½A31½1; A31½2, como O número de indivíduos em uma geração é 60. u0 Ak½1jk ¼ 1; 2; ... FLSTMPrediçãoðÞ, temos: fu0 Ak½30jk ¼ 1; 2; ... K; n = 1; 2; ... ;Ng e fu0 k½njk ¼ 1; 2; ... tenha u1k½2jk = 1; 2; ... através de operação de cruzamento e mutação. O número de indivíduos na prole é 60. A31½nðn ¼ 1; 2; ... Supondo que temos dados históricos ANA ½nðn ¼ 1; 2; ... ;NAÞ ativado para comodidade de implementação, temos K 2 f2;3;...;34g; g KA . a melhor aptidão permanece a mesma em 20 iterações, encerre o algoritmo. para prever A½TA, precisamos dos dados de modo das últimas 30 negociações Em nosso modelo, usamos o VMD para decompor os dados financeiros KÁ; n = 1; 2; ... é um conjunto de modos, f u1k½njk ¼ 1; 2; ... Etapa (3): Selecione metade dos indivíduos no pool por meio o procedimento abaixo. Primeiramente, usamos GA para calcular os parâmetros do algoritmo VMD. Em seguida, decompomos os dados históricos TA 31 para o dia TA 1, queremos prever o preço de fechamento A½TA método de resolução, escolhemos o AG para resolvê-lo. Aplicamos o ; KAg, temos a entrada do programa de predição ; entrada, usamos o algoritmo VMD para gerar os dados de modo de fuk½njk ¼ 1; 2; ... regra de escolha de parâmetros da seguinte forma:Regra de escolha de parâmetros: A rede LSTM é utilizada para prever os dados financeiros no que são fu0 Ak½1jk ¼ 1; 2; ... O Etapa (5): Calcule a aptidão da prole. KÁ; n = 1; 2 g Os dados do modo operação de seleção. o preço de fechamento da ação A e os dados do preço de fechamento a 2 f10;102 ;103 ;...;108 g;s 2 f0;1g;e 2 f104 ;105 ;106 ;107 g. O ; K; n = 1; 2; ...; 30g, é o núcleo do nosso modelo. Ele une o VMD em modos usando o algoritmo VMD. Esses modos são a entrada de série em modos. Esses modos servem como treinamento e entrada de previsão do modelo. Assim, quanto menor for a perda de VMD, mais tornar-se a próxima geração. 2.3. Métodos de produção de insumos KA ¼ f operação de produção dos dados de modo dos demais dias é a mesma Etapa (6): Mesclar os indivíduos da prole e desta geração e então classificar sua aptidão. 60 deles com melhor condicionamento físico do próximo dia de negociação TA. O comprimento dos dados históricos é NA. Modelo GVL. Considerando os processos de treinamento e predição de dias do dia TA 30 ao dia TA 1, que é O detalhe do GA é descrito a seguir: Caso contrário, repita do passo (2) ao passo (7). ; ,Dado SN½n, os parâmetros K; a; s e e, devemos minimizar o processo de treinamento da rede LSTM. De acordo com as Eqs. (7) e ; KAG; fu0 Ak½2jk ¼ 1; 2; ... informações que os modos contêm, de modo que nosso modelo seria mais ; ; Etapa (4): Os indivíduosno pool produzem a prole do TA 30 é o segundo roteiro de tempo do conjunto de modos. Assim, nós algoritmo e a rede LSTM. Ilustraremos isso dando GA com código binário ao nosso modelo. De acordo com a literatura [22], o . TA 30, que é fu0 Ak½1jk ¼ 1; 2; ... Como gerar a entrada dos dois processos,a perda de VMD. ; ; KAG; ; como é mencionado acima. De acordo com a Eq. (7), as operações acima podem ser escritas como: ; 31Þ para os últimos 31 dias de negociação a partir do dia o modelo da otimização restrita é escrito da seguinte forma: a rede LSTM como duas funções, FLSTMTrainningðÞ e Para facilitar a descrição, tratamos o GA como uma função GAðÞ. Então, fu0 Ak½njk ¼ 1; 2; ...; 30g. Com o preço de fechamento t¼1 T KÁ; n = 1; 2; ... ;NAg o processo de predição utilizando a rede LSTM; fu0 k½njk ¼ 1; 2; ...; 30g é a entrada da previsão (correspondente à entrada de previsão na Fig. 1) e Pout KÁ; n = 1; 2; ... ;NAg é; fuk½njk ¼ 1; 2; ... respondendo à entrada de treinamento na Fig. 1); FLSTMPredictionðÞrepresenta onde FLSTMPrediction é a rede LSTM suficientemente treinada, adotado. ; para o módulo de mutação, a estratégia de mutação adaptativa [40] é unidade de cruzamento, utilizamos a estratégia de cruzamento adaptativo [40]. Como do estoque A, Eq. (12) pode ser escrito como: K; n = 1; 2; ... parte do algoritmo pela estratégia da roda da roleta [39]. No e ; gerado pelo GA; fuAk½njk ¼ 1; 2; ... a entrada do processo de treinamento do estoque A. Assim, para a previsão K; n = 1; 2; ... ;Ng é a entrada do treinamento (cor- onde a Eq. (10) é a função de aptidão do GA. Nós projetamos a seleção onde KA; aA; sA e eArepresentam os parâmetros VMD do estoque A denota a saída da previsão. Y. Huang et al. / Neurocomputação 425 (2021) 207–218210 g ( u0 Ak½30jk ¼ 1;2;...;KA ¼ f u30k½2jk ¼ 1;2;...;KA u30k½njk ¼ 1;2;...;KA;n ¼ 1;2 ¼ f vmdð fg Þ ½A31½30;A31½31;KA;aA;sA;eA ...... ( : g gu0 Ak½2jk ¼ 1;2;...;KA ¼ f u2k½2jk ¼ 1;2;...;KA u0 Ak½1jk ¼ 1;2;...;KA ¼ f u1k½2jk ¼ 1;2;...;KA fg u2k½njk ¼ 1;2;...;KA;n ¼ 1;2 ¼ f vmdð Þ ½A31½2;A31½3;KA;aA;sA;eA f g¼ u1k½njk ¼ 1;2;...;KA;n ¼ 1;2 f vmdð Þ ½A31½1;A31½2;KA;aA;sA;eA ð17Þ ( Machine Translated by Google onde PATA é o resultado da previsão da ação A na negociação dia TA. Preço mais altoðTAÞ Preço mais baixoðTAÞ Fechamento de preçoðTAÞ Fechamento de preçoðTA 1Þ Preço mais baixoðTAÞ Volatilidade Histórica ¼ 252 ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiff vuuuu : ð21Þ Preço próximo ðTAtÞ t¼1 TA ATP2 Preço próximoðTA 1Þ Taxa de alteração ¼ Amplitude ¼ ð20Þ ð18Þ ; KÁ; n = 1; 2; ...; 30gÞ;PATA ¼ FLSTMPredictionðfu0 Ak½njk ¼ 1; 2; ... : ð19Þ: Preço próximoFechamento de preço ðTAtþ1Þ ATP 2 TA t¼1 crie um mapeamento entre fatores e erro de previsão. O BPNN dados financeiros [46]. empresas, políticas governamentais, etc. Este tipo de informação é mostrado na Figura 2. isso com mais fatores (como informações de mercado do último dia [18]) Por exemplo, os preços das ações são afetados principalmente pelas operações da empresa e pelos interesses dos investidores. O índice de mercado e a taxa de câmbio são O modelo GVL usa apenas a própria sequência de dados para prever o para aprender mapeamento multidimensional complicado [43]. O que é denotam o preço de fechamento, o preço mais baixo e o preço mais alto de '' respectivamente. Portanto, para tornar nosso modelo versátil, escolhemos flutuações e poderia alcançar um desempenho muito melhor [41]. disposto a investir. restringe a sensibilidade do modelo às flutuações. Como é mencionado precisão arbitrária teoricamente [44]. Como os motivos mencionados 2.4.2. Modelo GVL-MB Existem muitos tipos de fatores que afetam os dados financeiros, como o modelo GVL é causado pelas flutuações dos dados financeiros. dados financeiros. Os fatores escolhidos são listados a seguir: escolhido para aumentar a precisão da previsão do modelo. O escolhido o método é fornecido na Seção 2.4.2. GVL-MB KÁ; n = 1; 2; ...; 30g. Assim, para a previsão informações de curto prazo, como anúncios temporários de tendências dos dados financeiros. Volatilidade Histórica: É um fator que reflete a variância do No método de redução de erros de predição, o BPNN é utilizado para restante do papel. A arquitetura do modelo GVL-MB é 2.4. Método de redução de erros de previsão Diferentes tipos de dados financeiros podem ser afetados por diferentes fatores. difícil de ser extraído de dados históricos. Alguns pesquisadores descobriram é uma rede de mapeamento multicamadas que minimiza o erro retroativo durante a transmissão de informações [42]. É capaz O modelo GVL-MB é dividido em parte de treinamento e parte de previsão. Na parte de treinamento, o modelo GVL 1 é treinado pelo primeiro impactado pela tendência do mercado e pela situação econômica nacional dados financeiros, o que economiza recursos de computação. no entanto Amplitude: É um indicador que combina os preços mais altos e mais baixos que refletem a atividade [45] e também demonstra introduzido, o modelo de previsão é mais sensível a curto prazo mais, o BPNN poderia aproximar qualquer função não linear com os dados financeiros do dia t. 2.4.1. Fatores escolhidos alguns fatores fundamentais que influenciam a maioria dos tipos de acima, adotamos o BPNN no método proposto. Detalhes de antes, a implementação do VMD também enfraquece a sensibilidade do modelo à flutuação. Ou seja, parte do erro de previsão de Assim, no método de redução de erros de predição, mais fatores são O método de redução de erros de predição pode ser considerado como um fatores macroeconômicos, fatores fundamentais e fatores estatísticos. As flutuações dos dados financeiros são grandemente afetadas por cesso, fu0 Ak½njk ¼ 1; 2; ... ção do estoque A, Eq. (13) pode ser escrito como: Taxa de mudança: é um indicador intuitivo de ascensão e queda no curto prazo fatores são ilustrados na Seção 2.4.1. novo modelo. Para conveniência de ilustração, usamos modelo” para nos referirmos ao método de redução de erros de predição no ; 211Y. Huang et al. / Neurocomputação 425 (2021) 207–218 Figura 2. Método de redução de erros de predição (modelo GVL-MB). Nas equações acima, PricecloseðtÞ; PreçomenorðtÞ e PreçomaisaltoðtÞ Machine Translated by Google Algoritmo2: modelo GVL-MB (9) Prever o erro de previsão do dia TA usando o modelo BPNN. (12) Reinicie o loop. terminar até (2) Calcule os parâmetros do algoritmo VMD usando a Fórmula 14. (11) Atualize os dados históricos e execute as etapas (1) a (4). TA 1 = O dia final do período de previsão. Algoritmo 1 modelo GVL Depois disso, o BPNN é adotado para criar um mapeamento entre as séries de erros de predição e as séries de fatores escolhidas. Com a série de erros de predição e a série de fatores escolhidos como entrada, o BPNN é treinado.(6) Com 100% dos dados históricos como entrada, construa o modelo GVL 2 de acordo com as etapas (1) a (4) do Algoritmo 1. (7) Gere a entrada do processo de previsão usando a Fórmula 17. (9) TA TA + 1. Então, para comprovar a eficácia dos métodos propostos, projetamos quatro conjuntos de experimentos. Especificamente, no experimento 1, pretendemos demonstrar a superioridade dos modelos e provar que a implementação do VMD melhora o desempenho da rede LSTM. Exploramos a eficácia da Regra de Escolha de Parâmetros no experimento 2. Nos experimentos 3 e 4, demonstramos ainda mais a superioridade dos modelos. Nesta seção, avaliamos o desempenho do modelo GVL e do modelo GVL-MB. Primeiramente, de acordo com nossa experiência, os parâmetros da rede LSTM dos modelos GVL e GVL-MB estão listados na Tabela 2. Consulte a referência [50] para diferentes configurações de parâmetros da rede LSTM. (13) Reinicie o loop. fim se //Parte de previsão (5) O dia de início do período de previsão é TA. repita (6) Obtenha dados dos últimos 31 dias de negociação: A31½nðn ¼ 1; 2; ...; 31Þ. 3.1.1. Configurações do experimento 1 (4) Calcule a série de erros de previsão com o valor real e o valor previsto dos 50% restantes dos dados históricos. //Atualizar parte // Se necessário, atualize os dados históricos quando novos dados chegarem. (Se os dados históricos forem atualizados assim que novos dados chegarem, o modelo GVL-MB é o chamado modelo de decomposição em tempo de leitura [47– 49].) se a precisão da previsão do modelo cair com a evolução do tempo então (11) Pause o ciclo. (2) Com 50% dos dados históricos como entrada, construa o modelo GVL 1 de acordo com as etapas (1) a (4) do Algoritmo 1. 15. até TA 1 = O dia final do período de previsão. Na parte de predição, com os fatores do dia T-1 como entrada, o BPNN gera o erro potencial de predição do dia T. Em seguida, o modelo GVL 2 é treinado por 100% dos dados históricos. Com a data histórica do dia T-31 ao dia T-1 como entrada, o modelo GVL 2 prevê os dados do dia T. Depois disso, combinando o erro potencial de previsão do dia T e a saída de previsão do modelo GVL 2, o os dados finais previstos do dia T são gerados. Ao contrário da rede LSTM, o BPNN é incapaz de estabelecer uma memória de longo prazo dos fatores. Portanto, na previsão de longo prazo, os dados históricos devem ser renovados frequentemente para atualizar o BPNN. //Atualizar parte // Se necessário, atualize os dados históricos quando novos dados chegarem. (Se os dados históricos forem atualizados assim que novos dados chegarem, o modelo GVL é o chamado modelo de decomposição em tempo de leitura [47– 49].) se a precisão da previsão do modelo cair com a evolução do tempo, então (10) Pause o laço. //Parte de previsão (7) O dia de início do período de previsão é TA. repita (8) Preveja os dados financeiros do dia TA usando o modelo GVL 2 de acordo com as etapas (6) a (8) no Algoritmo 1. //Parte de treinamento (1) Obtenha dados históricos: ANA ½nðn ¼ 1; 2; ... ;NAÞ. 3.1. Experiência 1 Conjunto de dados 1 Escolhemos os mesmos dados financeiros da referência [23]. Eles são o preço de fechamento da ação West Texas Intermediate (WTI), a taxa de câmbio do dólar americano em relação ao dólar canadense série, treine o modelo BPNN. De acordo com a descrição anterior, apresentamos nesta parte o pseudocódigo dos modelos GVL e GVL-MB. Para conveniência de ilustração, usamos o mesmo exemplo da Seção 2.2. Supondo que temos dados históricos ANA ½nðn ¼ 1; 2; ... ;NAÞ sobre o preço de fechamento da ação A. O pseudocódigo dos modelos GVL e GVL-MB são fornecidos no Algoritmo1 e Algoritmo2, respectivamente. (8) Preveja os dados do dia TA de acordo com a Fórmula 18. 50% dos dados históricos. Em seguida, o modelo GVL 1 bem treinado é usado para prever os 50% restantes dos dados históricos. A série de erros de previsão é calculada comparando o valor real e o valor previsto dos 50% restantes dos dados históricos. (5) Com a série de erros de previsão e os fatores escolhidos 2.5. Pseudocódigo dos modelos GVL e GVL-MB (4) Treinar a rede LSTM de acordo com a Fórmula 16. (3) Prever os 50% restantes dos dados históricos usando o modelo GVL 1 de acordo com a parte de previsão do Algoritmo 1. (12) Atualize os dados históricos e execute as etapas (1) a (4). 3. Experimente //Parte de treinamento (1) Obtenha dados históricos: ANA ½nðn ¼ 1; 2; ... ;NAÞ. (10) Calcule os dados de previsão finais do dia TA combinando os dados previstos da etapa (8) e o erro de previsão da etapa (9). (3) Gere a entrada do processo de treinamento usando Fórmula Y. Huang et al. / Neurocomputação 425 (2021) 207–218212 Machine Translated by Google é 3.1.2. Resultados do experimento 1 Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, respectivamente. o VMD. A Tabela 3 mostra os parâmetros gerados pelo GA no do que o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD, 20% da série é utilizada para avaliação. No processo de treinamento, o REMSE. Ele pode ampliar o efeito de valores discrepantes e mostrar o desvio dos valores previstos. Além disso, a influência do mesmo precisamos calcular o erro real dos experimentos e introduzir as métricas MAPE. Suas definições estão listadas abaixo: modelo é o pior. Em particular, os valores MAE do GVL-MB entrada de recurso. O modelo é denominado modelo LSTM-U. Parâmetros do VMD De acordo com a descrição da Seção 2.1, 12-26. O conjunto de dados 1 é mostrado na Fig. 3. Em cada série, os primeiros 80% (USDCAD) e o Índice de Volatilidade (VIX). A duração dos dados É uma métrica fundamental. Além disso, considerando que a precisão é o melhor entre os modelos. O modelo GVL é ligeiramente inferior aoerro (MAPE) e a média raiz dos erros quadráticos (RMSE) como métricas de avaliação. MAE é igual ao valor médio do erro absoluto. Caso WTI Da Tabela 4, o desempenho do modelo GVL-MB modelos. Especificamente, o modelo Lahmiri-EMD foi desenhado por Lah-miri [23]. Ele usa EMD e a rede neural de regressão geral. à Tabela 3, a VMD-Perda das partes de treinamento nos três casos Métricas de Avaliação De acordo com a referência [23], selecionamos Conduzimos experimentos no WTI, VIX e USDCAD Modelos de linha de base Escolhemos o modelo ARMA, modelo FFNN, modelo são 3,34%, 25,33%, 92,34%, 44,36%, 98,58% e 99,09% menos a seleção de parâmetros do VMD emprega a regra de escolha de parâmetros. O GA é utilizado para otimizar os parâmetros de da série são considerados dados históricos, enquanto o restante mencionado acima são todos os dias de negociação de 02/01/2008 a 2013- o modelo GVL-MB. O modelo LSTM-U ocupa o terceiro lugar e ARMA dos modelos é muito influenciado pelos outliers, então apresentamos o erro em pontos de dados com cardinalidade diferente não é o mesmo. Então a rede LSTM com apenas os dados históricoscomo univariados Então, o modelo Lahmiri-VMD [23] emprega VMD e rede neural de regressão geral. Finalmente, construímos um modelo de previsão usando o erro absoluto médio (MAE), a porcentagem média absoluta cada um pode obter o valor mínimo. casos. Os resultados experimentais são mostrados nas Tabelas 4–6. Modelo Lahmiri-EMD, modelo Lahmiri-VMD e LSTM-U como linha de base três casos respectivamente. Quando definimos os parâmetros de acordo apenas os dados históricos serão decompostos pelo algoritmo VMD. ðValor realðiÞ Valor previstoðiÞÞ eu¼1XT PT i¼1jValorrealðiÞ ValorprevistoðiÞj Valor realðiÞ PT i¼1ðValorrealðiÞ ValorprevistoðiÞÞ2 onde T é o comprimento da sequência e i representa o script de tempo. ea Tabela 4 Resultados experimentais do caso WTI. Tabela 5 Resultados experimentais do caso VIX. Parâmetros da rede LSTM. Parâmetros do VMD nos três casos gerados pelo algoritmo genético. Tabela 3mesa 2 11.4755 Modelo ARMA 1.5933 1.00E07 15 0,677091 0,704201 Parâmetros REQM 116.751 1,5795 1.9322 0 LSTM-U 0,878758 0,909116 MAE Número do tamanho do lote ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23]. 1.00E07 22 4.345476 4.581722 Modelo 61.9352 96.9726 LSTM-U 0,006 Lahmiri-EMDÿ ARMA 1,578895 MAPE 30 K 38,32 GVL-MB(melhor) 1.238721 WTI Valor 3,8437 1,6727 37,24 9,3023 0,859166 Lahmiri-EMDÿ 0,916092 0,946775 ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23]. 25.2435 GVL-MB(melhor) 1.00E07 Número de passos de tempo 1.043523 1 Figura 3. O conjunto de dados 1. Lahmiri-VMD Y. Huang et al. / Neurocomputação 425 (2021) 207–218 7.889263 1.142075 12.7085 REQM Taxa de Aprendizagem 5 Lahmiri-VMD 64.3726 97.1308 1.176908 MAE 25.5625 11.3716 25.16 62.3786 VIX Parâmetro FFNN 1,058757 2.1094 GVL 0 25 GVL 10.0399 1.176233 USDCAD Caso 213 50 1.14825 FFNN 1,00E+01 1,00E+01 1,00E+01 Número de unidades da camada oculta 4.3238 MAPE 62.2902 Conjunto de dados 1 150 800 Used para avaliação 1200 50 Uesd para treinamento 200 Uesd para treinamento 1200 600 1.4 200 200 80 1 1000 600 40 600 Uesd para treinamento 1400 1000 800 100 400 1000 Used para avaliação 1400 1400 Used para avaliação 800 1.2 400 60 400 1200 20 Hora (dia) Hora (dia) VIX WTI USDCAD Hora (dia) Taxa Preço Preço T ; j T MAPE ¼ T 1 MAE¼ 2s REQM ¼ ð22Þ ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiff j 100%; ; Machine Translated by Google Tabela 7 Resultados experimentais do caso USDCAD. Tabela 6 Resultados experimentais do parâmetro selecionado de diferentes maneiras. 8.7801 Lahmiri-EMDÿ 0,0358 0,8979 parâmetros Valor K K=7 0,924754 0,962879 1,181462 K = 9 0,977303 1,017870 1,221110 K = 10 0,928081 0,966488 1,183573 GVL(melhor) 0,003685 REQM K = 12 0,0294 0,0289 0,2524 MAPE K = 11 MAPE 214 FFNN 0,2535 1.1152 K = 6 0,967428 1,007521 1,206700 A ga (melhor) K = 8 0,958532 0,998080 1,211350 Parâmetro gerado por Modelo LSTM-U 0,0042 ARMA Usado frequentemente 0,949279 0,987709 1,206502 K = 25 GVL-MB 0,007803 REQMMAE Y. Huang et al. / Neurocomputação 425 (2021) 207–218 0,005902 0,002845 0,003261 0,576187 0,277521 0,318678 2,9286 2,8773 24,7592 ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23]. MAE 0,980584 1,020916 1,230966 0,909116 0,946775 1,176233 Lahmiri-VMD 0,0352 Caso USDCAD Da Tabela 6, o desempenho do modelo GVL modelo GVL-MB são reduzidos em 5,16%, 44,92%, 83,00%, 61,79%, 3.3. Experimento 3 o Índice Hang Seng (HSI) e a Bolsa de Valores do Financial Times os valores são 0,924754, 0,962879 e 1,181462, respectivamente. Entretanto, os valores MAE, MAPE e RMSE do modelo GVL com Caso HSI Na Tabela 9, o desempenho do modelo GVL-MB é parâmetro VMD frequentemente usado (K = 6; 7; 8; ; 12) e compare Modelo FFNN e modelo ARMA, os valores MAE do modelo GVL Os valores MAPE do modelo GVL-MB são 3,24%, 26,05%, 92,79%, Testamos os parâmetros usados com frequência e o parâmetro detalhes. na Figura 4. Pré-processamos os dados de acordo com a referência [29]. modelo, e o modelo ARMA, os valores MAE do modelo GVL-MB são 0,0144, 2,6090 e 0,0196, respectivamente. Entre os modelos da série VMD- RKELM, o modelo com a função de kernel Polinomial é o melhor. Os valores MAE, MAPE e RMSE são 0,0120, os dados históricos. Os 33,3% restantes da série são utilizados para excede o modelo GVL-MB. LSTM-U sobe para o segundo lugar e o segundo lugar enquanto o modelo LSTM-U permanece em terceiro. Comparado com o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD, o modelo tem melhor desempenho quando a regra de escolha de parâmetros Em primeiro lugar, a série WTI no conjunto de dados 1 é usada como conjunto de dados para Nesta parte, pretendemos demonstrar a eficácia do Extreme Learning Machine e o VMD (VMD-RKELM), o modelo respectivamente. Os valores RMSE do modelo GVL são reduzidos em do que o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD, são reduzidos em 20,42%, 45,88%, 35,05%, 69,32% e 76,74%, respectivamente. Os valores MAPE do modelo GVL-MB são reduzidos em o melhor e o modelo GVL fica em segundo lugar. Entre o Conjuntos de dados de 100 índices (FTSE). A duração dos dados mencionados 82,73% e 93,03%, respectivamente. Os valores de RMSE do modelo GVL-MB são reduzidos em 1,44%, 9,12%, 75,87%, 45,99%, 97,28%, rede. Métricas de Avaliação De acordo com a referência [29], MAE, MAPE 42,50%, 98,58% e 99,06% menos que o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD, modelo Lahmiri-VMD, modelo FFNN, são reduzidos em 51,80%, 12,77%, 90,32%, 90,16%, 98,87% e obtido por GA. Os resultados experimentais são mostrados na Tabela 7. Nesta parte, demonstramos ainda a superioridade dos modelos propostos quando os utilizamos para prever o índice de mercado Parâmetros selecionados Através da descrição da Regra de Escolha de Parâmetros na Seção 2.1, o GA é adotado para otimizar os parâmetros do VMD. A Tabela 8 mostra os parâmetros gerados pelo GA em 2,2054, 0,0164, respectivamente. Comparado com o modelo GVL, o O modelo GVL-MB cai para o terceiro. Comparado com o GVL-MB avaliação. No processo de treinamento, apenas os dados históricos serão os parâmetros gerados pelo GA são 0,909116, 0,946775 e com o modelo GVL cujo parâmetro do algoritmo VMD é misturando o Robust Kernel Extreme Learning Machine e o EMD 52,78%, 12,28%, 89,71%, 89,53%, 98,55% e 99,67%, respectivamente. Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, respectivamente. e RMSE são escolhidos como métricas de avaliação. 99,68%, respectivamente. Os valores MAPE do modelo GVL são e modelo ARMA, respectivamente. Os valores RMSE do GVL-MB Regra de escolha de parâmetros. Construímos o modelo GVL com o 27,04%, 56,44%, 48,47%, 78,66% e 82,41%, respectivamente. O 3.3.1. Configurações do experimento 3 Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, os valores MAE do modelo GVL-MB são reduzidos em 3,85%, 21,19%, 82,38%, é adotadopara gerar os parâmetros do algoritmo VMD. experimento 2. Em seguida, selecionamos MAE, MAPE e RMSE como avaliação Entre os parâmetros frequentemente utilizados, quando K = 7, o GVL dois casos, respectivamente. (EMD-RKELM), o modelo de regressão vetorial de suporte (SVR) e Caso VIX Conforme mostrado na Tabela 5, o desempenho do GVL-MB Resumindo, os métodos propostos conseguem obter o melhor desempenho nos três casos. Estes resultados experimentais comprovam a dados. 3.2.2. Resultados do experimento 2 modelo, modelo LSTM-U, modelo Lahmiri-EMD, modelo Lahmiri-VMD, acima estão todos os dias de negociação de 04 de janeiro de 2010 a 12 de janeiro e 89,61%, respectivamente. Modelos da série EMD-RKELM, o modelo com a tangente hiperbólica 1,176233, que são 5,44%, 5,42% e 2,99% melhores que os de gerado pelo GA. modelo atinge o melhor desempenho. É MAE, MAPE e RMSE 3.3.2. Resultados do experimento 3 3.2. Experimento 2 reduzido em 51,83%, 12,91%, 90,52%, 90,35%, 98,88% e 96,84%, modelo são 2,90%, 27,67%, 95,48%, 45,86%, 98,17% e 99,02% menos Modelos de linha de base Usamos o modelo que mistura o Kernel Robusto Métricas. Não entraremos em detalhes aqui. Consulte a Seção 3.1.1 para melhor modelo EMD-RKELM, o melhor modelo VMD-RKELM, o SVR ser decomposto pelo algoritmo VMD. O conjunto de dados 3 é mostrado Conjunto de dados 3 Selecionamos os conjuntos de dados mencionados em [29]. Eles são 59,52%, 98,18% e 92,72%, respectivamente. Os valores MAPE do modelo também é o melhor entre os modelos. O modelo GVL ainda leva 3.2.1. Configurações do experimento 2 o modelo GVL com K = 7. O experimento 2 indica que o GVL Modelo de média móvel autorregressiva (ARMA) como modelos de linha de base. eficácia dos métodos propostos e indicam que a implementação do VMD melhora o desempenho do LSTM a função do kernel é a melhor. Os valores MAE, MAPE e RMSE 2016. Em cada série, os primeiros 66,7% da série são considerados Machine Translated by Google Usado para avaliação Usado para avaliação Usado para treinamento Usado para treinamento Ponto Ponto o processo de treinamento, apenas os dados históricos serão decompostos Experimentos nos casos HSI e FTSE mostram que a proposta 1,8822 e 0,0166, respectivamente. Comparado com o modelo GVL, como modelos de base. O modelo misturando a regressão do vetor de suporte e o VMD (VMD-SVR), e o modelo misturando o suporte Nesta parte, demonstramos ainda mais a superioridade do programa Os valores de RMSE do modelo GVL-MB são reduzidos em 6,56%, 22,83%, Conjunto de dados 4 Usamos os conjuntos de dados mencionados na referência [51]. Modelo SVR e modelo ARMA, os valores MAE do GVL-MB Além do mais, o modelo de rede neural de vetor de suporte (SVNN), dados de índice. (USDCNY) e a taxa de câmbio do dólar americano em relação ao japonês (ARIMA) são escolhidos como modelos de linha de base. Caso FTSE Da Tabela 9, o desempenho do modelo GVL-MB 90,53%, respectivamente. Os valores MAPE do modelo GVL-MB são nos dias de negociação de 04 de janeiro de 2010 a 29 de dezembro de 2017. Em Modelos da série EMD-RKELM, o modelo com a tangente hiperbólica 29,13%, 57,80%, 56,27%, 89,13% e 94,19%, respectivamente. Seção 2.1, os resultados da seleção de parâmetros do VMD pelo Modelos de linha de base Selecionamos o modelo misturando a rede neural de vetor de suporte e o VMD (VMD-SVNN), e o modelo misturando a rede neural de vetor de suporte e o EMD (EMD-SVNN) dados. Os restantes 22,5% da série são utilizados para avaliação. Em são 0,0131, 2,1460 e 0,0172, respectivamente. Entre os modelos da série VMD-RKELM, o modelo com a função de kernel Polinomial é o melhor. Os valores MAE, MAPE e RMSE são 0,0121, Métricas de Avaliação De acordo com a referência [51], o MAPE é 3.4.1. Configurações do experimento 4 3.4. Experimento 4 pelo algoritmo VMD. O conjunto de dados 4 é mostrado na Fig . o melhor modelo EMD-RKELM, o melhor modelo VMD-RKELM, o a regressão vetorial e o EMD (EMD-SVR) também são construídos. modelos têm melhor precisão de previsão para previsão de mercado modelos propostos aplicados para prever os dados da taxa de câmbio. modelo são reduzidos em 30,47%, 72,67%, 70,41%, 83,35% e Eles são a taxa de câmbio do dólar americano em relação ao yuan chinês 7,77%, 82,67% e 95,90%, respectivamente. o modelo SVR e a média móvel integrada autoregressiva Iene (USDJPY). A duração dos dados mencionados acima é toda é o melhor e o desempenho do modelo GVL é o próximo. Entre o reduzido em 28,12%, 76,69%, 73,42%, 87,71% e 91,49%, respectivamente. Os valores RMSE do modelo GVL-MB são reduzidos em Resultados dos parâmetros selecionados De acordo com a descrição de a função do kernel é a melhor. Os valores MAE, MAPE e RMSE cada série, os primeiros 87,5% da série são considerados como o histórico escolhida como métrica de avaliação do experimento 4. A regra de escolha de parâmetros é mostrada na Tabela 10. e Hora (dia) FTSE HSI Hora (dia) 1400 1200 1400 1200 1000 2,5 5.000 2 1000 800 6.000 800 600 3 7.000 104 600400 400 8.000 200 200 4000 1,5 Conjunto de dados 3 0,5003 0,6960 2,1587 REQM 0,0171 1.00E04 Figura 4. O conjunto de dados 3. 6.4615 EMD-RKELM (kernel gaussiano) 0,01310,0144 GVL 5.3245 K 2,9075 2,7349 2,2054 2,3067 2,3810 2,4226 VMD-RKELM (kernel gaussiano) 0 1 0,0215 HSI As estatísticas das métricas de avaliação do modelo são citadas no artigo [29]. 2.1460 0,0073 MAE 0,0668 0,0177 Caso FTSE EMD-RKELM (kernel Wavelet) 1,1364 1,5576 2,6593 20 15 ARMA 2.6090 EMD-RKELM (kernel polinomial)* 0,0167 0,0378 VMD-RKELM (kernel Wavelet) Modelo 0,0227 0,0210 0,0164 0,0173 0,0176 0,0182 VMD-RKELM (kernel polinomial) FTSE 0,0172 MAPE 0,0873 0,1249 0,0181 0,0151 0,0162 0,0203 Y. Huang et al. / Neurocomputação 425 (2021) 207–218 0,0144 0,0148 0,0121 0,0125 0,0124 0,0126 SVR Caso HSI 4.0718 1.00E06 0,0169 REQM 0,0103 Caso 0,0036 0,0051 0,0132 0,0167 0,0155 0,0120 0,0124 0,0128 0,0133 VMD-RKELM (kernel hiperbólico tangente) 0,0166 0,0335 0,0196EMD-RKELM (kernel hiperbólico tangente) MAE Parâmetros 215 2,1627 2,2102 1,8822 1,9138 1,8834 1,9120 0,0078 0,0098 0,0148 MAPE 1,00E+01 1,00E+01 5.87830,3688 0,0254 0,0175 GVL-MB(melhor) * Tabela 9 Resultados experimentais dos casos HSI e FTSE. Parâmetros do VMD nos dois casos gerados pelo algoritmo genético. Tabela 8 a é Machine Translated by Google Usado para Usado para treinamento avaliação Usado para treinamento avaliação Usado para Taxa Taxa A rede LSTM alcança melhor desempenho com variáveis multi-recursos como entradas do que com um recurso univariado todos os casos dos experimentos 3 e 4. Isso implica que o que a adoção do VMD aprimora a rede LSTM ao do que o modelo LSTM-U. Tanto o modelo GVL quanto o LSTM-U modelo, o modelo EMD-SVNN, o modelo VMD-SVR e o Modelo LSTM-U. Indica que quando o nível de flutuação é o método de redução de erros de previsão pode se tornar inválido. experimento 4, os modelosGVL e GVL-MB venceram o SVNN modelo SVNN, o modelo EMD-SVR, o modelo EMD-SVNN, o Caso USDJPY Da Tabela 11, o desempenho do GVL-MB elevado, como os casos WTI e VIX, o erro de previsão combinações. parâmetro VMD frequentemente usado. Indica que a proposta Resume-se que os modelos propostos podem obter melhores são modelos robustos de previsão de dados financeiros que podem prever (4) No experimento 1, o modelo GVL apresenta melhor precisão de predição que o modelo Lahmiri-VMD e o modelo Lahmiri-EMD. entrada. Modelo VMD-SVNN, os valores MAPE do modelo GVL-MB são o método de redução de erros de previsão é eficaz. No entanto, no decompor um recurso de entrada em muitas entradas. O resultado modelo é o melhor entre os modelos no caso USDCNY. O modelo VMD-SVR e o modelo VMD-SVNN, os valores MAPE de modelo, o modelo SVR e o modelo ARIMA. Isso indica que (6) De acordo com os experimentos 1, 3 e 4, os modelos propostos (3) No experimento 1, os modelos GVL e GVL-MB executam modelo é o melhor entre os modelos no caso USDJPY. O GVL o método de redução reduz o erro de predição e o modelo GVL-MB tem maior precisão que o modelo GVL. Quando o desempenho para prever a taxa de câmbio. diferentes tipos de dados financeiros. No experimento 3, o modelo GVL apresenta melhor desempenho que do modelo GVL-MB são reduzidos em 2,88%, 56,29%, 44,70%, mostram superioridade na previsão do preço das ações, índice de mercado e os modelos GVL e GVL-MB apresentam mais vantagens que O modelo GVL está em segundo lugar. Comparado com o modelo GVL, (5) O modelo GVL-MB alcança melhor precisão de previsão do que o A regra de escolha de parâmetros é eficaz. 3.5. Discussão de resultados experimentais o modelo EMD-RKELM e o modelo VMD-RKELM. No experimento 4, o modelo GVL vence o EMD-SVR, o EMD-SVNN, o 3.4.2. Resultados do experimento 4 melhor que o modelo ARMA e o modelo FFNN. No experimento 3, os modelos GVL e GVL-MB apresentam melhor desempenho que o modelo ARMA e o modelo SVR. Em nível de flutuação é baixo, como o caso do USDCAD, o reduzido em 12,60%, 70,51%, 57,55%, 58,27%, 49,58%, 46,08%, Caso USDCAD do experimento 1, o modelo GVL vence o modelo GVL-MB e o modelo GVL-MB é até derrotado pelo também comprova o achado no estudo de caso [52]. Ou seja, o taxa de câmbio. Indica que os modelos GVL e GVL-MB os modelos tradicionais de previsão de dados financeiros. 38,87%, 24,61%, 22,23%, 15,75%, 2,88%, respectivamente. o modelo e o modelo VMD-SVNN estão em segundo lugar. Comparado com o modelo GVL, o modelo ARIMA, o modelo SVR, o o modelo ARIMA, o modelo SVR, o modelo SVNN, o EMD-SVR Modelo GVL nos casos WTI e VIX do experimento 1 e use apenas os próprios dados financeiros como recurso de entrada. Isso significa (2) No experimento 1, o modelo GVL apresenta melhor desempenho VMD-SVR e o modelo VMD-SVNN. Isso implica que a combinação da rede VMD e da rede LSTM é melhor do que outras (1) No experimento 2, o modelo GVL com parâmetro VMD gerado pelo GA tem desempenho melhor que os modelos GVL com Discutimos as descobertas dos experimentos abaixo: Caso USDCNY Da Tabela 11, o desempenho do GVL-MB 31,61% e 25,01%, respectivamente. Tabela 11 Resultados experimentais dos casos USDCNY e USDJPY. Parâmetros do VMD nos dois casos gerados pelo algoritmo genético. Tabela 10 Conjunto de dados 4 1200 1600 100 6 1400 600 800 1600 1000 400 800 6,5 120 200 600 140 1800 2000 7 400 2000 60 1200 200 1800 80 1000 1400 USD/JPY Hora (dia) Hora (dia) USDCNY 1.00E07 0,354 0,293 0,274 0,216 0,197 ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [51]. 0,523 0,406 1 Caso MAPE/USDCNY SVR USDCNY 0,468 EMD-SVR GVL-MB(melhor) EMD-SVNN 1,00E+02 1,00E+02 Figura 5. O conjunto de dados 4. K 216 ARIMAÿ 0,713 VMD-SVNN 1.00E06 0,394 0,645 1 Modelo 0,902 0,507 Caso MAPE/USDJPY SVNN 0,406 Parâmetros USD/JPY VMD-SVR GVL 0,348 Caso 0,148 0,169 0,501 32 32 Y. Huang et al. / Neurocomputação 425 (2021) 207–218 a é e Machine Translated by Google Declaração de interesse concorrente Os autores declaram que não têm interesses financeiros concorrentes ou relações pessoais conhecidas que possam ter influenciado o trabalho relatado neste artigo. Neste artigo, propusemos um novo modelo de previsão de dados financeiros baseado em VMD, nomeadamente o modelo GVL. Emprega a rede LSTM, o GA e o BPNN. Em seguida, a perda de VMD e a regra de escolha de parâmetros são definidas para orientar a seleção dos parâmetros do algoritmo VMD. Concretamente, o AG é utilizado para resolver o problema de otimização na seleção de parâmetros. Então, um método de redução de erros de predição é proposto para melhorar a precisão da predição do modelo GVL. Neste método, o BPNN é adotado para criar um mapeamento entre o erro de previsão e os fatores escolhidos dos dados financeiros. Concluindo, em comparação com os algoritmos de linha de base, os modelos propostos são de alta precisão de previsão. No entanto, o uso de algoritmos de otimização para gerar os parâmetros VMD consome parte dos recursos computacionais. Portanto, encontrar uma maneira mais simples de gerar os parâmetros VMD será nosso estudo adicional. 4. Conclusão Referências 217 [31] K. Greff, RK Srivastava, J. Koutník, BR Steunebrink, J. Schmidhuber, Lstm: uma odisséia no espaço de pesquisa, IEEE Trans. Rede Neural. Aprender. Sist. 28 (2016) 2222– 2232. Econometro. 31 (1986) 307–327. [36] F. Kadri, M. Baraoui, I. Nouaouri, Uma abordagem de aprendizagem profunda baseada em lstm com aplicação para prever admissões em departamentos de emergência hospitalar, em: 2019 Conferência Internacional sobre Engenharia Industrial e Gestão de Sistemas (IESM), IEEE, 2019, páginas 1–6. [16] S. Kumar, D. Ningombam, Previsão de curto prazo dos preços das ações usando memória de longo e curto prazo, em: 2018 Conferência Internacional sobre Tecnologia da Informação (ICIT), 2018, pp. org/10.1109/ ICIT.2018.00046. [33] D.-R. Liu, S.-J. Lee, Y. Huang, C.-J. Chiu, Previsão da poluição do ar com base na rede neural lstm baseada na atenção e na aprendizagem de conjunto, Expert Syst. (2019). [19] M. Risse, Combinando decomposição wavelet com aprendizado de máquina para prever retornos de ouro, Int. J. Previsão. 35 (2019) 601–615. [24] R. Bisoi, PK Dash, AK Parida, Decomposição de modo variacional híbrido e máquina de aprendizado extremo de kernel robusto evolutivo para preço de ações e previsão de movimento diariamente, Appl. Computação suave. 74 (2019) 652–678, https://doi.org/10.1016/ j.asoc.2018.11.008. Finanças 42 (1987) 281–300. [38] JH Holland et al., Adaptação em Sistemas Naturais e Artificiais: Uma Análise Introdutória com Aplicações à Biologia, Controle e Inteligência Artificial, MIT Press, 1992. [18] MR Vargas, CEM dos Anjos, GLG Bichara, AG Evsukoff, Aprendizado profundo para previsão do mercado de ações usando indicadores técnicos e artigos de notícias financeiras, [21] Z. Qian, Y. Pei,H. Zareipour, N. Chen, Uma revisão e discussão de modelos híbridos baseados em decomposição para aplicações de previsão de energia eólica, Appl. Energia 235 (2019) 939– 953. [26] Y. Wu, J. Gao, Aplicação de rede neural de vetor de suporte com decomposição de modo variacional para previsão de taxa de câmbio, Soft Comput. 23 (2019) 6995–7004, https://doi.org/ 10.1007/s00500-018-3336-1. [11] M. Paluch, L. Jackowska-Strumillo, Modelos híbridos combinando análise técnica e fractal com ANN para previsão de curto prazo de valores próximos na bolsa de valores de Varsóvia, Appl. Sci.-Basel 8 (2018), https://doi.org/10.3390/app8122473 . [1] MT Gonzalez-Perez, Índices de volatilidade sem modelo na literatura financeira: uma revisão, Int. Rev. Finanças 40 (2015) 141–159, https://doi.org/10.1016/j. iref.2015.02.018. 21 (1969) 243–247. [40] B. Mc Ginley, J. Maher, C. O'Riordan, F. Morgan, Mantendo a diversidade populacional saudável usando cruzamento adaptativo, mutação e seleção, IEEE Trans. Evol. Computação. 15 (2011) 692–714. [44] A. Aslanargun, M. Mammadov, B. Yazici, S. Yolacan, Comparação de arima, redes neurais e modelos híbridos em séries temporais: previsão de chegada de turistas, J. [28] X. Li, Y. Wei, A dependência e a repercussão do risco entre o mercado de petróleo bruto e o mercado de ações da China: novas evidências de um método de cópula baseado em decomposição de modo variacional, Energy Econ. 74 (2018) 565–581, https://doi.org/10.1016/ j.eneco.2018.07.011 . Processo de sinal. 62 (2014) https://doi.org/10.1109/TSP.2013.2288675 . [3] BM Henrique, VA Sobreiro, H. Kimura, Revisão de literatura: técnicas de aprendizado de máquina aplicadas à previsão do mercado financeiro, Expert Syst. Apl. 124 (2019) 226–251, https:// doi.org/10.1016/j.eswa.2019.01.012. Assoc. 65 (1970) 1509–1526. [13] T. Gao, Y. Chai, Melhorando a previsão do preço de fechamento de ações usando rede neural recorrente e indicadores técnicos, Neural Comput. 30 (2018) 2833–2854, https://doi.org/10.1162/ neco_a_01124. [42] L. Wang, Y. Zeng, T. Chen, Rede neural de retropropagação com algoritmo de evolução diferencial adaptativo para previsão de séries temporais, Expert Syst. Apl. 42 (2015) 855–863. Y. Huang et al. / Neurocomputação 425 (2021) 207–218 [45] Y. Zhao, S. Fan, Análise de previsão de ações com base em aprendizagem profunda e algoritmos de investimento quantitativos com múltiplos indicadores, em: 3ª Conferência Internacional sobre Engenharia da Computação, Ciência da Informação e Tecnologia de Aplicação (ICCIA 2019), Atlantis Press, 2019. . [8] T. Bollerslev, Heterocedasticidade condicional autoregressiva generalizada, J. [30] S. Hochreiter, J. Schmidhuber, Memória de longo prazo, Computação Neural. 9 (1997) 1735–1780. [5] H. Akaike, Ajustando modelos autoregressivos para previsão, Ann. Inst. Estado. Matemática. [35] H. Liu, H. Xu, Y. Yan, Z. Cai, T. Sun, W. Li, Previsão do tempo de chegada do ônibus com base em lstm e vetor de características espaço-temporais, IEEE Access 8 (2020) 11917–11929 . [15] R. Ray, P. Khandelwal, B. Baranidharan, Uma pesquisa sobre previsão do mercado de ações usando técnicas de inteligência artificial, em: 2018 Conferência Internacional sobre Sistemas Inteligentes e Tecnologia Inventiva (ICSSIT), IEEE, 2018, pp. . [23] S. Lahmiri, Uma abordagem de decomposição de modo variacional para análise e previsão de séries temporais econômicas e financeiras, Expert Syst. Apl. 55 (2016) 268–273, https://doi.org/ 10.1016/j.eswa.2016.02.025. [32] Y. Zeng, X. Liu, modelo de previsão de flutuação de preços de ações A baseado em lstm, em: 2018 14ª Conferência Internacional sobre Semântica, Conhecimento e Grades (SKG), IEEE, 2018, pp. em: Conferência Conjunta Internacional sobre Redes Neurais de 2018 (IJCNN), 2018, pp. 1–8, https://doi.org/10.1109/IJCNN.2018.8489208. [9] J. Hull, A. White, A precificação de opções sobre ativos com volatilidades estocásticas, J. [37] Y. Liu, C. Yang, K. Huang, W. Gui, Previsão de preços de metais não ferrosos com base na decomposição do modo variacional e rede lstm, Knowl.-Based Syst. 188 (2020) 105006. [20] J. Cao, Z. Li, J. Li, Modelo de previsão de séries temporais financeiras baseado em ceemdan e lstm, Physica A 519 (2019) 127–139. [34] GN Kouziokas, Redes neurais profundas de memória de longo e curto prazo (lstm) na previsão de aparelhos de energia, em: 2019 Panhellenic Conference on Electronics & Telecommunications (PACET), IEEE, 2019, pp. [25] S. Lahmiri, Previsão intradiária do preço das ações com base na decomposição do modo variacional, J. Comput. Ciência. 12 (2016) 23–27, https://doi.org/10.1016/j. jocs.2015.11.011. [10] S. Borovkova, I. Tsiamas, Um conjunto de redes neurais LSTM para classificação do mercado de ações de alta frequência, J. Forecast. 38 (2019) 600–619, https://doi.org/10.1002/for.2585 . [39] K.-D. Lu, G.-Q. Zeng, J. Chen, W.-W. Peng, Z.-J. Zhang, Y.-X. Dai, Q. Wu, Comparação de algoritmos genéticos codificados binários com diferentes estratégias de seleção para problemas de otimização contínua, em: Congresso Chinês de Automação de 2013, IEEE, 2013, pp. Redes para Percepção, Elsevier, 1992, pp. [22] K. Dragomiretskiy, D. Zosso, decomposição do modo variacional, IEEE Trans. [27] S. Lahmiri, Memória longa nas tendências dos mercados financeiros internacionais e movimentos curtos durante a crise financeira com base na decomposição do modo variacional e na análise de flutuação prejudicada, Physica A 437 (2015) (2008) 130–138, https://doi. org/10.1016/ j.physa.2015.05.067. [2] A. Kazem, E. Sharifi, FK Hussain, M. Saberi, OK Hussain, Regressão vetorial de suporte com algoritmo vaga-lume baseado no caos para previsão de preços no mercado de ações, Appl. Computação suave. 13 (2013) 947–958, https://doi.org/10.1016/j. asoc.2012.09.024. [6] GE Box, DA Pierce, Distribuição de autocorrelações residuais em modelos de séries temporais de média móvel integrados autoregressivos, J. Am. Estado. [12] M.-C. Lee, Usando máquina de vetores de suporte com um método híbrido de seleção de recursos para a previsão de tendências de ações, Expert Syst. Apl. 36 (2009) 10896–10904, https:// doi.org/10.1016/j.eswa.2009.02.038. [41] AJ Keown, JM Pinkerton, Anúncios de fusão e atividade de negociação com informações privilegiadas: uma investigação empírica, J. Finance 36 (1981) 855–869, https://doi.org/10.1111/ j.1540-6261.1981.tb04888.x . [4] GS Atsalakis, KP Valavanis, Levantamento de técnicas de previsão do mercado de ações - parte i: métodos convencionais, J. Comput. Ótimo. Economia. Finanças 2 (2010) 45–92. [29] R. Bisoi, P. Dash, A. Parida, Decomposição de modo variacional híbrido e máquina de aprendizado extremo de kernel robusto evolutivo para preço de ações e previsão de movimento diariamente, Appl. Computação suave. 74 (2019) 652–678. [7] RF Engle, Heterocedasticidade condicional autoregressiva com estimativas da variância da inflação do Reino Unido, Econometrica: J. Econometr. Soc. (1982) 987–1007. [14] GS Atsalakis, KP Valavanis, Levantamentode técnicas de previsão do mercado de ações – Parte II: métodos de computação suave, Expert Syst. Apl. 36 (2009) 5932–5941, https://doi.org/ 10.1016/j.eswa.2008.07.006. [43] R. Hecht-Nielsen, Teoria da rede neural de retropropagação, em: Neural [46] DBB Nguyen, M. Prokopczuk, CW Simen, O prêmio de risco do ouro, J. Int. 531–544, Finanças Financeiras 94 (2019) 140–159. [17] M. Nofer, O. Hinz, Usando o Twitter para prever o mercado de ações, onde está o efeito do humor?, Business Inf Syst. Eng. 57 (2015) 229–242, https://doi.org/10.1007/s12599-015-0390-4 . Estado. Computação. Simul. 77 (2007) 29–53. Machine Translated by Google http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0040 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180 https://doi.org/10.1109/ICIT.2018.00046 https://doi.org/10.1109/ICIT.2018.00046 https://doi.org/10.1109/ICIT.2018.00046 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0095 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0095 https://doi.org/10.1016/j.asoc.2018.11.008 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0045 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105 https://doi.org/10.1007/s00500-018-3336-1 https://doi.org/10.3390/app8122473 https://doi.org/10.1016/j.iref.2015.02.018 https://doi.org/10.1016/j.iref.2015.02.018 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0025 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220 https://doi.org/10.1016/j.eneco.2018.07.011 https://doi.org/10.1109/TSP.2013.2288675 https://doi.org/10.1016/j.eswa.2019.01.012 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030 https://doi.org/10.1162/neco_a_01124 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0040 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0150 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0150 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0025 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0175 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0175 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075 https://doi.org/10.1016/j.eswa.2016.02.025 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160 https://doi.org/10.1109/IJCNN.2018.8489208 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0045 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0100 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0100 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170 https://doi.org/10.1016/j.jocs.2015.11.011 https://doi.org/10.1016/j.jocs.2015.11.011 https://doi.org/10.1002/for.2585 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195 https://doi.org/10.1016/j.physa.2015.05.067 https://doi.org/10.1016/j.asoc.2012.09.024 https://doi.org/10.1016/j.asoc.2012.09.024 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030 https://doi.org/10.1016/j.eswa.2009.02.038 https://doi.org/10.1111/j.1540-6261.1981.tb04888.x https://doi.org/10.1111/j.1540-6261.1981.tb04888.x http://refhub.elsevier.com/S0925-2312(20)30671-8/h0020 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035 https://doi.org/10.1016/j.eswa.2008.07.006 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0230 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0230 https://doi.org/10.1007/s12599-015-0390-4 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220 [52] J. Du, Q. Liu, K. Chen, J. Wang, Previsão de preços de ações de duas maneiras com base na rede neural lstm, em: 2019 IEEE 3ª Conferência de Tecnologia da Informação, Rede, Controle Eletrônico e Automação (ITNEC), IEEE, 2019, pp . 208–220. [48] X. Zhang, Y. Peng, C. Zhang, B. Wang, Os modelos híbridos integrados com técnicas de pré- processamento de dados são adequados para previsão mensal de vazões? Algumas evidências experimentais, J. Hydrol. 530 (2015) 137–152. [49] N. Sun, J. Zhou, L. Chen, B. Jia, M. Tayyab, T. Peng, Um modelo dinâmico adaptativo de previsão da velocidade do vento de curto prazo usando decomposição secundária e uma máquina de aprendizagem extrema regularizada melhorada, Energia 165 (2018) 939–957. Mao Ye recebeu o diploma de bacharelado pela Sichuan Normal University, Chengdu, China, em 1995, e o mestrado pela Universidade de Ciência e Tecnologia Eletrônica da China, Chengdu, China, em 1998 e Ph.D. licenciatura pela Universidade Chinesa de Hong Kong, China, em 2002, toda em matemática. Ele foi pesquisador visitante por um curto período na Universidade de Queensland e na Universidade da Pensilvânia. Atualmente é professor e diretor do CVLab da Universidade de Ciência Eletrônica e Tecnologia da China, Chengdu, China. Seus interesses de pesquisa incluem aprendizado de máquina e visão computacional. Nessas áreas, publicou mais de 90 artigos nas principais revistas internacionais ou anais de conferências. Ele atuou no conselho editorial da ENGINEERING APPLICATIONS OF ARTIFICIAL INTELLIGENCE. Ele era um co- Yan Gan recebeu o título de mestre em Faculdade de Ciência da Computação e Informação pela Universidade Normal de Chongqing, Chongqing, China, em 2015. Atualmente está cursando o doutorado. de Ciência da Computação na Universidade de Ciência Eletrônica e Tecnologia da China, Chengdu, China. Seus atuais interesses de pesquisa incluem aprendizado de máquinae visão computacional. Atualmente é revisor de diversas revistas, como Engenharia de aplicações de inteligência artificial, Neurocomputação. [47] Y. Wang, L. Wu, Sobre desafios práticos de algoritmos de previsão híbrida baseados em decomposição para velocidade do vento e irradiação solar, Energy 112 (2016) Y. Huang et al. / Neurocomputação 425 (2021) 207–218218 [51] Y. Wu, J. Gao, Aplicação de rede neural de vetor de suporte com decomposição de modo variacional para previsão de taxa de câmbio, Soft. Computação. 23 (2019) 6995–7004. ganhador do Best Student Paper Award no IEEE ICME 2017. [50] L. Peng, S. Liu, R. Liu, L. Wang, Memória eficaz de longo e curto prazo com algoritmo de evolução diferencial para previsão do preço da eletricidade, Energy 162 (2018) 1301–1314. Yelin Gao está atualmente cursando o bacharelado no Lingnan College na Sun Yet-Sen University, Guangzhou, China. Seu interesse atual de pesquisa inclui tecnologia financeira. Yusheng Huang está atualmente cursando o bacharelado na Escola de Engenharia de Informação e Comunicação na Universidade de Ciência e Tecnologia Eletrônica da China, Chengdu, China. Seus atuais interesses de pesquisa incluem previsão de séries temporais e algoritmos bioinspirados. Machine Translated by Google http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0245 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0245 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250 http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250