Logo Passei Direto
Buscar
Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

Um novo modelo de previsão de dados financeiros usando algoritmo genético
e rede de memória de longo e curto prazo
Yusheng Huang , Mao YeYelin Gao, ,
c
b
a
d
informações do artigo abstrato
Neurocomputação
da
Yan Gan c,d,ÿ
b
página inicial da revista: www.elsevier.com/locate/neucom
Listas de conteúdos disponíveis em ScienceDirect
Aceito em 20 de abril de 2020
Recebido em 7 de novembro de 2019
Lingnan College, Universidade Sun Yat-sen, Guangzhou 510220, China
Algoritmo genético
Historia do artigo:
Escola de Engenharia de Informação e Comunicação, Universidade de Ciência e Tecnologia Eletrônica da China, Chengdu 610054, China
Neurocomputação 425 (2021) 207–218
Rede de memória de longo prazo
Decomposição do modo variacional
ÿ Autor correspondente em: Faculdade de Ciência da Computação, Universidade de Chongqing,
Chongqing 400044, China.
Endereço de e-mail: shiyangancq@gmail.com (Y. Gan).
Dados financeiros
Escola de Ciência da Computação e Engenharia, Universidade de Ciência Eletrônica e Tecnologia da China, Chengdu 610054, China
Palavras-chave:
Comunicado por Nianyin Zeng
Disponível on-line em 22 de abril de 2020
0925-2312/ 2020 Elsevier BV Todos os direitos reservados.
Revisado em 2 de abril de 2020
Faculdade de Ciência da Computação, Universidade de Chongqing, Chongqing 400044, China
modelo de previsão de dados. Neste modelo, o algoritmo genético é utilizado para otimizar os parâmetros do VMD.
rede de memória de longo e curto prazo (LSTM) para prever os dados futuros com entradas geradas pelo VMD. O
as contribuições são: (1) Propomos um modelo aprimorado de previsão de dados financeiros baseado em VMD e LSTM;
2020 Elsevier BV Todos os direitos reservados.
No entanto, a precisão da previsão dos métodos atuais é baixa. Propomos um novo sistema financeiro baseado em VMD
Em seguida, o VMD decompõe a sequência de dados em tendências de longo e curto prazo. Por fim, empregamos o
Recentemente, a decomposição no modo variacional (VMD) foi introduzida no campo da previsão de dados financeiros.
A previsão de dados financeiros é propícia para obter uma melhor compreensão da situação económica futura.
modelos na previsão um passo à frente de séries temporais financeiras.
proposto. Resultados experimentais indicam que nosso modelo é promissor em termos de precisão e superior à linha de base
(2) Foi elaborada uma diretriz sobre a seleção de parâmetros do VMD para processar dados financeiros; (3) Um método de 
redução de erros de predição que reduz o erro inerente causado pela insensibilidade do VMD à flutuação é
modelo de média móvel (ARIMA). Resolveu o defeito do
Nos últimos anos, muitos métodos modernos de previsão têm sido
Em 1970, Box e Pierce [6] propuseram o sistema integrado autoregressivo
métodos de previsão.
modelo de algoritmo de decomposição de sinal (SDA). Especificamente, o AT
1. Introdução
volatilidade da série temporal. Os métodos convencionais são clássicos
estes métodos em modelos tradicionais e modernos.
Os modelos da série GARCH são capazes de prever as séries temporais
um tópico de pesquisa sobre calor há muito tempo [3]. Muitos métodos foram
classificados como “métodos de computação suave” [14]. Como é mostrado na Tabela 1,
https://doi.org/10.1016/j.neucom.2020.04.086
Bollerslev [8] adaptou o modelo ARCH e propôs o modelo de heterocedasticidade 
condicional autorregressiva generalizada (GARCH).
são muito populares, como rede LSTM [10], rede neural artificial (ANN) [11], 
máquinas de vetores de suporte (SVM) [12] e rede neural recorrente (RNN) [13]. 
Esses métodos modernos são
desafiador [2]. Portanto, a previsão de dados financeiros permaneceu
Modelo ARMA para lidar com sequências não estacionárias. Em 1982,
proposto com o desenvolvimento da tecnologia de computação. No
uma proxy para risco de mercado e volatilidade [1]. Para compreender melhor a 
situação económica futura, é necessário prever
situação económica actual e futura. O preço das ações reflete o
modelos de previsão tradicionais. Em [4], esses métodos são classificados
e estabelecer uma base sólida para o desenvolvimento da série temporal
Os dados financeiros são parte integrante da economia. Ele reflete o
Nos primeiros dias da pesquisa, os pesquisadores propuseram muitas
modelo autorregressivo (AR) com o modelo de média móvel (MA).
cuja variância não é constante. Em 1987, Hull e White [9] propuseram o modelo de 
volatilidade estocástica (SV) para enfrentar o problema estocástico.
existem três tipos de métodos de computação suave, incluindo modelo de análise 
técnica (TA) [15], modelo de análise fundamental (FA) e
propôs enfrentá-lo. Para facilitar a ilustração, dividimos
Engle [7] propôs o modelo de heterocedasticidade condicional autorregressivo 
(ARCH) para processar a volatilidade de séries temporais. Em 1986,
os dados financeiros. No entanto, as características não lineares e não estacionárias 
das sequências de dados financeiros tornam a previsão mais
área de previsão de dados financeiros, métodos computacionais modernos
operação da empresa e fornece uma importante referência de investimento para os investidores. O 
índice financeiro mostra a situação geral do mercado. Por exemplo, o Índice de Volatilidade (VIX) 
serve como
como “métodos convencionais”. Em 1969, Akaike [5] utilizou o modelo 
thautoregressivo (AR) para previsão. Em seguida, foi proposto o modelo de média 
móvel autorregressiva (ARMA), que combinou o
Machine Translated by Google
http://www.elsevier.com/locate/neucom
http://www.sciencedirect.com/science/journal/09252312
https://doi.org/10.1016/j.neucom.2020.04.086
mailto:shiyangancq@gmail.com
https://doi.org/10.1016/j.neucom.2020.04.086
Tabela 1 
Classificação dos métodos de soft-computação.
Modelo de análise técnica (AT) Utilize apenas a própria sequência financeira como entrada.
Use mais informações de mercado como entrada.Modelo de análise fundamental 
(FA)
Modelo de algoritmo de 
decomposição de sinal (SDA)
Método Recurso
Y. Huang et al. / Neurocomputação 425 (2021) 207–218208
Utilize séries decompostas da sequência financeira 
como insumos.
Além do mais, Lahmiri [23] provou a superioridade do VMD no campo da previsão 
de dados financeiros. Recentemente, os pesquisadores propuseram muitos modelos 
variantes de VMD, como o modelo que mistura o VMD e a máquina de aprendizado 
extremo [24], o modelo que combina o VMD com a rede neural de retropropagação 
(BPNN) [25], o modelo construído com o VMD e General Rede Neural de Regressão 
(GRNN) [23], e o modelo combinando VMD e Rede Neural de Vetor de Suporte 
[26], etc. O método VMD também foi aplicado à análise de dados financeiros [27,28].
Comparado com o modelo FA, o modelo SDA evita o complexo processo de escolha 
de fatores. O modelo SDA é classificado com base nos métodos de decomposição 
adotados, como método wavelet [19], decomposição em modo empírico (EMD) [20], 
métodos de ajuste sazonal, decomposição em modo variacional (VMD) e 
decomposição intrínseca em escala de tempo, etc. 21]. Os métodos EMD e wavelet 
são amplamente utilizadosna previsão de dados financeiros. No entanto, o método 
wavelet tem limitações, como a natureza não adaptativa [21]. Como novo método de 
decomposição, o VMD proposto por Dragomiretskiy e Zosso [22] foi recentemente 
introduzido na previsão de dados financeiros.
(1) Propomos um novo modelo de previsão de dados financeiros combinando o 
VMD, a rede LSTM, o BPNN e o GA.
Comparado com o EMD, o método VMD é mais eficiente e menos sensível ao 
ruído. Ele decompõe os dados financeiros em modos (sinais modulados em 
amplitude, modulados em frequência) e extrai suas frequências centrais. Esses 
modos extraídos são altamente não correlacionados no domínio da frequência, o 
que significa que os modos podem ser usados diretamente para treinar a rede neural 
para previsão.
Isso pode resultar no erro de previsão do modelo. Assim, propomos um método de 
redução de erros de predição baseado em BPNN. O método proposto é fornecido 
na Seção 2.4.
O modelo SDA é um método recentemente desenvolvido. Ele utiliza algoritmos 
de decomposição de sinal para decompor as séries de dados financeiros em modos. 
Os modos refletem as tendências de longo prazo e as flutuações de curto prazo 
dos dados financeiros. Comparado com o modelo TA, o modelo SDA poderia extrair 
mais informações das séries de dados financeiros decompostos e prever com mais 
precisão.
2.1. Rede de memória de longo prazo
Além disso, a rede LSTM é capaz de extrair as características dos dados financeiros 
e refletir as características da rede [32]. Portanto, é amplamente utilizado no campo 
de previsão de séries temporais, como previsão de poluição do ar [33], previsão de 
aparelhos de energia [34], previsão de tempo de chegada de ônibus [35] e previsão 
de admissão em departamentos de emergência hospitalar [36], etc. Inspirados neles, 
utilizamos a rede LSTM para prever dados financeiros.
No entanto, como escolher os factores adequados é um problema complicado que 
exige conhecimentos económicos. Qual é o melhor, o modelo FA ou o modelo TA, 
ainda não é conclusivo.
Portanto, uma diretriz de seleção de parâmetros do VMD é definida para minimizar 
a perda de decomposição na Seção 2.2. Na Seção 2.3, são ilustrados o processo 
de produção da entrada de treinamento e da entrada de predição do modelo GVL. 
Como mencionado anteriormente, o VMD é insensível às flutuações aleatórias dos 
dados financeiros.
Concretamente, a rede LSTM consiste em três partes, incluindo uma camada de 
entrada, uma camada de saída e várias camadas ocultas entre elas [37]. Cada 
camada oculta recursiva possui vários módulos de memória. O núcleo do módulo 
de memória é a célula de memória autoconectada com três portas, a saber, a porta 
de entrada, a porta de esquecimento.
modelo utiliza apenas a própria sequência financeira como entrada, como [16]. 
Tendo apenas os dados financeiros como entrada, o modelo de AT é fácil de 
construir. No entanto, a singularidade das variáveis de entrada torna difícil para o 
modelo TA responder prontamente às mudanças do mercado. Ao contrário do 
modelo TA, o modelo FA utiliza mais informações de mercado. Por exemplo, 
Borovkova e Tsiamas [10] usaram indicadores de análise matemática como dados 
de previsão; Nofer e Hinz [17] escolheram o nível de humor derivado das mídias 
sociais como fator; Vargas et al. [18] utilizaram semântica extraída de artigos de 
notícias financeiras.
Na Seção 2.1, são fornecidos alguns conhecimentos básicos da rede LSTM. O 
VMD causa perda de decomposição quando é usado para decompor a série de 
dados financeiros. Além disso, faltam diretrizes gerais para a seleção dos parâmetros 
VMD [29].
A arquitetura do modelo GA-VMD-LSTM (GVL) proposto é demonstrada na 
Figura 1. Como é mostrado na Figura 1, o modelo GVL consiste na parte de 
treinamento e na parte de predição. Na parte de treinamento, o AG é usado para 
calcular os parâmetros necessários ao algoritmo VMD. Então, o gerador de entrada 
1 gera a entrada de treinamento da rede LSTM utilizando o VMD. Na última etapa, a 
rede LSTM é treinada. Na parte de previsão, tendo como entrada os dados dos 
últimos 31 dias de negociação, o gerador de entrada 2 produz a entrada de previsão 
da rede LSTM. Em seguida, a rede LSTM prevê os dados do dia de negociação 
seguinte. Portanto, o modelo GVL é um modelo de previsão com um dia de 
antecedência.
No entanto, os atuais modelos de previsão de dados financeiros baseados em 
VMD ainda são de baixa precisão de previsão. Enquanto isso, faltam diretrizes 
gerais para a seleção dos parâmetros VMD [29]. Além disso, o VMD é insensível a 
flutuações aleatórias dos dados financeiros, o que significa que o modelo VMD não 
é capaz de responder a flutuações acentuadas dos dados financeiros. Para resolver 
os problemas acima, propomos um novo modelo de previsão de dados financeiros 
baseado em VMD, combinando o GA, a rede LSTM e o BPNN. Neste modelo, o GA 
é utilizado primeiramente para otimizar os parâmetros do VMD para reduzir a perda 
de decomposição causada pelo VMD. Então, a entrada da rede LSTM é gerada
(4) Os resultados experimentais demonstram que o método proposto é mais 
eficaz do que os modelos de referência.
2. Métodos e modelo de previsão de dados financeiros proposto
O restante do nosso artigo está estruturado da seguinte forma. A seção 2 ilustra 
nosso modelo e os algoritmos necessários. Na Seção 3, avaliamos nosso modelo. 
A seção 4 conclui este artigo.
(3) A fim de reduzir o erro inerente ao modelo causado pela insensibilidade do 
VMD à flutuação, é proposto um método de redução de erros de predição 
baseado em BPNN.
pelo VMD. Depois disso, a rede LSTM produz a saída de previsão. Por fim, para 
reduzir o erro inerente ao modelo, adota-se o BPNN para criar um mapeamento 
entre o erro de predição e as flutuações das séries financeiras. Nossas contribuições 
estão listadas abaixo:
A rede LSTM proposta por Hochreiter e Schmidhuber [30] possui células de 
memória e unidades de disparo não lineares [31], o que a torna capaz de processar 
sequências de longo prazo e não estacionárias.
(2) Definimos uma diretriz sobre a seleção de parâmetros do VMD. A diretriz é 
então abstraída em um problema de otimização. Finalmente, o problema de 
otimização é resolvido pelo AG.
Machine Translated by Google
0
WF ; WI; BANHEIRO; WO implica as conexões do olho mágico, e
Em primeiro lugar, o vetor X ¼ ðx1; x2; xT Þ é a entrada do LSTM
bF ; bi; BC; bO denota a matriz de peso de entrada.
Ct ¼ tanh½WC ðht1; xtÞ + bC:
Ct ¼ Ft Ct1 þ It
k¼1
XK
Ct:
T
t¼1
~
Ct do estado da célula
2.2. Seleção de parâmetros do VMD
(iv) Depois disso, o estado da célula é atualizado da seguinte forma (Ct1 
representa o estado anterior da célula armazenado na célula de memória):
sequencialmente. O processo de cálculo correspondente ao tempo t é
escrito da seguinte forma:
é decidido de acordo com as seguintesequações:
;
e a porta de saída, respectivamente. Então, de acordo com a série temporal t = 1 
T [37], o estado da célula Ct da célula de memória e os valores de ativação das 
portas são calculados pela camada oculta.
(v) Finalmente, a porta de saída Ot é atualizada e a saída final ht
rede. Isto; Ft e Ot denotam a porta de entrada, a porta de esquecimento
Nós temos:
Nas equações acima, rðÞ representa a função sigmóide.
deve ser adicionado ao estado atual da célula da seguinte forma:
todo o algoritmo VMD como uma função f vmdðÞ. Da literatura [22],
(ii) A porta de entrada determina quanta informação nova
equação abaixo:
acima controlam o fluxo de informações no módulo de memória.
é gerado de acordo com a seguinte equação:
o sinal original, a saber:
e poderia reproduzir o sinal de entrada coletivamente. Nós visualizamos o
(i) A célula de memória lê a entrada xt e o estado oculto anterior ht1. Então, a 
porta do esquecimento é determinada pela
Eq. (8) mostra como os modos reconstroem o sinal reconstruído S
N½n. Idealmente, o sinal reconstruído deve ser o mesmo que
porta e a porta de saída. Os valores dos três portões mencionados
extrai os modos e as frequências centrais dos modos simultaneamente. Esses 
modos se enquadram na definição da função de modo intrínseco
(iii) Enquanto isso, um novo vetor candidato
VMD é um método de decomposição de sinal não recursivo [22]. Isto
209Y. Huang et al. / Neurocomputação 425 (2021) 207–218
Figura 1. Arquitetura do modelo GVL.
ht ¼ Ot tanhðCtÞ:
Pé ¼ r½WF ðht1; xtÞ + bF :
¼ f vmdðSN½n; K; a; s;eÞ;
K; n = 1; 2; ... ;Ng
ð8Þ
fuk½njk ¼ 1; 2; ...
ð2Þ
~
uk½n ¼ S0 N½n;
Ot¼ r½WOðht1 ; xtÞ + bO: ð5Þ
É ¼ r½WIðht1; xtÞ + bI:
ð3Þ
PerdaVMD ¼
ð4Þ
ð10Þ
Xffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ðSN½n S0 N½nÞ2
:
~
2s
ð9Þ
N
S0 N½n ¼ SN½n:
ð7Þ
ð6Þ
~
ð1Þ
;
sinal. K e a são inteiros positivos. s é definido como 0 ou 1. e é normalmente
No entanto, a Eq. (9) geralmente não é válido, pois o VMD causa
K; n = 1; 2; ... ;Ng dos modos do originalfuk½njk ¼ 1; 2; ...
N½nis dado por:
nível de tolerância e como entradas, o VMD gera o conjunto
SNðnÞe S
sinal de tempo discreto SN½n, o número de modos K, restrição de fidelidade 
de dados a, o multiplicador Lagrangiano s e convergência
como segue: Perda de VMD: Root Mean Squared Error (RMSE) entre
modo do sinal en é o script de tempo. Com o original
;
a diferença entre o sinal reconstruído e o sinal original,
onde N implica o comprimento do sinal, uk½n representa o k-ésimo
perda de decomposição. Portanto, definimos a perda VMD para medir
por volta de 1e6 [22].
0
Machine Translated by Google
;
;
Perda mínimaVMD ¼
108g
Xffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi ðSN½n S0 N½nÞ2
e2f104 ; 105
K; n = 1; 2; ...; 30gÞ;
K 2 f2; 3; ...; 34g
;
ð15Þ
um 2f10; 102
>>><
;
;
;
s:t:
N
;
fuAk½njk ¼ 1; 2; ...
107g
fK; a; por exemplo, ¼ GAðSN½nÞ:
106>>>:
ð13Þ
103
s 2 f0; 1g
;
ð12Þ
Pout ¼ FLSTMPredictionðfu0 k½njk ¼ 1; 2; ...
FLSTMPrediction ¼ FLSTMTrainning ðfuk½njk ¼ 1;2;...;K; n ¼ 1;2;... ;NgÞ;
8
ð14Þ
...
fKA; aA; sA;eAg ¼ GAðANA ½nÞ;
¼ f vmdðANA ½n; KÁ; aA; sA;eAÞ;
ð11Þ
FLSTMPrediction ¼ FLSTMTrainning ðfuAk½njk ¼ 1; 2; ...
2s
ð16Þ
KÁ; n = 1; 2; ... ;NAgÞ:;
Passo (1): Inicie a primeira geração e avalie sua aptidão.
Gerador de Entrada 2 Produzir a entrada do processo de predição é complexo. 
De acordo com a Eq. (13), a entrada também são modos. Em
como:
Etapa (7): Se o número de iterações for maior que 200 ou o
(11), a expressão da função das operações acima poderia ser escrita
preciso. Considerando as razões mencionadas acima, definimos um
Combinando todos os dados de modo dos últimos 30 dias de negociação,
Passo (2): Registre o melhor condicionamento físico e seu código correspondente.
Gerador de Entrada 1 A geração da entrada de treinamento segue
um exemplo.
escala de a e s é mais importante do que seu valor exato. Por isso,
; Kag. A saída do VMD
A regra de escolha de parâmetros é na verdade um problema de otimização 
restrito. Como o GA [38] é uma otimização eficaz
o processo de seleção de parâmetros é denotado como:
dados do dia TA 31 e dia TA 30, que é ½A31½1; A31½2, como
O número de indivíduos em uma geração é 60.
u0 Ak½1jk ¼ 1; 2; ...
FLSTMPrediçãoðÞ, temos:
fu0 Ak½30jk ¼ 1; 2; ...
K; n = 1; 2; ... ;Ng e fu0 k½njk ¼ 1; 2; ...
tenha u1k½2jk = 1; 2; ...
através de operação de cruzamento e mutação. O número de indivíduos na prole 
é 60.
A31½nðn ¼ 1; 2; ...
Supondo que temos dados históricos ANA ½nðn ¼ 1; 2; ... ;NAÞ ativado
para comodidade de implementação, temos K 2 f2;3;...;34g;
g KA .
a melhor aptidão permanece a mesma em 20 iterações, encerre o algoritmo.
para prever A½TA, precisamos dos dados de modo das últimas 30 negociações
Em nosso modelo, usamos o VMD para decompor os dados financeiros
KÁ; n = 1; 2; ...
é um conjunto de modos, f u1k½njk ¼ 1; 2; ...
Etapa (3): Selecione metade dos indivíduos no pool por meio
o procedimento abaixo. Primeiramente, usamos GA para calcular os parâmetros 
do algoritmo VMD. Em seguida, decompomos os dados históricos
TA 31 para o dia TA 1, queremos prever o preço de fechamento A½TA
método de resolução, escolhemos o AG para resolvê-lo. Aplicamos o
; KAg, temos a entrada do programa de predição
;
entrada, usamos o algoritmo VMD para gerar os dados de modo de
fuk½njk ¼ 1; 2; ...
regra de escolha de parâmetros da seguinte forma:Regra de escolha de parâmetros:
A rede LSTM é utilizada para prever os dados financeiros no
que são fu0 Ak½1jk ¼ 1; 2; ...
O
Etapa (5): Calcule a aptidão da prole.
KÁ; n = 1; 2 g Os dados do modo
operação de seleção.
o preço de fechamento da ação A e os dados do preço de fechamento
a 2 f10;102 ;103 ;...;108 g;s 2 f0;1g;e 2 f104 ;105 ;106 ;107 g. O
;
K; n = 1; 2; ...; 30g, é o núcleo do nosso modelo. Ele une o VMD
em modos usando o algoritmo VMD. Esses modos são a entrada de
série em modos. Esses modos servem como treinamento e entrada de previsão do 
modelo. Assim, quanto menor for a perda de VMD, mais
tornar-se a próxima geração.
2.3. Métodos de produção de insumos
KA ¼ f 
operação de produção dos dados de modo dos demais dias é a mesma
Etapa (6): Mesclar os indivíduos da prole e desta geração e então classificar 
sua aptidão. 60 deles com melhor condicionamento físico
do próximo dia de negociação TA. O comprimento dos dados históricos é NA.
Modelo GVL. Considerando os processos de treinamento e predição de
dias do dia TA 30 ao dia TA 1, que é
O detalhe do GA é descrito a seguir:
Caso contrário, repita do passo (2) ao passo (7).
;
,Dado SN½n, os parâmetros K; a; s e e, devemos minimizar
o processo de treinamento da rede LSTM. De acordo com as Eqs. (7) e
; KAG; fu0 Ak½2jk ¼ 1; 2; ...
informações que os modos contêm, de modo que nosso modelo seria mais
;
;
Etapa (4): Os indivíduosno pool produzem a prole
do TA 30 é o segundo roteiro de tempo do conjunto de modos. Assim, nós
algoritmo e a rede LSTM. Ilustraremos isso dando
GA com código binário ao nosso modelo. De acordo com a literatura [22], o
.
TA 30, que é fu0 Ak½1jk ¼ 1; 2; ...
Como gerar a entrada dos dois processos,a perda de VMD.
;
; KAG; ;
como é mencionado acima. De acordo com a Eq. (7), as operações acima podem 
ser escritas como:
; 31Þ para os últimos 31 dias de negociação a partir do dia
o modelo da otimização restrita é escrito da seguinte forma:
a rede LSTM como duas funções, FLSTMTrainningðÞ e
Para facilitar a descrição, tratamos o GA como uma função GAðÞ. Então,
fu0 Ak½njk ¼ 1; 2; ...; 30g. Com o preço de fechamento
t¼1
T
KÁ; n = 1; 2; ... ;NAg
o processo de predição utilizando a rede LSTM;
fu0 k½njk ¼ 1; 2; ...; 30g é a entrada da previsão (correspondente à entrada 
de previsão na Fig. 1) e Pout
KÁ; n = 1; 2; ... ;NAg é;
fuk½njk ¼ 1; 2; ... 
respondendo à entrada de treinamento na Fig. 1); FLSTMPredictionðÞrepresenta
onde FLSTMPrediction é a rede LSTM suficientemente treinada,
adotado.
;
para o módulo de mutação, a estratégia de mutação adaptativa [40] é
unidade de cruzamento, utilizamos a estratégia de cruzamento adaptativo [40]. Como
do estoque A, Eq. (12) pode ser escrito como:
K; n = 1; 2; ...
parte do algoritmo pela estratégia da roda da roleta [39]. No
e
;
gerado pelo GA; fuAk½njk ¼ 1; 2; ... a entrada do 
processo de treinamento do estoque A. Assim, para a previsão
K; n = 1; 2; ... ;Ng é a entrada do treinamento (cor-
onde a Eq. (10) é a função de aptidão do GA. Nós projetamos a seleção
onde KA; aA; sA e eArepresentam os parâmetros VMD do estoque A
denota a saída da previsão.
Y. Huang et al. / Neurocomputação 425 (2021) 207–218210
g
(
u0 Ak½30jk ¼ 1;2;...;KA ¼ f u30k½2jk ¼ 1;2;...;KA
u30k½njk ¼ 1;2;...;KA;n ¼ 1;2 ¼ f vmdð fg Þ ½A31½30;A31½31;KA;aA;sA;eA
......
(
:
g
gu0 Ak½2jk ¼ 1;2;...;KA ¼ f u2k½2jk ¼ 1;2;...;KA
u0 Ak½1jk ¼ 1;2;...;KA ¼ f u1k½2jk ¼ 1;2;...;KA
fg u2k½njk ¼ 1;2;...;KA;n ¼ 1;2 ¼ f vmdð Þ ½A31½2;A31½3;KA;aA;sA;eA
f g¼ u1k½njk ¼ 1;2;...;KA;n ¼ 1;2 f vmdð Þ ½A31½1;A31½2;KA;aA;sA;eA
ð17Þ
(
Machine Translated by Google
onde PATA é o resultado da previsão da ação A na negociação
dia TA.
Preço mais altoðTAÞ Preço mais baixoðTAÞ
Fechamento de preçoðTAÞ Fechamento de preçoðTA 1Þ
Preço mais baixoðTAÞ
Volatilidade Histórica ¼ 252
ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiff
vuuuu
:
ð21Þ
Preço próximo ðTAtÞ
t¼1
TA
ATP2
Preço próximoðTA 1Þ
Taxa de alteração ¼
Amplitude ¼ ð20Þ
ð18Þ
; KÁ; n = 1; 2; ...; 30gÞ;PATA ¼ FLSTMPredictionðfu0 Ak½njk ¼ 1; 2; ...
:
ð19Þ:
Preço próximoFechamento de preço ðTAtþ1Þ
ATP
2
TA
t¼1
crie um mapeamento entre fatores e erro de previsão. O BPNN
dados financeiros [46].
empresas, políticas governamentais, etc. Este tipo de informação é
mostrado na Figura 2.
isso com mais fatores (como informações de mercado do último dia [18])
Por exemplo, os preços das ações são afetados principalmente pelas operações da 
empresa e pelos interesses dos investidores. O índice de mercado e a taxa de câmbio são
O modelo GVL usa apenas a própria sequência de dados para prever o
para aprender mapeamento multidimensional complicado [43]. O que é
denotam o preço de fechamento, o preço mais baixo e o preço mais alto de
''
respectivamente. Portanto, para tornar nosso modelo versátil, escolhemos
flutuações e poderia alcançar um desempenho muito melhor [41].
disposto a investir.
restringe a sensibilidade do modelo às flutuações. Como é mencionado
precisão arbitrária teoricamente [44]. Como os motivos mencionados
2.4.2. Modelo GVL-MB
Existem muitos tipos de fatores que afetam os dados financeiros, como
o modelo GVL é causado pelas flutuações dos dados financeiros.
dados financeiros. Os fatores escolhidos são listados a seguir:
escolhido para aumentar a precisão da previsão do modelo. O escolhido
o método é fornecido na Seção 2.4.2.
GVL-MB
KÁ; n = 1; 2; ...; 30g. Assim, para a previsão
informações de curto prazo, como anúncios temporários de
tendências dos dados financeiros.
Volatilidade Histórica: É um fator que reflete a variância do
No método de redução de erros de predição, o BPNN é utilizado para
restante do papel. A arquitetura do modelo GVL-MB é
2.4. Método de redução de erros de previsão
Diferentes tipos de dados financeiros podem ser afetados por diferentes fatores.
difícil de ser extraído de dados históricos. Alguns pesquisadores descobriram
é uma rede de mapeamento multicamadas que minimiza o erro retroativo durante a 
transmissão de informações [42]. É capaz
O modelo GVL-MB é dividido em parte de treinamento e parte de previsão. Na 
parte de treinamento, o modelo GVL 1 é treinado pelo primeiro
impactado pela tendência do mercado e pela situação econômica nacional
dados financeiros, o que economiza recursos de computação. no entanto
Amplitude: É um indicador que combina os preços mais altos e mais baixos que 
refletem a atividade [45] e também demonstra
introduzido, o modelo de previsão é mais sensível a curto prazo
mais, o BPNN poderia aproximar qualquer função não linear com
os dados financeiros do dia t.
2.4.1. Fatores escolhidos
alguns fatores fundamentais que influenciam a maioria dos tipos de
acima, adotamos o BPNN no método proposto. Detalhes de
antes, a implementação do VMD também enfraquece a sensibilidade do modelo à 
flutuação. Ou seja, parte do erro de previsão de
Assim, no método de redução de erros de predição, mais fatores são
O método de redução de erros de predição pode ser considerado como um
fatores macroeconômicos, fatores fundamentais e fatores estatísticos.
As flutuações dos dados financeiros são grandemente afetadas por
cesso, fu0 Ak½njk ¼ 1; 2; ... 
ção do estoque A, Eq. (13) pode ser escrito como:
Taxa de mudança: é um indicador intuitivo de ascensão e queda no curto prazo
fatores são ilustrados na Seção 2.4.1.
novo modelo. Para conveniência de ilustração, usamos modelo” para 
nos referirmos ao método de redução de erros de predição no
;
211Y. Huang et al. / Neurocomputação 425 (2021) 207–218
Figura 2. Método de redução de erros de predição (modelo GVL-MB).
Nas equações acima, PricecloseðtÞ; PreçomenorðtÞ e PreçomaisaltoðtÞ
Machine Translated by Google
Algoritmo2: modelo GVL-MB
(9) Prever o erro de previsão do dia TA usando o modelo BPNN.
(12) Reinicie o loop. 
terminar 
até
(2) Calcule os parâmetros do algoritmo VMD usando a Fórmula 14.
(11) Atualize os dados históricos e execute as etapas (1) a (4).
TA 1 = O dia final do período de previsão.
Algoritmo 1 modelo GVL
Depois disso, o BPNN é adotado para criar um mapeamento entre as séries de erros 
de predição e as séries de fatores escolhidas. Com a série de erros de predição e a 
série de fatores escolhidos como entrada, o BPNN é treinado.(6) Com 100% dos dados históricos como entrada, construa o modelo GVL 
2 de acordo com as etapas (1) a (4) do Algoritmo 1.
(7) Gere a entrada do processo de previsão usando a Fórmula 17.
(9) TA TA + 1.
Então, para comprovar a eficácia dos métodos propostos, projetamos quatro 
conjuntos de experimentos. Especificamente, no experimento 1, pretendemos 
demonstrar a superioridade dos modelos e provar que a implementação do VMD 
melhora o desempenho da rede LSTM. Exploramos a eficácia da Regra de Escolha 
de Parâmetros no experimento 2. Nos experimentos 3 e 4, demonstramos ainda 
mais a superioridade dos modelos.
Nesta seção, avaliamos o desempenho do modelo GVL e do modelo GVL-MB. 
Primeiramente, de acordo com nossa experiência, os parâmetros da rede LSTM dos 
modelos GVL e GVL-MB estão listados na Tabela 2. Consulte a referência [50] para 
diferentes configurações de parâmetros da rede LSTM.
(13) Reinicie o loop. fim se
//Parte de previsão 
(5) O dia de início do período de previsão é TA. repita (6) 
Obtenha 
dados dos últimos 31 dias de negociação: 
A31½nðn ¼ 1; 2; ...; 31Þ.
3.1.1. Configurações do experimento 1
(4) Calcule a série de erros de previsão com o valor real e o valor previsto dos 
50% restantes dos dados históricos.
//Atualizar parte //
Se necessário, atualize os dados históricos quando novos dados 
chegarem. (Se os dados históricos forem atualizados assim que novos 
dados chegarem, o modelo GVL-MB é o chamado modelo de 
decomposição em tempo de leitura [47–
49].) se a precisão da previsão do modelo cair com a evolução do 
tempo então (11) 
Pause 
o ciclo.
(2) Com 50% dos dados históricos como entrada, construa o modelo GVL 1 de 
acordo com as etapas (1) a (4) do Algoritmo 1.
15.
até TA 1 = O dia final do período de previsão.
Na parte de predição, com os fatores do dia T-1 como entrada, o BPNN gera o 
erro potencial de predição do dia T. Em seguida, o modelo GVL 2 é treinado por 100% 
dos dados históricos. Com a data histórica do dia T-31 ao dia T-1 como entrada, o 
modelo GVL 2 prevê os dados do dia T. Depois disso, combinando o erro potencial 
de previsão do dia T e a saída de previsão do modelo GVL 2, o os dados finais 
previstos do dia T são gerados. Ao contrário da rede LSTM, o BPNN é incapaz de 
estabelecer uma memória de longo prazo dos fatores. Portanto, na previsão de 
longo prazo, os dados históricos devem ser renovados frequentemente para atualizar 
o BPNN.
//Atualizar parte //
Se necessário, atualize os dados históricos quando novos dados 
chegarem. (Se os dados históricos forem atualizados assim que novos 
dados chegarem, o modelo GVL é o chamado modelo de 
decomposição em tempo de leitura [47–
49].) se a precisão da previsão do modelo cair com a evolução do 
tempo, então (10) 
Pause 
o laço.
//Parte de previsão 
(7) O dia de início do período de previsão é TA. repita (8) Preveja 
os dados 
financeiros do dia TA usando o modelo GVL 2 de acordo com as etapas (6) 
a (8) no Algoritmo 1.
//Parte de 
treinamento (1) Obtenha dados históricos: ANA ½nðn ¼ 1; 2; ... ;NAÞ.
3.1. Experiência 1
Conjunto de dados 1 Escolhemos os mesmos dados financeiros da referência 
[23]. Eles são o preço de fechamento da ação West Texas Intermediate (WTI), a 
taxa de câmbio do dólar americano em relação ao dólar canadense
série, treine o modelo BPNN.
De acordo com a descrição anterior, apresentamos nesta parte o pseudocódigo 
dos modelos GVL e GVL-MB. Para conveniência de ilustração, usamos o mesmo 
exemplo da Seção 2.2. Supondo que temos dados históricos ANA ½nðn ¼ 1; 
2; ... ;NAÞ sobre o preço de fechamento da ação A. O pseudocódigo dos modelos 
GVL e GVL-MB são fornecidos no Algoritmo1 e Algoritmo2, respectivamente.
(8) Preveja os dados do dia TA de acordo com a Fórmula 18.
50% dos dados históricos. Em seguida, o modelo GVL 1 bem treinado é usado para 
prever os 50% restantes dos dados históricos. A série de erros de previsão é 
calculada comparando o valor real e o valor previsto dos 50% restantes dos dados 
históricos.
(5) Com a série de erros de previsão e os fatores escolhidos
2.5. Pseudocódigo dos modelos GVL e GVL-MB
(4) Treinar a rede LSTM de acordo com a Fórmula 16.
(3) Prever os 50% restantes dos dados históricos usando o modelo GVL 1 de 
acordo com a parte de previsão do Algoritmo 1.
(12) Atualize os dados históricos e execute as etapas (1) a (4).
3. Experimente
//Parte de 
treinamento (1) Obtenha dados históricos: ANA ½nðn ¼ 1; 2; ... ;NAÞ.
(10) Calcule os dados de previsão finais do dia TA combinando os dados 
previstos da etapa (8) e o erro de previsão da etapa (9).
(3) Gere a entrada do processo de treinamento usando Fórmula
Y. Huang et al. / Neurocomputação 425 (2021) 207–218212
Machine Translated by Google
é
3.1.2. Resultados do experimento 1
Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, respectivamente.
o VMD. A Tabela 3 mostra os parâmetros gerados pelo GA no
do que o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD,
20% da série é utilizada para avaliação. No processo de treinamento,
o REMSE. Ele pode ampliar o efeito de valores discrepantes e mostrar o desvio dos 
valores previstos. Além disso, a influência do mesmo
precisamos calcular o erro real dos experimentos e introduzir as métricas MAPE. 
Suas definições estão listadas abaixo:
modelo é o pior. Em particular, os valores MAE do GVL-MB
entrada de recurso. O modelo é denominado modelo LSTM-U.
Parâmetros do VMD De acordo com a descrição da Seção 2.1,
12-26. O conjunto de dados 1 é mostrado na Fig. 3. Em cada série, os primeiros 80%
(USDCAD) e o Índice de Volatilidade (VIX). A duração dos dados
É uma métrica fundamental. Além disso, considerando que a precisão
é o melhor entre os modelos. O modelo GVL é ligeiramente inferior aoerro (MAPE) e a média raiz dos erros quadráticos (RMSE) como métricas de 
avaliação. MAE é igual ao valor médio do erro absoluto.
Caso WTI Da Tabela 4, o desempenho do modelo GVL-MB
modelos. Especificamente, o modelo Lahmiri-EMD foi desenhado por Lah-miri [23]. 
Ele usa EMD e a rede neural de regressão geral.
à Tabela 3, a VMD-Perda das partes de treinamento nos três casos
Métricas de Avaliação De acordo com a referência [23], selecionamos
Conduzimos experimentos no WTI, VIX e USDCAD
Modelos de linha de base Escolhemos o modelo ARMA, modelo FFNN,
modelo são 3,34%, 25,33%, 92,34%, 44,36%, 98,58% e 99,09% menos
a seleção de parâmetros do VMD emprega a regra de escolha de parâmetros. O 
GA é utilizado para otimizar os parâmetros de
da série são considerados dados históricos, enquanto o restante
mencionado acima são todos os dias de negociação de 02/01/2008 a 2013-
o modelo GVL-MB. O modelo LSTM-U ocupa o terceiro lugar e ARMA
dos modelos é muito influenciado pelos outliers, então apresentamos
o erro em pontos de dados com cardinalidade diferente não é o mesmo. Então
a rede LSTM com apenas os dados históricoscomo univariados
Então, o modelo Lahmiri-VMD [23] emprega VMD e rede neural de regressão geral. 
Finalmente, construímos um modelo de previsão usando
o erro absoluto médio (MAE), a porcentagem média absoluta
cada um pode obter o valor mínimo.
casos. Os resultados experimentais são mostrados nas Tabelas 4–6.
Modelo Lahmiri-EMD, modelo Lahmiri-VMD e LSTM-U como linha de base
três casos respectivamente. Quando definimos os parâmetros de acordo
apenas os dados históricos serão decompostos pelo algoritmo VMD.
ðValor realðiÞ Valor previstoðiÞÞ
eu¼1XT
PT i¼1jValorrealðiÞ ValorprevistoðiÞj
Valor realðiÞ
PT i¼1ðValorrealðiÞ ValorprevistoðiÞÞ2
onde T é o comprimento da sequência e i representa o script de tempo.
ea
Tabela 4
Resultados experimentais do caso WTI.
Tabela 5
Resultados experimentais do caso VIX.
Parâmetros da rede LSTM. Parâmetros do VMD nos três casos gerados pelo algoritmo genético.
Tabela 3mesa 2
11.4755
Modelo
ARMA
1.5933
1.00E07
15
0,677091 
0,704201
Parâmetros
REQM
116.751
1,5795
1.9322
0
LSTM-U
0,878758 
0,909116
MAE
Número do tamanho do lote
ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23].
1.00E07
22
4.345476 
4.581722
Modelo
61.9352 
96.9726
LSTM-U
0,006
Lahmiri-EMDÿ
ARMA
1,578895
MAPE
30 K
38,32
GVL-MB(melhor)
1.238721
WTI
Valor
3,8437 
1,6727 
37,24 
9,3023
0,859166
Lahmiri-EMDÿ
0,916092 
0,946775
ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23].
25.2435
GVL-MB(melhor)
1.00E07
Número de passos de tempo
1.043523
1
Figura 3. O conjunto de dados 1.
Lahmiri-VMD
Y. Huang et al. / Neurocomputação 425 (2021) 207–218
7.889263
1.142075
12.7085
REQM
Taxa de Aprendizagem
5
Lahmiri-VMD
64.3726 
97.1308
1.176908
MAE
25.5625 
11.3716 
25.16 
62.3786
VIX
Parâmetro
FFNN
1,058757
2.1094
GVL
0
25
GVL
10.0399
1.176233
USDCAD
Caso
213
50
1.14825
FFNN
1,00E+01 
1,00E+01 
1,00E+01
Número de unidades da camada oculta
4.3238
MAPE
62.2902
Conjunto de dados 1
150
800
Used para avaliação
1200
50
Uesd para treinamento
200
Uesd para treinamento
1200
600
1.4
200
200
80
1
1000
600
40
600
Uesd para treinamento
1400
1000
800
100
400
1000
Used para avaliação
1400
1400
Used para avaliação
800
1.2
400
60
400
1200
20
Hora (dia)
Hora (dia)
VIX
WTI
USDCAD
Hora (dia)
Taxa 
Preço 
Preço 
T
;
j
T
MAPE ¼
T
1
MAE¼
2s
REQM ¼ ð22Þ
ffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiff
j 100%;
;
Machine Translated by Google
Tabela 7
Resultados experimentais do caso USDCAD.
Tabela 6
Resultados experimentais do parâmetro selecionado de diferentes maneiras.
8.7801
Lahmiri-EMDÿ 0,0358
0,8979
parâmetros
Valor K
K=7 0,924754 0,962879 1,181462
K = 9 0,977303 1,017870 1,221110
K = 10 0,928081 0,966488 1,183573
GVL(melhor) 0,003685
REQM
K = 12
0,0294 
0,0289 
0,2524
MAPE
K = 11
MAPE
214
FFNN 0,2535
1.1152
K = 6
0,967428 1,007521 1,206700
A ga (melhor)
K = 8 0,958532 0,998080 1,211350
Parâmetro gerado por
Modelo
LSTM-U 0,0042
ARMA
Usado frequentemente 0,949279 0,987709 1,206502
K = 25
GVL-MB 0,007803
REQMMAE
Y. Huang et al. / Neurocomputação 425 (2021) 207–218
0,005902 
0,002845 
0,003261
0,576187 
0,277521 
0,318678 
2,9286 
2,8773 
24,7592
ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [23].
MAE
0,980584 1,020916 1,230966
0,909116 0,946775 1,176233
Lahmiri-VMD 0,0352
Caso USDCAD Da Tabela 6, o desempenho do modelo GVL
modelo GVL-MB são reduzidos em 5,16%, 44,92%, 83,00%, 61,79%,
3.3. Experimento 3
o Índice Hang Seng (HSI) e a Bolsa de Valores do Financial Times
os valores são 0,924754, 0,962879 e 1,181462, respectivamente. Entretanto, os 
valores MAE, MAPE e RMSE do modelo GVL com
Caso HSI Na Tabela 9, o desempenho do modelo GVL-MB é
parâmetro VMD frequentemente usado (K = 6; 7; 8; ; 12) e compare
Modelo FFNN e modelo ARMA, os valores MAE do modelo GVL
Os valores MAPE do modelo GVL-MB são 3,24%, 26,05%, 92,79%,
Testamos os parâmetros usados com frequência e o parâmetro
detalhes.
na Figura 4. Pré-processamos os dados de acordo com a referência [29].
modelo, e o modelo ARMA, os valores MAE do modelo GVL-MB
são 0,0144, 2,6090 e 0,0196, respectivamente. Entre os modelos da série VMD-
RKELM, o modelo com a função de kernel Polinomial é o melhor. Os valores MAE, 
MAPE e RMSE são 0,0120,
os dados históricos. Os 33,3% restantes da série são utilizados para
excede o modelo GVL-MB. LSTM-U sobe para o segundo lugar e o
segundo lugar enquanto o modelo LSTM-U permanece em terceiro. Comparado 
com o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD,
o modelo tem melhor desempenho quando a regra de escolha de parâmetros
Em primeiro lugar, a série WTI no conjunto de dados 1 é usada como conjunto de dados para
Nesta parte, pretendemos demonstrar a eficácia do
Extreme Learning Machine e o VMD (VMD-RKELM), o modelo
respectivamente. Os valores RMSE do modelo GVL são reduzidos em
do que o modelo GVL, modelo LSTM-U, modelo Lahmiri-EMD,
são reduzidos em 20,42%, 45,88%, 35,05%, 69,32% e 76,74%, respectivamente. 
Os valores MAPE do modelo GVL-MB são reduzidos em
o melhor e o modelo GVL fica em segundo lugar. Entre o
Conjuntos de dados de 100 índices (FTSE). A duração dos dados mencionados
82,73% e 93,03%, respectivamente. Os valores de RMSE do modelo GVL-MB são 
reduzidos em 1,44%, 9,12%, 75,87%, 45,99%, 97,28%,
rede.
Métricas de Avaliação De acordo com a referência [29], MAE, MAPE
42,50%, 98,58% e 99,06% menos que o modelo GVL, modelo LSTM-U, modelo 
Lahmiri-EMD, modelo Lahmiri-VMD, modelo FFNN,
são reduzidos em 51,80%, 12,77%, 90,32%, 90,16%, 98,87% e
obtido por GA. Os resultados experimentais são mostrados na Tabela 7.
Nesta parte, demonstramos ainda a superioridade dos modelos propostos 
quando os utilizamos para prever o índice de mercado
Parâmetros selecionados Através da descrição da Regra de Escolha de 
Parâmetros na Seção 2.1, o GA é adotado para otimizar os parâmetros do VMD. A 
Tabela 8 mostra os parâmetros gerados pelo GA em
2,2054, 0,0164, respectivamente. Comparado com o modelo GVL, o
O modelo GVL-MB cai para o terceiro. Comparado com o GVL-MB
avaliação. No processo de treinamento, apenas os dados históricos serão
os parâmetros gerados pelo GA são 0,909116, 0,946775 e
com o modelo GVL cujo parâmetro do algoritmo VMD é
misturando o Robust Kernel Extreme Learning Machine e o EMD
52,78%, 12,28%, 89,71%, 89,53%, 98,55% e 99,67%, respectivamente.
Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, respectivamente.
e RMSE são escolhidos como métricas de avaliação.
99,68%, respectivamente. Os valores MAPE do modelo GVL são
e modelo ARMA, respectivamente. Os valores RMSE do GVL-MB
Regra de escolha de parâmetros. Construímos o modelo GVL com o 27,04%, 56,44%, 48,47%, 78,66% e 82,41%, respectivamente. O
3.3.1. Configurações do experimento 3
Modelo Lahmiri-VMD, modelo FFNN e modelo ARMA, os valores MAE do modelo 
GVL-MB são reduzidos em 3,85%, 21,19%, 82,38%,
é adotadopara gerar os parâmetros do algoritmo VMD.
experimento 2. Em seguida, selecionamos MAE, MAPE e RMSE como avaliação
Entre os parâmetros frequentemente utilizados, quando K = 7, o GVL
dois casos, respectivamente.
(EMD-RKELM), o modelo de regressão vetorial de suporte (SVR) e
Caso VIX Conforme mostrado na Tabela 5, o desempenho do GVL-MB
Resumindo, os métodos propostos conseguem obter o melhor desempenho nos 
três casos. Estes resultados experimentais comprovam a
dados.
3.2.2. Resultados do experimento 2
modelo, modelo LSTM-U, modelo Lahmiri-EMD, modelo Lahmiri-VMD,
acima estão todos os dias de negociação de 04 de janeiro de 2010 a 12 de janeiro
e 89,61%, respectivamente.
Modelos da série EMD-RKELM, o modelo com a tangente hiperbólica
1,176233, que são 5,44%, 5,42% e 2,99% melhores que os de
gerado pelo GA.
modelo atinge o melhor desempenho. É MAE, MAPE e RMSE
3.3.2. Resultados do experimento 3
3.2. Experimento 2
reduzido em 51,83%, 12,91%, 90,52%, 90,35%, 98,88% e 96,84%,
modelo são 2,90%, 27,67%, 95,48%, 45,86%, 98,17% e 99,02% menos
Modelos de linha de base Usamos o modelo que mistura o Kernel Robusto
Métricas. Não entraremos em detalhes aqui. Consulte a Seção 3.1.1 para
melhor modelo EMD-RKELM, o melhor modelo VMD-RKELM, o SVR
ser decomposto pelo algoritmo VMD. O conjunto de dados 3 é mostrado
Conjunto de dados 3 Selecionamos os conjuntos de dados mencionados em [29]. Eles são
59,52%, 98,18% e 92,72%, respectivamente. Os valores MAPE do
modelo também é o melhor entre os modelos. O modelo GVL ainda leva
3.2.1. Configurações do experimento 2
o modelo GVL com K = 7. O experimento 2 indica que o GVL
Modelo de média móvel autorregressiva (ARMA) como modelos de linha de base.
eficácia dos métodos propostos e indicam que a implementação do VMD melhora 
o desempenho do LSTM
a função do kernel é a melhor. Os valores MAE, MAPE e RMSE
2016. Em cada série, os primeiros 66,7% da série são considerados
Machine Translated by Google
Usado para avaliação
Usado para avaliação
Usado para treinamento
Usado para treinamento
Ponto 
Ponto 
o processo de treinamento, apenas os dados históricos serão decompostos
Experimentos nos casos HSI e FTSE mostram que a proposta
1,8822 e 0,0166, respectivamente. Comparado com o modelo GVL,
como modelos de base. O modelo misturando a regressão do vetor de suporte e o 
VMD (VMD-SVR), e o modelo misturando o suporte
Nesta parte, demonstramos ainda mais a superioridade do programa
Os valores de RMSE do modelo GVL-MB são reduzidos em 6,56%, 22,83%,
Conjunto de dados 4 Usamos os conjuntos de dados mencionados na referência [51].
Modelo SVR e modelo ARMA, os valores MAE do GVL-MB
Além do mais, o modelo de rede neural de vetor de suporte (SVNN),
dados de índice.
(USDCNY) e a taxa de câmbio do dólar americano em relação ao japonês
(ARIMA) são escolhidos como modelos de linha de base.
Caso FTSE Da Tabela 9, o desempenho do modelo GVL-MB
90,53%, respectivamente. Os valores MAPE do modelo GVL-MB são
nos dias de negociação de 04 de janeiro de 2010 a 29 de dezembro de 2017. Em
Modelos da série EMD-RKELM, o modelo com a tangente hiperbólica
29,13%, 57,80%, 56,27%, 89,13% e 94,19%, respectivamente.
Seção 2.1, os resultados da seleção de parâmetros do VMD pelo
Modelos de linha de base Selecionamos o modelo misturando a rede neural de 
vetor de suporte e o VMD (VMD-SVNN), e o modelo misturando a rede neural de vetor 
de suporte e o EMD (EMD-SVNN)
dados. Os restantes 22,5% da série são utilizados para avaliação. Em
são 0,0131, 2,1460 e 0,0172, respectivamente. Entre os modelos da série VMD-RKELM, 
o modelo com a função de kernel Polinomial é o melhor. Os valores MAE, MAPE e 
RMSE são 0,0121,
Métricas de Avaliação De acordo com a referência [51], o MAPE é
3.4.1. Configurações do experimento 4
3.4. Experimento 4
pelo algoritmo VMD. O conjunto de dados 4 é mostrado na Fig .
o melhor modelo EMD-RKELM, o melhor modelo VMD-RKELM, o
a regressão vetorial e o EMD (EMD-SVR) também são construídos.
modelos têm melhor precisão de previsão para previsão de mercado
modelos propostos aplicados para prever os dados da taxa de câmbio.
modelo são reduzidos em 30,47%, 72,67%, 70,41%, 83,35% e
Eles são a taxa de câmbio do dólar americano em relação ao yuan chinês
7,77%, 82,67% e 95,90%, respectivamente.
o modelo SVR e a média móvel integrada autoregressiva
Iene (USDJPY). A duração dos dados mencionados acima é toda
é o melhor e o desempenho do modelo GVL é o próximo. Entre o
reduzido em 28,12%, 76,69%, 73,42%, 87,71% e 91,49%, respectivamente. Os valores 
RMSE do modelo GVL-MB são reduzidos em
Resultados dos parâmetros selecionados De acordo com a descrição de
a função do kernel é a melhor. Os valores MAE, MAPE e RMSE
cada série, os primeiros 87,5% da série são considerados como o histórico
escolhida como métrica de avaliação do experimento 4.
A regra de escolha de parâmetros é mostrada na Tabela 10.
e
Hora (dia)
FTSE
HSI
Hora (dia) 1400
1200 1400
1200
1000
2,5
5.000
2
1000
800
6.000
800
600
3
7.000
104
600400
400
8.000
200
200
4000
1,5
Conjunto de dados 3
0,5003 
0,6960 
2,1587
REQM
0,0171
1.00E04
Figura 4. O conjunto de dados 3.
6.4615
EMD-RKELM (kernel gaussiano)
0,01310,0144
GVL
5.3245
K
2,9075 
2,7349 
2,2054 
2,3067 
2,3810 
2,4226
VMD-RKELM (kernel gaussiano)
0 
1
0,0215
HSI
As estatísticas das métricas de avaliação do modelo são citadas no artigo [29].
2.1460
0,0073
MAE
0,0668
0,0177
Caso FTSE
EMD-RKELM (kernel Wavelet)
1,1364 
1,5576 
2,6593
20 
15
ARMA
2.6090
EMD-RKELM (kernel polinomial)*
0,0167
0,0378
VMD-RKELM (kernel Wavelet)
Modelo
0,0227 
0,0210 
0,0164 
0,0173 
0,0176 
0,0182
VMD-RKELM (kernel polinomial)
FTSE
0,0172
MAPE
0,0873
0,1249
0,0181
0,0151 
0,0162 
0,0203
Y. Huang et al. / Neurocomputação 425 (2021) 207–218
0,0144 
0,0148 
0,0121 
0,0125 
0,0124 
0,0126
SVR
Caso HSI
4.0718
1.00E06
0,0169
REQM
0,0103
Caso
0,0036 
0,0051 
0,0132
0,0167 
0,0155 
0,0120 
0,0124 
0,0128 
0,0133
VMD-RKELM (kernel hiperbólico tangente)
0,0166
0,0335
0,0196EMD-RKELM (kernel hiperbólico tangente)
MAE
Parâmetros
215
2,1627 
2,2102 
1,8822 
1,9138 
1,8834 
1,9120
0,0078 
0,0098 
0,0148
MAPE
1,00E+01 
1,00E+01
5.87830,3688
0,0254
0,0175
GVL-MB(melhor)
*
Tabela 9
Resultados experimentais dos casos HSI e FTSE.
Parâmetros do VMD nos dois casos gerados pelo algoritmo genético.
Tabela 8
a é
Machine Translated by Google
Usado para
Usado para treinamento
avaliação
Usado para treinamento
avaliação
Usado para
Taxa 
Taxa 
A rede LSTM alcança melhor desempenho com variáveis multi-recursos como 
entradas do que com um recurso univariado
todos os casos dos experimentos 3 e 4. Isso implica que o
que a adoção do VMD aprimora a rede LSTM ao
do que o modelo LSTM-U. Tanto o modelo GVL quanto o LSTM-U
modelo, o modelo EMD-SVNN, o modelo VMD-SVR e o
Modelo LSTM-U. Indica que quando o nível de flutuação é
o método de redução de erros de previsão pode se tornar inválido.
experimento 4, os modelosGVL e GVL-MB venceram o SVNN
modelo SVNN, o modelo EMD-SVR, o modelo EMD-SVNN, o
Caso USDJPY Da Tabela 11, o desempenho do GVL-MB
elevado, como os casos WTI e VIX, o erro de previsão
combinações.
parâmetro VMD frequentemente usado. Indica que a proposta
Resume-se que os modelos propostos podem obter melhores
são modelos robustos de previsão de dados financeiros que podem prever
(4) No experimento 1, o modelo GVL apresenta melhor precisão de predição 
que o modelo Lahmiri-VMD e o modelo Lahmiri-EMD.
entrada.
Modelo VMD-SVNN, os valores MAPE do modelo GVL-MB são
o método de redução de erros de previsão é eficaz. No entanto, no
decompor um recurso de entrada em muitas entradas. O resultado
modelo é o melhor entre os modelos no caso USDCNY. O
modelo VMD-SVR e o modelo VMD-SVNN, os valores MAPE de
modelo, o modelo SVR e o modelo ARIMA. Isso indica que
(6) De acordo com os experimentos 1, 3 e 4, os modelos propostos
(3) No experimento 1, os modelos GVL e GVL-MB executam
modelo é o melhor entre os modelos no caso USDJPY. O GVL
o método de redução reduz o erro de predição e o modelo GVL-MB tem maior 
precisão que o modelo GVL. Quando o
desempenho para prever a taxa de câmbio.
diferentes tipos de dados financeiros.
No experimento 3, o modelo GVL apresenta melhor desempenho que
do modelo GVL-MB são reduzidos em 2,88%, 56,29%, 44,70%,
mostram superioridade na previsão do preço das ações, índice de mercado e
os modelos GVL e GVL-MB apresentam mais vantagens que
O modelo GVL está em segundo lugar. Comparado com o modelo GVL,
(5) O modelo GVL-MB alcança melhor precisão de previsão do que o
A regra de escolha de parâmetros é eficaz.
3.5. Discussão de resultados experimentais
o modelo EMD-RKELM e o modelo VMD-RKELM. No experimento 4, o modelo 
GVL vence o EMD-SVR, o EMD-SVNN, o
3.4.2. Resultados do experimento 4
melhor que o modelo ARMA e o modelo FFNN. No experimento 3, os modelos 
GVL e GVL-MB apresentam melhor desempenho que o modelo ARMA e o 
modelo SVR. Em
nível de flutuação é baixo, como o caso do USDCAD, o
reduzido em 12,60%, 70,51%, 57,55%, 58,27%, 49,58%, 46,08%,
Caso USDCAD do experimento 1, o modelo GVL vence o modelo GVL-MB e 
o modelo GVL-MB é até derrotado pelo
também comprova o achado no estudo de caso [52]. Ou seja, o
taxa de câmbio. Indica que os modelos GVL e GVL-MB
os modelos tradicionais de previsão de dados financeiros.
38,87%, 24,61%, 22,23%, 15,75%, 2,88%, respectivamente.
o modelo e o modelo VMD-SVNN estão em segundo lugar. Comparado com o 
modelo GVL, o modelo ARIMA, o modelo SVR, o
o modelo ARIMA, o modelo SVR, o modelo SVNN, o EMD-SVR
Modelo GVL nos casos WTI e VIX do experimento 1 e
use apenas os próprios dados financeiros como recurso de entrada. Isso significa
(2) No experimento 1, o modelo GVL apresenta melhor desempenho
VMD-SVR e o modelo VMD-SVNN. Isso implica que a combinação da rede VMD 
e da rede LSTM é melhor do que outras
(1) No experimento 2, o modelo GVL com parâmetro VMD gerado pelo GA 
tem desempenho melhor que os modelos GVL com
Discutimos as descobertas dos experimentos abaixo:
Caso USDCNY Da Tabela 11, o desempenho do GVL-MB
31,61% e 25,01%, respectivamente.
Tabela 11
Resultados experimentais dos casos USDCNY e USDJPY.
Parâmetros do VMD nos dois casos gerados pelo algoritmo genético.
Tabela 10
Conjunto de dados 4
1200 1600
100
6
1400
600 800 1600
1000
400
800
6,5
120
200
600
140
1800 2000
7
400 2000
60
1200
200 1800
80
1000 1400
USD/JPY
Hora (dia)
Hora (dia)
USDCNY
1.00E07
0,354 
0,293 
0,274 
0,216 
0,197
ÿ As estatísticas das métricas de avaliação do modelo são citadas no artigo [51].
0,523
0,406
1
Caso MAPE/USDCNY
SVR
USDCNY
0,468
EMD-SVR
GVL-MB(melhor)
EMD-SVNN
1,00E+02 
1,00E+02
Figura 5. O conjunto de dados 4.
K
216
ARIMAÿ
0,713
VMD-SVNN
1.00E06
0,394
0,645
1
Modelo
0,902
0,507
Caso MAPE/USDJPY
SVNN
0,406
Parâmetros
USD/JPY
VMD-SVR
GVL
0,348
Caso
0,148 
0,169 
0,501
32 
32
Y. Huang et al. / Neurocomputação 425 (2021) 207–218
a é e
Machine Translated by Google
Declaração de interesse concorrente
Os autores declaram que não têm interesses financeiros concorrentes 
ou relações pessoais conhecidas que possam ter influenciado o trabalho 
relatado neste artigo.
Neste artigo, propusemos um novo modelo de previsão de dados 
financeiros baseado em VMD, nomeadamente o modelo GVL. Emprega 
a rede LSTM, o GA e o BPNN. Em seguida, a perda de VMD e a regra 
de escolha de parâmetros são definidas para orientar a seleção dos 
parâmetros do algoritmo VMD. Concretamente, o AG é utilizado para 
resolver o problema de otimização na seleção de parâmetros. Então, um 
método de redução de erros de predição é proposto para melhorar a 
precisão da predição do modelo GVL. Neste método, o BPNN é adotado 
para criar um mapeamento entre o erro de previsão e os fatores escolhidos 
dos dados financeiros. Concluindo, em comparação com os algoritmos 
de linha de base, os modelos propostos são de alta precisão de previsão. 
No entanto, o uso de algoritmos de otimização para gerar os parâmetros 
VMD consome parte dos recursos computacionais. Portanto, encontrar 
uma maneira mais simples de gerar os parâmetros VMD será nosso 
estudo adicional.
4. Conclusão
Referências
217
[31] K. Greff, RK Srivastava, J. Koutník, BR Steunebrink, J. Schmidhuber, Lstm: uma odisséia no 
espaço de pesquisa, IEEE Trans. Rede Neural. Aprender. Sist. 28 (2016) 2222–
2232.
Econometro. 31 (1986) 307–327.
[36] F. Kadri, M. Baraoui, I. Nouaouri, Uma abordagem de aprendizagem profunda baseada em lstm 
com aplicação para prever admissões em departamentos de emergência hospitalar, em: 2019 
Conferência Internacional sobre Engenharia Industrial e Gestão de Sistemas (IESM), IEEE, 
2019, páginas 1–6.
[16] S. Kumar, D. Ningombam, Previsão de curto prazo dos preços das ações usando memória de longo e curto 
prazo, em: 2018 Conferência Internacional sobre Tecnologia da Informação (ICIT), 2018, pp. org/10.1109/ 
ICIT.2018.00046.
[33] D.-R. Liu, S.-J. Lee, Y. Huang, C.-J. Chiu, Previsão da poluição do ar com base na rede neural 
lstm baseada na atenção e na aprendizagem de conjunto, Expert Syst. (2019).
[19] M. Risse, Combinando decomposição wavelet com aprendizado de máquina para prever retornos 
de ouro, Int. J. Previsão. 35 (2019) 601–615.
[24] R. Bisoi, PK Dash, AK Parida, Decomposição de modo variacional híbrido e máquina de 
aprendizado extremo de kernel robusto evolutivo para preço de ações e previsão de movimento 
diariamente, Appl. Computação suave. 74 (2019) 652–678, https://doi.org/10.1016/
j.asoc.2018.11.008.
Finanças 42 (1987) 281–300.
[38] JH Holland et al., Adaptação em Sistemas Naturais e Artificiais: Uma Análise Introdutória com 
Aplicações à Biologia, Controle e Inteligência Artificial, MIT Press, 1992.
[18] MR Vargas, CEM dos Anjos, GLG Bichara, AG Evsukoff, Aprendizado profundo para previsão do 
mercado de ações usando indicadores técnicos e artigos de notícias financeiras,
[21] Z. Qian, Y. Pei,H. Zareipour, N. Chen, Uma revisão e discussão de modelos híbridos baseados 
em decomposição para aplicações de previsão de energia eólica, Appl. Energia 235 (2019) 939–
953.
[26] Y. Wu, J. Gao, Aplicação de rede neural de vetor de suporte com decomposição de modo 
variacional para previsão de taxa de câmbio, Soft Comput. 23 (2019) 6995–7004, https://doi.org/
10.1007/s00500-018-3336-1.
[11] M. Paluch, L. Jackowska-Strumillo, Modelos híbridos combinando análise técnica e fractal com 
ANN para previsão de curto prazo de valores próximos na bolsa de valores de Varsóvia, Appl. 
Sci.-Basel 8 (2018), https://doi.org/10.3390/app8122473 .
[1] MT Gonzalez-Perez, Índices de volatilidade sem modelo na literatura financeira: uma revisão, Int. Rev. Finanças 40 (2015) 
141–159, https://doi.org/10.1016/j. iref.2015.02.018.
21 (1969) 243–247.
[40] B. Mc Ginley, J. Maher, C. O'Riordan, F. Morgan, Mantendo a diversidade populacional saudável 
usando cruzamento adaptativo, mutação e seleção, IEEE Trans. Evol. Computação. 15 (2011) 
692–714.
[44] A. Aslanargun, M. Mammadov, B. Yazici, S. Yolacan, Comparação de arima, redes neurais e 
modelos híbridos em séries temporais: previsão de chegada de turistas, J.
[28] X. Li, Y. Wei, A dependência e a repercussão do risco entre o mercado de petróleo bruto e o 
mercado de ações da China: novas evidências de um método de cópula baseado em 
decomposição de modo variacional, Energy Econ. 74 (2018) 565–581, https://doi.org/10.1016/
j.eneco.2018.07.011 .
Processo de sinal. 62 (2014) https://doi.org/10.1109/TSP.2013.2288675 .
[3] BM Henrique, VA Sobreiro, H. Kimura, Revisão de literatura: técnicas de aprendizado de máquina 
aplicadas à previsão do mercado financeiro, Expert Syst. Apl. 124 (2019) 226–251, https://
doi.org/10.1016/j.eswa.2019.01.012.
Assoc. 65 (1970) 1509–1526.
[13] T. Gao, Y. Chai, Melhorando a previsão do preço de fechamento de ações usando rede neural 
recorrente e indicadores técnicos, Neural Comput. 30 (2018) 2833–2854, https://doi.org/10.1162/
neco_a_01124.
[42] L. Wang, Y. Zeng, T. Chen, Rede neural de retropropagação com algoritmo de evolução diferencial 
adaptativo para previsão de séries temporais, Expert Syst. Apl. 42 (2015) 855–863.
Y. Huang et al. / Neurocomputação 425 (2021) 207–218
[45] Y. Zhao, S. Fan, Análise de previsão de ações com base em aprendizagem profunda e algoritmos 
de investimento quantitativos com múltiplos indicadores, em: 3ª Conferência Internacional sobre 
Engenharia da Computação, Ciência da Informação e Tecnologia de Aplicação (ICCIA 2019), 
Atlantis Press, 2019. .
[8] T. Bollerslev, Heterocedasticidade condicional autoregressiva generalizada, J.
[30] S. Hochreiter, J. Schmidhuber, Memória de longo prazo, Computação Neural. 9 (1997) 1735–1780.
[5] H. Akaike, Ajustando modelos autoregressivos para previsão, Ann. Inst. Estado. Matemática.
[35] H. Liu, H. Xu, Y. Yan, Z. Cai, T. Sun, W. Li, Previsão do tempo de chegada do ônibus com base 
em lstm e vetor de características espaço-temporais, IEEE Access 8 (2020) 11917–11929 .
[15] R. Ray, P. Khandelwal, B. Baranidharan, Uma pesquisa sobre previsão do mercado de ações 
usando técnicas de inteligência artificial, em: 2018 Conferência Internacional sobre Sistemas 
Inteligentes e Tecnologia Inventiva (ICSSIT), IEEE, 2018, pp. .
[23] S. Lahmiri, Uma abordagem de decomposição de modo variacional para análise e previsão de 
séries temporais econômicas e financeiras, Expert Syst. Apl. 55 (2016) 268–273, https://doi.org/
10.1016/j.eswa.2016.02.025.
[32] Y. Zeng, X. Liu, modelo de previsão de flutuação de preços de ações A baseado em lstm, em: 
2018 14ª Conferência Internacional sobre Semântica, Conhecimento e Grades (SKG), IEEE, 
2018, pp.
em: Conferência Conjunta Internacional sobre Redes Neurais de 2018 (IJCNN), 2018, pp. 1–8, 
https://doi.org/10.1109/IJCNN.2018.8489208.
[9] J. Hull, A. White, A precificação de opções sobre ativos com volatilidades estocásticas, J.
[37] Y. Liu, C. Yang, K. Huang, W. Gui, Previsão de preços de metais não ferrosos com base na 
decomposição do modo variacional e rede lstm, Knowl.-Based Syst. 188 (2020) 105006.
[20] J. Cao, Z. Li, J. Li, Modelo de previsão de séries temporais financeiras baseado em ceemdan e 
lstm, Physica A 519 (2019) 127–139.
[34] GN Kouziokas, Redes neurais profundas de memória de longo e curto prazo (lstm) na previsão 
de aparelhos de energia, em: 2019 Panhellenic Conference on Electronics & Telecommunications 
(PACET), IEEE, 2019, pp.
[25] S. Lahmiri, Previsão intradiária do preço das ações com base na decomposição do modo 
variacional, J. Comput. Ciência. 12 (2016) 23–27, https://doi.org/10.1016/j. jocs.2015.11.011.
[10] S. Borovkova, I. Tsiamas, Um conjunto de redes neurais LSTM para classificação do mercado 
de ações de alta frequência, J. Forecast. 38 (2019) 600–619, https://doi.org/10.1002/for.2585 .
[39] K.-D. Lu, G.-Q. Zeng, J. Chen, W.-W. Peng, Z.-J. Zhang, Y.-X. Dai, Q. Wu, Comparação de 
algoritmos genéticos codificados binários com diferentes estratégias de seleção para problemas 
de otimização contínua, em: Congresso Chinês de Automação de 2013, IEEE, 2013, pp.
Redes para Percepção, Elsevier, 1992, pp.
[22] K. Dragomiretskiy, D. Zosso, decomposição do modo variacional, IEEE Trans.
[27] S. Lahmiri, Memória longa nas tendências dos mercados financeiros internacionais e movimentos 
curtos durante a crise financeira com base na decomposição do modo variacional e na análise 
de flutuação prejudicada, Physica A 437 (2015) (2008) 130–138, https://doi. org/10.1016/
j.physa.2015.05.067.
[2] A. Kazem, E. Sharifi, FK Hussain, M. Saberi, OK Hussain, Regressão vetorial de suporte com algoritmo 
vaga-lume baseado no caos para previsão de preços no mercado de ações, Appl. Computação suave. 13 
(2013) 947–958, https://doi.org/10.1016/j. asoc.2012.09.024.
[6] GE Box, DA Pierce, Distribuição de autocorrelações residuais em modelos de séries temporais 
de média móvel integrados autoregressivos, J. Am. Estado.
[12] M.-C. Lee, Usando máquina de vetores de suporte com um método híbrido de seleção de recursos 
para a previsão de tendências de ações, Expert Syst. Apl. 36 (2009) 10896–10904, https://
doi.org/10.1016/j.eswa.2009.02.038.
[41] AJ Keown, JM Pinkerton, Anúncios de fusão e atividade de negociação com informações 
privilegiadas: uma investigação empírica, J. Finance 36 (1981) 855–869, https://doi.org/10.1111/
j.1540-6261.1981.tb04888.x .
[4] GS Atsalakis, KP Valavanis, Levantamento de técnicas de previsão do mercado de ações - parte 
i: métodos convencionais, J. Comput. Ótimo. Economia. Finanças 2 (2010) 45–92.
[29] R. Bisoi, P. Dash, A. Parida, Decomposição de modo variacional híbrido e máquina de aprendizado 
extremo de kernel robusto evolutivo para preço de ações e previsão de movimento diariamente, 
Appl. Computação suave. 74 (2019) 652–678.
[7] RF Engle, Heterocedasticidade condicional autoregressiva com estimativas da variância da inflação do 
Reino Unido, Econometrica: J. Econometr. Soc. (1982) 987–1007.
[14] GS Atsalakis, KP Valavanis, Levantamentode técnicas de previsão do mercado de ações – Parte 
II: métodos de computação suave, Expert Syst. Apl. 36 (2009) 5932–5941, https://doi.org/
10.1016/j.eswa.2008.07.006.
[43] R. Hecht-Nielsen, Teoria da rede neural de retropropagação, em: Neural
[46] DBB Nguyen, M. Prokopczuk, CW Simen, O prêmio de risco do ouro, J. Int.
531–544,
Finanças Financeiras 94 (2019) 140–159.
[17] M. Nofer, O. Hinz, Usando o Twitter para prever o mercado de ações, onde está o efeito do humor?, 
Business Inf Syst. Eng. 57 (2015) 229–242, https://doi.org/10.1007/s12599-015-0390-4 .
Estado. Computação. Simul. 77 (2007) 29–53.
Machine Translated by Google
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0155
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0040
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0180
https://doi.org/10.1109/ICIT.2018.00046
https://doi.org/10.1109/ICIT.2018.00046
https://doi.org/10.1109/ICIT.2018.00046
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0165
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0095
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0095
https://doi.org/10.1016/j.asoc.2018.11.008
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0045
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0190
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0105
https://doi.org/10.1007/s00500-018-3336-1
https://doi.org/10.3390/app8122473
https://doi.org/10.1016/j.iref.2015.02.018
https://doi.org/10.1016/j.iref.2015.02.018
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0025
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0200
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220
https://doi.org/10.1016/j.eneco.2018.07.011
https://doi.org/10.1109/TSP.2013.2288675
https://doi.org/10.1016/j.eswa.2019.01.012
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030
https://doi.org/10.1162/neco_a_01124
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0210
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0040
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0150
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0150
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0025
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0175
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0175
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0075
https://doi.org/10.1016/j.eswa.2016.02.025
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0160
https://doi.org/10.1109/IJCNN.2018.8489208
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0045
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0185
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0100
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0100
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0170
https://doi.org/10.1016/j.jocs.2015.11.011
https://doi.org/10.1016/j.jocs.2015.11.011
https://doi.org/10.1002/for.2585
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0195
https://doi.org/10.1016/j.physa.2015.05.067
https://doi.org/10.1016/j.asoc.2012.09.024
https://doi.org/10.1016/j.asoc.2012.09.024
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0030
https://doi.org/10.1016/j.eswa.2009.02.038
https://doi.org/10.1111/j.1540-6261.1981.tb04888.x
https://doi.org/10.1111/j.1540-6261.1981.tb04888.x
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0020
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0145
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0035
https://doi.org/10.1016/j.eswa.2008.07.006
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0230
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0230
https://doi.org/10.1007/s12599-015-0390-4
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0220
[52] J. Du, Q. Liu, K. Chen, J. Wang, Previsão de preços de ações de duas maneiras com base na rede neural 
lstm, em: 2019 IEEE 3ª Conferência de Tecnologia da Informação, Rede, Controle Eletrônico e Automação 
(ITNEC), IEEE, 2019, pp .
208–220.
[48] X. Zhang, Y. Peng, C. Zhang, B. Wang, Os modelos híbridos integrados com técnicas de pré-
processamento de dados são adequados para previsão mensal de vazões? Algumas evidências 
experimentais, J. Hydrol. 530 (2015) 137–152.
[49] N. Sun, J. Zhou, L. Chen, B. Jia, M. Tayyab, T. Peng, Um modelo dinâmico adaptativo de previsão 
da velocidade do vento de curto prazo usando decomposição secundária e uma máquina de 
aprendizagem extrema regularizada melhorada, Energia 165 (2018) 939–957.
Mao Ye recebeu o diploma de bacharelado pela Sichuan Normal 
University, Chengdu, China, em 1995, e o mestrado pela Universidade 
de Ciência e Tecnologia Eletrônica da China, Chengdu, China, em 
1998 e Ph.D. licenciatura pela Universidade Chinesa de Hong Kong, 
China, em 2002, toda em matemática. Ele foi pesquisador visitante por 
um curto período na Universidade de Queensland e na Universidade 
da Pensilvânia. Atualmente é professor e diretor do CVLab da 
Universidade de Ciência Eletrônica e Tecnologia da China, Chengdu, 
China. Seus interesses de pesquisa incluem aprendizado de máquina 
e visão computacional. Nessas áreas, publicou mais de 90 artigos nas 
principais revistas internacionais ou anais de conferências. Ele atuou 
no conselho editorial da ENGINEERING APPLICATIONS OF 
ARTIFICIAL INTELLIGENCE. Ele era um co-
Yan Gan recebeu o título de mestre em Faculdade de Ciência da 
Computação e Informação pela Universidade Normal de Chongqing, 
Chongqing, China, em 2015. Atualmente está cursando o doutorado. 
de Ciência da Computação na Universidade de Ciência Eletrônica e 
Tecnologia da China, Chengdu, China. Seus atuais interesses de 
pesquisa incluem aprendizado de máquinae visão computacional. 
Atualmente é revisor de diversas revistas, como Engenharia de 
aplicações de inteligência artificial, Neurocomputação.
[47] Y. Wang, L. Wu, Sobre desafios práticos de algoritmos de previsão híbrida baseados em 
decomposição para velocidade do vento e irradiação solar, Energy 112 (2016)
Y. Huang et al. / Neurocomputação 425 (2021) 207–218218
[51] Y. Wu, J. Gao, Aplicação de rede neural de vetor de suporte com decomposição de modo variacional para 
previsão de taxa de câmbio, Soft. Computação. 23 (2019) 6995–7004.
ganhador do Best Student Paper Award no IEEE ICME 2017.
[50] L. Peng, S. Liu, R. Liu, L. Wang, Memória eficaz de longo e curto prazo com algoritmo de evolução 
diferencial para previsão do preço da eletricidade, Energy 162 (2018) 1301–1314.
Yelin Gao está atualmente cursando o bacharelado no Lingnan College 
na Sun Yet-Sen University, Guangzhou, China. Seu interesse atual de 
pesquisa inclui tecnologia financeira.
Yusheng Huang está atualmente cursando o bacharelado na Escola 
de Engenharia de Informação e Comunicação na Universidade de 
Ciência e Tecnologia Eletrônica da China, Chengdu, China. Seus 
atuais interesses de pesquisa incluem previsão de séries temporais e 
algoritmos bioinspirados.
Machine Translated by Google
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0260
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0240
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0245
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0245
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0235
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0255
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250
http://refhub.elsevier.com/S0925-2312(20)30671-8/h0250

Mais conteúdos dessa disciplina