CN111260124A - 一种基于注意力机制深度学习的混沌时间序列预测方法 - Google Patents

一种基于注意力机制深度学习的混沌时间序列预测方法 Download PDF

Info

Publication number
CN111260124A
CN111260124A CN202010031956.3A CN202010031956A CN111260124A CN 111260124 A CN111260124 A CN 111260124A CN 202010031956 A CN202010031956 A CN 202010031956A CN 111260124 A CN111260124 A CN 111260124A
Authority
CN
China
Prior art keywords
time sequence
prediction
representing
chaotic
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010031956.3A
Other languages
English (en)
Inventor
孙媛媛
王博林
张书晨
陈彦光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202010031956.3A priority Critical patent/CN111260124A/zh
Publication of CN111260124A publication Critical patent/CN111260124A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明属于混沌***技术领域,一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:(1)构建混沌时间序列数据集,(2)对混沌时间序列进行相空间重构,(3)使用LSTM神经网络模型训练混沌时间序列数据,(4)构建基于预测的注意力机制模型,(5)构建离线训练模型,(6)在线预测。本发明一种基于注意力机制深度学习的混沌时间序列预测方法,模型结构清晰,具有参考价值,可以应用到混沌***的例如金融市场预测或能源预测等方面。

Description

一种基于注意力机制深度学习的混沌时间序列预测方法
技术领域
本发明涉及一种基于注意力机制深度学习的混沌时间序列预测方法,属于混沌***技术领域。
背景技术
混沌***是一种从无序运动中产生有序高维复杂的非线性动力***。混沌的离散情况常表现为混沌时间序列,混沌时间序列是由混沌***生成的具有混沌特性的时间序列,混沌时间序列中蕴涵着***非常丰富的动力学信息,混沌时间序列是混沌理论通向现实世界的一个桥梁,是混沌***的一个重要研究领域。根据Takens相空间延迟重构定理,混沌***的内在规律可以通过混沌时间序列进行重构预测。如何选择或构造预测模型是混沌时间序列预测中的关键问题之一。
近年来,提出了各种混沌时间序列预测模型。例如Volterra滤波器,径向基函数网络,支持向量机,模糊模型等。在这些模型中,神经网络(NN)由于其强大的学习能力和良好的泛化能力成为最广泛使用的模型,尤其是在深度学习出现之后。神经网络在混沌领域中的大多数应用都是基于前馈神经网络,例如径向基函数网络和反向传播网络。尽管如此,传统的基于梯度下降的神经网络学习算法在混沌时间序列预测应用中仍存在一些明显的弊端和局限性,包括:(1)这些模型收敛速度慢,趋于陷入局部最优,影响了预测精度和广泛的应用。(2)由于是静态网络,这些模型在识别混沌动力学***方面有局限性。(3)对于这些网络,确定合适数量的隐藏节点也是一个挑战。目前虽已涌现出许多基于深度学习的混沌时间序列预测方法,尤其是长短时记忆神经网络LSTM,尽管LSTM可以捕获长期依赖关系并弥补递归神经网络RNN训练过程中梯度消失和梯度***的问题,但其对每个隐藏层滑动窗口步长的关注度是一致的,这可能会引起分散注意力的问题,影响混沌时间序列的预测效果。
发明内容
为了克服现有技术中存在的不足,本发明目的是提供一种基于注意力机制深度学习的混沌时间序列预测方法。该方法基于深度神经网络以及注意力机制对多元混沌时间序列进行预测。
为了实现上述发明目的,解决已有技术中所存在的问题,本发明采取的技术方案是:一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
Figure RE-GDA0002420536550000021
式中,
Figure RE-GDA0002420536550000022
Figure RE-GDA0002420536550000023
表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
Figure RE-GDA0002420536550000024
式中,
Figure RE-GDA0002420536550000025
Figure RE-GDA0002420536550000026
表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计, LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
Figure RE-GDA0002420536550000031
Figure RE-GDA0002420536550000032
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量, Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
Figure RE-GDA0002420536550000041
Figure RE-GDA0002420536550000042
Figure RE-GDA0002420536550000043
式中,
Figure RE-GDA0002420536550000044
表示
Figure RE-GDA0002420536550000045
在进行tanh变换后得到的隐层状态,
Figure RE-GDA0002420536550000046
表示任一时刻的LSTM 神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量, tanh是激活函数,
Figure RE-GDA0002420536550000047
为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型,训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的
Figure RE-GDA0002420536550000048
逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
Figure RE-GDA0002420536550000049
式中,N为样本总数,t表示任一时刻样本,yt为第i个样本的预测值,
Figure RE-GDA00024205365500000410
为第i个样本的实际值;
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
(c)、在步骤5训练模型中优化好参数后,将所学得的参数迁移至预测模型,当预测一段长度为T的时间序列(x0,x1,…,xT-1)时,使用预测模型做间接多步预测, 迭代地将模型预测的输出作为下一步模型的输入,最终得到长度为P预测序列
Figure RE-GDA0002420536550000051
本发明有益效果是:一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:(1)构建混沌时间序列数据集,(2)对混沌时间序列进行相空间重构,(3)使用LSTM神经网络模型训练混沌时间序列数据,(4)构建基于预测的注意力机制模型,(5)构建离线训练模型,(6)在线预测。与已有技术相比,本发明一种基于深度学习的混沌时间序列预测方法,模型结构清晰,具有参考价值,可以应用到混沌***的例如金融市场预测或能源预测等方面。
附图说明
图1是本发明方法步骤流程图。
图2是本发明中的深度神经网络模型图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
Figure RE-GDA0002420536550000052
式中,
Figure RE-GDA0002420536550000053
Figure RE-GDA0002420536550000054
表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
Figure RE-GDA0002420536550000061
式中,
Figure RE-GDA0002420536550000062
Figure RE-GDA0002420536550000063
表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计, LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
Figure RE-GDA0002420536550000071
Figure RE-GDA0002420536550000072
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量, Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为 sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
Figure RE-GDA0002420536550000073
Figure RE-GDA0002420536550000074
Figure RE-GDA0002420536550000075
式中,
Figure RE-GDA0002420536550000076
表示
Figure RE-GDA0002420536550000077
在进行tanh变换后得到的隐层状态,
Figure RE-GDA0002420536550000078
表示任一时刻的LSTM 神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量,tanh是激活函数,
Figure RE-GDA0002420536550000081
为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型,训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的
Figure RE-GDA0002420536550000082
逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
Figure RE-GDA0002420536550000083
式中,N为样本总数,t表示任一时刻样本,yt为第i个样本的预测值,
Figure RE-GDA0002420536550000084
为第i个样本的实际值;
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
(c)、在步骤5训练模型中优化好参数后,将所学得的参数迁移至预测模型,当预测一段长度为T的时间序列(x0,x1,…,xT-1)时,使用预测模型做间接多步预测, 迭代地将模型预测的输出作为下一步模型的输入,最终得到长度为P预测序列
Figure RE-GDA0002420536550000085

Claims (1)

1.一种基于注意力机制深度学习的混沌时间序列预测方法,其特征在于包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
Figure RE-FDA0002420536540000011
式中,
Figure RE-FDA0002420536540000012
Figure RE-FDA0002420536540000013
表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
Figure RE-FDA0002420536540000014
式中,
Figure RE-FDA0002420536540000015
Figure RE-FDA0002420536540000016
表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计,LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
Figure RE-FDA0002420536540000021
Figure RE-FDA0002420536540000022
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量,Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
Figure RE-FDA0002420536540000031
Figure RE-FDA0002420536540000032
Figure RE-FDA0002420536540000033
式中,
Figure RE-FDA0002420536540000034
表示
Figure RE-FDA0002420536540000035
在进行tanh变换后得到的隐层状态,
Figure RE-FDA0002420536540000036
表示任一时刻的LSTM神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量,tanh是激活函数,αt i为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型:训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的
Figure RE-FDA0002420536540000037
逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
Figure RE-FDA0002420536540000038
式中,N为样本总数,t表示任一时刻样本,yt为第i个样本的预测值,
Figure RE-FDA0002420536540000039
为第i个样本的实际值;
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
(c)、在步骤5训练模型中优化好参数后,将所学得的参数迁移至预测模型,当预测一段长度为T的时间序列(x0,x1,…,xT-1)时,使用预测模型做间接多步预测,迭代地将模型预测的输出作为下一步模型的输入,最终得到长度为P预测序列
Figure RE-FDA0002420536540000041
CN202010031956.3A 2020-01-11 2020-01-11 一种基于注意力机制深度学习的混沌时间序列预测方法 Pending CN111260124A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010031956.3A CN111260124A (zh) 2020-01-11 2020-01-11 一种基于注意力机制深度学习的混沌时间序列预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010031956.3A CN111260124A (zh) 2020-01-11 2020-01-11 一种基于注意力机制深度学习的混沌时间序列预测方法

Publications (1)

Publication Number Publication Date
CN111260124A true CN111260124A (zh) 2020-06-09

Family

ID=70950405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010031956.3A Pending CN111260124A (zh) 2020-01-11 2020-01-11 一种基于注意力机制深度学习的混沌时间序列预测方法

Country Status (1)

Country Link
CN (1) CN111260124A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165402A (zh) * 2020-09-28 2021-01-01 北京环境特性研究所 一种网络安全态势预测的方法和装置
CN112288193A (zh) * 2020-11-23 2021-01-29 国家海洋信息中心 基于注意力机制的gru深度学习的海洋站表层盐度预测方法
CN112560338A (zh) * 2020-12-10 2021-03-26 东北大学 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质
CN112927507A (zh) * 2021-02-04 2021-06-08 南京航空航天大学 一种基于LSTM-Attention的交通流量预测方法
CN113177258A (zh) * 2021-03-31 2021-07-27 江苏大学 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法
CN113240098A (zh) * 2021-06-16 2021-08-10 湖北工业大学 基于混合门控神经网络的故障预测方法、装置和存储介质
CN113762471A (zh) * 2021-08-24 2021-12-07 浙江中辰城市应急服务管理有限公司 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法
CN113807443A (zh) * 2021-09-18 2021-12-17 电子科技大学 一种基于注意力机制的混沌时间序列嵌入维数的确定方法
CN114596726A (zh) * 2021-10-27 2022-06-07 西安理工大学 基于可解释时空注意力机制的停车泊位预测方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165402A (zh) * 2020-09-28 2021-01-01 北京环境特性研究所 一种网络安全态势预测的方法和装置
CN112288193A (zh) * 2020-11-23 2021-01-29 国家海洋信息中心 基于注意力机制的gru深度学习的海洋站表层盐度预测方法
CN112560338B (zh) * 2020-12-10 2022-03-25 东北大学 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质
CN112560338A (zh) * 2020-12-10 2021-03-26 东北大学 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质
CN112927507A (zh) * 2021-02-04 2021-06-08 南京航空航天大学 一种基于LSTM-Attention的交通流量预测方法
CN113177258A (zh) * 2021-03-31 2021-07-27 江苏大学 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法
CN113177258B (zh) * 2021-03-31 2024-02-20 江苏大学 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法
CN113240098A (zh) * 2021-06-16 2021-08-10 湖北工业大学 基于混合门控神经网络的故障预测方法、装置和存储介质
CN113762471A (zh) * 2021-08-24 2021-12-07 浙江中辰城市应急服务管理有限公司 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法
CN113762471B (zh) * 2021-08-24 2023-07-28 浙江中辰城市应急服务管理有限公司 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法
CN113807443B (zh) * 2021-09-18 2023-04-25 电子科技大学 一种基于注意力机制的混沌时间序列嵌入维数的确定方法
CN113807443A (zh) * 2021-09-18 2021-12-17 电子科技大学 一种基于注意力机制的混沌时间序列嵌入维数的确定方法
CN114596726A (zh) * 2021-10-27 2022-06-07 西安理工大学 基于可解释时空注意力机制的停车泊位预测方法
CN114596726B (zh) * 2021-10-27 2024-01-19 西安华企众信科技发展有限公司 基于可解释时空注意力机制的停车泊位预测方法

Similar Documents

Publication Publication Date Title
CN111260124A (zh) 一种基于注意力机制深度学习的混沌时间序列预测方法
Han et al. Adaptive computation algorithm for RBF neural network
CN114818515A (zh) 一种基于自注意力机制和图卷积网络的多维时序预测方法
CN111262858A (zh) 基于sa_soa_bp神经网络的网络安全态势预测方法
CN108764568B (zh) 一种基于lstm网络的数据预测模型调优方法及装置
CN115511177A (zh) 基于ingo-swgmn混合模型的超短期风速预测方法
CN112578089B (zh) 一种基于改进tcn的空气污染物浓度预测方法
CN113240105B (zh) 一种基于图神经网络池化的电网稳态判别方法
CN111860787A (zh) 一种含有缺失数据的耦合有向图结构流量数据的短期预测方法及装置
CN112257847A (zh) 一种基于CNN和LSTM预测地磁Kp指数的方法
CN112766603A (zh) 一种交通流量预测方法、***、计算机设备及存储介质
CN114694379B (zh) 一种基于自适应动态图卷积的交通流预测方法及***
CN114006411A (zh) 一种基于lstm-cnn联合模型的风电功率预测方法和***
CN116303786B (zh) 一种基于多维数据融合算法的区块链金融大数据管理***
CN116667322A (zh) 基于相空间重构和改进rbf神经网络的电力负荷预测方法
Wu et al. Short-term electric load forecasting model based on PSO-BP
Darus et al. Parametric and non-parametric identification of a two dimensional flexible structure
CN111524348A (zh) 一种长短期交通流预测模型及方法
Safarinejadian et al. Predict time series using extended, unscented, and cubature Kalman filters based on feed-forward neural network algorithm
KR20230033071A (ko) Gru 기반 구조물 시계열 응답 예측 방법
Rafik et al. Learning and Predictive Energy Consumption Model based on LSTM recursive neural networks
CN115081323A (zh) 求解多目标约束优化问题的方法及其存储介质
CN114995106A (zh) 基于改进小波神经网络的pid自整定方法、装置和设备
Liu et al. Echo state networks with double-reservoir for time-series prediction
CN113612660B (zh) 一种基于种群自适应差分进化的lstm网络流量预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200609