CN111260124A - 一种基于注意力机制深度学习的混沌时间序列预测方法 - Google Patents
一种基于注意力机制深度学习的混沌时间序列预测方法 Download PDFInfo
- Publication number
- CN111260124A CN111260124A CN202010031956.3A CN202010031956A CN111260124A CN 111260124 A CN111260124 A CN 111260124A CN 202010031956 A CN202010031956 A CN 202010031956A CN 111260124 A CN111260124 A CN 111260124A
- Authority
- CN
- China
- Prior art keywords
- time sequence
- prediction
- representing
- chaotic
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000007246 mechanism Effects 0.000 title claims abstract description 22
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 230000000739 chaotic effect Effects 0.000 claims abstract description 64
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000003062 neural network model Methods 0.000 claims abstract description 21
- 230000006870 function Effects 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 150000001875 compounds Chemical class 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000009795 derivation Methods 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000009471 action Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于混沌***技术领域,一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:(1)构建混沌时间序列数据集,(2)对混沌时间序列进行相空间重构,(3)使用LSTM神经网络模型训练混沌时间序列数据,(4)构建基于预测的注意力机制模型,(5)构建离线训练模型,(6)在线预测。本发明一种基于注意力机制深度学习的混沌时间序列预测方法,模型结构清晰,具有参考价值,可以应用到混沌***的例如金融市场预测或能源预测等方面。
Description
技术领域
本发明涉及一种基于注意力机制深度学习的混沌时间序列预测方法,属于混沌***技术领域。
背景技术
混沌***是一种从无序运动中产生有序高维复杂的非线性动力***。混沌的离散情况常表现为混沌时间序列,混沌时间序列是由混沌***生成的具有混沌特性的时间序列,混沌时间序列中蕴涵着***非常丰富的动力学信息,混沌时间序列是混沌理论通向现实世界的一个桥梁,是混沌***的一个重要研究领域。根据Takens相空间延迟重构定理,混沌***的内在规律可以通过混沌时间序列进行重构预测。如何选择或构造预测模型是混沌时间序列预测中的关键问题之一。
近年来,提出了各种混沌时间序列预测模型。例如Volterra滤波器,径向基函数网络,支持向量机,模糊模型等。在这些模型中,神经网络(NN)由于其强大的学习能力和良好的泛化能力成为最广泛使用的模型,尤其是在深度学习出现之后。神经网络在混沌领域中的大多数应用都是基于前馈神经网络,例如径向基函数网络和反向传播网络。尽管如此,传统的基于梯度下降的神经网络学习算法在混沌时间序列预测应用中仍存在一些明显的弊端和局限性,包括:(1)这些模型收敛速度慢,趋于陷入局部最优,影响了预测精度和广泛的应用。(2)由于是静态网络,这些模型在识别混沌动力学***方面有局限性。(3)对于这些网络,确定合适数量的隐藏节点也是一个挑战。目前虽已涌现出许多基于深度学习的混沌时间序列预测方法,尤其是长短时记忆神经网络LSTM,尽管LSTM可以捕获长期依赖关系并弥补递归神经网络RNN训练过程中梯度消失和梯度***的问题,但其对每个隐藏层滑动窗口步长的关注度是一致的,这可能会引起分散注意力的问题,影响混沌时间序列的预测效果。
发明内容
为了克服现有技术中存在的不足,本发明目的是提供一种基于注意力机制深度学习的混沌时间序列预测方法。该方法基于深度神经网络以及注意力机制对多元混沌时间序列进行预测。
为了实现上述发明目的,解决已有技术中所存在的问题,本发明采取的技术方案是:一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
式中,和表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
式中,和表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计, LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量, Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
式中,表示在进行tanh变换后得到的隐层状态,表示任一时刻的LSTM 神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量, tanh是激活函数,为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型,训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
(c)、在步骤5训练模型中优化好参数后,将所学得的参数迁移至预测模型,当预测一段长度为T的时间序列(x0,x1,…,xT-1)时,使用预测模型做间接多步预测, 迭代地将模型预测的输出作为下一步模型的输入,最终得到长度为P预测序列
本发明有益效果是:一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:(1)构建混沌时间序列数据集,(2)对混沌时间序列进行相空间重构,(3)使用LSTM神经网络模型训练混沌时间序列数据,(4)构建基于预测的注意力机制模型,(5)构建离线训练模型,(6)在线预测。与已有技术相比,本发明一种基于深度学习的混沌时间序列预测方法,模型结构清晰,具有参考价值,可以应用到混沌***的例如金融市场预测或能源预测等方面。
附图说明
图1是本发明方法步骤流程图。
图2是本发明中的深度神经网络模型图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,一种基于注意力机制深度学习的混沌时间序列预测方法,包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
式中,和表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
式中,和表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计, LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量, Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为 sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
式中,表示在进行tanh变换后得到的隐层状态,表示任一时刻的LSTM 神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量,tanh是激活函数,为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型,训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
Claims (1)
1.一种基于注意力机制深度学习的混沌时间序列预测方法,其特征在于包括以下步骤:
步骤1、构建混沌时间序列数据集,利用Lorenz***和Rossler***生成混沌时间序列数据,具体包括以下子步骤:
(a)Lorenz***方程通过公式(1)进行描述,
式中,和表示对自变量时间t求导数,a,b,c是Lorenz***参数常量,设置初始值为a=16,b=4,c=45.92,x,y,z表示Lorenz***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(b)为使Lorenz***完全进入混沌状态,丢弃初始瞬态前1000个点;
(c)通过简单的交叉验证生成训练集和测试集,获得具有混沌特性的时间序列;
(d)Rossler***方程通过公式(2)进行描述:
式中,和表示对自变量时间t求导数,x,y,z表示Rossler***的状态,设置初始值为x(0)=y(0)=z(0)=1.0,,a,b,c是Rossler***参数常量,设置初始值为a=0.2,b=0.2,c=5,用四阶Runge-Kutta法产生以Δt为时间间隔的混沌时间序列;
(e)舍弃掉瞬态,将前20000个点划为训练集,接着5000个点划为测试集;
步骤2、对混沌时间序列进行相空间重构,根据Takens定理进行相空间重构,对于d′维混沌吸引子的一维标量时间序列{x(i):1≤i≤n}都可以在拓扑结构不变情况下找到一个d维嵌入相空间,通过一维的混沌时间序列{x(i)}的不同延迟时间τ来构建d维相空间状态向量,d维相空间状态向量通过公式(3)进行描述:
Xi=(x(i),…,x(i+(d-1)τ),i=1,2,…,n-(d-1)τ (3)
式中,Xi表示相空间状态向量,x(i)表示标量时间序列,d表示嵌入维数,τ表示延迟时间,Takens定理证明找到合适的嵌入尺寸,如果延迟坐标的维数是动态***的维数,则在该嵌入维数空间中恢复吸引子,吸引子在嵌入维空间中恢复,在重构空间的轨迹中,动力***保持微分同胚性,设置嵌入维数d=5,延迟时间τ=1;
步骤3、使用LSTM神经网络模型训练混沌时间序列数据,LSTM神经网络模型将输入的历史时间序列数据编码成隐藏状态和细胞状态,通过门的设计,LSTM神经网络模型自适应地控制积累信息的强弱,其中每个细胞计算单元的计算过程通过公式(4)-(9)进行描述:
it=σ(Wi[ht-1,xt-1]+bi) (4)
ft=σ(Wf[ht-1,xt-1]+bf) (5)
ot=σ(Wo[ht-1,xt-1]+bo) (8)
ht=ot tanh(Ct) (9)
式中,it,ft,ot分别表示输入门、遗忘门和输出门,Ct表示细胞状态,Wi,Wf,Wo,WC分别表示控制每个门输出的权值矩阵,bi,bf,bC,bo分别表示it,ft,Ct,和ot的偏置量,Ct-1表示上一层的细胞,xt-1表示当前的输入,ht-1表示上层的隐藏层输出,σ为sigmoid函数,tanh为激活函数,h表示隐层输出;
步骤4、构建基于预测的注意力机制模型,随着输入混沌时间序列长度的增加,训练模型的隐藏层信息会丢失或者引入噪声干扰,预测网络的性能会迅速下降,这里使用注意力机制在所有时间步长上自适应选择相关的隐藏状态信息,具体地,基于先前的预测网络LSTM单元隐藏状态来计算时间t处每个隐藏状态的关注权重通过公式(10)-(12)进行描述:
式中,表示在进行tanh变换后得到的隐层状态,表示任一时刻的LSTM神经网络模型的隐层状态,Ww表示权重向量,bw表示偏置向量,V表示投影向量,tanh是激活函数,αt i为注意力权重表示第i个隐藏状态对于预测的重要性,ct表示在注意力机制作用下的前后关系向量,是所有隐藏状态{h1,h2,…,hT}的加权和,设置LSTM神经网络模型隐层数T=11;
步骤5、构建离线训练模型:训练模型使用端到端的方式通过时间反向传播算法BPTT进行训练,损失函数使用均方根误差RMSE函数,设置学习率lr=0.01,选择Adam算法作为优化算法,训练优化的目标是使模型输出的逼近真实观测值(y1,y2,…,yn),均方根误差的计算,通过公式(13)进行描述:
步骤6、在线预测,具体包括以下子步骤:
(a)、将步骤1得到的测试混沌时间序列数据,通过步骤2相空间重构对数据进行处理;
(b)、通过步骤3使用LSTM神经网络模型对混沌时间序列进行预测,利用步骤4构建模型隐藏层的注意力机制模型;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010031956.3A CN111260124A (zh) | 2020-01-11 | 2020-01-11 | 一种基于注意力机制深度学习的混沌时间序列预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010031956.3A CN111260124A (zh) | 2020-01-11 | 2020-01-11 | 一种基于注意力机制深度学习的混沌时间序列预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111260124A true CN111260124A (zh) | 2020-06-09 |
Family
ID=70950405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010031956.3A Pending CN111260124A (zh) | 2020-01-11 | 2020-01-11 | 一种基于注意力机制深度学习的混沌时间序列预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260124A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112165402A (zh) * | 2020-09-28 | 2021-01-01 | 北京环境特性研究所 | 一种网络安全态势预测的方法和装置 |
CN112288193A (zh) * | 2020-11-23 | 2021-01-29 | 国家海洋信息中心 | 基于注意力机制的gru深度学习的海洋站表层盐度预测方法 |
CN112560338A (zh) * | 2020-12-10 | 2021-03-26 | 东北大学 | 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质 |
CN112927507A (zh) * | 2021-02-04 | 2021-06-08 | 南京航空航天大学 | 一种基于LSTM-Attention的交通流量预测方法 |
CN113177258A (zh) * | 2021-03-31 | 2021-07-27 | 江苏大学 | 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法 |
CN113240098A (zh) * | 2021-06-16 | 2021-08-10 | 湖北工业大学 | 基于混合门控神经网络的故障预测方法、装置和存储介质 |
CN113762471A (zh) * | 2021-08-24 | 2021-12-07 | 浙江中辰城市应急服务管理有限公司 | 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法 |
CN113807443A (zh) * | 2021-09-18 | 2021-12-17 | 电子科技大学 | 一种基于注意力机制的混沌时间序列嵌入维数的确定方法 |
CN114596726A (zh) * | 2021-10-27 | 2022-06-07 | 西安理工大学 | 基于可解释时空注意力机制的停车泊位预测方法 |
-
2020
- 2020-01-11 CN CN202010031956.3A patent/CN111260124A/zh active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112165402A (zh) * | 2020-09-28 | 2021-01-01 | 北京环境特性研究所 | 一种网络安全态势预测的方法和装置 |
CN112288193A (zh) * | 2020-11-23 | 2021-01-29 | 国家海洋信息中心 | 基于注意力机制的gru深度学习的海洋站表层盐度预测方法 |
CN112560338B (zh) * | 2020-12-10 | 2022-03-25 | 东北大学 | 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质 |
CN112560338A (zh) * | 2020-12-10 | 2021-03-26 | 东北大学 | 基于自适应深度学习的复杂工业***智能预报方法、装置、设备及存储介质 |
CN112927507A (zh) * | 2021-02-04 | 2021-06-08 | 南京航空航天大学 | 一种基于LSTM-Attention的交通流量预测方法 |
CN113177258A (zh) * | 2021-03-31 | 2021-07-27 | 江苏大学 | 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法 |
CN113177258B (zh) * | 2021-03-31 | 2024-02-20 | 江苏大学 | 基于相空间重构的自动驾驶汽车深度神经网络预测模型***及建立方法 |
CN113240098A (zh) * | 2021-06-16 | 2021-08-10 | 湖北工业大学 | 基于混合门控神经网络的故障预测方法、装置和存储介质 |
CN113762471A (zh) * | 2021-08-24 | 2021-12-07 | 浙江中辰城市应急服务管理有限公司 | 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法 |
CN113762471B (zh) * | 2021-08-24 | 2023-07-28 | 浙江中辰城市应急服务管理有限公司 | 一种基于注意力机制与贝叶斯优化的相空间重构参数估计方法 |
CN113807443B (zh) * | 2021-09-18 | 2023-04-25 | 电子科技大学 | 一种基于注意力机制的混沌时间序列嵌入维数的确定方法 |
CN113807443A (zh) * | 2021-09-18 | 2021-12-17 | 电子科技大学 | 一种基于注意力机制的混沌时间序列嵌入维数的确定方法 |
CN114596726A (zh) * | 2021-10-27 | 2022-06-07 | 西安理工大学 | 基于可解释时空注意力机制的停车泊位预测方法 |
CN114596726B (zh) * | 2021-10-27 | 2024-01-19 | 西安华企众信科技发展有限公司 | 基于可解释时空注意力机制的停车泊位预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111260124A (zh) | 一种基于注意力机制深度学习的混沌时间序列预测方法 | |
Han et al. | Adaptive computation algorithm for RBF neural network | |
CN114818515A (zh) | 一种基于自注意力机制和图卷积网络的多维时序预测方法 | |
CN111262858A (zh) | 基于sa_soa_bp神经网络的网络安全态势预测方法 | |
CN108764568B (zh) | 一种基于lstm网络的数据预测模型调优方法及装置 | |
CN115511177A (zh) | 基于ingo-swgmn混合模型的超短期风速预测方法 | |
CN112578089B (zh) | 一种基于改进tcn的空气污染物浓度预测方法 | |
CN113240105B (zh) | 一种基于图神经网络池化的电网稳态判别方法 | |
CN111860787A (zh) | 一种含有缺失数据的耦合有向图结构流量数据的短期预测方法及装置 | |
CN112257847A (zh) | 一种基于CNN和LSTM预测地磁Kp指数的方法 | |
CN112766603A (zh) | 一种交通流量预测方法、***、计算机设备及存储介质 | |
CN114694379B (zh) | 一种基于自适应动态图卷积的交通流预测方法及*** | |
CN114006411A (zh) | 一种基于lstm-cnn联合模型的风电功率预测方法和*** | |
CN116303786B (zh) | 一种基于多维数据融合算法的区块链金融大数据管理*** | |
CN116667322A (zh) | 基于相空间重构和改进rbf神经网络的电力负荷预测方法 | |
Wu et al. | Short-term electric load forecasting model based on PSO-BP | |
Darus et al. | Parametric and non-parametric identification of a two dimensional flexible structure | |
CN111524348A (zh) | 一种长短期交通流预测模型及方法 | |
Safarinejadian et al. | Predict time series using extended, unscented, and cubature Kalman filters based on feed-forward neural network algorithm | |
KR20230033071A (ko) | Gru 기반 구조물 시계열 응답 예측 방법 | |
Rafik et al. | Learning and Predictive Energy Consumption Model based on LSTM recursive neural networks | |
CN115081323A (zh) | 求解多目标约束优化问题的方法及其存储介质 | |
CN114995106A (zh) | 基于改进小波神经网络的pid自整定方法、装置和设备 | |
Liu et al. | Echo state networks with double-reservoir for time-series prediction | |
CN113612660B (zh) | 一种基于种群自适应差分进化的lstm网络流量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200609 |