CN108170529A - 一种基于长短期记忆网络的云数据中心负载预测方法 - Google Patents
一种基于长短期记忆网络的云数据中心负载预测方法 Download PDFInfo
- Publication number
- CN108170529A CN108170529A CN201711433325.9A CN201711433325A CN108170529A CN 108170529 A CN108170529 A CN 108170529A CN 201711433325 A CN201711433325 A CN 201711433325A CN 108170529 A CN108170529 A CN 108170529A
- Authority
- CN
- China
- Prior art keywords
- sample
- shot
- training
- long term
- lstm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种基于长短期记忆网络(LSTM)的云数据中心负载预测方法,旨在解决云数据中心有限的计算资源无法得到最优利用的问题。该方法以云数据中心的海量历史记录为基础制作训练样本和测试样本,另构建一由LSTM单元连接而成的神经网络,不断地成批输入训练样本,得到输出值;所述神经网络优化算法采用较新的适应性矩估计法,通过迭代训练不断更新各单元中的参数,使得全局达到最优;训练完毕后,只需将测试样本输入网络就能得到该样本序列的下一个预测值;如果用预测值不断更新输入序列,还能够获取未来一段时间的预测值序列。
Description
技术领域
本发明云计算技术领域,尤其涉及一种基于长短期记忆网络的云数据中心负载预测方法。
背景技术
云计算是基于互联网的相关服务的增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源,可以通过网络向海量的,不同优先等级的用户提供按需的计算资源和计算结果。云数据中心中的资源通常采用一种按需付费使用的模式动态地向用户提供服务。
按照美国国家标准技术研究院(National Institute of Standards andTechnology,NIST)的定义,这种模式提供可用的、便捷的、按需的网络访问,进入可配置的计算资源共享池(资源包括网络,服务器,存储,应用软件,服务),并且这些资源能够被快速提供。但这些资源往往再多也是不够的,因为信息社会对大规模数据计算的需求巨大,且仍有不断增长之势,经常会出现大规模任务请求“蜂拥而至”的情形。在这种情形下,云数据中心往往因未能将计算资源做最优分配导致计算速度减慢,工作效率低下,大批请求长期处于等待状态,能源空耗等异常情况。这不仅会导致计算服务盈利减少,投入产出比下降,还会损坏信誉和口碑。为保证云数据中心始终正常工作,高效且保质保量地全部计算任务,任务调度必不可少。有效调度的前提是能够提前估计出未来一段时间内各优先级的任务负载和单位任务平均资源申请量,对这两项指标的准确预测是正确调配计算资源,从而达到全局优化的有力保障。
长短期记忆型网络(Long Short-Term Memory,LSTM),是时间递归神经网络(RNN)的一种特殊形式。不同于前馈网络,它不断将自身的输出作为输入,随着递归次数的增加,网络在第t-1个时间步的判断会影响第t个时间步的判断,这种反馈循环与现实生活中“由已知推可知,再推未知”的推导行为在本质上是一致的,该方法是有记忆的。
针对传统RNN存在的“远程学习能力差”(由于存在梯度消失,当学习信息和预测位的间隔拉大,RNN推断能力下降明显)问题,LSTM对每个神经单元进行了改进,设计了细胞状态C和增加,去除信息到细胞状态能力的“门”结构,其内部结构如图2所示。一个门结构由一个sigmoid层h和一个pointwise 乘法操作组成,其目的是用sigmod层产生的权重筛选信息,控制数据流动,决定信息是否通过。一个LSTM单元内拥有三个门:分别是“忘记门”(决定丢弃 C中的哪些信息),“输入门”(决定往C中填入什么信息),和“输出门”(确定输出什么值)。由图2可明显看出:在t时刻,LSTM单元有样本Xt,上一单元输出ht-1,上一单元的细胞状态Ct-1三个输入,这些输入经过门结构的处理形成新的细胞状态Ct和新的单元输出ht并流向下一单元,若干这样的单元首尾相连就形成了长短期记忆网络。随着训练样本不断输入,网络不断学习,提取其规律和特征,所有门结构的权重也会通过优化方法不断调整,最终达到全局最优,实现准确预测。
随着人工智能的不断发展和火热,越来越多的开发框架问世,为学***台之一。
综合以上几段对相关技术的介绍和分析,云数据中心的负载预测问题本质上是对时间序列(任务请求量序列和单位请求资源申请量序列)的预测。鉴于云数据中心目前存在的资源无法最优分配问题,需要提出一种以LSTM神经网络为模型,依靠由大量历史数据组成的各优先等级任务请求量序列和单位请求资源申请量序列训练好并完成优化的,准确预测未来一段时间内这两项指标的方法。
发明内容
本发明的目的在于提供一种运行在云数据中心的,基于长短期记忆网络的预测算法,为计算资源的调度提供充足而准确的信息支撑,使调度模块能够提前分析趋势并计划好将要采取的调度方法,及早做好准备,保障云数据中心平稳高效运行。待预测指标可分为两类:任务请求总量,单位是个;单位请求资源申请量,无单位。由于每类又可分为三种,分别对应任务请求的三种优先等级:低级、中级和高级,所以一共有2*3=6种指标。
根据本发明的一个方面,提供了数据集制作方法和一种LSTM神经网络模型的构建方法,包括从文件中读取数据;处理这些数据,将它们“变形”成符合 Tensorflow标准的数据模型,制作由时间序列组成的数据集;初始化LSTM模型输入层和输出层的权重矩阵,偏置矩阵;根据样本批次数量,网络层数,学习率,时间步长等设定好的超参数和权重,偏置矩阵构建LSTM模型,定义模型对数据样本的获取,处理,输出方式。
根据本发明的另一方面,提供了一种把数据样本输入LSTM网络模型,让其学习序列规律,调整各个门结构权重以优化全局的训练方法和迭代式的滚动预测方法,包括用输入的训练样本(在Tensorflow框架里称作“tensor”,此表述下文将经常用到)计算损失函数;以损失函数作自变量用适应性矩估计 (Adaptive moment estimation,Adam)算法进行全局优化;迭代训练,重复以上两步并定时保存调整好的模型,以及进而以测试样本为输入,用“最终版”网络模型迭代输出未来n个时间段某指标的预测值。
综上所述,一种基于长短期记忆网络的云数据中心负载预测方法,包括如下步骤:
S1、用存储在文件中的数据制作历史时间序列和数据集;
S2、构建长短期神经网络模型;
S3、训练LSTM网络:迭代地向长短期神经网络模型中导入训练样本,计算损失函数,并以此为基础进行全局优化,不断提取训练样本的特征以及数值与时序的关系,直至迭代结束;
S4、训练阶段结束后,向长短期神经网络模型;中导入测试样本,迭代输出未来数个时间步待预测指标的数值,形成预测值时间序列。
作为优选,步骤1中将数据集分为两部分:
第一部分为“tensor子集”,以“X子集”代替:所述tensor为一时间序列,是训练或测试时输入LSTM网络的最小单元,长度均为num_step,构建方法是迭代地从矩阵中取出连续数据,转化成列表并填入:
第二部分为“标签子集”,以“Y子集”代替,由每个tensor对应的标签构成,Y子集每个位置上的序列值是X子集对应位置序列值的后继值:
作为优选,步骤2具体为:
步骤2.1、每一批样本输入LSTM网络,网络中每个单元在筛选和处理样本后都会产生两个数值并传入下一个单元:一个称作“细胞状态”,简称C,另一个是“单元输出”,简称h;LSTM网络有num_unit个单元,每批样本中有batch_size个样本序列,故一批样本会先后产生num_unit*batch_size个C值和h 值,即:
步骤2.2、去掉所有c值序列,保留所有h值序列,产生一个新矩阵;
步骤2.3、将这个新矩阵和输出层权重矩阵w_out相乘,再和输出层偏置矩阵b_out相加,得到pred。
作为优选,步骤3具体为:
1)从X,Y两子集中取出第一批batch_size个样本,分别命名为x和y;
2)将x输入LSTM模型,求得pred矩阵;
3)计算损失量tensor loss。
4)以损失量loss和学习率lr为参数,初始化一个适应性矩估计(Adam) 优化器,计算loss的梯度,然后把梯度应用到变量上,更新LSTM网络所有单元中门结构的权重,返回一个包含训练操作输出结果的tensor;
5)从X,Y子集中取出下一批batch_size个样本,更新x和y;
6)如x,y不为空,则重复步骤2-步骤5;否则开始下一次迭代。
作为优选,步骤3中,在LSTM网络训练阶段,给定学习率lr且计算出损失量loss后,采用适应性矩估计(Adaptive moment estimation)方法调整,更新LSTM网络模型中忘记门、输入门和输出门的权重。本发明采用新型的神经网络优化方法:Adam算法取代传统的随机梯度下降法。它通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率,适合求解带有大规模数据和参数,对学习速度要求高的问题。同其它优化算法,如随机梯度下降(SGD)法、动量法和AdaGrad法相比,它收敛速度更快,学习效果更明显,还可纠正学习率消失,陷入局部最优,损失函数波动大等问题。因为对H的预测对速度的需求和准确率很高,所以Adam算法是最优选的。
Adam算法涉及以下几个常数:α是步长因子;β1是一阶矩估计衰减率;β2是二阶矩估计衰减率;ε是非常小的,接近于零的数。在Tensorflow框架中,这四个常数的默认设定分别是0.001,0.9,0.999,10E-8。
设随机目标函数为f(θ),mt是t时刻参数θ的一阶矩向量;vt是t时刻参数θ的二阶矩向量;初始值都为零。算法是迭代进行的,每次迭代都伴随着θ的更新。当θ不收敛时,循环迭代执行以下操作。具体如下:
1)时间步t加1,t=t+1。
2)获得t时刻目标函数对参数θ的梯度,
3)更新一阶矩和二阶矩估计,mt←β1·mt-1+(1-β1)·gt; vt←β2·vt-1+(1-β2)·gt 2。
4)计算偏差修正后的一阶矩和二阶矩估计,
5)更新参数向量,
这一迭代过程直到θt收敛为止。其中,mt和vt可分别看做对gt绝对值期望和gt平方绝对值的估计。在Tensorflow中,已知学习率就可利用Adam算法构建优化器,训练出各个门结构的最佳权重。
本发明的有益效果如下
本发明所述技术方案能够解决云数据中心中各类别请求到达的无规律性和单位请求资源申请的差异性给请求调度带来的难题,使得云数据中心可以“未雨绸缪”,提前很长时间估计出以后的变化趋势,进而决定资源调配方式和调度算法,使得云数据中心始终能够以状态最优,资源利用最高效的方式运转。将该方案和其它类似方案横向比较,训练所需时间更短,学习效率更高,还能规避常见的局部最优,梯度消失,收敛速度慢等缺陷,这些对十分强调效率的云数据中心都是很有实际意义的。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明:
图1是基于长短期记忆网络的云数据中心负载预测方法的流程图;
图2是长短期记忆网络基本单元的内部结构图;
图3是LSTM网络的完全训练流程;
图4是用测试样本得出预测值序列的流程。
具体实施方式
下面对本发明的实施流程和注意事项做进一步阐述。如前文所述,云数据中心中待预测指标共有六种,但算法中大部分内容均适用于预测这六种指标。如某一步骤对针对不同类型的预测量有不同的处理办法,会有特别说明。算法用python语言编写,导入了Tensorflow、数据分析包pandas、数值计算扩展包 numpy和用来绘制图像的matplotlib.pyplot。在这一部分,待预测的某个指标始终以“H”指代,其余五种指标的预测方法与之大体相同。
S1、用存储在文件中的数据制作历史时间序列和数据集;
历史数据常常存放在csv格式的文件中。要想预测H,第一步就是从文件中读出H的历史数据,形成一条时间序列。csv文件里六种指标的全部数据通过调用pandas中的方法获得,H的历史时间序列用numpy创建,参数为H的全部历史数据。
下面开始数据集的制作。由于这些海量的历史数据会存在数值两极分化,量纲不同甚至差距巨大等情况,而这些将导致学***均”且在相同量纲下分析,需要对原始数据进行归一化处理。第一类指标(任务请求量)取值的分布较为随意,影响因素很多,不一定近似高斯分布,故对其采用对数归一法:样本数据=对原始数据取以10为底的对数;第二类指标(单位任务平均资源申请量)取值的分布近似高斯分布,对其采用标准差归一法最为适合:样本数据=(原始数据-数据总均值)/数据总标准差。算法的后续步骤经常要用到矩阵计算,下一步就是对H的样本序列进行增维,变成shape为[n,1]的二维矩阵:
[[t0] [t1] ... [tn-1]]T。
为达到“在训练中优化”的目的,需要把数据集分为两部分:第一部分为“tensor子集”(以“X子集”代替):在本算法中,tensor的实质也是一时间序列,是训练或测试时输入LSTM网络的最小单元,长度均为num_step,构建方法是迭代地从矩阵中取出连续数据,转化成列表并填入:
第二部分为“标签子集”(以“Y子集”代替),由每个tensor对应的标签构成。 Y子集每个位置上的序列值是X子集对应位置序列值的后继值:
S2、构建长短期神经网络模型,使其能够正确,有效地处理输入和计算输出;
LSTM模型的部分参数需要预先设定好取值,它们称作超参数。本算法涉及到的超参数有八个,分别是学习率lr、输入层维度input_size、输出层维度 output_size、单批次训练样本数batch_size、单层LSTM单元个数num_unit、时间步个数num_step、迭代训练次数epochs以及测试样本数n_train。由于对H 未来取值的预测属单因素预测,所以LSTM网络的层数为1,input_size和 output_size均为1。训练样本规模庞大,tensor往往成千上万。单次输进网络的样本过多虽然可减少迭代次数,但收敛速度慢,容易陷入局部最优;输进过少的样本虽然可加快收敛速度并提高精度,但过小的batch_size无法体现并行计算的优势且训练稳定性差。所以batch_size不宜过大或过小,较小批量的样本集为最优。
依照惯例,每个LSTM基本单元输入层和输出层的权重均设定为满足高斯分布的随机数,偏置量均设为常数,如0.1。输入层权重矩阵w_input,输出层权重矩阵w_output,输入层偏置矩阵b_input和输出层偏置矩阵b_output均可依此构建。
模型的构建工作封装在一个函数中,目的是利用Tensorflow描绘一个 LSTM网络抽象的数据流图,为后续步骤提供“原材料”。由于训练阶段和测试阶段所需的单批次样例数不同,所以将函数的参数设为batch,若batch= batch_size,说明该网络用于训练;若batch=1,说明该网络用于测试(每次测试输入一个tensor样本即可)。
实现本算法只需使用基本的LSTM模型,所以令每个网络单元为基本的BasicLSTMCell。这样的cell一共有num_unit个,无需clipping、peep-hole等高级变种。网络是单层的,故不引入多层LSTM常用于防止过拟合的 DropoutWrapper。
依照Tensorflow手册的规定,网络模型处理一批样本时需要首先将从X子集连续取出的,由batch_size个样本序列组成的矩阵“拉长”成一“竖条”(shape 为[batch_size*num_step,1]),构成训练样本矩阵train_matrix。
训练样本矩阵不能直接作为输入传进LSTM网络,需要同输入层权重矩阵 w_input相乘再和输入层偏置矩阵b_input相加转化成shape为[batch_size, num_step,num_unit]的矩阵real_input后方可作为网络真实输入,并作为参数传入tensorflow的tf.nn.dynamic_rnn方法(调用tf.nn.dynamic_rnn方法的目的是用给定输入和初始模型训练类RNN网络并返回训练结果)。
real_input=train_matrix*[w0w1...wnum_unit-1]+[b0b1..bnum_unit-1]T
S2的最终输出是一个[batch_size,1]形矩阵(后面用“pred”指代),由LSTM 网络对该批样本中所有输入的样本序列进行计算后得出的“下一刻预测值”构成。因为在训练状态下每批样本有batch_size个序列,故pred中有batch_size 个元素。以下是pred的计算步骤:
1)、运行tf.nn.dynamic_rnn,取出第二个返回项[batch_size,2*num_unit] 型矩阵,由该批样本中每一个样本序列输入网络时,所有LSTM单元产生的c 值和h值组成,其结构如下式所示:
2)、去掉所有c值序列,保留所有h值序列,产生一个新矩阵;
3)、将这个新矩阵和输出层权重矩阵w_out相乘,再和输出层偏置矩阵 b_out相加,得到pred。
对LSTM网络的训练是一个循环过程,每次循环都会遍历整个训练样本集,训练每一批样本时都要计算损失量,然后用Adam算法做一次优化。循环次数用变量epoch表示,该值是可调的,当执行完epoch次循环,网络模型就训练好了。
S3、训练LSTM网络:迭代地向这个模型中导入训练样本,计算损失函数,并以此为基础进行全局优化,不断提取训练样本的特征以及数值与时序的关系,直至迭代结束;
训练前首先调用S2中设计的网络模型函数。对LSTM网络的训练是迭代进行的,共有epoch次,实质上就是以下操作的循环:
1)从X,Y两子集中取出第一批batch_size个样本,分别命名为x和y;
2)将x输入LSTM模型,求得pred矩阵;
3)计算损失量tensor(后面用“loss”指代)。预测问题实质是一个回归问题,所以应采用均方误差法(MSE,mean squared error)。采用均方误差法计算损失量:
其中,predi为该批次第i个样本序列下一时刻的“预测值”,tagi是“标签子集”中与该样本序列对应的“标签”序列(在Tensorflow框架中,不同尺寸的矩阵间是可以加减的)。
4)以损失量loss和学习率lr为参数,初始化一个适应性矩估计(Adam) 优化器,计算loss的梯度,然后把梯度应用到变量上,更新LSTM网络所有单元中门结构的权重,返回一个包含训练操作输出结果的tensor;
5)从X,Y子集中取出下一批batch_size个样本,更新x和y;
6)如x,y不为空,则重复步骤2-步骤5;否则开始下一次迭代。
在整个训练过程中,要定期将中间结果保存为检查点文件(一个二进制文件,它把变量名映射到对应的tensor值,扩展名为.ckpt)存入指定路径下。LSTM 网络的完全训练流程,如图3所示。
S4、训练阶段结束后,向模型中导入测试样本,迭代输出未来数个时间步待预测指标的数值,形成预测值时间序列。
进入预测阶段后,输入LSTM网络的是不同于训练样本的测试样本,每一条序列独自成批。这样,h值矩阵仅有一个,经过w_output和b_output“加工”后就是该序列下一时刻的预测值。若想由测试序列得到以后n个时刻的预测值,应采取“步进法”:每次都将上一个预测值接到序列后面,去掉首项元素形成新的序列,再次输入LSTM网络,得到预测值,如此循环。如果预测值准确率不高,测试不成功,可反复调整学习率、LSTM单元个数和迭代次数等超参数,之后重复步骤S1-S4,直至最终产生的预测结果满意为止。
经过迭代训练和调整,LSTM网络已调整至最佳,可以进行时序预测:首先依照路径把最新保存的模型从最新的.ckpt文件里读取出来,将batch_size设为1,并输入”第一条测试数据。假定预测值序列长度也为num_step,这样既为资源调度提供足够“长远”的预报,又便于预测值同实际值的比对。预测是滚动且步进的,其流程如图4所示。
预测值的精准程度可通过平面坐标系中两个序列图线的拟合度直观得出。如果精度不够高,则不断调整超参数,重复S1-S4,直至两图线拟合度令人满意为止。
显然,本发明的上述实施过程仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。
Claims (5)
1.一种基于长短期记忆网络的云数据中心负载预测方法,其特征在于,该方法包括如下步骤:
S1、用存储在文件中的数据制作历史时间序列和数据集;
S2、构建长短期神经网络模型;
S3、训练LSTM网络:迭代地向长短期神经网络模型中导入训练样本,计算损失函数,并以此为基础进行全局优化,不断提取训练样本的特征以及数值与时序的关系,直至迭代结束;
S4、训练阶段结束后,向长短期神经网络模型;中导入测试样本,迭代输出未来数个时间步待预测指标的数值,形成预测值时间序列。
2.如权利要求1所述的基于长短期记忆网络的云数据中心负载预测方法,其特征在于,步骤1中将数据集分为两部分:
第一部分为“tensor子集”,以“X子集”代替:所述tensor为一时间序列,是训练或测试时输入LSTM网络的最小单元,长度均为num_step,构建方法是迭代地从矩阵中取出连续数据,转化成列表并填入:
第二部分为“标签子集”,以“Y子集”代替,由每个tensor对应的标签构成,Y子集每个位置上的序列值是X子集对应位置序列值的后继值:
3.如权利要求2所述的基于长短期记忆网络的云数据中心负载预测方法,其特征在于,步骤2具体为:
步骤2.1、每一批样本输入LSTM网络,网络中每个单元在筛选和处理样本后都会产生两个数值并传入下一个单元:一个称作“细胞状态”,简称C,另一个是“单元输出”,简称h;LSTM网络有num_unit个单元,每批样本中有batch_size个样本序列,故一批样本会先后产生num_unit*batch_size个C值和h值,即:
步骤2.2、去掉所有c值序列,保留所有h值序列,产生一个新矩阵;
步骤2.3、将这个新矩阵和输出层权重矩阵w_out相乘,再和输出层偏置矩阵b_out相加,得到pred。
4.如权利要求3所述的基于长短期记忆网络的云数据中心负载预测方法,其特征在于,步骤3具体为:
1)从X,Y两子集中取出第一批batch_size个样本,分别命名为x和y;
2)将x输入LSTM模型,求得pred矩阵;
3)计算损失量tensor loss。
4)以损失量loss和学习率lr为参数,初始化一个适应性矩估计(Adam)优化器,计算loss的梯度,然后把梯度应用到变量上,更新LSTM网络所有单元中门结构的权重,返回一个包含训练操作输出结果的tensor;
5)从X,Y子集中取出下一批batch_size个样本,更新x和y;
6)如x,y不为空,则重复步骤2-步骤5;否则开始下一次迭代。
5.如权利要求1所述的基于长短期记忆网络的云数据中心负载预测方法,其特征在于,步骤3中,在LSTM网络训练阶段,给定学习率lr且计算出损失量loss后,采用适应性矩估计(Adaptive moment estimation)方法调整,更新LSTM网络模型中忘记门、输入门和输出门的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711433325.9A CN108170529A (zh) | 2017-12-26 | 2017-12-26 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711433325.9A CN108170529A (zh) | 2017-12-26 | 2017-12-26 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108170529A true CN108170529A (zh) | 2018-06-15 |
Family
ID=62521116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711433325.9A Pending CN108170529A (zh) | 2017-12-26 | 2017-12-26 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108170529A (zh) |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108989098A (zh) * | 2018-08-24 | 2018-12-11 | 福建师范大学 | 一种混合云环境面向时延优化的科学工作流数据布局方法 |
CN109063416A (zh) * | 2018-07-23 | 2018-12-21 | 太原理工大学 | 基于lstm循环神经网络的基因表达预测方法 |
CN109104620A (zh) * | 2018-07-26 | 2018-12-28 | 腾讯科技(深圳)有限公司 | 一种短视频推荐方法、装置和可读介质 |
CN109272046A (zh) * | 2018-09-26 | 2019-01-25 | 北京科技大学 | 基于L2重新正则化Adam切换模拟回火SGD的深度学习方法 |
CN109299321A (zh) * | 2018-08-31 | 2019-02-01 | 出门问问信息科技有限公司 | 一种曲目推荐方法及装置 |
CN109359624A (zh) * | 2018-11-14 | 2019-02-19 | 浙江农林大学 | 基于神经网络的蛋鸡采食行为的预测方法及预测装置 |
CN109471698A (zh) * | 2018-10-19 | 2019-03-15 | 中国电子科技集团公司第二十八研究所 | 云环境下虚拟机异常行为检测***和方法 |
CN109522117A (zh) * | 2018-10-25 | 2019-03-26 | 深圳市圆世科技有限责任公司 | 一种面向异构环境下的链上数据调度*** |
CN109542585A (zh) * | 2018-11-14 | 2019-03-29 | 山东大学 | 一种支持不规则时间间隔的虚拟机工作负载预测方法 |
CN109782392A (zh) * | 2019-02-27 | 2019-05-21 | 中国科学院光电技术研究所 | 一种基于改进型随机并行梯度下降算法的光纤耦合方法 |
CN109816008A (zh) * | 2019-01-20 | 2019-05-28 | 北京工业大学 | 一种基于长短期记忆网络的天文大数据光变曲线异常预测方法 |
CN109857459A (zh) * | 2018-12-27 | 2019-06-07 | 中国海洋大学 | 一种e级超算海洋模式自动移植优化方法及*** |
CN110031214A (zh) * | 2019-04-09 | 2019-07-19 | 重庆大学 | 基于长短期记忆网络的滚齿质量在线评估方法 |
CN110096349A (zh) * | 2019-04-10 | 2019-08-06 | 山东科技大学 | 一种基于集群节点负载状态预测的作业调度方法 |
CN110231976A (zh) * | 2019-05-20 | 2019-09-13 | 西安交通大学 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
CN110297186A (zh) * | 2019-08-14 | 2019-10-01 | 莆田市烛火信息技术有限公司 | 一种新能源汽车电池参数检测方法 |
CN110389820A (zh) * | 2019-06-28 | 2019-10-29 | 浙江大学 | 一种基于v-TGRU模型进行资源预测的私有云任务调度方法 |
CN110502432A (zh) * | 2019-07-23 | 2019-11-26 | 平安科技(深圳)有限公司 | 智能测试方法、装置、设备及可读存储介质 |
CN110782016A (zh) * | 2019-10-25 | 2020-02-11 | 北京百度网讯科技有限公司 | 用于优化神经网络架构搜索的方法和装置 |
CN111008674A (zh) * | 2019-12-24 | 2020-04-14 | 哈尔滨工程大学 | 一种基于快速循环单元的水下目标探测方法 |
CN111027591A (zh) * | 2019-11-13 | 2020-04-17 | 西安交通大学 | 一种面向大规模集群***的节点故障预测方法 |
CN111049903A (zh) * | 2019-12-12 | 2020-04-21 | 大连理工大学 | 一种基于应用感知预测的边缘网络负载分配算法 |
CN111143050A (zh) * | 2018-11-02 | 2020-05-12 | 中移(杭州)信息技术有限公司 | 一种容器集群调度的方法和设备 |
CN111179910A (zh) * | 2019-12-17 | 2020-05-19 | 深圳追一科技有限公司 | 语速识别方法和装置、服务器、计算机可读存储介质 |
CN111224806A (zh) * | 2018-11-27 | 2020-06-02 | 华为技术有限公司 | 一种资源分配方法及服务器 |
CN111415270A (zh) * | 2020-03-03 | 2020-07-14 | 浙江万胜智能科技股份有限公司 | 一种基于lstm学习的电力负荷智能识别方法 |
CN111491006A (zh) * | 2020-03-03 | 2020-08-04 | 天津大学 | 负载感知的云计算资源弹性分配***及方法 |
CN111537888A (zh) * | 2020-05-09 | 2020-08-14 | 国网福建省电力有限公司莆田供电公司 | 一种数据驱动的梯次电池soc预测方法 |
CN111787109A (zh) * | 2020-07-02 | 2020-10-16 | 哈尔滨工程大学 | 一种基于时间序列预测的数据中心负载均衡方法 |
CN111985162A (zh) * | 2020-08-28 | 2020-11-24 | 华中科技大学 | 一种基于深度学习的置换流水车间控制方法及*** |
CN112163668A (zh) * | 2020-09-29 | 2021-01-01 | 上海交通大学 | 一种基于预测和云边协同的减少时间序列数据传输量方法 |
CN112416596A (zh) * | 2020-12-01 | 2021-02-26 | 新华三人工智能科技有限公司 | 一种节点调度方法、装置及设备 |
CN112532717A (zh) * | 2020-11-25 | 2021-03-19 | 四川易诚智讯科技有限公司 | 基于stm32单片机及长短时记忆网络的生产过程安全监控方法 |
CN113051130A (zh) * | 2021-03-19 | 2021-06-29 | 南京航空航天大学 | 结合注意力机制的lstm网络的移动云负载预测方法及*** |
CN113220466A (zh) * | 2021-06-02 | 2021-08-06 | 神州数码***集成服务有限公司 | 一种基于长短期记忆模型的云服务负载通用预测方法 |
CN113220450A (zh) * | 2021-04-29 | 2021-08-06 | 南京邮电大学 | 面向云端多数据中心的负载预测方法、资源调度方法及装置 |
CN113272825A (zh) * | 2018-11-21 | 2021-08-17 | 亚马逊技术有限公司 | 通过模拟进行的强化学习模型训练 |
CN115102674A (zh) * | 2022-06-17 | 2022-09-23 | 西安电子科技大学 | 基于Bi-LSTM网络的高速链路预测眼图方法 |
CN117744129A (zh) * | 2023-09-18 | 2024-03-22 | 苏州天安慧网络运营有限公司 | 一种基于cim的智慧运维方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150356075A1 (en) * | 2014-06-06 | 2015-12-10 | Google Inc. | Generating representations of input sequences using neural networks |
CN106502799A (zh) * | 2016-12-30 | 2017-03-15 | 南京大学 | 一种基于长短时记忆网络的主机负载预测方法 |
CN107239825A (zh) * | 2016-08-22 | 2017-10-10 | 北京深鉴智能科技有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
US20170330558A1 (en) * | 2013-12-17 | 2017-11-16 | Google Inc. | Generating representations of acoustic sequences |
CN107481048A (zh) * | 2017-08-08 | 2017-12-15 | 哈尔滨工业大学深圳研究生院 | 一种基于混合模型的金融品种价格预测方法及*** |
-
2017
- 2017-12-26 CN CN201711433325.9A patent/CN108170529A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170330558A1 (en) * | 2013-12-17 | 2017-11-16 | Google Inc. | Generating representations of acoustic sequences |
US20150356075A1 (en) * | 2014-06-06 | 2015-12-10 | Google Inc. | Generating representations of input sequences using neural networks |
CN107239825A (zh) * | 2016-08-22 | 2017-10-10 | 北京深鉴智能科技有限公司 | 考虑负载均衡的深度神经网络压缩方法 |
CN106502799A (zh) * | 2016-12-30 | 2017-03-15 | 南京大学 | 一种基于长短时记忆网络的主机负载预测方法 |
CN107481048A (zh) * | 2017-08-08 | 2017-12-15 | 哈尔滨工业大学深圳研究生院 | 一种基于混合模型的金融品种价格预测方法及*** |
Non-Patent Citations (1)
Title |
---|
ADIT DESHPANDE: "Perform sentiment analysis with LSTMs, using TensorFlow", 《HTTPS://WWW.OREILLY.COM/CONTENT/PERFORM-SENTIMENT-ANALYSIS-WITH-LSTMS-USING-TENSORFLOW/》 * |
Cited By (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063416B (zh) * | 2018-07-23 | 2019-08-27 | 太原理工大学 | 基于lstm循环神经网络的基因表达预测方法 |
CN109063416A (zh) * | 2018-07-23 | 2018-12-21 | 太原理工大学 | 基于lstm循环神经网络的基因表达预测方法 |
CN109104620A (zh) * | 2018-07-26 | 2018-12-28 | 腾讯科技(深圳)有限公司 | 一种短视频推荐方法、装置和可读介质 |
CN109104620B (zh) * | 2018-07-26 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 一种短视频推荐方法、装置和可读介质 |
CN108989098A (zh) * | 2018-08-24 | 2018-12-11 | 福建师范大学 | 一种混合云环境面向时延优化的科学工作流数据布局方法 |
CN108989098B (zh) * | 2018-08-24 | 2021-06-01 | 福建师范大学 | 一种混合云环境面向时延优化的科学工作流数据布局方法 |
CN109299321A (zh) * | 2018-08-31 | 2019-02-01 | 出门问问信息科技有限公司 | 一种曲目推荐方法及装置 |
CN109299321B (zh) * | 2018-08-31 | 2021-07-09 | 出门问问信息科技有限公司 | 一种曲目推荐方法及装置 |
CN109272046A (zh) * | 2018-09-26 | 2019-01-25 | 北京科技大学 | 基于L2重新正则化Adam切换模拟回火SGD的深度学习方法 |
CN109471698A (zh) * | 2018-10-19 | 2019-03-15 | 中国电子科技集团公司第二十八研究所 | 云环境下虚拟机异常行为检测***和方法 |
CN109522117A (zh) * | 2018-10-25 | 2019-03-26 | 深圳市圆世科技有限责任公司 | 一种面向异构环境下的链上数据调度*** |
CN111143050B (zh) * | 2018-11-02 | 2023-09-19 | 中移(杭州)信息技术有限公司 | 一种容器集群调度的方法和设备 |
CN111143050A (zh) * | 2018-11-02 | 2020-05-12 | 中移(杭州)信息技术有限公司 | 一种容器集群调度的方法和设备 |
CN109359624A (zh) * | 2018-11-14 | 2019-02-19 | 浙江农林大学 | 基于神经网络的蛋鸡采食行为的预测方法及预测装置 |
CN109542585B (zh) * | 2018-11-14 | 2020-06-16 | 山东大学 | 一种支持不规则时间间隔的虚拟机工作负载预测方法 |
CN109542585A (zh) * | 2018-11-14 | 2019-03-29 | 山东大学 | 一种支持不规则时间间隔的虚拟机工作负载预测方法 |
CN109359624B (zh) * | 2018-11-14 | 2021-10-08 | 浙江农林大学 | 基于神经网络的蛋鸡采食行为的预测方法及预测装置 |
CN113272825B (zh) * | 2018-11-21 | 2024-02-02 | 亚马逊技术有限公司 | 通过模拟进行的强化学习模型训练 |
CN113272825A (zh) * | 2018-11-21 | 2021-08-17 | 亚马逊技术有限公司 | 通过模拟进行的强化学习模型训练 |
CN111224806A (zh) * | 2018-11-27 | 2020-06-02 | 华为技术有限公司 | 一种资源分配方法及服务器 |
CN109857459B (zh) * | 2018-12-27 | 2022-03-08 | 中国海洋大学 | 一种e级超算海洋模式自动移植优化方法及*** |
CN109857459A (zh) * | 2018-12-27 | 2019-06-07 | 中国海洋大学 | 一种e级超算海洋模式自动移植优化方法及*** |
CN109816008A (zh) * | 2019-01-20 | 2019-05-28 | 北京工业大学 | 一种基于长短期记忆网络的天文大数据光变曲线异常预测方法 |
CN109782392A (zh) * | 2019-02-27 | 2019-05-21 | 中国科学院光电技术研究所 | 一种基于改进型随机并行梯度下降算法的光纤耦合方法 |
CN110031214A (zh) * | 2019-04-09 | 2019-07-19 | 重庆大学 | 基于长短期记忆网络的滚齿质量在线评估方法 |
CN110031214B (zh) * | 2019-04-09 | 2020-09-22 | 重庆大学 | 基于长短期记忆网络的滚齿质量在线评估方法 |
CN110096349A (zh) * | 2019-04-10 | 2019-08-06 | 山东科技大学 | 一种基于集群节点负载状态预测的作业调度方法 |
CN110231976A (zh) * | 2019-05-20 | 2019-09-13 | 西安交通大学 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
CN110231976B (zh) * | 2019-05-20 | 2021-04-20 | 西安交通大学 | 一种基于负载预测的边缘计算平台容器部署方法及*** |
CN110389820A (zh) * | 2019-06-28 | 2019-10-29 | 浙江大学 | 一种基于v-TGRU模型进行资源预测的私有云任务调度方法 |
CN110502432B (zh) * | 2019-07-23 | 2023-11-28 | 平安科技(深圳)有限公司 | 智能测试方法、装置、设备及可读存储介质 |
CN110502432A (zh) * | 2019-07-23 | 2019-11-26 | 平安科技(深圳)有限公司 | 智能测试方法、装置、设备及可读存储介质 |
CN110297186A (zh) * | 2019-08-14 | 2019-10-01 | 莆田市烛火信息技术有限公司 | 一种新能源汽车电池参数检测方法 |
CN110782016A (zh) * | 2019-10-25 | 2020-02-11 | 北京百度网讯科技有限公司 | 用于优化神经网络架构搜索的方法和装置 |
CN111027591B (zh) * | 2019-11-13 | 2022-07-12 | 西安交通大学 | 一种面向大规模集群***的节点故障预测方法 |
CN111027591A (zh) * | 2019-11-13 | 2020-04-17 | 西安交通大学 | 一种面向大规模集群***的节点故障预测方法 |
CN111049903A (zh) * | 2019-12-12 | 2020-04-21 | 大连理工大学 | 一种基于应用感知预测的边缘网络负载分配算法 |
CN111049903B (zh) * | 2019-12-12 | 2021-04-20 | 大连理工大学 | 一种基于应用感知预测的边缘网络负载分配算法 |
CN111179910A (zh) * | 2019-12-17 | 2020-05-19 | 深圳追一科技有限公司 | 语速识别方法和装置、服务器、计算机可读存储介质 |
CN111008674B (zh) * | 2019-12-24 | 2022-05-03 | 哈尔滨工程大学 | 一种基于快速循环单元的水下目标探测方法 |
CN111008674A (zh) * | 2019-12-24 | 2020-04-14 | 哈尔滨工程大学 | 一种基于快速循环单元的水下目标探测方法 |
CN111415270A (zh) * | 2020-03-03 | 2020-07-14 | 浙江万胜智能科技股份有限公司 | 一种基于lstm学习的电力负荷智能识别方法 |
CN111491006A (zh) * | 2020-03-03 | 2020-08-04 | 天津大学 | 负载感知的云计算资源弹性分配***及方法 |
CN111537888A (zh) * | 2020-05-09 | 2020-08-14 | 国网福建省电力有限公司莆田供电公司 | 一种数据驱动的梯次电池soc预测方法 |
CN111787109A (zh) * | 2020-07-02 | 2020-10-16 | 哈尔滨工程大学 | 一种基于时间序列预测的数据中心负载均衡方法 |
CN111985162B (zh) * | 2020-08-28 | 2024-04-26 | 华中科技大学 | 一种基于深度学习的置换流水车间控制方法及*** |
CN111985162A (zh) * | 2020-08-28 | 2020-11-24 | 华中科技大学 | 一种基于深度学习的置换流水车间控制方法及*** |
CN112163668B (zh) * | 2020-09-29 | 2023-05-05 | 上海交通大学 | 一种基于预测和云边协同的减少时间序列数据传输量方法 |
CN112163668A (zh) * | 2020-09-29 | 2021-01-01 | 上海交通大学 | 一种基于预测和云边协同的减少时间序列数据传输量方法 |
CN112532717A (zh) * | 2020-11-25 | 2021-03-19 | 四川易诚智讯科技有限公司 | 基于stm32单片机及长短时记忆网络的生产过程安全监控方法 |
CN112416596A (zh) * | 2020-12-01 | 2021-02-26 | 新华三人工智能科技有限公司 | 一种节点调度方法、装置及设备 |
CN113051130B (zh) * | 2021-03-19 | 2023-05-02 | 南京航空航天大学 | 结合注意力机制的lstm网络的移动云负载预测方法及*** |
CN113051130A (zh) * | 2021-03-19 | 2021-06-29 | 南京航空航天大学 | 结合注意力机制的lstm网络的移动云负载预测方法及*** |
CN113220450B (zh) * | 2021-04-29 | 2022-10-21 | 南京邮电大学 | 面向云端多数据中心的负载预测方法、资源调度方法及装置 |
CN113220450A (zh) * | 2021-04-29 | 2021-08-06 | 南京邮电大学 | 面向云端多数据中心的负载预测方法、资源调度方法及装置 |
CN113220466A (zh) * | 2021-06-02 | 2021-08-06 | 神州数码***集成服务有限公司 | 一种基于长短期记忆模型的云服务负载通用预测方法 |
CN115102674B (zh) * | 2022-06-17 | 2023-08-22 | 西安电子科技大学 | 基于Bi-LSTM网络的高速链路预测眼图方法 |
CN115102674A (zh) * | 2022-06-17 | 2022-09-23 | 西安电子科技大学 | 基于Bi-LSTM网络的高速链路预测眼图方法 |
CN117744129A (zh) * | 2023-09-18 | 2024-03-22 | 苏州天安慧网络运营有限公司 | 一种基于cim的智慧运维方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108170529A (zh) | 一种基于长短期记忆网络的云数据中心负载预测方法 | |
Mindermann et al. | Prioritized training on points that are learnable, worth learning, and not yet learnt | |
Hewamalage et al. | Recurrent neural networks for time series forecasting: Current status and future directions | |
Tripathy et al. | Deep UQ: Learning deep neural network surrogate models for high dimensional uncertainty quantification | |
Li et al. | Prediction for tourism flow based on LSTM neural network | |
Shah et al. | Pareto frontier learning with expensive correlated objectives | |
Soares et al. | An adaptive ensemble of on-line extreme learning machines with variable forgetting factor for dynamic system prediction | |
US11366806B2 (en) | Automated feature generation for machine learning application | |
Barman et al. | Transfer learning for small dataset | |
Okewu et al. | Parameter tuning using adaptive moment estimation in deep learning neural networks | |
CN111950810A (zh) | 一种基于自演化预训练的多变量时间序列预测方法和设备 | |
CN110457369A (zh) | 一种模型的训练方法及相关设备 | |
Lu et al. | Variance reduced training with stratified sampling for forecasting models | |
CN113128478A (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN108876038B (zh) | 大数据、人工智能、超算协同的材料性能预测方法 | |
CN115018193A (zh) | 基于lstm-ga模型的时间序列风能数据预测方法 | |
CN111598329A (zh) | 基于自动化参数调整循环神经网络的时序数据预测方法 | |
Lubell-Doughtie et al. | Practical distributed classification using the alternating direction method of multipliers algorithm | |
CN116542701A (zh) | 一种基于cnn-lstm组合模型的碳价预测方法及*** | |
Ren et al. | A novel solution to jsps based on long short-term memory and policy gradient algorithm | |
Ariafar et al. | Faster & More Reliable Tuning of Neural Networks: Bayesian Optimization with Importance Sampling. | |
Hassim et al. | Optimizing functional link neural network learning using modified bee colony on multi-class classifications | |
CN117439053A (zh) | 一种Stacking集成模型电量预测方法、装置、存储介质 | |
Bertsimas et al. | A machine learning approach to two-stage adaptive robust optimization | |
CN116995669A (zh) | 新能源发电量的预测方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180615 |