CN111651264A - 物理机资源分配模型的获取方法、装置和计算机设备 - Google Patents

物理机资源分配模型的获取方法、装置和计算机设备 Download PDF

Info

Publication number
CN111651264A
CN111651264A CN202010334968.3A CN202010334968A CN111651264A CN 111651264 A CN111651264 A CN 111651264A CN 202010334968 A CN202010334968 A CN 202010334968A CN 111651264 A CN111651264 A CN 111651264A
Authority
CN
China
Prior art keywords
training
physical machine
resource allocation
hidden layer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010334968.3A
Other languages
English (en)
Inventor
田玉凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010334968.3A priority Critical patent/CN111651264A/zh
Priority to PCT/CN2020/098788 priority patent/WO2021212654A1/zh
Publication of CN111651264A publication Critical patent/CN111651264A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请揭示了一种物理机资源分配模型的获取方法、装置和计算机设备,其中方法包括,将训练数据集中的数据输入到预设的BILSTM神经网络中进行训练,得到隐含层的输出值Hi=(hi+hi’);以及,将训练数据进行求和后再平均处理,得到平均训练值,并将平均训练值输入到BILSTM神经网络中进行训练,得到对应的隐含层的输出值X;根据输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;通过线性函数Hk’=H(C,hk,Xk)求出输出值X对应的隐含层输出值hk’;依据隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对基础模型进行训练,得到物理机资源分配模型。本申请提高了预测精度。

Description

物理机资源分配模型的获取方法、装置和计算机设备
技术领域
本申请涉及到智能决策领域,特别是涉及到一种物理机资源分配模型的获取方法、装置和计算机设备。
背景技术
传统的物理机资源分配主要是是根据经验分配,往往会出现各个区的物理机资源准备不能满足业务的需求,有时物理机资源准备充分却没有市场,有时物理机资源没有准备充分确有很大的市场需求,从而导致资源利用不充分。
所以亟需一种可以准确预测物理机资源分配的方法。
发明内容
本申请的主要目的为提供一种物理机资源分配模型的获取方法、装置和计算机设备,旨在解决现有技术无法准确预测物理机资源分配的技术问题。
为了实现上述发明目的,本申请提出一种物理机资源分配模型的获取方法,包括:
获取指定区域的物理机的历史使用数据;
将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
进一步地,所述根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C的步骤,包括:
根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000021
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
依据公式
Figure BDA0002466244970000022
得到所述值C。
进一步地,所述将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集的步骤,包括:
对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
将所述可用的历史数据分成所述训练数据集和所述测试数据集。
进一步地,所述获取指定区域的物理机的历史使用数据的步骤,包括:
获取所述预设的BILSTM神经网络的节点数量;
根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
进一步地,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤,包括:
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
进一步地,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤之后,包括:
获取调用所述物理机资源分配模型的命令;
依据所述命令,启动身份识别程序,得到当前操作者的身份;
根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
本申请还提供一种物理机资源分配模型的获取装置,包括:
获取单元,用于获取指定区域的物理机的历史使用数据;
处理单元,用于将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
第一训练单元,用于将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
第二训练单元,用于将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
第一计算单元,用于根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
第二计算单元,用于通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
编写训练单元,用于依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
进一步地,所述第一计算单元,包括:
构建模块,用于根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000041
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
计算模块,用于依据公式
Figure BDA0002466244970000042
得到所述值C。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的物理机资源分配模型的获取方法、装置和计算机设备,将训练数据集中的数据输入到预设的BILSTM神经网络中进行训练,得到隐含层的输出值Hi=(hi+hi’);以及,将训练数据进行求和后再平均处理,得到平均训练值,并将平均训练值输入到BILSTM神经网络中进行训练,得到对应的隐含层的输出值X;根据输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;通过线性函数Hk’=H(C,hk,Xk)求出输出值X对应的隐含层输出值hk’;依据隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对基础模型进行训练,得到物理机资源分配模型。本申请使用了注意力机制以及BILSTM神经网络,在整个技术方案中加入注意力机制后,对算法进行了改进,从而提高了预测精度,优化了架构,提高特征值的挖掘深度。
附图说明
图1为本申请一实施例的物理机资源分配模型的获取方法的流程示意图;
图2为本申请一实施例的物理机资源分配模型的获取装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请实施例提供一种物理机资源分配模型的获取方法,包括:
S1、获取指定区域的物理机的历史使用数据;
S2、将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
S3、将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
S4,将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到所述隐含层的输出值X;
S5、根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
S6、通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
S7、依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
执行上述方法的执行主体一般是服务器、计算机设备等具有运算能力的电子计算机设备。
如上述步骤S1所述,上述物理机是指服务器等物理设备。上述历史使用数据一般包括GUP(Graphic Processing Unit,中文翻译为“图形处理器”)的数据、硬盘容量数据、网卡速率数据、物理机的使用数量数据等数据。上述指定区域是指一个地理范围或者网络环境范围,比如,某个地域的物理机使用数据,又或者某一业务领域对应的网络环境中物理机的使用数据等。
如上述步骤S2所述,上述预处理即为数据清理的过程,将不符合训练下述预设的BILSTM神经网络的数据进行删除或者变形,比如对不规则的数据进行归一化处理,对文字属性的数据进行one-hot转变等,在此不在一一赘述。将清洗后的历史数据随机分分配,得到训练数据集和测试数据集,其中训练数据集中的数据用于训练下述的BILSTM神经网络,而测试数据集中的数据用于测试训练后的BILSTM神经网络是否可用。
如上述步骤S3和S4所述,上述BILSTM(Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成)神经网络是一种双向输入的LSTM神经网络,即一个节点具有前项隐含层和后项隐含层,在训练或预测的时候需要数据按照时间顺序,正向和反向分别输入到前项隐含层和后项隐含层,然后将前项隐含层和后项隐含层的输出相加得到该节点的隐含层输出,本申请选择BILSTM神经网络进行训练,可以提高各时间点之间的数据影响,进而提高后续的预测准确性。在本申请中,不但对训练数据进行训练,还将训练数据相加然后求平均得到一个平均训练值,并且为该平均训练值对应设置一个节点进行训练,得到该节点对应的隐含层输出值。举个例子,训练数据为12个月内产生的数据,每一个月的数据对应设置一个节点,则BILSTM神经网络的总结点数为13个,多出的一个节点即为平均训练值对应的节点。将平均训练值加入训练过程,可以提高后续的注意力机制的计算,提高预测精度。
如上述步骤S5至S7所述,即为加入了注意力机制后,进行一系列的计算处理后,得到一个重新编写的基础模型,然后再对该基础模型进行训练,进而得到物理机资源分配模型。需要注意的是,对上述基础模型进行训练和测试的数据仍然是上述的训练数据集和测试数据集中的数据。物理机资源分配模型计算出的预测值为Y=R(X,hk’),其结合了平均训练值对应的X,以及通过注意力机制计算出的hk’,大大地提高了预测精度。在本实施例中,基于BILSTM神经网络的物理机资源分配的基础模型,其损失函数按MSE(均方误差)的标准进行计算即可。
在一个实施例中,上述根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C的步骤S5,包括:
根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000071
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
依据公式
Figure BDA0002466244970000072
得到所述值C。
在本实施例中,即为具体的计算上述值C的过程,Ski=vtanh(Whk+Uhi+b)是LSTM神经网络中的基础计算公式之一,在此不做解释。上述输出值X在各历史节点上的概率分布是指之前节点对X的影响,即权重的分配。然后构建出极大自然数公式αki,然后计算出值C。值C的作用是用于后续计算输出值X对应的隐含层输出值hk’。
在一个实施例中,上述将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集的步骤S2,包括:
对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
将所述可用的历史数据分成所述训练数据集和所述测试数据集。
在本实施例中,上述缩放类型的数据只是属性数据大于预设值的数据,将其等比例缩小,从而降低因为数据之间差距太大而影响训练的结果;上述归一类型是指不规则数据,比如历史使用数据中的离散数据等,将其归一化到0到1之间,防止之后模型训练时产生过拟合的情况;上述文字类型是指不能直接训练的数据,将进行one-hot转变,从而可以进行神经网络的训练。在本实施例中,将所述可用的历史数据分成所述训练数据集和所述测试数据集的方法可以为,将每一个时间段内的可用的历史数据,按照7/3,或8/2的比例进行随机划分得到每一个时间段内的训练数据和测试数据,比如,12个月的历史数据,每一个月为一个时间段,那么在第一个月的时间段内随机抽取7成的数据作为测试数据,剩余的3成数据作为测试数据,并以此类推。这样处理,每一个时间段内的训练数据基本保持足够多的训练量,防止整体随机分配时,将某个时间段的数据全部或大部分被分配到测试数据集中,从而影响对神经网络的训练结果等。
在一个实施例中,上述获取指定区域的物理机的历史使用数据的步骤S1,包括:
获取所述预设的BILSTM神经网络的节点数量;
根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
在本实施例中,在获取历史使用数据的时候并不会盲目的获取,而是有选择的获取,比如,先确定BILSTM神经网络的节点数量,可以根据节点数量知道历史使用数据需要包含多少个时间跨度,具体地,因为本申请中多出一个用于计算平均训练值的节点,所以需要对节点数量进行减一处理,如BILSTM神经网络的节点数量为13,其应该对应不同的12个连续的时间跨度的数据,最后一个节点用于训练这个12个时间跨度中的数据平均值。当确定具体的节点数量后,再根据上述的时间跨度既可以确定历史数据的起始时间和结束时间。比如,时间跨度是1个月,节点数量为13,那么起始时间是12月前对应当前时间的时间,当前时间为结束时间。在另一个实施例中,如果时间跨度为1个月,且为从1号开始的自然月,则开始时间将当前时间对应的月份时间去除,当前时间的前一个月的结束时间为历史数据的结束时间,而历史数据的开始时间则从结束时间向前推12个月得到时间。通过本实施例得到的历史使用数据,在进行预处理之后对预设的BILSTM神经网络进行训练的时候,数据对应各节点更加准确,从而提高训练后的物理机资源分配模型具有更加精准的预测能力。
在一个实施例中,上述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤S7,包括:
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
在本实施例中,主要是要训练得到多个训练程度不同的物理机资源分配模型,以便于后期的使用。本申请中,可以训练出三个物理机资源分配模型,如使用全部训练数据集中的训练数据训练得到的物理机资源分配模型,其预测准确性最高,定义为高级物理机资源分配模型,使用训练数据的数量中等得到的模型定义为中级述物理机资源分配模型,使用训练数据的数量最少得到的模型定义为低级述物理机资源分配模型。在使用过程,可以根据模型使用者的身份,给以对应级别的模型使用,比如,模型使用者是公司的决策者,其使用高级物理机资源分配模型,其可以准确的掌握物理机的资源分配量;而其他如客服人员等需要简单了解预测结果以回复客户问题的,则使用低级物理机资源分配模型等,以防止将准确的数据透漏给竞争对手等。
在一个实施例中,上述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤之后,包括:
获取调用所述物理机资源分配模型的命令;
依据所述命令,启动身份识别程序,得到当前操作者的身份;
根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
在本实施例中,上述身份识别程序可以现有技术中的任意一种程序,比如指纹识别、人脸识别、声纹识别等等。不同的操作者可以调用的物理机资源分配模型的等级不同,可以有效管控资源分配数据的安全性。
本申请的物理机资源分配模型的获取方法,将训练数据集中的数据输入到预设的BILSTM神经网络中进行训练,得到隐含层的输出值Hi=(hi+hi’);以及,将训练数据进行求和后再平均处理,得到平均训练值,并将平均训练值输入到BILSTM神经网络中进行训练,得到对应的隐含层的输出值X;根据输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;通过线性函数Hk’=H(C,hk,Xk)求出输出值X对应的隐含层输出值hk’;依据隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对基础模型进行训练,得到物理机资源分配模型。本申请使用了注意力机制以及BILSTM神经网络,在整个技术方案中加入注意力机制后,对算法进行了改进,从而提高了预测精度,优化了架构,提高特征值的挖掘深度。
参照图2,本申请还提供一种物理机资源分配模型的获取装置,包括:
获取单元10,用于获取指定区域的物理机的历史使用数据;
处理单元20,用于将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
第一训练单元30,用于将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
第二训练单元40,用于将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
第一计算单元50,用于根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
第二计算单元60,用于通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
编写训练单元70,用于依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
在一个实施例中,上述第一计算单元50,包括:
构建模块,用于根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000101
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
计算模块,用于依据公式
Figure BDA0002466244970000111
得到所述值C。
在一个实施例中,上述处理单元20,包括:
分类模块,用于对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
处理模块,用于将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
拆分模块,用于将所述可用的历史数据分成所述训练数据集和所述测试数据集。
在一个实施例中,上述处理单元20,包括:
第一获取模块,用于获取所述预设的BILSTM神经网络的节点数量;
确定模块,用于根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
第二获取模块,用于获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
在一个实施例中,上述编写训练单元70,包括:
编写模块,用于依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
训练模块,用于使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
进一步地,上述物理机资源分配模型的获取装置,包括:
获取命令单元,用于获取调用所述物理机资源分配模型的命令;
身份识别单元,用于依据所述命令,启动身份识别程序,得到当前操作者的身份;
分配模型单元,用于根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
上述各单元和模块是执行上述各方法步骤的装置,在此不在展开一一说明。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于历史使用数据等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种物理机资源分配模型的获取方法。
上述处理器执行上述物理机资源分配模型的获取方法,包括步骤:
获取指定区域的物理机的历史使用数据;
将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
在一个实施例中,所述根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C的步骤,包括:
根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000131
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
依据公式
Figure BDA0002466244970000132
得到所述值C。
在一个实施例中,所述将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集的步骤,包括:
对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
将所述可用的历史数据分成所述训练数据集和所述测试数据集。
在一个实施例中,所述获取指定区域的物理机的历史使用数据的步骤,包括:
获取所述预设的BILSTM神经网络的节点数量;
根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
在一个实施例中,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤,包括:
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
在一个实施例中,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤之后,包括:
获取调用所述物理机资源分配模型的命令;
依据所述命令,启动身份识别程序,得到当前操作者的身份;
根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种上述物理机资源分配模型的获取方法,包括步骤:
获取指定区域的物理机的历史使用数据;
将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
在一个实施例中,所述根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C的步骤,包括:
根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure BDA0002466244970000151
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
依据公式
Figure BDA0002466244970000152
得到所述值C。
在一个实施例中,所述将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集的步骤,包括:
对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
将所述可用的历史数据分成所述训练数据集和所述测试数据集。
在一个实施例中,所述获取指定区域的物理机的历史使用数据的步骤,包括:
获取所述预设的BILSTM神经网络的节点数量;
根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
在一个实施例中,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤,包括:
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
在一个实施例中,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤之后,包括:
获取调用所述物理机资源分配模型的命令;
依据所述命令,启动身份识别程序,得到当前操作者的身份;
根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM一多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种物理机资源分配模型的获取方法,其特征在于,包括:
获取指定区域的物理机的历史使用数据;
将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
2.根据权利要求1所述的物理机资源分配模型的获取方法,其特征在于,所述根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C的步骤,包括:
根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure FDA0002466244960000011
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
依据公式
Figure FDA0002466244960000012
得到所述值C。
3.根据权利要求1所述的物理机资源分配模型的获取方法,其特征在于,所述将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集的步骤,包括:
对所述历史使用数据进行分类,其中,分类包括需要将数据缩小的缩放类型、需要归一化处理的归一类型以及需要one-hot转变的文字类型;
将分类后的数据按照对应的处理方式进行处理得到所述可用的历史数据;
将所述可用的历史数据分成所述训练数据集和所述测试数据集。
4.根据权利要求1所述的物理机资源分配模型的获取方法,其特征在于,所述获取指定区域的物理机的历史使用数据的步骤,包括:
获取所述预设的BILSTM神经网络的节点数量;
根据所述节点数量减一的值,确定所述历史数据的起始时间和结束时间;
获取所述起始时间和结束时间之间的数据作为所述历史使用数据。
5.根据权利要求1所述的物理机资源分配模型的获取方法,其特征在于,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤,包括:
依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型;
使用所述训练数据集中不同数量的训练数据对所述基础模型进行训练,得到不同训练等级的所述物理机资源分配模型,其中,使用的训练数据越少,得到的所述物理机资源分配模型的预测准确度越低。
6.根据权利要求5所述的物理机资源分配模型的获取方法,其特征在于,所述依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型的步骤之后,包括:
获取调用所述物理机资源分配模型的命令;
依据所述命令,启动身份识别程序,得到当前操作者的身份;
根据所述操作者的身份分配与所述操作者的身份相对应登记的所述物理机资源分配模型。
7.一种物理机资源分配模型的获取装置,其特征在于,包括:
获取单元,用于获取指定区域的物理机的历史使用数据;
处理单元,用于将所述历史使用数据进行预处理后得到可用的历史数据,并将所述历史数据分成训练数据集和测试数据集;
第一训练单元,用于将所述训练数据集中的训练数据按照时间的正向顺序和反向顺序分别输入到预设的BILSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到前项输出值hi和后项输出值hi’,并且将所述hi与hi’相加得到隐含层的输出值Hi=(hi+hi’),其中i为某个历史节点;以及,
第二训练单元,用于将所述训练数据进行求和后再平均处理,得到平均训练值,并将所述平均训练值输入到LSTM神经网络中的前项隐含层和后项隐含层中进行训练,得到对应的隐含层的输出值X;
第一计算单元,用于根据所述输出值X在各历史节点上的概率分布,计算出各历史节点的隐含层输出Hi和概率权重的乘积,然后相加得到值C;
第二计算单元,用于通过线性函数Hk’=H(C,hk,Xk)求出所述输出值X对应的隐含层输出值hk’;
编写训练单元,用于依据所述隐含层输出值hk’编写基于BILSTM神经网络的物理机资源分配的基础模型,并对所述基础模型进行训练,得到所述物理机资源分配模型,其中,所述物理机资源分配模型计算出的预测值为Y=R(X,hk’),R为常量。
8.根据权利要求7所述的物理机资源分配模型的获取装置,其特征在于,所述第一计算单元,包括:
构建模块,用于根据所述输出值X在各历史节点上的概率分布,构建公式:
Figure FDA0002466244960000031
其中,Ski=vtanh(Whk+Uhi+b),k为某个历史节点,i为某个历史节点,b为常量;
计算模块,用于依据公式
Figure FDA0002466244960000041
得到所述值C。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
CN202010334968.3A 2020-04-24 2020-04-24 物理机资源分配模型的获取方法、装置和计算机设备 Pending CN111651264A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010334968.3A CN111651264A (zh) 2020-04-24 2020-04-24 物理机资源分配模型的获取方法、装置和计算机设备
PCT/CN2020/098788 WO2021212654A1 (zh) 2020-04-24 2020-06-29 物理机资源分配模型的获取方法、装置和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010334968.3A CN111651264A (zh) 2020-04-24 2020-04-24 物理机资源分配模型的获取方法、装置和计算机设备

Publications (1)

Publication Number Publication Date
CN111651264A true CN111651264A (zh) 2020-09-11

Family

ID=72352187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010334968.3A Pending CN111651264A (zh) 2020-04-24 2020-04-24 物理机资源分配模型的获取方法、装置和计算机设备

Country Status (2)

Country Link
CN (1) CN111651264A (zh)
WO (1) WO2021212654A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115130929A (zh) * 2022-08-29 2022-09-30 中国西安卫星测控中心 基于机器学习分类的资源池智能生成方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117350518B (zh) * 2023-12-04 2024-03-29 深圳智慧园区信息技术有限公司 一种智慧园区应急资源调度方法及***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170287B2 (en) * 2017-10-27 2021-11-09 Salesforce.Com, Inc. Generating dual sequence inferences using a neural network model
CN110837683A (zh) * 2019-05-20 2020-02-25 全球能源互联网研究院有限公司 电力***暂态稳定的预测模型的训练及预测方法、装置
CN110276638A (zh) * 2019-05-29 2019-09-24 南京邮电大学 一种基于双向长短期神经网络的电价预测方法及***
CN111046961B (zh) * 2019-12-16 2022-10-04 浙江大学 基于双向长短时记忆单元和胶囊网络的故障分类方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115130929A (zh) * 2022-08-29 2022-09-30 中国西安卫星测控中心 基于机器学习分类的资源池智能生成方法
CN115130929B (zh) * 2022-08-29 2022-11-15 中国西安卫星测控中心 基于机器学习分类的资源池智能生成方法

Also Published As

Publication number Publication date
WO2021212654A1 (zh) 2021-10-28

Similar Documents

Publication Publication Date Title
CN109783785B (zh) 生成实验检测报告的方法、装置和计算机设备
CN108491406B (zh) 信息分类方法、装置、计算机设备和存储介质
CN110109750B (zh) 虚拟资源获取方法、装置、计算机设备和存储介质
CN110888911A (zh) 样本数据处理方法、装置、计算机设备及存储介质
CN110765169B (zh) 信息推荐方法、装置、计算机设备及存储介质
CN111651264A (zh) 物理机资源分配模型的获取方法、装置和计算机设备
CN108492005A (zh) 项目数据处理方法、装置、计算机设备和存储介质
CN112231224A (zh) 基于人工智能的业务***测试方法、装置、设备和介质
CN112286934A (zh) 数据库表导入方法、装置、设备及介质
CN110956031A (zh) 文本相似度匹配的方法、装置及***
CN117763126A (zh) 知识检索方法、设备、存储介质及装置
CN110598090B (zh) 兴趣标签的生成方法、装置、计算机设备和存储介质
CN111652471A (zh) 名单分配控制方法、装置、电子设备及存储介质
CN115393037A (zh) 银行网点现金调配方法和装置
CN112364620B (zh) 文本相似度的判断方法、装置以及计算机设备
CN110413782B (zh) 一种表自动主题分类方法、装置、计算机设备及存储介质
CN114513578A (zh) 外呼方法、装置、计算机设备及存储介质
Huang et al. Iterative estimation maximization for stochastic linear programs with conditional value-at-risk constraints
CN111783486A (zh) 一种读卡器设备的维护预警方法及装置
CN112487486A (zh) 基于区块链的数据获取方法、装置以及计算机设备
CN111523763A (zh) 装修信息推送方法、装置、计算机设备及存储介质
CN110659347A (zh) 关联文书确定方法、装置、计算机设备及存储介质
CN110727510A (zh) 用户数据处理方法、装置、计算机设备和存储介质
CN109948131A (zh) 同一人才不同简历的合并方法及装置
CN114996519B (zh) 数据处理方法、装置、电子设备、存储介质及产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40033519

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination