CN109670589A - 神经网络预测方法及装置 - Google Patents
神经网络预测方法及装置 Download PDFInfo
- Publication number
- CN109670589A CN109670589A CN201710960577.0A CN201710960577A CN109670589A CN 109670589 A CN109670589 A CN 109670589A CN 201710960577 A CN201710960577 A CN 201710960577A CN 109670589 A CN109670589 A CN 109670589A
- Authority
- CN
- China
- Prior art keywords
- predicted
- module
- prediction
- information
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开涉及一种神经网络预测方法及装置。该方法包括:分别获取多个待预测对象的特征信息;将特征信息输入预测模型中进行处理,获取针对多个待预测对象中至少一个待预测对象的预测结果;输出预测结果,其中,预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对多个待预测对象的特征信息进行处理,从而获取针对多个待预测对象中至少一个待预测对象的预测结果,提高了该预测结果的准确度。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络预测方法及装置。
背景技术
相关技术中,可以利用训练样本训练得到预测模型,从而对各种事件进行预测。例如,可以利用电视剧播放流量(Video View)相关的训练样本训练得到用于预测电视剧播放流量的预测模型,从而对即将播放的电视剧播放流量进行预测。然而,有些事件的训练样本数量较少,例如,综艺相关的训练样本数量较少,通过较少的训练样本训练得到的预测模型具有预测准确度低、预测结果不可靠等问题。
发明内容
有鉴于此,本公开提出了一种神经网络预测方法及装置,能够提高预测结果的准确度。
根据本公开的一方面,提供了一种神经网络预测方法,所述方法包括:
分别获取多个待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM(Long Short-Term Memory,LSTM)模块、深度神经网络DNN(Deep Neural Network,DNN)模块、关系网络RN(RelationNetwork,RN)模块以及对抗训练网络模块。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息;
将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述方法还包括:
分别获取多组样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,所述装置包括:
特征信息获取单元,用于分别获取多个待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。
在一种可能的实现方式中,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息;
对抗训练子单元,用于将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的各方面,能够通过包括多个神经网络模块的预测模型,对多个待预测对象的特征信息进行处理,从而获取针对多个待预测对象中至少一个待预测对象的预测结果,提高了该预测结果的准确度。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图6是根据一示例性实施例示出的一种神经网络预测模型的框图。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。
图8是根据一示例性实施例示出的多层感知器的结构示意图。
图9是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。
图10是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。
图11是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。
图14是根据一示例性实施例示出的一种神经网络预测装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。该方法可应用于服务器中。如图1所示,根据本公开实施例的神经网络预测方法包括:
在步骤S11中,分别获取多个待预测对象的特征信息;
在步骤S12中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
在步骤S13中,输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。
根据本公开实施例,能够捕捉多个待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、各待预测对象之间的关联性、同时输出多个待预测对象中至少一个待预测对象的预测结果,并提高了预测结果的准确率。
举例来说,服务器可以分别获取多个待预测对象的特征信息。其中,待预测对象可以是即将发生的各类事件,例如,可以是即将播放的电视剧、电影、综艺节目,也可以是即将进行的各类比赛、彩票以及总统选举等。待预测对象的特征信息为可以对待预测对象的预测结果产生影响的各种影响因素,例如,对即将播出的综艺节目进行预测时,该综艺节目的类型、档期、主创人员等信息都可以为该综艺节目的特征信息。在对即将进行的总统选举进行预测时,参与选举的候选人信息、民众支持率、政绩等都可以为总统选举的特征信息。本领域技术人员应理解,本公开对待预测对象的类型、待预测对象的特征信息的形式不作限制。
在一种可能的实现方式中,待预测对象的特征信息可以包括多种形式,例如,可以为数值类特征,也可以为向量类特征。
举例来说,待预测对象的特征信息可以包括离散型或连续型的实数值。例如,在对电视剧的播放流量进行预测时,特征信息可以包括题材、演员等。其中,可以用布尔值来表示该电视剧的题材是否为爱情题材,例如,在该电视剧的题材属于爱情题材时,可以用实数值1来表示其题材特征信息,在该电视剧的题材不属于爱情题材时,则可以用实数值0来表示其题材特征信息。对于参与该电视剧的演员对应的特征信息则可以通过一些可量化的指标来表示。例如,可以用该电视剧的演员在电视剧播放前一段时间内的搜索引擎中的搜索量来表示该电视剧的各演员的特征信息。另外,待预测对象的特征信息还可以为向量类特征。例如,通过一个固定长度的向量来表示该电视剧的题材、各演员等主体的特征信息。本领域技术人员应理解,待预测对象的特征信息可以包括多种形式,可以根据需要进行设置,本公开对此不作限制。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果,其中,所述预测模型包括LSTM模块、DNN模块、RN模块以及对抗训练网络模块。
举例来说,服务器可以将获取的多个待预测对象的特征信息输入到预测模型中进行处理,该预测模型可以为训练好的的包括LSTM模块、DNN模块、RN模块以及对抗训练网络模块多个神经网络模块的预测模型。该预测模型可以基于该特征信息,获取针对该多个待预测对象中至少一个待预测对象的预测结果。
其中,在对待预测对象进行预测时,T时刻的预测结果往往与T-1时刻以及更早之前的预测结果具有一定的关联性。例如,在对综艺节目A1进行预测时,该综艺节目A1在播放之前可能存在一个较长的准备及宣传时期,该准备及宣传时期对该综艺节目A1即将的播放流量也有一定的关联性。例如,之前(T-1时刻)已经根据综艺节目A1的题材、主创人员等特征信息,获取了相对应的预测结果(例如,播放流量);而当前(T时刻),该综艺节目A1的特征信息可能产生变化(例如,其中某个主创人员的正面或负面新闻等)。在该情况下,当前(T时刻)的预测结果可能是基于之前(T-1时刻)的预测结果而产生一定的变化。也就是说,当前的预测结果与之前的预测结果之间可能具有时间上的关联性。LSTM模块可用于在预测结果的处理过程中引入这种时序信息。本领域技术人员应理解,可以采用相关技术设置该预测模块的LSTM模块,例如,可以针对每个待预测对象设置一个LSTM模块进行并行处理,以保证运行速度,也可以设置一个LSTM模块依次串行处理多个待预测对象的特征信息,以降低硬件成本,只要可以通过LSTM模块对多个待预测对象的特征信息进行处理即可,本公开对此不作限制。
该预测模型的DNN模块可用于准确捕捉不同的特征信息的组合模式,从而提高该预测模型的预测准确度。本领域技术人员应理解,DNN模块可以包括多层全连接层,全连接层的层数越多(深度越大),其学习能力越强,最后形成的预测模型的稳定性越高,拟合能力越强,只要预测模型的DNN模块可用于捕捉特征信息的组合模式即可,本公开对DNN模块的层数和结构不作限制。
该预测模型的RN模块可用于捕捉不同待预测对象之间的关联关系。举例来说,在对综艺节目A进行播放流量预测时,同一播放时间段的综艺节目A2会对综艺节目A1的播放流量产生一定影响,RN模块可用于捕捉不同待预测对象之间的关联关系。本领域技术人员应理解,可采用相关技术设置该预测模块的RN模块,RN模块可以包括多种形式,例如,RN模块可以为即插即用模块,本公开对此不作限制。
该预测模型的对抗训练网络模块可用于该预测模型训练过程中,基于一组待预测对象(例如,域A)的较少的训练样本以及与该组待预测对象相关的另一组待预测对象(例如,域B)较多训练样本,训练得到预测模型,其中,该预测模型可以用于准确预测具有较少训练样本的待预测对象的预测结果。本领域技术人员应理解,该预测模型的对抗训练网络模块可以包括多种形式,只要可以训练预测模型,训练完成的预测模型的对抗训练网络模块可以将输入的关系信息,输出在两组待预测对象的共同表征即可,本公开对此不作限制。
在一种可能的实现方式中,多个待预测对象中的一个待预测对象为目标待预测对象,该预测模型可以对多个待预测对象的特征信息进行处理,获取针对目标待预测对象的预测结果。
举例来说,综艺节目A1为目标待预测对象(最终希望得到准确预测结果的待预测对象),该预测模型可以基于获取到的综艺类节目A1、综艺类节目A2以及综艺类节目A3的特征信息,确定针对综艺类节目A1的预测结果。这样,可以准确获取目标待预测对象的预测结果。
在一种可能的实现方式中,多个待预测对象中的多个待预测对象为目标待预测对象,该预测模型可以对多个待预测对象的特征信息进行处理,获取针对多个目标待预测对象的预测结果。
举例来说,服务器可以获取综艺节目A1、综艺节目A2以及综艺节目A3的特征信息,三个综艺节目都为目标待预测对象时,特征信息经过预测模型的处理,可以获取针对综艺节目A1、综艺节目A2以及综艺节目A3的预测结果。这样,可以准确获取多个目标待预测对象的预测结果。本领域技术人员应理解,可以根据需要设置目标待预测对象,例如,可以在预测模型的训练过程中进行设定,本公开对此不作限制。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,如图2所示,步骤S12可以包括:
在步骤S121中,将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息。
举例来说,服务器可以将获取的综艺节目A1、综艺节目A2及综艺节目A3的特征信息输入到LSTM模块中进行处理,从而确定综艺节目A1、综艺节目A2及综艺节目A3的长短期记忆信息。本领域技术人员应理解,LSTM模块可以处理多个待预测对象在一个时间段内的多个时间点上的特征信息,捕捉多个时间点上的特征信息之间的时序信息,可以采用相关技术中的长短期记忆网络对多个待预测对象的特征信息进行处理,本公开对此不作限制。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,所述预测模型还包括嵌入模块,如图3所示,步骤S12可以包括:
在步骤S125中,将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息。
举例来说,待预测对象可以包括多个主体,每个主体可以包括多个初始信息,该初始信息可以为直接采集到的信息经过简单数学处理获取的离散型或者连续型的实数值(一种数值类的特征信息)。例如,初始信息可以为用布尔值表示的电视剧的题材特征信息,用电视剧演员在搜索引擎中的搜索值表示演员的特征信息等。例如,待预测对象为综艺节目A1,该综艺节目A1的题材、主创人员C1、主创人员C2等为该综艺节目A1的多个主体。以主创人员C1为例,该主创人员C1可以包括多个初始信息,例如,该主创人员C1在综艺节目A1播放前一段时间内在搜索引擎中的搜索量、该主创人员C1在评价网站上的评分、该主创人员C1之前参加的综艺节目的收视率等。
在一种可能的实现方式中,该预测模型的嵌入模块可用于对初始信息进行向量化处理,确定初始信息的向量信息。
举例来说,该预测模型的嵌入模块可以对待预测对象的每个主体的多个初始信息进行向量化处理,确定与主体的多个初始信息相对应的向量信息。例如,该预测模型的嵌入模块可以将待预测对象综艺节目A1的主创人员C1的多个初始信息进行向量化处理,确定该主创人员C的多个初始特征相对应的向量信息,从而将主创人员C1这个主体表示成一个向量。
在步骤S126中,将所述初始信息和所述向量信息确定为所述特征信息。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。在一种可能的实现方式中,如图4所示,可以将待预测对象的初始信息以及向量信息确定为特征信息,待预测对象的多个主体的向量信息拼接的嵌入层(Embedding Layer)以及初始信息作为预测模型的输入层,输入到预测模型中。
举例来说,可以将待预测对象的多个主体的初始信息以及多个主体的向量信息确定为待预测对象的特征信息,待预测对象的多个主体的向量信息可以拼接成嵌入层,与该待预测对象的多个主体的多个初始信息一起作为该预测模型的输入层,输入到该预测模型中。例如,待预测对象综艺节目A1包括三个主体,分别为主体1题材、主体2主创人员C1以及主体3主创人员C2,其中,三个主体可分别对应多个初始信息。该训练好的预测模型的嵌入模块可以将三个主体表示为三个向量,该三个向量可以拼接成嵌入层,并与三个主体的多个初始信息一起作为该预测模型的输入层,输入到预测模型中进行处理,例如,输入到LSTM模块中进行处理,从而确定多个待预测对象的长短期记忆信息。
通过这种方式,可以提升输入到LSTM模块中进行处理的信息的稳定性,更利于刻画特征信息之间的相似性,向量信息较初始信息蕴含当前特征在多个维度上对预测结果的信息量,在较少提取特征信息的工程负担的基础上,提高了预测准确度。本领域技术人员应理解,可以采用相关技术实现对初始信息的向量化处理,并将初始信息和向量化信息输入到LSTM模块中进行处理,本公开对此不作限制。
在步骤S122中,将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息。
举例来说,可以将多个待预测对象的长短期记忆信息输入到DNN模块中进行处理,从而确定该多个待预测对象的深度信息。例如,将综艺节目A1、综艺节目A2以及综艺节目A3的长短期记忆信息输入到DNN模块中进行处理,可以基于该训练好的DNN模块确定综艺节目A1、综艺节目A2以及综艺节目A3的深度信息。本领域技术人员应理解,可以采用相关技术实现DNN模块对多个待预测对象的长短期记忆信息的处理,并确定该多个待预测对象的深度信息,本公开对此不作限制。
在步骤S123中,将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息。
举例来说,可以将多个待预测对象的深度信息输入到RN模块中进行处理,从而确定该多个待预测对象的关系信息。例如,将综艺节目A1、综艺节目A2以及综艺节目A3的深度信息输入到RN模块中进行处理,可以基于该训练好的RN模块确定综艺节目A1、综艺节目A2以及综艺节目A3的关系信息。如前文所述,目标待预测对象可以为一个,例如,可以为综艺节目A1,此时,RN模块将综艺节目A1与综艺节目A2、综艺节目A1与综艺节目A3的深度信息关系作为输入,确定综艺节目A1与综艺节目A2以及综艺节目A3的关系信息。若目标待预测对象为综艺节目A1、综艺节目A2以及综艺节目A3,则RN模块将综艺节目A1与综艺节目A2、综艺节目A1与综艺节目A3以及综艺节目A2与综艺节目A3的深度信息作为输入,确定综艺节目A1、综艺节目A2以及综艺节目A3的关系信息。
通过这种方式,可以准确获取多个待预测对象的关系信息。本领域技术人员应理解,可以采用相关技术实现RN模块对多个待预测象的关系信息的处理,并确定该多个待预测对象的关系信息,本公开对此不作限制。
在步骤S124中,将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
举例来说,可以将该多个待预测对象的关系信息输入到对抗训练网络模块中进行处理,从而确定该多个待预测对象中至少一个待预测对象的预测结果。例如,该关系信息可以通过该对抗训练网络模块中的神经网络层(例如,一层或两层全连接层)进行处理,从而确定多个待预测对象中至少一个待预测对象的预测结果。例如,该预测模型的对抗训练网络模块在训练过程中,基于域A的较少的训练样本以及与域A相关的另一组域B的较多的训练样本进行训练。该训练完成的预测模型的对抗训练网络模块可以将输入的关系信息,输出域A和域B的共同表征,确定多个待预测对象中至少一个待预测对象的预测结果。
通过这种方式,可以提高预测模型的泛化能力。本领域技术人员应理解,对抗训练网络模块可以包括多种形式,对抗训练网络模块中的全连接层的层数也可以根据需要进行设置,本公开对此不作限制。
在一种可能的实现方式中,预测结果可以包括一个时间点的预测结果,也可以包括一个时间段内的不同时间点的预测结果。
如前文所述,该预测模型的LSTM模块可以处理多个待预测对象在一个时间段内的多个时间点上的特征信息,捕捉多个时间点上的特征信息之间的时序信息,因此该预测模型的预测结果可以包括一个时间点的预测结果,也可以包括一个时间段内的不同时间点的预测结果。通过这种方式,可以根据需要选择一个时间点的预测结果或者不同时间段内多个预测结果。本领域技术人员应理解,可以采用相关技术实现上述方案,本公开对此不作限制。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。图6是根据一示例性实施例示出的一种神经网络预测模型的框图。如图5、图6所示,在一种可能的实现方式中,所述方法还包括:
在步骤S14中,分别获取多组样本对象当前周期的特征信息。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
举例来说,如图6所示,可以分别获取综艺节目(域A)这一组样本对象当前周期的特征信息,以及与综艺节目有一定相关度的电视节目(域B)这一组的样本对象当前周期的特征信息。例如,可以分别获取综艺节目A1、综艺节目A2以及综艺节目A3在T时刻(当前周期)的特征信息,以及与综艺节目有一定相关度的电视节目B1、电视节目B2以及电视节目B3在T时刻(当前周期)的特征信息,其中,多组样本对象当前周期的特征信息用于训练预测模型。本领域技术人员应理解,综艺节目这一组样本对象与相关联的电视节目样本对象有部分特征信息相同,特征信息相同的部分越多,则基于样本对象训练的预测模型的可靠性越强。
在一种可能的实现方式中,输入到初始预测模型中的多组样本对象的特征信息需要做相应处理,以使得多组样本对象的特征信息相对应。
举例来说,综艺节目的特征信息一共有300维,相关联的电视节目的特征信息也有300维,然而,综艺节目与相关联的电视节目的特征信息中有150维相同,其余特征信息不相同。此时,可将综艺节目的特征信息处理为450维,其中,除了初始的自身的特征信息300维之外,添加与相关联的电视节目不相同的150维(例如,相应特征信息设置为0),电视节目的特征信息也处理为450维,其中,除了初始的自身的特征信息300维之外,添加与综艺节目不相同的150维(例如,相应特征信息设置为0),通过这种方式,可以保证基于两组样本对象的特征信息训练得到的预测模型的准确度和可靠性。本领域技术人员应理解,可以采用多种方式处理两组样本对象的特征信息,可以采用相关技术对初始预测模型进行训练,本公开对此不作限制。
在步骤S15中,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果。
在一种可能的实现方式中,该初始预测模型包括LSTM模块、DNN模块、RN模块以及对抗训练网络模块。
在一种可能的实现方式中,利用LSTM模块,可处理样本对象的多个时间周期的特征信息,其中,在当前周期的预测结果的处理过程中,除输入当前周期的特征信息,还可以输入前一周期的训练预测结果共同处理。
举例来说,可以将当前周期综艺节目的特征信息、相关联的电视剧的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,从而获取针对多组样本对象当前周期的训练预测结果。例如,如图6所示,在当前周期(例如,T时刻)的预测结果的处理过程中,综艺节目A1的特征信息以及前一周期的训练预测结果(例如,T-1时刻隐藏层输出)共同作为输入,输入到LSTM模块中进行处理。其中,综艺节目A1的特征信息如前文所述,可以包括综艺节目A1的多个主体的向量信息以及多个主体的初始信息。
在一种可能的实现方式中,将待预测对象的每个主体分别用一个向量来表示,并随机初始化向量中的每一维,将待预测对象的多个主体的向量信息拼接成嵌入层,该嵌入层与待预测对象的多个主体的初始信息以及前一周期的训练预测结果一起作为输入层输入LSTM模块,其中,嵌入层的向量的参数可随着训练过程不断更新。通过这种方式,可以提高预测模型的准确度。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。在一种可能的实现方式中,该初始预测模型的DNN模块可采用基于自编码(AutoEncoder)的预训练(Pre-training)来解决DNN的梯度消失问题。如图7所示,针对DNN的每一层输入,首先使用图7中的三层神经网络结构来拟合自身,其中输出层是输入层的复制,该网络结构学习的目标是通过“输入层-隐藏层”(编码权重W1)和“隐藏层-输出层”(解码权重W2)这两组权重参数尽可能地拟合输入层自身。隐藏层的结点数与DNN中下一层的结点数相同。最终使用编码权重W1作为当前输入层与下一个隐藏层之间权重参数的初始值,以此类推,将DNN中每一层的权重参数都通过上述预训练的方式进行初始化,最终可以使得整个DNN获得良好的收敛性。通过这种方式,可以避免训练过程中深度神经网络的梯度消失。本领域技术人员应理解,可以采用相关技术实现对深度神经网络的预训练,本公开对此不作限制。
图8是根据一示例性实施例示出的多层感知器的结构示意图。如图8所示,如果需要对待预测对象x4进行预测,则可以在RN网络中通过多层感知器g分别确定对象x1、x2及x3与x4之间的关系,并进行求和,然后通过多层感知器f对求和后的关系信息进行处理,最终输出多个对象(x1、x2及x3)针对待预测对象x4的关系信息。
在一种可能的实现方式中,也可以对输入的所有待预测对象之间分别进行处理,确定所有待预测对象之间的关系,例如对图8中对象x1~x4之间的所有关系组合均进行处理,最终输出所有待预测对象之间的关系信息。本公开对多个待预测对象的关系信息的具体关系组合不作限制。
下面给出一个示例性的关系信息确定公式(1):
假设关心的是xn,而x1,x2,…,xn-1是与xn关联的输入。为了预测xn的输出,考虑n-1个二元组(xi,xn),i=1,2,…n-1。
可定义关系网络RN为如下复合函数:
在公式(1)中,RN(x1,x2,…,xn)表示多个对象(x1、x2到xn-1)针对待预测对象xn关系信息,和gθ是多层感知器,i为变量,i的取值在1到n-1之间。
通过这种方式,在RN模块中进行处理后,可输入多个待预测对象的关系信息。
图9是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。在一种可能的实现方式中,如图9所示,该初始预测模型的对抗训练网络模块可以包括梯度翻转层(Gradient Reversal Layer,GRL)、域分类器以及神经网络层(例如,一层或两层全连接层)。其中,梯度翻转层可以定义为R(x),在正向传播时,梯度翻转层可以表示为:
R(x)=λx (2)
举例来说,在基于特征信息进行处理时,经过RN模块处理得到的关系信息输入到对抗训练网络模块中进行处理,例如,该关系信息可以经过梯度翻转层(例如,在λ=1时,输出等于输入,数据保持不变),输入到域分类器(例如,二分类器)中进行分类,该关系信息可以经过神经网络层进行处理,并得到多个待预测对象中至少一个待预测对象的预测结果。
在步骤S16中,根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失。
举例来说,需要计算三个周期的训练预测结果,首先获取预设的初始样本对象、初始期望预测结果,将初始样本对象输入初始预测模型进行处理,得到初始训练预测结果。再将所述初始训练预测结果和第一个周期的多组样本对象输入初始预测模型进行处理,得到第一个周期的训练预测结果。根据第一个周期的训练预测结果和第二个周期的多组样本对象的特征信息,利用初始预测模型进行处理,得到第二个周期的训练预测结果。再根据第二个周期的训练预测结果和第三个周期的多组样本对象特征信息,利用初始预测模型进行处理,得到第三个周期的训练预测结果,最终得到各个周期的训练预测结果。
由于样本对象在每个周期的都有一个已知的期望预测结果,因此根据样本对象在各个周期的训练预测结果和期望预测结果,可以得到初始预测模型在各个周期的模型损失。
在步骤S17中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。
举例来说,将各个周期的模型损失相加后,采用反向传播算法,例如,BPTT(BackPropagation Through Time)算法,基于该模型损失,对该模型的参数权重求梯度,并基于该梯度来调整初始预测模型中的参数权重。
当预测模型需要进行满足设定的迭代训练次数时,在每次的迭代训练中,重复上述步骤。
图10是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。如图10所示,在一种可能的实现方式中,步骤S17可以包括:
在步骤S171中,根据所述多组样本对象多个周期的模型损失,依次所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
举例来说,可以根据多组样本对象多个周期的模型损失,依次调整各模块中的参数权重,并确定调整后的预测模型。例如,根据所述多组样本对象的三个周期的训练预测结果以及所述三个周期的期望预测结果,分别确定所述多组样本对象的三个周期的模型损失。可以将三个周期的模型损失相加后,依次调整各模块中的参数权重,从而确定调整后的预测模型。
需要说明的是,如前文所述,所述对抗训练网络模块包括梯度翻转层以及域分类器。其中,在通过反向传播算法训练神经网络时,梯度翻转层R(x)满足下述公式:
其中,I表示单位矩阵,λ为参数权重,表示在用反向传播算法训练神经网络时,经过梯度翻转层后梯度的正负号翻转。
举例来说,在根据多组样本对象多个周期的模型损失依次调整参数权重时,经过对抗训练网络模块的梯度翻转层,可以降低该域分类器对两组样本对象的区分能力,从而使得多个周期调整后的预测模型模糊两组样本对象的区别。例如,将综艺节目以及电视节目的特征信息输入到初始预测模型,该初始预测模型的对抗训练网络模块的域分类器对两组样本对象进行区分,并根据两组样本对象多个周期的模型损失,依次调整各个模块的参数权重。在调整对抗训练网络模块时,因为其包括梯度翻转层,使得调整过该模块的参数权重的初始预测模型越来越模糊综艺节目以及电视节目的区别,使得该不断调整的预测模型越来越无法区分综艺节目与电视节目,从而实现从样本对象较多的电视节目向样本对象较少的综艺节目的迁移学习。本领域技术人员应理解,可以采用相关技术实现对预测模型各模块的参数权重的调整,本公开对此不作限制。
在步骤S18中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。
在本实施例中,根据不同周期的特征信息与初始预测模型进行训练,得到满足训练条件的预测模型,得到的预测模型能够更好的反应出待预测对象的特征信息的时序性、关联性,并能得到准确的预测结果。
应用示例
以下结合“对综艺节目A1进行预测”作为一个示例性应用场景,给出给出根据本公开实施例的应用示例,以便于理解神经网络预测方法的流程。本领域技术人员应理解,以下应用示例仅仅是出于便于理解本发明实施例的目的,不应视为对本发明实施例的限制。
图11是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。如图11所示,在该应用示例中,训练预测模型(步骤900)。
在该应用示例中,分别获取综艺节目和与综艺节目有一定关联度的电视节目的当前周期的特征信息。例如,综艺节目的特征信息为300维,电视节目的特征信息为300维,其中,综艺节目与电视节目的特征信息有150维相同,可以确定该综艺节目的特征信息为450维,该电视节目的特征信息也为450维,取两组样本对象的特征信息的并集。例如,保留综艺节目以及电视节目自身的特征信息,将不同的特征信息在相应位置填补为0。
在该应用示例中,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果。例如,利用LSTM模块,处理样本对象的多个时间周期的特征信息,其中,在当前周期的预测结果的处理过程中,除输入当前周期的特征信息,还需要输入前一周期的训练预测结果共同处理。例如,将第二周期的特征信息以及第一周期的训练预测结果输入初始预测模型中进行处理,获取针对两组样本对象当前周期的训练预测结果。
在该应用示例中,根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失。
在该应用示例中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。例如,根据综艺节目以及电视节目样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在该应用示例中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。例如,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。在满足迭代训练次数和/或满足设定的收敛条件时,可以将调整后的预测模型确定为最终的预测模型。
在该应用示例中,服务器可以获取待预测的综艺节目A1、综艺节目A2以及综艺节目A3的特征信息(步骤901),并将特征信息输入该预测模型进行处理(步骤902),从而获取到待预测对象中至少一个待预测对象的预测结果,例如,综艺节目A1的预测结果(步骤903)。
根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对多个待预测对象的特征信息进行处理,从而获取针对多个待预测对象中至少一个待预测对象的预测结果,提高了该预测结果的准确度。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。如图12所示,所述神经网络预测装置包括:
特征信息获取单元11,用于分别获取多个待预测对象的特征信息;
预测结果获取单元12,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
预测结果输出单元13,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。在一种可能的实现方式中,如图13所示,所述预测结果获取单元12包括:
LSTM处理子单元121,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元122,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元123,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息;
对抗训练子单元124,用于将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
如图13所示,在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元12还包括:
嵌入处理子单元125,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元126,用于将所述初始信息和所述向量信息确定为所述特征信息。
如图13所示,在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元14,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元15,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元16,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元17,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元18,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
如图13所示,在一种可能的实现方式中,所述权重调整单元17包括:
权重调整子单元171,用于根据所述多组样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
图14是根据一示例性实施例示出的一种神经网络预测装置的框图。例如,装置1900可以被提供为一服务器。参照图14,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作***,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (14)
1.一种神经网络预测方法,其特征在于,所述方法包括:
分别获取多个待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。
2.根据权利要求1所述的方法,其特征在于,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息;
将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
3.根据权利要求2所述的方法,其特征在于,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
4.根据权利要求1或3所述的方法,其特征在于,所述方法还包括:
分别获取多组样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
5.根据权利要求4所述的方法,其特征在于,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
6.根据权利要求4所述的方法,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
7.一种神经网络预测装置,其特征在于,所述装置包括:
特征信息获取单元,用于分别获取多个待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述多个待预测对象中至少一个待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、关系网络RN模块以及对抗训练网络模块。
8.根据权利要求7所述的装置,其特征在于,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述多个待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述多个待预测对象的深度信息;
RN处理子单元,用于将所述深度信息输入所述RN模块中进行处理,确定所述多个待预测对象的关系信息;
对抗训练子单元,用于将所述关系信息输入所述对抗训练网络模块中进行处理,确定所述多个待预测对象中至少一个待预测对象的预测结果。
9.根据权利要求8所述的装置,其特征在于,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
10.根据权利要求7或9所述的装置,其特征在于,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
11.根据权利要求10所述的装置,其特征在于,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象多个周期的模型损失,依次调整所述对抗训练网络模块、所述RN模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
12.根据权利要求10所述的装置,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
13.一种神经网络预测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1-6中任意一项所述的神经网络预测方法。
14.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至6中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710960577.0A CN109670589A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710960577.0A CN109670589A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670589A true CN109670589A (zh) | 2019-04-23 |
Family
ID=66140040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710960577.0A Pending CN109670589A (zh) | 2017-10-16 | 2017-10-16 | 神经网络预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670589A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及*** |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
-
2017
- 2017-10-16 CN CN201710960577.0A patent/CN109670589A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9454958B2 (en) * | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
CN106529820A (zh) * | 2016-11-21 | 2017-03-22 | 北京中电普华信息技术有限公司 | 一种运营指标的预测方法及*** |
CN106960252A (zh) * | 2017-03-08 | 2017-07-18 | 深圳市景程信息科技有限公司 | 基于长短时记忆神经网络的电力负荷预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670569A (zh) | 神经网络预测方法及装置 | |
CN109344382A (zh) | 审核合同的方法、装置、电子设备及计算机可读存储介质 | |
CN110147711A (zh) | 视频场景识别方法、装置、存储介质和电子装置 | |
CN107707931A (zh) | 根据视频数据生成解释数据、数据合成方法及装置、电子设备 | |
IL263851A (en) | Method and system for automatically identifying events in videos | |
CN109361932B (zh) | 直播热度预测的方法、装置、设备及介质 | |
CN109325516A (zh) | 一种面向图像分类的集成学习方法及装置 | |
CN109685121A (zh) | 图像检索模型的训练方法、图像检索方法、计算机设备 | |
CN108346139A (zh) | 一种图像筛选方法及装置 | |
CN109960761A (zh) | 信息推荐方法、装置、设备及计算机可读存储介质 | |
CN109688428B (zh) | 视频评论生成方法和装置 | |
CN109509010A (zh) | 一种多媒体信息处理方法、终端及存储介质 | |
CN108322317A (zh) | 一种账号识别关联方法及服务器 | |
CN109670588A (zh) | 神经网络预测方法及装置 | |
CN109670623A (zh) | 神经网络预测方法及装置 | |
CN109670621A (zh) | 神经网络预测方法及装置 | |
CN109670590A (zh) | 神经网络预测方法及装置 | |
CN109670572A (zh) | 神经网络预测方法及装置 | |
CN108259949A (zh) | 一种广告推荐方法、装置及电子设备 | |
CN110457524A (zh) | 模型生成方法、视频分类方法及装置 | |
CN109902823A (zh) | 一种基于生成对抗网络的模型训练方法及设备 | |
Saxena et al. | An Examination on Implementation of Deep Fake in Images Through Deep Learning | |
CN109670567A (zh) | 神经网络预测方法及装置 | |
CN110309407A (zh) | 观点提取方法及装置 | |
CN109670568A (zh) | 神经网络预测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200608 Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Alibaba (China) Co.,Ltd. Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C Applicant before: Youku network technology (Beijing) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190423 |
|
RJ01 | Rejection of invention patent application after publication |