CN109670572A - 神经网络预测方法及装置 - Google Patents

神经网络预测方法及装置 Download PDF

Info

Publication number
CN109670572A
CN109670572A CN201710975523.1A CN201710975523A CN109670572A CN 109670572 A CN109670572 A CN 109670572A CN 201710975523 A CN201710975523 A CN 201710975523A CN 109670572 A CN109670572 A CN 109670572A
Authority
CN
China
Prior art keywords
prediction
module
prediction result
predicted
characteristic information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710975523.1A
Other languages
English (en)
Inventor
沈一
蔡龙军
茅越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Youku Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Youku Network Technology Beijing Co Ltd filed Critical Youku Network Technology Beijing Co Ltd
Priority to CN201710975523.1A priority Critical patent/CN109670572A/zh
Publication of CN109670572A publication Critical patent/CN109670572A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0202Market predictions or forecasting for commercial activities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开涉及一种神经网络预测方法及装置。该方法包括:获取待预测对象的特征信息;将特征信息输入预测模型中进行处理,获取针对待预测对象的预测结果;输出预测结果,其中,预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。

Description

神经网络预测方法及装置
技术领域
本公开涉及计算机技术领域,尤其涉及一种神经网络预测方法及装置。
背景技术
相关技术中,可以利用训练样本训练得到预测模型,从而对各种事件进行预测。例如,可以利用电视剧播放流量(Video View)相关的训练样本训练得到用于预测电视剧播放流量的预测模型,从而对即将播放的电视剧播放流量进行预测。然而,有些事件的训练样本数量较少,例如,综艺相关的训练样本数量较少,通过较少的训练样本训练得到的预测模型具有预测准确度低、预测结果不可靠等问题。
发明内容
有鉴于此,本公开提出了一种神经网络预测方法及装置,能够提高预测结果的准确度。
根据本公开的一方面,提供了一种神经网络预测方法,所述方法包括:
获取待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM(Long Short-Term Memory,LSTM)模块、深度神经网络DNN(Deep Neural Network,DNN)模块、对抗训练网络模块以及多任务学习网络MTL(Multi-Task Learning,MTL)模块。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗训练信息;
将所述对抗训练信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
在一种可能的实现方式中,输出所述预测结果,包括以下任意一种:
输出主预测结果;
输出主预测结果以及相关预测结果。
在一种可能的实现方式中,所述方法还包括:
分别获取多组样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,所述装置包括:
特征信息获取单元,用于获取待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。
在一种可能的实现方式中,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗训练信息;
MTL处理子单元,用于将所述对抗网络信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
在一种可能的实现方式中,所述预测结果输出单元用于输出以下任意一种:
输出主预测结果;
输出主预测结果以及相关预测结果。
在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
根据本公开的另一方面,提供了一种神经网络预测装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为执行上述方法。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其中,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的各方面,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。
图6是根据一示例性实施例示出的一种神经网络预测模型的框图。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。
图8是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。
图9是根据一示例性实施例示出的一种神经网络预测方法的多任务学习网络的示意图。
图10是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。
图11是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。
图14是根据一示例性实施例示出的一种神经网络预测装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1是根据一示例性实施例示出的一种神经网络预测方法的流程图。该方法可应用于服务器中。如图1所示,根据本公开实施例的神经网络预测方法包括:
在步骤S11中,获取待预测对象的特征信息;
在步骤S12中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
在步骤S13中,输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。
根据本公开实施例,能够捕捉待预测对象的特征信息之间的时序性、待预测对象的特征信息之间的关联性、输出待预测对象的预测结果,并提高了预测结果的准确率。
举例来说,服务器可以获取待预测对象的特征信息。其中,待预测对象可以是即将发生的各类事件,例如,可以是即将播放的电视剧、电影、综艺节目,也可以是即将进行的各类比赛、彩票以及总统选举等。待预测对象的特征信息为可以对待预测对象的预测结果产生影响的各种影响因素,例如,对即将播出的综艺节目进行预测时,该综艺节目的类型、档期、主创人员等信息都可以为该综艺节目的特征信息。在对即将进行的总统选举进行预测时,参与选举的候选人信息、民众支持率、政绩等都可以为总统选举的特征信息。本领域技术人员应理解,本公开对待预测对象的类型、待预测对象的特征信息的形式不作限制。
在一种可能的实现方式中,待预测对象的特征信息可以包括多种形式,例如,可以为数值类特征,也可以为向量类特征。
举例来说,待预测对象的特征信息可以包括离散型或连续型的实数值。例如,在对电视剧的播放流量进行预测时,特征信息可以包括题材、演员等。其中,可以用布尔值来表示该电视剧的题材是否为爱情题材,例如,在该电视剧的题材属于爱情题材时,可以用实数值1来表示其题材特征信息,在该电视剧的题材不属于爱情题材时,则可以用实数值0来表示其题材特征信息。对于参与该电视剧的演员对应的特征信息则可以通过一些可量化的指标来表示。例如,可以用该电视剧的演员在电视剧播放前一段时间内的搜索引擎中的搜索量来表示该电视剧的各演员的特征信息。另外,待预测对象的特征信息还可以为向量类特征。例如,通过一个固定长度的向量来表示该电视剧的题材、各演员等主体的特征信息。本领域技术人员应理解,待预测对象的特征信息可以包括多种形式,可以根据需要进行设置,本公开对此不作限制。
在一种可能的实现方式中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,其中,所述预测模型包括LSTM模块、DNN模块、对抗训练网络模块以及MTL模块。
举例来说,服务器可以将获取的待预测对象的特征信息输入到预测模型中进行处理,该预测模型可以为训练好的的包括LSTM模块、DNN模块、对抗训练网络模块以及MTL模块多个神经网络模块的预测模型。该预测模型可以基于该特征信息,获取针对该待预测对象的预测结果。
其中,在对待预测对象进行预测时,T时刻的预测结果往往与T-1时刻以及更早之前的预测结果具有一定的关联性。例如,在对综艺节目A1进行预测时,该综艺节目A1在播放之前可能存在一个较长的准备及宣传时期,该准备及宣传时期对该综艺节目A1即将的播放流量也有一定的关联性。例如,之前(T-1时刻)已经根据综艺节目A1的题材、主创人员等特征信息,获取了相对应的预测结果(例如,播放流量);而当前(T时刻),该综艺节目A1的特征信息可能产生变化(例如,其中某个主创人员的正面或负面新闻等)。在该情况下,当前(T时刻)的预测结果可能是基于之前(T-1时刻)的预测结果而产生一定的变化。也就是说,当前的预测结果与之前的预测结果之间可能具有时间上的关联性。LSTM模块可用于在预测结果的处理过程中引入这种时序信息。本领域技术人员应理解,可以采用相关技术设置该预测模块的LSTM模块,只要可以通过LSTM模块对待预测对象的特征信息进行处理即可,本公开对此不作限制。
该预测模型的DNN模块可用于准确捕捉不同的特征信息的组合模式,从而提高该预测模型的预测准确度。本领域技术人员应理解,DNN模块可以包括多层全连接层,全连接层的层数越多(深度越大),其学习能力越强,最后形成的预测模型的稳定性越高,拟合能力越强,只要预测模型的DNN模块可用于捕捉特征信息的组合模式即可,本公开对DNN模块的层数和结构不作限制。
该预测模型的对抗训练网络模块可用于该预测模型训练过程中,基于一组待预测对象(例如,域A)的较少的训练样本以及与该组待预测对象相关的另一组待预测对象(例如,域B)较多训练样本,训练得到预测模型,其中,该预测模型可以用于准确预测具有较少训练样本的待预测对象的预测结果。本领域技术人员应理解,该预测模型的对抗训练网络模块可以包括多种形式,只要可以训练预测模型,训练完成的预测模型的对抗训练网络模块可以将输入的深度信息,输出在两组待预测对象的共同表征即可,本公开对此不作限制。
该预测模型的MTL模块可用于实现多任务学习,其中,多任务学习是基于共享表示(Shared Representation),让主任务(Main Tasks)使用相关任务(Related Tasks)来提升主任务泛化效果。例如,通过同时处理并获取一个或待预测对象的多个预测结果,来提升预测结果的泛化效果。例如,通过该预测模型的MTL模块,可以同时获取综艺节目A1的多个预测结果(例如,播放流量、口碑、点击量等)。其中,主任务可以为该综艺节目的播放流量,口碑、点击量等预测结果为相关任务,同时预测多个相关任务可以提升主任务的预测准确率。本领域技术人员应理解,MTL模块可以包括多种形式,只要可以进行多任务学习即可,本公开对此不作限制。
图2是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,如图2所示,步骤S12可以包括:
在步骤S121中,将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息。
举例来说,服务器可以将获取的综艺节目A1的特征信息输入到LSTM模块中进行处理,从而确定综艺节目A1的长短期记忆信息。本领域技术人员应理解,LSTM模块可以处理待预测对象在一个时间段内的多个时间点上的特征信息,捕捉多个时间点上的特征信息之间的时序信息,可以采用相关技术中的长短期记忆网络对待预测对象的特征信息进行处理,本公开对此不作限制。
图3是根据一示例性实施例示出的一种神经网络预测方法的步骤S12的流程图。在一种可能的实现方式中,所述预测模型还包括嵌入模块,如图3所示,步骤S12可以包括:
在步骤S125中,将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息。
举例来说,待预测对象可以包括多个主体,每个主体可以包括多个初始信息,该初始信息可以为直接采集到的信息经过简单数学处理获取的离散型或者连续型的实数值(一种数值类的特征信息)。例如,初始信息可以为用布尔值表示的电视剧的题材特征信息,用电视剧演员在搜索引擎中的搜索值表示演员的特征信息等。例如,待预测对象为综艺节目A1,该综艺节目A1的题材、主创人员C1、主创人员C2等为该综艺节目A1的多个主体。以主创人员C1为例,该主创人员C1可以包括多个初始信息,例如,该主创人员C1在综艺节目A1播放前一段时间内在搜索引擎中的搜索量、该主创人员C1在评价网站上的评分、该主创人员C1之前参加的综艺节目的收视率等。
在一种可能的实现方式中,该预测模型的嵌入模块可用于对初始信息进行向量化处理,确定初始信息的向量信息。
举例来说,该预测模型的嵌入模块可以对待预测对象的每个主体的多个初始信息进行向量化处理,确定与主体的多个初始信息相对应的向量信息。例如,该预测模型的嵌入模块可以将待预测对象综艺节目A1的主创人员C1的多个初始信息进行向量化处理,确定该主创人员C的多个初始特征相对应的向量信息,从而将主创人员C1这个主体表示成一个向量。
在步骤S126中,将所述初始信息和所述向量信息确定为所述特征信息。
图4是根据一示例性实施例示出的一种神经网络预测方法的输入层的示意图。在一种可能的实现方式中,如图4所示,可以将待预测对象的初始信息以及向量信息确定为特征信息,待预测对象的多个主体的向量信息拼接的嵌入层(Embedding Layer)以及初始信息作为预测模型的输入层,输入到预测模型中。
举例来说,可以将待预测对象的多个主体的初始信息以及多个主体的向量信息确定为待预测对象的特征信息,待预测对象的多个主体的向量信息可以拼接成嵌入层,与该待预测对象的多个主体的多个初始信息一起作为该预测模型的输入层,输入到该预测模型中。例如,待预测对象综艺节目A1包括三个主体,分别为主体1题材、主体2主创人员C1以及主体3主创人员C2,其中,三个主体可分别对应多个初始信息。该训练好的预测模型的嵌入模块可以将三个主体表示为三个向量,该三个向量可以拼接成嵌入层,并与三个主体的多个初始信息一起作为该预测模型的输入层,输入到预测模型中进行处理,例如,输入到LSTM模块中进行处理,从而确定待预测对象的长短期记忆信息。
通过这种方式,可以提升输入到LSTM模块中进行处理的信息的稳定性,更利于刻画特征信息之间的相似性,向量信息较初始信息蕴含当前特征在多个维度上对预测结果的信息量,在较少提取特征信息的工程负担的基础上,提高了预测准确度。本领域技术人员应理解,可以采用相关技术实现对初始信息的向量化处理,并将初始信息和向量化信息输入到LSTM模块中进行处理,本公开对此不作限制。
在步骤S122中,将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息。
举例来说,可以将待预测对象的长短期记忆信息输入到DNN模块中进行处理,从而确定该待预测对象的深度信息。例如,将综艺节目A1的长短期记忆信息输入到DNN模块中进行处理,可以基于该训练好的DNN模块确定综艺节目A1的深度信息。本领域技术人员应理解,可以采用相关技术实现DNN模块对待预测对象的长短期记忆信息的处理,并确定该待预测对象的深度信息,本公开对此不作限制。
在步骤S123中,将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗网络信息。
举例来说,可以将该待预测对象的深度信息输入到对抗训练网络模块中进行处理,从而确定该待预测对象的对抗网络信息。例如,该深度信息可以通过该对抗训练网络模块中的神经网络层(例如,一层或两层全连接层)进行处理,从而确定对抗网络信息。例如,该预测模型的对抗训练网络模块在训练过程中,基于域A的较少的训练样本以及与域A相关的另一组域B的较多的训练样本进行训练。该训练完成的预测模型的对抗训练网络模块可以将输入的深度信息,输出域A和域B的共同表征,确定对抗网络信息。
通过这种方式,可以提高预测模型的泛化能力。本领域技术人员应理解,对抗训练网络模块可以包括多种形式,对抗训练网络模块中的全连接层的层数也可以根据需要进行设置,本公开对此不作限制。
在步骤S124中,将所述对抗网络信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
举例来说,可以将该待预测对象的对抗网络信息输入到MTL模块中进行处理,从而确定针对该待预测对象的预测结果。例如,将综艺节目A1的对抗网络信息输入到MTL模块中进行处理,可以设置主任务为播放流量,相关任务为点击量、口碑等,可以通过MTL模块中进行处理得到综艺节目A1的多个预测结果,其中,包括主任务播放流量,相关任务点击量、口碑等。
通过这种方式,主任务和相关任务之间的正则效果,可以防止过拟合,可以提高该预测模型的泛化能力,且MTL模块的注意力机制(Attention),可以帮助该预测模型更加关注相关的特征。本领域技术人员应理解,可以根据需要在对预测模型进行训练的过程中设置主任务、相关任务以及主任务与相关任务的权重分配,本公开对此不作限制。
在一种可能的实现方式中,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
举例来说,主任务对应的预测结果为主预测结果,相关任务对应的预测结果为相关预测结果。预测模型可以根据设置输出多个预测结果,在训练该预测模型的目标函数中,可以设置相关参数权重,来调整不同预测结果之间的准确度。例如,待预测对象为综艺节目A1,主任务为播放流量,相关任务为口碑、点击量等,在对该预测模型进行训练时,可以调整该预测模型的目标函数,例如,可以将主预测结果的权重参数大于相关预测结果相关联的权重参数,并以该目标函数训练该预测模型,使得训练好的该预测模型在对综艺节目A1进行预测时,其主预测结果的准确度高于其相关预测结果的准确度。本领域技术人员应理解,可以根据需要设置该预测对象目标函数中的相关参数权重,本公开对此不作限制。
在一种可能的实现方式中,输出所述预测结果,包括以下任意一种:
输出所述主预测结果;
输出所述主预测结果以及相关预测结果。
举例来说,可以根据需要设置输出预测结果的形式。例如,对于综艺节目A1,主预测结果为播放流量,相关预测结果为口碑、点击量等,可以根据设置输出播放流量,或者同时输出播放流量、口碑以及点击量等。这样,可以根据需要设置该预测模型的输出形式,提高该预测模型的适用性。本领域技术人员应理解,可以根据需要设置输出预测结果的形式,只要可以输出预测结果即可,本公开对此不作限制。
在一种可能的实现方式中,预测结果可以包括一个时间点的预测结果,也可以包括一个时间段内的不同时间点的预测结果。
如前文所述,该预测模型的LSTM模块可以处理待预测对象在一个时间段内的多个时间点上的特征信息,捕捉多个时间点上的特征信息之间的时序信息,因此该预测模型的预测结果可以包括一个时间点的预测结果,也可以包括一个时间段内的不同时间点的预测结果。通过这种方式,可以根据需要选择一个时间点的预测结果或者不同时间段内多个预测结果。本领域技术人员应理解,可以采用相关技术实现上述方案,本公开对此不作限制。
图5是根据一示例性实施例示出的一种神经网络预测方法的流程图。图6是根据一示例性实施例示出的一种神经网络预测模型的框图。如图5、图6所示,在一种可能的实现方式中,所述方法还包括:
在步骤S14中,分别获取多组样本对象当前周期的特征信息。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。其中,每组样本对象可以包括一个样本对象。
举例来说,如图6所示,可以分别获取综艺节目(域A)样本对象当前周期的特征信息,以及与综艺节目有一定相关度的电视节目(域B)样本对象当前周期的特征信息。例如,可以分别获取综艺节目A1在T时刻(当前周期)的特征信息,以及与综艺节目A1有一定相关度的电视节目B1在T时刻(当前周期)的特征信息,其中,多组样本对象当前周期的特征信息用于训练预测模型。本领域技术人员应理解,综艺节目样本对象与相关联的电视节目样本对象有部分特征信息相同,特征信息相同的部分越多,则基于样本对象训练的预测模型的可靠性越强。
在一种可能的实现方式中,输入到初始预测模型中的多组样本对象的特征信息需要做相应处理,以使得多组样本对象的特征信息相对应。
举例来说,综艺节目的特征信息一共有300维,相关联的电视节目的特征信息也有300维,然而,综艺节目与相关联的电视节目的特征信息中有150维相同,其余特征信息不相同。此时,可将综艺节目的特征信息处理为450维,其中,除了初始的自身的特征信息300维之外,添加与相关联的电视节目不相同的150维(例如,相应特征信息设置为0),电视节目的特征信息也处理为450维,其中,除了初始的自身的特征信息300维之外,添加与综艺节目不相同的150维(例如,相应特征信息设置为0),通过这种方式,可以保证基于两组样本对象的特征信息训练得到的预测模型的准确度和可靠性。本领域技术人员应理解,可以采用多种方式处理两组样本对象的特征信息,可以采用相关技术对初始预测模型进行训练,本公开对此不作限制。
在步骤S15中,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果。
在一种可能的实现方式中,该初始预测模型包括LSTM模块、DNN模块、对抗训练网络模块以及MTL模块。
在一种可能的实现方式中,利用LSTM模块,可处理样本对象的多个时间周期的特征信息,其中,在当前周期的预测结果的处理过程中,除输入当前周期的特征信息,还可以输入前一周期的训练预测结果共同处理。
举例来说,可以将当前周期综艺节目的特征信息、相关联的电视剧的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,从而获取针对多组样本对象当前周期的训练预测结果。例如,如图6所示,在当前周期(例如,T时刻)的预测结果的处理过程中,综艺节目A1的特征信息以及前一周期的训练预测结果(例如,T-1时刻隐藏层输出)共同作为输入,输入到LSTM模块中进行处理。其中,综艺节目A1的特征信息如前文所述,可以包括综艺节目A1的多个主体的向量信息以及多个主体的初始信息。
在一种可能的实现方式中,将待预测对象的每个主体分别用一个固定长度的向量来表示,并随机初始化向量中的每一维,将待预测对象的多个主体的向量信息拼接成嵌入层,该嵌入层与待预测对象的多个主体的初始信息以及前一周期的训练预测结果一起作为输入层输入LSTM模块,其中,嵌入层的向量的参数可随着训练过程不断更新。通过这种方式,可以提高预测模型的准确度。
图7是根据一示例性实施例示出的一种神经网络预测方法的深度神经网络结构的示意图。在一种可能的实现方式中,该初始预测模型的DNN模块可采用基于自编码(AutoEncoder)的预训练(Pre-training)来解决DNN的梯度消失问题。如图7所示,针对DNN的每一层输入,首先使用图7中的三层神经网络结构来拟合自身,其中输出层是输入层的复制,该网络结构学习的目标是通过“输入层-隐藏层”(编码权重W1)和“隐藏层-输出层”(解码权重W2)这两组权重参数尽可能地拟合输入层自身。隐藏层的结点数与DNN中下一层的结点数相同。最终使用编码权重W1作为当前输入层与下一个隐藏层之间权重参数的初始值,以此类推,将DNN中每一层的权重参数都通过上述预训练的方式进行初始化,最终可以使得整个DNN获得良好的收敛性。通过这种方式,可以避免训练过程中深度神经网络的梯度消失。本领域技术人员应理解,可以采用相关技术实现对深度神经网络的预训练,本公开对此不作限制。
图8是根据一示例性实施例示出的一种神经网络预测方法的对抗训练网络的示意图。在一种可能的实现方式中,如图8所示,该初始预测模型的对抗训练网络模块可以包括梯度翻转层(Gradient Reversal Layer,GRL)、域分类器以及神经网络层(例如,一层或两层全连接层)。其中,梯度翻转层可以定义为R(x),在正向传播时,梯度翻转层可以表示为:
R(x)=λx (2)
举例来说,在基于特征信息进行处理时,经过DNN模块处理得到的深度信息输入到对抗训练网络模块中进行处理,例如,该深度信息可以经过梯度翻转层(例如,在λ=1时,输出等于输入,数据保持不变),输入到域分类器(例如,二分类器)中进行分类,该深度信息可以经过神经网络层进行处理,并得到对抗训练信息。
在一种可能的实现方式中,该对抗训练信息输入MTL模块进行处理,确定多组样本对象的多个周期的训练预测结果。
图9是根据一示例性实施例示出的一种神经网络预测方法的多任务学习网络的示意图。在一种可能的实现方式中,如图9所示,MTL模块用于多任务学习,其中,多任务学习分为硬参数共享(Hard Parameter Sharing)和软参数共享(Soft Parameter Sharing)两种。该多任务学习网络可以同时实现主任务输出以及相关任务输出,得到待预测对象的相应的主预测结果以及相关预测结果。本领域技术人员应理解,对于多任务学习网络的具体结构以及参数共享方式可根据需要进行设置,例如,可以采用硬参数共享,只要可以经过该MTL模块进行多任务学习即可,本公开对此不作限制。
在步骤S16中,根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失。
举例来说,需要计算三个周期的训练预测结果,首先获取预设的初始样本对象、初始期望预测结果,将初始样本对象输入初始预测模型进行处理,得到初始训练预测结果。再将所述初始训练预测结果和第一个周期的多组样本对象输入初始预测模型进行处理,得到第一个周期的训练预测结果。根据第一个周期的训练预测结果和第二个周期的多组样本对象的特征信息,利用初始预测模型进行处理,得到第二个周期的训练预测结果。再根据第二个周期的训练预测结果和第三个周期的多组样本对象特征信息,利用初始预测模型进行处理,得到第三个周期的训练预测结果,最终得到各个周期的训练预测结果。
由于样本对象在每个周期的都有一个已知的实际结果,因此根据样本对象在各个周期的训练预测结果和实际结果,可以得到初始预测模型在各个周期的模型损失。
在步骤S17中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。
举例来说,将各个周期的模型损失相加后,采用反向传播算法,例如,BPTT(BackPropagation Through Time)算法,基于该模型损失,对该模型的参数权重求梯度,并基于该梯度来调整初始预测模型中的参数权重。
当预测模型需要进行满足设定的迭代训练次数时,在每次的迭代训练中,重复上述步骤。
图10是根据一示例性实施例示出的一种神经网络预测方法的步骤S17的流程图。如图10所示,在一种可能的实现方式中,步骤S17可以包括:
在步骤S171中,根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
举例来说,可以根据多组样本对象多个周期的模型损失,依次调整各模块中的参数权重,并确定调整后的预测模型。例如,根据所述多组样本对象的三个周期的训练预测结果以及所述三个周期的期望预测结果,分别确定所述多组样本对象的三个周期的模型损失。可以将三个周期的模型损失相加后,依次调整各模块中的参数权重,从而确定调整后的预测模型。
需要说明的是,如前文所述,所述对抗训练网络模块包括梯度翻转层以及域分类器。其中,在通过反向传播算法训练神经网络时,梯度翻转层R(x)满足下述公式:
其中,I表示单位矩阵,λ为参数权重,表示在用反向传播算法训练神经网络时,经过梯度翻转层后梯度的正负号翻转。
举例来说,在根据多组样本对象多个周期的模型损失依次调整参数权重时,经过对抗训练网络模块的梯度翻转层,可以降低该域分类器对两组样本对象的区分能力,从而使得多个周期调整后的预测模型模糊两组样本对象的区别。例如,将综艺节目以及电视节目的特征信息输入到初始预测模型,该初始预测模型的对抗训练网络模块的域分类器对两组样本对象进行区分,并根据两组样本对象多个周期的模型损失,依次调整各个模块的参数权重。在调整对抗训练网络模块时,因为其包括梯度翻转层,使得调整过该模块的参数权重的初始预测模型越来越模糊综艺节目以及电视节目的区别,使得该不断调整的预测模型越来越无法区分综艺节目与电视节目,从而实现从样本对象较多的电视节目向样本对象较少的综艺节目的迁移学习。本领域技术人员应理解,可以采用相关技术实现对预测模型各模块的参数权重的调整,本公开对此不作限制。
在步骤S18中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
在一种可能的实现方式中,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。
在本实施例中,根据不同周期的特征信息与初始预测模型进行训练,得到满足训练条件的预测模型,得到的预测模型能够更好的反应出待预测对象的特征信息的时序性、关联性,并能得到准确的预测结果。
应用示例
以下结合“对综艺节目A1进行预测”作为一个示例性应用场景,给出给出根据本公开实施例的应用示例,以便于理解神经网络预测方法的流程。本领域技术人员应理解,以下应用示例仅仅是出于便于理解本发明实施例的目的,不应视为对本发明实施例的限制。
图11是根据一示例性实施例示出的一种神经网络预测方法的应用场景的示意图。如图11所示,在该应用示例中,训练预测模型(步骤900)。
在该应用示例中,分别获取综艺节目和与综艺节目有一定关联度的电视节目的当前周期的特征信息。例如,综艺节目的特征信息为300维,电视节目的特征信息为300维,其中,综艺节目与电视节目的特征信息有150维相同,可以确定该综艺节目的特征信息为450维,该电视节目的特征信息也为450维,取两组样本对象的特征信息的并集。例如,保留综艺节目以及电视节目自身的特征信息,将不同的特征信息在相应位置填补为0。
在该应用示例中,将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果。例如,利用LSTM模块、DNN模块、对抗训练网络模块以及MTL模块等多个神经网络模块处理特征信息,得到训练预测结果。
在该应用示例中,根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失。
在该应用示例中,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型。例如,根据综艺节目以及电视节目样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在该应用示例中,在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。例如,训练条件包括设定的迭代训练次数,和/或设定的收敛条件。在满足迭代训练次数和/或满足设定的收敛条件时,可以将调整后的预测模型确定为最终的预测模型。
在该应用示例中,服务器可以获取待预测的综艺节目A1的特征信息(步骤901),并将特征信息输入该预测模型进行处理(步骤902),从而获取待预测对象的预测结果,例如,综艺节目A1的预测结果(步骤903)。在该应用示例中,该预测结果可以包括主预测结果(播放流量)以及相关预测结果(口碑、播放率等)。
根据本公开实施例,能够通过包括多个神经网络模块的预测模型,对待预测对象的特征信息进行处理,从而获取针对待预测对象的预测结果,提高了该预测结果的准确度。
图12是根据一示例性实施例示出的一种神经网络预测装置的框图。如图12所示,所述神经网络预测装置包括:
特征信息获取单元11,用于获取待预测对象的特征信息;
预测结果获取单元12,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元13,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。
图13是根据一示例性实施例示出的一种神经网络预测装置的框图。在一种可能的实现方式中,如图13所示,所述预测结果获取单元12包括:
LSTM处理子单元121,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息;
DNN处理子单元122,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元123,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗训练信息;
MTL处理子单元124,用于将所述对抗网络信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
如图13所示,在一种可能的实现方式中,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元12还包括:
嵌入处理子单元125,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元126,用于将所述初始信息和所述向量信息确定为所述特征信息。
在一种可能的实现方式中,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
在一种可能的实现方式中,所述预测结果输出单元用于输出以下任意一种:
输出主预测结果;
输出主预测结果以及相关预测结果。
如图13所示,在一种可能的实现方式中,所述装置还包括:
样本特征信息获取单元14,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元15,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元16,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元17,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元18,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
如图13所示,在一种可能的实现方式中,所述权重调整单元17包括:
权重调整子单元171,用于根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
在一种可能的实现方式中,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
图14是根据一示例性实施例示出的一种神经网络预测装置的框图。例如,装置1900可以被提供为一服务器。参照图14,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作***,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (18)

1.一种神经网络预测方法,其特征在于,所述方法包括:
获取待预测对象的特征信息;
将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。
2.根据权利要求1所述的方法,其特征在于,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,包括:
将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息;
将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗训练信息;
将所述对抗训练信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
3.根据权利要求2所述的方法,其特征在于,所述预测模型还包括嵌入模块,
其中,将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果,还包括:
将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
将所述初始信息和所述向量信息确定为所述特征信息。
4.根据权利要求1所述的方法,其特征在于,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
5.根据权利要求4所述的方法,其特征在于,输出所述预测结果,包括以下任意一种:
输出主预测结果;
输出主预测结果以及相关预测结果。
6.根据权利要求1或3所述的方法,其特征在于,所述方法还包括:
分别获取多组样本对象当前周期的特征信息;
将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
7.根据权利要求6所述的方法,其特征在于,根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型,包括:
根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
8.根据权利要求6所述的方法,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
9.一种神经网络预测装置,其特征在于,所述装置包括:
特征信息获取单元,用于获取待预测对象的特征信息;
预测结果获取单元,用于将所述特征信息输入预测模型中进行处理,获取针对所述待预测对象的预测结果;
预测结果输出单元,用于输出所述预测结果,
其中,所述预测模型包括长短期记忆网络LSTM模块、深度神经网络DNN模块、对抗训练网络模块以及多任务学习网络MTL模块。
10.根据权利要求9所述的装置,其特征在于,所述预测结果获取单元包括:
LSTM处理子单元,用于将所述特征信息输入所述LSTM模块中进行处理,确定所述待预测对象的长短期记忆信息;
DNN处理子单元,用于将所述长短期记忆信息输入所述DNN模块中进行处理,确定所述待预测对象的深度信息;
对抗训练子单元,用于将所述深度信息输入所述对抗训练网络模块中进行处理,确定所述待预测对象的对抗训练信息;
MTL处理子单元,用于将所述对抗网络信息输入所述MTL模块中进行处理,确定针对所述待预测对象的预测结果。
11.根据权利要求10所述的装置,其特征在于,所述预测模型还包括嵌入模块,
其中,所述预测结果获取单元还包括:
嵌入处理子单元,用于将初始信息输入所述嵌入模块进行向量化处理,确定所述初始信息的向量信息;
特征信息确定子单元,用于将所述初始信息和所述向量信息确定为所述特征信息。
12.根据权利要求9所述的装置,其特征在于,所述预测结果包括:
主预测结果以及相关预测结果,
其中,在所述预测模型的目标函数中,与所述主预测结果相关联的参数权重大于与所述相关预测结果相关联的参数权重。
13.根据权利要求12所述的装置,其特征在于,所述预测结果输出单元用于输出以下任意一种:
输出主预测结果;
输出主预测结果以及相关预测结果。
14.根据权利要求9或11所述的装置,其特征在于,所述装置还包括:
样本特征信息获取单元,用于分别获取多组样本对象当前周期的特征信息;
训练预测结果获取单元,用于将所述当前周期的特征信息以及前一周期的训练预测结果输入初始预测模型中进行处理,获取针对所述多组样本对象当前周期的训练预测结果;
模型损失确定单元,用于根据所述多组样本对象的多个周期的训练预测结果以及所述多个周期的期望预测结果,分别确定所述多组样本对象的多个周期的模型损失;
权重调整单元,用于根据所述模型损失,调整所述初始预测模型中的参数权重,确定调整后的预测模型;
预测模型确定单元,用于在所述模型损失满足训练条件的情况下,将调整后的预测模型确定为最终的预测模型。
15.根据权利要求14所述的装置,其特征在于,所述权重调整单元包括:
权重调整子单元,用于根据所述多组样本对象多个周期的模型损失,依次调整所述MTL模块、所述对抗训练网络模块、所述DNN模块、所述LSTM模块以及嵌入模块中的参数权重,确定调整后的预测模型。
16.根据权利要求14所述的装置,其特征在于,所述多组样本对象至少部分的特征信息相同,不同组的样本对象的类别不同。
17.一种神经网络预测装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1-8中任意一项所述的神经网络预测方法。
18.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1-8中任意一项所述的方法。
CN201710975523.1A 2017-10-16 2017-10-16 神经网络预测方法及装置 Pending CN109670572A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710975523.1A CN109670572A (zh) 2017-10-16 2017-10-16 神经网络预测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710975523.1A CN109670572A (zh) 2017-10-16 2017-10-16 神经网络预测方法及装置

Publications (1)

Publication Number Publication Date
CN109670572A true CN109670572A (zh) 2019-04-23

Family

ID=66142420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710975523.1A Pending CN109670572A (zh) 2017-10-16 2017-10-16 神经网络预测方法及装置

Country Status (1)

Country Link
CN (1) CN109670572A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110160210A (zh) * 2019-05-15 2019-08-23 北京上格云技术有限公司 风机盘管的故障检测方法、装置、存储介质和电子设备
CN111368997A (zh) * 2020-03-04 2020-07-03 支付宝(杭州)信息技术有限公司 神经网络模型的训练方法及装置
CN112866015A (zh) * 2021-01-07 2021-05-28 华东师范大学 一种基于数据中心网络流量预测与学习的智能节能控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138589A1 (en) * 2011-11-28 2013-05-30 Microsoft Corporation Exploiting sparseness in training deep neural networks
CN106529820A (zh) * 2016-11-21 2017-03-22 北京中电普华信息技术有限公司 一种运营指标的预测方法及***
CN106960252A (zh) * 2017-03-08 2017-07-18 深圳市景程信息科技有限公司 基于长短时记忆神经网络的电力负荷预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130138589A1 (en) * 2011-11-28 2013-05-30 Microsoft Corporation Exploiting sparseness in training deep neural networks
CN106529820A (zh) * 2016-11-21 2017-03-22 北京中电普华信息技术有限公司 一种运营指标的预测方法及***
CN106960252A (zh) * 2017-03-08 2017-07-18 深圳市景程信息科技有限公司 基于长短时记忆神经网络的电力负荷预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AANCHAN MOHAN,RICHARD ROSE: "Multi-lingual speech recognition with low-rank multi-task deep neural networks", 《2015 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 *
杨逍: "机器学习中隐式因子模型及其优化算法", 《中国优秀硕士学位论文全文数据库》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110160210A (zh) * 2019-05-15 2019-08-23 北京上格云技术有限公司 风机盘管的故障检测方法、装置、存储介质和电子设备
CN111368997A (zh) * 2020-03-04 2020-07-03 支付宝(杭州)信息技术有限公司 神经网络模型的训练方法及装置
CN111368997B (zh) * 2020-03-04 2022-09-06 支付宝(杭州)信息技术有限公司 神经网络模型的训练方法及装置
CN112866015A (zh) * 2021-01-07 2021-05-28 华东师范大学 一种基于数据中心网络流量预测与学习的智能节能控制方法
CN112866015B (zh) * 2021-01-07 2021-10-12 华东师范大学 一种基于数据中心网络流量预测与学习的智能节能控制方法

Similar Documents

Publication Publication Date Title
Shang et al. Democratizing data science through interactive curation of ml pipelines
Rere et al. Metaheuristic algorithms for convolution neural network
CN109670569A (zh) 神经网络预测方法及装置
CN110400169A (zh) 一种信息推送方法、装置及设备
CN107707931A (zh) 根据视频数据生成解释数据、数据合成方法及装置、电子设备
CN108780374A (zh) 用于多变量搜索的用户界面
CN109446430A (zh) 产品推荐的方法、装置、计算机设备及可读存储介质
IL263851A (en) Method and system for automatically identifying events in videos
CN110363213A (zh) 服装图像的认知分析和分类
CN109325516A (zh) 一种面向图像分类的集成学习方法及装置
CN113688167A (zh) 基于深度兴趣网络的深度兴趣捕获模型构建方法及装置
CN108346139A (zh) 一种图像筛选方法及装置
CN109670572A (zh) 神经网络预测方法及装置
CN108780654A (zh) 生成用于视频的移动缩略图
CN109670623A (zh) 神经网络预测方法及装置
CN109670588A (zh) 神经网络预测方法及装置
CN113439277A (zh) 用于机器学习的动态音频片段填充
CN109670621A (zh) 神经网络预测方法及装置
CN109670590A (zh) 神经网络预测方法及装置
CN106469335A (zh) 一种影片票房预测方法和装置
Yu et al. Pacs: A dataset for physical audiovisual commonsense reasoning
CN109670567A (zh) 神经网络预测方法及装置
CN109670568A (zh) 神经网络预测方法及装置
CN109471951A (zh) 基于神经网络的歌词生成方法、装置、设备和存储介质
CN109670587A (zh) 神经网络预测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200608

Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Alibaba (China) Co.,Ltd.

Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C

Applicant before: Youku network technology (Beijing) Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190423