CN108334889B - 摘要描述生成方法和装置、摘要描述模型训练方法和装置 - Google Patents
摘要描述生成方法和装置、摘要描述模型训练方法和装置 Download PDFInfo
- Publication number
- CN108334889B CN108334889B CN201711243949.4A CN201711243949A CN108334889B CN 108334889 B CN108334889 B CN 108334889B CN 201711243949 A CN201711243949 A CN 201711243949A CN 108334889 B CN108334889 B CN 108334889B
- Authority
- CN
- China
- Prior art keywords
- hidden state
- network
- moment
- abstract description
- description model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请涉及一种摘要描述生成方法和装置、摘要描述模型训练方法和装置、计算机设备和存储介质,该摘要描述模型训练方法包括:将带标注的训练样本输入摘要描述模型;基于第一损失函数的监督,对摘要描述模型的编码网络和解码网络进行第一阶段的训练;根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;当第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。该方法充分考虑了解码网络中相邻两个隐藏状态的关联性而在实际的推测过程中,也依赖于这种关联性,因此,能够提高实际预测的准确度。
Description
技术领域
本申请涉及机器学习技术领域,特别是涉及一种摘要描述生成方法和装置、摘要描述模型训练方法和装置、计算机设备和存储介质。
背景技术
摘要描述是指使用语句描述信息,得到该信息的摘要。信息可以为图像、视频或文本。摘要描述模型是指用于根据输入的信息,得到该信息的摘要的神经网络模型。
通常的摘要描述模型包括编码网络和解码网络。编码网络用于输入数据(图像或文本)进行特征提取,得到输入数据的特征向量。解码神经用于输入特征向量得到各时刻的隐藏状态,根据隐藏状态预测当前时刻的单词,从而输出描述语句。
传统的摘要描述模型训练过程中,解码网络由当前时刻的隐藏状态来独立地预测当前时刻的单词。而通常描述语句的上下文具有关联性,传统的摘要解码网络没有考虑相邻两个隐藏状态的关联性,导致摘要描述模型预测的准确度降低。
发明内容
基于此,有必要针对摘要描述模型预测的准确度降低的技术问题,提供一种摘要描述生成方法和装置、摘要描述模型训练方法和装置、计算机设备和存储介质。
一种摘要描述生成方法,包括:
获取输入信息;
将所述输入信息输入预先训练好的摘要描述模型,通过所述摘要描述模型的编码网络,得到所述输入信息的特征向量,通过所述摘要描述模型的解码网络对所述特征向量进行解码,生成所述输入信息的摘要描述;其中,预先基于第一损失函数的监督,对编码网络和解码网络进行训练,并根据所述编码网络输出的每一时刻的隐藏状态,反向推导上一时刻反推隐藏状态,根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到基于第二损失函数的监督确定的所述摘要描述模型。一种摘要描述模型训练方法,包括:
将带标注的训练样本输入摘要描述模型;
基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行第一阶段的训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
一种摘要描述模型训练装置,包括信息获取模块和预测模块;
所述信息获取模块,用于获取输入信息;
所述预测模块,用于将所述输入信息输入预先训练好的摘要描述模型,通过所述摘要描述模型的编码网络,得到所述输入信息的特征向量,通过所述摘要描述模型的解码网络对所述特征向量进行解码,生成所述输入信息的摘要描述;其中,预先基于第一损失函数的监督,对编码网络和解码网络进行训练,并根据所述编码网络输出的每一时刻的隐藏状态,反向推导上一时刻反推隐藏状态,根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到基于第二损失函数的监督确定的所述摘要描述模型。
一种摘要描述模型训练装置,包括:输入模块、第一阶段训练模块、反推模块、损失值计算模块和参数确定模块;
所述输入模块,用于将带标注的训练样本输入摘要描述模型;
所述第一阶段训练模块,用于基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行第一阶段的训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
所述反推模块,用于根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
所述损失值计算模块,用于根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
所述参数确定模块,用于当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上所述方法的步骤。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如上所述方法的步骤。
上述的摘要描述生成方法和装置、摘要描述模型训练方法和装置、计算机设备和存储介质,在传统的编码网络和解码网络的基础上,增加了根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态并进行第二阶段训练的过程,第二阶段训练中,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值,而上一时刻反推隐藏状态是利用解码网络输出的当前时刻的隐藏状态反向推导得到,充分考虑了解码网络中相邻两个隐藏状态的关联性,而在实际的推测过程中,也依赖于这种关联性,因此,能够提高实际预测的准确度。并且,能够避免训练与预测的差异性,进一步提高摘要描述模型的性能。
附图说明
图1为一个实施例中摘要描述模型训练方法的流程示意图;
图2为一个实施例中一个实施例中利用构重网络,反向推导得到上一时刻反推隐藏状态的步骤的流程图;
图3为一个实施例中重构网络的结构示意图;
图4为一个实施例中摘要描述模型的第一阶段训练的步骤流程图;
图5为一个实施例中摘要描述模型的结构示意图;
图6为另一个实施例中摘要描述模型训练方法的流程示意图;
图7为一个实施例中摘要描述模型训练装置的结构框图;
图8为一个实施例中摘要描述装置的结构框图;
图9为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
如图1所示,在一个实施例中,提供了一种摘要描述模型训练方法。参照图1,该摘要描述模型训练方法具体包括如下步骤:
S102,将带标注的训练样本输入摘要描述模型。
其中,训练样本与产品的实际应用相关,可以为图像、文本或视频。带标注的训练样本应当包括每一训练样本以及对每一训练样本的描述语句。例如,对于给定的一张图像或者文本段I,该训练样本对应的描述语句为y={y1,y2,…,yi},其中,yi是构成描述语句的一个单词。
摘要描述模型是本实施例中的训练对象,训练的目的是获得摘要描述模型的相关参数。摘要描述模型包括编码网络和解码网络。其中,利用编码网络提取特征,得到输入数据的特征向量,再使用解码网络对特征向量进行解码。在解码网络的每一刻时刻得到当前时刻的隐藏状态,由此隐藏状态生成一个单词,经过若干个时刻,便可得到一句描述语句。
S104,基于第一损失函数的监督,对摘要描述模型的编码网络和解码网络进行训练;编码网络得到训练样本的特征向量,解码网络采用递归神经网络,对特征向量进行解码,得到各当前时刻的隐藏状态。
其中,编码网络得到训练样本的特征向量。编码网络可采用卷积神经网络或递归神经网络。其中,特征向量包括全局特征向量和局部特征向量。全局特征向量是一个训练样本的全局特征表示,局部特征向量是一个训练样本的局部特征表示。
本实施例中,摘要描述模型训练,包括两个阶段。其中,第一阶段,根据带标注的训练样本,利用摘要描述模型的编码网络和解码网络进行训练。其中,编码网络得到训练样本的特征向量,解码网络对特征向量进行解码,得到各当前时刻的隐藏状态,解码网络根据每一时刻的隐藏状态生成的单词。第一阶段的训练目标就是使生成的各时刻对应的单词与实际标注单词尽可能的接近,并将此作为第一损失函数,这就是最大似然估计的训练过程。
在基于第一损失函数,对摘要描述模型进行第一阶段的训练完成后,能够得到摘要描述模型的初步参数。通常,根据初步参数,即可得到常规的摘要描述模型,能够用于预测文本、图像或视频的文本摘要。但会存在一个问题:训练过程中用t时刻的隐藏状态ht来独立地预测当前时刻的单词y′t+1,同理,上一个t-1隐藏状态ht-1独立地预测到单词y′t,而在实际预测过程中,每一时刻生成的单词都依赖其上一个时刻所生成的单词。这种训练与预测的差异性也限制了模型的性能。为此,本实施例提取了在训练过程中,考虑解码网络相邻隐藏状态之间的联系,进一步训练摘要描述模型。
具体地,在步骤S104之后,还包括:
S106,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
其中,上一时刻反推隐藏状态,是指将解码网络输出的当前时刻的隐藏状态,进行反推,得到的当前时刻的上一时刻的反推隐藏状态,即,上一时刻反推隐藏状态是推测得到的。由于解码网络的解码过程,是根据上一时刻的隐藏状态和当前时刻的输入,计算当前时刻的隐藏状态,即上一时刻的隐藏状态与当前时候的隐藏状态之间存在关联,利用这种关联能够推测上一时刻的隐藏状态。
S108,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值。
本实施例中,使用均方根误差来衡量反推出的上一时刻反推隐藏状态与解码网络输出的上一时刻实际隐藏状态ht-1的差异,并将此作为第二损失函数。第二损失函数的目标是使上一时刻反推隐藏状态和上一时刻实际隐藏状态的差异尽可能地小。均方误差是指参数估计值与参数真值之差平方的期望值,记为MSE。MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
第二损失函数值越小,上一时刻反推隐藏状态和上一时刻实际隐藏状态也越小,而上一时刻反推隐藏状态是利用解码网络输出的当前时刻的隐藏状态反向推导得到,充分考虑了解码网络中相邻两个隐藏状态的关联性。而在实际的推测过程中,每一时刻生成的单词都依赖其上一个时刻所生成的单词,即也依赖于这种关联性,因此,通过在摘要描述模型的训练过程中增加第二阶段的训练,挖掘解码网络中相邻两个隐藏状态的关联性,能够避免训练与预测的差异性,进一步提高摘要描述模型的性能。
S110,当第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
本实施例中,基于第二损失函数对摘要描述模型的第二阶段的训练过程进行监督。第二阶段的训练过程,则是根据解码网络中相邻两个隐藏状态的关联性,调整第一阶段确定的摘要描述模型的初步参数的过程,并在第二损失函数值达到预设值时,取对应的参数作为摘要描述模型的最终参数。又或者,在第二阶段训练过程中,迭代次数大于预设的最大迭代次数时,将第二损失函数值最小时的参数作为摘要描述模型的最终参数。
上述的摘要描述模型训练方法,在传统的编码网络和解码网络的基础上,增加了根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态并进行第二阶段训练的过程,第二阶段训练中,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值,而上一时刻反推隐藏状态是利用解码网络输出的当前时刻的隐藏状态反向推导得到,充分考虑了解码网络中相邻两个隐藏状态的关联性,而在实际的推测过程中,也依赖于这种关联性,因此,能够提高实际预测的准确度。并且,能够避免训练与预测的差异性,进一步提高摘要描述模型的性能。
在一个实施例中,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态的步骤,包括:将解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态。重构网络是与解码网络连接,利用解码网络的输出基于对下文依赖的特点,用于反向推导每一时刻对应的上一时刻的隐藏状态。本实施例中的重构网络采用递归神经网络。
图2为一个实施例中利用重构网络,反向推导得到上一时刻反推隐藏状态的步骤的流程图。如图2所示,该步骤包括:
S202,将解码网络输出的每一当前时刻的隐藏状态和重构网络中上一时刻的隐藏状态,输入至重构网络各当前时刻的LSTM隐含层,得到重构网络中当前时刻的隐藏状态。
图3为一个实施例中重构网络的结构示意图,包括LSTM隐含层和全连接层FC。解码网络的每个时刻隐藏状态的输出都与重构网络中的对应时刻的LSTM隐含层连接,每个LSTM隐含层连接一个全连接层。
具体地,重构的具体形式如下:
用解码网络输出的当前时刻的隐藏状态ht和重构网络中上一时刻的隐藏状态h′t-1,通过一个LSTM隐含层去重构上一个时刻的隐藏状态ht-1,具体形式如下:
c′t=f′t⊙c′t-1+i′t⊙g′t
h′t=o′t⊙tanh(c′t)
其中,i′t为输入门,f′t为遗忘门,o′t为输出门,g′t当前时刻的输出,c′t为当前时刻的输入,σ为sigmoid函数;T为变换映射矩阵;tanh()为激活函数;⊙为逐元素点乘运算符。
S204,将重构网络中当前时刻的隐藏状态输入全连接层,得到上一时刻反推隐藏状态。
本实施例中,重构网络不局限于使用LSTM隐含层来联系解码网络中两相邻的隐藏状态。还可使用递归门单元(Gate Recurrent Unit,缩写GRU)、多层感知机(MultilayerPerceptron,缩写MLP)、卷积神经网络(Convolutional Neural Network,缩写CNN)等网络结构联系相邻隐藏状态。
在另一个实施例中,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态的步骤,包括:利用反向传播算法,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
反向传播算法,顾名思义就是从神经网络的输出到输入进行求解,调节摘要描述模型的参数。具体地,可使用梯度下降等求解无约束问题的方法求得最终的参数。反射传导算法包括以下步骤S1至S4:
S1:进行前馈传导计算,利用前向传导公式,得到L2,L3,直至输出层Lnl的激活值。
S2:对于第nl层(输出层)的每个输出单元i,计算残差。
S3:对于l=nl-1,nl-2,nl-2,…,2的各层,计算第l层的第i个节点的残差。
S4:根据残差计算最终的偏导数值。
图4为一个实施例中摘要描述模型的第一阶段训练的步骤流程图。如图4所示,第一阶段的训练过程包括以下步骤:
S402,将带标注的训练样本输入编码网络,提取训练信息的特征,得到各训练信息的特征向量。
图5为一个实施例中摘要描述模型的结构示意图。如图5所示,描述模型包括编码网络、解码网络和重构网络。其中,编码网络的输出解码网络的输入连接,解码网络的各时刻的隐含层的输出与重构网络对应时刻的输入连接。
具体地,通过编码网络提取到训练样本的全局特征表示g,以及64个局部特征表示s={s1,…,s64}。本实施例中,针对训练样本的特点,可选用不同的编码网络进行特征提取。
具体地,当要描述的对象为图像时,可使用卷积神经网络作为编码网络。卷积神经网络在ImageNet数据集上有着很好的性能表现。目前可作为编码网络的卷积神经网络有很多,如Inception-X系列的卷积神经网络,ResNet系列的卷积神经网络等等。
具体地,取卷积神经网络的池化层输出的向量g作为整张图像的全局特征表示,g这里的特征维数是1536。再取卷积神经网络的最后一个Inception-C模块的输出s作为图像的局部特征表示,这里s={s1,…,s64},其中每一个局部特征向量si的维度亦是1536维。所以,将一张图像输入进卷积编码网络,可以得到一个图像的全局特征向量一系列图像不同区域的局部特征向量
当要生成描述的对象是文本数据时,由于文本数据具有较强的时序特征。因此,可递归神经网络对文本数据进行编码。本实施例中,对于文本数据,可采用长短期记忆(LSTM)神经网络。
将待输入的文本序列记为I={I1,…,IT},这里的It为当前序列的第t个单词,T为文本序列的长度。在LSTM中,隐藏状态ht可由上一t-1时刻的隐藏状态ht-1以及当前时刻的输入得到。有如下形式:
ht=LSTM(ht-1,It)
在编码网络中,LSTM的具体表达形式如下:
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,it为输入门,ft为遗忘门,ot为输出门,ht为隐藏状态,gt为当前时刻的输出,xt为当前时刻的输入;σ为sigmoid函数;T为变换映射矩阵;⊙为逐元素点乘运算符。
本实施例中,取T时刻的隐藏状态hT作为一段训练文本的整体表示特征向量g,即g=hT。LSTM中每一个时刻产生的隐藏状态ht作为一段训练文本的局部表示特征,即s={s1,…,sT}={h1,…,hT}。
S504,将特征向量输入解码网络,得到每个时刻的隐藏状态。
具体地,解码网络,采用递归神经网络对编码网络输出的特征向量,进行解码处理的结构。递归神经网络(recurrent neural network,RNN),根据上一时刻的隐藏状态ht-1与当前时刻的输入,可以计算当前时刻的隐藏状态ht。具体地,利用带有注意力机制的递归神经网络进行解码,递归神经网络的核心单元可以为LSTM(长短期记忆),解码网络的解码形式如下:
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,it为输入门,ft为遗忘门,ot为输出门,ht为t时刻的隐藏状态;σ为sigmoid函数;T为变换映射矩阵;tanh()为激活函数;⊙为逐元素点乘运算符,gt为当前时刻的输出,xt为当前时刻的输入。zt是注意力机制得到的上下文向量,有如下形式:
上式中的α(si,ht-1)表示了输入数据的局部特征s={s1,…,sT}与前一个隐藏状态的相关性。
S406,根据每个时刻的隐藏状态生成当前时刻所对应的单词。
在每一个时刻解码网络会得到当前时刻的隐藏状态ht,由这个隐藏状态生成当前时刻所对应的单词y′t+1:
y′t+1=argmax Softmax(Wht)
其中,W是将隐向量映射到词汇表的变换矩阵。
S408,根据生成的当前时刻所对应的单词与标注的当前时刻的实际单词,得到第一损失函数值。
摘要描述模型包括编码网络和解码网络,编码网络得到训练样本的特征向量,解码网络对特征向量进行解码,得到各当前时刻的隐藏状态,根据每个时刻的隐藏状态生成当前时刻所对应的单词,根据生成的当前时刻所对应的单词与标注的当前实际单词得到第一损失函数值。
本实施例中,使用均方根误差来衡量解码网络生成的当前时刻所对应的单词和标注的当前实际单词的差异,并将此作为第一损失函数。第一损失函数的目标是使当前时刻所对应的单词和标注的当前实际单词的差异尽可能地小。
S410,当第一损失函数值达到预设值时,得到摘要描述模型的初步参数。
本实施例中,基于第一损失函数对摘要描述模型的第一阶段的训练过程进行监督。在第一损失函数值达到预设值时,取对应的参数作为摘要描述模型的初步参数。又或者,在第一阶段训练过程中,迭代次数大于预设的最大迭代次数时,将第一损失函数值最小时的参数作为摘要描述模型的初步参数。
一个实施例的摘要描述模型如图5所示,描述模型包括编码网络、解码网络和重构网络。其中,编码网络的输出解码网络的输入连接,解码网络的各时刻的隐含层的输出与重构网络对应时刻的输入连接。
图6为一个实施例的摘要描述模型训练方法的流程图。如图6所示,包括以下步骤:
S602,将带标注的训练样本输入摘要描述模型。
S604,将带标注的训练样本输入编码网络,提取训练信息的特征,得到各训练信息的特征向量。
S606,将特征向量输入解码网络,得到每个时刻的隐藏状态。
S608,根据每个时刻的隐藏状态生成当前时刻所对应的单词。
S610,根据生成的当前时刻所对应的单词与标注的当前时刻的实际单词,得到第一损失函数值。
S612,当第一损失函数值达到预设值时,得到摘要描述模型的初步参数。
S614,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
具体地,该步骤包括:将解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态,或利用反向传播算法,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态
S616,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值。
S618,当第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
该方法充分考虑了解码网络中相邻两个隐藏状态的关联性,而在实际的推测过程中,也依赖于这种关联性,因此,能够提高实际预测的准确度。并且,能够避免训练与预测的差异性,进一步提高摘要描述模型的性能。
在一个实施例中,提供一种摘要描述生成方法,该方法运行在服务器侧,包括以下步骤:
S1,获取输入信息。
其中,输入信息是指用户通过终端输入并发送至服务器的信息。本实施例中的服务器可提供检索、分类或推荐等服务。输入信息可以为图片或文字。
S2,将输入信息输入预先训练好的摘要描述模型,通过摘要描述模型的编码网络,得到输入信息的特征向量,通过摘要描述模型的解码网络对特征向量进行解码,生成输入信息的摘要描述。
具体地,利用上述各实施例的摘要描述模型训练方法,训练得到摘要描述模型。具体地摘要描述模型的训练方法,已记载在上述各实施例中,此处不再赘述。一个实施例的摘要描述模型如图5所示。利用该摘要描述生成方法,可用于文本数据、图像数据或视频进行预测,生成描述语句。对于图像生成的描述,可以用于图像的场景分类,如对用户相册中的图像自动总结归类;也有助于图像检索服务;以及帮助视觉障碍者理解图像。对于文本笔记数据,该技术可以用于描述该段文本的含义,可以进一步服务于文本的分类与挖掘。
图7为一个实施列中的摘要描述模型训练装置的结构示意图。如图7所示,一种摘要描述模型训练装置,包括:输入模块702、第一阶段训练模块704、反推模块706、损失值计算模块708和参数确定模块710。
输入模块702,用于将带标注的训练样本输入摘要描述模型。
第一阶段训练模块704,用于基于第一损失函数的监督,对摘要描述模型的编码网络和解码网络进行训练;编码网络得到训练样本的特征向量,解码网络采用递归神经网络,对特征向量进行解码,得到各当前时刻的隐藏状态。
反推模块706,用于根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
损失值计算模块708,用于根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值。
参数确定模块710,用于当第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
上述的摘要描述模型训练装置,在传统的编码网络和解码网络的基础上,增加了根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态并进行第二阶段训练的过程,第二阶段训练中,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值,而上一时刻反推隐藏状态是利用解码网络输出的当前时刻的隐藏状态反向推导得到,充分考虑了解码网络中相邻两个隐藏状态的关联性,而在实际的推测过程中,也依赖于这种关联性,因此,能够提高实际预测的准确度。并且,能够避免训练与预测的差异性,进一步提高摘要描述模型的性能。
在另一个实施例中,反推模块,用于将解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态。
在再一个实施例中,反推模块包括:重构模块和连接模块。
重构模块,用于将解码网络输出的每一当前时刻的隐藏状态和重构网络中上一时刻的隐藏状态,输入至重构网络当前时刻的LSTM隐含层,得到重构网络中当前时刻的隐藏状态。
连接模块,用于将重构网络中当前时刻的隐藏状态输入全连接层,得到上一时刻反推隐藏状态。
在又一个实施例中,反推模块,用于利用反向传播算法,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
在一个实施例中,第一阶段训练模块,包括:编码模块、解码模块、单词生成模块、计算模块和确认模块。
编码模块,用于将带标注的训练样本输入编码网络,提取训练信息的特征,得到各训练信息的特征向量。
解码模块,用于将特征向量输入解码网络,得到每个时刻的隐藏状态。
单词生成模块,用于根据每个时刻的隐藏状态生成当前时刻所对应的单词。
计算模块,用于根据生成的当前时刻所对应的单词与标注的当前时刻的实际单词,得到第一损失函数值。
确认模块,用于判断第一损失函数值是否达到预设值时,并在达到设定值时结束第一阶段的训练。
在一个实施例中,提供一种摘要描述生成装置,如图8所示,包括信息获取模块802和预测模块804。
信息获取模块802,用于获取输入信息。
预测模块804,用于将输入信息输入预先训练好的摘要描述模型,通过摘要描述模型的编码网络,得到输入信息的特征向量,通过摘要描述模型的解码网络对特征向量进行解码,生成输入信息的摘要描述;其中,预先基于第一损失函数的监督,对编码网络和解码网络进行训练,并根据编码网络输出的每一时刻的隐藏状态,反向推导上一时刻反推隐藏状态,根据上一时刻反推隐藏状态和解码网络输出的上一时刻实际隐藏状态,得到基于第二损失函数的监督确定的摘要描述模型.
具体地,摘要描述生成装置还包括上述各实施例中的摘要描述模型训练装置的各模块的结构,此处不再赘述。
利用该摘要描述生成装置,可用于文本数据、图像数据或视频进行预测,生成描述语句。对于图像生成的描述,可以用于图像的场景分类,如对用户相册中的图像自动总结归类;也有助于图像检索服务;以及帮助视觉障碍者理解图像。对于文本笔记数据,该技术可以用于描述该段文本的含义,可以进一步服务于文本的分类与挖掘。
图9示出了一个实施例中计算机设备的内部结构图。如图9所示,该计算机设备包括该计算机设备包括通过***总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现摘要描述模型训练方法或摘要描述生成方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行摘要描述模型训练方法或摘要描述生成方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的摘要描述模型训练装置可以实现为一种计算机程序的形式,计算机程序可在如图9所示的计算机设备上运行。计算机设备的存储器中可存储组成该摘要描述模型训练装置的各个程序模块,比如,图7所示的输入模块、第一阶段训练模块和反推模块,图8所示的信息获取模块和预测模块。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例摘要描述模型训练中的步骤。
例如,图9所示的计算机设备可以通过如图7所示的摘要描述模型训练装置中的输入模块执行将带标注的训练样本输入摘要描述模型的步骤。计算机设备可通过第一阶段训练模块执行基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行第一阶段的训练的步骤。计算机设备可通过反推模块执行根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
又例如,图9的计算机设备可通过如图8所示的摘要描述生成装置中的输入模块执行获取输入信息的步骤,通过预测模块执行将输入信息输入预先训练好的摘要描述模型,通过摘要描述模型的编码网络,得到输入信息的特征向量,通过摘要描述模型的解码网络对特征向量进行解码,生成输入信息的摘要描述的步骤。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述各实施例的摘要描述模型训练方法或各实施例的摘要描述生成方法的步骤。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述各实施例的摘要描述模型训练方法或各实施例的摘要描述生成方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种摘要描述生成方法,包括:
获取输入信息;
将所述输入信息输入预先训练好的摘要描述模型,通过所述摘要描述模型的编码网络,得到所述输入信息的特征向量,通过所述摘要描述模型的解码网络对所述特征向量进行解码,生成所述输入信息的摘要描述;其中,预先基于第一损失函数的监督,对编码网络和解码网络进行训练,并根据所述解码网络输出的每一时刻的隐藏状态,反向推导上一时刻反推隐藏状态,根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到基于第二损失函数的监督确定的所述摘要描述模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将带标注的训练样本输入摘要描述模型;
基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
3.根据权利要求2所述的方法,其特征在于,根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态的步骤,包括:将所述解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态;所述重构网络包含于所述摘要描述模型、且与解码网络连接,用于挖掘所述解码网络中相邻两个隐藏状态的关联性,反向推导每一时刻对应的上一时刻的隐藏状态。
4.根据权利要求3所述的方法,其特征在于,将所述解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态的步骤,包括:
将所述解码网络输出的每一当前时刻的隐藏状态和重构网络中上一时刻的隐藏状态,输入至重构网络当前时刻的长短期记忆网络隐含层,得到重构网络中当前时刻的隐藏状态;
将重构网络中当前时刻的隐藏状态输入全连接层,得到上一时刻反推隐藏状态。
5.根据权利要求2所述的方法,其特征在于,所述根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态的步骤,包括:利用反向传播算法,根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
6.根据权利要求2所述的方法,其特征在于,所述基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行训练的步骤,包括:
将带标注的训练样本输入编码网络,提取所述训练样本的特征,得到各训练样本的特征向量;
将所述特征向量输入解码网络,得到每个时刻的隐藏状态;
根据每个时刻的隐藏状态生成当前时刻所对应的单词;
根据生成的当前时刻所对应的单词与标注的当前时刻的实际单词,得到第一损失函数值;
当所述第一损失函数值达到预设值时,得到所述摘要描述模型的初步参数。
7.一种摘要描述模型训练方法,包括:
将带标注的训练样本输入摘要描述模型;
基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
8.一种摘要描述生成装置,包括信息获取模块和预测模块;
所述信息获取模块,用于获取输入信息;
所述预测模块,用于将所述输入信息输入预先训练好的摘要描述模型,通过所述摘要描述模型的编码网络,得到所述输入信息的特征向量,通过所述摘要描述模型的解码网络对所述特征向量进行解码,生成所述输入信息的摘要描述;其中,预先基于第一损失函数的监督,对编码网络和解码网络进行训练,并根据所述解码网络输出的每一时刻的隐藏状态,反向推导上一时刻反推隐藏状态,根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到基于第二损失函数的监督确定的所述摘要描述模型。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:输入模块、第一阶段训练模块、反推模块、损失值计算模块和参数确定模块;
所述输入模块,用于将带标注的训练样本输入摘要描述模型;
所述第一阶段训练模块,用于基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
所述反推模块,用于根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
所述损失值计算模块,用于根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
所述参数确定模块,用于当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
10.根据权利要求9所述的装置,其特征在于,所述反推模块,用于将所述解码网络输出的每一时刻的隐藏状态,作为重构网络各对应时刻的输入,反向推导得到上一时刻反推隐藏状态;所述重构网络包含于所述摘要描述模型、且与解码网络连接,用于挖掘所述解码网络中相邻两个隐藏状态的关联性,反向推导每一时刻对应的上一时刻的隐藏状态。
11.根据权利要求10所述的装置,其特征在于,所述反推模块包括:重构模块和连接模块;
所述重构模块,用于将所述解码网络输出的每一当前时刻的隐藏状态和重构网络中上一时刻的隐藏状态,输入至重构网络当前时刻的长短期记忆网络隐含层,得到重构网络中当前时刻的隐藏状态;
所述连接模块,用于将重构网络中当前时刻的隐藏状态输入全连接层,得到上一时刻反推隐藏状态。
12.根据权利要求9所述的装置,其特征在于,所述反推模块,用于利用反向传播算法,根据解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态。
13.一种摘要描述模型训练装置,包括:输入模块、第一阶段训练模块、反推模块、损失值计算模块和参数确定模块;
所述输入模块,用于将带标注的训练样本输入摘要描述模型;
所述第一阶段训练模块,用于基于第一损失函数的监督,对所述摘要描述模型的编码网络和解码网络进行训练;所述编码网络得到所述训练样本的特征向量,所述解码网络采用递归神经网络,对所述特征向量进行解码,得到各当前时刻的隐藏状态;
所述反推模块,用于根据所述解码网络输出的每一时刻的隐藏状态,反向推导得到上一时刻反推隐藏状态;
所述损失值计算模块,用于根据所述上一时刻反推隐藏状态和所述解码网络输出的上一时刻实际隐藏状态,得到第二损失函数值;
所述参数确定模块,用于当所述第二损失函数值达到预设值时,得到基于第二损失函数的监督确定的摘要描述模型的最终参数。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至6中任一项所述的摘要描述生成方法或如权利要求7所述的摘要描述模型训练方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至6中任一项所述的摘要描述生成方法或如权利要求7所述的摘要描述模型训练方法的步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711243949.4A CN108334889B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 |
CN201910833637.1A CN110598779B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法、装置、计算机设备和存储介质 |
EP18883654.8A EP3683725A4 (en) | 2017-11-30 | 2018-10-24 | METHOD OF GENERATION ABSTRACT DESCRIPTION, METHOD OF TRAINING ABSTRACT DESCRIPTION MODEL AND COMPUTER DEVICE |
PCT/CN2018/111709 WO2019105157A1 (zh) | 2017-11-30 | 2018-10-24 | 摘要描述生成方法、摘要描述模型训练方法和计算机设备 |
US16/685,702 US11494658B2 (en) | 2017-11-30 | 2019-11-15 | Summary generation method, summary generation model training method, and computer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711243949.4A CN108334889B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910833637.1A Division CN110598779B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108334889A CN108334889A (zh) | 2018-07-27 |
CN108334889B true CN108334889B (zh) | 2020-04-03 |
Family
ID=62922551
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910833637.1A Active CN110598779B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法、装置、计算机设备和存储介质 |
CN201711243949.4A Active CN108334889B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910833637.1A Active CN110598779B (zh) | 2017-11-30 | 2017-11-30 | 摘要描述生成方法、装置、计算机设备和存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11494658B2 (zh) |
EP (1) | EP3683725A4 (zh) |
CN (2) | CN110598779B (zh) |
WO (1) | WO2019105157A1 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598779B (zh) | 2017-11-30 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 摘要描述生成方法、装置、计算机设备和存储介质 |
CN109447813A (zh) * | 2018-09-05 | 2019-03-08 | 平安科技(深圳)有限公司 | 产品推荐方法、装置、计算机设备和存储介质 |
CN109800327A (zh) * | 2018-12-04 | 2019-05-24 | 天津大学 | 一种基于多跳注意力的视频摘要方法 |
CN109743642B (zh) * | 2018-12-21 | 2020-07-03 | 西北工业大学 | 基于分层循环神经网络的视频摘要生成方法 |
CN111368966B (zh) * | 2018-12-25 | 2023-11-21 | 北京嘀嘀无限科技发展有限公司 | 工单描述生成方法、装置、电子设备及可读存储介质 |
CN109948691B (zh) * | 2019-03-14 | 2022-02-18 | 齐鲁工业大学 | 基于深度残差网络及注意力的图像描述生成方法和装置 |
CN111723194A (zh) * | 2019-03-18 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 摘要生成方法、装置和设备 |
CN109978139B (zh) * | 2019-03-20 | 2021-06-04 | 深圳大学 | 图片自动生成描述的方法、***、电子装置及存储介质 |
CN110110140A (zh) * | 2019-04-19 | 2019-08-09 | 天津大学 | 基于注意力扩展编解码网络的视频摘要方法 |
CN111008224B (zh) * | 2019-11-13 | 2023-10-27 | 浙江大学 | 一种基于深度多任务表示学习的时间序列分类和检索方法 |
CN111046771A (zh) * | 2019-12-05 | 2020-04-21 | 上海眼控科技股份有限公司 | 用于恢复书写轨迹的网络模型的训练方法 |
CN113159288B (zh) * | 2019-12-09 | 2022-06-28 | 支付宝(杭州)信息技术有限公司 | 防止隐私数据泄漏的编码模型训练方法及装置 |
CN111026861B (zh) * | 2019-12-10 | 2023-07-04 | 腾讯科技(深圳)有限公司 | 文本摘要的生成方法、训练方法、装置、设备及介质 |
CN111177461A (zh) * | 2019-12-30 | 2020-05-19 | 厦门大学 | 一种根据当前场景及其描述信息生成下一场景的方法 |
CN111310823B (zh) * | 2020-02-12 | 2024-03-29 | 北京迈格威科技有限公司 | 目标分类方法、装置和电子*** |
CN111488807B (zh) * | 2020-03-29 | 2023-10-10 | 复旦大学 | 基于图卷积网络的视频描述生成*** |
CN111476357B (zh) * | 2020-05-12 | 2022-05-31 | 中国人民解放军国防科技大学 | 基于三重融合卷积gru的共享单车需求预测方法 |
CN111563917A (zh) * | 2020-05-18 | 2020-08-21 | 南京大学 | 一种基于隐式特征编码的云层运动预测方法及*** |
CN111444731B (zh) * | 2020-06-15 | 2020-11-03 | 深圳市友杰智新科技有限公司 | 模型训练方法、装置和计算机设备 |
CN111833583B (zh) * | 2020-07-14 | 2021-09-03 | 南方电网科学研究院有限责任公司 | 电力数据异常检测模型的训练方法、装置、设备和介质 |
CN112086144A (zh) * | 2020-08-28 | 2020-12-15 | 深圳先进技术研究院 | 分子生成方法、装置、电子设备及存储介质 |
CN112529104B (zh) * | 2020-12-23 | 2024-06-18 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆故障预测模型生成方法、故障预测方法及装置 |
CN114692652A (zh) * | 2020-12-31 | 2022-07-01 | 北京金山数字娱乐科技有限公司 | 翻译模型训练方法及装置、翻译方法及装置 |
CN113011555B (zh) * | 2021-02-09 | 2023-01-31 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN113011582B (zh) * | 2021-03-03 | 2023-12-12 | 上海科技大学 | 基于自审视的多单元反馈网络模型、设备和存储介质 |
CN113033538B (zh) * | 2021-03-25 | 2024-05-10 | 北京搜狗科技发展有限公司 | 一种公式识别方法及装置 |
CN113139609B (zh) * | 2021-04-29 | 2023-12-29 | 国网甘肃省电力公司白银供电公司 | 基于闭环反馈的模型校正方法、装置和计算机设备 |
CN113449079B (zh) * | 2021-06-25 | 2022-10-04 | 平安科技(深圳)有限公司 | 文本摘要生成方法、装置、电子设备及存储介质 |
CN113806520A (zh) * | 2021-07-30 | 2021-12-17 | 合肥工业大学 | 基于强化学习的文本摘要生成方法和*** |
CN113590810B (zh) * | 2021-08-03 | 2023-07-14 | 北京奇艺世纪科技有限公司 | 摘要生成模型训练方法、摘要生成方法、装置及电子设备 |
CN113815679B (zh) * | 2021-08-27 | 2023-01-13 | 北京交通大学 | 一种高速列车自主驾驶控制的实现方法 |
CN113970697B (zh) * | 2021-09-09 | 2023-06-13 | 北京无线电计量测试研究所 | 一种模拟电路状态评估方法和装置 |
CN114900441B (zh) * | 2022-04-29 | 2024-04-26 | 华为技术有限公司 | 网络性能预测方法,性能预测模型训练方法及相关装置 |
CN114781744A (zh) * | 2022-05-07 | 2022-07-22 | 东南大学 | 基于编码解码器的深度学习多步长辐照度预测方法 |
CN115410212B (zh) * | 2022-11-02 | 2023-02-07 | 平安科技(深圳)有限公司 | 多模态模型的训练方法、装置、计算机设备及存储介质 |
CN116775497B (zh) * | 2023-08-17 | 2023-11-14 | 北京遥感设备研究所 | 数据库测试用例生成需求描述编码方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN107038221A (zh) * | 2017-03-22 | 2017-08-11 | 杭州电子科技大学 | 一种基于语义信息引导的视频内容描述方法 |
CN107066973A (zh) * | 2017-04-17 | 2017-08-18 | 杭州电子科技大学 | 一种利用时空注意力模型的视频内容描述方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060122663A (ko) * | 2005-05-26 | 2006-11-30 | 엘지전자 주식회사 | 영상신호의 엔코딩 및 디코딩에서의 픽처 정보를 전송하고이를 이용하는 방법 |
US9577992B2 (en) * | 2015-02-04 | 2017-02-21 | Aerendir Mobile Inc. | Data encryption/decryption using neuro and neuro-mechanical fingerprints |
US9495633B2 (en) * | 2015-04-16 | 2016-11-15 | Cylance, Inc. | Recurrent neural networks for malware analysis |
US10319374B2 (en) * | 2015-11-25 | 2019-06-11 | Baidu USA, LLC | Deployed end-to-end speech recognition |
US9792534B2 (en) * | 2016-01-13 | 2017-10-17 | Adobe Systems Incorporated | Semantic natural language vector space |
US10235994B2 (en) * | 2016-03-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Modular deep learning model |
CN106778700A (zh) * | 2017-01-22 | 2017-05-31 | 福州大学 | 一种基于変分编码器中国手语识别方法 |
CN106933785A (zh) * | 2017-02-23 | 2017-07-07 | 中山大学 | 一种基于递归神经网络的摘要生成方法 |
CN106980683B (zh) * | 2017-03-30 | 2021-02-12 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN110598779B (zh) * | 2017-11-30 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 摘要描述生成方法、装置、计算机设备和存储介质 |
-
2017
- 2017-11-30 CN CN201910833637.1A patent/CN110598779B/zh active Active
- 2017-11-30 CN CN201711243949.4A patent/CN108334889B/zh active Active
-
2018
- 2018-10-24 WO PCT/CN2018/111709 patent/WO2019105157A1/zh unknown
- 2018-10-24 EP EP18883654.8A patent/EP3683725A4/en active Pending
-
2019
- 2019-11-15 US US16/685,702 patent/US11494658B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868829A (zh) * | 2015-02-06 | 2016-08-17 | 谷歌公司 | 用于数据项生成的循环神经网络 |
CN107038221A (zh) * | 2017-03-22 | 2017-08-11 | 杭州电子科技大学 | 一种基于语义信息引导的视频内容描述方法 |
CN107066973A (zh) * | 2017-04-17 | 2017-08-18 | 杭州电子科技大学 | 一种利用时空注意力模型的视频内容描述方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3683725A1 (en) | 2020-07-22 |
CN108334889A (zh) | 2018-07-27 |
CN110598779A (zh) | 2019-12-20 |
CN110598779B (zh) | 2022-04-08 |
WO2019105157A1 (zh) | 2019-06-06 |
US20200082271A1 (en) | 2020-03-12 |
EP3683725A4 (en) | 2022-04-20 |
US11494658B2 (en) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334889B (zh) | 摘要描述生成方法和装置、摘要描述模型训练方法和装置 | |
US11853709B2 (en) | Text translation method and apparatus, storage medium, and computer device | |
US11995528B2 (en) | Learning observation representations by predicting the future in latent space | |
CN109508584B (zh) | 视频分类的方法、信息处理的方法以及服务器 | |
CN111460807B (zh) | 序列标注方法、装置、计算机设备和存储介质 | |
CN110929206A (zh) | 点击率预估方法、装置、计算机可读存储介质和设备 | |
CN110750965B (zh) | 英文文本序列标注方法、***及计算机设备 | |
CN109919221B (zh) | 基于双向双注意力机制图像描述方法 | |
CN110458638B (zh) | 一种商品推荐方法及装置 | |
CN112766172A (zh) | 一种基于时序注意力机制的人脸连续表情识别方法 | |
CN109977394B (zh) | 文本模型训练方法、文本分析方法、装置、设备及介质 | |
CN110738314B (zh) | 一种基于深度迁移网络的点击率预测方法及装置 | |
CN112183085A (zh) | 机器阅读理解方法、装置、电子设备及计算机存储介质 | |
CN110008482B (zh) | 文本处理方法、装置、计算机可读存储介质和计算机设备 | |
CN113221645B (zh) | 目标模型训练方法、人脸图像生成方法以及相关装置 | |
CN112883227A (zh) | 一种基于多尺度时序特征的视频摘要生成方法和装置 | |
CN113240115A (zh) | 一种生成人脸变化图像模型的训练方法及相关装置 | |
CN114064852A (zh) | 自然语言的关系抽取方法、装置、电子设备和存储介质 | |
CN111291563A (zh) | 词向量对齐方法和词向量对齐模型训练方法 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN116309056A (zh) | 图像重建方法、装置和计算机存储介质 | |
CN116049377A (zh) | 一种基于矩阵分解和crnn的上下文感知推荐***和方法 | |
CN113177110B (zh) | 一种虚假新闻检测方法、装置、计算机设备和存储介质 | |
CN112528621B (zh) | 文本处理、文本处理模型训练方法、装置和存储介质 | |
CN114398907A (zh) | 话题动态推荐方法、装置、存储介质以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |