CN110287278B - 评论生成方法、装置、服务器及存储介质 - Google Patents
评论生成方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110287278B CN110287278B CN201910536822.4A CN201910536822A CN110287278B CN 110287278 B CN110287278 B CN 110287278B CN 201910536822 A CN201910536822 A CN 201910536822A CN 110287278 B CN110287278 B CN 110287278B
- Authority
- CN
- China
- Prior art keywords
- keyword
- target
- vector
- background knowledge
- comment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种评论生成方法、装置、服务器及存储介质。该方法包括:从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;将每个目标关键词转化为关键词向量;得到句子所属的背景知识文本的背景知识特征向量;获取目标文章的语义特征向量,并将语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,输入评论生成模型生成目标文章的评论。本发明实施例通过在评论生成过程中融入关键词以及关键词的背景知识,并结合文章的语义特征通过评论生成模型生成评论,从而使生成的评论与文章具有更高的关联性,并提高了评论生成的泛化能力和准确性。
Description
技术领域
本发明实施例涉及计算机应用技术领域,尤其涉及一种评论生成方法、装置、服务器及存储介质。
背景技术
随着互联网技术的普及和发展,各种网络多媒体的兴起,增加了用户获取各种新闻资讯的途径和方式,提高了人们阅读新闻资讯的效率,丰富了人们的生活方式。例如,用户可以在手机上下载各类新闻应用,通过新闻应用随时随地阅读新闻。但是,每个应用里都包含了大量冷门新闻,评论区只有少量评论甚至没有评论,对于信息生产者来说,造成其提供的没有被充分地利用,对于应用来说部分新闻用户参与度低产生冷启动问题。
一般来说,为了吸引用户的参与和关注新闻,应用开发团队通常会采用主动给新闻增加一些评论的方式,来吸引用户的关注和参与,在一定程度上解决冷启动问题,同时改善读者与作者之间的互动性。然而,目前的评论生成方法主要是根据其他相似文章中的评论,以替换部分关键词的方式生成新的评论,这种方式生成的评论泛化能力差,并且与文章关联度较差。
发明内容
本发明实施例提供一种评论生成方法、装置、服务器及存储介质,以实现提高文章评论生成的泛化能力以及与评论与文章的关联度。
第一方面,本发明实施例提供了一种评论生成方法,该方法包括:
从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
将每个目标关键词转化为关键词向量;
对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
第二方面,本发明实施例提供了一种评论生成装置,该装置包括:
信息获取模块,用于从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
关键词向量转化模块,用于将每个目标关键词转化为关键词向量;
句子划分模块,用于对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
评论生成模块,用于获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
第三方面,本发明实施例还提供了一种服务器,该服务器包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例中任一所述的评论生成方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的评论生成方法。
本发明实施例中从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;进一步的,通过对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;最后将目标文章的语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。由此,通过在评论生成过程中融入关键词以及关键词的背景知识,并结合文章的语义特征通过评论生成模型生成评论,从而使生成的评论与文章具有更高的关联性,并提高了评论生成的泛化能力和准确性,从而达到吸引读者关注文章内容的目的,减少文章因无评论而被埋没的情况,同时改善文章作者与读者之间的互动。
附图说明
图1是本发明实施例一中的一种评论生成方法的流程图;
图2是本发明实施例二中的一种评论生成方法的流程图;
图3是本发明实施例三中的一种评论生成方法的流程图;
图4是本发明实施例四中的一种评论生成装置结构示意图;
图5是本发明实施例五中的一种服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一中的一种评论生成方法的流程图。本实施例提供的评论生成方法可适用于自动生成对文章的评论的情况,该方法具体可以由评论生成装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在服务器中,参见图1,本发明实施例的方法具体包括:
S110、从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本。
其中,所述目标文章可以为互联网中的文本,或终端设备中的文本,例如新闻文本、小说文本、论坛文本等。所述目标关键词为目标文章中包含的能够体现目标文章的意义或特征的词语。例如,“神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型”中的关键词可以确定为“神经网络”、“动物”、“分布式”、“信息处理”、“算法数学模型”,以反映该文本的含义或特征。所述背景知识文本为与目标关键词相关联的介绍性文本,例如对于目标关键词“算法数学模型”,存在对其进行具体详细介绍的文本,例如算法数学模型具体含义,用于做什么,怎样使用等,即目标关键词的背景知识文本。所述百科知识库中预先存储有多个关键词以及对应的背景知识文本。
具体的,对目标评文章进行评论需要体现目标文章中的关键信息,目标文章的目标关键词和背景知识文本能够更加全面准确地反映目标文章的内容,因此,在本发明实施例中,从目标文章中提取至少一个目标关键词,并获取每个目标关键词的背景知识文本,从而通过融入目标关键词及其背景知识,提高生成的评论与目标文章之间的关联性。
可选的,从目标文章中提取至少一个目标关键词,包括:按照预设规则从所述目标文章中提取句子集合,对所述句子集合中的每个句子进行文本分词,得到分词集合;在所述分词集合中通过词性筛选,确定所述至少一个目标关键词。其中,所述预设规则可以由技术人员进行设定,例如设置为提取主谓宾结构完整的句子集合,或者提取文章中每个段落的第一个句子和最后一个句子,形成句子集合。进一步对每个句子进行文本分词,得到分词集合,例如基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法等对句子进行分词,以便对目标关键词进行筛选。根据目标关键词的特征,其能够体现目标文章的意义或特征的词语,可以将具有名词词性词作为目标关键词,因此通过词性筛选将分词集合中的名词筛选出来,得到目标关键词。
S120、将每个目标关键词转化为关键词向量。
具体的,可以根据word2vec(word to vector,词到向量)模型将各目标关键词转化为关键词向量。
S130、对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量。
具体的,目标关键词的背景知识文本为对目标关键词的描述性文本,可能为文本段落,为了更加简洁地对背景知识文本进行表示,以及更加清晰地体现背景知识文本包含的特征,将每个目标关键词的背景知识文本进行句子划分,并将各个句子表示为特征向量,依据句子的特征向量得到背景知识文本的背景知识特征向量。
S140、获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
其中,语义特征即目标文章在意义上所具有的特征,获取目标文章的语义特征向量能够更加全面地体现目标文章在意义上所包含的特征,从而根据语义特征向量生成评论以提高评论与文章的关联度。
可选的,所述评论生成模型是利用Encoder-Decoder框架生成;相应的,获取目标文章的语义特征向量,包括:利用Encoder-Decoder框架的Encoder部分对目标文章进行编码,得到所述语义特征向量;将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论,包括:将拼接后的向量作为Decoder部分的起始信号输入,输出即为目标文章的评论。
其中,所述Decoder部分即为编码-解码框架中的解码部分。利用Encoder-Decoder框架的Encoder部分对目标文章进行编码,得到所述语义特征向量。所述Encoder-Decoder框架即深度学习中所应用的编码-解码框架,Encoder部分即框架中的编码部分。根据编码部分对目标文章进行编码,即得到目标文章的语义特征向量。将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,通过将拼接后的向量作为解码部分的起始信号输入,从而根据包含有语义特征向量、关键词向量以及背景知识特征向量的拼接向量得到语言序列,即目标文章的评论,使评论生成过程中融入了目标关键词、背景知识文本以及目标文章的语义特征,提高了评论与目标文章的关联度,并通过Encoder-Decoder的框架自动生成评论,提高评论生成的泛化能力。
本发明实施例的技术方案,从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;进一步的,通过对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;最后将目标文章的语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。由此,通过在评论生成过程中融入关键词以及关键词的背景知识,并结合文章的语义特征通过评论生成模型生成评论,从而使生成的评论与文章具有更高的关联性,并提高了评论生成的泛化能力和准确性,从而达到吸引读者关注文章内容的目的,减少文章因无评论而被埋没的情况,同时改善文章作者与读者之间的互动。
实施例二
图2是本发明实施例二中的一种评论生成方法的流程图。本实施例在上述实施例的基础上进行了优化,未在本实施例中详细描述的细节详见上述实施例。参见图2,本实施例提供的评论生成方法可以包括:
S210、从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本。
可选的,从预先构建的百科知识库中获取每个目标关键词的背景知识文本,包括:将任一目标关键词作为当前关键词;将当前关键词与所述百科知识库中的词条进行匹配,获取当前关键词对应词条的词条完整信息;从所述词条完整信息中挖掘词条正文,利用摘要工具从所述词条正文中抽取摘要;按照预设规则,从所述摘要中提取多个句子,并组合为当前关键词的所述背景知识文本。
具体的,对于获取得到的目标关键词,需要进一步获取其背景知识,以更加全面地反映目标关键词的特性,因此,将任一目标关键词作为当前关键词,将其与百科知识库中的词条进行匹配,得到百科知识库中关键词对应词条的词条完整信息,即对词条进行描述的文本信息,在描述性的文本信息中,可能会存在对当前关键词的间接描述或非正文部分文本,因此需要去掉间接描述或非正文部分文本,得到词条正文,并利用摘要工具从词条文本中抽取摘要,所述摘要工具可以为基于统计、基于图模型、基于潜在语义、基于线路规划等构建的神经网络模型。所述预设规则由技术人员根据实际情况进行设定,例如设置为提取主谓宾结构完整的句子多个,或者提取摘要中每个段落的第一个句子和最后一个句子,将提取的多个句子组合构成背景知识文本。
S220、将每个目标关键词转化为关键词向量。
S230、将任一目标关键词作为当前关键词,将当前关键词的背景知识文本作为当前背景知识文本。
S240、对当前背景知识文本进行句子划分,得到多个当前句子,并确定每个当前句子的句子特征向量。
S250、将当前关键词作为查询参数,基于注意力机制,根据多个当前句子的句子特征向量,得到注意力参数。
其中,所述注意力机制为基于Attention模型生成并引入注意力参数的机制,所述查询参数即为Attention模型中的query参数,所述注意力参数即为Attention参数。将当前关键词、句子特征向量以及各参数输入至Attention模型,以得到各个句子特征向量对应的Attention参数。各个句子特征向量的Attention参数能够反映各个句子特征向量重要性,从而适应性地根据融入句子特征向量的重要性参数。
S260、依据所述注意力参数,对所述多个当前句子的句子特征向量进行合并,得到当前背景知识文本的背景知识特征向量。
具体的,将各当前句子的句子特征向量中加入注意力参数,以表示该句子特征向量的重要性,并将加入注意力参数的句子特征向量进行合并,得到当前背景知识的背景知识特征向量。通过根据注意力参数对句子特征向量进行合并,得到背景知识特征向量,反映出不同句子特征向量的重要程度,突出重要的句子特征向量,弱化不重要的句子特征向量,从而使背景知识特征向量更加准确地反映出当前关键词的特性。
S270、获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
本发明实施例的技术方案,通过将当前关键词作为查询参数,基于注意力机制,根据多个当前句子的句子特征向量,得到注意力参数;依据所述注意力数,对所述多个当前句子的具体特征向量进行合并,得到当前背景知识文本的背景知识特征向量,从而反映出不同句子特征向量的重要程度,突出重要的句子特征向量,弱化不重要的句子特征向量,使背景知识特征向量更加准确地反映出当前关键词的特性。
实施例三
图3是本发明实施例三中的一种评论生成方法的流程图。本实施例在上述实施例的基础上针对评论生成模型的训练过程进行了详细的介绍,未在本实施例中详细描述的细节详见上述实施例。参见图3,本实施例提供的评论生成方法可以包括:
S310、获取文章样本及其多个候选评论样本。
其中,所述文章样本为互联网或终端设备中的存在的文章文本,作为文章样本,所述候选评论样本为各文章样本的阅读者所发表的关于对于文章样本的评论性文本,将至少一个评论性样本作为候选评论样本。各文章样本与其候选评论样本相对应。
S320、从所述文章样本中提取至少一个关键词,并从预先构建的百科知识库中获取每个关键词的背景知识文本。
S330、在所述多个候选评论样本中按照所述关键词进行过滤,保留包含至少一个关键词的候选评论,作为用于训练的评论样本。
具体的,多个候选评论样本中,可能会存在候选评论样本中并不包含文章样本中的关键词,而此类评论则不能够作为本发明实施例中的模型的训练样本,因此,在多个候选评论样本中进行过滤,得到包含至少一个关键词的候选评论,将其作为用于模型训练的评论样本。由于评论样本中包含文章样本的关键词,评论样本与文章样本具有更高的关联度,从而使训练模型中包含了关键词特征,训练得到的模型能够根据获取的目标文章中的关键词更准确地获取评论,提高了评论与文章的相关性。
S340、将每个关键词转化为关键词向量。
S350、对每个关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量。
S360、利用seq2seq模型中的Encoder部分对所述文章样本进行编码,得到所述文章样本的样本语义特征向量。
可选的,所述评论生成模型为seq2seq模型。其中,所述seq2seq模型为能够根据给定的序列通过特定的方法生成另一个序列的模型。通过seq2seq模型中的编码部分能够对文章样本编码得到样本语义特征向量。
S370、将所述评论样本中任一目标评论样本的向量表示作为seq2seq模型中Decoder部分的输出,即训练目标,并将所述目标评论样本中包含的至少一个关键词的关键词向量、背景知识特征向量与所述样本语义特征向量进行拼接,将拼接后的向量作为seq2seq模型中Decoder部分的起始信号输入,对所述seq2seq模型进行训练。
具体的,将所述目标评论样本中包含的至少一个关键词的关键词向量、背景知识特征向量与所述样本语义特征向量进行拼接,可以按照任意先后顺序进行拼接,通过向量拼接实现向量的整合,从而便于对向量的应用。将目标评论样本的向量表示作为seq2seq模型中Decoder部分的输出样本,拼接后的向量作为seq2seq模型中Decoder部分的起始信号输入样本,对seq2seq模型进行训练,得到评论生成模型。
本发明实施例的技术方案,通过获取文章样本及其多个候选评论样本,并获取文章样本的关键词及背景知识,对seq2seq模型进行训练,得到评论生成模型,从而根据评论生成模型得到评论,使生成的评论融合了文章的关键词和背景知识特征,提高了评论生成的泛化能力,以及评论和文章的关联度,从而使生成的评论更加符合文章的内容意义,有助于引导阅读者对文章进行阅读。
实施例四
图4为本发明实施例四提供的一种评论生成装置结构示意图。该装置适用于自动生成对文章的评论的情况,该装置可以由软件和/或硬件的方式实现,该装置可以集成在服务器中。参见图4,该装置具体包括:
信息获取模块410,用于从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
关键词向量转化模块420,用于将每个目标关键词转化为关键词向量;
句子划分模块430,用于对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
评论生成模块440,用于获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
可选的,所述信息获取模块410,包括:
分词单元,用于按照预设规则从所述目标文章中提取句子集合,对所述句子集合中的每个句子进行文本分词,得到分词集合;
目标关键词确定单元,用于在所述分词集合中通过词性筛选,确定所述至少一个目标关键词。
可选的,所述信息获取模块410,还包括:
当前关键词确定单元,用于将任一目标关键词作为当前关键词;
词条完整信息获取单元,用于将当前关键词与所述百科知识库中的词条进行匹配,获取当前关键词对应词条的词条完整信息;
摘要抽取单元,用于从所述词条完整信息中挖掘词条正文,利用摘要工具从所述词条正文中抽取摘要;
组合单元,用于按照预设规则,从所述摘要中提取多个句子,并组合为当前关键词的所述背景知识文本。
可选的,所述句子划分模块430,包括:
当前信息确定单元,用于将任一目标关键词作为当前关键词,将当前关键词的背景知识文本作为当前背景知识文本;
句子特征向量确定单元,用于对当前背景知识文本进行句子划分,得到多个当前句子,并确定每个当前句子的句子特征向量;
注意力参数确定单元,用于将当前关键词作为查询参数,基于注意力机制,根据多个当前句子的句子特征向量,得到注意力参数;
合并单元,用于依据所述注意力参数,对所述多个当前句子的句子特征向量进行合并,得到当前背景知识文本的背景知识特征向量。
可选的,所述评论生成模型是利用Encoder-Decoder框架生成;
相应的,所述评论生成模块440,包括:
编码单元,用于利用Encoder-Decoder框架的Encoder部分对目标文章进行编码,得到所述语义特征向量;
解码单元,用于将拼接后的向量作为Decoder部分的起始信号输入,输出即为目标文章的评论。
可选的,所述评论生成模型为seq2seq模型;
相应的,还包括:
候选评论样本获取模块,用于获取文章样本及其多个候选评论样本;
样本信息获取模块,用于从所述文章样本中提取至少一个关键词,并从预先构建的百科知识库中获取每个关键词的背景知识文本;
过滤模块,用于在所述多个候选评论样本中按照所述关键词进行过滤,保留包含至少一个关键词的候选评论,作为用于训练的评论样本;
转化模块,用于将每个关键词转化为关键词向量;
划分模块,用于对每个关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
样本语义特征向量确定模块,用于利用seq2seq模型中的Encoder部分对所述文章样本进行编码,得到所述文章样本的样本语义特征向量;
训练模块,用于将所述评论样本中任一目标评论样本的向量表示作为seq2seq模型中Decoder部分的输出,即训练目标,并将所述目标评论样本中包含的至少一个关键词的关键词向量和背景知识特征向量与所述样本语义特征向量进行拼接,将拼接后的向量作为seq2seq模型中Decoder部分的起始信号输入,对所述seq2seq模型进行训练。
本发明实施例的技术方案,信息获取模块从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;关键词向量转化模块将每个目标关键词转化为关键词向量;句子划分模块对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;评论生成模块获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。通过在评论生成过程中融入关键词以及关键词的背景知识,并结合文章的语义特征,从而使生成的评论与文章具有更高的关联性,并通过评论生成模型生成评论,提高了评论生成的泛化能力和准确性。
实施例五
图5是本发明实施例五提供的一种服务器的结构示意图。图5示出了适于用来实现本发明实施例的示例***器512的框图。图5显示的服务器512仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,服务器512包括:一个或多个处理器516;存储器528,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器516执行,使得所述一个或多个处理器516实现本发明实施例所提供的评论生成方法,包括:
从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
将每个目标关键词转化为关键词向量;
对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
以通用服务器的形式表现。服务器512的组件可以包括但不限于:一个或者多个处理器或者处理器516,***存储器528,连接不同***组件(包括***存储器528和处理器516)的总线518。
总线518表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
服务器512典型地包括多种计算机***可读存储介质。这些存储介质可以是任何能够被服务器512访问的可用存储介质,包括易失性和非易失性存储介质,可移动的和不可移动的存储介质。
***存储器528可以包括易失性存储器形式的计算机***可读存储介质,例如随机存取存储器(RAM)530和/或高速缓存存储器532。服务器512可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***534可以用于读写不可移动的、非易失性磁存储介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光存储介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据存储介质接口与总线518相连。存储器528可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块542的程序/实用工具540,可以存储在例如存储器528中,这样的程序模块562包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块562通常执行本发明所描述的实施例中的功能和/或方法。
服务器512也可以与一个或多个外部服务器514(例如键盘、指向服务器、显示器526等)通信,还可与一个或者多个使得用户能与该服务器512交互的服务器通信,和/或与使得该服务器512能与一个或多个其它计算服务器进行通信的任何服务器(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口522进行。并且,服务器512还可以通过网络适配器520与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器520通过总线518与服务器512的其它模块通信。应当明白,尽管图5中未示出,可以结合服务器512使用其它硬件和/或软件模块,包括但不限于:微代码、服务器驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器516通过运行存储在***存储器528中的多个程序中其他程序的至少一个,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种评论生成方法,包括:
从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
将每个目标关键词转化为关键词向量;
对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
实施例六
本发明实施例六还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种评论生成方法:
从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
将每个目标关键词转化为关键词向量;
对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的存储介质的任意组合。计算机可读存储介质可以是计算机可读信号存储介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明实施例中,计算机可读存储介质可以是任何包含或存储程序的有形存储介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号存储介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读存储介质上包含的程序代码可以用任何适当的存储介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种评论生成方法,其特征在于,所述方法包括:
从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
将每个目标关键词转化为关键词向量;
对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;其中,所述背景知识特征向量用于反映当前关键词的特性;
获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
2.根据权利要求1所述的方法,其特征在于,所述从目标文章中提取至少一个目标关键词,包括:
按照预设规则从所述目标文章中提取句子集合,对所述句子集合中的每个句子进行文本分词,得到分词集合;
在所述分词集合中通过词性筛选,确定所述至少一个目标关键词。
3.根据权利要求1所述的方法,其特征在于,所述从预先构建的百科知识库中获取每个目标关键词的背景知识文本,包括:
将任一目标关键词作为当前关键词;
将当前关键词与所述百科知识库中的词条进行匹配,获取当前关键词对应词条的词条完整信息;
从所述词条完整信息中挖掘词条正文,利用摘要工具从所述词条正文中抽取摘要;
按照预设规则,从所述摘要中提取多个句子,并组合为当前关键词的所述背景知识文本。
4.根据权利要求1所述的方法,其特征在于,所述对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量,包括:
将任一目标关键词作为当前关键词,将当前关键词的背景知识文本作为当前背景知识文本;
对当前背景知识文本进行句子划分,得到多个当前句子,并确定每个当前句子的句子特征向量;
将当前关键词作为查询参数,基于注意力机制,根据多个当前句子的句子特征向量,得到注意力参数;
依据所述注意力参数,对所述多个当前句子的句子特征向量进行合并,得到当前背景知识文本的背景知识特征向量。
5.根据权利要求1所述的方法,其特征在于,所述评论生成模型是利用Encoder-Decoder框架生成;
相应的,所述获取目标文章的语义特征向量,包括:利用Encoder-Decoder框架的Encoder部分对目标文章进行编码,得到所述语义特征向量;
相应的,所述将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论,包括:
将拼接后的向量作为Decoder部分的起始信号输入,输出即为目标文章的评论。
6.根据权利要求1所述的方法,其特征在于,所述评论生成模型为seq2seq模型;
相应的,所述seq2seq模型的训练过程包括:
获取文章样本及其多个候选评论样本;
从所述文章样本中提取至少一个关键词,并从预先构建的百科知识库中获取每个关键词的背景知识文本;
在所述多个候选评论样本中按照所述关键词进行过滤,保留包含至少一个关键词的候选评论,作为用于训练的评论样本;
将每个关键词转化为关键词向量;
对每个关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;
利用所述seq2seq模型中的Encoder部分对所述文章样本进行编码,得到所述文章样本的样本语义特征向量;
将所述评论样本中任一目标评论样本的向量表示作为所述seq2seq模型中Decoder部分的输出,并将所述目标评论样本中包含的至少一个关键词的关键词向量和背景知识特征向量与所述样本语义特征向量进行拼接,将拼接后的向量作为所述seq2seq模型中Decoder部分的起始信号输入,对所述seq2seq模型进行训练。
7.一种评论生成装置,其特征在于,所述装置包括:
信息获取模块,用于从目标文章中提取至少一个目标关键词,并从预先构建的百科知识库中获取每个目标关键词的背景知识文本;
关键词向量转化模块,用于将每个目标关键词转化为关键词向量;
句子划分模块,用于对每个目标关键词的背景知识文本进行句子划分,依据每个句子的特征向量得到句子所属的背景知识文本的背景知识特征向量;其中,所述背景知识特征向量用于反映当前关键词的特性;
评论生成模块,用于获取目标文章的语义特征向量,并将所述语义特征向量、每个目标关键词的关键词向量及其背景知识特征向量进行拼接,将拼接后的向量作为预先训练的评论生成模型的输入,利用所述评论生成模型生成目标文章的评论。
8.根据权利要求7所述的装置,其特征在于,所述信息获取模块,包括:
分词单元,用于按照预设规则从所述目标文章中提取句子集合,对所述句子集合中的每个句子进行文本分词,得到分词集合;
目标关键词确定单元,用于在所述分词集合中通过词性筛选,确定所述至少一个目标关键词。
9.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的一种评论生成方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的一种评论生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910536822.4A CN110287278B (zh) | 2019-06-20 | 2019-06-20 | 评论生成方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910536822.4A CN110287278B (zh) | 2019-06-20 | 2019-06-20 | 评论生成方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110287278A CN110287278A (zh) | 2019-09-27 |
CN110287278B true CN110287278B (zh) | 2022-04-01 |
Family
ID=68003972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910536822.4A Active CN110287278B (zh) | 2019-06-20 | 2019-06-20 | 评论生成方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287278B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688832B (zh) * | 2019-10-10 | 2023-06-09 | 河北省讯飞人工智能研究院 | 一种评论生成方法、装置、设备及存储介质 |
CN110866195B (zh) * | 2019-11-12 | 2024-03-19 | 腾讯科技(深圳)有限公司 | 文本描述的生成方法、装置、电子设备及存储介质 |
CN110879868A (zh) * | 2019-11-21 | 2020-03-13 | 中国工商银行股份有限公司 | 顾问方案生成方法、装置、***、电子设备及介质 |
CN112966173B (zh) * | 2019-12-13 | 2024-02-27 | 北京达佳互联信息技术有限公司 | 一种用于信息评论的分类操作方法及装置 |
JP2021114184A (ja) * | 2020-01-20 | 2021-08-05 | シャープ株式会社 | 要約生成装置、要約生成方法、及びプログラム |
CN111310436B (zh) * | 2020-02-11 | 2022-02-15 | 腾讯科技(深圳)有限公司 | 基于人工智能的文本处理方法、装置及电子设备 |
CN111444357B (zh) * | 2020-03-24 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 内容信息确定方法、装置、计算机设备及存储介质 |
CN111556375B (zh) * | 2020-04-24 | 2022-10-11 | 西交利物浦大学 | 视频弹幕的生成方法、装置、计算机设备及存储介质 |
CN111737446B (zh) * | 2020-06-22 | 2024-04-05 | 北京百度网讯科技有限公司 | 用于构建质量评估模型的方法、装置、设备及存储介质 |
CN111783468B (zh) * | 2020-06-28 | 2023-08-15 | 百度在线网络技术(北京)有限公司 | 文本处理方法、装置、设备和介质 |
CN112417352A (zh) * | 2020-11-03 | 2021-02-26 | 北京五八信息技术有限公司 | 处理发布内容的方法、装置、电子设备及存储介质 |
CN112651211A (zh) * | 2020-12-11 | 2021-04-13 | 北京大米科技有限公司 | 标签信息确定方法、装置、服务器及存储介质 |
CN112667780A (zh) * | 2020-12-31 | 2021-04-16 | 上海众源网络有限公司 | 一种评论信息的生成方法、装置、电子设备及存储介质 |
CN112800321B (zh) * | 2021-01-05 | 2023-01-20 | 百威投资(中国)有限公司 | 基于关键词检索的歧义帖子识别方法和计算机设备 |
CN112966500B (zh) * | 2021-02-15 | 2021-11-23 | 珠海市鸿瑞信息技术股份有限公司 | 基于人工智能组态的网络数据链安全监测平台 |
CN114969316B (zh) * | 2021-02-24 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 一种文本数据处理方法、装置、设备以及介质 |
CN112580352B (zh) * | 2021-03-01 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 关键词提取方法、装置和设备及计算机存储介质 |
CN113486649B (zh) * | 2021-06-24 | 2023-07-04 | 竹间智能科技(上海)有限公司 | 文本评论的生成方法以及电子设备 |
CN113626614B (zh) * | 2021-08-19 | 2023-10-20 | 车智互联(北京)科技有限公司 | 资讯文本生成模型的构造方法、装置、设备及存储介质 |
CN113988027A (zh) * | 2021-09-23 | 2022-01-28 | 阿里巴巴达摩院(杭州)科技有限公司 | 文本生成方法、装置、设备及存储介质 |
CN115658935B (zh) * | 2022-12-06 | 2023-05-02 | 北京红棉小冰科技有限公司 | 一种个性化评论生成方法及装置 |
CN116306514B (zh) * | 2023-05-22 | 2023-09-08 | 北京搜狐新媒体信息技术有限公司 | 一种文本处理方法及装置、电子设备、存储介质 |
CN116402064B (zh) * | 2023-06-09 | 2023-09-12 | 北京搜狐新媒体信息技术有限公司 | 一种评论生成方法、***、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014048479A1 (en) * | 2012-09-27 | 2014-04-03 | Qatar Foundation | A system and method for the automatic creation or augmentation of an electronically rendered publication document |
CN106372122A (zh) * | 2016-08-23 | 2017-02-01 | 温州大学瓯江学院 | 一种基于维基语义匹配的文档分类方法及*** |
CN107305549A (zh) * | 2016-04-18 | 2017-10-31 | 北京搜狗科技发展有限公司 | 语言数据处理方法、装置以及用于语言数据处理的装置 |
CN109063164A (zh) * | 2018-08-15 | 2018-12-21 | 百卓网络科技有限公司 | 一种基于深度学习的智能问答方法 |
CN109800390A (zh) * | 2018-12-21 | 2019-05-24 | 北京石油化工学院 | 一种个性化情感摘要的计算方法与装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012057791A1 (en) * | 2010-10-29 | 2012-05-03 | Fractor, LLC | Methods and systems for concatenating and transferring web accessible content and metadata |
US8676937B2 (en) * | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
CN109033433B (zh) * | 2018-08-13 | 2020-09-29 | 中国地质大学(武汉) | 一种基于卷积神经网络的评论数据情感分类方法及*** |
CN109299237B (zh) * | 2018-09-26 | 2020-06-16 | 苏州大学 | 基于行动者评论家强化学习算法的循环网络人机对话方法 |
CN109710841B (zh) * | 2018-12-17 | 2021-03-16 | 北京百度网讯科技有限公司 | 评论推荐方法和装置 |
-
2019
- 2019-06-20 CN CN201910536822.4A patent/CN110287278B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014048479A1 (en) * | 2012-09-27 | 2014-04-03 | Qatar Foundation | A system and method for the automatic creation or augmentation of an electronically rendered publication document |
CN107305549A (zh) * | 2016-04-18 | 2017-10-31 | 北京搜狗科技发展有限公司 | 语言数据处理方法、装置以及用于语言数据处理的装置 |
CN106372122A (zh) * | 2016-08-23 | 2017-02-01 | 温州大学瓯江学院 | 一种基于维基语义匹配的文档分类方法及*** |
CN109063164A (zh) * | 2018-08-15 | 2018-12-21 | 百卓网络科技有限公司 | 一种基于深度学习的智能问答方法 |
CN109800390A (zh) * | 2018-12-21 | 2019-05-24 | 北京石油化工学院 | 一种个性化情感摘要的计算方法与装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110287278A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287278B (zh) | 评论生成方法、装置、服务器及存储介质 | |
CN107832433B (zh) | 基于对话交互的信息推荐方法、装置、服务器和存储介质 | |
CN107908635B (zh) | 建立文本分类模型以及文本分类的方法、装置 | |
CN110263340B (zh) | 评论生成方法、装置、服务器及存储介质 | |
CN109543058B (zh) | 用于检测图像的方法、电子设备和计算机可读介质 | |
JP7159248B2 (ja) | レビュー情報の処理方法、装置、コンピュータ機器及び媒体 | |
CN109635197B (zh) | 搜索方法、装置、电子设备及存储介质 | |
CN111783450B (zh) | 语料文本中的短语提取方法、装置、存储介质及电子设备 | |
CN111597800B (zh) | 同义句的获取方法及装置、设备及存储介质 | |
CN111178056A (zh) | 基于深度学习的文案生成方法、装置及电子设备 | |
CN110737774A (zh) | 图书知识图谱的构建、图书推荐方法、装置、设备及介质 | |
CN113656763B (zh) | 确定小程序特征向量的方法、装置和电子设备 | |
CN113609158A (zh) | 一种sql语句的生成方法、装置、设备及介质 | |
CN110991175A (zh) | 多模态下的文本生成方法、***、设备及存储介质 | |
CN112711943B (zh) | 一种维吾尔文语种识别方法、装置及存储介质 | |
CN111460224B (zh) | 评论数据的质量标注方法、装置、设备及存储介质 | |
CN113096687A (zh) | 音视频处理方法、装置、计算机设备及存储介质 | |
CN113761895A (zh) | 文本摘要的生成方法、装置、电子设备及存储介质 | |
CN111666405B (zh) | 用于识别文本蕴含关系的方法和装置 | |
CN115115432B (zh) | 基于人工智能的产品信息推荐方法及装置 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN115587184A (zh) | 一种关键信息抽取模型的训练方法、装置及其存储介质 | |
CN115114924A (zh) | 命名实体识别方法、装置、计算设备和存储介质 | |
CN114880520A (zh) | 视频标题生成方法、装置、电子设备和介质 | |
CN114676699A (zh) | 实体情感分析方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |