CN110377750A - 评论生成及评论生成模型训练方法、装置及存储介质 - Google Patents

评论生成及评论生成模型训练方法、装置及存储介质 Download PDF

Info

Publication number
CN110377750A
CN110377750A CN201910521306.4A CN201910521306A CN110377750A CN 110377750 A CN110377750 A CN 110377750A CN 201910521306 A CN201910521306 A CN 201910521306A CN 110377750 A CN110377750 A CN 110377750A
Authority
CN
China
Prior art keywords
keyword
vector
comment
article
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910521306.4A
Other languages
English (en)
Other versions
CN110377750B (zh
Inventor
黄俊衡
陈思姣
罗雨
彭卫华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910521306.4A priority Critical patent/CN110377750B/zh
Publication of CN110377750A publication Critical patent/CN110377750A/zh
Application granted granted Critical
Publication of CN110377750B publication Critical patent/CN110377750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了评论生成及评述生成模型训练方法、装置及存储介质,其中评论生成方法可包括:获取待处理的文章中的关键词;分别获取各关键词的主题信息;利用预先训练得到的评论生成模型,基于所述主题信息生成文章的评论。应用本发明所述方案,能够提高生成的评论质量等。

Description

评论生成及评论生成模型训练方法、装置及存储介质
【技术领域】
本发明涉及计算机应用技术,特别涉及评论生成及评述生成模型训练方法、装置及存储介质。
【背景技术】
在实际应用中,某些场景下需要为文章自动生成评论,如对于一篇优质的文章,为了增加文章热度,可自动生成一部分评论补充到文章的评论集中。
目前虽然存在一些评论生成方法,但生成的多是一些无实质意义的评论,与文章的主题偏差较大,质量较差。
【发明内容】
有鉴于此,本发明提供了评论生成及评述生成模型训练方法、装置及存储介质。
具体技术方案如下:
一种评论生成方法,包括:
获取待处理的文章中的关键词;
分别获取各关键词的主题信息;
利用预先训练得到的评论生成模型,基于所述主题信息生成所述文章的评论。
根据本发明一优选实施例,所述分别获取各关键词的主题信息包括:
针对任一关键词,分别获取所述关键词的第一向量和第二向量;其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量;
将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
根据本发明一优选实施例,所述获取所述关键词的第一向量包括:将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
根据本发明一优选实施例,所述获取所述关键词的第二向量包括:将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量以及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
一种评述生成模型训练方法,包括:
获取作为训练语料的文章中的关键词;
针对各关键词,分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论;
利用查找出的评论与所述文章组成训练对;
分别获取各关键词的主题信息;
根据所述训练对及所述主题信息训练得到评论生成模型。
根据本发明一优选实施例,所述分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论包括:
针对任一关键词,从所述评论集中查找出包含所述关键词的评论;
若查找出的评论数大于一,则选出其中的一条评论作为与所述关键词相匹配的评论。
根据本发明一优选实施例,所述分别获取各关键词的主题信息包括:
针对任一关键词,分别获取所述关键词的第一向量和第二向量;其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量;
将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
根据本发明一优选实施例,所述获取所述关键词的第一向量包括:将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
根据本发明一优选实施例,所述获取所述关键词的第二向量包括:将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量以及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
一种评论生成装置,包括:第一获取单元、第二获取单元以及生成单元;
所述第一获取单元,用于获取待处理的文章中的关键词;
所述第二获取单元,用于分别获取各关键词的主题信息;
所述生成单元,用于利用预先训练得到的评论生成模型,基于所述主题信息生成所述文章的评论。
根据本发明一优选实施例,所述第二获取单元针对任一关键词,分别获取所述关键词的第一向量和第二向量,其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量,将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
根据本发明一优选实施例,所述第二获取单元将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
根据本发明一优选实施例,所述第二获取单元将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量以及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
一种评述生成模型训练装置,包括:第三获取单元、查找单元、构建单元、第四获取单元以及训练单元;
所述第三获取单元,用于获取作为训练语料的文章中的关键词;
所述查找单元,用于针对各关键词,分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论;
所述构建单元,用于利用查找出的评论与所述文章组成训练对;
所述第四获取单元,用于分别获取各关键词的主题信息;
所述训练单元,用于根据所述训练对及所述主题信息训练得到评论生成模型。
根据本发明一优选实施例,所述查找单元针对任一关键词,从所述评论集中查找出包含所述关键词的评论,若查找出的评论数大于一,则选出其中的一条评论作为与所述关键词相匹配的评论。
根据本发明一优选实施例,所述第四获取单元针对任一关键词,分别获取所述关键词的第一向量和第二向量,其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量,将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
根据本发明一优选实施例,所述第四获取单元将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
根据本发明一优选实施例,所述第四获取单元将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量以及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,可分别获取从文章中提取出的各关键词的主题信息,并可以获取到的主题信息作为引导,基于评论生成模型生成文章的评论,从而使得生成的评论与文章的主题相关联,提升了生成的评论质量等。
【附图说明】
图1为本发明所述评论生成方法实施例的流程图。
图2为本发明所述评论生成模型训练方法实施例的流程图。
图3为本发明所述评论生成模型训练及利用评论生成模型生成评论的整体方法实施例的流程图。
图4为本发明所述评论生成装置实施例的组成结构示意图。
图5为本发明所述评论生成模型训练装置实施例的组成结构示意图。
图6示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。
【具体实施方式】
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本发明所述评论生成方法实施例的流程图。如图1所示,包括以下具体实现方式。
在101中,获取待处理的文章中的关键词。
在102中,分别获取各关键词的主题信息。
在103中,利用预先训练得到的评论生成模型,基于获取到的主题信息生成文章的评论。
本实施例中,针对待生成评论的文章,可首先获取文章中的关键词,即可对待处理的文章进行关键词提取,具体方式不限。比如,可采用现有的TextRank算法,提取出待处理的文章中的重要名词作为关键词。
获取到的关键词可能为一个,也可能为多个。针对每个关键词,可分别获取其主题信息。具体地,针对任一关键词,可分别获取该关键词的第一向量和第二向量,其中,第一向量为该关键词的语义向量,第二向量为该关键词相关的文章语义向量,可将第一向量和第二向量进行拼接,从而得到一个主题向量,进而可将该主题向量作为该关键词的主题信息。
优选地,针对任一关键词,可将该关键词输入长短期记忆网络(LSTM,Long ShortTerm Memory)模型,从而得到该关键词的第一向量,即该关键词的语义向量,另外,还可将待处理的文章输入LSTM模型,从而得到待处理的文章的语义向量,进而可对该关键词的第一向量以及待处理的文章的语义向量执行注意力(attention)操作,从而得到该关键词的第二向量,即该关键词相关的文章语义向量。
如何利用LSTM模型得到该关键词的语义向量以及待处理的文章的语义向量为现有技术。基于该关键词的语义向量以及待处理的文章的语义向量,可通过执行attention操作,得到该关键词相关的文章语义向量。attention操作也可称为attention机制,其实现同样为现有技术,给定一组向量集合values,以及查询向量query,根据query向量去计算values加权和等,即称为attention机制。
针对任一关键词,在获取到该关键词的第一向量和第二向量之后,可将第一向量和第二向量进行拼接,从而得到一个主题向量,可将该主题向量作为该关键词的主题信息。所述拼接可以是指将第一向量和第二向量首尾相连,具体连接顺序可根据实际需要而定,如可以按照第二向量在前、第一向量在后的顺序进行连接。
按照上述方式,可分别得到每个关键词的主题信息,进而可利用预先训练得到的评论生成模型,基于所述主题信息生成待处理的文章的评论。
优选地,评论生成模型可为指针生成(pointer-generator)模型,pointer-generator模型在生成待处理的文章的评论时,可以所述主题信息作为引导,评论中的每个词的生成均可依赖于所述主题信息。另外,pointer-generator模型可一次生成多条评论,具体数量不限,视实际情况而定。
以上介绍的是基于评论生成模型来为待处理的文章生成评论的过程,评论生成模型可为预先训练得到,以下即对评论生成模型的具体训练过程进行说明。
图2为本发明所述评论生成模型训练方法实施例的流程图。如图2所示,包括以下具体实现方式。
在201中,获取作为训练语料的文章中的关键词。
在202中,针对各关键词,分别从文章对应的评论集中查找出至少一个与该关键词相匹配的评论。
在203中,利用查找出的评论与文章组成训练对。
在204中,分别获取各关键词的主题信息。
在205中,根据获取到的训练对及主题信息训练得到评论生成模型。
为训练得到评论生成模型,可收集一定数量的文章作为训练语料,并可同时获取各文章对应的评论集,评论集中可包含文章的各条评论。
针对作为训练语料的每篇文章(为便于表述,以下称为文章a),可首先获取其中的关键词,具体方式不限,比如,可采用现有的TextRank算法,提取出文章a中的重要名词作为关键词。提取出的关键词可能为一个,也可能为多个。
针对各关键词,可分别从文章a对应的评论集中查找出至少一个与该关键词相匹配的评论。比如,针对任一关键词,可从文章a对应的评论集中查找出包含该关键词的评论,若查找出的评论数大于一,可选出其中的一条评论作为与该关键词相匹配的评论。针对任一关键词,通常只需保留一个与该关键词相匹配的评论即可,因此当按照上述方式查找出的评论数大于一时,可选出其中的一条评论作为与该关键词相匹配的评论,选择方式不限,如可随机选出其中的一条评论,或按照预定规则选出一条评论等。针对任一关键词,若未能查找到与该关键词相匹配的评论,可丢弃该关键词。
可利用查找出的评论与文章a组成训练对(pair)。假设从文章a中提取出了5个关键词,并针对其中的4个关键词,分别查找出了一个相匹配的评论,那么则可利用这4个评论以及文章a组成训练对。按照同样的方式,可分别获取到作为训练语料的每篇文章对应的训练对。
除组成训练对外,对于从文章a中提取出的关键词,还需要分别获取各关键词的主题信息。
具体地,针对任一关键词,可分别获取该关键词的第一向量和第二向量,其中,第一向量为该关键词的语义向量,第二向量为该关键词相关的文章语义向量,可将第一向量和第二向量进行拼接,从而得到一个主题向量,进而可将该主题向量作为该关键词的主题信息。
优选地,针对任一关键词,可将该关键词输入LSTM模型,从而得到该关键词的第一向量,即该关键词的语义向量,另外,还可将文章a输入LSTM模型,从而得到文章a的语义向量,进而可对该关键词的第一向量以及文章a的语义向量执行attention操作,从而得到该关键词的第二向量,即该关键词相关的文章语义向量。按照上述方式,可分别获取到每个关键词的主题信息。
之后,可根据获取到的训练对及主题信息训练得到评论生成模型。优选地,评论生成模型可为pointer-generator模型。
综合上述介绍,图3为本发明所述评论生成模型训练及利用评论生成模型生成评论的整体方法实施例的流程图,如图3所示,包括以下具体实现方式。
在301中,获取作为训练语料的文章,针对其中的每篇文章a,分别按照302-305所示方式进行处理。
为训练得到评论生成模型,可收集一定数量的文章作为训练语料,并可同时获取各文章对应的评论集,评论集中可包含文章的各条评论。
在302中,获取文章a中的关键词。
比如,可采用现有的TextRank算法,提取出文章a中的重要名词作为关键词。提取出的关键词可能为一个,也可能为多个。
在303中,针对各关键词,分别从文章a对应的评论集中查找出一个与该关键词相匹配的评论。
比如,针对任一关键词,可从文章a对应的评论集中查找出包含该关键词的评论,若查找出的评论数大于一,那么可选出其中的一条评论作为与该关键词相匹配的评论。
在304中,利用查找出的评论与文章a组成训练对。
在305中,分别获取各关键词的主题信息。
比如,针对任一关键词,可分别获取该关键词的第一向量和第二向量,其中,第一向量为该关键词的语义向量,第二向量为该关键词相关的文章语义向量,可将第一向量和第二向量进行拼接,从而得到一个主题向量,进而可将该主题向量作为该关键词的主题信息。
在306中,根据获取到的训练对及主题信息训练得到评论生成模型。
优选地,评论生成模型可为pointer-generator模型。
在307中,获取待处理的文章中的关键词。
在308中,分别获取各关键词的主题信息。
在309中,利用评论生成模型,基于获取到的主题信息生成待处理的文章的评论。
评论生成模型在生成待处理的文章的评论时,可以获取到的主题信息作为引导,评论中的每个词的生成均可依赖于所述主题信息。
需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
总之,采用本发明方法实施例所述方案,可分别获取从文章中提取出的各关键词的主题信息,并可以获取到的主题信息作为引导,基于评论生成模型生成文章的评论,从而使得生成的评论与文章的主题相关联,提升了生成的评论质量等。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图4为本发明所述评论生成装置实施例的组成结构示意图。如图4所示,包括:第一获取单元401、第二获取单元402以及生成单元403。
第一获取单元401,用于获取待处理的文章中的关键词。
第二获取单元402,用于分别获取各关键词的主题信息。
生成单元403,用于利用预先训练得到的评论生成模型,基于获取到的主题信息生成文章的评论。
针对待处理的文章,第一获取单元401可获取其中的关键词。针对任一关键词,第二获取单元402可分别获取该关键词的第一向量和第二向量,其中,第一向量为该关键词的语义向量,第二向量为该关键词相关的文章语义向量,可将第一向量和第二向量进行拼接,得到一个主题向量,将该主题向量作为该关键词的主题信息。
其中,针对任一关键词,第二获取单元402可将该关键词输入LSTM模型,从而得到该关键词的第一向量。第二获取单元402还可将文章输入LSTM模型,从而得到文章的语义向量,进而可对该关键词的第一向量及文章的语义向量执行attention操作,从而得到该关键词的第二向量。
进一步地,生成单元403可利用预先训练得到的评论生成模型,基于获取到的主题信息生成文章的评论。
图5为本发明所述评论生成模型训练装置实施例的组成结构示意图。如图5所示,包括:第三获取单元501、查找单元502、构建单元503、第四获取单元504以及训练单元505。
第三获取单元501,用于获取作为训练语料的文章中的关键词。
查找单元502,用于针对各关键词,分别从文章对应的评论集中查找出至少一个与该关键词相匹配的评论。
构建单元503,用于利用查找出的评论与文章组成训练对。
第四获取单元504,用于分别获取各关键词的主题信息。
训练单元505,用于根据获取到的训练对及主题信息训练得到评论生成模型。
为训练得到评论生成模型,可收集一定数量的文章作为训练语料,并可同时获取各文章对应的评论集,评论集中可包含文章的各条评论。
针对作为训练语料的任一文章,第三获取单元501可从中提取出关键词。
针对任一关键词,查找单元502可从文章对应的评论集中查找出包含该关键词的评论,若查找出的评论数大于一,可选出其中的一条评论作为与该关键词相匹配的评论。构建单元503可利用查找出的评论与文章组成训练对。
另外,针对任一关键词,第四获取单元504还可获取该关键词的第一向量和第二向量,其中,第一向量为该关键词的语义向量,第二向量为该关键词相关的文章语义向量,可将第一向量和第二向量进行拼接,从而得到一个主题向量,将该主题向量作为该关键词的主题信息。
其中,第四获取单元504可将该关键词输入LSTM模型,从而得到该关键词的第一向量。第四获取单元504还可将文章输入LSTM模型,从而得到文章的语义向量,进而可对该关键词的第一向量及文章的语义向量执行attention操作,从而得到该关键词的第二向量。
训练单元505可根据获取到的训练对及主题信息训练得到评论生成模型。
图4和图5所示装置实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
总之,采用本发明装置实施例所述方案,可分别获取从文章中提取出的各关键词的主题信息,并可以获取到的主题信息作为引导,基于评论生成模型生成文章的评论,从而使得生成的评论与文章的主题相关联,提升了生成的评论质量等。
图6示出了适于用来实现本发明实施方式的示例性计算机***/服务器12的框图。图6显示的计算机***/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机***/服务器12以通用计算设备的形式表现。计算机***/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同***组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机***/服务器12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机***/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机***/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机***/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机***/服务器12交互的设备通信,和/或与使得该计算机***/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机***/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器20通过总线18与计算机***/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机***/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1、图2或图3所示实施例中的方法。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图1、图2或图3所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (20)

1.一种评论生成方法,其特征在于,包括:
获取待处理的文章中的关键词;
分别获取各关键词的主题信息;
利用预先训练得到的评论生成模型,基于所述主题信息生成所述文章的评论。
2.根据权利要求1所述的方法,其特征在于,
所述分别获取各关键词的主题信息包括:
针对任一关键词,分别获取所述关键词的第一向量和第二向量;其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量;
将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
3.根据权利要求2所述的方法,其特征在于,
所述获取所述关键词的第一向量包括:将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
4.根据权利要求2所述的方法,其特征在于,
所述获取所述关键词的第二向量包括:将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
5.一种评述生成模型训练方法,其特征在于,包括:
获取作为训练语料的文章中的关键词;
针对各关键词,分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论;
利用查找出的评论与所述文章组成训练对;
分别获取各关键词的主题信息;
根据所述训练对及所述主题信息训练得到评论生成模型。
6.根据权利要求5所述的方法,其特征在于,
所述分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论包括:
针对任一关键词,从所述评论集中查找出包含所述关键词的评论;
若查找出的评论数大于一,则选出其中的一条评论作为与所述关键词相匹配的评论。
7.根据权利要求5所述的方法,其特征在于,
所述分别获取各关键词的主题信息包括:
针对任一关键词,分别获取所述关键词的第一向量和第二向量;其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量;
将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
8.根据权利要求7所述的方法,其特征在于,
所述获取所述关键词的第一向量包括:将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
9.根据权利要求7所述的方法,其特征在于,
所述获取所述关键词的第二向量包括:将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
10.一种评论生成装置,其特征在于,包括:第一获取单元、第二获取单元以及生成单元;
所述第一获取单元,用于获取待处理的文章中的关键词;
所述第二获取单元,用于分别获取各关键词的主题信息;
所述生成单元,用于利用预先训练得到的评论生成模型,基于所述主题信息生成所述文章的评论。
11.根据权利要求10所述的装置,其特征在于,
所述第二获取单元针对任一关键词,分别获取所述关键词的第一向量和第二向量,其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量,将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
12.根据权利要求11所述的装置,其特征在于,
所述第二获取单元将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
13.根据权利要求11所述的装置,其特征在于,
所述第二获取单元将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
14.一种评述生成模型训练装置,其特征在于,包括:第三获取单元、查找单元、构建单元、第四获取单元以及训练单元;
所述第三获取单元,用于获取作为训练语料的文章中的关键词;
所述查找单元,用于针对各关键词,分别从所述文章对应的评论集中查找出至少一个与所述关键词相匹配的评论;
所述构建单元,用于利用查找出的评论与所述文章组成训练对;
所述第四获取单元,用于分别获取各关键词的主题信息;
所述训练单元,用于根据所述训练对及所述主题信息训练得到评论生成模型。
15.根据权利要求14所述的装置,其特征在于,
所述查找单元针对任一关键词,从所述评论集中查找出包含所述关键词的评论,若查找出的评论数大于一,则选出其中的一条评论作为与所述关键词相匹配的评论。
16.根据权利要求14所述的装置,其特征在于,
所述第四获取单元针对任一关键词,分别获取所述关键词的第一向量和第二向量,其中,所述第一向量为所述关键词的语义向量,所述第二向量为所述关键词相关的文章语义向量,将所述第一向量和所述第二向量进行拼接,得到主题向量,将所述主题向量作为所述关键词的主题信息。
17.根据权利要求16所述的装置,其特征在于,
所述第四获取单元将所述关键词输入长短期记忆网络模型,得到所述关键词的第一向量。
18.根据权利要求16所述的装置,其特征在于,
所述第四获取单元将所述文章输入长短期记忆网络模型,得到所述文章的语义向量,对所述关键词的第一向量及所述文章的语义向量执行注意力操作,得到所述关键词的第二向量。
19.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~9中任一项所述的方法。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~9中任一项所述的方法。
CN201910521306.4A 2019-06-17 2019-06-17 评论生成及评论生成模型训练方法、装置及存储介质 Active CN110377750B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910521306.4A CN110377750B (zh) 2019-06-17 2019-06-17 评论生成及评论生成模型训练方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910521306.4A CN110377750B (zh) 2019-06-17 2019-06-17 评论生成及评论生成模型训练方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110377750A true CN110377750A (zh) 2019-10-25
CN110377750B CN110377750B (zh) 2022-05-27

Family

ID=68248923

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910521306.4A Active CN110377750B (zh) 2019-06-17 2019-06-17 评论生成及评论生成模型训练方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110377750B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111221940A (zh) * 2020-01-03 2020-06-02 京东数字科技控股有限公司 一种文本生成方法、装置、电子设备及存储介质
CN111428489A (zh) * 2020-03-19 2020-07-17 北京百度网讯科技有限公司 一种评论生成方法、装置、电子设备及存储介质
CN111783468A (zh) * 2020-06-28 2020-10-16 百度在线网络技术(北京)有限公司 文本处理方法、装置、设备和介质
CN112667780A (zh) * 2020-12-31 2021-04-16 上海众源网络有限公司 一种评论信息的生成方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10160920A1 (de) * 2000-12-14 2002-07-18 Daimler Chrysler Ag Verfahren zur Erzeugung eines Extrakts von Dokumenten
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN106649434A (zh) * 2016-09-06 2017-05-10 北京蓝色光标品牌管理顾问股份有限公司 一种跨领域知识迁移的标签嵌入方法和装置
CN107133211A (zh) * 2017-04-26 2017-09-05 中国人民大学 一种基于注意力机制的作文评分方法
CN109558593A (zh) * 2018-11-30 2019-04-02 北京字节跳动网络技术有限公司 用于处理文本的方法和装置
CN109635150A (zh) * 2018-12-19 2019-04-16 腾讯科技(深圳)有限公司 文本生成方法、装置以及存储介质
CN109635291A (zh) * 2018-12-04 2019-04-16 重庆理工大学 一种基于协同训练的融合评分信息和物品内容的推荐方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10160920A1 (de) * 2000-12-14 2002-07-18 Daimler Chrysler Ag Verfahren zur Erzeugung eines Extrakts von Dokumenten
CN106294322A (zh) * 2016-08-04 2017-01-04 哈尔滨工业大学 一种基于lstm的汉语零指代消解方法
CN106649434A (zh) * 2016-09-06 2017-05-10 北京蓝色光标品牌管理顾问股份有限公司 一种跨领域知识迁移的标签嵌入方法和装置
CN107133211A (zh) * 2017-04-26 2017-09-05 中国人民大学 一种基于注意力机制的作文评分方法
CN109558593A (zh) * 2018-11-30 2019-04-02 北京字节跳动网络技术有限公司 用于处理文本的方法和装置
CN109635291A (zh) * 2018-12-04 2019-04-16 重庆理工大学 一种基于协同训练的融合评分信息和物品内容的推荐方法
CN109635150A (zh) * 2018-12-19 2019-04-16 腾讯科技(深圳)有限公司 文本生成方法、装置以及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111221940A (zh) * 2020-01-03 2020-06-02 京东数字科技控股有限公司 一种文本生成方法、装置、电子设备及存储介质
CN111428489A (zh) * 2020-03-19 2020-07-17 北京百度网讯科技有限公司 一种评论生成方法、装置、电子设备及存储介质
CN111428489B (zh) * 2020-03-19 2023-08-29 北京百度网讯科技有限公司 一种评论生成方法、装置、电子设备及存储介质
CN111783468A (zh) * 2020-06-28 2020-10-16 百度在线网络技术(北京)有限公司 文本处理方法、装置、设备和介质
CN111783468B (zh) * 2020-06-28 2023-08-15 百度在线网络技术(北京)有限公司 文本处理方法、装置、设备和介质
CN112667780A (zh) * 2020-12-31 2021-04-16 上海众源网络有限公司 一种评论信息的生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN110377750B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN102426607B (zh) 可扩展搜索项建议引擎
US9626622B2 (en) Training a question/answer system using answer keys based on forum content
CN110377750A (zh) 评论生成及评论生成模型训练方法、装置及存储介质
CN108334627A (zh) 新媒体内容的搜索方法、装置和计算机设备
CN109614625A (zh) 标题正文相关度的确定方法、装置、设备及存储介质
CN109474847A (zh) 基于视频弹幕内容的搜索方法、装置、设备及存储介质
WO2021029523A1 (en) Techniques for learning effective musical features for generative and retrieval-based applications
JP7355865B2 (ja) ビデオ処理方法、装置、デバイスおよび記憶媒体
CN108932066A (zh) 输入法获取表情包的方法、装置、设备和计算机存储介质
CN108932323A (zh) 实体答案的确定方法、装置、服务器及存储介质
CN109858045A (zh) 机器翻译方法和装置
CN113157959B (zh) 基于多模态主题补充的跨模态检索方法、装置及***
CN109145164A (zh) 数据处理方法、装置、设备和介质
CN110276009A (zh) 一种联想词的推荐方法、装置、电子设备及存储介质
CN109815481A (zh) 对文本进行事件抽取的方法、装置、设备和计算机存储介质
CN110019948A (zh) 用于输出信息的方法和装置
CN114040216B (zh) 直播间推荐方法、介质、装置和计算设备
CN108038172A (zh) 基于人工智能的搜索方法和装置
Tian et al. Deep cross-modal face naming for people news retrieval
WO2010132062A1 (en) System and methods for sentiment analysis
CN108846098A (zh) 一种信息流摘要生成及展示方法
CN104376034B (zh) 信息处理设备,信息处理方法和程序
CN109165283A (zh) 资源推荐方法、装置、设备及存储介质
CN109558468A (zh) 资源的处理方法、装置、设备和存储介质
CN110222147A (zh) 标签扩充方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant