CN111368066A - 获取对话摘要的方法、装置和计算机可读存储介质 - Google Patents

获取对话摘要的方法、装置和计算机可读存储介质 Download PDF

Info

Publication number
CN111368066A
CN111368066A CN201811483302.3A CN201811483302A CN111368066A CN 111368066 A CN111368066 A CN 111368066A CN 201811483302 A CN201811483302 A CN 201811483302A CN 111368066 A CN111368066 A CN 111368066A
Authority
CN
China
Prior art keywords
abstract
dialogue
dialog
conversation
sentences
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811483302.3A
Other languages
English (en)
Other versions
CN111368066B (zh
Inventor
赵楠
汪维
刘业鸿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201811483302.3A priority Critical patent/CN111368066B/zh
Publication of CN111368066A publication Critical patent/CN111368066A/zh
Application granted granted Critical
Publication of CN111368066B publication Critical patent/CN111368066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及一种获取对话摘要的方法、装置和计算机可读存储介质,涉及计算机技术领域。本公开的方法包括:获取对话信息;利用预先训练的机器学***台的客户与客服对话的摘要提取过程,可以自动的分别提取出客户的核心问题以及客服的回复,进而将客户的问题与客服的回复进行匹配,形成准确、清晰的对话摘要,提高进行对话摘要的效率。

Description

获取对话摘要的方法、装置和计算机可读存储介质
技术领域
本公开涉及计算机技术领域,特别涉及一种获取对话摘要的方法、装置和计算机可读存储介质。
背景技术
随着电子商务平台的兴起,广大消费者对电子商务平台在线客服的服务效率、体验、质量要求不断提高,这给电子商务平台的客服***提出了更高的要求。对于专业性较强或者比较复杂的业务,一个客户通常需要先后和多个客户服务(简称客服)人员或机器进行沟通后才能将问题解决。这就需要每一位客服在了解客户需求后,总结对话内容生成文本摘要,方便之后的客服快速了解客户的需求,以避免客户反复和客服解释需求。例如,根据客户提出的物流,产品质量,发错货等问题给出解决方案或转接给其他客服。当需要转接给其他客服时,其他客服需要了解客户之前的通话内容作为参考。在这一过程中,文本摘要的准确性、概括性、即时性尤为重要。
目前,客服与客户的对话摘要的工作由人工客服完成,在每通线上会话或语音会话结束后,人工客服还额外需要1-2分钟的时间完成对此次会话服务内容的总结,提取出客户的核心问题以及客服的回复。
发明内容
发明人发现:由于对话的交谈形式的特殊性,需要人工完成客户与客服对话的摘要的提取,即提取出客户的核心问题以及客服的回复。但是这种摘要方式效率很低,需要一种自动提取对话摘要的方法,提高进行对话摘要的效率。
本公开所要解决的一个技术问题是:提出一种自动提取对话摘要的方法,提高进行对话摘要的效率。
根据本公开的一些实施例,提供的一种获取对话摘要的方法,包括:获取对话信息;利用预先训练的机器学习模型从对话信息中分别确定各个对话参与方各自的对话摘要;根据语义的相似性从各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为对话信息的摘要。
在一些实施例中,利用预先训练的机器学习模型从对话信息中分别确定各个对话参与方各自的对话摘要包括:根据对话参与方的标识,将对话信息划分为各个对话参与方各自的对话信息;分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
在一些实施例中,根据语义的相似性从各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合包括:将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
在一些实施例中,确定各个候选摘要组合中的句子是否语义相似包括:将候选摘要组合中的句子按照预设规则映射为向量;根据候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。
在一些实施例中,该方法还包括:获取标注了对话摘要的对话信息作为训练样本;利用训练样本对机器学习模型进行训练。
在一些实施例中,获取标注了对话摘要的对话信息作为训练样本包括:将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。
根据本公开的另一些实施例,提供的一种获取对话摘要的装置,包括:对话获取模块,用于获取对话信息;摘要提取模块,用于利用利用预先训练的机器学习模型从对话信息中分别确定各个对话参与方各自的对话摘要;摘要确定模块,用于根据语义的相似性从各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为对话信息的摘要。
在一些实施例中,摘要提取模块用于根据对话参与方的标识,将对话信息划分为各个对话参与方各自的对话信息;分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
在一些实施例中,摘要确定模块用于将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
在一些实施例中,摘要确定模块用于将候选摘要组合中的句子按照预设规则映射为向量;根据候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。
在一些实施例中,该装置还包括:训练样本生成模块,用于获取标注了对话摘要的对话信息作为训练样本;训练模块,用于利用训练样本对机器学习模型进行训练。
在一些实施例中,训练样本生成模块用于将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。
根据本公开的又一些实施例,提供的一种获取对话摘要的装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器中的指令,执行如前述任意实施例的获取对话摘要的方法。
根据本公开的再一些实施例,提供的一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现前述任意实施例的获取对话摘要的方法。
本公开中利用预先训练的机器学***台的客户与客服对话的摘要提取过程,可以自动的分别提取出客户的核心问题以及客服的回复,进而将客户的问题与客服的回复进行匹配,形成准确、清晰的对话摘要,提高进行对话摘要的效率。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开的一些实施例的获取对话摘要的方法的流程示意图。
图2示出本公开的另一些实施例的获取对话摘要的方法的流程示意图。
图3示出本公开的一些实施例的获取对话摘要的装置的结构示意图。
图4示出本公开的另一些实施例的获取对话摘要的装置的结构示意图。
图5示出本公开的又一些实施例的获取对话摘要的装置的结构示意图。
图6示出本公开的再一些实施例的获取对话摘要的装置的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开提出一种自动的获取对话摘要的方法,下面结合图1进行描述。
图1为本公开获取对话摘要的方法一些实施例的流程图。如图1所示,该实施例的方法包括:步骤S102~S106。
在步骤S102中,获取对话信息。
应用于电子商务平台的客户与客服的对话场景,对话包含两个参与方。第一方和第二方分别为电子商务平台中客户与客户服务人员或客户与客户服务机器人等。本公开的方案也适用于其他对话场景,不限于所举示例。对话信息例如包括对话的文本或语音等。
在步骤S104中,利用预先训练的机器学习模型从对话信息中分别确定各个对话参与方各自的对话摘要。
在对话信息为语音的情况下,可以利用现有模型将语音转换为文本后再确定对话摘要。预先训练的机器学习模型例如为现有的文本摘要模型。进一步,应用于客户与客服对话的场景,由于对话中句子长度一般较短,因此,预先训练的机器学习模型可以为现有的抽取式文本摘要模型,即从对话信息中找出可以作为摘要的句子。
在一些实施例中,根据对话参与方的标识,将对话信息划分为各个对话参与方各自的对话信息;分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
例如,在对话参与方为两个的情况下,根据对话双方的标识,将对话信息划分为第一方的对话信息和第二方的对话信息;将第一方的对话信息中的各个句子输入预先训练的机器学习模型确定第一方对应的各个句子属于摘要句子的概率,并且将第二方的对话信息中的各个句子输入预先训练的机器学习模型确定第二方对应的各个句子属于摘要句子的概率;分别根据第一方对应的各个句子属于摘要句子的概率和第二方对应的各个句子属于摘要句子的概率,选取句子作为第一方的对话摘要和第二方的对话摘要。
对话信息会被划分为多个部分,每一部分是属于一个参与方的对话信息。例如,在对话参与方为两个的情况下,一部分是第一方的所有对话信息,另一部分是第二方的所有对话信息。各个对话参与方各自的对话信息中被分别输入预先训练的机器学习模型,从而分别得到预先训练的机器学习模型输出的各个对话参与方的对话摘要。进一步,例如,将各个对话参与方的对话信息中的各个句子进行分词,并确定每个分词的词向量,将各个分词的词向量输入预先训练的机器学习模型。
下面以预先训练的机器学习模型为SummaRuNNer(A Recurrent Neural Networkbased Sequence Model for Extractive Summarization of Documents,一种基于循环神经网络的文档摘要提取模型),并且对话参与方有两个为例,描述步骤S104的实施例。
将对话信息划分为第一方的对话信息和第二方的对话信息。将第一方的对话信息和第二方的对话信息中的各个句子进行分词。确定第一方的对话信息中的分词的词向量和第二方的对话信息中的分词的词向量。例如采用word2vec算法确定分词的词向量。将第一方的对话信息中的分词的词向量输入SummaRuNNer,得到第一方的对话信息中各个句子属于摘要句子的概率。概率大于阈值的句子被选取作为第一方的对话摘要。将第二方的对话信息中的分词的词向量输入SummaRuNNer,得到第二方的对话信息中各个句子属于摘要句子的概率。概率大于阈值的句子被选取作为第二方的对话摘要。或者SummaRuNNer可以被配置为从对话信息的句子中选取预设比例的句子作为摘要句子,例如,从5个对话句子中选取1个作为摘要句子。
SummaRuNNer由两层双向GRU-RNN(Gated Recurrent Units-Recurrent NeuralNetwork,门控循环单元-循环神经网络)组成。GRU-RNN的第一层在词一级进行运算,基于每一个词的词向量和前文的隐态,计算出每一个词的隐含状态表达。同时,使用另外一个RNN在词一级运算,从句尾出发到句头,并将此RNN同前一个RNN拼接成一个双向RNN。模型的第二层同样由一个双向RNN组成,它在句子层面运行计算,它的隐态表示文本中的句子,它将第一层双向RNN的输出作为输入。最终,整个文本被表示成一个句子层面的双向RNN的非线性转换。顶层是基于sigmoid激活函数的分类层,用来决定每个句子是否属于摘要句子。分类取决于句子的内容丰富程度,其内容关于文件的相关性,以及句子关于文件的新颖性。由于SummaRuNNer属于现有模型,在此不再赘述。
在步骤S106中,根据语义的相似性从各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为对话信息的摘要。
例如,在对话参与方为两个的情况下,从第一方的对话摘要和第二方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为对话信息的摘要。
由于对话中上下文语句一般语义相关性较强,因此,可以利用语义的相似性将对话双方的对话摘要进行匹配,从而确定最终的对话信息的摘要。
在一些实施例中,将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
例如,在对话参与方为两个的情况下,将第一方的对话摘要中的句子与第二方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
例如,第一方的对话摘要包含两个句子{Q1,Q2},第二方的对话摘要包含三个句子{A1,A2,A3}。得到所有候选摘要组合是如下六种,
{Q1,A1},{Q1,A2},{Q1,A3},{Q2,A1},{Q2,A2},{Q2,A3}。对于每个候选摘要组合中的两个句子计算语义相似度,如果语义相似度大于阈值,则认为两个句子的语义相似,选取句子语义相似的的候选摘要组合作为对话摘要组合。
在一些实施例中,将候选摘要组合中的句子按照预设规则映射为向量;根据候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。即计算两个句子的向量的距离作为两个句子的语义相似度。
可以采用现有的语义相似度计算模型从各个对话参与方的对话摘要中匹配相关的摘要内容。例如,可以采用。DSSM(Deep Structured Semantic Models,深层结构语义模型)从各个对话参与方的对话摘要中匹配相关的摘要内容。DSSM的原理是通过DNN(DeepNeural Network,深度神经网络)把两个句子分别表达为低维的语义向量,再通过cosine距离来计算两个语义向量的距离,最终确定两个句子的语义相似度。该模型既可以用来预测两个句子的语义相似度,又可以获得某句子的低纬语义向量表达。DSSM从下往上可以分为三层结构:输入层、表示层、匹配层。输入层做的事情是把句子映射到一个向量空间里并输入到DNN中。DSSM的表示层采用BOW(Bag of words,词袋)的方式,相当于把字向量的位置信息抛弃了,整个句子里的词都放在一个袋子里了,不分先后顺序。最后,两个句子的语义相似性可以用这两个语义向量的cosine距离来表示。通过softmax函数可以把两个句子之间的语义相似性转化为一个后验概率,进而根据概率确定两个句子是否语义相似。DSSM属于现有模型,在此不再进行赘述。
需要注意的是,确定各个对话参与方的对话摘要的模型,以及从各个对话参与方的对话摘要中匹配相关的摘要内容的模型,可以采用现有的任意文本摘要模型和文本相似度计算模型,不限于上述所举示例。
上述实施例的方法中利用预先训练的机器学***台的客户与客服对话的摘要提取过程,可以自动的分别提取出客户的核心问题以及客服的回复,进而将客户的问题与客服的回复进行匹配,形成准确、清晰的对话摘要,提高进行对话摘要的效率。
本公开还提供一些对模型进行训练阶段的实施例,下面结合图2进行描述。
图2为本公开获取对话摘要的方法一些实施例的流程图。如图2所示,该实施例的方法包括:步骤S202~S204。
在步骤S202中,获取标注了对话摘要的对话信息作为训练样本。
针对客户与客服对话的场景,电子商务平台中可以对每一次对话的内容存储入数据库,并标记唯一编号,通过编号可以找到该次对话的内容。现有技术中工作人员可以针对每次对话总结对话摘要并存储如数据库。可以利用数据库中的数据,生成训练样本。但是由于人工总结的对话摘要可能不是对话中的原始句子,所以需要结合原始对话内容和人工总结的对话摘要进行一定的处理后得到训练样本。
在一些实施例中,将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。例如,一段对话信息中包含5个句子,人工生成的对话摘要为1个句子,则将对话信息中5个句子分别与人工生成的对话摘要的1个句子计算匹配分数,选取匹配分数最高的句子打上一个标签(例如,1)表示该句子为正样本,其他句子打上一个标签(例如,0)表示该句子为负样本。
进一步,可以将对话信息中的每个句子与人工生成的对话摘要,按照预设字符数划分为多个词,根据对话信息中的每个句子与人工生成的对话摘要中出现的相同词的个数确定匹配分数。例如,可以计算训练用的对话信息中的每个句子与人工生成的对话摘的Rouge值,作为匹配分数。也可以采用其他的自动摘要评价方法计算对话信息中的每个句子与人工生成的对话摘要的匹配分数,不限于所举示例。
在一些实施例中,根据对话参与方的标识,将对话信息划分为对话参与方各自的对话信息;每一参与方的对话信息均可作为一个训练样本。
在步骤S204中,利用训练样本对机器学习模型进行训练。
将训练样本的各个句子输入机器学习模型输出各个句子属于摘要句子的概率;根据输出的概率与标注信息计算损失函数;调整机器学习模型的参数,直至损失函数值达到最小,则完成训练。
例如,机器学习模型为SummaRuNNer,则将训练样本的各个句子进行分词,并且确定各个分词的词向量;将训练样本的词向量输入SummaRuNNer,输出各个句子属于摘要句子的概率;根据输出的概率与标注信息计算交叉熵(Cross Entropy),调整SummaRuNNer的参数,直至交叉熵达到最小,则完成训练。
上述实施例的方法,可以利用现有的数据自动生成训练样本,减少了人工重复性标注的过程,提高了训练样本生成效率和模型的训练效率。
还可以利用人工标注的对话摘要组合对语义相似度确定模型进行训练。例如,上述训练用的对话信息中已经提取了对话摘要,可以人工标注对话双方的对话摘要中的语义相似的句子组合作为正样本,其他对话双方的对话摘要的句子组合作为负样本。将各个句子组合输入语义相似度确定模型输出组合中的句子的匹配分数;根据输出的匹配分数与标注信息计算损失函数;调整语义相似度确定模型的参数,直至损失函数值达到最小,则完成训练。
例如,语义相似度确定模型为DSSM,将标注后的各个句子组合输入DSSM,进而得到两个句子的向量,计算两个向量的cosine距离,从而输出两个句子之间的语义相似性转化的一个后验概率,根据输出的概率与标注信息计算损失函数;调整DSSM的参数,直至损失函数值达到最小,则完成训练。
本公开还提供一种获取对话摘要的装置,下面结合图3进行描述。
图3为本公开获取对话摘要的装置的一些实施例的结构图。如图3所示,该实施例的装置30包括:对话获取模块302,摘要提取模块304,摘要确定模块306。
对话获取模块302,用于获取对话信息。
摘要提取模块304,用于利用利用预先训练的机器学习模型从对话信息中分别确定各个对话参与方各自的对话摘要。
在一些实施例,摘要提取模块304用于根据对话参与方的标识,将对话信息划分为各个对话参与方各自的对话信息;分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
摘要确定模块306,用于根据语义的相似性从各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为对话信息的摘要。
在一些实施例,摘要确定模块306用于将将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
在一些实施例,摘要确定模块306用于将候选摘要组合中的句子按照预设规则映射为向量;根据候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。
下面结合图4进行描述本公开的获取对话摘要的装置的另一些实施例。
图4为本公开获取对话摘要的装置的另一些实施例的结构图。如图4所示,该实施例的装置40包括:对话获取模块402,摘要提取模块404,摘要确定模块406分别与对话获取模块302,摘要提取模块304,摘要确定模块306的功能相同或相似;以及训练样本生成模块408,训练模块410。
训练样本生成模块408用于获取标注了对话摘要的对话信息作为训练样本。
在一些实施例中,训练样本生成模块408用于将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。
训练模块410用于利用训练样本对机器学习模型进行训练。
本公开的实施例中的获取对话摘要的装置可各由各种计算设备或计算机***来实现,下面结合图5以及图6进行描述。
图5为本公开获取对话摘要的装置的一些实施例的结构图。如图5所示,该实施例的装置50包括:存储器510以及耦接至该存储器510的处理器520,处理器520被配置为基于存储在存储器110中的指令,执行本公开中任意一些实施例中的获取对话摘要的方法。
其中,存储器510例如可以包括***存储器、固定非易失性存储介质等。***存储器例如存储有操作***、应用程序、引导装载程序(Boot Loader)、数据库以及其他程序等。
图6为本公开获取对话摘要的装置的另一些实施例的结构图。如图6所示,该实施例的装置60包括:存储器610以及处理器620,分别与存储器510以及处理器520类似。还可以包括输入输出接口630、网络接口640、存储接口650等。这些接口630,640,650以及存储器610和处理器620之间例如可以通过总线660连接。其中,输入输出接口630为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口640为各种联网设备提供连接接口,例如可以连接到数据库服务器或者云端存储服务器等。存储接口650为SD卡、U盘等外置存储设备提供连接接口。
本领域内的技术人员应当明白,本公开的实施例可提供为方法、***、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (14)

1.一种获取对话摘要的方法,包括:
获取对话信息;
利用预先训练的机器学习模型从所述对话信息中分别确定各个对话参与方各自的对话摘要;
根据语义的相似性从所述各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为所述对话信息的摘要。
2.根据权利要求1所述的获取对话摘要的方法,其中,
所述利用预先训练的机器学习模型从所述对话信息中分别确定各个对话参与方各自的对话摘要包括:
根据对话参与方的标识,将所述对话信息划分为各个对话参与方各自的对话信息;
分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;
分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
3.根据权利要求1所述的获取对话摘要的方法,其中,
所述根据语义的相似性从所述各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合包括:
将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;
确定各个候选摘要组合中的句子是否语义相似;
将句子语义相似的候选摘要组合作为对话摘要组合。
4.根据权利要求3所述的获取对话摘要的方法,其中,
所述确定各个候选摘要组合中的句子是否语义相似包括:
将候选摘要组合中的句子按照预设规则映射为向量;
根据所述候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。
5.根据权利要求1-4任一项所述的获取对话摘要的方法,还包括:
获取标注了对话摘要的对话信息作为训练样本;
利用所述训练样本对机器学习模型进行训练。
6.根据权利要求5所述的获取对话摘要的方法,其中,
所述获取标注了对话摘要的对话信息作为训练样本包括:
将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;
将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。
7.一种获取对话摘要的装置,包括:
对话获取模块,用于获取对话信息;
摘要提取模块,用于利用利用预先训练的机器学习模型从所述对话信息中分别确定各个对话参与方各自的对话摘要;
摘要确定模块,用于根据语义的相似性从所述各个对话参与方的对话摘要中匹配相关的摘要内容,生成对话摘要组合作为所述对话信息的摘要。
8.根据权利要求7所述的获取对话摘要的装置,其中,
所述摘要提取模块用于根据对话参与方的标识,将所述对话信息划分为各个对话参与方各自的对话信息;分别将各个对话参与方各自的对话信息中的各个句子输入预先训练的机器学习模型确定对话参与方对应的各个句子属于摘要句子的概率;分别根据各个对话参与方对应的各个句子属于摘要句子的概率,选取句子作为对话参与方的对话摘要。
9.根据权利要求7所述的获取对话摘要的装置,其中,
所述摘要确定模块用于将不同对话参与方的对话摘要中的句子两两进行组合,得到所有候选摘要组合;确定各个候选摘要组合中的句子是否语义相似;将句子语义相似的候选摘要组合作为对话摘要组合。
10.根据权利要求9所述的获取对话摘要的装置,其中,
所述摘要确定模块用于将候选摘要组合中的句子按照预设规则映射为向量;根据所述候选摘要组合中的两个句子的向量的距离,确定两个句子是否相似。
11.根据权利要求7-10任一项所述的获取对话摘要的装置,还包括:
训练样本生成模块,用于获取标注了对话摘要的对话信息作为训练样本;
训练模块,用于利用所述训练样本对机器学习模型进行训练。
12.根据权利要求11所述的获取对话摘要的装置,其中,
所述训练样本生成模块用于将训练用的对话信息中的每个句子与人工生成的对话摘要进行相似性匹配,得到匹配分数;将匹配分数最高的句子标注为对话摘要正样本,并将其他句子标注为对话摘要负样本。
13.一种获取对话摘要的装置,包括:
存储器;以及
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1-6任一项所述的获取对话摘要的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现权利要求1-6任一项所述方法的步骤。
CN201811483302.3A 2018-12-06 2018-12-06 获取对话摘要的方法、装置和计算机可读存储介质 Active CN111368066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811483302.3A CN111368066B (zh) 2018-12-06 2018-12-06 获取对话摘要的方法、装置和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811483302.3A CN111368066B (zh) 2018-12-06 2018-12-06 获取对话摘要的方法、装置和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111368066A true CN111368066A (zh) 2020-07-03
CN111368066B CN111368066B (zh) 2024-02-09

Family

ID=71205905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811483302.3A Active CN111368066B (zh) 2018-12-06 2018-12-06 获取对话摘要的方法、装置和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111368066B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114490976A (zh) * 2021-12-30 2022-05-13 北京百度网讯科技有限公司 对话摘要训练数据的生成方法、装置、设备及存储介质
EP4064110A1 (en) * 2021-03-24 2022-09-28 Samsung SDS Co., Ltd. Apparatus and method for training dialogue summary model
WO2023185912A1 (zh) * 2022-04-01 2023-10-05 北京沃东天骏信息技术有限公司 对话摘要生成方法和装置、模型训练方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1828609A (zh) * 2006-04-13 2006-09-06 北大方正集团有限公司 一种基于簇排列的面向主题或查询的多文档摘要方法
JP2011028638A (ja) * 2009-07-28 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> 要約文作成装置、要約文作成方法、プログラム
CN106407178A (zh) * 2016-08-25 2017-02-15 中国科学院计算技术研究所 一种会话摘要生成方法及装置
CN108388597A (zh) * 2018-02-01 2018-08-10 深圳市鹰硕技术有限公司 会议摘要生成方法以及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1828609A (zh) * 2006-04-13 2006-09-06 北大方正集团有限公司 一种基于簇排列的面向主题或查询的多文档摘要方法
JP2011028638A (ja) * 2009-07-28 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> 要約文作成装置、要約文作成方法、プログラム
CN106407178A (zh) * 2016-08-25 2017-02-15 中国科学院计算技术研究所 一种会话摘要生成方法及装置
CN108388597A (zh) * 2018-02-01 2018-08-10 深圳市鹰硕技术有限公司 会议摘要生成方法以及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4064110A1 (en) * 2021-03-24 2022-09-28 Samsung SDS Co., Ltd. Apparatus and method for training dialogue summary model
CN114490976A (zh) * 2021-12-30 2022-05-13 北京百度网讯科技有限公司 对话摘要训练数据的生成方法、装置、设备及存储介质
WO2023185912A1 (zh) * 2022-04-01 2023-10-05 北京沃东天骏信息技术有限公司 对话摘要生成方法和装置、模型训练方法和设备

Also Published As

Publication number Publication date
CN111368066B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
US20200193217A1 (en) Method for determining sentence similarity
CN113313022B (zh) 文字识别模型的训练方法和识别图像中文字的方法
CN110717325B (zh) 文本的情感分析方法、装置、电子设备及存储介质
CN111858843B (zh) 一种文本分类方法及装置
CN113657274B (zh) 表格生成方法、装置、电子设备及存储介质
CN111368066B (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN113051380B (zh) 信息生成方法、装置、电子设备和存储介质
CN113094478B (zh) 表情回复方法、装置、设备及存储介质
CN108205524B (zh) 文本数据处理方法和装置
CN113836303A (zh) 一种文本类别识别方法、装置、计算机设备及介质
CN114647713A (zh) 基于虚拟对抗的知识图谱问答方法、设备及存储介质
CN116994021A (zh) 图像检测方法、装置、计算机可读介质及电子设备
CN115408488A (zh) 用于小说场景文本的分割方法及***
CN113705207A (zh) 语法错误识别方法及装置
CN112380861A (zh) 模型训练方法、装置及意图识别方法、装置
CN114528851B (zh) 回复语句确定方法、装置、电子设备和存储介质
CN115859121A (zh) 文本处理模型训练方法及装置
CN115547514A (zh) 一种致病基因排序方法、装置、电子设备和介质
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质
CN113704623A (zh) 一种数据推荐方法、装置、设备及存储介质
CN114676705A (zh) 一种对话关系处理方法、计算机及可读存储介质
CN113935387A (zh) 文本相似度的确定方法、装置和计算机可读存储介质
CN117235234B (zh) 对象信息获取方法、装置、计算机设备和存储介质
CN116227496B (zh) 一种基于深度学习的电力舆情实体关系抽取方法及***
CN117216257A (zh) 一种文本识别模型的训练方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant