CN113761142A - 一种生成答案摘要的方法和装置 - Google Patents

一种生成答案摘要的方法和装置 Download PDF

Info

Publication number
CN113761142A
CN113761142A CN202011025814.2A CN202011025814A CN113761142A CN 113761142 A CN113761142 A CN 113761142A CN 202011025814 A CN202011025814 A CN 202011025814A CN 113761142 A CN113761142 A CN 113761142A
Authority
CN
China
Prior art keywords
word
answer
vector
question
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011025814.2A
Other languages
English (en)
Inventor
胡珅健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Wodong Tianjun Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Wodong Tianjun Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN202011025814.2A priority Critical patent/CN113761142A/zh
Publication of CN113761142A publication Critical patent/CN113761142A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种生成答案摘要的方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;分别将所述多个答案句子与所述查询问题组合,得到多个问答对;基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。该实施方式提高了答案摘要的精度,扩大了使用范围,克服了近义词问题和由于错别字引入的未登录词问题。

Description

一种生成答案摘要的方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种生成答案摘要的方法和装置。
背景技术
答案摘要是指在互联网普及的现状下,用户在需要了解某个问题时通过搜索引擎直接搜索,搜索引擎直接返回问题的简要核心回答,帮助用户更快捷的获取信息。目前,通常通过基于词典、统计的方式,识别句子中出现的核心词汇、短语等,提炼出词频等特征,选择统计分数较高的句子生成答案摘要,或者通过语义传达、复述等方式构建原始文档的摘要。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:用户知识水平参差不齐,会导致问答数据中经常出现错别字,而错别字会引入未登录词(未登录词即没有被收录在分词词表中但必须切分出来的词,包括各类专有名词如人名、地名、企业名等,还有缩写词、新增词汇等等),使用通用分词工具分词,会造成词向量精度的损失,数据泛化能力较差,影响特征抽取的精度,影响摘要的准确性,也不能很好的处理近义词;识别语义的方式,对手动构造特征的质量有较大的依赖性,具有局限性,浮动性较大。
发明内容
有鉴于此,本发明实施例提供一种生成答案摘要的方法和装置,能够提取句子深度语义表达,克服了由于近义词而导致的准确度低的问题,引入了字向量,克服了由于错别字引入的未登录词问题,提高了答案摘要的精度,适用范围广。
为实现上述目的,根据本发明实施例的一个方面,提供了一种生成答案摘要的方法,包括:
获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
可选地,对所述原始答案文本进行切割包括:确定所述原始答案文本中的标点符号;根据所述标点符号,对所述原始答案文本进行切割。
可选地,基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量包括:
对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;
对所述问答对进行分词操作,得到多个词;
基于所述多个词,确定所述字所在词;
基于预设的词向量查找表,确定所述字所在词的词向量;
计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
可选地,所述预设的神经网络模型根据如下过程获得:
获取训练数据集,所述训练数据集中包括多个样本数据;
基于所述样本数据中每个待训练字的字向量和所述待训练字所在词的词向量,确定所述待训练字的分布式语义向量,将所述待训练字的分布式语义向量输入多尺度卷积层,得到所述样本数据的特征向量;
对所述样本数据的特征向量进行降采样,得到所述样本数据的语义向量;
对所述语义向量进行训练,得到所述预设的神经网络模型。
可选地,所述样本数据包括问题数据、与所述问题数据对应的正向答案数据和与所述问题数据对应的负向答案数据;所述样本数据的语义向量包括所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量;
对所述语义向量进行训练,得到所述预设的神经网络模型包括:
利用Pairwise方法和最大间隔距离函数训练所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量,得到所述预设的神经网络模型。
可选地,所述最大间隔距离函数的计算过程如下:
利用所述问题数据的语义向量和所述正向答案数据的语义向量,计算所述问题数据与所述正向答案数据的语义相似度,并将所述问题数据与所述正向答案数据的语义相似度作为第一语义相似度;
利用所述问题数据的语义向量和所述负向答案数据的语义向量,计算所述问题数据与所述负向答案数据的语义相似度,并将所述问题数据与所述负向答案数据的语义相似度作为第二语义相似度;
计算所述第一语义相似度与所述第二语义相似度的差值;
利用合页损失函数、所述第一语义相似度与所述第二语义相似度的差值和预设的间隔距离阈值,计算所述第一语义相似度与所述第二语义相似度的最大间隔距离。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种生成答案摘要的装置,包括:
分割模块,用于获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
组合模块,用于分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
向量确定模块,用于基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
相似度确定模块,用于基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
摘要生成模块,用于根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
可选地,所述分割模块还用于:将确定所述原始答案文本中的标点符号;根据所述标点符号,对所述原始答案文本进行切割。
可选地,所述向量确定模块还用于:对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;对所述问答对进行分词操作,得到多个词;基于所述多个词,确定所述字所在词;基于预设的词向量查找表,确定所述字所在词的词向量;计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
所述装置还包括模型训练模块,用于:获取训练数据集,所述训练数据集中包括多个样本数据;基于所述样本数据中每个待训练字的字向量和所述待训练字所在词的词向量,确定所述待训练字的分布式语义向量,将所述分布式语义向量输入多尺度卷积层,得到所述样本数据的特征向量;对所述样本数据的特征向量进行降采样,得到所述样本数据的语义向量;对所述语义向量进行训练,得到所述预设的神经网络模型。
可选地,所述样本数据包括问题数据、与所述问题数据对应的正向答案数据和与所述问题数据对应的负向答案数据;所述样本数据的语义向量包括所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量;
所述模型训练模块还用于:利用Pairwise方法和最大间隔距离函数训练所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量,得到所述预设的神经网络模型。
可选地,所述最大间隔距离函数的计算过程如下:
利用所述问题数据的语义向量和所述正向答案数据的语义向量,计算所述问题数据与所述正向答案数据的语义相似度,并将所述问题数据与所述正向答案数据的语义相似度作为第一语义相似度;
利用所述问题数据的语义向量和所述负向答案数据的语义向量,计算所述问题数据与所述负向答案数据的语义相似度,并将所述问题数据与所述负向答案数据的语义相似度作为第二语义相似度;
计算所述第一语义相似度与所述第二语义相似度的差值;
利用合页损失函数、所述第一语义相似度与所述第二语义相似度的差值和预设的间隔距离阈值,计算所述第一语义相似度与所述第二语义相似度的最大间隔距离。
为实现上述目的,根据本发明实施例的又一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的生成答案摘要的方法。
为实现上述目的,根据本发明实施例的又一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的生成答案摘要的方法。
上述发明中的一个实施例具有如下优点或有益效果:因为通过获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;分别将所述多个答案句子与所述查询问题组合,得到多个问答对;基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要的技术手段,能够提取句子深度语义表达,克服了由于近义词而导致的准确度低的问题,引入了字向量,克服了由于错别字引入的未登录词问题,提高了答案摘要的精度,适用范围广。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是本发明一实施例的生成答案摘要的方法的主要流程的示意图;
图2是本发明一实施例的生成答案摘要的方法的主要流程的示意图;
图3是本发明另一实施例的生成答案摘要的方法的主要流程的示意图;
图4是本发明实施例的生成答案摘要的方法的主要流程的示意图;
图5是本发明又一实施例的生成答案摘要的方法的主要流程的示意图;
图6是本发明实施例的生成答案摘要的方法的主要流程的示意图;
图7是本发明实施例的生成答案摘要的装置的主要模块的示意图;
图8是本发明实施例可以应用于其中的示例性***架构图;
图9是适于用来实现本发明实施例的终端设备或服务器的计算机***的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1和图2是本发明实施例的生成答案摘要的方法的主要流程的示意图。其中,答案摘要是指能简明、确切的记述原始答案要点的文本,是从答案段落中选取的句子。如图1和图2所示,该方法包括:
步骤S101:获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子。
在本步骤中,原始答案文本可以是一个包含多个句子的长句或段落。而本申请的目的是从原始答案文本中抽取答案摘要,所以需要将将长句或段落切割成独立的答案句子。为了保证答案句子的完整性需要按照一定规则切割,在可选的实施例中,可以根据如下过程进行切割:
确定所述原始答案文本中的标点符号;
根据所述标点符号,对所述原始答案文本进行切割。
其中,标点符号可以包括分号、冒号、句号和叹号等。
步骤S102:分别将所述多个答案句子与所述查询问题组合,得到多个问答对。
步骤S103:基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量。
该步骤用于抽取查询问题和答案句子的特征。具体的,如图3所示,该过程包括:
步骤301:对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;
步骤S302:对所述问答对进行分词操作,得到多个词;
步骤S303:基于所述多个词,确定所述字所在词;
步骤S304:基于预设的词向量查找表,确定所述字所在词的词向量;
步骤S305:计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
其中,上述预设的字向量查找表可以根据如下过程获得:爬取网络平台的问答数据,对该问答数据进行预处理(例如去除标点符号及停用词,如“啊,吧,的”等),然后按字切分,并使用Word2Vec工具对每个字进行训练,从而得到字向量查找表。Word2Vec是用来产生词向量的相关模型。上述预设的词向量查找表可以根据如下过程获取:将上述预处理后的问答数据按词切分(例如使用jieba等通用分词工具分词),使用Word2Vec工具对每个词进行训练,从而得到词向量查找表。
对于步骤S302,可以使用jieba等通用分词工具分词对问答对进行分词操作。
对于步骤S305,如下式(1)所示,采用二均值的浅层混合方法获得字xi的分布式语义向量:
Figure BDA0002702093410000081
其中,xim表示字xi的分布式语义向量,xic表示字xi的字向量,xiv表示字xi的词向量。
在本实施例中,使用二均值的浅层混合方法获得字的分布式语义向量,在一定程度上可以克服由于错别字产生的未登录词问题。其中,未登录词即没有被收录在分词词表中但必须切分出来的词,包括各类专有名词(人名、地名、企业名等)、缩写词、新增词汇等等。
步骤S104:基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度。其中,图2中的分数1即句子1与问题的语义相似度,分数2即句子2与问题的语义相似度,分数3即句子3与问题的语义相似度。
具体的,如图4所示,该过程包括:
(1)将该分布式语义向量输入预设的神经网络模型,其中,图4中的MixedEmbedding是指获得查询问题和答案句子中每个字的分布式语义向量。
该神经网络模型通过多尺度卷积层(Convolutional Filters),将该分布式语义向量映射成为一个新的特征向量。该步骤相当于对问答对的语义进行更深层次的抽象。其中,在现有技术中卷积层是将句中连续词的词向量以卷积窗口为单位进行串接,然后将这个向量通过某种映射函数映射成为一个新的局部特征向量。与现有技术不同的是,在本实施例中通过卷积层将字的分布式语义向量映射为新的特征向量;考虑到语言表达结构的多样性,本实施例中的卷积层采用的是多尺度卷积核。多尺度实际上是对数据的不同粒度的采样,通常在不同的尺度下可以观察到不同的特征。
(2)对得到的特征向量进行降采样(Max pooling),得到固定大小的语义向量;
(3)利用向量空间的Cosine值(余弦值)来衡量问答对中的查询问题与答案句子之间的语义相似度。
步骤S105:根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
具体的,可以按照语义相似度从大到小的顺序排列该答案句子,选择前N个答案句子组成答案摘要(N为整数,例如3)。或者限定答案摘要的字数,按照语义相似度从大到小的顺序选择答案句子,超过就停止选择。
本发明实施例的生成答案摘要的方法,通过获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;分别将所述多个答案句子与所述查询问题组合,得到多个问答对;基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述问答对中每个字的分布式语义向量确定所述字的分布式语义向量;基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要的技术手段,能够提取句子深度语义表达,克服了由于近义词而导致的准确度低的问题,引入了字向量,克服了由于错别字引入的未登录词问题,提高了答案摘要的精度,适用范围广。
在可选的实施例中,如图5和图6所示,该预设的神经网络模型根据如下步骤获得:
步骤S501:获取训练数据集,所述训练数据集中包括多个样本数据。
具体的,可以通过如下过程获得训练数据集:爬取网络平台的问答数据,对该问答数据进行预处理,以去除该问答数据中的标点符号和停用词;对问答数据进行数据标注,将每条问答数据转换成如下格式:index{label qid question_content answer_content},其中label取值为0或1,0表示非正确答案,1表示为正确答案。对于问答数据中的每一个问题qi,存在一个正确答案
Figure BDA0002702093410000101
将该正确答案
Figure BDA0002702093410000102
作为该问题的正向答案(假如一个问题存在多个正确答案,随机的选取其中一个),然后随机地从其他问题中抽取答案作为负向答案
Figure BDA0002702093410000103
得到一个三元组
Figure BDA0002702093410000104
将该三元组作为样本数据,进而得到训练数据集。
步骤S502:基于所述样本数据中每个待训练字的字向量和所述待训练字所在词的词向量,确定所述待训练字的分布式语义向量,将所述待训练字的分布式语义向量输入多尺度卷积层,得到所述样本数据的特征向量。其中,样本数据的特征向量包括问题数据的特征向量、正向答案数据的特征向量和负向答案数据的特征向量。
在该步骤中,可以通过预设的字向量查找表和词向量查找表,确定样本数据中每个字的字向量和该字所在词的词向量,基于该字向量和词向量确定该字的分布式语义向量。其中,预设的字向量查找表可以根据如下过程获得:爬取网络平台的问答数据,对该问答数据进行预处理(例如去除标点符号及停用词,如“啊,吧,的”等),然后按字切分,并使用Word2Vec工具对每个字进行训练,从而得到字向量查找表。Word2Vec是用来产生词向量的相关模型。上述预设的词向量查找表可以根据如下过程获取:将上述预处理后的问答数据按词切分(例如使用jieba等通用分词工具分词),使用Word2Vec工具对每个词进行训练,从而得到词向量查找表。
将得到的分布式语义向量通过多尺度卷积层(Convolutional Filters),映射成为一个新的特征向量。该步骤相当于对问答对的语义进行更深层次的抽象。其中,在现有技术中卷积层是将句中连续词的词向量以卷积窗口为单位进行串接,然后将这个向量通过某种映射函数映射成为一个新的局部特征向量。与现有技术不同的是,在本实施例中通过卷积层将字的分布式语义向量映射为新的特征向量;考虑到语言表达结构的多样性,本实施例中的卷积层采用的是多尺度卷积核。多尺度实际上是对数据的不同粒度的采样,通常在不同的尺度下可以观察到不同的特征。
步骤S503:对所述样本数据的特征向量进行降采样,得到所述样本数据的语义向量。在本步骤中对得到的特征向量进行降采样(Max pooling),得到固定大小的语义向量。其中,样本数据的语义向量包括问题数据的语义向量、正向答案数据的语义向量和负向答案数据的语义向量。
步骤S504:对所述语义向量进行训练,得到所述预设的神经网络模型。
具体的,利用Pairwise方法和最大间隔距离函数训练所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量,得到所述预设的神经网络模型。
更具体的,利用向量空间的Cosine值来衡量问答对之间的语义相似度。由于问答对本身具有成对属性,在基于语义层面来计算语义相似度的方法下,一个问题和候选答案相似与否,需要通过相应的策略与其他同类对象作比较才能更好地确定哪一个更匹配。因此采用Pairwise方法和最大间隔距离函数来训练模型。其中,最大间隔距离函数的计算过程如下:
利用所述问题数据的语义向量和所述正向答案数据的语义向量,计算所述问题数据与所述正向答案数据的语义相似度,并将所述问题数据与所述正向答案数据的语义相似度作为第一语义相似度;
利用所述问题数据的语义向量和所述负向答案数据的语义向量,计算所述问题数据与所述负向答案数据的语义相似度,并将所述问题数据与所述负向答案数据的语义相似度作为第二语义相似度;
计算所述第一语义相似度与所述第二语义相似度的差值;
利用合页损失函数、所述第一语义相似度与所述第二语义相似度的差值和预设的间隔距离阈值,计算所述第一语义相似度与所述第二语义相似度的最大间隔距离。
具体的,该最大间隔距离函数如下式(2)所示:
Figure BDA0002702093410000121
其中,qi表示问题数据,
Figure BDA0002702093410000122
表示与所述问题数据对应的正向答案数据,
Figure BDA0002702093410000123
表示与所述问题数据对应的反向答案数据,{}+表示合页损失函数,下标为“+”表示取正值,margin表示预设的间隔距离阈值,
Figure BDA0002702093410000124
表示所述问题数据与所述正向答案数据的语义相似度,即第一语义相似度,
Figure BDA0002702093410000125
表示所述问题数据与所述负向答案数据的语义相似度,即第二语义相似度,
Figure BDA0002702093410000126
表示第一语义相似度与所述第二语义相似度的最大间隔距离。
图7是本发明实施例的生成答案摘要的装置700的主要模块的示意图,如图7所示,该装置700包括:
分割模块701,用于获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
组合模块702,用于分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
向量确定模块703,用于基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
相似度确定模块704,用于基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
摘要生成模块705,用于根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
可选地,所述分割模块701还用于:将确定所述原始答案文本中的标点符号;根据所述标点符号,对所述原始答案文本进行切割。
可选地,所述向量确定模块703还用于:对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;对所述问答对进行分词操作,得到多个词;基于所述多个词,确定所述字所在词;基于预设的词向量查找表,确定所述字所在词的词向量;计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
所述装置还包括模型训练模块,用于:获取训练数据集,所述训练数据集中包括多个样本数据;基于所述样本数据中每个待训练字的字向量和所述待训练字所在词的词向量,确定所述待训练字的分布式语义向量,将所述分布式语义向量输入多尺度卷积层,得到所述样本数据的特征向量;对所述样本数据的特征向量进行降采样,得到所述样本数据的语义向量;对所述语义向量进行训练,得到所述预设的神经网络模型。
可选地,所述样本数据包括问题数据、与所述问题数据对应的正向答案数据和与所述问题数据对应的负向答案数据;所述样本数据的语义向量包括所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量;
所述模型训练模块还用于:利用Pairwise方法和最大间隔距离函数训练所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量,得到所述预设的神经网络模型。
可选地,所述最大间隔距离函数的计算过程如下:
利用所述问题数据的语义向量和所述正向答案数据的语义向量,计算所述问题数据与所述正向答案数据的语义相似度,并将所述问题数据与所述正向答案数据的语义相似度作为第一语义相似度;
利用所述问题数据的语义向量和所述负向答案数据的语义向量,计算所述问题数据与所述负向答案数据的语义相似度,并将所述问题数据与所述负向答案数据的语义相似度作为第二语义相似度;
计算所述第一语义相似度与所述第二语义相似度的差值;
利用合页损失函数、所述第一语义相似度与所述第二语义相似度的差值和预设的间隔距离阈值,计算所述第一语义相似度与所述第二语义相似度的最大间隔距离。
上述装置可执行本发明实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明实施例所提供的方法。
图8示出了可以应用本发明实施例的生成答案摘要的方法或生成答案摘要的装置的示例性***架构800。
如图8所示,***架构800可以包括终端设备801、802、803,网络804和服务器805。网络804用以在终端设备801、802、803和服务器805之间提供通信链路的介质。网络804可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备801、802、803通过网络804与服务器805交互,以接收或发送消息等。终端设备801、802、803上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备801、802、803可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器805可以是提供各种服务的服务器,例如对用户利用终端设备801、802、803所浏览的购物类网站提供支持的后台管理服务器。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息)反馈给终端设备。
需要说明的是,本发明实施例所提供的生成答案摘要的方法一般由服务器805执行,相应地,生成答案摘要的装置一般设置于服务器805中。
应该理解,图8中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图9,其示出了适于用来实现本发明实施例的终端设备的计算机***900的结构示意图。图9示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机***900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有***900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
以下部件连接至I/O接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本发明的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括发送模块、获取模块、确定模块和第一处理模块。其中,这些模块的名称在某种情况下并不构成对该单元本身的限定,例如,发送模块还可以被描述为“向所连接的服务端发送图片获取请求的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:
获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
本发明实施例的技术方案,通过获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;分别将所述多个答案句子与所述查询问题组合,得到多个问答对;基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述问答对中每个字的分布式语义向量确定所述字的分布式语义向量;基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要的技术手段,能够提取句子深度语义表达,克服了由于近义词而导致的准确度低的问题,引入了字向量,克服了由于错别字引入的未登录词问题,提高了答案摘要的精度,适用范围广。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种生成答案摘要的方法,其特征在于,包括:
获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
2.根据权利要求1所述的方法,其特征在于,对所述原始答案文本进行切割包括:
确定所述原始答案文本中的标点符号;
根据所述标点符号,对所述原始答案文本进行切割。
3.根据权利要求1所述的方法,其特征在于,基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量包括:
对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;
对所述问答对进行分词操作,得到多个词;
基于所述多个词,确定所述字所在词;
基于预设的词向量查找表,确定所述字所在词的词向量;
计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
4.根据权利要求1所述的方法,其特征在于,所述预设的神经网络模型根据如下过程获得:
获取训练数据集,所述训练数据集中包括多个样本数据;
基于所述样本数据中每个待训练字的字向量和所述待训练字所在词的词向量,确定所述待训练字的分布式语义向量,将所述待训练字的分布式语义向量输入多尺度卷积层,得到所述样本数据的特征向量;
对所述样本数据的特征向量进行降采样,得到所述样本数据的语义向量;
对所述语义向量进行训练,得到所述预设的神经网络模型。
5.根据权利要求4所述的方法,其特征在于,所述样本数据包括问题数据、与所述问题数据对应的正向答案数据和与所述问题数据对应的负向答案数据;所述样本数据的语义向量包括所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量;
对所述语义向量进行训练,得到所述预设的神经网络模型包括:
利用Pairwise方法和最大间隔距离函数训练所述问题数据的语义向量、所述正向答案数据的语义向量和所述负向答案数据的语义向量,得到所述预设的神经网络模型。
6.根据权利要求5所述的方法,其特征在于,所述最大间隔距离函数的计算过程如下:
利用所述问题数据的语义向量和所述正向答案数据的语义向量,计算所述问题数据与所述正向答案数据的语义相似度,并将所述问题数据与所述正向答案数据的语义相似度作为第一语义相似度;
利用所述问题数据的语义向量和所述负向答案数据的语义向量,计算所述问题数据与所述负向答案数据的语义相似度,并将所述问题数据与所述负向答案数据的语义相似度作为第二语义相似度;
计算所述第一语义相似度与所述第二语义相似度的差值;
利用合页损失函数、所述第一语义相似度与所述第二语义相似度的差值和预设的间隔距离阈值,计算所述第一语义相似度与所述第二语义相似度的最大间隔距离。
7.一种生成答案摘要的装置,其特征在于,包括:
分割模块,用于获取与用户的查询问题对应的原始答案文本,并对所述原始答案文本进行切割,得到多个答案句子;
组合模块,用于分别将所述多个答案句子与所述查询问题组合,得到多个问答对;
向量确定模块,用于基于所述问答对中每个字的字向量和所述字所在词的词向量,确定所述字的分布式语义向量;
相似度确定模块,用于基于所述分布式语义向量和预设的神经网络模型,确定每个问答对中的答案句子与所述查询问题的语义相似度;
摘要生成模块,用于根据所述语义相似度,从所述多个答案句子中确定与所述查询问题对应的答案摘要。
8.根据权利要求7所述的装置,其特征在于,所述向量确定模块还用于:
对于所述问答对中的每个字,基于预设的字向量查找表,确定所述字的字向量;
对所述问答对进行分词操作,得到多个词;
基于所述多个词,确定所述字所在词;
基于预设的词向量查找表,确定所述字所在词的词向量;
计算所述字的字向量和所述字所在词的词向量的均值,将所述均值作为所述字的分布式语义向量。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202011025814.2A 2020-09-25 2020-09-25 一种生成答案摘要的方法和装置 Pending CN113761142A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011025814.2A CN113761142A (zh) 2020-09-25 2020-09-25 一种生成答案摘要的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011025814.2A CN113761142A (zh) 2020-09-25 2020-09-25 一种生成答案摘要的方法和装置

Publications (1)

Publication Number Publication Date
CN113761142A true CN113761142A (zh) 2021-12-07

Family

ID=78785792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011025814.2A Pending CN113761142A (zh) 2020-09-25 2020-09-25 一种生成答案摘要的方法和装置

Country Status (1)

Country Link
CN (1) CN113761142A (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740310A (zh) * 2015-12-21 2016-07-06 哈尔滨工业大学 一种用于问答***中的自动答案摘要方法及***
CN106997376A (zh) * 2017-02-28 2017-08-01 浙江大学 一种基于多级特征的问题和答案句子相似度计算方法
CN107980130A (zh) * 2017-11-02 2018-05-01 深圳前海达闼云端智能科技有限公司 自动回答方法、装置、存储介质及电子设备
CN108038096A (zh) * 2017-11-10 2018-05-15 平安科技(深圳)有限公司 知识库文档快速检索方法、应用服务器计算机可读存储介质
CN108052588A (zh) * 2017-12-11 2018-05-18 浙江大学城市学院 一种基于卷积神经网络的文档自动问答***的构建方法
CN108536679A (zh) * 2018-04-13 2018-09-14 腾讯科技(成都)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN108733682A (zh) * 2017-04-14 2018-11-02 华为技术有限公司 一种生成多文档摘要的方法及装置
CN108932349A (zh) * 2018-08-17 2018-12-04 齐鲁工业大学 医疗自动问答方法及装置、存储介质、电子设备
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110287298A (zh) * 2019-05-30 2019-09-27 南京邮电大学 一种基于问句主题的自动问答答案选择方法
CN110413741A (zh) * 2019-08-07 2019-11-05 山东山大鸥玛软件股份有限公司 一种面向主观题的智能阅卷方法
CN111125328A (zh) * 2019-12-12 2020-05-08 深圳数联天下智能科技有限公司 文本处理方法及相关设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740310A (zh) * 2015-12-21 2016-07-06 哈尔滨工业大学 一种用于问答***中的自动答案摘要方法及***
CN106997376A (zh) * 2017-02-28 2017-08-01 浙江大学 一种基于多级特征的问题和答案句子相似度计算方法
CN108733682A (zh) * 2017-04-14 2018-11-02 华为技术有限公司 一种生成多文档摘要的方法及装置
CN107980130A (zh) * 2017-11-02 2018-05-01 深圳前海达闼云端智能科技有限公司 自动回答方法、装置、存储介质及电子设备
CN108038096A (zh) * 2017-11-10 2018-05-15 平安科技(深圳)有限公司 知识库文档快速检索方法、应用服务器计算机可读存储介质
CN108052588A (zh) * 2017-12-11 2018-05-18 浙江大学城市学院 一种基于卷积神经网络的文档自动问答***的构建方法
CN108536679A (zh) * 2018-04-13 2018-09-14 腾讯科技(成都)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN108932349A (zh) * 2018-08-17 2018-12-04 齐鲁工业大学 医疗自动问答方法及装置、存储介质、电子设备
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110287298A (zh) * 2019-05-30 2019-09-27 南京邮电大学 一种基于问句主题的自动问答答案选择方法
CN110413741A (zh) * 2019-08-07 2019-11-05 山东山大鸥玛软件股份有限公司 一种面向主观题的智能阅卷方法
CN111125328A (zh) * 2019-12-12 2020-05-08 深圳数联天下智能科技有限公司 文本处理方法及相关设备

Similar Documents

Publication Publication Date Title
US11151177B2 (en) Search method and apparatus based on artificial intelligence
CN106960030B (zh) 基于人工智能的推送信息方法及装置
CN109543058B (zh) 用于检测图像的方法、电子设备和计算机可读介质
CN112507706B (zh) 知识预训练模型的训练方法、装置和电子设备
CN113360699B (zh) 模型训练方法和装置、图像问答方法和装置
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
US11977567B2 (en) Method of retrieving query, electronic device and medium
CN113407814A (zh) 文本搜索方法、装置、可读介质及电子设备
CN113836316B (zh) 三元组数据的处理方法、训练方法、装置、设备及介质
CN114298007A (zh) 一种文本相似度确定方法、装置、设备及介质
CN114238689A (zh) 视频生成方法、装置、电子设备、存储介质和程序产品
CN114116997A (zh) 知识问答方法、装置、电子设备及存储介质
CN110852057A (zh) 一种计算文本相似度的方法和装置
CN110807097A (zh) 分析数据的方法和装置
CN110245357B (zh) 主实体识别方法和装置
CN113761923A (zh) 命名实体识别方法、装置、电子设备及存储介质
CN111368693A (zh) 一种身份证信息的识别方法和装置
CN111555960A (zh) 信息生成的方法
CN113553410B (zh) 长文档处理方法、处理装置、电子设备和存储介质
CN114691850A (zh) 生成问答对的方法、神经网络模型的训练方法和装置
CN113761142A (zh) 一种生成答案摘要的方法和装置
CN113486148A (zh) Pdf文件的转换方法、装置、电子设备以及计算机可读介质
CN112784600A (zh) 信息排序方法、装置、电子设备和存储介质
CN113434695A (zh) 金融事件抽取方法、装置、电子设备及存储介质
CN115392389B (zh) 跨模态信息匹配、处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination