CN110147451B - 一种基于知识图谱的对话命令理解方法 - Google Patents

一种基于知识图谱的对话命令理解方法 Download PDF

Info

Publication number
CN110147451B
CN110147451B CN201910389711.5A CN201910389711A CN110147451B CN 110147451 B CN110147451 B CN 110147451B CN 201910389711 A CN201910389711 A CN 201910389711A CN 110147451 B CN110147451 B CN 110147451B
Authority
CN
China
Prior art keywords
knowledge
matching
command
vector
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910389711.5A
Other languages
English (en)
Other versions
CN110147451A (zh
Inventor
王星光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unisound Intelligent Technology Co Ltd
Original Assignee
Unisound Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unisound Intelligent Technology Co Ltd filed Critical Unisound Intelligent Technology Co Ltd
Priority to CN201910389711.5A priority Critical patent/CN110147451B/zh
Publication of CN110147451A publication Critical patent/CN110147451A/zh
Application granted granted Critical
Publication of CN110147451B publication Critical patent/CN110147451B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种基于知识图谱的对话命令理解方法,该基于知识图谱的对话命令理解方法是基于预设领域知识集合,对应地构建领域知识谱图库,并将输入的对话命令转换成具有若干候选匹配序列的候选列表,再将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量,最后基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作。

Description

一种基于知识图谱的对话命令理解方法
技术领域
本发明涉及语音识别的技术领域,特别涉及一种基于知识图谱的对话命令理解方法。
背景技术
在对话***中,关于对话命令的理解是指接收与解析来自用户的话语,并且识别该话语的意图,以提取出该话语中的相关参数(也称为槽),从而实现对话***对用户话语的语义理解。现有对话***中关于用户话语命令的理解方式主要包括两种,其中一种是采用语法和语义规则来提取话语命令文本中的语义信息,另外一种是将话语意图识别和槽抽取分别转换为机器学习的文本分类与序列标注任务,并利用语料库训练模型来预测话语命令文本中的语义信息。上述两种关于用户话语命令的理解方式被广泛应用于对话***的语义解析中,其能够获得较好的语义解析结果。
虽然,现有的用户话语命令的理解方式对于具有规则分布的话语命令,具有良好的语义解析效果,但是其自身的文本模糊匹配能力较差,其难以正确地对广泛存在的用户自由随意表达的话语文本进行准确的语义解析。由于在实际应用场景中,基本上所有用户都是按照自身日常的说话***的提高。
发明内容
针对现有技术存在的缺陷,本发明提供一种基于知识图谱的对话命令理解方法,该基于知识图谱的对话命令理解方法是基于预设领域知识集合,对应地构建领域知识谱图库,并将输入的对话命令转换成具有若干候选匹配序列的候选列表,再将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量,最后基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作。与传统的对话命令理解方法相比,该基于知识图谱的对话命令理解方法嵌入了领域知识图谱中如实体、属性和关系等不同的丰富知识信息,其能够更加有效地表征用户话语命令中包含的知识关联信息,并且还有助于提升对用户话语命令的语义解析准确性和改善用户体验;此外,该基于知识图谱的对话命令理解方法还能够在语义解析模型不需要重新训练的情况下,通过在线动态更新知识图谱信息的方式,来实现对语义解释预测结果的快速修正。
本发明提供一种基于知识图谱的对话命令理解方法,其特征在于,所述基于知识图谱的对话命令理解方法包括如下步骤:
步骤(1),基于预设领域知识集合,对应地构建领域知识谱图库;
步骤(2),基于所述领域知识谱图库,将输入的对话命令转换成具有若干候选匹配序列的候选列表;
步骤(3),将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量;
步骤(4),基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作;
进一步,在所述步骤(1)中,基于预设领域知识集合,对应地构建领域知识谱图库具体包括:
步骤(11),基于所述预设领域知识集合,获取关于所述预设领域知识集合所有实体的信息数据;
步骤(12),从所述所有实体的信息数据中,提取所有实体、所有实体相互之间的关系信息和所有实体的属性信息,以此形成实体集合E、实体关系集合R和实体属性集合P;
步骤(13),将所述实体集合E、实体关系集合R和实体属性集合P组成一个三元组合<E,R,P>,并将所述三元组合<E,R,P>作为所述领域知识谱图库;
进一步,在所述步骤(12)中,提取所述所有实体的属性信息,以此形成所述实体属性集合P还具体包括形成所述实体属性集合P的附属信息集合;其中,所述附属信息集合的形成过程具体包括,
步骤(121),提取所述所有实体中的每一个实体对应的名称信息Name、位序信息Order和编码信息Code;
步骤(122),将所述名称信息Name、所述位序信息Order和所述编码信息Code依序排列为集合<Name,Order,Code>,以此将所述集合<Name,Order,Code>作为所述附属信息集合;
进一步,在所述步骤(2)中,基于所述领域知识谱图库,将所述输入的对话命令转换成具有若干候选匹配序列的候选列表具体包括,
步骤(21),基于所述领域知识图谱库,生成关于所述领域知识图谱库的实体词典;
步骤(22),对所述输入的对话命令对应的文本序列S进行从左向右的扫描处理,同时利用所述实体词典对所述文本序列S中所有子片段进行标记匹配处理;
步骤(23),基于所述标记匹配处理的结果,生成关于所述子片段的不同组合方式的若干不同候选匹配序列Si,以此形成所述候选列表;
进一步,在所述步骤(22)中,利用所述实体词典对所述文本序列S中所有子片段进行标记匹配处理具体包括,
判断所有子片段中的每一个子片段是否匹配于所述实体词典中的实体词汇,若匹配,则将对应的子片段保留并且用作于生成所述候选匹配序列,若不匹配,则将对应的子片段剔除并且不用作于生成所述候选匹配序列;
进一步,在所述步骤(23)中,形成所述候选列表还具体包括,
步骤(231),对于每一个候选匹配序列Si,根据所述领域知识谱图库的知识图谱关系子库来获取候选匹配序列Si中匹配实体之间的存在的关系数;
步骤(232),判断不同候选匹配序列Si的关系数是否相同,若相同,则执行下面的步骤(233),若不同,则执行下面的步骤(234);
步骤(233),按照所述关系数,对所述候选匹配序列Si进行逆序排序处理,以此得到包括重新排序后的若干候选匹配序列Si的候选列表;
步骤(234),先按照所述关系数,对所述候选匹配序列Si进行逆序排序处理,并且对于具有相同关系数的任意多个候选匹配序列Si,再按照匹配序列文本的总长度进行二次逆序排序,以此得到包括重新排序后的若干候选匹配序列Si的候选列表;
进一步,在所述步骤(3)中,将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量具体包括,
步骤(A31),构造一个长度与当前候选匹配序列Si的文本序列S相同的向量Ei
步骤(A32),对所述当前候选匹配序列Si的每一个匹配实体,将所述向量Ei的对应匹配位置区域标记为所述匹配实体中实体属性集合P的位序信息;
步骤(A33),将所述向量Ei中所有非匹配位置区域标记为0;
步骤(A34),将经过所述步骤(A32)和所述步骤(A33)后确定的向量Ei作为所述知识图谱向量;
进一步,在所述步骤(3)中,形成关于所述输入的对话命令的对话命令向量具体包括,
步骤(B31),基于所述知识图谱向量的前N个向量部分,形成知识谱图矩阵M,其中,N为一预设整数参数;
步骤(B32),基于所述输入的对话命令的所有字向量与所述知识图谱向量,拼接形成关于所述输入的对话命令中每个字符的向量Vi
步骤(B33),对所述知识谱图矩阵M进行转置处理和行截取处理后,结合所述向量Vi,形成关于所述输入的对话命令的对话命令向量;
进一步,在所述步骤(B32)中,所述输入的对话命令的所有字向量是通过word2vec、fastText或者GloVe模型训练得到的;
进一步,在所述步骤(4)中,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作具体包括,
步骤(41),对RNN、CNN或者Transformer的深度学习神经网络模型进行训练;
步骤(42),通过训练后的所述深度学习神经网络模型,对所述输入的对话命令执行意图识别处理和槽抽取处理,来实现所述对话命令语义理解操作。
相比于现有技术,该基于知识图谱的对话命令理解方法是基于预设领域知识集合,对应地构建领域知识谱图库,并将输入的对话命令转换成具有若干候选匹配序列的候选列表,再将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量,最后基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作。与传统的对话命令理解方法相比,该基于知识图谱的对话命令理解方法嵌入了领域知识图谱中如实体、属性和关系等不同的丰富知识信息,其能够更加有效地表征用户话语命令中包含的知识关联信息,并且还有助于提升对用户话语命令的语义解析准确性和改善用户体验;此外,该基于知识图谱的对话命令理解方法还能够在语义解析模型不需要重新训练的情况下,通过在线动态更新知识图谱信息的方式,来实现对语义解释预测结果的快速修正。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种基于知识图谱的对话命令理解方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,为本发明实施例提供的一种基于知识图谱的对话命令理解方法的流程示意图。该基于知识图谱的对话命令理解方法包括如下步骤:
步骤(1),基于预设领域知识集合,对应地构建领域知识谱图库。
优选地,在该步骤(1)中,基于预设领域知识集合,对应地构建领域知识谱图库具体包括:
步骤(11),基于该预设领域知识集合,获取关于该预设领域知识集合所有实体的信息数据;
步骤(12),从该所有实体的信息数据中,提取所有实体、所有实体相互之间的关系信息和所有实体的属性信息,以此形成实体集合E、实体关系集合R和实体属性集合P;
步骤(13),将该实体集合E、实体关系集合R和实体属性集合P组成一个三元组合<E,R,P>,并将该三元组合<E,R,P>作为该领域知识谱图库。
优选地,在该步骤(12)中,提取该所有实体的属性信息,以此形成该实体属性集合P还具体包括形成该实体属性集合P的附属信息集合;其中,该附属信息集合的形成过程具体包括,
步骤(121),提取该所有实体中的每一个实体对应的名称信息Name、位序信息Order和编码信息Code;
步骤(122),将该名称信息Name、该位序信息Order和该编码信息Code依序排列为集合<Name,Order,Code>,以此将该集合<Name,Order,Code>作为该附属信息集合。
步骤(2),基于该领域知识谱图库,将输入的对话命令转换成具有若干候选匹配序列的候选列表。
优选地,在该步骤(2)中,基于该领域知识谱图库,将该输入的对话命令转换成具有若干候选匹配序列的候选列表具体包括,
步骤(21),基于该领域知识图谱库,生成关于该领域知识图谱库的实体词典;
步骤(22),对该输入的对话命令对应的文本序列S进行从左向右的扫描处理,同时利用该实体词典对该文本序列S中所有子片段进行标记匹配处理;
步骤(23),基于该标记匹配处理的结果,生成关于该子片段的不同组合方式的若干不同候选匹配序列Si,以此形成该候选列表。
优选地,在该步骤(22)中,利用该实体词典对该文本序列S中所有子片段进行标记匹配处理具体包括,
判断所有子片段中的每一个子片段是否匹配于该实体词典中的实体词汇,若匹配,则将对应的子片段保留并且用作于生成该候选匹配序列,若不匹配,则将对应的子片段剔除并且不用作于生成该候选匹配序列。
优选地,在该步骤(23)中,形成该候选列表还具体包括,
步骤(231),对于每一个候选匹配序列Si,根据该领域知识谱图库的知识图谱关系子库来获取候选匹配序列Si中匹配实体之间的存在的关系数;
步骤(232),判断不同候选匹配序列Si的关系数是否相同,若相同,则执行下面的步骤(233),若不同,则执行下面的步骤(234);
步骤(233),按照该关系数,对该候选匹配序列Si进行逆序排序处理,以此得到包括重新排序后的若干候选匹配序列Si的候选列表;
步骤(234),先按照该关系数,对该候选匹配序列Si进行逆序排序处理,并且对于具有相同关系数的任意多个候选匹配序列Si,再按照匹配序列文本的总长度进行二次逆序排序,以此得到包括重新排序后的若干候选匹配序列Si的候选列表。
步骤(3),将该候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于该输入的对话命令的对话命令向量。
优选地,在该步骤(3)中,将该候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量具体包括,
步骤(A31),构造一个长度与当前候选匹配序列Si的文本序列S相同的向量Ei
步骤(A32),对该当前候选匹配序列Si的每一个匹配实体,将该向量Ei的对应匹配位置区域标记为该匹配实体中实体属性集合P的位序信息;
步骤(A33),将该向量Ei中所有非匹配位置区域标记为0;
步骤(A34),将经过该步骤(A32)和该步骤(A33)后确定的向量Ei作为该知识图谱向量。
优选地,在该步骤(3)中,形成关于该输入的对话命令的对话命令向量具体包括,
步骤(B31),基于该知识图谱向量的前N个向量部分,形成知识谱图矩阵M,其中,N为一预设整数参数;
步骤(B32),基于该输入的对话命令的所有字向量与该知识图谱向量,拼接形成关于该输入的对话命令中每个字符的向量Vi
步骤(B33),对该知识谱图矩阵M进行转置处理和行截取处理后,结合该向量Vi,形成关于该输入的对话命令的对话命令向量。
优选地,在该步骤(B32)中,该输入的对话命令的所有字向量是通过word2vec、fastText或者GloVe模型训练得到的。
步骤(4),基于该对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的该深度学习神经网络模型执行对话命令语义理解操作。
优选地,在该步骤(4)中,对深度学习神经网络模型进行训练,并通过训练后的该深度学习神经网络模型执行对话命令语义理解操作具体包括,
步骤(41),对RNN、CNN或者Transformer的深度学习神经网络模型进行训练;
步骤(42),通过训练后的该深度学习神经网络模型,对该输入的对话命令执行意图识别处理和槽抽取处理,来实现该对话命令语义理解操作。
本发明还根据上述基于知识图谱的对话命令理解方法,相应地构建一个音乐知识图谱,其中该音乐知识图谱对应的属性信息描述和实体关系库分别如下面表1和表2所示
表1属性信息描述
Figure GDA0002776172630000091
Figure GDA0002776172630000101
表2实体关系库
Figure GDA0002776172630000102
当输入用户话语:播放歌曲小苹果吧
根据上述表1的属性信息描述和表2的实体关系库,产生下面对应的实体匹配多候选序列:
S1:<Keyword=播放,Type=歌曲,Song=小苹果>,关系数=3
S2:<Keyword=播放,Type=歌曲,Album=小苹果>,关系数=2
S3:<Keyword=播放,Type=歌曲,Song=苹果>,关系数=3
S4:<Keyword=播放,Song=小苹果>,关系数=1
S5:<Keyword=播放,Song=苹果>,关系数=1
S6:<Keyword=播放,ALBUM=小苹果>,关系数=1
S7:<Type=歌曲,Song=小苹果>,关系数=1
S8:<Type=歌曲,Song=苹果>,关系数=1
S9:<Type=歌曲,ALBUM=苹果>,关系数=0
再对上述的实体匹配多候选序列进行重排序处理,得到下面的重排序多候选匹配序列:
S1:<Keyword=播放,Type=歌曲,Song=小苹果>,关系数=3
S3:<Keyword=播放,Type=歌曲,Song=苹果>,关系数=3
S2:<Keyword=播放,Type=歌曲,Album=小苹果>,关系数=2
S4:<Keyword=播放,Song=小苹果>,关系数=1
S6:<Keyword=播放,ALBUM=小苹果>,关系数=1
S7:<Type=歌曲,Song=小苹果>,关系数=1
S5:<Keyword=播放,Song=苹果>,关系数=1
S8:<Type=歌曲,Song=苹果>,关系数=1
S9:<Type=歌曲,ALBUM=苹果>,关系数=0
再对上述的重排序多候选匹配序列进行编码处理,得到下面的编码多候选结果:
E1:<5,5,4,4,2,2,2,0>
E3:<5,5,4,4,0,2,2,0>
E2:<5,5,4,4,3,3,3,0>
E4:<5,5,0,0,2,2,2,0>
E6:<5,5,0,0,3,3,3,0>
E7:<0,0,4,4,2,2,2,0>
E5:<5,5,0,0,0,2,2,0>
E8:<0,0,4,4,0,2,2,0>
E9:<0,0,4,4,0,3,3,0>
再截取上述的编码多候选结构的前N个(比如N=4)对应的结果,即:
E1:<5,5,4,4,2,2,2,0>
E3:<5,5,4,4,0,2,2,0>
E2:<5,5,4,4,3,3,3,0>
E4:<5,5,0,0,2,2,2,0>
再基于上述截取结果,来实现用户话语的向量表示,即:
播:char_embedding(播)+<5,5,5,5>
放:char_embedding(放)+<5,5,5,5>
歌:char_embedding(歌)+<4,4,4,0>
曲:char_embedding(曲)+<4,4,4,0>
小:char_embedding(小)+<2,0,3,2>
苹:char_embedding(苹)+<2,2,3,2>
果:char_embedding(果)+<2,2,3,2>
吧:char_embedding(吧)+<0,0,0,0>
最后,基于相应模型预测,得到该用户话语对应的命令理解结果:
意图分类:MUSIC_PLAY
槽抽取:{Song:小苹果}。
从上述实施例可以看出,该基于知识图谱的对话命令理解方法是基于预设领域知识集合,对应地构建领域知识谱图库,并将输入的对话命令转换成具有若干候选匹配序列的候选列表,再将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量,最后基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作。与传统的对话命令理解方法相比,该基于知识图谱的对话命令理解方法嵌入了领域知识图谱中如实体、属性和关系等不同的丰富知识信息,其能够更加有效地表征用户话语命令中包含的知识关联信息,并且还有助于提升对用户话语命令的语义解析准确性和改善用户体验;此外,该基于知识图谱的对话命令理解方法还能够在语义解析模型不需要重新训练的情况下,通过在线动态更新知识图谱信息的方式,来实现对语义解释预测结果的快速修正。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (7)

1.一种基于知识图谱的对话命令理解方法,其特征在于,所述基于知识图谱的对话命令理解方法包括如下步骤:
步骤(1),基于预设领域知识集合,对应地构建领域知识谱图库;
步骤(2),基于所述领域知识谱图库,将输入的对话命令转换成具有若干候选匹配序列的候选列表;
在所述步骤(2)中,基于所述领域知识谱图库,将所述输入的对话命令转换成具有若干候选匹配序列的候选列表具体包括,
步骤(21),基于所述领域知识图谱库,生成关于所述领域知识图谱库的实体词典;
步骤(22),对所述输入的对话命令对应的文本序列S进行从左向右的扫描处理,同时利用所述实体词典对所述文本序列S中所有子片段进行标记匹配处理;
步骤(23),基于所述标记匹配处理的结果,生成关于所述子片段的不同组合方式的若干不同候选匹配序列Si,以此形成所述候选列表;
步骤(3),将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量,并以此形成关于所述输入的对话命令的对话命令向量;
在所述步骤(3)中,将所述候选列表中的每一个候选匹配序列通过预设编码方式转换成知识图谱向量具体包括,
步骤(A31),构造一个长度与当前候选匹配序列Si的文本序列S相同的向量Ei
步骤(A32),对所述当前候选匹配序列Si的每一个匹配实体,将所述向量Ei的对应匹配位置区域标记为所述匹配实体中实体属性集合P的位序信息;
步骤(A33),将所述向量Ei中所有非匹配位置区域标记为0;
步骤(A34),将经过所述步骤(A32)和所述步骤(A33)后确定的向量Ei作为所述知识图谱向量;
在所述步骤(3)中,形成关于所述输入的对话命令的对话命令向量具体包括,
步骤(B31),基于所述知识图谱向量的前N个向量部分,形成知识谱图矩阵M,其中,N为一预设整数参数;
步骤(B32),基于所述输入的对话命令的所有字向量与所述知识图谱向量,拼接形成关于所述输入的对话命令中每个字符的向量Vi
步骤(B33),对所述知识谱图矩阵M进行转置处理和行截取处理后,结合所述向量Vi,形成关于所述输入的对话命令的对话命令向量;
步骤(4),基于所述对话命令向量,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作。
2.如权利要求1所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(1)中,基于预设领域知识集合,对应地构建领域知识谱图库具体包括:
步骤(11),基于所述预设领域知识集合,获取关于所述预设领域知识集合所有实体的信息数据;
步骤(12),从所述所有实体的信息数据中,提取所有实体、所有实体相互之间的关系信息和所有实体的属性信息,以此形成实体集合E、实体关系集合R和实体属性集合P;
步骤(13),将所述实体集合E、实体关系集合R和实体属性集合P组成一个三元组合<E,R,P>,并将所述三元组合<E,R,P>作为所述领域知识谱图库。
3.如权利要求2所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(12)中,提取所述所有实体的属性信息,以此形成所述实体属性集合P还具体包括形成所述实体属性集合P的附属信息集合;其中,所述附属信息集合的形成过程具体包括,
步骤(121),提取所述所有实体中的每一个实体对应的名称信息Name、位序信息Order和编码信息Code;
步骤(122),将所述名称信息Name、所述位序信息Order和所述编码信息Code依序排列为集合<Name,Order,Code>,以此将所述集合<Name,Order,Code>作为所述附属信息集合。
4.如权利要求1所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(22)中,利用所述实体词典对所述文本序列S中所有子片段进行标记匹配处理具体包括,
判断所有子片段中的每一个子片段是否匹配于所述实体词典中的实体词汇,若匹配,则将对应的子片段保留并且用作于生成所述候选匹配序列,若不匹配,则将对应的子片段剔除并且不用作于生成所述候选匹配序列。
5.如权利要求1所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(23)中,形成所述候选列表还具体包括,
步骤(231),对于每一个候选匹配序列Si,根据所述领域知识谱图库的知识图谱关系子库来获取候选匹配序列Si中匹配实体之间的存在的关系数;
步骤(232),判断不同候选匹配序列Si的关系数是否相同,若相同,则执行下面的步骤(233),若不同,则执行下面的步骤(234);
步骤(233),按照所述关系数,对所述候选匹配序列Si进行逆序排序处理,以此得到包括重新排序后的若干候选匹配序列Si的候选列表;
步骤(234),先按照所述关系数,对所述候选匹配序列Si进行逆序排序处理,并且对于具有相同关系数的任意多个候选匹配序列Si,再按照匹配序列文本的总长度进行二次逆序排序,以此得到包括重新排序后的若干候选匹配序列Si的候选列表。
6.如权利要求1所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(B32)中,所述输入的对话命令的所有字向量是通过word2vec、fastText或者GloVe模型训练得到的。
7.如权利要求1所述的基于知识图谱的对话命令理解方法,其特征在于:
在所述步骤(4)中,对深度学习神经网络模型进行训练,并通过训练后的所述深度学习神经网络模型执行对话命令语义理解操作具体包括,
步骤(41),对RNN、CNN或者Transformer的深度学习神经网络模型进行训练;
步骤(42),通过训练后的所述深度学习神经网络模型,对所述输入的对话命令执行意图识别处理和槽抽取处理,来实现所述对话命令语义理解操作。
CN201910389711.5A 2019-05-10 2019-05-10 一种基于知识图谱的对话命令理解方法 Active CN110147451B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910389711.5A CN110147451B (zh) 2019-05-10 2019-05-10 一种基于知识图谱的对话命令理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910389711.5A CN110147451B (zh) 2019-05-10 2019-05-10 一种基于知识图谱的对话命令理解方法

Publications (2)

Publication Number Publication Date
CN110147451A CN110147451A (zh) 2019-08-20
CN110147451B true CN110147451B (zh) 2021-06-29

Family

ID=67594316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910389711.5A Active CN110147451B (zh) 2019-05-10 2019-05-10 一种基于知识图谱的对话命令理解方法

Country Status (1)

Country Link
CN (1) CN110147451B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110489529B (zh) * 2019-08-26 2021-12-14 哈尔滨工业大学(深圳) 一种基于句法结构和重排序的对话生成方法
CN110516240B (zh) * 2019-08-28 2021-04-06 南京璇玑信息技术有限公司 一种基于Transformer的语义相似度计算模型DSSM技术
CN111160041B (zh) * 2019-12-30 2024-02-13 科大讯飞股份有限公司 语义理解方法、装置、电子设备和存储介质
CN111753024B (zh) * 2020-06-24 2024-02-20 河北工程大学 一种面向公共安全领域的多源异构数据实体对齐方法
CN111931507A (zh) * 2020-08-21 2020-11-13 贝壳技术有限公司 获取用于实现会话的多元组集合方法、装置、介质及设备
CN112528005B (zh) * 2020-12-25 2022-08-09 中山大学 基于知识检索图和预训练模型的中文对话知识检索方法
CN112307188B (zh) * 2020-12-30 2021-06-11 北京百度网讯科技有限公司 对话生成方法、***、电子设备和可读存储介质
CN114416941B (zh) * 2021-12-28 2023-09-05 北京百度网讯科技有限公司 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114444488B (zh) * 2022-01-26 2023-03-24 中国科学技术大学 一种少样本机器阅读理解方法、***、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271504A (zh) * 2018-11-07 2019-01-25 爱因互动科技发展(北京)有限公司 基于知识图谱的推理对话的方法
CN109492077A (zh) * 2018-09-29 2019-03-19 北明智通(北京)科技有限公司 基于知识图谱的石化领域问答方法及***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679558B2 (en) * 2014-05-15 2017-06-13 Microsoft Technology Licensing, Llc Language modeling for conversational understanding domains using semantic web resources
CN106909643B (zh) * 2017-02-20 2020-08-14 同济大学 基于知识图谱的社交媒体大数据主题发现方法
US11775891B2 (en) * 2017-08-03 2023-10-03 Telepathy Labs, Inc. Omnichannel, intelligent, proactive virtual agent
CN108491443B (zh) * 2018-02-13 2021-05-25 上海好体信息科技有限公司 由计算机实施的与用户对话的方法和计算机***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492077A (zh) * 2018-09-29 2019-03-19 北明智通(北京)科技有限公司 基于知识图谱的石化领域问答方法及***
CN109271504A (zh) * 2018-11-07 2019-01-25 爱因互动科技发展(北京)有限公司 基于知识图谱的推理对话的方法

Also Published As

Publication number Publication date
CN110147451A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
CN110147451B (zh) 一种基于知识图谱的对话命令理解方法
CN108304372B (zh) 实体提取方法和装置、计算机设备和存储介质
CN107291783B (zh) 一种语义匹配方法及智能设备
CN108959242B (zh) 一种基于中文字符词性特征的目标实体识别方法及装置
CN107305768A (zh) 语音交互中的易错字校准方法
CN111178074A (zh) 一种基于深度学习的中文命名实体识别方法
CN116166782A (zh) 一种基于深度学习的智能问答方法
CN110310619A (zh) 多音字预测方法、装置、设备及计算机可读存储介质
CN110795552A (zh) 一种训练样本生成方法、装置、电子设备及存储介质
CN109949799B (zh) 一种语义解析方法及***
CN109976702A (zh) 一种语音识别方法、装置及终端
CN111753545A (zh) 嵌套实体识别方法、装置、电子设备和存储介质
CN112633003A (zh) 一种地址识别方法、装置、计算机设备及存储介质
CN112487139A (zh) 基于文本的自动出题方法、装置及计算机设备
CN113380223B (zh) 多音字消歧方法、装置、***及存储介质
CN112328761A (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
CN114676255A (zh) 文本处理方法、装置、设备、存储介质及计算机程序产品
CN111382567B (zh) 一种中文分词和汉字多音字识别的方法及装置
CN110046356A (zh) 标签嵌入在微博文本情绪多标签分类中的应用研究
CN102970618A (zh) 基于音节识别的视频点播方法
JP2007513407A (ja) 文法生成のための句への意味標識の付与
CN113486174B (zh) 模型训练、阅读理解方法、装置、电子设备及存储介质
CN114880994B (zh) 一种直白文本到反讽文本的文本风格转换方法及装置
CN116595189A (zh) 基于两阶段的零样本关系三元组抽取方法及***
CN109102006A (zh) 一种基于音频特征诱导信息增强的音乐自动标记方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 101, 1st floor, building 1, Xisanqi building materials City, Haidian District, Beijing 100096

Applicant after: Yunzhisheng Intelligent Technology Co.,Ltd.

Address before: No.101, 1st floor, building 1, Xisanqi building materials City, Haidian District, Beijing

Applicant before: BEIJING UNISOUND INFORMATION TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant