CN112380865A - 识别文本中的实体方法、装置及存储介质 - Google Patents

识别文本中的实体方法、装置及存储介质 Download PDF

Info

Publication number
CN112380865A
CN112380865A CN202011248130.9A CN202011248130A CN112380865A CN 112380865 A CN112380865 A CN 112380865A CN 202011248130 A CN202011248130 A CN 202011248130A CN 112380865 A CN112380865 A CN 112380865A
Authority
CN
China
Prior art keywords
candidate
entities
candidate entity
determining
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011248130.9A
Other languages
English (en)
Inventor
吕荣荣
彭力
陈帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Pinecone Electronic Co Ltd
Original Assignee
Beijing Xiaomi Pinecone Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Pinecone Electronic Co Ltd filed Critical Beijing Xiaomi Pinecone Electronic Co Ltd
Priority to CN202011248130.9A priority Critical patent/CN112380865A/zh
Publication of CN112380865A publication Critical patent/CN112380865A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及识别文本中的实体的方法、装置及存储介质,所述方法包括:根据目标文本包括的指称项,从知识图谱中获取指称项对应的第一候选实体集合;确定第一候选实体集合中各候选实体分别对应的第一特征因子;根据第一特征因子从第一候选实体集合中确定第二候选实体集合;确定第二候选实体集合中各候选实体分别对应的第二特征因子,第二特征因子包括目标文本与候选实体的文本相似度,其中,确定第二特征因子的效率小于确定第一特征因子的效率;根据第二特征因子从第二候选实体集合中确定作为目标文本的召回对象的目标实体。解决了相关技术中实时性差的问题。

Description

识别文本中的实体方法、装置及存储介质
技术领域
本公开涉及语言处理技术领域,尤其涉及识别文本中的实体方法、装置及存储介质。
背景技术
目前,由于CNN(Convolutional Neural Networks,卷积神经网络)、LSTM(LongShort-Term Memory,长短期记忆网络)在实体链接应用中并没有对查询文本和知识库文本之间进行进一步的局部相似特征提取,导致可能丢失文本细节特征,导致实体链接的准确率较低,因此,为避免上述文本细节特征丢失的问题,相关技术中大多将BERT(Bidirectional Encoder Representations from Transformers,来自变换器的双向编码器表征量)语言模型具体运用到实体链接上。
虽然,BERT语言模型可以对查询文本和知识库文本做了进一步局部相似特征的提取,但是,由于其预测和推理速度比CNN和LSTM等传统网络慢了不止一个量级,对于在线的且实时性要求较高的实体链接***,导致实时预测性能明显不行的问题。
发明内容
为克服相关技术中存在的问题,本公开提供一种识别文本中的实体的方法、装置及存储介质。
根据本公开实施例的第一方面,提供一种识别文本中的实体的方法,所述方法包括:
根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
可选地,所述根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合,包括:
根据所述目标文本中的位置标识符确定所述目标文本中的指称项;
根据所述知识图谱的同义词映射表以及别名映射表获取对应所述指称项的同义词实体以及别名实体,所述第一候选实体集合包括所述同义词实体以及所述别名实体。
可选地,所述第一特征因子包括所述指称项与所述候选实体的关联度、所述候选实体属性、所述目标文本与所述候选实体的一致性、所述指称项的类型与所述候选实体的类型之间的相似度中的一者或多者。
可选地,所述确定所述第一候选实体集合中各候选实体分别对应的第一特征因子,包括:
将所述目标文本输入训练好的DeepType模型,得到所述DeepType模型输出的所述指称项属于各类型的概率;
根据所述指称项属于各类型的概率,同步确定多个所述候选实体的类型与所述指称项的类型之间的相似度,所述第一特征因子还包括所述指称项的类型与所述候选实体的类型之间的相似度。
可选地,所述DeepType模型是采用混合精度训练方式对第一初始神经网络模型训练得到的,所述第一初始神经网络模型为基于Faster Transformer架构的模型。
可选地,所述根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合,包括:
针对所述第一候选实体集合中的每一候选实体,将该候选实体对应的所有第一特征因子进行融合,得到第一融合分数;
根据所述第一融合分数的高低,从所述第一候选实体集合中选取N个候选实体作为所述第二候选实体集合,N为大于1小于M的正整数,M为所述第一候选实体集合中包括的候选实体的总个数。
可选地,所述根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体包括:
针对所述第二候选实体集合中的每一候选实体,将所述第二特征因子与所述第一特征因子进行融合,得到第二融合分数;
在所有所述第二融合分数中确定分数最高的目标融合分数,并在所述目标融合分数大于预设分数阈值的情况下,将所述目标融合分数对应的候选实体作为所述目标实体。
可选地,所述确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,包括:
将所述目标文本与所述候选实体输入训练好的DeepMatch模型,得到所述DeepMatch模型输出的所述目标文本与所述候选实体的文本相似度。
可选地,所述DeepMatch模型是采用混合精度训练方式对第二初始神经网络模型训练得到的,所述第二初始神经网络模型为基于Faster Transformer架构的模型,所述DeepMatch模型能够同步计算多个所述候选实体与所述目标文本之间的文本相似度。
根据本公开实施例的第二方面,提供一种识别文本中的实体的装置,所述装置包括:
获取模块,被配置为获取根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
第一确定模块,被配置为确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
第二确定模块,被配置为根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
第三确定模块,被配置为确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
第四确定模块,被配置为根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
根据本公开实施例的第三方面,提供一种识别文本中的实体的装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的识别文本中的实体的方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:在考虑目标文本和候选实体的相似度的前提下,利用第一候选集合中各候选实体的第一特征因子过滤掉第一候选实体集合中不重要的噪声候选实体,确保了候选实体的高召回率的同时缩减了后续第二特征因子的获取时间,从而提高了整体实体预测的实时性,以提高在线的且实时性要求高的实体链接***的实时预测性能。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种识别文本中的实体的方法的流程图。
图2是根据一示例性实施例示出的步骤S101的流程图。
图3是根据一示例性实施例示出的步骤S103的流程图。
图4是根据一示例性实施例示出的步骤S105的流程图。
图5是根据一示例性实施例示出的一种识别文本中的实体的装置的框图。
图6是根据一示例性实施例示出的一种识别文本中的实体的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在介绍本公开的识别文本中的实体的方法、装置及存储介质之前,首先对本公开所提供的各实施例的应用场景进行介绍。本公开所提供的各实施例可以用于知识问答场景的实体链接,以确定问题文本对应的答案文本。
相关场景中,实体链接,又称为Entity linking,是将自然语言中的实体指称映射到知识图谱中正确的候选实体的过程。为了更好的让机器理解文本,机器常常需要识别文本中的实体,同时将文本中的实体与对应的知识图谱中的实体一一对应。实体链接算法需要通过指称项及其上下文的文本信息,借助知识图谱,将其链接到知识图谱中正确的映射实体上。其中,准确理解文本中指称项所指代的具体实体并将实体和已有知识图谱实体正确链接可极大提高智能问答信息检索、和主题分析等应用的效果。实现正确理解文本也需要提取更多的文本信息,然而,知识图谱里面的数据有千万条甚至几亿条,对于在线的实体链接***,在准确理解文本的前提下如何在限定的时间内返回结果,正是相关技术中存在的技术问题。
为此,本公开提供一种识别文本中的实体的方法,图1是根据一示例性实施例示出的一种识别文本中的实体的方法的流程图,如图1所示,包括以下步骤:
在步骤S101中,根据目标文本包括的指称项,从知识图谱中获取指称项对应的第一候选实体集合。
在步骤S102中,确定第一候选实体集合中各候选实体分别对应的第一特征因子。
在步骤S103中,根据第一特征因子从第一候选实体集合中确定第二候选实体集合。
在步骤S104中,确定第二候选实体集合中各候选实体分别对应的第二特征因子,第二特征因子包括目标文本与候选实体的文本相似度,其中,确定第二特征因子的效率小于确定第一特征因子的效率。
在步骤S105中,根据第二特征因子从第二候选实体集合中确定作为目标文本的召回对象的目标实体。
示例地,所述方法例如可以应用于识别文本中的实体的装置,所述装置例如可以提供为一识别文本中的实体的服务器。这样,所述识别文本中的实体的服务器可以响应于终端设备(例如,智能手机、音箱设备等)的请求信号,获取并识别该请求信号中相应的目标文本,再确定出该目标文本对应的目标实体。之后,所述识别文本中的实体的服务器还可以将所述目标实体发送至所述终端设备,从而完成对目标文本的目标实体的查询。
需要说明的是,指称项为自然文本中表达实体的语言片段。示例地,以“我喜欢华仔的歌”作为目标文本,则“我喜欢华仔的歌”中“华仔”就是指称项。其中,指称项可以通过实体识别技术获取,也可以通过上游给定。
第一候选实体集合中包括多个候选实体,与指称项的相关联的实体存储于知识图谱中,该过程要求较高的召回率。从知识图谱中召回的实体即组成第一候选实体集合。
需要说明的是,第一特征因子的获取时间要短于第二特征因子的获取时间,因此,确定所述第二特征因子的效率小于确定所述第一特征因子的效率。因此,利用所述第一特征因子对第一候选实体集合中各候选实体进行筛选。通过第一特征因子从第一候选实体集合中确定第二候选实体集合,由此可过滤掉第一候选实体集合中不重要的噪声候选实体,由于确定所述第二特征因子的效率小于确定所述第一特征因子的效率,因此,对第一候选实体集合中不重要的噪声候选实体进行过滤可以提高整体确定所有候选实体的第二特征因子的效率,达到提高实时性的目的。
其中,第二特征因子包括所述目标文本与所述候选实体的文本相似度。
在本公开中,由于利用第一特征因子过滤掉大部分的噪声候选实体,缩减了后续确定第二特征因子的时间,从而提高了整体预测的实时性,且在确定目标文本的召回对象的目标实体的时候也考虑到了目标文本与候选实体的文本相似度,实现了在不影响实体链接准确度的前提下提高了实体链接的实时性。
在一种可能的实施方式中,从知识图谱中确定第一候选实体集合常用的方法有:构建规则维护词表和基于编辑距离召回实体。具体来讲,构建的规则维护词表常见为同义词表、缩写全称映射表和别名词表。同义词表可以根据百科中(如***)的重定向页面,抽取同义词;缩写全称映射表可根据库中实体核对首字母,如"IBM"扩展为“InternationalBrotherhood of Magicains”;别名词表可根据infobox表中的别名和锚文本信息中抽取别名。基于编辑距离召回给定指称项具体是指根据指称项计算知识图谱中实体与指称项的编辑距离,小于预设的阈值则可以召回。
举例来讲,图2是根据一示例性实施例示出的步骤S101的流程图,如图2所示,上述步骤S101可以包括以下步骤:
在步骤S201中,根据所述目标文本中的位置标识符确定所述目标文本中的指称项。
在步骤S202中,根据所述知识图谱的同义词映射表以及别名映射表获取对应所述指称项的同义词实体以及别名实体,所述第一候选实体集合包括所述同义词实体以及所述别名实体。
需要说明的是,位置标识符即是上游圈定指称项的标识符。具体来讲,通过将文本构造成上文+位置标记符+指称项+位置标记符+下文的结构,来使机器可以区分哪个词是指称项,其中,标记符即是一种位置标识符。示例地,当目标文本被构造成“我觉得这个[位置标识符]苹果[位置标识符]很好吃”这样的输入结构时,“苹果”即为该目标文本的指称项。
值得说明的是,同义词映射表和别名映射表基于知识图谱构建。其中,同义词映射表中包括同义词和包含该同义词的同义词实体,别名映射表中存放别名和包含该别名的别名实体,在生成第一候选实体集合时,选取与指称项为同义词的同义词实体,以及与该指称项为别名的和别名实体的并集。示例地,同义词映射表为{s1:{e1,e2},s2:{e1},s3:{e2}},别名映射表为{a1:{e1},a2:{e1,e2},a3:{e2}},当指称项m的同义词为s1且m的别名为a2时,第一候选实体集合则为{e1,e2}。
值得说明的是,在同义词映射表和别名映射表中分别以ID标识唯一候选实体时,可以理解的是,可以直接将上述同义词映射表和别名映射表的示例表中的将实体e1,e2分别用对应的唯一ID进行表示,相应地,可以根据唯一ID匹配到对应的候选实体。
在一种可能的实施方式中,第一特征因子包括所述指称项与所述候选实体的关联度、所述候选实体属性、所述目标文本与所述候选实体的一致性、所述指称项的类型与所述候选实体的类型之间的相似度中的一者或多者。
具体来讲,所述指称项与所述候选实体的关联度可以通过标注数据获得,根据统计已经标注的指称项和其关联实体的链接次数来确定该关联度。示例地,如指称项m的第一候选实体集合为{e1,e2},m在标注数据中关联了实体e1共记k1次,m在标注数据中关联了实体e2共记k2次,则m与e1的关联度为k1/(k1+k2),m与e2的关联度为k2/(k1+k2)。
所述候选实体属性包括知识图谱中的所述候选实体的浏览次数、所述候选实体的描述长度、所述候选实体的infobox的属性个数、指称项是否是所述候选实体的同义词、指称项是否是所述候选实体的别名、指称项和所述候选实体的字符串编辑距离。其中,在一些实施方式中,知识图谱中每个实体都包括有该实体对应的多个键对值,每个键对值均包括实体属性与该实体属性对应的值。示例地,实体属性例如可以是浏览次数,相对应地,可直接读取该属性对应的值则可以确定所述候选实体的浏览次数。
所述目标文本与所述候选实体的一致性可以用两个因子来表征。具体来讲,第一个因子是目标文本中是否存在多个指称项都是同一个实体的同义词,若是,则该因子的值则为1,否则为0。例如,目标文本为“撒贝宁:为啥周星驰被叫星爷,而你却被叫华仔?刘德华回答绝了!”中,指称项“周星驰”和指称项“星爷”都出现在候选实体“周星驰_华语影视男演员、导演”的同义词中,则表征该候选实体与目标文本的一致性的因子的值为1。
第二个因子是目标文本中的关键词是否出现在候选实体的信息里,若是则该因子值为1,否则该因子值为0。例如,目标文本为“乔布斯复活也救不了苹果”中,关键词“乔布斯”出现在候选实体“苹果_苹果产品公司……”的描述文本中,则表征该候选实体与目标文本的一致性的因子的值为1。
指称项的类型和候选实体的类型例如可以是食物、组织结构、人物等。
在一种可能的实施方式中,所述指称项的类型与所述候选实体的类型之间的相似度可以通过DeepType模型计算得到。具体来讲,将所述目标文本输入训练好的DeepType模型,得到所述DeepType模型输出的所述指称项的各类型的概率;再根据所述指称项属于各类型的概率,同步确定多个所述候选实体的类型与所述指称项的类型之间的相似度。
值得说明的是,同步确定多个所述候选实体的类型分别与所述指称项的类型之间的相似度,可以缩短实体预测的时间,提高实体整体预测的实时性。例如,可以利用英伟达的将多个请求(确定多个所述候选实体的类型分别与所述指称项的类型之间的相似度的请求)合并为一个http服务请求,实现同步确定多个所述候选实体的类型分别与所述指称项的类型之间的相似度。
其中,目标文本需要构造成DeepType模型能区分是要对哪个词进行类别计算的文本。例如可以通过位置标识符来构造,具体为“上文+位置标记符+指称项+位置标记符+下文”的构造结构。其中,上文就是指称项开始位置之前的文本,下文就是指称项结束位置之后的文本。
示例地,以计算“乔布斯复活也救不了苹果”中指称项“苹果”的类型的概率,输入的构造文本为“乔布斯复活也救不了[位置标记符]苹果[位置标记符]”,DeepType模型即可通过位置识别标记符将“苹果”作为识别对象,并输出该指称项在该文本中属于每个类型的概率。
另外,每个候选实体对应的类型可以从知识图谱中获取,根据每个候选实体对应的类型和得到的指称项为每个类型的概率,联合确定所述指称项与所述候选实体的类型之间的相似度。
例如,DeepType模型输出的指称项为“苹果”的类别概率结果为{l1:0.8,l2:0.1,l3:0.1},其中,11、12、13分别为不同的类型,相对应地,0.8,0.1,0.1为不同类型对应的概率,若根据知识图谱确定的候选实体e1的类型为11,则根据DeepType得到的类别概率结果和候选实体e1的类型,确定所述指称项与该候选实体的类型之间的相似度为0.8。
在一种可能的实施方式中,DeepType模型是采用混合精度训练方式对第一初始神经网络模型训练得到的,所述第一初始神经网络模型为基于Faster Transformer架构的模型。
值得说明的是,现有的实体连接的深度学习模型使用的是32位单精度浮点数(FP32)来进行训练,而混合精度训练的方法则通过16位浮点数(FP16)进行深度学习模型训练,从而减少了训练深度学习模型所需的内存。因此,在本公开中采用混合精度训练方式可以有效地提升实时预测性能,缩短识别文本中的实体的时间。
另外,在本公开中,第一初始神经网络为BERT模型,其中,Faster Transformer是BERT模型中的变换器,Faster Transformer是英伟达针对Transformer推理提出的性能优化方案,利用Faster Transformer能提升实时预测性能,缩短识别文本中的实体的时间。
在一种可能的实施方式中,图3是根据一示例性实施例示出的步骤S103的流程图,如图3所示,包括以下步骤:
在步骤S301中,针对第一候选实体集合中的每一候选实体,将该候选实体对应的所有第一特征因子进行融合,得到第一融合分数。
在步骤S302中,根据第一融合分数的高低,从第一候选实体集合中选取N个候选实体作为第二候选实体集合,N为大于1小于M的正整数,M为第一候选实体集合中包括的候选实体的总个数。
在本公开中,对第一候选实体集合中的每一候选实体,将该候选实体对应的所有第一特征因子进行融合,得到第一融合分数,利用第一融合分数的高低排序,选择N个候选实体作为第二候选实体集合,在保留高召回率的前提下,过滤大部分的噪声候选实体。
其中,对第一特征因子的融合方式可以采用多层感知机(MLP)方法。利用MLP的模型构成逻辑回归模型将多个特征因子融合后进行打分得到第一融合分数。
在一种可能的实施方式中,图4是根据一示例性实施例示出的步骤S105的流程图,如图4所示,包括以下步骤:
在步骤S401中,针对第二候选实体集合中的每一候选实体,将第二特征因子与第一特征因子进行融合,得到第二融合分数;
在步骤S402中,在所有第二融合分数中确定分数最高的目标融合分数,并在目标融合分数大于预设分数阈值的情况下,将目标融合分数对应的候选实体作为目标实体。
在本公开中,将第一特征因子和第二特征因子进行融合,从多个特征方面综合确定第二候选实体集合中每一候选实体的第二融合分数,并将分数最高的目标融合分数且在该目标融合分数大于预设分数阈值的情况下,将目标融合分数对应的候选实体作为目标实体;若目标融合分数小于或等于预设分数阈值,则认为指称项在知识图谱中没有正确的目标实体。
值得说明的是,预设分数阈值可以根据实际情况进行设定,本实施例对此不作限定。
其中,对第二特征因子和第一特征因子的融合方式可以采用多层感知机(MLP)方法。利用MLP的模型构成逻辑回归模型将多个特征因子融合后进行打分得到第二融合分数。
在一种可能的实施方式中,上述步骤S104中的所述确定所述第二候选实体集合中各候选实体分别对应的第二特征因子具体可以包括:将目标文本与候选实体输入训练好的DeepMatch模型,得到DeepMatch模型输出的目标文本与候选实体的文本相似度。
值得说明的是,由于DeepMatch模型需要计算每个候选实体与目标文本的相似度,而知识图谱中有些时候获取到的候选实体个数有几百个,因此需要花费较长时间,由此导致实时性差。因此,在通过第一特征因子的融合后,重新确定一个候选实体集合,以减少DeepMatch模型需要计算的候选实体与目标文本的相似度的个数,由此缩短第二特征因子的获取时间,提高整体实体预测的实时性。
在本公开中,在利用DeepMatch模型计算相似度时,首先,为了DeepMatch模型能够区分需要对哪两个词进行相似度判断,需要对目标文本和候选实体的结构进行重新构造,再将构造好的目标文本和候选实体进行拼接后输入到DeepMatch模型中。
具体来讲,对目标文本和候选实体的结构进行重新构造例如可以通过位置标识符来构造,具体为“上文+位置标记符+指称项+位置标记符+下文”的构造结构。示例地,对“我觉得这个苹果很好吃”构造后得到的文本是“我觉得这个[位置标记符]苹果[位置标记符]”。
将构造好的目标文本和候选实体进行拼接例如可以通过位置标识符来构造。示例地,“我觉得这个[位置标记符1]苹果[位置标记符1]”为构造后的目标文本,“苹果是蔷薇科苹果亚科苹果属植物,其树为落叶乔木……”为候选文本,拼接得到的文本是“[位置标记符2]我觉得这个[位置标记符1]苹果[位置标记符1]很好吃[位置标记符3]苹果是蔷薇科苹果亚科苹果属植物,其树为落叶乔木……”,以该文本作为DeepMatch模型的输入。
与DeepType模型类似的是,DeepMatch模型也是采用混合精度训练方式对第二初始神经网络模型训练得到的。其中,第二初始神经网络模型也为基于Faster Transformer架构的模型,进而实现缩短识别文本中的实体的时间,以达到提高实时性的目的。
进一步地,DeepMatch模型能够同步计算多个候选实体与所述目标文本之间的文本相似度,进一步地缩短整体识别文本中的实体的时间,以达到提高实时性的目的。
基于同一发明构思,本公开还提供一种识别文本中的实体的装置,图5是根据一示例性实施例示出的一种识别文本中的实体的装置的框图。参照图5,该装置包括获取模块501,第一确定模块502,第二确定模块503,第三确定模块504和第四确定模块505。
该获取模块501被配置为获取根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合。
该第一确定模块502被配置为确定所述第一候选实体集合中各候选实体分别对应的第一特征因子。
该第二确定模块503被配置为根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合。
该第三确定模块504被配置为确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率。
该第四确定模块505被配置为根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
可选地,所述获取模块501包括:
指称项确定子模块,被配置为根据所述目标文本中的位置标识符确定所述目标文本中的指称项。
获取子模块,被配置为根据所述知识图谱的同义词映射表以及别名映射表获取对应所述指称项的同义词实体以及别名实体,所述第一候选实体集合包括所述同义词实体以及所述别名实体。
可选地,所述第一特征因子包括所述指称项与所述候选实体的关联度、所述候选实体属性、所述目标文本与所述候选实体的一致性、所述指称项的类型与所述候选实体的类型之间的相似度中的一者或多者。
可选地,第一确定模块502包括:
概率输出子模块,被配置为将所述目标文本输入训练好的DeepType模型,得到所述DeepType模型输出的所述指称项属于各类型的概率。
类型相似度确定子模块,被配置为根据所述指称项属于各类型的概率,同步确定多个所述候选实体的类型与所述指称项的类型之间的相似度,所述第一特征因子还包括所述指称项的类型与所述候选实体的类型之间的相似度。
可选地,所述DeepType模型是采用混合精度训练方式对第一初始神经网络模型训练得到的,所述第一初始神经网络模型为基于Faster Transformer架构的模型。
可选地,所述第二确定模块503包括:
第一融合子模块,被配置为针对所述第一候选实体集合中的每一候选实体,将该候选实体对应的所有第一特征因子进行融合,得到第一融合分数。
选取子模块,根据所述第一融合分数的高低,从所述第一候选实体集合中选取N个候选实体作为所述第二候选实体集合,N为大于1小于M的正整数,M为所述第一候选实体集合中包括的候选实体的总个数。
可选地,所述第四确定模块505包括;
第二融合子模块,针对所述第二候选实体集合中的每一候选实体,将所述第二特征因子与所述第一特征因子进行融合,得到第二融合分数。
目标实体确定子模块,在所有所述第二融合分数中确定分数最高的目标融合分数,并在所述目标融合分数大于预设分数阈值的情况下,将所述目标融合分数对应的候选实体作为所述目标实体。
可选地,所述第三确定模块504具体被配置为将所述目标文本与所述候选实体输入训练好的DeepMatch模型,得到所述DeepMatch模型输出的所述目标文本与所述候选实体的文本相似度。
可选地,所述DeepMatch模型是采用混合精度训练方式对第二初始神经网络模型训练得到的,所述第二初始神经网络模型为基于Faster Transformer架构的模型,所述DeepMatch模型能够同步计算多个所述候选实体与所述目标文本之间的文本相似度。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的识别文本中的实体的方法的步骤。
基于同一发明构思,本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的识别文本中的实体的方法的步骤。
基于同一发明构思,本公开还提供一种识别文本中的实体的装置,图6是根据一示例性实施例示出的一种识别文本中的实体的装置600的框图。例如,装置600可以是移动电话,计算机,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置600可以包括以下一个或多个组件:处理组件602,存储器604,电力组件606,多媒体组件608,音频组件610,输入/输出(I/O)接口612,以及通信组件614。
处理组件602通常控制装置600的整体操作,诸如与显示,数据通信和记录操作相关联的操作。处理组件602可以包括一个或多个处理器620来执行指令,以完成上述识别文本中的实体的方法的全部或部分步骤。此外,处理组件602可以包括一个或多个模块,便于处理组件602和其他组件之间的交互。例如,处理组件602可以包括多媒体模块,以方便多媒体组件608和处理组件602之间的交互。
存储器604被配置为存储各种类型的数据以支持在装置600的操作。这些数据的示例包括用于在装置600上操作的任何应用程序或方法的指令等。存储器604可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件606为装置600的各种组件提供电力。电力组件606可以包括电源管理***,一个或多个电源,及其他与为装置600生成、管理和分配电力相关联的组件。
多媒体组件608包括在所述装置600和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
音频组件610被配置为输出和/或输入音频信号。例如,音频组件610包括一个麦克风(MIC),当装置600处于操作模式,如语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器604或经由通信组件614发送。在一些实施例中,音频组件610还包括一个扬声器,用于输出音频信号。
输入/输出(I/O)接口612为处理组件602和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
通信组件614被配置为便于装置600和其他设备之间有线或无线方式的通信。装置600可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件614经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件614还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置600可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述识别文本中的实体的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器604,上述指令可由装置600的处理器620执行以完成上述识别文本中的实体的方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的识别文本中的实体方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (12)

1.一种识别文本中的实体的方法,其特征在于,所述方法包括:
根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
2.根据权利要求1所述的方法,其特征在于,所述根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合,包括:
根据所述目标文本中的位置标识符确定所述目标文本中的指称项;
根据所述知识图谱的同义词映射表以及别名映射表获取对应所述指称项的同义词实体以及别名实体,所述第一候选实体集合包括所述同义词实体以及所述别名实体。
3.根据权利要求1所述的方法,其特征在于,所述第一特征因子包括所述指称项与所述候选实体的关联度、所述候选实体属性、所述目标文本与所述候选实体的一致性、所述指称项的类型与所述候选实体的类型之间的相似度中的一者或多者。
4.根据权利要求1所述的方法,其特征在于,所述确定所述第一候选实体集合中各候选实体分别对应的第一特征因子,包括:
将所述目标文本输入训练好的DeepType模型,得到所述DeepType模型输出的所述指称项属于各类型的概率;
根据所述指称项属于各类型的概率,同步确定多个所述候选实体的类型与所述指称项的类型之间的相似度,所述第一特征因子还包括所述指称项的类型与所述候选实体的类型之间的相似度。
5.根据权利要求4所述的方法,其特征在于,所述DeepType模型是采用混合精度训练方式对第一初始神经网络模型训练得到的,所述第一初始神经网络模型为基于FasterTransformer架构的模型。
6.根据权利要求1所述的方法,其特征在于,所述根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合,包括:
针对所述第一候选实体集合中的每一候选实体,将该候选实体对应的所有第一特征因子进行融合,得到第一融合分数;
根据所述第一融合分数的高低,从所述第一候选实体集合中选取N个候选实体作为所述第二候选实体集合,N为大于1小于M的正整数,M为所述第一候选实体集合中包括的候选实体的总个数。
7.根据权利要求1所述的方法,其特征在于,所述根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体包括:
针对所述第二候选实体集合中的每一候选实体,将所述第二特征因子与所述第一特征因子进行融合,得到第二融合分数;
在所有所述第二融合分数中确定分数最高的目标融合分数,并在所述目标融合分数大于预设分数阈值的情况下,将所述目标融合分数对应的候选实体作为所述目标实体。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,包括:
将所述目标文本与所述候选实体输入训练好的DeepMatch模型,得到所述DeepMatch模型输出的所述目标文本与所述候选实体的文本相似度。
9.根据权利要求8所述的方法,其特征在于,所述DeepMatch模型是采用混合精度训练方式对第二初始神经网络模型训练得到的,所述第二初始神经网络模型为基于FasterTransformer架构的模型,所述DeepMatch模型能够同步计算多个所述候选实体与所述目标文本之间的文本相似度。
10.一种识别文本中的实体的装置,其特征在于,所述装置包括:
获取模块,被配置为获取根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
第一确定模块,被配置为确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
第二确定模块,被配置为根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
第三确定模块,被配置为确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
第四确定模块,被配置为根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
11.一种识别文本中的实体的装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据目标文本包括的指称项,从知识图谱中获取所述指称项对应的第一候选实体集合;
确定所述第一候选实体集合中各候选实体分别对应的第一特征因子;
根据所述第一特征因子从所述第一候选实体集合中确定第二候选实体集合;
确定所述第二候选实体集合中各候选实体分别对应的第二特征因子,所述第二特征因子包括所述目标文本与所述候选实体的文本相似度,其中,确定所述第二特征因子的效率小于确定所述第一特征因子的效率;
根据所述第二特征因子从所述第二候选实体集合中确定作为所述目标文本的召回对象的目标实体。
12.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1~9中任一项所述方法的步骤。
CN202011248130.9A 2020-11-10 2020-11-10 识别文本中的实体方法、装置及存储介质 Pending CN112380865A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011248130.9A CN112380865A (zh) 2020-11-10 2020-11-10 识别文本中的实体方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011248130.9A CN112380865A (zh) 2020-11-10 2020-11-10 识别文本中的实体方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN112380865A true CN112380865A (zh) 2021-02-19

Family

ID=74579667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011248130.9A Pending CN112380865A (zh) 2020-11-10 2020-11-10 识别文本中的实体方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN112380865A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220899A (zh) * 2021-05-10 2021-08-06 上海博亦信息科技有限公司 基于学术人才信息知识图谱的知识产权同一性认定方法
CN113836874A (zh) * 2021-09-16 2021-12-24 北京小米移动软件有限公司 文本纠错方法及装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100169375A1 (en) * 2008-12-29 2010-07-01 Accenture Global Services Gmbh Entity Assessment and Ranking
CN106909655A (zh) * 2017-02-27 2017-06-30 中国科学院电子学研究所 基于产生式别名挖掘的知识图谱实体发现和链接方法
US20170293640A1 (en) * 2016-03-28 2017-10-12 Cogniac, Corp. Dynamic Adaptation of Feature Identification and Annotation
CN108415902A (zh) * 2018-02-10 2018-08-17 合肥工业大学 一种基于搜索引擎的命名实体链接方法
CN109241294A (zh) * 2018-08-29 2019-01-18 国信优易数据有限公司 一种实体链接方法及装置
CN109522551A (zh) * 2018-11-09 2019-03-26 天津新开心生活科技有限公司 实体链接方法、装置、存储介质及电子设备
CN110795527A (zh) * 2019-09-03 2020-02-14 腾讯科技(深圳)有限公司 候选实体排序方法、训练方法及相关装置
CN110929038A (zh) * 2019-10-18 2020-03-27 平安科技(深圳)有限公司 基于知识图谱的实体链接方法、装置、设备和存储介质
CN111339737A (zh) * 2020-02-27 2020-06-26 北京声智科技有限公司 实体链接方法、装置、设备及存储介质
CN111368096A (zh) * 2020-03-09 2020-07-03 中国平安人寿保险股份有限公司 基于知识图谱的信息分析方法、装置、设备和存储介质
CN111428031A (zh) * 2020-03-20 2020-07-17 电子科技大学 一种融合浅层语义信息的图模型过滤方法
CN111651570A (zh) * 2020-05-13 2020-09-11 深圳追一科技有限公司 文本语句处理方法、装置、电子设备以及存储介质
CN111898382A (zh) * 2020-06-30 2020-11-06 北京搜狗科技发展有限公司 一种命名实体识别方法、装置和用于命名实体识别的装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100169375A1 (en) * 2008-12-29 2010-07-01 Accenture Global Services Gmbh Entity Assessment and Ranking
US20170293640A1 (en) * 2016-03-28 2017-10-12 Cogniac, Corp. Dynamic Adaptation of Feature Identification and Annotation
CN106909655A (zh) * 2017-02-27 2017-06-30 中国科学院电子学研究所 基于产生式别名挖掘的知识图谱实体发现和链接方法
CN108415902A (zh) * 2018-02-10 2018-08-17 合肥工业大学 一种基于搜索引擎的命名实体链接方法
CN109241294A (zh) * 2018-08-29 2019-01-18 国信优易数据有限公司 一种实体链接方法及装置
CN109522551A (zh) * 2018-11-09 2019-03-26 天津新开心生活科技有限公司 实体链接方法、装置、存储介质及电子设备
CN110795527A (zh) * 2019-09-03 2020-02-14 腾讯科技(深圳)有限公司 候选实体排序方法、训练方法及相关装置
CN110929038A (zh) * 2019-10-18 2020-03-27 平安科技(深圳)有限公司 基于知识图谱的实体链接方法、装置、设备和存储介质
CN111339737A (zh) * 2020-02-27 2020-06-26 北京声智科技有限公司 实体链接方法、装置、设备及存储介质
CN111368096A (zh) * 2020-03-09 2020-07-03 中国平安人寿保险股份有限公司 基于知识图谱的信息分析方法、装置、设备和存储介质
CN111428031A (zh) * 2020-03-20 2020-07-17 电子科技大学 一种融合浅层语义信息的图模型过滤方法
CN111651570A (zh) * 2020-05-13 2020-09-11 深圳追一科技有限公司 文本语句处理方法、装置、电子设备以及存储介质
CN111898382A (zh) * 2020-06-30 2020-11-06 北京搜狗科技发展有限公司 一种命名实体识别方法、装置和用于命名实体识别的装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANKITA: "Part-of-speech Tagging and Named Entity Recognition Using Improved Hidden Markov Model and Bloom Filter", 《2018 INTERNATIONAL CONFERENCE ON COMPUTING, POWER AND COMMUNICATION TECHNOLOGIES (GUCON)》, 28 March 2019 (2019-03-28), pages 1072 - 1077 *
庞焜元;唐晋韬;李莎莎;王挺;: "实体消歧中特征文本选取研究", 计算机与数字工程, no. 08, 20 August 2017 (2017-08-20) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113220899A (zh) * 2021-05-10 2021-08-06 上海博亦信息科技有限公司 基于学术人才信息知识图谱的知识产权同一性认定方法
CN113836874A (zh) * 2021-09-16 2021-12-24 北京小米移动软件有限公司 文本纠错方法及装置

Similar Documents

Publication Publication Date Title
US20220214775A1 (en) Method for extracting salient dialog usage from live data
CN107818781B (zh) 智能交互方法、设备及存储介质
CN107797984B (zh) 智能交互方法、设备及存储介质
TW201935273A (zh) 語句的使用者意圖識別方法和裝置
CN111241237B (zh) 一种基于运维业务的智能问答数据处理方法及装置
CN107330120A (zh) 询问应答方法、询问应答装置及计算机可读存储介质
CN111967224A (zh) 对话文本的处理方法、装置、电子设备及存储介质
CN103995870A (zh) 交互式搜索方法和装置
CN110781305A (zh) 基于分类模型的文本分类方法及装置,以及模型训练方法
CN111984784B (zh) 人岗匹配方法、装置、电子设备和存储介质
CN108121736A (zh) 一种主题词确定模型的建立方法、装置及电子设备
CN111708869A (zh) 人机对话的处理方法及装置
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
CN110619050A (zh) 意图识别方法及设备
CN112380865A (zh) 识别文本中的实体方法、装置及存储介质
CN107945802A (zh) 语音识别结果处理方法及装置
CN111444321B (zh) 问答方法、装置、电子设备和存储介质
CN107424612A (zh) 处理方法、装置和机器可读介质
CN117932022A (zh) 一种智能问答方法、装置、电子设备及存储介质
CN116028634A (zh) 实体链接的构建方法、装置、电子设备和可读存储介质
CN114255750B (zh) 数据集构建和任务式对话方法、电子设备和存储介质
WO2021098876A1 (zh) 一种基于知识图谱的问答方法及装置
CN106354762B (zh) 交互语句的业务定位方法和装置
CN112836026B (zh) 基于对话的问诊方法及装置
CN112579767B (zh) 搜索处理方法、装置和用于搜索处理的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination