CN110276066A - 实体关联关系的分析方法及相关装置 - Google Patents
实体关联关系的分析方法及相关装置 Download PDFInfo
- Publication number
- CN110276066A CN110276066A CN201810217272.5A CN201810217272A CN110276066A CN 110276066 A CN110276066 A CN 110276066A CN 201810217272 A CN201810217272 A CN 201810217272A CN 110276066 A CN110276066 A CN 110276066A
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- predicted
- participle
- speech sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种实体关联关系的分析方法及相关装置,其中,所述实体关联关系的分析方法中,对待预测文本进行分词处理得到所述待预测文本的词性序列后,再得到所述待预测文本的词性序列中的每一个分词的向量,由实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,即可得到所述待预测文本中实体和对应属性间的关联关系的预测结果。由于在上述过程中,对待预测文本是进行分词处理得到词性序列,并得到词性序列中的每一个分词的向量,并不是由人工选词并提取词语特征,解决了由于人工选词且提供词语特征而导致的影响实体和属性之间的关联关系的测试结果的准确性的问题。
Description
技术领域
本发明涉及文本分析技术领域,尤其涉及一种实体关联关系的分析方法及相关装置。
背景技术
文本情感分析主要是为了反映社交媒体中,用户关于某些事件、人物、企业、产品等的情感倾向性。实体情感分析是指分析文本中关于某些实体的情感倾向性,而非整个文本的倾向性,这样的好处是使得情感对象的分析粒度更加清晰。而在实体情感分析中,更为重要的是获知文本中实体和属性的关联关系,即判断出文本中的每个属性(如内饰、发动机等)所关联的实体(如宝马、奔驰、奥迪等)。
现有方案一般主要依赖于人工提取特征进行传统的机器学习分类算法。具体的,人工选择文本中实体和属性之间的词语,并提取该词语的特征输入至分类器,由分类器进行关联关系的分析,得到文本中实体和属性之间的关联关系的测试结果。
由人工选择词语并提取词语的特征,会使得特征提取过程带有很强的主观性,会影响文本中实体和属性之间的关联关系的测试结果的准确性。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的实体关联关系的分析方法及相关装置。
一种实体关联关系的分析方法,包括:
获取待预测文本;
对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
获得所述待预测文本的词性序列中的每一个分词的向量;
利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,直至利用更新参数后的神经网络算法对训练文本的特征向量进行预测而得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
可选地,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
可选地,所述利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果,包括:
对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述待预测文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值。
可选地,所述实体关联关系的预测模型的构建过程,包括:
对训练文本进行分词处理,得到所述训练文本的词性序列;
获得所述训练文本的词性序列中的每一个分词的向量;
对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化所述损失函数,并根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
一种实体关联关系的分析装置,包括:
获取单元,用于获取待预测文本;
分词单元,用于对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
生成单元,用于获得所述待预测文本的词性序列中的每一个分词的向量;
预测单元,用于利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,使利用更新参数后的神经网络算法对训练文本的特征向量进行预测,预测得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
可选地,所述生成单元,包括:
第一获得单元,用于获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,包括:第二获得单元,用于获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;并组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
可选地,所述预测单元,包括:
第三获得单元,用于对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
第四获得单元,用于依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
预测子单元,用于采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值。
可选地,所述分词单元,还用于对训练文本进行分词处理,得到所述训练文本的词性序列;
所述生成单元还用于获得所述训练文本的词性序列中的每一个分词的向量;
所述第三获得单元,还用于对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
所述第四获得单元,还用于依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
所述预测子单元,还用于采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
还包括:比较单元,用于将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化单元,用于优化所述损失函数;
更新单元,用于根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
构建单元,用于将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行如上述任一项所述的实体关联关系的分析方法。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行如上述任一项所述的实体关联关系的分析方法。
借由上述技术方案,本发明提供的实体关联关系的分析方法及相关装置中,对待预测文本进行分词处理得到所述待预测文本的词性序列后,再得到所述待预测文本的词性序列中的每一个分词的向量,由实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,即可得到所述待预测文本中实体和对应属性间的关联关系的预测结果。由于在上述过程中,对待预测文本是进行分词处理得到词性序列,并得到词性序列中的每一个分词的向量,并不是由人工选词并提取词语特征,解决了由于人工选词且提供词语特征而导致的影响实体和属性之间的关联关系的测试结果的准确性的问题。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例公开的实体关联关系的预测模型的构建过程的流程图;
图2示出了本发明实施例公开的步骤S102的具体执行方式的流程图;
图3示出了本发明实施例公开的实体关联关系的分析方法的流程图;
图4示出了本发明实施例公开的步骤S303的具体执行方式的流程图;
图5示出了本发明实施例公开的步骤S304的具体执行方式的流程图;
图6示出了本发明实施例公开的实体关联关系的分析装置的结构示意图;
图7示出了本发明实施例公开的生成单元的结构示意图;
图8示出了本发明实施例公开的预测单元的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本申请实施例中,需要采用实体关联关系的预测模型对待预测文本进行预测。因此,在执行本申请实施例公开的实体关联关系的分析方法之前,需要先构建所述实体关联关系的预测模型。
参见图1,所述实体关联关系的预测模型的构建过程,包括:
S101、对训练文本进行分词处理,得到所述训练文本的词性序列。
其中,准备训练文档,该训练文档中至少包括一个训练文本。训练文本为用户关于某些事件、人物、企业以及产品等的评价语句。
针对训练文档中的每一个训练文本,采用开源工具软件,如LTP(哈工大语言技术平台,Language Technology Platform)进行分词,并获取相应分词的词性序列,其中,所述词性序列包括分词序列、词性结果和依存关系序列。所述分词序列包括对训练文本进行分词后而得到的各个分词;所述词性结果包括各个分词的词性。所述依存关系序列为所述训练文本进行分词后而得到的各个分词之间的关联关系。
例如:训练文本为奔驰的前脸威武霸气,则对其进行分词处理得到的分词序列为[奔驰,的,前,脸,威武,霸气,。];词性结果为[nz,u,nd,n,a,a,wp];词性结果为[n,n,v,a,n],在得到的词性结果中,n代表general noun,名词;v代表verb,动词;a代表adjective,形容词;依存关系序列为[ATT,RAD,ATT,SBV,HED,COO,WP],得到的依存关系序列中,ATT代表attribute,定中关系;RAD代表right adjunct,右附加关系;SBV代表,HED代表head,核心关系,COO代表coordinate,并列关系,WP代表punctuation,标点符号。
S102、获得所述训练文本的词性序列中的每一个分词的向量。
其中,所述训练文本的词性序列中的每一个分词,需要采用特征向量的方式来表达。因此,需要针对所述训练文本的词性序列中的每一个分词,获得该分词的向量。所述训练文本包括实体和该实体的属性,对所述训练文本进行分词处理后的词性序列中也包括对应实体的分词和对应实体的属性的分词。
还需要说明的是,针对每一个训练文本,在获得其词性序列中的每一个分词的向量之前,还需要确定其分词长度不能过大。因此,统计训练文档中每一个训练文本的分词长度,判断训练文档中是否存在超长的离群长度文本。具体的,计算训练文本的分词长度的均值的标准差,超长的离群长度文本即为分词长度是否超过所述均值的标准差几个倍数以外的训练文本。可以根据实际情况,来设定具体的倍数要求。
若判断出训练文档中不存在超长的离群长度文本,则将所述训练文档中长度最长的训练文本的分词的长度作为所述训练文档的词性序列的长度,再获得训练文本的词性序列中的每一个分词。若判断出训练文档中存在超长的离群长度文本,则将所述训练文档中除超长的离群长度文本以外而剩余的训练文本中,长度最长的训练文本的分词的长度作为所述训练文档的词性序列的长度。并且,依据所述训练文档的词性序列的长度截取所述训练文档中的超长的离群长度文本。具体的,与所述训练文本中的目标实体为中心,向前、后分别扩展直至分词长度至所述训练文档的词性序列的长度为止,再获得训练文本还行截取操作后的文本的词性序列中每一个分词的向量。
例如:训练文档中存在10条训练文本,每一条训练文本的分词长度不等,但最长的一条训练文本的分词长度为50,那么取50为所述训练文档的词性序列的长度。若训练文档中存有一条训练文本,其分词长度有1000,那么该训练文本即为超长的离群长度文本。
可选地,步骤S102的一种实现方式中,该步骤包括:
获得所述训练文本的词性序列中的每一个分词的词向量。
其中,对于所述训练文本的词性序列中的每一个分词,分别在词向量模型进行筛查,获取当前分词在词向量模型中的词向量。
使用开源工具软件对文本库中每条文本句子进行分词,并使用词向量模型进行词向量训练,即生成词向量模型。所述文本库包括行业语料库和通用语料库,所述通用语料库指脱离行业个性化的文本库。词向量模型的作用是将词映射到一定纬度的空间内,能表征词与词之间的相似性。同时,词向量模型中包含了出现在语料库中的低频长尾词(低频长尾词指在全部词汇中出现频率低于某个阈值的词汇),统一记为UNK(unknown keyword,未知关键字),UNK在词向量模型中共有唯一的词向量。
若所述训练文本的词性序列中的某个分词,在所述词向量模型中没有对应的词向量,那么该分词的词向量即使用UNK词向量。
可选地,步骤S102的另一种实现方式中,参见图2,该步骤包括:
S1022、获得所述训练文本的词性序列中的每一个分词的词向量、以及所述训练文本的词性序列中的每一个分词的词性向量和/或词包向量。
训练文本的词性序列中的每一个分词,其词性的不同,也会导致实体和对应属性间的关联关系的预测结果的不同。因此,还可以获得所述训练文本的词性序列中的每一个分词的词性向量。
具体的,对词性进行一定维数的随机向量,比如词性共有5种[a,b,c,d,e],那么可以用随机向量Va表示a,同理,用随机向量Vb表示b,Va、Vb的维数可以任意指定。针对所述训练文本的词性序列中的每一个分词,可以根据其词性得到对应的词性向量。
同理,分词所属的词包也会影响对实体和对应属性间的关联关系的预测结果的判断,尤其是训练文本的词性序列中的某一个分词并没有在所述词向量模型中找到对应的词向量,通过分词的词包向量,能够能为全面的反映分词。因此,还可以获得所述训练文本的词性序列中的每一个分词的词包向量。
具体的,将所述训练文本的词性序列中的每一个分词和行业领域词包的所属关系,进行编码,得到所述训练文本的词性序列中的每一个分词的词包向量。例如:判断所述训练文本的词性序列中的每一个分词是否在实体词包里,是否在评价语词包里。将判断结果进行编码,得到所述训练文本的词性序列中的每一个分词的词包向量。
1023、组合所述训练文本的词性序列中的每一个分词的词向量、以及所述训练文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述所述训练文本的词性序列中的每一个分词的向量。
其中,针对所述训练文本的词性序列中的每一个分词,分别将其词向量、词性向量和/或词包向量进行拼接组合,形成该分词的向量。
S103、对第三矩阵进行序列关系的网络表征,得到第四矩阵。
其中,组合所述训练文本的词性序列中每一个分词的向量,得到所述第三矩阵。再利用双向的Bi-LSTM(Long-Short Term Memory)对所述第三矩阵进行一次序列关系的网络表征,得到所述第四矩阵。
S104、依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量。
具体的,结合神经网络算法attention机制归一化,赋予所述第四矩阵每个位置以不同的权重。具体的,有些分词不需要太关注,权重弱化,有些分词则应该强化关注。然后对所述第四矩阵中每个位置的数值做加权平均,得到特征向量。
S105、采用softmax函数处理所述特征向量,得到概率输出向量。
其中,所述概率输出向量是一个二维向量,包括两个类别的概率值,每个类别的概率值用于表示对应实体的分词和对应属性的分词之间的关联关系属于对应类别的概率。具体的,两个类别中,一个类别是配对,表明对应实体的分词和对应属性的分词具有关联关系;一个类别是不配对,表明对应实体的分词和对应属性的分词不具有关联关系。
在采用softmax函数处理所述特征向量之前,还需要得到训练样本的词性序列中的正样本和负样本。具体的,人工输入训练文本的词性序列中的对应实体的分词和属于该实体、且对应属性的分词。将对应实体的分词和属于该实体、且对应属性的分词进行组合,形成正样本。再将所述训练文本中每一个对应实体的分词和属于每一个实体、且对应属性的分词进行交叉组合,得到负样本集合,再选择所述负样本集合中的部分或全部的负样本。
例如:训练文本为:相中GS8内饰,听说小毛病多。相中欧蓝德质量但看不中他的内饰。该训练文本中,第一个实体为GS8,对应属性为内饰,第二个实体为欧蓝德,对应属性为质量。组合第一个实体和对应属性得到的正样本为:GS8,内饰。组合第二个实体和对应属性得到的正样本为:欧蓝德,质量。将第一个实体、第二个实体、第一个实体对应的属性、以及第二个实体对应的属***叉组合,得到的负样本集合包括:GS8,质量和欧蓝德,内饰。
针对每一个样本(包括正样本和负样本),采用softmax函数处理所述特征向量,分别对应每一个样本的概率输出向量,该概率输出向量中的两种类别的概率值,可以分别表明每一个样本中包括的实体和属性之间的关联关系是配对和不配对的概率值。
还需要说明的是,对于所述训练文本中的词性序列中的每一个分词,在对应实体的分词和对应属性的分词两侧,添加特殊标识符号,该符号作为特殊索引,用于指示实体和属性所在位置。如“<e1>奔驰<\e1>的<e2>前脸<\e2>威武霸气”,特殊标识为<e1><\e1><e2><\e2>标识对应实体的分词和对应属性的分词。
在采用softmax函数处理所述特征向量,得到概率输出向量的过程中,需要通过识别添加的所述特殊标识符号,来确定出所述训练文本中的词性序列中每一个样本的对应实体的分词和对应属性的分词。
S106、将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数。
其中,对训练文档中的每一个训练文本,人工识别训练文本中实体和属性的关联关系,得到所述训练文本的人工标注类别。
将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,得到的所述损失函数用于表明所述概率输出向量和所述训练文本的人工标注类别的差异。
S107、优化所述损失函数,并根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别基本同为止。
其中,所述第一参数包括所述Bi-LSTM、所述神经网络算法的attention机制、所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量。
具体的,通过随机梯度下降法或者Adam优化算法等,可以实现对所述损失函数进行优化,得到优化后的损失函数,依据所述优化后的损失函数逐层递推得到更新后的参数。
还需要说明的是,本步骤中,等同的含义是:站在本领域技术人员的角度来看,概率输出向量与训练文本的人工标注类别相比可以当成是等同的。
S108、将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述Bi-LSTM、所述softmax函数以及所述神经网络算法的attention机制。
基于由上述实施例的方法构建得到的实体关联关系的预测模型,可对待预测文本进行实体关联关系的分析。具体的,参见图3,所述实体关联关系的分析方法,包括:
S301、获取待预测文本。
其中,所述待预测文本为用户关于某些事件、人物、企业以及产品等的评价语句。获取该待预测文本,以分析对该文本关于文本中的目标实体的情感倾向性。
S302、对所述待预测文本进行分词处理,得到所述待预测文本的词性序列。
针对待预测文本,同样采用开源工具软件进行分词处理,并获取相应分词的词性序列。本步骤的具体执行过程可参见对应图1的实施例中,步骤S101的内容,此处不再赘述。
S303、获得所述待预测文本的词性序列中的每一个分词的向量。
可选地,步骤S303的一种实现方式中,该步骤包括:
获得所述待预测文本的词性序列中的每一个分词的词向量。
可选地,步骤S303的另一种实现方式中,参见图4,该步骤包括:
S3031、获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量。
S3032、组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
其中,上述两个实现方式的具体内容,可以参见对应图1的实施例中,步骤S102的具体实现方式的内容,此处不再赘述。
S304、利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,直至利用更新参数后的神经网络算法对训练文本的特征向量进行预测而得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
本实施例公开的实体关联关系的分析方法中,对待预测文本进行分词处理得到所述待预测文本的词性序列后,再得到所述待预测文本的词性序列中的每一个分词的向量,由实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,即可得到所述待预测文本中实体和对应属性间的关联关系的预测结果。由于在上述过程中,对待预测文本是进行分词处理得到词性序列,并得到词性序列中的每一个分词的向量,并不是由人工选词并提取词语特征,解决了由于人工选词且提供词语特征而导致的影响实体和属性之间的关联关系的测试结果的准确性的问题。
可选地,本申请的另一实施例中,参见图5,步骤S304包括:
S3041、对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量。
其中,本步骤的具体实现方式,可参见对应图1的实施例中,步骤S103的内容,此处不再赘述。
S3042、依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量。
其中,本步骤的具体实现方式,可参见对应图1的实施例中,步骤S104的内容,此处不再赘述。
S3043、采用softmax函数处理所述特征向量,得到概率输出向量。
所述概率输出向量包括:所述待预测文本中目标实体和对应属性之间的关联关系在两种类别下的概率值。
其中,本步骤的具体实现方式,可参见对应图1的实施例中,步骤S105的内容,此处不再赘述。
本申请另一实施例还公开了一种实体关联关系的分析装置,其包括的各个单元的具体工作过程可参见对应图3的实施例内容。具体的,参见图6,所述实体关联关系的分析装置包括:
获取单元601,用于获取待预测文本。
分词单元602,用于对所述待预测文本进行分词处理,得到所述待预测文本的词性序列。
生成单元603,用于获得所述待预测文本的词性序列中的每一个分词的向量。
可选地,本申请的另一实施例中,生成单元603,参见图7,包括:
第一获得单元6031,用于获得所述待预测文本的词性序列中的每一个分词的词向量。
或者,生成单元603包括:第二获得单元6032,用于得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;并组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
其中,本实施例公开的生成单元603中的各个单元的具体工作过程可参见上述对应图4的实施例的内容,此处不再赘述。
预测单元604,用于利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,使利用更新参数后的神经网络算法对训练文本的特征向量进行预测,预测得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
可选地,本申请的另一实施例中,预测单元604,如图8所示,包括:
第三获得单元6041,用于对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量。
第四获得单元6042,用于依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量。
预测子单元6043,用于采用softmax函数处理所述特征向量,得到概率输出向量,其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在两种类别下的概率值。
其中,本实施例公开的预测单元604中的各个单元的具体工作过程可参见上述对应图5的实施例的内容,此处不再赘述。
本实施例中,对待预测文本,由分词单元进行分词处理得到词性序列,并由生成单元得到词性序列中的每一个分词的向量,并不是由人工选词并提取词语特征,解决了由于人工选词且提供词语特征而导致的影响实体和属性之间的关联关系的测试结果的准确性的问题。
可选地,本申请的另一实施例中,所述实体关联关系的分析装置还可以对训练文本进行预测,得到实体关联关系的预测模型。
具体的:分词单元602,还用于对训练文本进行分词处理,得到所述训练文本的词性序列。
生成单元603,还用于获得所述训练文本的词性序列中的每一个分词的向量。
第三获得单元6041,还用于对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量。
第四获得单元6042,还用于依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量。
预测子单元6043,还用于采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在两种类别下的概率值。
并且,所述实体关联关系的分析装置还包括:比较单元,用于将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数。
优化单元,用于优化所述损失函数。
更新单元,用于根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别基本等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量。
构建单元,用于将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
其中,上述实施例中的各个单元的具体工作过程可参见上述对应图1的实施例的内容,此处不再赘述。
所述实体关联关系的分析装置包括处理器和存储器,上述的获取单元、分词单元、生成单元和预测单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来实现待预测文本中实体和对应属性之间的关联关系的分析过程,以得到所述待预测文本中实体和对应属性之间的关联关系的预测结果。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flashRAM),存储器包括至少一个存储芯片。
本发明实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述实体关联关系的分析方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述实体关联关系的分析方法。
本发明实施例提供了一种设备,本文中的设备可以是服务器、PC、PAD、手机等。设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理器执行程序时实现以下步骤:
一种实体关联关系的分析方法,包括:
获取待预测文本;
对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
获得所述待预测文本的词性序列中的每一个分词的向量;
利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,直至利用更新参数后的神经网络算法对训练文本的特征向量进行预测而得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
可选地,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
可选地,所述利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果,包括:
对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述待预测文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值。
可选地,述实体关联关系的预测模型的构建过程,包括:
对训练文本进行分词处理,得到所述训练文本的词性序列;
获得所述训练文本的词性序列中的每一个分词的向量;
对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化所述损失函数,并根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
本发明还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
一种实体关联关系的分析方法,包括:
获取待预测文本;
对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
获得所述待预测文本的词性序列中的每一个分词的向量;
利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,直至利用更新参数后的神经网络算法对训练文本的特征向量进行预测而得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
可选地,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
可选地,所述利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果,包括:
对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述待预测文本中目标实体和对应属性之间的关联关系在两种类别下的概率值。
可选地,述实体关联关系的预测模型的构建过程,包括:
对训练文本进行分词处理,得到所述训练文本的词性序列;
获得所述训练文本的词性序列中的每一个分词的向量;
对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化所述损失函数,并根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flashRAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种实体关联关系的分析方法,其特征在于,包括:
获取待预测文本;
对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
获得所述待预测文本的词性序列中的每一个分词的向量;
利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,直至利用更新参数后的神经网络算法对训练文本的特征向量进行预测而得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
2.根据权利要求1所述的方法,其特征在于,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,所述获得所述待预测文本的词性序列中的每一个分词的向量,包括:获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
3.根据权利要求1所述的方法,其特征在于,所述利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果,包括:
对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述待预测文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值。
4.根据权利要求1所述的方法,其特征在于,所述实体关联关系的预测模型的构建过程,包括:
对训练文本进行分词处理,得到所述训练文本的词性序列;
获得所述训练文本的词性序列中的每一个分词的向量;
对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化所述损失函数,并根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
5.一种实体关联关系的分析装置,其特征在于,包括:
获取单元,用于获取待预测文本;
分词单元,用于对所述待预测文本进行分词处理,得到所述待预测文本的词性序列;
生成单元,用于获得所述待预测文本的词性序列中的每一个分词的向量;
预测单元,用于利用实体关联关系的预测模型对所述待预测文本的词性序列中的每一个分词的向量进行预测,得到所述待预测文本中目标实体和对应属性间的关联关系的预测结果;其中,所述实体关联关系的预测模型基于第一原理构建得到;所述第一原理包括:迭代更新所述神经网络算法中的参数,使利用更新参数后的神经网络算法对训练文本的特征向量进行预测,预测得到的预测结果等同于人工标注结果;所述训练文本的特征向量,依据所述训练文本的词性序列的每一个分词的向量得到。
6.根据权利要求5所述的装置,其特征在于,所述生成单元,包括:
第一获得单元,用于获得所述待预测文本的词性序列中的每一个分词的词向量;
或者,包括:第二获得单元,用于获得所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量;并组合所述待预测文本的词性序列中的每一个分词的词向量、以及所述待预测文本的词性序列中每一个分词的词性向量和/或词包向量,得到所述待预测文本的词性序列中的每一个分词的向量。
7.根据权利要求5所述的装置,其特征在于,所述预测单元,包括:
第三获得单元,用于对第一矩阵进行序列关系的网络表征,得到第二矩阵;其中,所述第一矩阵包括:所述待预测文本的词性序列中的每一个分词的向量;
第四获得单元,用于依据所述第二矩阵中每个位置的数值对应的权重,对所述第二矩阵进行加权平均处理,得到特征向量;
预测子单元,用于采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值。
8.根据权利要求5所述的装置,其特征在于,所述分词单元,还用于对训练文本进行分词处理,得到所述训练文本的词性序列;
所述生成单元还用于获得所述训练文本的词性序列中的每一个分词的向量;
所述第三获得单元,还用于对第三矩阵进行序列关系的网络表征,得到第四矩阵;其中,所述第三矩阵包括:所述训练文本的词性序列中的每一个分词的向量;
所述第四获得单元,还用于依据所述第四矩阵中每个位置的数值对应的权重,对所述第四矩阵进行加权平均处理,得到特征向量;
所述预测子单元,还用于采用softmax函数处理所述特征向量,得到概率输出向量;其中,所述概率输出向量包括:所述训练文本中目标实体和对应属性之间的关联关系在预设种类别下的概率值;
还包括:比较单元,用于将所述概率输出向量与所述训练文本的人工标注类别进行交叉熵运算,获得损失函数;
优化单元,用于优化所述损失函数;
更新单元,用于根据所述优化后的损失函数更新第一参数,直至利用更新后的参数得到的特征向量对所述训练文本进行预测得到的概率输出向量与所述训练文本的人工标注类别等同为止;其中,所述第一参数包括所述softmax函数以及所述训练文本的词性序列中的每一个分词的向量;
构建单元,用于将所述更新后的第二参数作为实体关联关系的预测模型中的参数;其中,所述第二参数包括:所述softmax函数。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行如权利要求1-4中任一项所述的实体关联关系的分析方法。
10.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行如权利要求1-4中任一项所述的实体关联关系的分析方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217272.5A CN110276066B (zh) | 2018-03-16 | 2018-03-16 | 实体关联关系的分析方法及相关装置 |
PCT/CN2019/073664 WO2019174422A1 (zh) | 2018-03-16 | 2019-01-29 | 实体关联关系的分析方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810217272.5A CN110276066B (zh) | 2018-03-16 | 2018-03-16 | 实体关联关系的分析方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276066A true CN110276066A (zh) | 2019-09-24 |
CN110276066B CN110276066B (zh) | 2021-07-27 |
Family
ID=67907352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810217272.5A Active CN110276066B (zh) | 2018-03-16 | 2018-03-16 | 实体关联关系的分析方法及相关装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110276066B (zh) |
WO (1) | WO2019174422A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192682A (zh) * | 2019-12-25 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种影像操练数据处理方法、***及存储介质 |
CN111325016A (zh) * | 2020-02-04 | 2020-06-23 | 深圳证券信息有限公司 | 一种文本处理方法、***、设备、介质 |
CN111462893A (zh) * | 2020-03-13 | 2020-07-28 | 云知声智能科技股份有限公司 | 一种提供诊断依据的中文病历辅助诊断方法及*** |
CN111523318A (zh) * | 2020-04-02 | 2020-08-11 | 言图科技有限公司 | 一种汉语短语分析方法、***、存储介质及电子设备 |
CN111611799A (zh) * | 2020-05-07 | 2020-09-01 | 北京智通云联科技有限公司 | 基于字典和序列标注模型实体属性抽取方法、***及设备 |
CN111859965A (zh) * | 2020-06-11 | 2020-10-30 | 北京三快在线科技有限公司 | 一种实体识别模型训练方法、实体识别方法及装置 |
CN113468878A (zh) * | 2021-07-13 | 2021-10-01 | 腾讯科技(深圳)有限公司 | 词性标注方法、装置、电子设备及存储介质 |
CN113553841A (zh) * | 2020-04-26 | 2021-10-26 | 顺丰科技有限公司 | 词的表征方法、装置、电子设备及存储介质 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110704576B (zh) * | 2019-09-30 | 2022-07-01 | 北京邮电大学 | 一种基于文本的实体关系抽取方法及装置 |
CN110837731A (zh) * | 2019-10-12 | 2020-02-25 | 创新工场(广州)人工智能研究有限公司 | 一种词向量训练方法和装置 |
CN112733869B (zh) * | 2019-10-28 | 2024-05-28 | 中移信息技术有限公司 | 训练文本识别模型的方法、装置、设备及存储介质 |
CN110795934B (zh) * | 2019-10-31 | 2023-09-19 | 北京金山数字娱乐科技有限公司 | 语句分析模型的训练方法及装置、语句分析方法及装置 |
CN111104791B (zh) * | 2019-11-14 | 2024-02-20 | 北京金堤科技有限公司 | 行业信息获取方法和装置、电子设备和介质 |
CN110908709B (zh) * | 2019-11-25 | 2023-05-02 | 中山大学 | 一种基于代码更改关键类判定的代码提交注释预测方法 |
CN111027291B (zh) * | 2019-11-27 | 2024-03-26 | 达观数据有限公司 | 文本中标点符号添加、模型训练方法、装置及电子设备 |
CN111008279B (zh) * | 2019-11-27 | 2023-11-14 | 云知声智能科技股份有限公司 | 一种实体关系抽取方法及装置 |
CN111079433B (zh) * | 2019-11-29 | 2023-10-27 | 北京奇艺世纪科技有限公司 | 一种事件抽取方法、装置及电子设备 |
CN111145906B (zh) * | 2019-12-31 | 2024-04-30 | 清华大学 | 项目判定方法、相关设备及可读存储介质 |
CN111160034B (zh) * | 2019-12-31 | 2024-02-27 | 东软集团股份有限公司 | 一种实体词的标注方法、装置、存储介质及设备 |
CN111210233B (zh) * | 2020-01-02 | 2023-12-26 | 联想(北京)有限公司 | 用户特征确定方法、装置和电子设备 |
CN111192692B (zh) * | 2020-01-02 | 2023-12-08 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
CN111444714B (zh) * | 2020-02-29 | 2023-04-07 | 新华三大数据技术有限公司 | 一种文本分析装置、方法及模型训练方法 |
CN111460807B (zh) * | 2020-03-13 | 2024-03-12 | 平安科技(深圳)有限公司 | 序列标注方法、装置、计算机设备和存储介质 |
CN111626291B (zh) * | 2020-04-07 | 2023-04-25 | 上海交通大学 | 一种图像视觉关系检测方法、***及终端 |
CN111476035B (zh) * | 2020-05-06 | 2023-09-05 | 中国人民解放军国防科技大学 | 中文开放关系预测方法、装置、计算机设备和存储介质 |
CN111832290B (zh) * | 2020-05-25 | 2024-04-02 | 北京三快在线科技有限公司 | 用于确定文本相关度的模型训练方法、装置、电子设备及可读存储介质 |
CN111611810B (zh) * | 2020-05-29 | 2023-08-04 | 河北数云堂智能科技有限公司 | 一种多音字读音消歧装置及方法 |
CN111694945A (zh) * | 2020-06-03 | 2020-09-22 | 北京北大软件工程股份有限公司 | 基于神经网络的法条关联推荐方法及装置 |
CN111860981B (zh) * | 2020-07-03 | 2024-01-19 | 航天信息(山东)科技有限公司 | 一种基于lstm深度学习的企业国民行业类别预测方法及*** |
CN112069818B (zh) * | 2020-08-06 | 2024-05-24 | 北京捷通华声科技股份有限公司 | 三元组预测模型生成方法、关系三元组提取方法和装置 |
CN112001178A (zh) * | 2020-08-27 | 2020-11-27 | 广东工业大学 | 长尾实体的识别与消歧方法 |
CN112016299B (zh) * | 2020-08-31 | 2023-11-14 | 支付宝(杭州)信息技术有限公司 | 计算机执行、利用神经网络生成依存句法树的方法及装置 |
CN112131366B (zh) * | 2020-09-23 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 训练文本分类模型及文本分类的方法、装置及存储介质 |
CN114548102A (zh) * | 2020-11-25 | 2022-05-27 | 株式会社理光 | 实体文本的序列标注方法、装置及计算机可读存储介质 |
CN112445876B (zh) * | 2020-11-25 | 2023-12-26 | 中国科学院自动化研究所 | 融合结构、属性和关系信息的实体对齐方法和*** |
CN112560463B (zh) * | 2020-12-15 | 2023-08-04 | 中国平安人寿保险股份有限公司 | 文本多标注方法、装置、设备及存储介质 |
CN112560434B (zh) * | 2020-12-16 | 2024-05-28 | 北京百度网讯科技有限公司 | 确定文本中要素属性冲突的方法、装置、设备和介质 |
CN112966808A (zh) * | 2021-01-25 | 2021-06-15 | 咪咕音乐有限公司 | 数据分析方法、装置、服务器和可读存储介质 |
CN112835798B (zh) * | 2021-02-03 | 2024-02-20 | 广州虎牙科技有限公司 | 聚类学习方法、测试步骤聚类方法及相关装置 |
CN113535912B (zh) * | 2021-05-18 | 2023-12-26 | 北京邮电大学 | 基于图卷积网络和注意力机制的文本关联方法及相关设备 |
CN113535973B (zh) * | 2021-06-07 | 2023-06-23 | 中国科学院软件研究所 | 基于知识映射的事件关系抽取、语篇关系分析方法及装置 |
CN113569559B (zh) * | 2021-07-23 | 2024-02-02 | 北京智慧星光信息技术有限公司 | 短文本实体情感分析方法、***、电子设备及存储介质 |
CN113722439B (zh) * | 2021-08-31 | 2024-01-09 | 福州大学 | 基于对抗性类别对齐网络的跨领域情感分类方法及*** |
CN113792539B (zh) * | 2021-09-15 | 2024-02-20 | 平安科技(深圳)有限公司 | 基于人工智能的实体关系分类方法、装置、电子设备及介质 |
CN114047693B (zh) * | 2021-10-22 | 2023-12-22 | 合肥工业大学 | 面向充电过程的汽车电池火灾自适应防范方法及*** |
CN114462383B (zh) * | 2022-04-12 | 2022-07-08 | 江西少科智能建造科技有限公司 | 建筑图纸设计说明书获取方法、***、存储介质及设备 |
CN114841755A (zh) * | 2022-05-30 | 2022-08-02 | 北京百度网讯科技有限公司 | 文案的生成方法、装置、电子设备和存储介质 |
CN117057345B (zh) * | 2023-10-11 | 2024-01-30 | 腾讯科技(深圳)有限公司 | 一种角色关系的获取方法及相关产品 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899304A (zh) * | 2015-06-12 | 2015-09-09 | 北京京东尚科信息技术有限公司 | 命名实体识别方法及装置 |
US20160148116A1 (en) * | 2014-11-21 | 2016-05-26 | International Business Machines Corporation | Extraction of semantic relations using distributional relation detection |
CN106407211A (zh) * | 2015-07-30 | 2017-02-15 | 富士通株式会社 | 对实体词的语义关系进行分类的方法和装置 |
CN106649275A (zh) * | 2016-12-28 | 2017-05-10 | 成都数联铭品科技有限公司 | 基于词性信息和卷积神经网络的关系抽取方法 |
US20170139984A1 (en) * | 2015-11-13 | 2017-05-18 | International Business Machines Corporation | Method And System For Semantic-Based Queries Using Word Vector Representation |
CN106855853A (zh) * | 2016-12-28 | 2017-06-16 | 成都数联铭品科技有限公司 | 基于深度神经网络的实体关系抽取*** |
CN106886516A (zh) * | 2017-02-27 | 2017-06-23 | 竹间智能科技(上海)有限公司 | 自动识别语句关系和实体的方法及装置 |
CN107239446A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络与注意力机制的情报关系提取方法 |
CN107562752A (zh) * | 2016-06-30 | 2018-01-09 | 富士通株式会社 | 对实体词的语义关系进行分类的方法、装置和电子设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9406020B2 (en) * | 2012-04-02 | 2016-08-02 | Taiger Spain Sl | System and method for natural language querying |
CN106970981B (zh) * | 2017-03-28 | 2021-01-19 | 北京大学 | 一种基于转移矩阵构建关系抽取模型的方法 |
-
2018
- 2018-03-16 CN CN201810217272.5A patent/CN110276066B/zh active Active
-
2019
- 2019-01-29 WO PCT/CN2019/073664 patent/WO2019174422A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160148116A1 (en) * | 2014-11-21 | 2016-05-26 | International Business Machines Corporation | Extraction of semantic relations using distributional relation detection |
CN104899304A (zh) * | 2015-06-12 | 2015-09-09 | 北京京东尚科信息技术有限公司 | 命名实体识别方法及装置 |
CN106407211A (zh) * | 2015-07-30 | 2017-02-15 | 富士通株式会社 | 对实体词的语义关系进行分类的方法和装置 |
US20170139984A1 (en) * | 2015-11-13 | 2017-05-18 | International Business Machines Corporation | Method And System For Semantic-Based Queries Using Word Vector Representation |
CN107562752A (zh) * | 2016-06-30 | 2018-01-09 | 富士通株式会社 | 对实体词的语义关系进行分类的方法、装置和电子设备 |
CN106649275A (zh) * | 2016-12-28 | 2017-05-10 | 成都数联铭品科技有限公司 | 基于词性信息和卷积神经网络的关系抽取方法 |
CN106855853A (zh) * | 2016-12-28 | 2017-06-16 | 成都数联铭品科技有限公司 | 基于深度神经网络的实体关系抽取*** |
CN106886516A (zh) * | 2017-02-27 | 2017-06-23 | 竹间智能科技(上海)有限公司 | 自动识别语句关系和实体的方法及装置 |
CN107239446A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络与注意力机制的情报关系提取方法 |
Non-Patent Citations (1)
Title |
---|
刘丽佳 等: "基于LM 算法的领域概念实体属性关系抽取", 《中文信息学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111192682A (zh) * | 2019-12-25 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种影像操练数据处理方法、***及存储介质 |
CN111192682B (zh) * | 2019-12-25 | 2024-04-09 | 上海联影智能医疗科技有限公司 | 一种影像操练数据处理方法、***及存储介质 |
CN111325016A (zh) * | 2020-02-04 | 2020-06-23 | 深圳证券信息有限公司 | 一种文本处理方法、***、设备、介质 |
CN111325016B (zh) * | 2020-02-04 | 2024-02-02 | 深圳证券信息有限公司 | 一种文本处理方法、***、设备、介质 |
CN111462893B (zh) * | 2020-03-13 | 2023-08-04 | 云知声智能科技股份有限公司 | 一种提供诊断依据的中文病历辅助诊断方法及*** |
CN111462893A (zh) * | 2020-03-13 | 2020-07-28 | 云知声智能科技股份有限公司 | 一种提供诊断依据的中文病历辅助诊断方法及*** |
CN111523318A (zh) * | 2020-04-02 | 2020-08-11 | 言图科技有限公司 | 一种汉语短语分析方法、***、存储介质及电子设备 |
CN113553841A (zh) * | 2020-04-26 | 2021-10-26 | 顺丰科技有限公司 | 词的表征方法、装置、电子设备及存储介质 |
CN113553841B (zh) * | 2020-04-26 | 2024-02-20 | 顺丰科技有限公司 | 词的表征方法、装置、电子设备及存储介质 |
CN111611799B (zh) * | 2020-05-07 | 2023-06-02 | 北京智通云联科技有限公司 | 基于字典和序列标注模型实体属性抽取方法、***及设备 |
CN111611799A (zh) * | 2020-05-07 | 2020-09-01 | 北京智通云联科技有限公司 | 基于字典和序列标注模型实体属性抽取方法、***及设备 |
CN111859965A (zh) * | 2020-06-11 | 2020-10-30 | 北京三快在线科技有限公司 | 一种实体识别模型训练方法、实体识别方法及装置 |
CN113468878A (zh) * | 2021-07-13 | 2021-10-01 | 腾讯科技(深圳)有限公司 | 词性标注方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019174422A1 (zh) | 2019-09-19 |
CN110276066B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276066A (zh) | 实体关联关系的分析方法及相关装置 | |
CN110287477A (zh) | 实体情感分析方法及相关装置 | |
CN109543190A (zh) | 一种意图识别方法、装置、设备及存储介质 | |
CN110209817A (zh) | 文本处理模型的训练方法、装置和文本处理方法 | |
CN109299476A (zh) | 问答方法、装置、电子设备及存储介质 | |
CN108280462A (zh) | 一种模型训练方法及装置,电子设备 | |
CN108733644B (zh) | 一种文本情感分析方法、计算机可读存储介质及终端设备 | |
CN108959474B (zh) | 实体关系提取方法 | |
CN111898020A (zh) | 基于bert和lstm的知识学习体系推荐方法、设备及介质 | |
CN108334910A (zh) | 一种事件检测模型训练方法以及事件检测方法 | |
CN109582774A (zh) | 自然语言分类方法、装置、设备及存储介质 | |
CN110019660A (zh) | 一种相似文本检测方法及装置 | |
CN110969600A (zh) | 一种产品缺陷检测方法、装置、电子设备及存储介质 | |
CN109376766A (zh) | 一种画像预测分类方法、装置及设备 | |
CN106844330B (zh) | 文章情感的分析方法和装置 | |
CN106445908A (zh) | 文本识别方法和装置 | |
CN112884569A (zh) | 一种信用评估模型的训练方法、装置及设备 | |
CN109346079A (zh) | 基于声纹识别的语音交互方法及装置 | |
CN112464106B (zh) | 对象推荐方法及装置 | |
CN108228869A (zh) | 一种文本分类模型的建立方法及装置 | |
CN110765352A (zh) | 一种用户兴趣识别方法及装置 | |
Osorio et al. | Distributed evolutionary algorithms with adaptive migration period | |
CN109657710A (zh) | 数据筛选方法、装置、服务器及存储介质 | |
CN108460475A (zh) | 基于学生上网行为的贫困生预测方法和装置 | |
CN111523308B (zh) | 中文分词的方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |