CN106855853A - 基于深度神经网络的实体关系抽取*** - Google Patents
基于深度神经网络的实体关系抽取*** Download PDFInfo
- Publication number
- CN106855853A CN106855853A CN201611233056.7A CN201611233056A CN106855853A CN 106855853 A CN106855853 A CN 106855853A CN 201611233056 A CN201611233056 A CN 201611233056A CN 106855853 A CN106855853 A CN 106855853A
- Authority
- CN
- China
- Prior art keywords
- vector
- word
- speech
- entity
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及自然语言处理领域,特别涉及基于深度神经网络的实体关系抽取***;将待处理文本输入所述***中,所述***实现实体关系的自动判断和输出;所述***将词性纳入特征信息输入到卷积神经网络中,由卷积神经网络来完成对包括词、词性和相对于待抽取关系的实***置的信息的自动特征提取,进行实体关系的自动分类;无需手动进行特征提取,预测的效率和准确率更高。所述***提供实体关系的自动抽取工具。
Description
技术领域
本发明涉及自然语言处理领域,特别涉及基于深度神经网络的实体关系抽取***。
背景技术
随着互联网的快速发展,互联网已经成为了人们获取信息的主要渠道,互联网上的文本数据内容也呈现出指数级增长的趋势。互联网上的文本数据中包含了丰富的信息,对于我们构建知识库或知识图谱非常有用;但是人工进行相关知识提取工作量极其巨大,如果计算机能够理解并提取出有用的信息,那将具有非常重要的意义。但互联网上的文本数据几乎都是以自然语言的形式存在,即无结构化的,计算机无法直接进行处理。为了解决这个问题,信息抽取技术应运而生,信息抽取技术从无结构化的文本数据中抽取出结构化数据,包括实体、实体间关系、事件等。
关系抽取是信息抽取技术里的一项关键技术,通常通过命名实体识别技术识别出句子或语篇中的实体,再由关系抽取技术识别实体对之间的关系。关系抽取常用的方法包括:基于规则的抽取方法,基于无监督学习的抽取方法和基于监督学习的抽取方法。基于规则的关系抽取方法是人工编写规则来识别句子或者语篇中两个实体之间的关系。基于无监督学习的关系抽取方法将包括实体的句子或者语篇进行聚类,基于聚类结果进行关系识别。基于监督学习的关系抽取方法,通常将关系抽取问题转化为一个分类问题,再基于传统机器学习技术或深度学习技术进行关系分类。
目前关系抽取方法中,基于规则的方法存在明显的不足,该方法需要人工编写大量的规则,工作量非常大,不易维护,而且必须对每个领域都编写规则,不能很好的扩展到其他领域。基于无监督学习的方法,将句子或语篇进行聚类时,往往效果不是很好,存在召回率和准备率都不高的问题,而且需要很多的人工干预。基于监督学习的关系抽取算法中,基于传统的机器学习算法进行关系分类时,需要人工提炼大量的特征,通常会基于分词、词性标注及句法分析等自然语言处理工具的结果提取特征,而且需要具备特定的领域知识,工作量大。
基于深度学习进行关系分类时,不用人工做大量的特征提取,如利用卷积神经网络进行关系分类,但目前利用卷积神经网络进行关系分类时没有利用句子中词的词性信息,词性是词法分析的重要成果,对理解句子含义非常有意义,为关系分类提供非常重要的信息,能够提高关系分类的准确率,优化关系提取的效果。目前缺乏基于词性的相应的实体关系自动抽取工具。
发明内容
本发明的目的在于克服现有技术中所存在的上述不足,提供基于深度神经网络的实体关系抽取***,所述***提供实体关系的自动抽取工具,将待处理文本输入所述***中,所述***实现实体关系的自动判断和输出;所述***将词性纳入特征信息输入到卷积神经网络中,由卷积神经网络来完成对包括词、词性和相对于待抽取关系的实***置的信息的自动特征提取,进行实体关系的自动分类;无需手动进行特征提取,预测的效率和准确率更高。
为了实现上述发明目的,本发明提供了以下技术方案:基于深度神经网络的实体关系抽取***,所述***包含卷积神经网络,所述***将待处理文本的词信息向量矩阵输入所述卷积神经网络中,由所述卷积神经网络进行特征抽取,进而完成成对待处理文本中实体关系的判断;
所述词信息向量矩阵由词信息向量依序排列而成;
所述词信息向量由对应词向量、词性向量、相对于待抽取关系第一实体的位置向量和相对于第二实体的位置向量拼接而成。
具体的,所述***实现实体关系抽取包含以下实现步骤:
(1)所述***对待处理文本进行分词,形成词序列,将序列中的各个词转换形成对应的词向量;对序列中的各个词进行对应的词性标注,将各个词的词性转化成对应的词性向量;
(2)计算句子中各个词相对于第一实体的位置,生成第一位置向量;计算句子中各个词相对于第二实体的位置,生成第二位置向量;
(3)将词序列中各个词的词向量、词性向量,第一位置向量和第二位置向量,拼接成对应的词信息向量;并将各个词对应的词信息向量依序排列,形成词信息矩阵;
(4)通过卷积神经网络对词信息矩阵进行采样;进而实现实体关系分类判断。
进一步的:所述***还包含词向量转化模块和词性向量转换模块;所述词向量转换模块,完成词向量转化包含以下实现步骤:
构建一个语料库;
对语料库中的文本进行分词,并进行对应词性标注;
对分词后形成词的采用Word Embedding算法进行向量转化,同一个词对应一个向量;
将各个词性采用Word Embedding算法进行向量转化,同一词性对应一个向量。
作为一种优选:所述词向量转化模块和词性向量转化模块选用word2vec来实现词和词性的向量化。
进一步的,所述卷积神经网络包括卷积层、池化层和softmax层;所述卷积层将提取到的特征信息输入到池化层中进行降维处理后,输入到softmax层中进行实体关系的分类预测。
进一步的,所述***为加载有上述实体关系抽取功能程序的计算机或者服务器。
与现有技术相比,本发明的有益效果:本发明提供基于深度神经网络的实体关系抽取***,所述提供实体关系的自动抽取工具,将待处理文本输入所述***中,所述***实现实体关系的自动判断和输出;本***将词性纳入特征信息输入到卷积神经网络中,由卷积神经网络来完成对包括词,词性和相对于待抽取关系的实***置的信息的自动特征提取,进行实体关系的自动分类;在采用卷积神经网络进行关系抽取时,除了利用词信息和相对于实体的位置信息以外,还充分利用了词的词性信息,有助于更好的理解句子语义。将词性向量和词向量结合成一个信息含量更大的向量;当词向量信息不足的时候词性向量信息会作为补充,使卷积神经网络能够自动学习到更多有助于关系分类的特征,准确率更高。当句子中的词语表示存在歧义时,加入词性信息后,可以一定程度上消除歧义,使关系抽取的鲁棒性更好。
与基于规则的关系抽取方法相比,本发明***实现的实体关系抽取不用人工编写大量的规则,减少了工作量;而且能够比较好的扩展到不同的领域。本发明***省略了人工规则编写的步骤,特征的提取由卷积神经网络来完成提取,与基于传统机器学习方法相比,本发明不用做繁琐的特征工程工作,使提升了实体关系的判断效率。
附图说明:
图1为本基于深度神经网络的实体关系抽取***的实现步骤图。
图2为实施例1中本基于深度神经网络的实体关系抽取***实现步骤示意图。
图3为本基于深度神经网络的实体关系抽取***的工作原理示意图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
提供基于深度神经网络的实体关系抽取***:基于深度神经网络的实体关系抽取***,所述***包含卷积神经网络,所述***将待处理文本的词信息向量矩阵输入所述卷积神经网络中,由所述卷积神经网络进行特征抽取,进而完成对待处理文本中实体关系的判断;
所述词信息向量矩阵由词信息向量依序排列而成;
所述词信息向量由对应词向量、词性向量、相对于待抽取关系第一实体的位置向量和相对于第二实体的位置向量拼接而成。
具体的,所述***实现实体关系抽取包含以下实现步骤:
(1)所述***对待处理文本进行分词,形成词序列,将序列中的各个词转换形成对应的词向量;对序列中的各个词进行对应的词性标注,将各个词的词性转化成对应的词性向量;
(2)计算句子中各个词相对于第一实体的位置,生成第一位置向量;计算句子中各个词相对于第二实体的位置,生成第二位置向量;
(3)将词序列中各个词的词向量、词性向量,第一位置向量和第二位置向量,拼接成对应的词信息向量;并将各个词对应的词信息向量依序排列,形成词信息矩阵;
(4)通过卷积神经网络对词信息矩阵进行采样;进而实现实体关系分类判断。
进一步的:所述***还包含词向量转化模块和词性向量转化模块;所述词向量转化模块,完成词向量转化包含以下实现步骤:
构建一个语料库;
对语料库中的文本进行分词,并进行对应词性标注;
对分词后形成词的采用Word Embedding算法进行向量转化,同一个词对应一个向量;
将各个词性采用Word Embedding算法进行向量转化,同一词性对应一个向量。
作为一种优选:所述词向量转化模块和词性向量转化模块选用word2vec来实现词和词性的向量化。
进一步的,所述卷积神经网络包括卷积层、池化层和softmax层;所述卷积层将提取到的特征信息输入到池化层中进行降维处理后,输入到softmax层中进行对实体关系的分类预测。
进一步的,所述***为加载有上述实体关系抽取功能程序的计算机或者服务器。实施例1:
在计算机或者服务器中建立或存储词向量转化模块和词性向量转换模块,并进行训练:如图2所示:选择一个较大的语料库,使用分词工具对语料库中的所有句子进行分词,得到分词结果。对语料库的分词结果,采用Word Embedding技术来生成每个词的N维词向量(N纬度的大小根据语料库中包含词的多少,即语料的规模来设定;在语料库规模较大的情况下,为了避免编码稀疏的问题,可以进行降维,例如使用向量来表示每个词,向量中使用连续的变化的数字),进而得到语料库所包含词的词向量矩阵Matrix1,其中矩阵的每个行向量对应语料库中一个词的词向量。本步骤中语料库中的同一个词对应同一个向量,比如说:“中国”一词,在语料库中可能多次出现,但“中国”一词在向量标注结果中仅对应同一个向量。作为优选,可选择word2vec来实现每个词的向量转化,word2vec可以实现词的向量转化,可以更好的理解词义和语义,所生成的向量中,向量越近,对应的词义也越近。
在分词的基础上,基于语料库的分词结果,使用词性标注工具对语料库中每个句子中的词进行词性标注。得到的词性标注结果后,将句子中的词性作为一个序列;采用WordEmbedding技术生成每个词性的M维词性向量,进而得到语料库的词性向量矩Matrix2,其中矩阵的每一行对应语料库中一个词性的词性向量。
上述过程建立了词与词向量的映射关系,建立了词性与词性向量的映射关系;为卷积神经网络的使用进行了准备。
构建本***功能的卷积神经网络模型,将上述模型存储于计算机或者服务器中;模型建立之后需要对网络进行训练,训练过程如下:在进行正式的分类识别之前,需要对包括卷积层、maxpooling层和softmax层的神经网络进行训练,训练过程与识别过程类似;构建好神经网络后,将一定数量的(比如说300件)人工标注好实体关系类型的训练样本,进行文本分词和词性标注,形成序列,对序列中的每个词在Matrix1查找对应词向量,在Matrix2中抽取对应的词性向量,生成相对于第一实体的第一位置向量,生成相当于第二实体的第二位置向量,将每个词的上述向量拼接成一个对应的词信息向量,并根据分词序列,将各个词的向量依序排列形成矩阵,将矩阵作为卷积神经网络的输入,经过神经网络正反向传播和自动权重调节,直到设置的准确率阈值时,停止训练。
模型训练完毕后,将待处理文本输入所述***中,所述***自动实现以下识别过程:对于包含待抽取关系实体对的待处理文本(句子或语篇),使用分词工具进行分词,得到分词后的序列,并使用词性标注工具进行词性标注。确定待分类句子两个实体(第一实体Entity1和第二实体Entity2)的位置,并计算序列中各个词相对于第一实体Entity1的位置,对每一个位置随机生成一个K维的位置向量Vector3,进而得到位置向量矩阵Matrix3。计算序列中各个词相对于第二实体Entity2的位置,对每一个位置随机生成一个K维的位置向量Vector4,进而得到位置向量矩阵Matrix4。
对于句子或语篇分词结果序列里的每一个词,依次从词向量矩阵Matrix1中取出对应的N维词向量Vector1;对于句子或语篇的词性标注结果序列里的每一个词,依次从词性向量矩阵Matrix2中取出对应的M维词性向量Vector2。基于词相对于Entity1和Entity2的位置,从Matrix3中取出对应的K维位置向量Vector3,从Matrix4中取出对应的K维位置向量Vector4,将Vector1、Vector2、Vector3和Vector4拼接到一起得到N+M+2K维的向量Vector5。
得到句子或语篇中的每个词的N+M+2K维向量后,按序组合到一起得到句子或语篇的向量矩阵Matrix5,假设序列的长度为C。
将Matrix5作为卷积神经网络的输入,首先通过卷积层做卷积操作,卷积核大小为w×(N+M+2K);卷积核每次滑动位置为1,因此每个卷积核可以得到一个长度为C-w+1维的向量。将卷积层采集的向量输入到池化层,通过池化层来降低向量的纬度,可以才采用maxpooling层作为池化层来对每一个卷积核做Max Pooling操作:采用max pooling函数,即取出C-w+1维向量中值最大的那一个;一个卷积核对应一个值,通过池化层后每个句子或者语篇会得到一个向量Vector6,向量Vector6的维数等于网络中卷积核的个数。最后在池化层的基础上,将向量Vector6输入到softmax层中,用softmax层进行实体关系的分类,计算出待处理文本中实体关系的分类概率,取概率最大的关系类型作为分类结果。
如图3所示:本实施例以“XXX集团董事长王X召开临时股东会议”为例来说明本发明***实体关系的抽取过程:将文本输入本发明***中,***自动完成对“XXX集团董事长王X召开临时股东会议”进行分词,得到:“XXX集团董事长王X召开临时股东会议”分词序列,对分词后的序列进行词性标注;词性标注结果为“XXX集团/NN董事长/NN王X/NR召开/VV临时/AD股东会议/NN”。将(由“XXX集团/NN董事长/NN王X/NR召开/VV临时/AD股东会议/NN”对应的词信息矩阵)输入到卷积层中,由卷积神经网络完成特征的提取,输入到max pooling层中,进行降维处理,最后由softmax层输出“XXX集团董事长王X召开临时股东会议”的实体关系类别的判断结果。
Claims (7)
1.基于深度神经网络的实体关系抽取***,其特征在于,所述***包含卷积神经网络,所述***将待处理文本的词信息向量矩阵输入所述卷积神经网络中,由所述卷积神经网络进行特征抽取,进而完成对待处理文本中实体关系的判断;
所述词信息向量矩阵由词信息向量依序排列而成;
所述词信息向量由对应词向量、词性向量、相对于待抽取关系第一实体的位置向量和相对于第二实体的位置向量拼接而成。
2.如权利要求1所述的***,其特征在于,所述***的实体关系抽取包含以下实现步骤:
(1)所述***对待处理文本进行分词,形成词序列,将序列中的各个词转换形成对应的词向量;对序列中的各个词进行对应的词性标注,将各个词的词性转化成对应的词性向量;
(2)计算句子中各个词相对于第一实体的位置,生成第一位置向量;计算句子中各个词相对于第二实体的位置,生成第二位置向量;
(3)将词序列中各个词的词向量、词性向量,第一位置向量和第二位置向量,拼接成对应的词信息向量;并将各个词对应的词信息向量依序排列,形成词信息矩阵;
(4)通过卷积神经网络对词信息矩阵进行采样;进而实现实体关系分类判断。
3.如权利要求2所述的***,其特征在于:所述***还包含词向量转化模块和词性向量转换模块;所述词向量转换模块,完成词向量转化包含以下实现步骤:
构建一个语料库;
对语料库中的文本进行分词,并进行对应词性标注;
对分词后形成词的采用Word Embedding算法进行向量转化,同一个词对应一个向量;
将各个词性采用Word Embedding算法进行向量转化,同一词性对应一个向量。
4.如权利要求3所述的***,其特征在于:所述词向量转化模块和词性向量转换模块采用word2vec来实现词和词性的向量化。
5.如权利要求4所述的***,其特征在于:所述卷积神经网络包括卷积层、池化层和softmax层;所述卷积层将提取到的特征信息输入到池化层中进行降维处理后,输入到softmax层中进行对实体关系的分类预测。
6.如权利要求5所述的***,其特征在于:所述池化层为maxpooling层。
7.如权利要求1至6之一所述的***,其特征在于:所述***为加载有上述实体关系抽取功能程序的计算机或者服务器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611233056.7A CN106855853A (zh) | 2016-12-28 | 2016-12-28 | 基于深度神经网络的实体关系抽取*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611233056.7A CN106855853A (zh) | 2016-12-28 | 2016-12-28 | 基于深度神经网络的实体关系抽取*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106855853A true CN106855853A (zh) | 2017-06-16 |
Family
ID=59126933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611233056.7A Pending CN106855853A (zh) | 2016-12-28 | 2016-12-28 | 基于深度神经网络的实体关系抽取*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106855853A (zh) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480122A (zh) * | 2017-06-26 | 2017-12-15 | 迈吉客科技(北京)有限公司 | 一种人工智能交互方法及人工智能交互装置 |
CN107633362A (zh) * | 2017-09-18 | 2018-01-26 | 前海梧桐(深圳)数据有限公司 | 基于生物特征表达企业要素之间联结方式的方法及其*** |
CN107818080A (zh) * | 2017-09-22 | 2018-03-20 | 新译信息科技(北京)有限公司 | 术语识别方法及装置 |
CN107895051A (zh) * | 2017-12-08 | 2018-04-10 | 宏谷信息科技(珠海)有限公司 | 一种基于人工智能的股票新闻量化方法及*** |
CN107943847A (zh) * | 2017-11-02 | 2018-04-20 | 平安科技(深圳)有限公司 | 企业关系提取方法、装置及存储介质 |
CN107944559A (zh) * | 2017-11-24 | 2018-04-20 | 国家计算机网络与信息安全管理中心 | 一种实体关系自动识别方法及*** |
CN108009285A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 基于自然语言处理的林业生态环境人机交互方法 |
CN108133436A (zh) * | 2017-11-23 | 2018-06-08 | 科大讯飞股份有限公司 | 自动判案方法及*** |
CN108280058A (zh) * | 2018-01-02 | 2018-07-13 | 中国科学院自动化研究所 | 基于强化学习的关系抽取方法和装置 |
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
CN108287820A (zh) * | 2018-01-12 | 2018-07-17 | 北京神州泰岳软件股份有限公司 | 一种文本表示的生成方法及装置 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及***和设备 |
CN108304530A (zh) * | 2018-01-26 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 知识库词条分类方法和装置、模型训练方法和装置 |
CN108416434A (zh) * | 2018-02-07 | 2018-08-17 | 复旦大学 | 针对神经网络的卷积层与全连接层进行加速的电路结构 |
CN108595429A (zh) * | 2018-04-25 | 2018-09-28 | 杭州闪捷信息科技股份有限公司 | 基于深度卷积神经网络进行文本特征提取的方法 |
CN108846017A (zh) * | 2018-05-07 | 2018-11-20 | 国家计算机网络与信息安全管理中心 | 基于Bi-GRU和字向量的大规模新闻文本的端到端分类方法 |
CN109063159A (zh) * | 2018-08-13 | 2018-12-21 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
CN109446328A (zh) * | 2018-11-02 | 2019-03-08 | 成都四方伟业软件股份有限公司 | 一种文本识别方法、装置及其存储介质 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN109661664A (zh) * | 2017-06-22 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法及相关装置 |
CN109710759A (zh) * | 2018-12-17 | 2019-05-03 | 北京百度网讯科技有限公司 | 文本切分方法、装置、计算机设备和可读存储介质 |
CN109800413A (zh) * | 2018-12-11 | 2019-05-24 | 北京百度网讯科技有限公司 | 新闻事件的识别方法、装置、设备及可读存储介质 |
CN109885627A (zh) * | 2019-02-13 | 2019-06-14 | 北京航空航天大学 | 一种神经网络训练实体间关系的方法及装置 |
CN109902186A (zh) * | 2019-03-12 | 2019-06-18 | 北京百度网讯科技有限公司 | 用于生成神经网络的方法和装置 |
CN109902309A (zh) * | 2018-12-17 | 2019-06-18 | 北京百度网讯科技有限公司 | 翻译方法、装置、设备和存储介质 |
CN110276066A (zh) * | 2018-03-16 | 2019-09-24 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
CN110688486A (zh) * | 2019-09-26 | 2020-01-14 | 北京明略软件***有限公司 | 一种关系分类的方法和模型 |
CN110704547A (zh) * | 2019-09-26 | 2020-01-17 | 北京明略软件***有限公司 | 基于神经网络的关系抽取数据生成方法、模型及训练方法 |
CN110928546A (zh) * | 2018-09-20 | 2020-03-27 | 西门子股份公司 | 确定存在依赖违规的方法、装置、电子设备、介质及程序 |
CN111192692A (zh) * | 2020-01-02 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
CN111274812A (zh) * | 2018-12-03 | 2020-06-12 | 阿里巴巴集团控股有限公司 | 一种人物关系识别方法、设备及存储介质 |
JP2020107085A (ja) * | 2018-12-27 | 2020-07-09 | 楽天株式会社 | 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム |
CN111400456A (zh) * | 2020-03-20 | 2020-07-10 | 北京百度网讯科技有限公司 | 资讯推荐方法及装置 |
CN112990388A (zh) * | 2021-05-17 | 2021-06-18 | 成都数联铭品科技有限公司 | 基于概念词的文本聚类方法 |
CN113076744A (zh) * | 2021-04-16 | 2021-07-06 | 重庆中国三峡博物馆 | 一种基于卷积神经网络的文物知识关系抽取方法 |
CN113792539A (zh) * | 2021-09-15 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于人工智能的实体关系分类方法、装置、电子设备及介质 |
US11288294B2 (en) | 2018-04-26 | 2022-03-29 | Accenture Global Solutions Limited | Natural language processing and artificial intelligence based search system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202044A (zh) * | 2016-07-07 | 2016-12-07 | 武汉理工大学 | 一种基于深度神经网络的实体关系抽取方法 |
-
2016
- 2016-12-28 CN CN201611233056.7A patent/CN106855853A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202044A (zh) * | 2016-07-07 | 2016-12-07 | 武汉理工大学 | 一种基于深度神经网络的实体关系抽取方法 |
Non-Patent Citations (2)
Title |
---|
THIEN HUU NGUYEN 等: "Relation Extraction: Perspective from Convolutional Neural Networks", 《PROCEEDINGS OF NAACL-HLT 2015》 * |
洪军建: "面向社会网络应用的人物关系抽取方法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109661664A (zh) * | 2017-06-22 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法及相关装置 |
US10789415B2 (en) | 2017-06-22 | 2020-09-29 | Tencent Technology (Shenzhen) Company Limited | Information processing method and related device |
WO2019001127A1 (zh) * | 2017-06-26 | 2019-01-03 | 迈吉客科技(北京)有限公司 | 基于虚拟人物的人工智能交互方法及人工智能交互装置 |
CN107480122A (zh) * | 2017-06-26 | 2017-12-15 | 迈吉客科技(北京)有限公司 | 一种人工智能交互方法及人工智能交互装置 |
CN107480122B (zh) * | 2017-06-26 | 2020-05-08 | 迈吉客科技(北京)有限公司 | 人工智能交互方法及人工智能交互装置 |
CN107633362B (zh) * | 2017-09-18 | 2020-11-20 | 前海梧桐(深圳)数据有限公司 | 基于生物特征表达企业要素之间联结方式的方法及其*** |
CN107633362A (zh) * | 2017-09-18 | 2018-01-26 | 前海梧桐(深圳)数据有限公司 | 基于生物特征表达企业要素之间联结方式的方法及其*** |
CN107818080A (zh) * | 2017-09-22 | 2018-03-20 | 新译信息科技(北京)有限公司 | 术语识别方法及装置 |
CN107943847A (zh) * | 2017-11-02 | 2018-04-20 | 平安科技(深圳)有限公司 | 企业关系提取方法、装置及存储介质 |
CN107943847B (zh) * | 2017-11-02 | 2019-05-17 | 平安科技(深圳)有限公司 | 企业关系提取方法、装置及存储介质 |
WO2019085328A1 (zh) * | 2017-11-02 | 2019-05-09 | 平安科技(深圳)有限公司 | 企业关系提取方法、装置及存储介质 |
CN108133436A (zh) * | 2017-11-23 | 2018-06-08 | 科大讯飞股份有限公司 | 自动判案方法及*** |
CN107944559A (zh) * | 2017-11-24 | 2018-04-20 | 国家计算机网络与信息安全管理中心 | 一种实体关系自动识别方法及*** |
CN107895051A (zh) * | 2017-12-08 | 2018-04-10 | 宏谷信息科技(珠海)有限公司 | 一种基于人工智能的股票新闻量化方法及*** |
CN108009285A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 基于自然语言处理的林业生态环境人机交互方法 |
CN108280058A (zh) * | 2018-01-02 | 2018-07-13 | 中国科学院自动化研究所 | 基于强化学习的关系抽取方法和装置 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及***和设备 |
CN108287820A (zh) * | 2018-01-12 | 2018-07-17 | 北京神州泰岳软件股份有限公司 | 一种文本表示的生成方法及装置 |
CN108287820B (zh) * | 2018-01-12 | 2021-06-11 | 鼎富智能科技有限公司 | 一种文本表示的生成方法及装置 |
CN108280061A (zh) * | 2018-01-17 | 2018-07-13 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
US11455542B2 (en) | 2018-01-17 | 2022-09-27 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Text processing method and device based on ambiguous entity words |
CN108280061B (zh) * | 2018-01-17 | 2021-10-26 | 北京百度网讯科技有限公司 | 基于歧义实体词的文本处理方法和装置 |
CN108304530A (zh) * | 2018-01-26 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 知识库词条分类方法和装置、模型训练方法和装置 |
CN108416434B (zh) * | 2018-02-07 | 2021-06-04 | 复旦大学 | 针对神经网络的卷积层与全连接层进行加速的电路结构 |
CN108416434A (zh) * | 2018-02-07 | 2018-08-17 | 复旦大学 | 针对神经网络的卷积层与全连接层进行加速的电路结构 |
CN110276066A (zh) * | 2018-03-16 | 2019-09-24 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
CN110276066B (zh) * | 2018-03-16 | 2021-07-27 | 北京国双科技有限公司 | 实体关联关系的分析方法及相关装置 |
CN108595429A (zh) * | 2018-04-25 | 2018-09-28 | 杭州闪捷信息科技股份有限公司 | 基于深度卷积神经网络进行文本特征提取的方法 |
US11288294B2 (en) | 2018-04-26 | 2022-03-29 | Accenture Global Solutions Limited | Natural language processing and artificial intelligence based search system |
CN108846017A (zh) * | 2018-05-07 | 2018-11-20 | 国家计算机网络与信息安全管理中心 | 基于Bi-GRU和字向量的大规模新闻文本的端到端分类方法 |
CN109063159A (zh) * | 2018-08-13 | 2018-12-21 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
CN109063159B (zh) * | 2018-08-13 | 2021-04-23 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
CN110928546A (zh) * | 2018-09-20 | 2020-03-27 | 西门子股份公司 | 确定存在依赖违规的方法、装置、电子设备、介质及程序 |
CN109446328A (zh) * | 2018-11-02 | 2019-03-08 | 成都四方伟业软件股份有限公司 | 一种文本识别方法、装置及其存储介质 |
CN109522557A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN109522557B (zh) * | 2018-11-16 | 2021-07-16 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
CN111274812A (zh) * | 2018-12-03 | 2020-06-12 | 阿里巴巴集团控股有限公司 | 一种人物关系识别方法、设备及存储介质 |
CN111274812B (zh) * | 2018-12-03 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 一种人物关系识别方法、设备及存储介质 |
CN109800413A (zh) * | 2018-12-11 | 2019-05-24 | 北京百度网讯科技有限公司 | 新闻事件的识别方法、装置、设备及可读存储介质 |
CN109902309A (zh) * | 2018-12-17 | 2019-06-18 | 北京百度网讯科技有限公司 | 翻译方法、装置、设备和存储介质 |
CN109710759B (zh) * | 2018-12-17 | 2021-06-08 | 北京百度网讯科技有限公司 | 文本切分方法、装置、计算机设备和可读存储介质 |
CN109902309B (zh) * | 2018-12-17 | 2023-06-02 | 北京百度网讯科技有限公司 | 翻译方法、装置、设备和存储介质 |
CN109710759A (zh) * | 2018-12-17 | 2019-05-03 | 北京百度网讯科技有限公司 | 文本切分方法、装置、计算机设备和可读存储介质 |
JP2020107085A (ja) * | 2018-12-27 | 2020-07-09 | 楽天株式会社 | 学習装置、妥当性判定装置、学習方法、妥当性判定方法、学習プログラム、及び妥当性判定プログラム |
CN109885627A (zh) * | 2019-02-13 | 2019-06-14 | 北京航空航天大学 | 一种神经网络训练实体间关系的方法及装置 |
CN109902186A (zh) * | 2019-03-12 | 2019-06-18 | 北京百度网讯科技有限公司 | 用于生成神经网络的方法和装置 |
CN110688486A (zh) * | 2019-09-26 | 2020-01-14 | 北京明略软件***有限公司 | 一种关系分类的方法和模型 |
CN110704547A (zh) * | 2019-09-26 | 2020-01-17 | 北京明略软件***有限公司 | 基于神经网络的关系抽取数据生成方法、模型及训练方法 |
CN111192692A (zh) * | 2020-01-02 | 2020-05-22 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
CN111192692B (zh) * | 2020-01-02 | 2023-12-08 | 上海联影智能医疗科技有限公司 | 一种实体关系的确定方法、装置、电子设备及存储介质 |
CN111400456A (zh) * | 2020-03-20 | 2020-07-10 | 北京百度网讯科技有限公司 | 资讯推荐方法及装置 |
CN111400456B (zh) * | 2020-03-20 | 2023-09-26 | 北京百度网讯科技有限公司 | 资讯推荐方法及装置 |
CN113076744A (zh) * | 2021-04-16 | 2021-07-06 | 重庆中国三峡博物馆 | 一种基于卷积神经网络的文物知识关系抽取方法 |
CN112990388B (zh) * | 2021-05-17 | 2021-08-24 | 成都数联铭品科技有限公司 | 基于概念词的文本聚类方法 |
CN112990388A (zh) * | 2021-05-17 | 2021-06-18 | 成都数联铭品科技有限公司 | 基于概念词的文本聚类方法 |
CN113792539A (zh) * | 2021-09-15 | 2021-12-14 | 平安科技(深圳)有限公司 | 基于人工智能的实体关系分类方法、装置、电子设备及介质 |
CN113792539B (zh) * | 2021-09-15 | 2024-02-20 | 平安科技(深圳)有限公司 | 基于人工智能的实体关系分类方法、装置、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106855853A (zh) | 基于深度神经网络的实体关系抽取*** | |
CN106649275A (zh) | 基于词性信息和卷积神经网络的关系抽取方法 | |
CN109948165B (zh) | 基于混合注意力网络的细粒度情感极性预测方法 | |
CN110427463B (zh) | 搜索语句响应方法、装置及服务器和存储介质 | |
CN106295796B (zh) | 基于深度学习的实体链接方法 | |
CN106484664B (zh) | 一种短文本间相似度计算方法 | |
CN104834747B (zh) | 基于卷积神经网络的短文本分类方法 | |
CN110083833B (zh) | 中文字词向量和方面词向量联合嵌入情感分析方法 | |
CN107463658B (zh) | 文本分类方法及装置 | |
CN104598611B (zh) | 对搜索条目进行排序的方法及*** | |
CN110162636A (zh) | 基于d-lstm的文本情绪原因识别方法 | |
CN108399158A (zh) | 基于依存树和注意力机制的属性情感分类方法 | |
CN110222178A (zh) | 文本情感分类方法、装置、电子设备及可读存储介质 | |
CN113505200B (zh) | 一种结合文档关键信息的句子级中文事件检测的方法 | |
CN115393692A (zh) | 基于生成式预训练语言模型的联想文本到图像生成方法 | |
CN111291187B (zh) | 一种情感分析方法、装置、电子设备及存储介质 | |
CN107688870A (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
CN115455171B (zh) | 文本视频的互检索以及模型训练方法、装置、设备及介质 | |
CN112561718A (zh) | 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法 | |
CN113486645A (zh) | 一种基于深度学习的文本相似度检测方法 | |
CN111985612A (zh) | 一种提高视频文本描述准确性的编码器网络模型设计方法 | |
CN115905487A (zh) | 文档问答方法、***、电子设备及存储介质 | |
CN114547303A (zh) | 基于Bert-LSTM的文本多特征分类方法及装置 | |
CN114282592A (zh) | 一种基于深度学习的行业文本匹配模型方法及装置 | |
CN111382333A (zh) | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170616 |
|
WD01 | Invention patent application deemed withdrawn after publication |