CN108920445A - 一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 - Google Patents
一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 Download PDFInfo
- Publication number
- CN108920445A CN108920445A CN201810369183.2A CN201810369183A CN108920445A CN 108920445 A CN108920445 A CN 108920445A CN 201810369183 A CN201810369183 A CN 201810369183A CN 108920445 A CN108920445 A CN 108920445A
- Authority
- CN
- China
- Prior art keywords
- lstm
- module
- character
- matrix
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于Bi‑LSTM‑CRF模型的命名实体识别方法和装置,对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,将所述向量矩阵输入Bi‑LSTM模块;将Bi‑LSTM模块的所述发射矩阵输入CRF层形成Bi‑LSTM‑CRF模型,所述Bi‑LSTM‑CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi‑LSTM‑CRF模块的超参数。解决现有技术中的模型无法考虑长远的上下文信息,无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题,达到了直接将原始语句输入模型就可以提取出语句中的命名实体,适应性强,适用面广,提高对实体识别的准确率的技术效果。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置。
背景技术
在所有的自然语言处理应用中,命名实体识别是最基本也是应用最广泛的一种。它是指识别文中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。命名实体识别这一应用是后续的其他应用如信息提取、问答***、句法分析、机器翻译、面向semantic web的元数据标注等应用领域的重要基础工具。通过对命名实体识别这一工具的应用,可以构建一种自然语言模型,这种语言模型可以像人类那样理解、分析并回答自然语言的结果。目前命名实体识别方案,基本可分为两类:基于统计的方法与基于神经网络的方法。基于统计的方法主要包括HMM模型和CRF模型、基于神经网络的方法主要包括卷积神经网络和LSTM神经网络。
现有技术中基于统计的方法存在无法考虑长远的上下文信息,基于神经网络的方法存在输出之间相互独立,如果输出的识别标记之间具有较强的依赖关系,则基于神经网络的方案就无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题。
发明内容
本发明实施例提供了一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置,解决现有技术中的模型无法考虑长远的上下文信息,无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题。
鉴于上述问题,提出了本申请实施例以便提供一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置。
第一方面,本发明提供了一种基于Bi-LSTM-CRF模型的命名实体识别方法,所述方法包括:
对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
优选地,对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列,还包括:根据所述第一字符序列进行人工标记,获得标记数据;将所述标记数据输入神经网络。
优选地,所述根据所述字符序列中的各个字符做映射,获得向量矩阵,还包括:构建字符共现矩阵;根据梯度下降法对所述共现矩阵进行矩阵分解,获得字符向量;对所述字符做映射,获得特征矩阵,并根据未登录字符统一映射到未登录字符集的字向量。
优选地,所述将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵,还包括:确定所述神经网络的超参数;在训练过程中,使用batch normalization方法加速训练;将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。
优选地,将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模块,所述Bi-LSTM-CRF模块对所述自然语言进行整句实体识别,还包括:根据对所述自然语言进行整句实体识别,获得第一矩阵;根据所述第一矩阵,获得标签序列。
优选地,其特征在于,所述交叉检验包括:将所述标记数据分成训练数据集与测试数据集;根据所述测试数据集对不同的参数集训练,获得一系列不同超参数的模型;根据所述测试数据集评价所述一系列不同超参数的模型,确定最佳模型的参数。
第二方面,本发明提供了一种基于Bi-LSTM-CRF模型的命名实体识别装置,所述装置包括:
第一获得单元,所述第一获得单元用于对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;
第一比对单元,所述第一比对单元用于在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;
第二获得单元,所述第二获得单元用于根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
第三获得单元,所述第三获得单元用于将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;
第一识别单元,所述第一识别单元用于将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
第一确定单元,所述第一确定单元用于根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
优选地,所述装置还包括:
第四获得单元,所述第四获得单元用于根据所述第一字符序列进行人工标记,获得标记数据;
第一输入单元,所述第一输入单元用于将所述标记数据输入神经网络。
优选地,所述装置还包括:
第一构建单元,所述第一构建单元用于构建字符共现矩阵;
第五获得单元,所述第五获得单元用于根据梯度下降法对所述共现矩阵进行矩阵分解,获得字符向量;
第六获得单元,所述第六获得单元用于对所述字符做映射,获得特征矩阵,,并根据未登录字符统一映射到未登录字符集的字向量。
优选地,所述装置还包括:
第二确定单元,所述第二确定单元用于确定所述神经网络的超参数;
第一加速单元,所述第一加速单元用于在训练过程中,使用batch normalization方法加速训练;
第一输出单元,所述第一输出单元用于将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。
优选地,所述装置还包括:
第七获得单元,所述第七获得单元用于根据对所述自然语言进行整句实体识别,获得第一矩阵;
第八获得单元,所述第八获得单元用于根据所述第一矩阵,获得标签序列。
优选地,所述交叉检验包括:
第一筛分单元,所述第一筛分单元用于将所述标记数据分成训练数据集与测试数据集;
第九获得单元,所述第九获得单元用于根据所述测试数据集对不同的参数集训练,获得一系列不同超参数的模型;
第三确定单元,所述第三确定单元用于根据所述测试数据集评价所述一系列不同超参数的模型,确定最佳模型的参数。
第三方面,本发明提供了一种基于Bi-LSTM-CRF模型的命名实体识别装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
1.本申请实施例提供的一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置,通过对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。解决现有技术中的模型无法考虑长远的上下文信息,无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题,达到了直接将原始语句输入模型就可以提取出语句中的命名实体,适应性强,适用面广,提高对实体识别的准确率的技术效果。
2.本申请实施例通过确定所述神经网络的超参数;在训练过程中,使用batchnormalization方法加速训练;将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。进一步的通过端到端的模型,不需要专门将自然语言数据处理成某个特定的格式,也不需要对原始数据做特征转换,直接将原始语句输入模型就可以提取出语句中的命名实体,适应性更强。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
图1为本发明实施例中一种基于Bi-LSTM-CRF模型的命名实体识别方法的流程示意图;
图2为本发明实施例中一种基于Bi-LSTM-CRF模型的命名实体识别装置的结构示意图;
图3为本发明实施例中提供的Bi-LSTM网络模型工作示意图;
图4为本发明实施例中提供的Bi-LSTM-CRF模型结构示意图。
具体实施方式
本发明实施例提供了一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置,本发明提供的技术方案总体思路如下:对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。用于解决现有技术中的模型无法考虑长远的上下文信息,无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题,达到了直接将原始语句输入模型就可以提取出语句中的命名实体,适应性强,适用面广,提高对实体识别的准确率的技术效果。
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
实施例一
图1为本发明实施例中一种基于Bi-LSTM-CRF模型的命名实体识别方法的流程示意图。如图1所示,所述方法包括:
步骤110:对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列。
步骤120:在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符。
进一步的,根据所述第一字符序列进行人工标记,获得标记数据;将所述标记数据输入神经网络。
具体而言,在训练的情况下,将输入的自然语言进行切割,获得第一字符序列C,所述第一字符序列C中的元素即为原始输入语言中的单字和标点符号;根据所述第一字符序列进行人工标记,获得标记数据,将所述标记数据输入神经网络。举例而言,通过字母序列标记字符序列即为标记序列,标记序列中的每一个元素即为对应的字符的实体类别,其中B-代表该字符是实体的起始字符,E-代表该字符是结束字符,N代表其他类别,L代表地点,O代表机构,T代表时间,P代表人名。其中需要识别的实体类别可以根据需要进行增加或减少,仅需在标记数据时将对应的类别做对应的改动即可。在预测的情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符<UNK>。
步骤130:根据所述字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
进一步的,构建字符共现矩阵;根据梯度下降法对所述共现矩阵进行矩阵分解,获得字符向量;对所述字符做映射,获得特征矩阵,并根据未登录字符统一映射到未登录字符集的字向量。
具体而言,将所述第一字符序列C中每个字符做一个映射,使得一个字符被表达成为一个维度固定的向量,本申请实施例中将向量维度数目定为50维。对于一句自然语言语句,通过上述步骤即可得到一个特征矩阵,所述特征矩阵的每一行即为一个字符代表的字向量,矩阵行数和字符数一致。字符对应的向量由预先训练好的模型得到。为了达到上述目的,可将本步骤分为三步进行:
步骤131:对语料数据进行统计,得到一个字符级别的共现矩阵,所述共现矩阵中的每个元素即为任意两个字符在同一句话中出现的频次的对数值,而此时得到的所述共现矩阵存在离散字向量和高维且稀疏的特性,无法作为字向量。
步骤132:对所述共现矩阵进行降维,本发明实施例采用了梯度下降法对所述共现矩阵进行矩阵分解,通过最小化损失函数来确定各个字符的分布式表示,其中损失函数定义如下:
上式中,Xij是字符wi和字符wj在同一句话中共同出现的次数的对数,vi是字符wi作为中心字符时的分布式表示,uj是字符wj的作为上下文时的分布式表示,使用随机梯度下降法对所述损失函数最小化,最终得到的收敛值即为字符向量Mc。
步骤133:将所述字符序列里的每一个元素做一个映射,映射的方式即为查表的方式。最终结果即为原始自然语言对应的特征矩阵M_s。对于未登录的字符,统一将其映射到<UNK>代表的字向量上去。即可消除字符的二义性,并减少噪声影响。
步骤140:将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵。
进一步的,确定所述神经网络的超参数;在训练过程中,使用batchnormalization方法加速训练;将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。
具体而言,将原始自然语言的所述向量矩阵输入Bi-LSTM网络之后,网络里的前向LSTM模块会从前向后对向量序列进行非线性变换,后向LSTM模块会从后向前地对向量序列进行非线性变换,将所述前向LSTM模块和后向LSTM模块输出地结果进行结合,最终将结合的结果经过softmax操作之后就可以得到一个同时考虑前向和后向信息的抽象语言表达方式。本步骤主要包括以下几个步骤:
步骤141:确定所述神经网络的超参数,即所述神经网络的具体参数主要包括输入向量维为50维,隐层向量256维,输出维度为50维,隐层向量初始化方式为随机初始化。
步骤142:在训练的过程中,使用batch normalization技术来加速训练。即每次输入进Bi-LSTM网络的为一个batch size的训练数据而非单个训练数据。具体做法为将输入的batch size个句子代表的特征矩阵M_s做归一化,使其具有0均值和单位方差,具体如下所示:
上式中,M_s(i,j)代表特征矩阵里第i行第j列的元素,E[]操作代表求期望,Var操作代表求方差。通过所述归一化操作得到的数据均满足0均值、单位方差、弱相关性。
步骤143:为了能够同时考虑一个句子中过去和未来的信息,在所述Bi-LSTM模块中同时加入所述前向LSTM模块和后向LSTM模块。对于所述前向LSTM模块,在每个时间点,输入的为所述自然语言的特征矩阵M_s中的每一行,每个时刻的输出为一个向量和一个隐向量,输出的向量即为单字到实体类别的发射概率,所述隐向量会输入下一个时间点的LSTM模块,和下一个时间点的输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。对于所述后向LSTM模块,则会反方向地完成所述前向LSTM模块的操作。所述前向LSTM模块和后向LSTM模块获得输出向量之后,将两者地输出向量输入连接层并进行非线性变换即可得到发射概率。即可得到由字符到实体类别的所述发射矩阵Me,它将作为评价分数成为评价某个标记路径的考量之一。
图3为Bi-LSTM模块工作的示意图,从图中可以看出输入特征矩阵里的每个圆代表一个字向量,所述前向LSTM模块和后向LSTM模块分别从前往后和从后往前读取字向量序列。
针对所述训练过程中可能出现的过拟合等问题,可以采取如下几个方式来解决:
1)early stopping:设置一个最大持续轮次,在每个轮次结束时,对所得到的最新模型参数在测试集上进行测试,得到相应的准确率并记录最佳的准确率,当最新模型参数在测试集上得到的准确率连续小于最佳准确率的次数大于最大持续轮次时即停止训练并保存最佳参数。
2)dropout training:在训练过程中,以一定的几率p舍弃部分神经元的输出值。
3)使用正则化项来减小模型复杂度,即在要优化的模型目标函数之后加上一个正则化项,在本发明实施例中,采用所述正则化项是模型参数向量的L2范数,通过最小化带正则化项的目标函数即可得到较为简单的模型,这种模型具有更强的泛化能力。
步骤150:将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
进一步的,根据对所述自然语言进行整句实体识别,获得第一矩阵;根据所述第一矩阵,获得标签序列。
具体而言,请参考图4,图4为整个模型的结构示意图。将所述Bi-LSTM模块输出的所述发射矩阵Me输入所述CRF层,所述Bi-LSTM-CRF模型对所述自然语言做一个句子级别的实体识别。它的输出结果是所述第一矩阵,所述第一矩阵中的元素是从一个实体类别转移到另一个实体类别的得分。根据所述第一矩阵,获得标签序列,即实体对应的类别y=(y1,y2,…),所述Bi-LSTM-CRF模型对于句子的标签为y这一结果的打分为:
上式中,Pi,yi是Bi-LSTM层输出的发射矩阵的元素,而Ayi-byi则是CRF层输出的转移矩阵的元素。可以看出整个序列的打分是各个模块的分的总和,而每个位置的打分都通过两个模块得到,一部分是所述Bi-LSTM模型的输出发射概率矩阵,另一部分则是所述CRF层的输出转移概率矩阵。通过上述公式进行归一化处理后就得到y对应于所述自然语言的概率:
在所述Bi-LSTM-CRF模型训练时,通过最大似然函数来调整参数;
在预测(解码)的过程中就通过使用动态规划的算法viterbi来求解得分最高的序列。
步骤160:根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
进一步的,所述交叉检验包括:将所述标记数据分成训练数据集与测试数据集;根据所述测试数据集对不同的参数集训练,获得一系列不同超参数的模型;根据所述测试数据集评价所述一系列不同超参数的模型,确定最佳模型的参数。
具体而言,针对所述Bi-LSTM-CRF模型,为了使模型更好地拟合数据,本申请实施例使用交叉验证的方法来确定所述Bi-LSTM-CRF模型最优的超参数,具体步骤如下:
步骤161:随机地将所述标记数据分成两部分,一部分作为训练数据集,另一部分则作为测试数据集;
步骤162:根据所述训练数据集对不同的参数集上进行训练,获得一系列不同超参数的模型;
步骤163:根据所述测试数据集评价所述一系列不同超参数的模型,表现最佳的模型的参数即为最佳超参数。
实施例2
基于与前述实施例中一种基于Bi-LSTM-CRF模型的命名实体识别方法同样的发明构思,本发明还提供一种基于Bi-LSTM-CRF模型的命名实体识别装置,如图2所示,所述装置包括:
第一获得单元,所述第一获得单元用于对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;
第一比对单元,所述第一比对单元用于在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;
第二获得单元,所述第二获得单元用于根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
第三获得单元,所述第三获得单元用于将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;
第一识别单元,所述第一识别单元用于将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
第一确定单元,所述第一确定单元用于根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
进一步的,所述装置还包括:
第四获得单元,所述第四获得单元用于根据所述第一字符序列进行人工标记,获得标记数据;
第一输入单元,所述第一输入单元用于将所述标记数据输入神经网络。
进一步的,所述装置还包括:
第一构建单元,所述第一构建单元用于构建字符共现矩阵;
第五获得单元,所述第五获得单元用于根据梯度下降法对所述共现矩阵进行矩阵分解,获得字符向量;
第六获得单元,所述第六获得单元用于对所述字符做映射,获得特征矩阵。
进一步的,所述装置还包括:
第二确定单元,所述第二确定单元用于确定所述神经网络的超参数;
第一加速单元,所述第一加速单元用于在训练过程中,使用batch normalization方法加速训练;
第一输出单元,所述第一输出单元用于将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。
进一步的,所述装置还包括:
第七获得单元,所述第七获得单元用于根据对所述自然语言进行整句实体识别,获得第一矩阵;
第八获得单元,所述第八获得单元用于根据所述第一矩阵,获得标签序列。
进一步的,所述交叉检验包括:
第一筛分单元,所述第一筛分单元用于将所述标记数据分成训练数据集与测试数据集;
第九获得单元,所述第九获得单元用于根据所述测试数据集对不同的参数集训练,获得一系列不同超参数的模型;
第三确定单元,所述第三确定单元用于根据所述测试数据集评价所述一系列不同超参数的模型,确定最佳模型的参数。
前述图1实施例1中的一种基于Bi-LSTM-CRF模型的命名实体识别方法的各种变化方式和具体实例同样适用于本实施例的一种基于Bi-LSTM-CRF模型的命名实体识别装置,通过前述对一种基于Bi-LSTM-CRF模型的命名实体识别方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种基于Bi-LSTM-CRF模型的命名实体识别装置的实施方法,所以为了说明书的简洁,在此不再详述。
本申请实施例中的上述一个或多个技术方案,至少具有如下一种或多种技术效果:
1.本申请实施例提供的一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置,通过对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列不存在于所述第一字符序列中的字符归为未登录字符;根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。解决现有技术中的模型无法考虑长远的上下文信息,无法对这些依赖关系进行建模,从而使得识别的准确率受到限制的技术问题,达到了直接将原始语句输入模型就可以提取出语句中的命名实体,适应性强,适用面广,提高对实体识别的准确率的技术效果。
2.本申请实施例通过确定所述神经网络的超参数;在训练过程中,使用batchnormalization方法加速训练;将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。进一步的通过端到端的模型,不需要专门将自然语言数据处理成某个特定的格式,也不需要对原始数据做特征转换,直接将原始语句输入模型就可以提取出语句中的命名实体,适应性更强。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种基于Bi-LSTM-CRF模型的命名实体识别方法,其特征在于,所述方法包括:
对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列;
在预测情况下,将输入的第二自然语言进行分隔,获得第二字符序列,根据比对所述第二字符序列与所述第一字符序列,将所述第二字符序列中不存在于所述第一字符序列的字符归为未登录字符;
根据所述第一字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;
将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
2.如权利要求1所述的方法,其特征在于,对自然语言进行数据预处理,在训练情况下,将输入的第一自然语言进行分隔,获得第一字符序列,还包括:
根据所述第一字符序列进行人工标记,获得标记数据;
将所述标记数据输入神经网络。
3.如权利要求1所述的方法,其特征在于,所述根据所述第一字符序列中的各个字符做映射,获得向量矩阵,还包括:
构建字符共现矩阵;
根据梯度下降法对所述共现矩阵进行矩阵分解,获得字符向量;
对所述字符做映射,获得特征矩阵,并根据未登录字符统一映射到未登录字符集的字向量。
4.如权利要求1所述的方法,其特征在于,所述将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵,还包括:
确定所述神经网络的超参数;
在训练过程中,使用batch normalization方法加速训练;
将前向LSTM模块和后向LSTM模块加入Bi-LSTM模块,其中,在前向LSTM模块的每个时间点,输入所述自然语言的所述特征矩阵中的每一行,所述每个时间点的输出为一个向量和一个隐向量,其中所述隐向量输入下一个时间点的LSTM模块,和下一个时间点输入的特征矩阵中的每一行共同产生所述下一个时间点的输出。
5.如权利要求1所述的方法,其特征在于,将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模块,所述Bi-LSTM-CRF模块对所述自然语言进行整句实体识别,还包括:
根据对所述自然语言进行整句实体识别,获得第一矩阵;
根据所述第一矩阵,获得标签序列。
6.如权利要求1所述的方法,其特征在于,所述交叉检验包括:
将所述标记数据分成训练数据集与测试数据集;
根据所述测试数据集对不同的参数集训练,获得一系列不同超参数的模型;
根据所述测试数据集评价所述一系列不同超参数的模型,确定最佳模型的参数。
7.一种基于Bi-LSTM-CRF模型的命名实体识别装置,其特征在于,所述装置包括:
第一获得单元,所述第一获得单元用于对自然语言进行数据预处理,在训练情况下,将输入的所述自然语言进行分隔,获得字符序列;
第二获得单元,所述第二获得单元用于根据所述字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
第三获得单元,所述第三获得单元用于将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;
第一识别单元,所述第一识别单元用于将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
第一确定单元,所述第一确定单元用于根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
8.一种基于Bi-LSTM-CRF模型的命名实体识别装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现以下步骤:
对自然语言进行数据预处理,在训练情况下,将输入的所述自然语言进行分隔,获得字符序列;
根据所述字符序列中的各个字符做映射,获得向量矩阵,其中,所述向量矩阵包括所述各个字符对应的维度固定的向量;
将所述向量矩阵输入Bi-LSTM模块,分别对所述Bi-LSTM模块里的前向LSTM模块和后向LSTM模块进行从前向后、从后向前的向量序列非线性变换,且结合所述前向LSTM模块和后向LSTM模块的输出结果,其中所述输出结果为发射矩阵;
将Bi-LSTM模块的所述发射矩阵输入CRF层形成Bi-LSTM-CRF模型,所述Bi-LSTM-CRF模型对所述自然语言进行整句实体识别;
其中,根据交叉检验确定所述Bi-LSTM-CRF模块的超参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810369183.2A CN108920445B (zh) | 2018-04-23 | 2018-04-23 | 一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810369183.2A CN108920445B (zh) | 2018-04-23 | 2018-04-23 | 一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108920445A true CN108920445A (zh) | 2018-11-30 |
CN108920445B CN108920445B (zh) | 2022-06-17 |
Family
ID=64403296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810369183.2A Active CN108920445B (zh) | 2018-04-23 | 2018-04-23 | 一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108920445B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753653A (zh) * | 2018-12-25 | 2019-05-14 | 金蝶软件(中国)有限公司 | 实体名称识别方法、装置、计算机设备和存储介质 |
CN109871535A (zh) * | 2019-01-16 | 2019-06-11 | 四川大学 | 一种基于深度神经网络的法语命名实体识别方法 |
CN109902307A (zh) * | 2019-03-15 | 2019-06-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别方法、命名实体识别模型的训练方法及装置 |
CN109948154A (zh) * | 2019-03-12 | 2019-06-28 | 南京邮电大学 | 一种基于邮箱名的人物获取及关系推荐***和方法 |
CN110287480A (zh) * | 2019-05-27 | 2019-09-27 | 广州多益网络股份有限公司 | 一种命名实体识别方法、装置、存储介质及终端设备 |
CN110321560A (zh) * | 2019-06-25 | 2019-10-11 | 北京邮电大学 | 一种从文本信息中确定位置信息的方法、装置及电子设备 |
CN110347837A (zh) * | 2019-07-17 | 2019-10-18 | 电子科技大学 | 一种心血管疾病非计划再住院风险预测方法 |
CN110929521A (zh) * | 2019-12-06 | 2020-03-27 | 北京知道智慧信息技术有限公司 | 一种模型生成方法、实体识别方法、装置及存储介质 |
CN111062213A (zh) * | 2019-11-19 | 2020-04-24 | 竹间智能科技(上海)有限公司 | 命名实体识别方法、装置、设备及介质 |
CN111222318A (zh) * | 2019-11-19 | 2020-06-02 | 陈一飞 | 基于双通道双向lstm-crf网络的触发词识别方法 |
CN111222320A (zh) * | 2019-12-17 | 2020-06-02 | 共道网络科技有限公司 | 一种字符预测模型训练方法及装置 |
CN111428501A (zh) * | 2019-01-09 | 2020-07-17 | 北大方正集团有限公司 | 命名实体的识别方法、识别***及计算机可读存储介质 |
CN111581387A (zh) * | 2020-05-09 | 2020-08-25 | 电子科技大学 | 一种基于损失优化的实体关系联合抽取方法 |
CN111597342A (zh) * | 2020-05-22 | 2020-08-28 | 北京慧闻科技(集团)有限公司 | 一种多任务意图分类方法、装置、设备及存储介质 |
CN111611775A (zh) * | 2020-05-14 | 2020-09-01 | 沈阳东软熙康医疗***有限公司 | 一种实体识别模型生成方法、实体识别方法及装置、设备 |
CN112907301A (zh) * | 2021-03-29 | 2021-06-04 | 哈尔滨工业大学 | 一种基于Bi-LSTM-CRF模型的内容相关广告投放方法及*** |
CN113377953A (zh) * | 2021-05-31 | 2021-09-10 | 电子科技大学 | 一种基于palc-dca模型的实体融合及分类方法 |
CN115470871A (zh) * | 2022-11-02 | 2022-12-13 | 江苏鸿程大数据技术与应用研究院有限公司 | 基于命名实体识别与关系抽取模型的政策匹配方法及*** |
CN111401064B (zh) * | 2019-01-02 | 2024-04-19 | ***通信有限公司研究院 | 一种命名实体识别方法、装置及终端设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569998A (zh) * | 2016-10-27 | 2017-04-19 | 浙江大学 | 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法 |
CN107797992A (zh) * | 2017-11-10 | 2018-03-13 | 北京百分点信息科技有限公司 | 命名实体识别方法及装置 |
CN107908614A (zh) * | 2017-10-12 | 2018-04-13 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的命名实体识别方法 |
-
2018
- 2018-04-23 CN CN201810369183.2A patent/CN108920445B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106569998A (zh) * | 2016-10-27 | 2017-04-19 | 浙江大学 | 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法 |
CN107908614A (zh) * | 2017-10-12 | 2018-04-13 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的命名实体识别方法 |
CN107797992A (zh) * | 2017-11-10 | 2018-03-13 | 北京百分点信息科技有限公司 | 命名实体识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
ZHIHENG HUANG等: ""Bidirectional LSTM-CRF Models for Sequence Tagging"", 《PROCEEDINGS OF THE 21ST INTERNATIONAL CONFERENCE ON ASIAN LANGUAGE PROCESSING》 * |
田生伟等: ""基于双向LSTM的维吾尔语事件因果关系抽取"", 《电子与信息学报》 * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753653A (zh) * | 2018-12-25 | 2019-05-14 | 金蝶软件(中国)有限公司 | 实体名称识别方法、装置、计算机设备和存储介质 |
CN111401064B (zh) * | 2019-01-02 | 2024-04-19 | ***通信有限公司研究院 | 一种命名实体识别方法、装置及终端设备 |
CN111428501A (zh) * | 2019-01-09 | 2020-07-17 | 北大方正集团有限公司 | 命名实体的识别方法、识别***及计算机可读存储介质 |
CN109871535A (zh) * | 2019-01-16 | 2019-06-11 | 四川大学 | 一种基于深度神经网络的法语命名实体识别方法 |
CN109871535B (zh) * | 2019-01-16 | 2020-01-10 | 四川大学 | 一种基于深度神经网络的法语命名实体识别方法 |
CN109948154A (zh) * | 2019-03-12 | 2019-06-28 | 南京邮电大学 | 一种基于邮箱名的人物获取及关系推荐***和方法 |
CN109902307A (zh) * | 2019-03-15 | 2019-06-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别方法、命名实体识别模型的训练方法及装置 |
CN110287480A (zh) * | 2019-05-27 | 2019-09-27 | 广州多益网络股份有限公司 | 一种命名实体识别方法、装置、存储介质及终端设备 |
CN110287480B (zh) * | 2019-05-27 | 2023-01-24 | 广州多益网络股份有限公司 | 一种命名实体识别方法、装置、存储介质及终端设备 |
CN110321560B (zh) * | 2019-06-25 | 2021-10-01 | 北京邮电大学 | 一种从文本信息中确定位置信息的方法、装置及电子设备 |
CN110321560A (zh) * | 2019-06-25 | 2019-10-11 | 北京邮电大学 | 一种从文本信息中确定位置信息的方法、装置及电子设备 |
CN110347837B (zh) * | 2019-07-17 | 2022-02-18 | 电子科技大学 | 一种心血管疾病非计划再住院风险预测方法 |
CN110347837A (zh) * | 2019-07-17 | 2019-10-18 | 电子科技大学 | 一种心血管疾病非计划再住院风险预测方法 |
CN111222318A (zh) * | 2019-11-19 | 2020-06-02 | 陈一飞 | 基于双通道双向lstm-crf网络的触发词识别方法 |
CN111062213B (zh) * | 2019-11-19 | 2024-01-12 | 竹间智能科技(上海)有限公司 | 命名实体识别方法、装置、设备及介质 |
CN111222318B (zh) * | 2019-11-19 | 2023-09-12 | 南京审计大学 | 基于双通道双向lstm-crf网络的触发词识别方法 |
CN111062213A (zh) * | 2019-11-19 | 2020-04-24 | 竹间智能科技(上海)有限公司 | 命名实体识别方法、装置、设备及介质 |
CN110929521B (zh) * | 2019-12-06 | 2023-10-27 | 北京知道创宇信息技术股份有限公司 | 一种模型生成方法、实体识别方法、装置及存储介质 |
CN110929521A (zh) * | 2019-12-06 | 2020-03-27 | 北京知道智慧信息技术有限公司 | 一种模型生成方法、实体识别方法、装置及存储介质 |
CN111222320A (zh) * | 2019-12-17 | 2020-06-02 | 共道网络科技有限公司 | 一种字符预测模型训练方法及装置 |
CN111581387B (zh) * | 2020-05-09 | 2022-10-11 | 电子科技大学 | 一种基于损失优化的实体关系联合抽取方法 |
CN111581387A (zh) * | 2020-05-09 | 2020-08-25 | 电子科技大学 | 一种基于损失优化的实体关系联合抽取方法 |
CN111611775B (zh) * | 2020-05-14 | 2023-07-18 | 沈阳东软熙康医疗***有限公司 | 一种实体识别模型生成方法、实体识别方法及装置、设备 |
CN111611775A (zh) * | 2020-05-14 | 2020-09-01 | 沈阳东软熙康医疗***有限公司 | 一种实体识别模型生成方法、实体识别方法及装置、设备 |
CN111597342A (zh) * | 2020-05-22 | 2020-08-28 | 北京慧闻科技(集团)有限公司 | 一种多任务意图分类方法、装置、设备及存储介质 |
CN111597342B (zh) * | 2020-05-22 | 2024-01-26 | 北京慧闻科技(集团)有限公司 | 一种多任务意图分类方法、装置、设备及存储介质 |
CN112907301A (zh) * | 2021-03-29 | 2021-06-04 | 哈尔滨工业大学 | 一种基于Bi-LSTM-CRF模型的内容相关广告投放方法及*** |
CN113377953B (zh) * | 2021-05-31 | 2022-06-21 | 电子科技大学 | 一种基于palc-dca模型的实体融合及分类方法 |
CN113377953A (zh) * | 2021-05-31 | 2021-09-10 | 电子科技大学 | 一种基于palc-dca模型的实体融合及分类方法 |
CN115470871A (zh) * | 2022-11-02 | 2022-12-13 | 江苏鸿程大数据技术与应用研究院有限公司 | 基于命名实体识别与关系抽取模型的政策匹配方法及*** |
CN115470871B (zh) * | 2022-11-02 | 2023-02-17 | 江苏鸿程大数据技术与应用研究院有限公司 | 基于命名实体识别与关系抽取模型的政策匹配方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN108920445B (zh) | 2022-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920445A (zh) | 一种基于Bi-LSTM-CRF模型的命名实体识别方法和装置 | |
CN110866117B (zh) | 一种基于语义增强与多层次标签嵌入的短文本分类方法 | |
CN109472024A (zh) | 一种基于双向循环注意力神经网络的文本分类方法 | |
CN109766277B (zh) | 一种基于迁移学习与dnn的软件故障诊断方法 | |
Gallant et al. | Representing objects, relations, and sequences | |
Pouyanfar et al. | Automatic video event detection for imbalance data using enhanced ensemble deep learning | |
CN109189925A (zh) | 基于点互信息的词向量模型和基于cnn的文本分类方法 | |
CN109992779B (zh) | 一种基于cnn的情感分析方法、装置、设备及存储介质 | |
CN109558487A (zh) | 基于层次性多注意力网络的文档分类方法 | |
CN108717439A (zh) | 一种基于注意力机制和特征强化融合的中文文本分类方法 | |
CN110502753A (zh) | 一种基于语义增强的深度学习情感分析模型及其分析方法 | |
CN109977234A (zh) | 一种基于主题关键词过滤的知识图谱补全方法 | |
Maharjan et al. | A multi-task approach to predict likability of books | |
CN110276679B (zh) | 一种面向深度学习的网络个人信贷欺诈行为检测方法 | |
CN110084610A (zh) | 一种基于孪生神经网络的网络交易欺诈检测*** | |
CN111460157B (zh) | 用于多领域文本分类的循环卷积多任务学习方法 | |
CN102662931A (zh) | 一种基于协同神经网络的语义角色标注方法 | |
CN109902271A (zh) | 基于迁移学习的文本数据标注方法、装置、终端及介质 | |
Ma et al. | Improving rumor detection by promoting information campaigns with transformer-based generative adversarial learning | |
Wu et al. | Chinese text classification based on character-level CNN and SVM | |
CN110851593A (zh) | 一种基于位置与语义的复值词向量构建方法 | |
Arora et al. | Comparative question answering system based on natural language processing and machine learning | |
Jeyakarthic et al. | Optimal bidirectional long short term memory based sentiment analysis with sarcasm detection and classification on twitter data | |
Fedele et al. | Explaining siamese networks in few-shot learning for audio data | |
Shi | Research on parallelization of microblog emotional analysis algorithms using deep learning and attention model based on spark platform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |