CN107391485A - 基于最大熵和神经网络模型的韩语命名实体识别方法 - Google Patents
基于最大熵和神经网络模型的韩语命名实体识别方法 Download PDFInfo
- Publication number
- CN107391485A CN107391485A CN201710586675.2A CN201710586675A CN107391485A CN 107391485 A CN107391485 A CN 107391485A CN 201710586675 A CN201710586675 A CN 201710586675A CN 107391485 A CN107391485 A CN 107391485A
- Authority
- CN
- China
- Prior art keywords
- entity
- name
- character
- maximum entropy
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/53—Processing of non-Latin text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明属于命名实体识别技术领域,公开了一种基于最大熵和神经网络模型的韩语命名实体识别方法,包括:构建前缀树字典,当任意一个组合名词和专有名词的模板在输入句子中匹配时,识别为目标词;通过目标词选择模块中得到目标词,从实体字典中查找该目标词,当只匹配到一个子类别时,子类别作为目标词的标签;采用最大熵模型,利用多种语言学信息;构造前馈神经网络模型;通过模板选择规则将邻接词组成一个实体标签。本发明使用的所有数据是从带标签的训练语料和领域无关实体字典中抽取的,可以很容易移植到其它应用领域,性能也不会明显降低。
Description
技术领域
本发明属于命名实体识别技术领域,尤其涉及一种基于最大熵和神经网络模型的韩语命名实体识别方法。
背景技术
命名实体识别(Named Entities Recognition,NER)是自然语言处理领域的一项基础任务。其研究主体命名实体一般包括3大类(实体类、时间类和数字类)和7小类(人名、地名、机构名、时间、日期、货币和百分比)。时间和数字类实体可通过有限状态机进行识别,较为简单。但人名、地名、组织机构名等实体类具有开放性,不断有新的命名实体产生,而且存在着很多歧义现象,采用地点的方法很难解决。要准确标注命名实体类型,常常要涉及语义层次的分析,并且韩语的命名实体中没有具体的特征,如英文中首字母的大写特征,因此韩语的命名实体识别是比较困难的。
目前一般采用两种方法进行实体识别,一种是基于规则和实体词典的方法进行命名实体识别,这种方法规则需要人工编写大量语言学规则,过程繁琐、代价很高,并且可移植性较差。另一种是基于统计方法进行实体识别,通过人工标注的语料库训练统计模型,标注新的命名实体。隐马尔可夫模型是较为常用的统计模型方法,但实际应用时该模型特征之间的独立性约束难以满足,泛化能力差;条件随机场模型是另一种广泛采用的统计模型,常用于序列标注问题,它对序列中邻接词的关系进行建模,在特征选择上足够灵活,特征间不需要条件独立,但该模型难以处理未登录词问题,对于开放领域的命名实体识别效果较差;深度神经网络模型能够使用单词级和字符级表达,自动学习的特征,通过上下文的滑动窗口预测标签。该方法缺点是需要大规模训练语料,训练代价很高,确定深度神经网络超参数方面缺乏相关理论指导。并且获得的模型难 以理解,容易产生过拟合,可移植性和泛化能力较差。
综上所述,现有技术存在的问题是:目前的命名实体识别存在过程繁琐、代价很高并且可移植性差,模型计算过程复杂,泛化能力差,无法处理未登录词等问题。
发明内容
针对现有技术存在的问题,本发明提供了一种基于最大熵、神经网络模型和模板匹配识别命名实体方法。
本发明是这样实现的,一种基于最大熵和神经网络模型的韩语命名实体识别方法,所述基于最大熵和神经网络模型的韩语命名实体识别方法包括:
(1)构建前缀树字典,当任意一个组合名词和专有名词的模板在输入句子中匹配时,识别为目标词;
(2)通过目标词选择模块中得到目标词,从实体字典中查找该目标词,当只匹配到一个子类别时,子类别作为目标词的标签;
(3)采用最大熵模型,利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过标注名称模式匹配,有效标识命名实体;
(4)构造前馈神经网络模型,将多个神经元节点的输入和输出联结在一起构成网络,并对网络进行分层;
(5)通过模板选择规则将邻接词组成一个实体标签。
进一步,所述前缀树字典,由一个词性标签序列和提示词信息组成。
进一步,所述实体字典包括通用字典和领域字典;
所述通用字典需要手动构建,领域字典从训练语料中自动学习;通用字典由人物,地点,组织机构三个类别组成;
人物类别由全名、姓氏和名字组成;全名从Seoul Telephone Directory中收集,姓氏和名字从全名中自动抽取;地名和组织机构名则从网页中收集。
进一步,所述最大熵模型,利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过简单的标注名称模式匹配,有效标识命名实体;最大熵模型实现特征选择和模型选择。
进一步,所述最大熵概率模型定义在空间H*T上,其中H代表所有上下文中特征的集合,一个选定字符的上下文范围可选择为前后各两个字符,特征包括字符本身的特征和语言学特征信息,T代表一个字符所有可能的角色标记集合;hi代表给定一个特定上下文,ti代表某一特定角色标记;
给定一个特定上下文hi,特定角色标记ti的条件概率如公式(1):
公式(1)表示给定一个特定上下文hi,特定角色标记ti的概率在整体概率中占多少比率,整体概率指给定一个特定上下文hi,各种特定角色标记ti的概率之和:
公式(2)表示在给定上下文环境hi下,得到特定角色标记ti的概率,其中π是正则化常数,而{μ,α1,α2,...,αn}是模型参数,{f1,f2,...,fn}是特征函数,参数αj表示第j个特征的权重;特征用一个特征函数fj来体现,特征函数为一个二值函数,特征函数形式如下:
wi为要进行处理的字符,suffix(wi)为该字符的后缀特征;
对于每一个特征函数fj(hi,ti),模型的约束情况是:模型所建立的概率分布的期望值要与训练样本表现出来的分布的期望值相等;参数{μ,α1,α2,...,αn}是为了选择最大化训练数据关于概率分布P的可能性,优化概率分布P的最大熵值为目标。
进一步,当结果值大于某阈值时,目标词将会得到一个标签;当前两个最大值的差值小于某阈值时,该目标词将会有一个多重标签,阈值根据经验设定。
进一步,根据不同的需要,确定不同的特征函数:
在有限的上下文环境中是否包含人名前后缀信息;
在有限的上下文环境中是否包含地名后缀,以及该后缀名的长度;
在有限的上下文环境中是否包含机构名后缀,以及该后缀名长度;
在有限的上下文环境中是否包含姓氏等信息;
当前字符的前面是否是一个人名字符串加一个“<和>”字符;
当前字符的前面是否是一个地名字符串加一个“<和>”字符;
当前字符的前面是否是一个机构名字符串加一个“<和>”字符;
当前字符的前面是否是一个“<和>”字符加一个人名字符串。
进一步,多重标签歧义性的处理方法包括:
复杂且非线性的目标函数y=Fθ(x),通过训练估计函数的参数,使其能够近似拟合样本集合中任意标注对映射关系;即使Fθ(x)满足:
采用含有多个神经元的神经网络来搭建模型,神经元的输入由3个变量(x1,x2,x3)和一个偏置单元b构成,连接输入的边对应每个输入单元的权重值,输入由函数y=hW,b(x)计算得到,公式如下:
由n个输入神经元节点构成的输入向量为X(x1,x2,...,xn),m个输出节点构成的向量为Y(y1,y2,...,ym),隐藏层节点数为l;与之对应的,联结输入层与隐藏层的边应由n×l条,联结隐藏层与输出层的边应有l×m条;设由边权值构成的参数矩阵分别为W(1),W(2),输入层与隐藏层的偏置单元为b(1),b(2),隐藏层和输出层的激活函数分别为g(x),f(x),则对模型隐藏层节点的每一个hi,(i=1,2,...,l),有:
对每一个输出节点yi,(i=1,2,...,m),有:
对任意一个输入向量X(x1,x2,...,xn),都可以向前传递计算输出向量Y(y1,y2,...,ym);
所述通过模板选择规则将邻接词组成一个实体标签包括:为将邻接词组合成一个实体标签,从训练语料中自动抽取模板选择规则;通过实体标签信息、词汇信息、提示词字典和词性标签信息抽取模板选择规则。
本发明的另一目的在于提供一种所述基于最大熵、神经网络模型和模板匹配识别命名实体方法的基于最大熵、神经网络模型和模板匹配识别命名实体***,所述基于最大熵、神经网络模型和模板匹配识别命名实体***包括:
实体检测模块,用于在文本中抽取命名实体;
实体分类模块,用于将实体分成人名、地名和组织机构名。
进一步,所述实体检测模块包括选择目标词单元、查找实体字典单元、处理未登录词单元;实体分类模块包括多标签实体消歧单元和组合邻接词单元;
选择目标单元,通过韩文词性标签和提示词字典选择目标词;
查找实体字典单元,在实体字典中查找目标词;
处理未登录词单元通过最大熵模型处理未登录词;
选择目标词单元、查找实体字典单元给每一个目标词一个实体标签或一个临时的多重标签;
多标签实体消歧单元通过神经网络解决歧义问题,神经网络中使用的标签从相邻的词性标签中选取;
组合邻接词单元通过模板规则给邻接词一个实体标签。
本发明的优点及积极效果为:包括目标词选择和实体字典查找,通过最大熵处理未登录词,接下来利用神经网络解决歧义问题,使用规则模板将邻接词组合成一个实体标签;使用的所有数据是从带标签的训练语料和领域无关实体字典中抽取的,可以很容易移植到其它应用领域,性能也不会明显降低。
附图说明
图1是本发明实施例提供的基于最大熵和神经网络模型的韩语命名实体识别方法流程图。
图2是本发明实施例提供的基于最大熵和神经网络模型的韩语命名实体识别***结构示意图;
图中:1、实体检测模块;2、实体分类模块。
图3是本发明实施例提供的神经元示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作详细的描述。
如图1所示,本发明实施例提供的基于最大熵和神经网络模型的韩语命名实体识别方法包括以下步骤:
S101:构建前缀树字典,当任意一个组合名词和专有名词的模板在输入句子中匹配时,将其识别为目标词;
S102:通过目标词选择模块中得到目标词,从实体字典中查找该目标词,当只匹配到一个子类别时,那么将该子类别作为目标词的标签,当匹配到属于不同类别的多个子标签时,那该目标词会有一个多重标签;
S103:采用最大熵模型,利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过简单的标注名称模式匹配,有效标识命名实体,如人名、地名和组织机构名;
S104:构造前馈神经网络模型,将多个“神经元”节点的输入和输出联结在一起构成网络,并对网络进行分层;
S105:通过模板选择规则将邻接词组成一个实体标签。
下面结合附图对本发明的应用原理作进一步的描述。
如图2所示,本发明的基于最大熵模型、神经网络模型和模板匹配的混合方法识别韩语命名实体,包括两个部分,实体检测模块1和实体分类模块2。
实体检测模块1是在文本中抽取命名实体。
实体分类模块2是将实体分成人名、地名和组织机构名;
实体检测模块1包括选择目标词单元、查找实体字典单元、处理未登录词单元;实体分类模块2包括多标签实体消歧单元和组合邻接词单元。
选择目标单元,通过韩文词性标签和提示词字典选择目标词。
查找实体字典单元,在实体字典中查找目标词。
处理未登录词单元通过最大熵模型处理未登录词。
选择目标词单元、查找实体字典单元给每一个目标词一个实体标签或一个临时的多重标签(四种类型标签:人名/地名标签,地名/组织机构名标签,人名/组织机构名标签,和人名/地名/组织机构名标签)。
多标签实体消歧单元通过神经网络解决歧义问题,神经网络中使用的标签从相邻的词性标签中选取。
组合邻接词单元通过模板规则给邻接词一个实体标签。
本发明旨在识别人名,地名,组织机构名等实体标签,预定义人名,地名,组织机构名的子类别,如表1:
表1:预定义子类别
本发明实施例提供的基于最大熵、神经网络模型和模板匹配识别命名实体方法包括以下步骤:
步骤一,选择实体的目标词
在韩语中,一个候选的目标词可能是专有名词或组合名词。包含专有名词的组合名词可以从候选目标词中排除。
为查找目标词,本发明需要构建一个前缀树字典,由一个词性标签序列和提示词信息组成。假设作为目标词的组合名词在最后一个普通名词后一定有一个提示词。因此,当任意一个组合名词和专有名词的模板在输入句子中匹配时,本发明可以将其识别为目标词。例如:首尔(common noun)女子(common noun)大学(common noun-organization clueword),可以在前缀树字典中形成一个条目:“common noun:common noun:common noun-organization”;
步骤二,在实体字典中查找目标词
实体字典包括通用字典和领域字典;通用字典需要手动构建,领域字典可以从训练语料中自动学习;通用字典由人物,地点,组织机构三个类别组成。在这三个类别中,地点和组织机构共享一些相同的子类别如表1;人物类别由全名、姓氏和名字组成;全名从SeoulTelephone Directory中收集,姓氏和名字可以从全名中自动抽取;地名和组织机构名则从网页中收集。
通过目标词选择模块中得到目标词,从实体字典中查找该目标词,当只匹配到一个子类别时,那么将该子类别作为目标词的标签,当匹配到属于不同类别的多个子标签时,那该目标词会有一个多重标签,本发明假设一个类别下的子类别间没有歧义。目标词的歧义将会通过神经网络消歧模块解决。
步骤三,处理未登录词
人名、地名和组织机构等专名不断的产生,形成了一个开放的集合,从而产生未登录词的问题。
采用最大熵模型,充分利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过简单的标注名称模式匹配,有效标识命名实体,如人名、地名和组织机构名。最大熵模型是为所有已知的因素建 立模型,而把所有未知的因素排除在外;要找到这样一个概率分布,满足所有已知的事实,且不受任何未知因素的影响。最大熵模型的是其不要求具有条件独立的特征,因此,可以相对任意的加入对最终分类器有用的特征,而不用顾及它们之间的相互影响。最大熵原理是:认为已知的事物是一种约束,未知的条件是均匀分布且没有偏见的。最大熵模型有两个基本任务,特征选择和模型选择,特征选择就是选择一个能表达随机过程的统计特征的特征集合;模型选择就是模型估计或者参数估计,为每个入选的特征估计权重。
在最大熵模型的架构下,利用各种有效的语言学特征信息(语言学特征信息就是字符对上下文产生影响的属性,如<高丽大学>中的“<大学>”往往作为一个组织机构的后缀,因此它的语言学特征信息就是组织机构名后缀;<首尔特别市>中的“<特别市>”往往作为地点的后缀,因此它的语言学特征信息就是地名后缀),建立基于上下文语境(上下文语境指选定字符前后字符的属性,如字符角色、字符类型等)和角色标注信息的最大熵模型。
本发明句中的每个字符都隐含地携带了一个角色信息(角色是字符本身的属性),就是单个字符在命名实体或句子中所起的作用,本发明定义的角色信息如表2:
表2角色信息
最大熵概率模型被定义在空间H*T上,其中H代表所有上下文中特征的集合,一个选定字符的上下文范围可选择为前后各两个字符,特征包括字符本身的特征和语言学特征信息,T代表一个字符所有可能的角色标记集合。hi代表给定一个特定上下文,ti代表某一特定角色标记。
给定一个特定上下文hi,特定角色标记ti的条件概率如公式(1):
公式(1)表示给定一个特定上下文hi,特定角色标记ti的概率在整体概率中占多少比率,整体概率指给定一个特定上下文hi,各种特定角色标记ti的概率之和:
公式(2)表示在给定上下文环境hi下,得到特定角色标记ti的概率,其中π是正则化常数,而{μ,α1,α2,...,αn}是模型参数,{f1,f2,...,fn}是特征函数,参数αj表示第j个特征的权重。特征用一个特征函数fj来体现,特征函数为一个二值函数,特征函数形式如下:
wi为要进行处理的字符,suffix(wi)为该字符的后缀特征,参考表2中的提示词。
对于每一个特征函数fj(hi,ti),模型的约束情况是:模型所建立的概率分布的期望值要与训练样本表现出来的分布的期望值相等。参数(μ,α1,α2,...,αn}是为了选择最大化训练数据关于概率分布P的可能性,优化概率分布P的最大熵值为目标。
当结果值大于某阈值时,目标词将会得到一个标签。当前两个最大值的差值小于某阈值时,该目标词将会有一个多重标签,阈值根据经验设定。
本发明可以根据不同的需要,确定不同的特征函数,如下:
1)在有限的上下文环境中是否包含人名前后缀信息。
2)在有限的上下文环境中是否包含地名后缀,以及该后缀名的长度。
3)在有限的上下文环境中是否包含机构名后缀,以及该后缀名长度。
4)在有限的上下文环境中是否包含姓氏等信息。
5)当前字符的前面是否是一个人名字符串加一个“<和>”字符。
6)当前字符的前面是否是一个地名字符串加一个“<和>”字符。
7)当前字符的前面是否是一个机构名字符串加一个“<和>”字符。
8)当前字符的前面是否是一个“<和>”字符加一个人名字符串。
等等
表3提示词字典
步骤四,解决带有多重标签的歧义
有一些目标词因为多重标签有着歧义性,多重标签有人物/地点标签,地点/组织机构标签,组织机构/人物标签和人物/地点/组织机构标签。因此本发明学习了四种类型的神经网络来解决每一种类型的歧义问题。
给定一个足够大的训练语料TCorpus,有任意训练样本(X(i),Y(i))∈TCorpus。语料中包含m个样本,每个标注对(X(i),Y(i))的序列长度为leni。本发明期望找到一个复杂且非线性的目标函数y=Fθ(x),通过训练估计函数的参数,使其能够近似拟合样本集合中任意标注对映射关系。即使Fθ(x)满足:
采用含有多个“神经元”的神经网络来搭建模型,其中每一个“神经元”都是一个多输入、单输出的运算单元。如图3所示:
图3中的神经元的输入由3个变量(x1,x2,x3)和一个偏置单元b构成,连接输入的边对应每个输入单元的权重值,输入由函数y=hW,b(x)计算得到,公式如下:
其中,激活函数f(z)有多种选择,常用的有sigmoid函数和双曲正切函数,具体形式为:
在神经网络中,两个函数作为激活函数,主要由于函数的导数值易于计算。同时,利用sigmoid可以将输入值压缩变换为介于(0,1)区间的输出,应用时可以作为一个激活节点的概率值对待;tanh可以将输出非线性放缩至(-1,1)的区间,被广泛用于模型的特征归一化过程。
在神经元的基础上,构造一个简单的前馈神经网络模型,将多个“神经元”节点的输入和输出联结在一起构成网络,并对网络进行分层,可以构造一个由输入层、输出层和隐藏层构成的简单神经网络模型。
对于三层神经网络模型,设由n个输入神经元节点构成的输入向量为X(x1,x2,...,xn),m个输出节点构成的向量为Y(y1,y2,...,ym),隐藏层节点数为l。与之对应的,联结输入层与隐藏层的边应由n×l条,联结隐藏层与输出层的边应有l×m条;设由边权值构成的参数矩阵分别为W(1),W(2),输入层与隐藏层的偏置单元为b(1),b(2),隐藏层和输出层的激活函数分别为g(x),f(x),则对模型隐藏层节点的每一个hi,(i=1,2,...,l),有:
对每一个输出节点yi,(i=1,2,...,m),有:
给定一个神经网络模型,对任意一个输入向量X(x1,x2,...,xn),都可以用以上两个公式向前传递计算输出向量Y(y1,y2,...,ym),这种根据给定输入求输出的计算过程在神经网络中一般称为前向传播过程。
本发明将标准反向传播算法作为学习算法。该神经网络包括输入层,隐藏层和输出层。输出层有2或3个节点(当多重标签有3个类别时使用3个节点)。
每一个网络的输入方式包括两个部分,一部分使用词性标签信息,另一部分使用词汇信息。
与目标词相邻接的词性标签信息被视为重要的特征。在除去无用词性标签如动词标签之后,本发明在目标词的左侧两个词性标签和右侧两个词性标签范围内抽取词性标签。然后本发明在每一个位置定义有用的标签集合,并将它们作为输入特征,使用词性标签信息作为输入特征的总数量为55。
本发明同样在不带有动词词汇信息的相同范围内抽取出词汇信息。因此本发明使用一个新增了五个类别的提示词字典,它是表3提示词字典的扩展版本。最后,一共26个特征来表示一个给定的词是否属于提示词字典。表4给出新提示词字典增加的类别。
表4新增提示词字典
由于表4中的人物、地点和组织机构提示类别在表2中并没有任何类别与其对应。地点和组织机构动词类别主要被用来解决地名和组织机构名之间的歧义。神经网络中所有的特征都用二进制表示。
步骤五,通过模板选择规则将邻接词组成一个实体标签
通过消歧,可以给一个词一个实体标签,但是在一些情况下,如“金大中总统”,当“金大中”和它的邻接提示词“总统”连接在一起时,意思会表达的更加清楚,通过此模型这个例子会得到一个详细的实体子类别。
为将邻接词组合成一个实体标签,本发明从训练语料中自动抽取模板选择规则。通过实体标签信息、词汇信息、表3中的提示词字典和词性标签信息抽取模板选择规则。最后得到191个模板选择规则。
模板选择规则示例如下:
下面结合具体实施例对本发明的应用原理作进一步的描述。
例如:金大中总统和李姬镐开始他在青瓦台的第一份工作。
表5
其中
NNC:表示普通名词;
NNC-PSN:带有提示信息的普通名词;
PCJ:连接词和;
PP:助词(为主语助词,表示地点的助词);
NNU:表示普通数字;
VV:表示动词;
步骤一,查找前缀树字典,前缀树字典由词性标签和提示词信息序列构建。本发明假设作为目标词的组合名词的最后一个普通名词有提示词,例如上述例子中将会在前缀树字典中找到一个记录:“common noun:common noun-person”,从而得到目标词“(金大中总统)”。
步骤二,在实体字典中查找目标词。通用实体字典中包括人物、地点和组织机构等三种类别,地点和组织机构共享一部分子类别,如表1所示。当只有在 一个实体字典中查找到目标词时,该目标词有一个子类别,当在属于不同类别的多个子类别中查找到目标词时,该目标词会有一个多重标签。比如“(青瓦台)”既属于地点类中的建筑子类,又属于组织机构类中的政府组织子类,从而“(青瓦台)”有一个多重标签“地点/组织机构”标签。
步骤三,使用最大熵处理未登录词问题。输入待识别文本,对于待识别文本中未登录词中的每个字符,利用该字符的上下文语境,建立该字符的特征项。如:待识别文本“<金大中总统和李姬镐在青瓦台>”中为未登录词,建立字的特征项,构成如下:字为类型为一般,前第一个词为类型为连接词、前第二个词为类型为人名实体,后第一个词是类型为主语助词,后第二个词为类型为地名/组织机构名实体、角色待定。并将识别文本中的特征项组成序列输入到最大熵模型中,得到具有最大产生概率的待识别文本字符角色标注序列,通过模式匹配,识别出为人名实体。
步骤四,通过神经网络对多重的实体标签进行消歧。输入包括两部分,一部分使用词性标签信息,另一部分使用词汇信息。对于经过词性标注后的待识别文本,将无用词性标签如动词标签去除后,抽取目标词左右各两个词性标签,定义每个位置有用标签集并作为输入特征,例如目标词带有地名/组织机构名标签,该目标词的左侧第一个词词性为PP,左侧第二个词词性为NNC,右侧第一个词词性为PP,右侧第二个词词性为NNU,将这些特征项作为输入特征。同样本发明将待识别文本中的动词去除后,抽取目标词左右各两个词,作为该目标词的另一个输入特征。神经网络中所有的特征值用二进制表示。最终,目标词的识别结果为地名实体。
步骤五,通过模板将邻接词组合成一个实体标签。待识别句子中 被组合成一个实体“政治人物”。
识别结果为:表6
表6
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,所述基于最大熵、神经网络模型和模板匹配识别命名实体方法包括:
(1)构建前缀树字典,当任意一个组合名词和专有名词的模板在输入句子中匹配时,识别为目标词;
(2)通过目标词选择模块中得到目标词,从实体字典中查找该目标词,当只匹配到一个子类别时,子类别作为目标词的标签;
(3)采用最大熵模型,利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过标注名称模式匹配,有效标识命名实体;
(4)构造前馈神经网络模型,将多个神经元节点的输入和输出联结在一起构成网络,并对网络进行分层;
(5)通过模板选择规则将邻接词组成一个实体标签。
2.如权利要求1所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,所述前缀树字典,由一个词性标签序列和提示词信息组成。
3.如权利要求1所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,所述实体字典包括通用字典和领域字典;
所述通用字典需要手动构建,领域字典从训练语料中自动学习;通用字典由人物,地点,组织机构三个类别组成;
人物类别由全名、姓氏和名字组成;全名从Seoul Telephone Directory中收集,姓氏和名字从全名中自动抽取;地名和组织机构名则从网页中收集。
4.如权利要求1所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,所述最大熵模型,利用多种语言学信息,直接对字符进行角色标注,得到具有最大概率的角色标注序列,并通过简单的标注名称模式匹配,有效标识命名实体;最大熵模型实现特征选择和模型选择。
5.如权利要求4所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,所述最大熵概率模型定义在空间H*T上,其中H代表所有上下文中特征的集合,一个选定字符的上下文范围可选择为前后各两个字符,特征包括字符本身的特征和语言学特征信息,T代表一个字符所有可能的角色标记集合;hi代表给定一个特定上下文,ti代表某一特定角色标记。
6.如权利要求5所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,当结果值大于某阈值时,目标词将会得到一个标签;当前两个最大值的差值小于某阈值时,该目标词将会有一个多重标签,阈值根据经验设定。
7.如权利要求5所述的基于最大熵和神经网络模型的韩语命名实体识别方法,其特征在于,根据不同的需要,确定不同的特征函数:
1)在有限的上下文环境中是否包含人名前后缀信息;
2)在有限的上下文环境中是否包含地名后缀,以及该后缀名的长度;
3)在有限的上下文环境中是否包含机构名后缀,以及该后缀名长度;
4)在有限的上下文环境中是否包含姓氏等信息;
5)当前字符的前面是否是一个人名字符串加一个“<和>”字符;
6)当前字符的前面是否是一个地名字符串加一个“<和>”字符;
7)当前字符的前面是否是一个机构名字符串加一个“<和>”字符;
8)当前字符的前面是否是一个“<和>”字符加一个人名字符串。
8.一种如权利要求1所述基于最大熵和神经网络模型的韩语命名实体识别方法的基于最大熵、神经网络模型和模板匹配识别命名实体***,其特征在于,所述基于最大熵、神经网络模型和模板匹配识别命名实体***包括:
实体检测模块,用于在文本中抽取命名实体;
实体分类模块,用于将实体分成人名、地名和组织机构名。
9.如权利要求8所述的基于最大熵和神经网络模型的韩语命名实体识别***,其特征在于,所述实体检测模块包括选择目标词单元、查找实体字典单元、处理未登录词单元;实体分类模块包括多标签实体消歧单元和组合邻接词单元;
选择目标单元,通过韩文词性标签和提示词字典选择目标词;
查找实体字典单元,在实体字典中查找目标词;
处理未登录词单元通过最大熵模型处理未登录词;
选择目标词单元、查找实体字典单元给每一个目标词一个实体标签或一个临时的多重标签;
多标签实体消歧单元通过神经网络解决歧义问题,神经网络中使用的标签从相邻的词性标签中选取;
组合邻接词单元通过模板规则给邻接词一个实体标签。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710586675.2A CN107391485A (zh) | 2017-07-18 | 2017-07-18 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
PCT/CN2018/071628 WO2019015269A1 (zh) | 2017-07-18 | 2018-01-05 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
US16/315,661 US20200302118A1 (en) | 2017-07-18 | 2018-01-05 | Korean Named-Entity Recognition Method Based on Maximum Entropy Model and Neural Network Model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710586675.2A CN107391485A (zh) | 2017-07-18 | 2017-07-18 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107391485A true CN107391485A (zh) | 2017-11-24 |
Family
ID=60340897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710586675.2A Pending CN107391485A (zh) | 2017-07-18 | 2017-07-18 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200302118A1 (zh) |
CN (1) | CN107391485A (zh) |
WO (1) | WO2019015269A1 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255806A (zh) * | 2017-12-22 | 2018-07-06 | 北京奇艺世纪科技有限公司 | 一种人名识别方法及装置 |
CN108268447A (zh) * | 2018-01-22 | 2018-07-10 | 河海大学 | 一种藏文命名实体的标注方法 |
CN108304933A (zh) * | 2018-01-29 | 2018-07-20 | 北京师范大学 | 一种知识库的补全方法及补全装置 |
CN109063159A (zh) * | 2018-08-13 | 2018-12-21 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
WO2019015269A1 (zh) * | 2017-07-18 | 2019-01-24 | 中译语通科技股份有限公司 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
CN109670181A (zh) * | 2018-12-21 | 2019-04-23 | 东软集团股份有限公司 | 一种命名实体识别方法及装置 |
CN110069779A (zh) * | 2019-04-18 | 2019-07-30 | 腾讯科技(深圳)有限公司 | 医疗文本的症状实体识别方法及相关装置 |
CN110134969A (zh) * | 2019-05-27 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种实体识别方法和装置 |
CN110297888A (zh) * | 2019-06-27 | 2019-10-01 | 四川长虹电器股份有限公司 | 一种基于前缀树与循环神经网络的领域分类方法 |
CN110781682A (zh) * | 2019-10-23 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 命名实体识别模型训练方法、识别方法、装置及电子设备 |
CN111222323A (zh) * | 2019-12-30 | 2020-06-02 | 深圳市优必选科技股份有限公司 | 一种词槽抽取方法、词槽抽取装置及电子设备 |
CN111563380A (zh) * | 2019-01-25 | 2020-08-21 | 浙江大学 | 一种命名实体识别方法及其装置 |
CN112364655A (zh) * | 2020-10-30 | 2021-02-12 | 北京中科凡语科技有限公司 | 命名实体识别模型建立方法及命名实体识别方法 |
CN112633001A (zh) * | 2020-12-28 | 2021-04-09 | 咪咕文化科技有限公司 | 文本命名实体识别方法、装置、电子设备及存储介质 |
CN113111656A (zh) * | 2020-01-13 | 2021-07-13 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读存储介质和计算机设备 |
CN113632092A (zh) * | 2020-01-20 | 2021-11-09 | 京东方科技集团股份有限公司 | 实体识别的方法和装置、建立词典的方法、设备、介质 |
CN114492425A (zh) * | 2021-12-30 | 2022-05-13 | 中科大数据研究院 | 采用一套领域标签体系将多维度数据打通的方法 |
CN109145303B (zh) * | 2018-09-06 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 命名实体识别方法、装置、介质以及设备 |
CN112633001B (zh) * | 2020-12-28 | 2024-07-02 | 咪咕文化科技有限公司 | 文本命名实体识别方法、装置、电子设备及存储介质 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423143B1 (en) | 2017-12-21 | 2022-08-23 | Exabeam, Inc. | Anomaly detection based on processes executed within a network |
US11431741B1 (en) * | 2018-05-16 | 2022-08-30 | Exabeam, Inc. | Detecting unmanaged and unauthorized assets in an information technology network with a recurrent neural network that identifies anomalously-named assets |
US11295083B1 (en) * | 2018-09-26 | 2022-04-05 | Amazon Technologies, Inc. | Neural models for named-entity recognition |
US11625366B1 (en) | 2019-06-04 | 2023-04-11 | Exabeam, Inc. | System, method, and computer program for automatic parser creation |
CN110298043B (zh) * | 2019-07-03 | 2023-04-07 | 吉林大学 | 一种车辆命名实体识别方法及*** |
CN110674257B (zh) * | 2019-09-25 | 2022-10-28 | 中国科学技术大学 | 评估网络空间中文本信息真实性的方法 |
CN111046153B (zh) * | 2019-11-14 | 2023-12-29 | 深圳市优必选科技股份有限公司 | 一种语音助手定制方法、语音助手定制装置及智能设备 |
US11625535B1 (en) * | 2019-12-05 | 2023-04-11 | American Express Travel Related Services Company, Inc. | Computer-based systems having data structures configured to execute SIC4/SIC8 machine learning embedded classification of entities and methods of use thereof |
CN111061840A (zh) * | 2019-12-18 | 2020-04-24 | 腾讯音乐娱乐科技(深圳)有限公司 | 数据识别方法、装置及计算机可读存储介质 |
CN111209396B (zh) * | 2019-12-27 | 2024-06-07 | 深圳市优必选科技股份有限公司 | 实体识别模型的训练方法及实体识别方法、相关装置 |
CN111324738B (zh) * | 2020-05-15 | 2020-08-28 | 支付宝(杭州)信息技术有限公司 | 一种确定文本标签的方法和*** |
CN113779185B (zh) * | 2020-06-10 | 2023-12-29 | 武汉Tcl集团工业研究院有限公司 | 一种自然语言模型的生成方法和计算机设备 |
CN111695345B (zh) * | 2020-06-12 | 2024-02-23 | 腾讯科技(深圳)有限公司 | 文本中实体识别方法、以及装置 |
US11956253B1 (en) | 2020-06-15 | 2024-04-09 | Exabeam, Inc. | Ranking cybersecurity alerts from multiple sources using machine learning |
CN112101028B (zh) * | 2020-08-17 | 2022-08-26 | 淮阴工学院 | 一种多特征双向门控领域专家实体抽取方法及*** |
US11790172B2 (en) * | 2020-09-18 | 2023-10-17 | Microsoft Technology Licensing, Llc | Systems and methods for identifying entities and constraints in natural language input |
CN112417873B (zh) * | 2020-11-05 | 2024-02-09 | 武汉大学 | 基于bbwc模型和mcmc的自动漫画生成方法和*** |
CN113191150B (zh) * | 2021-05-21 | 2022-02-25 | 山东省人工智能研究院 | 一种多特征融合的中文医疗文本命名实体识别方法 |
US11893983B2 (en) * | 2021-06-23 | 2024-02-06 | International Business Machines Corporation | Adding words to a prefix tree for improving speech recognition |
CN113673943B (zh) * | 2021-07-19 | 2023-02-10 | 清华大学深圳国际研究生院 | 一种基于履历大数据的人员任免辅助决策方法及*** |
CN113869054A (zh) * | 2021-10-13 | 2021-12-31 | 天津大学 | 一种基于深度学习的电力领域项目特征识别方法 |
CN114036948B (zh) * | 2021-10-26 | 2024-05-31 | 天津大学 | 一种基于不确定性量化的命名实体识别方法 |
CN114580424B (zh) * | 2022-04-24 | 2022-08-05 | 之江实验室 | 一种用于法律文书的命名实体识别的标注方法和装置 |
CN116028593A (zh) * | 2022-12-14 | 2023-04-28 | 北京百度网讯科技有限公司 | 文本中的人物身份信息识别方法及装置、电子设备和介质 |
CN116186200B (zh) * | 2023-01-19 | 2024-02-09 | 北京百度网讯科技有限公司 | 模型训练方法、装置、电子设备和存储介质 |
CN117034942B (zh) * | 2023-10-07 | 2024-01-09 | 之江实验室 | 一种命名实体识别方法、装置、设备及可读存储介质 |
CN117252202B (zh) * | 2023-11-20 | 2024-03-19 | 江西风向标智能科技有限公司 | 高中数学题目中命名实体的构建方法、识别方法和*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101295292A (zh) * | 2007-04-23 | 2008-10-29 | 北大方正集团有限公司 | 一种基于最大熵模型建模和命名实体识别的方法及装置 |
CN105894088A (zh) * | 2016-03-25 | 2016-08-24 | 苏州赫博特医疗信息科技有限公司 | 基于深度学习及分布式语义特征医学信息抽取***及方法 |
CN106557462A (zh) * | 2016-11-02 | 2017-04-05 | 数库(上海)科技有限公司 | 命名实体识别方法和*** |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095753B (zh) * | 2016-06-07 | 2018-11-06 | 大连理工大学 | 一种基于信息熵和术语可信度的金融领域术语识别方法 |
CN106202255A (zh) * | 2016-06-30 | 2016-12-07 | 昆明理工大学 | 融合实体特性的越南语命名实体识别方法 |
CN106570170A (zh) * | 2016-11-09 | 2017-04-19 | 武汉泰迪智慧科技有限公司 | 基于深度循环神经网络的文本分类和命名实体识别一体化方法及*** |
CN106682220A (zh) * | 2017-01-04 | 2017-05-17 | 华南理工大学 | 一种基于深度学习的在线中医文本命名实体识别方法 |
CN107391485A (zh) * | 2017-07-18 | 2017-11-24 | 中译语通科技(北京)有限公司 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
-
2017
- 2017-07-18 CN CN201710586675.2A patent/CN107391485A/zh active Pending
-
2018
- 2018-01-05 US US16/315,661 patent/US20200302118A1/en not_active Abandoned
- 2018-01-05 WO PCT/CN2018/071628 patent/WO2019015269A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101295292A (zh) * | 2007-04-23 | 2008-10-29 | 北大方正集团有限公司 | 一种基于最大熵模型建模和命名实体识别的方法及装置 |
CN105894088A (zh) * | 2016-03-25 | 2016-08-24 | 苏州赫博特医疗信息科技有限公司 | 基于深度学习及分布式语义特征医学信息抽取***及方法 |
CN106557462A (zh) * | 2016-11-02 | 2017-04-05 | 数库(上海)科技有限公司 | 命名实体识别方法和*** |
Non-Patent Citations (2)
Title |
---|
CHOONG-NYOUNG SEON,ET AL: "Named Entity Recognition using Machine Learning Methods and Pattern-Selection Rules", 《NATURAL LANGUAGE PROCESSING PACIFIC RIM SYMPOSIUM》 * |
杨华: "基于最大熵模型的中文命名实体识别方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015269A1 (zh) * | 2017-07-18 | 2019-01-24 | 中译语通科技股份有限公司 | 基于最大熵和神经网络模型的韩语命名实体识别方法 |
CN108255806A (zh) * | 2017-12-22 | 2018-07-06 | 北京奇艺世纪科技有限公司 | 一种人名识别方法及装置 |
CN108255806B (zh) * | 2017-12-22 | 2021-12-17 | 北京奇艺世纪科技有限公司 | 一种人名识别方法及装置 |
CN108268447A (zh) * | 2018-01-22 | 2018-07-10 | 河海大学 | 一种藏文命名实体的标注方法 |
CN108268447B (zh) * | 2018-01-22 | 2020-12-01 | 河海大学 | 一种藏文命名实体的标注方法 |
CN108304933A (zh) * | 2018-01-29 | 2018-07-20 | 北京师范大学 | 一种知识库的补全方法及补全装置 |
CN109063159A (zh) * | 2018-08-13 | 2018-12-21 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
CN109063159B (zh) * | 2018-08-13 | 2021-04-23 | 桂林电子科技大学 | 一种基于神经网络的实体关系抽取方法 |
CN109145303B (zh) * | 2018-09-06 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 命名实体识别方法、装置、介质以及设备 |
CN109670181A (zh) * | 2018-12-21 | 2019-04-23 | 东软集团股份有限公司 | 一种命名实体识别方法及装置 |
CN111563380A (zh) * | 2019-01-25 | 2020-08-21 | 浙江大学 | 一种命名实体识别方法及其装置 |
CN110069779A (zh) * | 2019-04-18 | 2019-07-30 | 腾讯科技(深圳)有限公司 | 医疗文本的症状实体识别方法及相关装置 |
CN110069779B (zh) * | 2019-04-18 | 2023-01-10 | 腾讯科技(深圳)有限公司 | 医疗文本的症状实体识别方法及相关装置 |
CN110134969A (zh) * | 2019-05-27 | 2019-08-16 | 北京奇艺世纪科技有限公司 | 一种实体识别方法和装置 |
CN110134969B (zh) * | 2019-05-27 | 2023-07-14 | 北京奇艺世纪科技有限公司 | 一种实体识别方法和装置 |
CN110297888A (zh) * | 2019-06-27 | 2019-10-01 | 四川长虹电器股份有限公司 | 一种基于前缀树与循环神经网络的领域分类方法 |
CN110297888B (zh) * | 2019-06-27 | 2022-05-03 | 四川长虹电器股份有限公司 | 一种基于前缀树与循环神经网络的领域分类方法 |
CN110781682A (zh) * | 2019-10-23 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 命名实体识别模型训练方法、识别方法、装置及电子设备 |
CN110781682B (zh) * | 2019-10-23 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 命名实体识别模型训练方法、识别方法、装置及电子设备 |
CN111222323B (zh) * | 2019-12-30 | 2024-05-03 | 深圳市优必选科技股份有限公司 | 一种词槽抽取方法、词槽抽取装置及电子设备 |
CN111222323A (zh) * | 2019-12-30 | 2020-06-02 | 深圳市优必选科技股份有限公司 | 一种词槽抽取方法、词槽抽取装置及电子设备 |
CN113111656A (zh) * | 2020-01-13 | 2021-07-13 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读存储介质和计算机设备 |
CN113111656B (zh) * | 2020-01-13 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读存储介质和计算机设备 |
CN113632092A (zh) * | 2020-01-20 | 2021-11-09 | 京东方科技集团股份有限公司 | 实体识别的方法和装置、建立词典的方法、设备、介质 |
CN112364655A (zh) * | 2020-10-30 | 2021-02-12 | 北京中科凡语科技有限公司 | 命名实体识别模型建立方法及命名实体识别方法 |
CN112633001A (zh) * | 2020-12-28 | 2021-04-09 | 咪咕文化科技有限公司 | 文本命名实体识别方法、装置、电子设备及存储介质 |
CN112633001B (zh) * | 2020-12-28 | 2024-07-02 | 咪咕文化科技有限公司 | 文本命名实体识别方法、装置、电子设备及存储介质 |
CN114492425A (zh) * | 2021-12-30 | 2022-05-13 | 中科大数据研究院 | 采用一套领域标签体系将多维度数据打通的方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200302118A1 (en) | 2020-09-24 |
WO2019015269A1 (zh) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107391485A (zh) | 基于最大熵和神经网络模型的韩语命名实体识别方法 | |
CN107168945B (zh) | 一种融合多特征的双向循环神经网络细粒度意见挖掘方法 | |
CN110825881B (zh) | 一种建立电力知识图谱的方法 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
CN106933804B (zh) | 一种基于深度学习的结构化信息抽取方法 | |
CN104462066B (zh) | 语义角色标注方法及装置 | |
Qiu et al. | Learning word representation considering proximity and ambiguity | |
CN109800411A (zh) | 临床医疗实体及其属性抽取方法 | |
CN105404632B (zh) | 基于深度神经网络对生物医学文本序列化标注的***和方法 | |
CN110297908A (zh) | 诊疗方案预测方法及装置 | |
CN106776711A (zh) | 一种基于深度学习的中文医学知识图谱构建方法 | |
CN110516245A (zh) | 细粒度情感分析方法、装置、计算机设备及存储介质 | |
CN107506414A (zh) | 一种基于长短期记忆网络的代码推荐方法 | |
CN108268643A (zh) | 一种基于多粒度lstm网络的深层语义匹配实体链接方法 | |
CN105528437B (zh) | 一种基于结构化文本知识提取的问答***构建方法 | |
CN109934261A (zh) | 一种知识驱动参数传播模型及其少样本学习方法 | |
CN107220237A (zh) | 一种基于卷积神经网络的企业实体关系抽取的方法 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及*** | |
Güngör et al. | The effect of morphology in named entity recognition with sequence tagging | |
CN111222318B (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN107315738A (zh) | 一种文本信息的创新度评估方法 | |
CN113704416B (zh) | 词义消歧方法、装置、电子设备及计算机可读存储介质 | |
Ren et al. | Detecting the scope of negation and speculation in biomedical texts by using recursive neural network | |
CN111753088A (zh) | 一种自然语言信息的处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 100040 Shijingshan Road, Shijingshan District, Beijing, No. 20, 16 layer 1601 Applicant after: Chinese translation language through Polytron Technologies Inc Address before: 100040 Shijingshan District railway building, Beijing, the 16 floor Applicant before: Mandarin Technology (Beijing) Co., Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171124 |
|
RJ01 | Rejection of invention patent application after publication |