CN114021658A - 一种命名实体识别模型的训练方法、应用方法及其*** - Google Patents

一种命名实体识别模型的训练方法、应用方法及其*** Download PDF

Info

Publication number
CN114021658A
CN114021658A CN202111324784.XA CN202111324784A CN114021658A CN 114021658 A CN114021658 A CN 114021658A CN 202111324784 A CN202111324784 A CN 202111324784A CN 114021658 A CN114021658 A CN 114021658A
Authority
CN
China
Prior art keywords
named entity
task
entity recognition
word
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111324784.XA
Other languages
English (en)
Inventor
宿帅
李若青
曹源
曲佳
谢正光
徐会杰
楚柏青
陈文�
魏运
吕楠
豆飞
禹丹丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN202111324784.XA priority Critical patent/CN114021658A/zh
Publication of CN114021658A publication Critical patent/CN114021658A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Character Discrimination (AREA)

Abstract

本发明涉及一种命名实体识别模型的训练方法、应用方法及其***,属于轨道交通自然语言处理领域,模型训练方法包括对故障文本进行预处理,得到字向量和词向量;字向量包括命名实体识别任务的字向量和分词任务的字向量;词向量用于判断一个句子中的连续的两个字向量是否关联为同一个词;建立命名实体识别模型;命名实体识别模型包括命名实体识别任务子模型、分词任务子模型和对抗训练结构;将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行训练,得到训练好的命名实体识别模型。利用该命名实体识别模型进行命名实体类别的识别,具有很高的识别精度和识别效果。

Description

一种命名实体识别模型的训练方法、应用方法及其***
技术领域
本发明涉及自然语言处理方法在轨道交通领域的应用,特别是涉及一种面向故障文本的命名实体识别模型的训练方法、应用方法及其***。
背景技术
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理主要应用于机器翻译、舆情监测、自动摘要、观点提取、知识提取、文本分类、语音识别、中文OCR等方面。其中,知识提取是从文本型知识源中抽取出隐含的、有价值的知识的过程。为了有效挖掘文本信息,可以通过知识提取技术从非结构化的文本数据中获取结构化数据。知识提取通常包括命名实体识别、命名实体消歧、关系抽取和事件抽取,其中,命名实体识别是最重要的子任务之一。
然而,铁路领域中的中文命名实体识别方法仍然存在如下缺陷:
(1)铁路领域缺乏能公开使用的标注数据集,仍然依靠人工标注数据,由于人工标注数据存在清晰度和准确度的问题,会直接影响中文命名实体的识别精度和识别效果;
(2)中文语言具有多语义、常省略等复杂特性,导致实体与实体之间没有明确的边界,使得最终中文命名实体的识别精度低,识别效果差;
(3)铁路领域现有的中文命名实体识别方法都是基于字符的输入,没有引入词汇信息,实体识别效果较差。
因此,上述缺陷使得轨道交通铁路领域中现有的中文命名实体识别方法普遍存在识别精度低、识别效果差的问题。基于此,如何提升铁路领域中的中文命名实体识别的精度和效果,是目前铁路领域的中文命名实体类别识别方面中亟待解决的一个核心问题。
发明内容
本发明的目的是提供一种命名实体识别模型的训练方法、应用方法及其***,以提升对中文命名实体类别的识别精度和识别效果,解决铁路领域中现有的命名实体识别方法存在的识别精度低、识别效果差的问题。
为实现上述目的,本发明提供了如下方案:
一方面,本发明提供了一种命名实体识别模型的训练方法,包括:
对故障文本进行预处理,得到字向量和词向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;所述词向量用于判断一个句子中的连续的两个所述字向量是否关联为同一个词;
建立所述命名实体识别模型;所述命名实体识别模型包括命名实体识别任务子模型、分词任务子模型和对抗训练结构,所述命名实体识别任务子模型包括依次级联的第一字向量嵌入层、词向量嵌入层、Lattice LSTM层和第一条件随机场层,所述分词任务子模型包括依次级联的第二字向量嵌入层、第一双向长短期记忆网络层和第二条件随机场层;所述对抗训练结构包括生成器和判别器,所述生成器包括依次级联的所述第一字向量嵌入层、所述第二字向量嵌入层和第二双向长短期记忆网络层;所述判别器包括最大池化层和Softmax层;所述生成器和所述判别器之间进行对抗训练,以提取出所述命名实体识别任务和所述分词任务之间的共同特征,并通过所述最大池化层降低提取出的所述共同特征的维度,然后通过所述Softmax层归一化后输出任务类型的概率结果,从而识别出当前输入的字符序列来自所述命名实体识别任务还是所述分词任务;
将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行训练,得到训练好的命名实体识别模型。
可选的,所述对故障文本进行预处理,得到字向量和词向量,具体包括:
对所述故障文本进行分词处理,得到分词结果;
采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库;
对所述语料库进行预训练,得到所述字向量;
对所述分词结果进行预训练,得到所述词向量。
可选的,在所述命名实体识别模型中,所述命名实体识别任务子模型、所述分词任务子模型和所述对抗训练结构还各具有一层自注意力机制层;
所述命名实体识别任务子模型的自注意力机制层分别与所述Lattice LSTM层和所述第一条件随机场层级联;
所述分词任务子模型的自注意力机制层分别与所述第一双向长短期记忆网络层和所述第二条件随机场层级联;
所述对抗训练结构的自注意力机制层分别与所述第二双向长短期记忆网络层和所述最大池化层级联。
可选的,所述将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行训练,得到训练好的命名实体识别模型,具体包括:
将所述命名实体识别任务的字符序列和所述分词任务的字符序列交替输入至所述对抗训练结构中,通过所述判别器判断当前输入的字符序列来自于所述命名实体识别任务还是所述分词任务;所述字符序列上带有采用BIO标注法标注的标签;其中,所述命名实体识别任务的字符序列包括所述命名实体识别任务的字向量和相应的标签,所述分词任务的字符序列包括所述分词任务的字向量和相应的标签;
当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,则利用所述命名实体识别任务的字向量和所述词向量对所述命名实体识别任务子模型进行训练;
当所述判别器判断当前输入的字符序列来自于所述分词任务时,则利用所述分词任务的字向量对所述分词任务子模型进行训练;
训练完成后,得到所述训练好的命名实体识别模型。
可选的,所述将所述命名实体识别任务的字符序列和所述分词任务的字符序列交替输入至所述对抗训练结构中,通过所述判别器判断当前输入的字符序列来自于所述命名实体识别任务还是所述分词任务,具体包括:
将所述命名实体任务的字符序列和所述分词任务的字符序列作为所述对抗训练结构的输入,交替地输入至所述生成器中对应的字向量嵌入层中,分别得到所述命名实体任务的字向量表示和所述分词任务的字向量表示;其中,所述字向量嵌入层包括输入所述命名实体任务的字符序列的第一字向量嵌入层以及输入所述分词任务的字符序列的第二字向量嵌入层;
根据所述命名实体任务的字向量表示和所述分词任务的字向量表示,利用所述第二双向长短期记忆网络层得到所述对抗训练结构的隐藏层状态;
将所述对抗训练结构的隐藏层状态输入至所述对抗训练结构的所述自注意力机制层,得到所述自注意力机制层的输出状态结果;
将所述自注意力机制层的输出状态结果传输至所述判别器中进行判别,经所述最大池化层的最大池化处理后得到中间结果,并将所述中间结果传输至所述Softmax层;
通过所述Softmax层输出所述命名实体任务和所述分词任务的任务类型的概率结果,根据所述任务类型的概率结果确定当前输入的字符序列来自于所述命名实体任务还是所述分词任务,并保存此时的所述自注意力机制层的输出状态结果。
可选的,所述当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,则利用所述命名实体识别任务的字向量和所述词向量对所述命名实体识别任务子模型进行训练,具体包括:
当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,表示所述对抗训练结构的输入来源于所述命名实体识别任务的字符序列,则此时开始对所述命名实体识别任务子模型进行训练;
将所述命名实体识别任务的字符序列和所述分词任务的单词序列进行拼接,并送入至所述第一字向量嵌入层和所述词向量嵌入层中,得到字向量表示和词向量表示;
将所述字向量表示和所述词向量表示输入至所述Lattice LSTM层,得到所述Lattice LSTM层的隐藏层状态;
将所述Lattice LSTM层的隐藏层状态送入至所述命名实体识别任务子模型的自注意力机制层中,得到所述命名实体识别任务子模型的自注意力机制层的输出状态结果;
将此时得到的所述自注意力机制层的输出状态结果与预先保存的所述自注意力机制层的输出状态结果进行拼接,得到新的自注意力机制层的输出状态结果;
将所述新的自注意力机制层的输出状态结果输入至所述第一条件随机场层中,利用所述第一条件随机场层对命名实体识别结果进行优化,输出最终的字符序列预测结果,所述字符序列预测结果表示当前输入的字符序列属于所述命名实体任务的概率。
可选的,所述当所述判别器判断当前输入的字符序列来自于所述分词任务时,则利用所述分词任务的字向量对所述分词任务子模型进行训练,具体包括:
当所述判别器判断当前输入的字符序列来自于所述分词任务时,表示所述对抗训练结构的输入来源于所述分词任务的字符序列,则此时开始对所述分词任务子模型进行训练;
将所述分词任务的字符序列送入所述第二字向量嵌入层中,得到字向量表示;
将所述字向量表示输入至所述第一双向长短期记忆网络层中,计算得到所述第一双向长短期记忆网络层的隐藏层状态;
将所述第一双向长短期记忆网络层的隐藏层状态输入至所述分词任务子模型的所述自注意力机制层中,得到所述分词任务子模型的所述自注意力机制层的输出状态结果;
将此时得到的所述自注意力机制层的输出状态结果输入至所述第二条件随机场层中进行优化,输出最终的字符序列预测结果,所述字符序列预测结果表示当前输入的字符序列属于所述分词任务的概率。
另一方面,本发明还提供了一种命名实体识别模型的应用方法,使用所述的训练好的命名实体识别模型进行命名实体识别,包括:
对故障文本进行预处理,得到字向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;
将所述命名实体识别任务的字向量和所述分词任务的字向量输入至所述训练好的命名实体识别模型中,得到命名实体类别的识别结果。
可选的,所述对故障文本进行预处理,得到字向量,具体包括:
对所述故障文本进行分词处理,得到分词结果;
采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库;
对所述语料库进行预训练,得到所述命名实体识别任务的字向量和所述分词任务的字向量。
另一方面,本发明还提供了一种命名实体识别模型的应用***,所述应用***被处理器运行时实现所述的命名实体识别模型的训练方法中一个或多个步骤或实现所述的命名实体识别模型的应用方法中一个或多个步骤。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明基于故障文本建立了命名实体识别模型,该命名实体识别模型包括命名实体识别任务子模型、分词任务子模型和对抗训练结构三部分,其中,命名实体识别任务子模型包括依次级联的第一字向量嵌入层、词向量嵌入层、Lattice LSTM层和第一条件随机场层;分词任务子模型包括依次级联的第二字向量嵌入层、第一双向长短期记忆网络层和第二条件随机场层;对抗训练结构包括生成器和判别器,所述生成器包括依次级联的所述第一字向量嵌入层、所述第二字向量嵌入层和第二双向长短期记忆网络层;所述判别器包括最大池化层和Softmax层。其中,生成器用于尽力提取命名实体识别任务和分词任务的共同特征,使判别器无法判别出当前输入的字符序列来自命名实体识别任务还是分词任务,判别器则用于尽力判别出当前输入的字符序列来自命名实体识别任务还是分词任务,从而实现对抗训练,通过多次对抗训练使生成器提取出判别器无法区分的命名实体识别任务和分词任务之间的共同特征。
通过对抗训练结构中的生成器和判别器之间进行对抗训练,以提取出命名实体识别任务和分词任务之间的共同特征,并通过最大池化层降低提取出的所述共同特征的维度,利用Softmax层适用于解决多分类问题的特点,当命名实体识别只包括命名实体识别任务和分词任务两种分类情况时,利用Softmax层将分类问题转化为二分类的回归问题,通过Softmax层输出这两种任务类型的概率结果,从而更加准确地识别出当前输入的字符序列来自命名实体识别任务还是来自分词任务,有效提升了命名实体类别的识别精度。
本发明面向于铁路领域的故障文本,实现对铁路领域中列车故障文本中的命名实体的精确识别,还可适用于其他具有故障文本的领域,可实现对这些故障文本中命名实体的识别,具有普适性,应用广泛。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。以下附图并未刻意按实际尺寸等比例缩放绘制,重点在于示出本发明的主旨。
图1为本发明实施例1提供的命名实体识别模型的训练方法的流程图;
图2为本发明实施例1提供的命名实体识别模型进行命名实体识别的流程图;
图3为本发明实施例1提供的Lattice LSTM层的结构示意图;
图4为本发明实施例1提供的以“空调故障”为例的Lattice LSTM层的工作流程图;
图5为本发明实施例2提供的命名实体识别模型的应用方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如本发明和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
虽然本发明对根据本发明的实施例的***中的某些模块做出了各种引用,然而,任何数量的不同模块可以被使用并运行在用户终端和/或服务器上。所述模块仅是说明性的,并且所述***和方法的不同方面可以使用不同模块。
本发明中使用了流程图用来说明根据本发明的实施例的***所执行的操作。应当理解的是,前面或下面操作不一定按照顺序来精确地执行。相反,根据需要,可以按照倒序或同时处理各种步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
本发明的目的是提供一种命名实体识别模型的训练方法、应用方法及其***,在故障文本的前提下,可有效提升对故障文本中的中文命名实体的识别精度和识别效果,能够自动化、高精度地实现故障文本的关键信息(也称实体)的提取,挖掘历史故障文本数据中的有价值信息,利用这些有价值信息为工作人员提供决策帮助和信息支持。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
如图1所示,本实施例提供了一种命名实体识别模型的训练方法,具体包括以下步骤:
步骤S1、对故障文本进行预处理,得到字向量和词向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;所述词向量用于判断一个句子中的连续的两个所述字向量是否关联为同一个词。具体包括:
步骤S1.1、对所述故障文本进行分词处理,得到分词结果。具体包括:
步骤S1.1.1、将所述故障文本数据以句子为单位进行分割,得到句子分割结果;
步骤S1.1.2、将所述句子分割结果以词为单位进行分割,得到词分割结果;
步骤S1.1.3、将所述词分割结果中与命名实体识别任务无关的停用词删除,得到所述分词结果,包括多个故障文本单词序列texti={wi,1,wi,2,…,wi,n},i∈[1,N]。
其中,rexti表示第i个故障文本单词序列,wi,j表示第i个故障文本单词序列中的第j个单词,N表示故障文本的数量,n表示每个故障文本单词序列中单词的数量。
本实施例在分词处理时,由于例如铁路领域等各个领域中分别涉及相应的专业词汇,因此,本实施例通过外加领域词典以提高分词的准确性。
由于原始故障文本中的数据为粗糙的非结构化数据,因此,分词处理首先需要将原始故障文本以句子为单位分割,再将分割出的各个句子以词为单位分割,然后在分割出的各个词中,删除一些与命名实体识别任务无关的停用词,所述停用词指的是故障文本中不具有实质作用的词语,例如特殊字符、英文乱码、生僻字等。目前,可通过网络下载现有技术中公开的中文停用词库,在停用词库中划分出了停用词的具体范围,此处不再赘述。本实施例中,删除的停用词包括除逗号、句号外的其他标点符号、人名、生僻字和英文等。通过删除这些停用词,以降低中文命名实体的识别难度,提升识别准确性、可靠性。
本发明通过对故障文本进行分词,能够确定中文的命名实体与命名实体之间的边界,并在此基础上,能够识别出故障文本对应的领域中的专有名词作为领域实体,使得识别出的命名实体更加准确、可靠,提升了中文命名实体的识别精度。
步骤S1.2、采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库。也就是说,将分词处理后得到的故障文本单词序列中组成每个单词的字符进行标注,构建得到语料库。具体包括:
步骤S1.2.1、采用BIO标注法对所述分词结果中的每个单词的字符进行标注,得到字符序列的命名实体的类别以及每个所述字符的位置。
首先,利用领域词汇字典的方法构建字符对序列:
Figure BDA0003346652060000091
Figure BDA0003346652060000092
其中,itemi表示字符对序列,
Figure BDA0003346652060000093
表示第i个故障文本单词序列中第z个单词的中第j个字符在命名实体中的位置,z∈[1,n],j∈[1,k],k∈[1,5],故障文本中单词包含的最长字符数为5;
Figure BDA0003346652060000094
表示第i个故障文本单词序列中第z个单词的命名实体类别;第z个单词中包含的所有字符均属于一个命名实体类别;M表示命名实体类别的数量,T1,T2,…,TM分别表示M种命名实体对应的类别。
采用BIO标注法对字符对序列中的字符进行标注,为每个字符标注上“B”、“I”或者“O”。在BIO标注法中,“B”即Begin,表示该字符位于某实体的开头,“I”即Inside,表示该字符位于某实体的内部,“O”即Outside,表示该字符不属于任何规定类别的实体。
步骤S1.2.2、基于“时间、地点、人物、起因、经过和结果”的事件六要素,对所述命名实体进行定义,得到所述语料库。
本实施例中,根据上述事件六要素,将故障文本中涉及的命名实体定义为6类,如表1所示:
表1故障文本涉及的命名实体表
序号 实体名称 英文 标注名称
1 故障发现人员 Identity IDT
2 故障发生地点 Location LOC
3 故障现象 Phenomenon PHO
4 故障处置步骤 Process PRO
5 故障影响 Effect EFFE
6 领域专有名词 Terminology TERM
下面以“列车运行至古城站接到乘务管理员通知”这一个句子为例,本实施例采用哈尔滨工业大学的pyltp自然语言处理工具包进行分词处理,并手动添加了词典,且词典中涵盖有领域专有名词,以帮助分词。经过分词处理后该句子构成的单词序列为:{列车,运行,至,古城站,接到,乘务管理员,通知}。经过BIO标注后得到序列:{{(列,B-TERM),(车,I-TERM)},{(运,O),(行,O)},{(至,O)},{(古,B-LOC),(城,I-LOC),(站,I-LOC)},{(接,O),(到,O)},{(乘,B-IDT),(务,I-IDT),(管,I-IDT),(理,I-IDT),(员,I-IDT)},{(通,O),(知,O)}},如表2所示:
表2命名实体标注样式举例
Figure BDA0003346652060000101
Figure BDA0003346652060000111
本发明通过对故障文本进行字符标注并建立语料库,语料库中的数据均为已标注数据,半自动地构建出故障文本的命名实体识别的标注数据集,将语料库中的标注数据划分后能够直接输入到深度学习模型中进行训练,从而解决了现有技术中缺乏标注数据集、完全依靠人工标注数据的问题,消除了由于标注数据集缺乏、完全依靠人工标注数据造成的对中文命名实体的识别精度和识别效果的影响,进而提高了中文命名实体的识别精度和识别效果。
步骤S1.3、对所述语料库进行预训练,得到所述字向量。具体包括:
采用word2vec预训练法对所述语料库中文本形式的字符进行预训练,并将所述字符转化为对应的向量形式,得到所述字向量。
Word2vec是一群用来产生字/词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学的词文本。本实施例中维度设置为100维,训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。word2vec属于本领域中成熟且广泛使用的字/词向量训练方式,可以直接调用函数库实现,此处不再赘述。
word2vec模型的输出为预训练字向量矩阵ec1。对于语料库D,其中任意字符ci的字向量表示
Figure BDA0003346652060000112
可以从ec1中查找得到,表示为:
Figure BDA0003346652060000113
其中,
Figure BDA0003346652060000121
表示语料库中字符的字向量表示,ec1表示语料库中字符的预训练字向量矩阵,D表示语料库,ci表示语料库中的任意一个字符。
步骤S1.4、对所述分词结果进行预训练,得到所述词向量。具体包括:
采用word2vec预训练法对所述分词结果进行预训练,得到所述词向量。
在步骤S1.4中对分词结果进行预训练获取词向量,使用的方法和步骤S1.3是相同的,同样采用word2vec预训练法,得到字符和词汇两种形式的向量表示,从而获取的到词向量。同步骤S1.3.2中字向量表示具有相同维度,在本实施例中设为100维。需要说明的是,这个具体数值是一个优选值,还可以设置为其他维度,可根据实际情况自行设定。
对于由分词结果组成的另一语料库W,其中任意词汇wi的词向量表示
Figure BDA0003346652060000122
可以从预训练词向量矩阵ew中查找得到,表示为:
Figure BDA0003346652060000123
其字符形式的向量表示为:
Figure BDA0003346652060000124
其中,wi表示分词结果构成的另一语料库W中的任意一个词汇;
Figure BDA0003346652060000125
表示词汇wi的词向量表示;ew表示预训练词向量矩阵;
Figure BDA0003346652060000126
表示分词结果对应的字符的字向量表示;ec2表示分词结果中字符的预训练字向量矩阵。
步骤S2、建立命名实体识别模型。
本发明采用的是基于Adversarial Training Lattice LSTM的深度学习模型作为命名实体识别模型,实施例1的模型训练方法,就是对该命名实体识别模型的训练方法。因此,首先需要构建出该命名实体识别模型。
该命名实体识别模型是一种词汇增强模型,通过两种动态结构将词汇信息添加到命名实体识别任务中,以提高命名实体的识别效果。第一种动态结构是AdversarialTraining对抗训练,通过学习命名实体识别任务和分词任务的共同特征,将词汇信息引入到命名实体识别任务中。第二种动态结构是Lattice LSTM,通过改变LSTM的结构来充分利用词与词之间的序列信息。
如图2所示,本发明采用的命名实体识别模型包括命名实体识别任务子模型、分词任务子模型和对抗训练结构,所述命名实体识别任务子模型包括依次级联的第一字向量嵌入层、词向量嵌入层、Lattice LSTM层和第一条件随机场层,所述分词任务子模型包括依次级联的第二字向量嵌入层、第一双向长短期记忆网络层和第二条件随机场层;所述对抗训练结构包括生成器和判别器,所述生成器包括依次级联的所述第一字向量嵌入层、所述第二字向量嵌入层和第二双向长短期记忆网络层;所述判别器包括最大池化层和Softmax层,判别器用于判断生成器的输入是来自于命名实体识别任务还是分词任务。
另外,在所述命名实体识别模型中,所述命名实体识别任务子模型、所述分词任务子模型和所述对抗训练结构还各具有一层自注意力机制层;所述命名实体识别任务子模型的自注意力机制层分别与所述Lattice LSTM层和所述第一条件随机场层级联;所述分词任务子模型的自注意力机制层分别与所述第一双向长短期记忆网络层和所述第二条件随机场层级联;所述对抗训练结构的自注意力机制层分别与所述第二双向长短期记忆网络层和所述最大池化层级联。
其中,对抗训练结构,指的是生成器和判别器之间进行对抗训练,以提取出所述命名实体识别任务和所述分词任务之间的共同特征,并通过所述最大池化层降低提取出的所述共同特征的维度,然后通过所述Softmax层归一化后输出任务类型的概率结果,从而识别出当前输入的字符序列来自所述命名实体识别任务还是所述分词任务。
步骤S3、根据上述训练方法,将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行多次训练,得到训练好的命名实体识别模型。具体包括:
步骤S3.1、将所述命名实体识别任务的字符序列和所述分词任务的字符序列交替输入至所述对抗训练结构中,通过所述判别器判断当前输入的字符序列来自于所述命名实体识别任务还是所述分词任务;所述字符序列上带有采用BIO标注法标注的标签;其中,所述命名实体识别任务的字符序列包括所述命名实体识别任务的字向量和相应的标签,所述分词任务的字符序列包括所述分词任务的字向量和相应的标签。
本实施例中,将命名实体任务和分词任务的字符序列交替输入至对抗训练结构的第一字向量嵌入层和第二字向量嵌入层中,得到两个任务的字向量表示
Figure BDA0003346652060000131
Figure BDA0003346652060000132
然后通过第二双向长短期记忆网络层得到隐藏层状态hi,计算公式为:
Figure BDA0003346652060000141
Figure BDA0003346652060000142
Figure BDA0003346652060000143
其中,hi表示通过第二双向长短期记忆网络层得到隐藏层状态;
Figure BDA0003346652060000144
表示字向量;hi-1表示前一时刻的隐藏层状态;hi+1表示后一时刻的隐藏层状态;箭头表示第二双向长短期记忆网络层的方向,向右的箭头表示从输入序列的开始遍历到结尾,向左的箭头表示从输入序列的结尾遍历到开始;
Figure BDA0003346652060000145
为拼接符号。
隐藏层输出的结果还需经过自注意力机制层,得到自注意力机制层的输出状态H,计算公式为:
Figure BDA0003346652060000146
Figure BDA0003346652060000147
Figure BDA0003346652060000148
其中,Q、K、V分别表示查询矩阵、键矩阵和值矩阵,
Figure BDA0003346652060000149
Figure BDA00033466520600001410
且Q=K=V=H。d表示第二双向长短期记忆网络层隐藏单元的维度,本方法将d设置为128维。
Figure BDA00033466520600001411
Figure BDA00033466520600001412
这四个参数均是模型中的可训练参数。
自注意力机制层的输出结果需要输入到判别器中进行判别,以分辨输入来自命名实体识别任务还是分词任务。其表达式为:
hk=maxpooling(Hk)
D(hk;θd)=softmax(Wdhk+bd)
其中,Hk表示任务k输入生成器和自注意力机制后的输出,任务k的类别未知,可能是命名实体识别任务,也可能是分词任务。θd表示判别器的训练参数集。
Figure BDA00033466520600001413
是模型中可训练的参数,K表示任务数,本实施例中取值为2,即包含有命名实体识别和分词两个任务。hk表示经过判别器最大池化层后的中间结果,然后输入到Softmax层中使其映射为(0,1)之间的值。D(hk;θd)表示最终输出的概率,自变量是hk,可训练参数集是θd
假设命名实体识别任务为正确类别,则分词任务为错误类别,Softmax层用于区分输入来自于哪一个任务,最终得到正确类别的概率和错误类别的概率。当正确类别的概率大于错误类别的概率时,表示输入来自命名实体识别任务的字符序列,当正确类别的概率小于错误类别的概率时,表示输入来自分词任务的字符序列。将此时的自注意力机制层的输出状态H结果保存。
步骤S3.2、当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,开始利用所述命名实体识别任务的字向量和所述词向量对所述命名实体识别任务子模型进行训练。
首先,将命名实体识别任务的字符序列和分词任务的单词序列进行拼接,并输入至第一字向量嵌入层和词向量嵌入层中,得到字向量表示
Figure BDA0003346652060000151
和词向量表示
Figure BDA0003346652060000152
然后通过Lattice LSTM层得到隐藏层状态
Figure BDA0003346652060000153
计算公式为:
Figure BDA0003346652060000154
Figure BDA0003346652060000155
Figure BDA0003346652060000156
Figure BDA0003346652060000157
Figure BDA0003346652060000158
Figure BDA0003346652060000159
其中,
Figure BDA00033466520600001510
表示j时刻隐节点的状态向量,
Figure BDA00033466520600001511
表示j时刻LSTM单元的状态向量;
Figure BDA00033466520600001512
分别表示LSTM单元的遗忘门、输入门、输出门和记忆门四个门控单元。Wc1、bc1表示模型所有可训练的参数,
Figure BDA00033466520600001513
表示j时刻命名实体识别任务的字向量表示;σ()代表sigmoid激活函数,将输出值转换为0到1之间的数值。tanh()激活函数将输出转换为-1到1之间的数值。
由于Lattice LSTM层是一种动态结构,只有当某一字符序列能够引入词汇信息时,词向量才会被利用。因此,当引入词汇信息时,对于以字符索引b开头,以字符索引e结尾组成的词汇输入
Figure BDA00033466520600001514
此时Lattice LSTM层的状态向量
Figure BDA00033466520600001515
的计算公式如下:
Figure BDA0003346652060000161
Figure BDA0003346652060000162
Figure BDA0003346652060000163
Figure BDA0003346652060000164
Figure BDA0003346652060000165
其中,
Figure BDA0003346652060000166
分别代表Lattice LSTM层的输入门和遗忘门;
Figure BDA0003346652060000167
表示LatticeLSTM层的记忆门,Ww、bw表示模型可训练的参数,
Figure BDA0003346652060000168
表示词汇输入;
Figure BDA0003346652060000169
表示b时刻LatticeLSTM层的状态向量,
Figure BDA00033466520600001610
表示b时刻隐节点的状态向量。
由于最后的标签预测仍然是基于字符的,因此j时刻隐节点的状态向量
Figure BDA00033466520600001611
的计算仍和没有引入词汇信息的字符序列的计算方式相同。如图3和图4所示,当没有词汇信息引入时,Lattice LSTM层采用图3中第一个图的结构输入输出;当有词汇信息引入时,采用图3中第二个图的结构输入词汇信息。Lattice LSTM层的工作流程图如图4所示,图4中以“空调故障”为例,在“空调故障”四个字符的基础上区分字符和词汇,以更清晰、更直观地表明Lattice LSTM层的具体结构。
在得到Lattice LSTM层的j时刻隐节点的状态向量
Figure BDA00033466520600001612
后,还需要经过自注意力机制层,计算方法和步骤S2.1中的方式相同,得到输出状态H′。将步骤S2.1中得到的命名实体识别任务的H进行拼接,得到新的自注意力机制层状态
Figure BDA00033466520600001613
最后经过第一条件随机场层优化命名实体识别结果,输出最终的标签预测结果
Figure BDA00033466520600001614
其中,
Figure BDA00033466520600001615
表示字符c(i)属于命名实体任务的概率。
步骤S3.3、当所述判别器判断当前输入的字符序列来自于所述分词任务时,则利用所述分词任务的字向量对所述分词任务子模型进行训练。
首先将分词任务的字符序列送入第二字向量嵌入层中,得到字向量表示
Figure BDA00033466520600001616
然后通过第一双向长短期记忆网络得到隐藏层状态hi,计算公式同步骤S5.1中的方式相同。再经过自注意力机制层得到状态H,计算公式和步骤S2.1中的方式相同,此处不再赘述。最后经过第二条件随机场层输出最终的标签预测结果
Figure BDA0003346652060000171
其中,
Figure BDA0003346652060000172
表示字符c(i)属于分词任务的概率。
另外,在命名实体识别模型训练过程中,采用Adam优化算法持续更新网络权重,并以所述对抗训练结构的损失函数、所述命名实体识别任务子模型的损失函数和所述分词任务子模型的损失函数为模型损失函数,对所述命名实体识别模型进行迭代训练;
首先对抗训练结构的损失函数定义为:
Figure BDA0003346652060000173
其中,Ladv表示对抗训练结构的损失函数;D(hk;θd)表示二分类任务的预测结果,即预测出对抗训练结构的输入来自于命名实体识别任务的概率;Tk表示任务k的训练样例数,
Figure BDA0003346652060000174
表示最大化生成器提取出共同特征的概率,训练参数为θd
Figure BDA0003346652060000175
表示判别器的优化目标,最小化上述结果,尽可能使判别器分出哪个是命名实体识别任务哪个是分词任务,训练参数为θs
本发明将对抗训练结构定义为一个最小最大优化问题,即生成器尽可能提取命名实体任务和分词任务的共同特征,使判别器无法判别出输入字符序列来自于哪一个任务;同时判别器试图判别出输入字符序列来自于哪一个任务。通过不断进行对抗训练,使得生成器提取出判别器无法区分的两个任务的共同特征,从而根据两个任务的共同特征,更易判别出到底属于哪一个任务,进而降低了模型的识别难度,提升了模型识别的准确性。
其次,命名实体识别任务子模型的损失函数定义为:
Figure BDA0003346652060000176
其中,LNER表示命名实体识别任务子模型的损失函数;
Figure BDA0003346652060000177
表示字符c(i)属于命名实体任务的概率;T表示任务的训练样例数。
同样地,分词任务子模型的损失函数定义为:
Figure BDA0003346652060000181
其中,LCWS表示分词任务子模型的损失函数;
Figure BDA0003346652060000182
表示字符c(i)属于分词任务的概率;T表示任务的训练样例数。
合并上述三个损失函数,得到模型最终的损失函数为:
L=LNER*I(x)+LCWS*(1-I(x))+ηLadv
Figure BDA0003346652060000183
其中,I(x)表示当前对抗训练结构判别出输入来自于哪一个任务;x表示对抗训练结构的输入;TNER表示命名实体识别任务的训练数据集;TCWS表示分词任务的训练数据集;η为一个超参数。
当命名实体识别模型产生的损失值满足设定条件或达到最大迭代次数,则停止训练,并保存此时命名实体识别模型的训练参数,得到所述训练好的命名实体识别模型。
本实施例中,将命名实体识别模型的最大迭代次数设置为10000次,迭代10000次后,停止对命名实体识别模型的训练,至此,训练结束。需要说明,本实施例中的最大迭代次数仅仅是一个优选值,其可以是不同的值,可自行设定。由于命名实体识别任务子模型和分词任务子模型的收敛速度可能不同,而本发明的关注点在于命名实体识别任务,因此,根据命名实体识别任务子模型的性能设置最大迭代次数的具体数值,可训练出效果较佳的命名实体识别模型,提升命名实体识别模型的识别性能。
上述训练过程完成后,得到所述训练好的命名实体识别模型。
对故障文本而言,目前诸如铁路领域等大部分领域中仅具有原始故障文本,没有可直接使用的公开数据集,然而大部分深度学习模型需要进行监督学习,通过向深度学习模型输入一个输入得到对应的输出。本发明为故障文本中的实体进行标注后,就构造了输入和输出一一对应的标注数据集,用此标注数据集来训练命名实体识别模型的参数。在现有的故障文本的前提下,通过分词、标注等方式即可获得标注数据集,不仅解决了现有技术中缺乏标注数据集、完全依靠人工标注数据的问题,利用标注数据集训练模型参数还提高了模型的识别精度,进而提高了中文命名实体的识别效果。
本发明通过对语料库进行训练得到字向量,通过对分词结果进行训练得到词向量,并将字向量、词向量参与到命名实体识别模型的训练过程中,帮助命名实体识别模型识别出更准确的实体边界,结合命名实体识别模型中对抗训练Adversarial Training和Lattice LSTM两种动态结构的优点,可消除引入词汇信息对实体识别带来的干扰,从而使识别结果更加准确、可靠,识别效果更加显著,有效提升了对命名实体类别的识别精度和效果。
本发明使用字向量和词向量同时作为输入,引入词汇信息帮助识别命名实体的边界,可提升模型的识别精度。并且,对抗训练结构可以消除引入词汇信息对实体识别带来的干扰,从而进一步提升了模型的识别精度。因此,本发明采用对抗训练AdversarialTraining和Lattice LSTM两种动态结构,相比仅具有单一动态结构的传统算法,显著提高了命名实体的识别精度,识别结果更加准确、可靠,识别效果更佳。
本发明通过对故障文本进行字符标注建立语料库,语料库中的数据均为已标注数据,半自动地构建出故障文本命名实体识别的标注数据集,将语料库中的标注数据划分后能够直接输入到命名实体识别模型中进行训练,从而解决了现有技术中缺乏标注数据集、完全依靠人工标注数据的问题,消除了由于标注数据集缺乏、完全依靠人工标注数据造成的对中文命名实体的识别精度和识别效果的影响,进而提高了中文命名实体的识别精度和识别效果。并且,本发明完全基于现有的故障文本数据,可实际应用于各种具有故障文本的场景中,尤其是铁路领域中,只要在发生故障后可产生故障文本,利用本发明的方法均可实现对命名实体的类别进行准确识别,有利于我国自然语言处理技术尤其是命名实体识别的发展和进步。
实施例2
如图5所示,本实施例2提供了一种命名实体识别模型的应用方法,该命名实体识别模型的应用方法使用的是实施例1中的训练好的命名实体识别模型。需要说明的是,本实施例中不再赘述命名实体识别模型的构建过程和训练过程,各个步骤的具体过程以及计算公式与实施例1是相同的,请参见实施例1,此处均不再赘述。
本实施例中,命名实体识别模型的应用方法的具体步骤如下:
步骤T1、对故障文本进行预处理,得到字向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;
步骤T2、将所述命名实体识别任务的字向量和所述分词任务的字向量输入至所述训练好的命名实体识别模型中,得到命名实体类别的识别结果。
所述对故障文本进行预处理,得到字向量,具体包括:
步骤T1.1、对所述故障文本进行分词处理,得到分词结果;
步骤T1.2、采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库;
步骤T1.3、对所述语料库进行预训练,得到所述命名实体识别任务的字向量和所述分词任务的字向量。
实施例3
本实施例提供了一种命名实体识别模型的应用***,所述应用***被处理器运行时实现如实施例1中所述的命名实体识别模型的训练方法中一个或多个步骤,或者,实现如实施例2中所述的命名实体识别模型的应用方法中一个或多个步骤。
除非另有定义,这里使用的所有术语(包括技术和科学术语)具有与本发明所属领域的普通技术人员共同理解的相同含义。还应当理解,诸如在通常字典里定义的那些术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
上面是对本发明的说明,而不应被认为是对其的限制。尽管描述了本发明的若干示例性实施例,但本领域技术人员将容易地理解,在不背离本发明的新颖教学和优点的前提下可以对示例性实施例进行许多修改。因此,所有这些修改都意图包含在权利要求书所限定的本发明范围内。应当理解,上面是对本发明的说明,而不应被认为是限于所公开的特定实施例,并且对所公开的实施例以及其他实施例的修改意图包含在所附权利要求书的范围内。本发明由权利要求书及其等效物限定。

Claims (10)

1.一种命名实体识别模型的训练方法,其特征在于,包括:
对故障文本进行预处理,得到字向量和词向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;所述词向量用于判断一个句子中的连续的两个所述字向量是否关联为同一个词;
建立命名实体识别模型;所述命名实体识别模型包括命名实体识别任务子模型、分词任务子模型和对抗训练结构,所述命名实体识别任务子模型包括依次级联的第一字向量嵌入层、词向量嵌入层、Lattice LSTM层和第一条件随机场层,所述分词任务子模型包括依次级联的第二字向量嵌入层、第一双向长短期记忆网络层和第二条件随机场层;所述对抗训练结构包括生成器和判别器,所述生成器包括依次级联的所述第一字向量嵌入层、所述第二字向量嵌入层和第二双向长短期记忆网络层;所述判别器包括最大池化层和Softmax层;所述生成器和所述判别器之间进行对抗训练,以提取出所述命名实体识别任务和所述分词任务之间的共同特征,并通过所述最大池化层降低提取出的所述共同特征的维度,然后通过所述Softmax层归一化后输出任务类型的概率结果,从而识别出当前输入的字符序列来自所述命名实体识别任务还是所述分词任务;
将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行训练,得到训练好的命名实体识别模型。
2.根据权利要求1所述的命名实体识别模型的训练方法,其特征在于,所述对故障文本进行预处理,得到字向量和词向量,具体包括:
对所述故障文本进行分词处理,得到分词结果;
采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库;
对所述语料库进行预训练,得到所述字向量;
对所述分词结果进行预训练,得到所述词向量。
3.根据权利要求1所述的命名实体识别模型的训练方法,其特征在于,在所述命名实体识别模型中,所述命名实体识别任务子模型、所述分词任务子模型和所述对抗训练结构还各具有一层自注意力机制层;
所述命名实体识别任务子模型的自注意力机制层分别与所述Lattice LSTM层和所述第一条件随机场层级联;
所述分词任务子模型的自注意力机制层分别与所述第一双向长短期记忆网络层和所述第二条件随机场层级联;
所述对抗训练结构的自注意力机制层分别与所述第二双向长短期记忆网络层和所述最大池化层级联。
4.根据权利要求3所述的命名实体识别模型的训练方法,其特征在于,所述将所述命名实体识别任务的字向量和所述分词任务的字向量交替输入至所述命名实体识别模型的所述对抗训练结构中进行训练,得到训练好的命名实体识别模型,具体包括:
将所述命名实体识别任务的字符序列和所述分词任务的字符序列交替输入至所述对抗训练结构中,通过所述判别器判断当前输入的字符序列来自于所述命名实体识别任务还是所述分词任务;所述字符序列上带有采用BIO标注法标注的标签;其中,所述命名实体识别任务的字符序列包括所述命名实体识别任务的字向量和相应的标签,所述分词任务的字符序列包括所述分词任务的字向量和相应的标签;
当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,则利用所述命名实体识别任务的字向量和所述词向量对所述命名实体识别任务子模型进行训练;
当所述判别器判断当前输入的字符序列来自于所述分词任务时,则利用所述分词任务的字向量对所述分词任务子模型进行训练;
训练完成后,得到所述训练好的命名实体识别模型。
5.根据权利要求4所述的命名实体识别模型的训练方法,其特征在于,所述将所述命名实体识别任务的字符序列和所述分词任务的字符序列交替输入至所述对抗训练结构中,通过所述判别器判断当前输入的字符序列来自于所述命名实体识别任务还是所述分词任务,具体包括:
将所述命名实体任务的字符序列和所述分词任务的字符序列作为所述对抗训练结构的输入,交替地输入至所述生成器中对应的字向量嵌入层中,分别得到所述命名实体任务的字向量表示和所述分词任务的字向量表示;其中,所述字向量嵌入层包括输入所述命名实体任务的字符序列的第一字向量嵌入层以及输入所述分词任务的字符序列的第二字向量嵌入层;
根据所述命名实体任务的字向量表示和所述分词任务的字向量表示,利用所述第二双向长短期记忆网络层得到所述对抗训练结构的隐藏层状态;
将所述对抗训练结构的隐藏层状态输入至所述对抗训练结构的所述自注意力机制层,得到所述自注意力机制层的输出状态结果;
将所述自注意力机制层的输出状态结果传输至所述判别器中进行判别,经所述最大池化层的最大池化处理后得到中间结果,并将所述中间结果传输至所述Softmax层;
通过所述Softmax层输出所述命名实体任务和所述分词任务的任务类型的概率结果,根据所述任务类型的概率结果确定当前输入的字符序列来自于所述命名实体任务还是所述分词任务,并保存此时的所述自注意力机制层的输出状态结果。
6.根据权利要求5所述的命名实体识别模型的训练方法,其特征在于,所述当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,则利用所述命名实体识别任务的字向量和所述词向量对所述命名实体识别任务子模型进行训练,具体包括:
当所述判别器判断当前输入的字符序列来自于所述命名实体识别任务时,表示所述对抗训练结构的输入来源于所述命名实体识别任务的字符序列,则此时开始对所述命名实体识别任务子模型进行训练;
将所述命名实体识别任务的字符序列和所述分词任务的单词序列进行拼接,并送入至所述第一字向量嵌入层和所述词向量嵌入层中,得到字向量表示和词向量表示;
将所述字向量表示和所述词向量表示输入至所述Lattice LSTM层,得到所述LatticeLSTM层的隐藏层状态;
将所述Lattice LSTM层的隐藏层状态送入至所述命名实体识别任务子模型的自注意力机制层中,得到所述命名实体识别任务子模型的自注意力机制层的输出状态结果;
将此时得到的所述自注意力机制层的输出状态结果与预先保存的所述自注意力机制层的输出状态结果进行拼接,得到新的自注意力机制层的输出状态结果;
将所述新的自注意力机制层的输出状态结果输入至所述第一条件随机场层中,利用所述第一条件随机场层对命名实体识别结果进行优化,输出最终的字符序列预测结果,所述字符序列预测结果表示当前输入的字符序列属于所述命名实体任务的概率。
7.根据权利要求4所述的命名实体识别模型的训练方法,其特征在于,所述当所述判别器判断当前输入的字符序列来自于所述分词任务时,则利用所述分词任务的字向量对所述分词任务子模型进行训练,具体包括:
当所述判别器判断当前输入的字符序列来自于所述分词任务时,表示所述对抗训练结构的输入来源于所述分词任务的字符序列,则此时开始对所述分词任务子模型进行训练;
将所述分词任务的字符序列送入所述第二字向量嵌入层中,得到字向量表示;
将所述字向量表示输入至所述第一双向长短期记忆网络层中,计算得到所述第一双向长短期记忆网络层的隐藏层状态;
将所述第一双向长短期记忆网络层的隐藏层状态输入至所述分词任务子模型的所述自注意力机制层中,得到所述分词任务子模型的所述自注意力机制层的输出状态结果;
将此时得到的所述自注意力机制层的输出状态结果输入至所述第二条件随机场层中进行优化,输出最终的字符序列预测结果,所述字符序列预测结果表示当前输入的字符序列属于所述分词任务的概率。
8.一种命名实体识别模型的应用方法,使用如权利要求1所述的训练好的命名实体识别模型进行命名实体识别,其特征在于,包括:
对故障文本进行预处理,得到字向量;所述字向量包括命名实体识别任务的字向量和分词任务的字向量;
将所述命名实体识别任务的字向量和所述分词任务的字向量输入至所述训练好的命名实体识别模型中,得到命名实体类别的识别结果。
9.根据权利要求8所述的命名实体识别模型的应用方法,其特征在于,所述对故障文本进行预处理,得到字向量,具体包括:
对所述故障文本进行分词处理,得到分词结果;
采用BIO标注法对所述分词结果进行字符标注,并基于“时间、地点、人物、起因、经过和结果”的事件六要素对命名实体进行定义,构建语料库;
对所述语料库进行预训练,得到所述命名实体识别任务的字向量和所述分词任务的字向量。
10.一种命名实体识别模型的应用***,其特征在于,所述应用***被处理器运行时实现如权利要求1-7任一项所述的命名实体识别模型的训练方法的步骤或实现如权利要求8-9任一项所述的命名实体识别模型的应用方法的步骤。
CN202111324784.XA 2021-11-10 2021-11-10 一种命名实体识别模型的训练方法、应用方法及其*** Pending CN114021658A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111324784.XA CN114021658A (zh) 2021-11-10 2021-11-10 一种命名实体识别模型的训练方法、应用方法及其***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111324784.XA CN114021658A (zh) 2021-11-10 2021-11-10 一种命名实体识别模型的训练方法、应用方法及其***

Publications (1)

Publication Number Publication Date
CN114021658A true CN114021658A (zh) 2022-02-08

Family

ID=80063056

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111324784.XA Pending CN114021658A (zh) 2021-11-10 2021-11-10 一种命名实体识别模型的训练方法、应用方法及其***

Country Status (1)

Country Link
CN (1) CN114021658A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304064A (zh) * 2023-05-22 2023-06-23 中电云脑(天津)科技有限公司 一种基于抽取式的文本分类方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN108229582A (zh) * 2018-02-01 2018-06-29 浙江大学 一种面向医学领域的多任务命名实体识别对抗训练方法
CN109902307A (zh) * 2019-03-15 2019-06-18 北京金山数字娱乐科技有限公司 命名实体识别方法、命名实体识别模型的训练方法及装置
CN110705294A (zh) * 2019-09-11 2020-01-17 苏宁云计算有限公司 命名实体识别模型训练方法、命名实体识别方法及装置
US20200311345A1 (en) * 2019-03-29 2020-10-01 Innoplexus Ag System and method for language-independent contextual embedding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN108229582A (zh) * 2018-02-01 2018-06-29 浙江大学 一种面向医学领域的多任务命名实体识别对抗训练方法
CN109902307A (zh) * 2019-03-15 2019-06-18 北京金山数字娱乐科技有限公司 命名实体识别方法、命名实体识别模型的训练方法及装置
US20200311345A1 (en) * 2019-03-29 2020-10-01 Innoplexus Ag System and method for language-independent contextual embedding
CN110705294A (zh) * 2019-09-11 2020-01-17 苏宁云计算有限公司 命名实体识别模型训练方法、命名实体识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. QU等: "Adversarial training for named entity recognition of rail fault text", 《2021 IEEE INTERNATIONAL INTELLIGENT TRANSPORTATION SYSTEMS CONFERENCE》 *
YUE ZHANG等: "Lattice LSTM for Chinese Sentence Representation", 《IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH AND LANGUAGE PROCESSING》 *
唐子惠: "《医学人工智能导论》", 30 April 2020, 上海科学技术出版社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116304064A (zh) * 2023-05-22 2023-06-23 中电云脑(天津)科技有限公司 一种基于抽取式的文本分类方法

Similar Documents

Publication Publication Date Title
CN110245229B (zh) 一种基于数据增强的深度学习主题情感分类方法
CN111931506B (zh) 一种基于图信息增强的实体关系抽取方法
WO2018218705A1 (zh) 一种基于神经网络概率消歧的网络文本命名实体识别方法
CN110609891A (zh) 一种基于上下文感知图神经网络的视觉对话生成方法
CN111325029B (zh) 一种基于深度学习集成模型的文本相似度计算方法
CN111708882B (zh) 基于Transformer的中文文本信息缺失的补全方法
CN108829662A (zh) 一种基于条件随机场结构化注意力网络的对话行为识别方法及***
CN110362819B (zh) 基于卷积神经网络的文本情感分析方法
CN113505200B (zh) 一种结合文档关键信息的句子级中文事件检测的方法
CN109726745B (zh) 一种融入描述知识的基于目标的情感分类方法
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
CN107797987B (zh) 一种基于Bi-LSTM-CNN的混合语料命名实体识别方法
CN110555084A (zh) 基于pcnn和多层注意力的远程监督关系分类方法
CN108733647B (zh) 一种基于高斯分布的词向量生成方法
CN106682089A (zh) 一种基于RNNs的短信自动安全审核的方法
CN111191442A (zh) 相似问题生成方法、装置、设备及介质
CN114936277A (zh) 相似问题匹配方法和户相似问题匹配***
CN111177402A (zh) 基于分词处理的评价方法、装置、计算机设备及存储介质
CN111428481A (zh) 一种基于深度学习的实体关系抽取方法
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
CN116049387A (zh) 一种基于图卷积的短文本分类方法、装置、介质
CN114692623A (zh) 一种环境类网络舆情的情感分析方法
CN114417872A (zh) 一种合同文本命名实体识别方法及***
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配***及方法
CN114021658A (zh) 一种命名实体识别模型的训练方法、应用方法及其***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination