CN115238697A - 基于自然语言处理的司法命名实体识别方法 - Google Patents

基于自然语言处理的司法命名实体识别方法 Download PDF

Info

Publication number
CN115238697A
CN115238697A CN202210948074.2A CN202210948074A CN115238697A CN 115238697 A CN115238697 A CN 115238697A CN 202210948074 A CN202210948074 A CN 202210948074A CN 115238697 A CN115238697 A CN 115238697A
Authority
CN
China
Prior art keywords
trial
judicial
module
model
named entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210948074.2A
Other languages
English (en)
Inventor
廖海峰
董博
林洪湖
李冬
马杲灵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou Shulian Mingpin Technology Co ltd
Original Assignee
Guizhou Shulian Mingpin Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou Shulian Mingpin Technology Co ltd filed Critical Guizhou Shulian Mingpin Technology Co ltd
Publication of CN115238697A publication Critical patent/CN115238697A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及基于自然语言处理的司法命名实体识别方法,针对裁判文书中相关司法概念进行有效提取,包括步骤:根据审理程序对裁判文书做分块处理;将需要进行实体识别的分块部分作为训练集,对司法命名实体识别模型进行训练,在训练时,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding,再将得到的特征放入BiLSTM模型中进行进一步的语义编码,最后通过CRF层得到最终的概率最大标签序列,所述概率最大标签序列中即为需要识别的实体;使用训练好的司法命名实体识别模型对裁判文书进行识别,得到司法命名实体。

Description

基于自然语言处理的司法命名实体识别方法
技术领域
本发明涉及计算机人工智能、自然语言处理技术领域,特别涉及一种基于自然语言处理的司法命名实体识别方法。
背景技术
在自然语言处理领域方向,目前只有针对特定的人名、地名、组织结构的识别,该类模型无法对特定场景下的实体进行有效识别,如对裁判文书中的法律法规进行识别。采用的技术在对文本特征进行提取也多是采用简单的RNN结构进行提取,如LSTM+CRF架构进行,无法有效提取特定领域文本的特征。
司法领域命名实体存在词语边界不清晰、复杂的组合形式、不确定长度、嵌套定义不明确等问题。许多相关研究都把司法领域命名实体识别当做一个序列标记任务,由于规则是手动诱导的,所以这种方法既耗时又昂贵。浅层的基于机器学习的常用方法有ME(最大熵)、HMM(隐马尔可夫模型)、SVM(支持向量机)、CRF(条件随机场)等,但无论使用哪种模型,几乎所有的命名实体识别模型都是通过挖掘名称内部的固有特征和围绕名称的上下文特征来识别命名实体的。因此认为这些基于字符的方法可能会丢失一些重要的语义信息,例如:如果“法人”被分割成“法/人”,字符“法”和“人”将成为识别模型中的一个特征,语义信息“法人”已经丢失。同时这些方法在很大程度上依赖于人工特征的设计,特殊领域的人工特征和领域知识在提高模型性能的同时也导致整个模型的鲁棒性和泛化能力下降。相比于一般领域的命名实体,司法领域命名实体识别有以下几个难点:
(1)针对命名实体识别工作,目前多数停留在通用领域的实体识别,如人名、地名、组织机构名称等;
(2)对于命名实体识别的工作,做的较为成熟的是在通用领域,暂无特定司法领域(针对裁判文书)的命名实体识别;
(3)特定司法领域的实体识别包含的实体数量跟种类繁多,难以定义;
(4)待识别实体存在许多单词修饰,实体边界难以划分;
(5)司法领域的实体存在多种表达方式。
发明内容
本发明的目的在于针对裁判文书中相关司法概念进行有效提取,提供一种基于自然语言处理的司法命名实体识别方法。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
基于自然语言处理的司法命名实体识别方法,包括以下步骤:
步骤S1,获取若干裁判文书,根据审理程序对裁判文书做分块处理;
步骤S2,将需要进行实体识别的分块部分作为训练集,对司法命名实体识别模型进行训练,所述司法命名实体识别模型包括BERT预处理语言模型、BiLSTM模型、CRF层;在训练时,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding,再将得到的特征放入BiLSTM模型中进行进一步的语义编码,最后通过CRF层得到最终的概率最大标签序列,所述概率最大标签序列中即为需要识别的实体;
步骤S3,使用训练好的司法命名实体识别模型对裁判文书进行识别,得到司法命名实体。
更进一步地,所述根据审理程序对裁判文书做分块处理的步骤,包括:
将裁判文书分为头部区域和正文区域,所述头部区域包括标题、审理法院、日期、案号中的一种或多种;
从正文区域中分割出当事人部分、裁判结果部分,再从所述裁判结果部分中分割出审判人员、裁判日期、书记员、附录;
再根据审理程序对剩余部分的正文区域进行分割,所述审理程序包括一审、二审、再审、执行:
一审正文区域包括审理经过、原告诉称、被告辩称、本院查明、本院认为、判断结果模块;
二审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、上诉人诉称、被上诉人辩称、本院查明、本院认为、裁判结果模块;
再审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、二审法院查明、二审法院认为、再审申请人诉称、再审被申请人辩称、本院查明、本院认为、裁判结果模块。
更进一步地,所述对于需要进行实体识别的分块部分,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding的步骤,包括:
将需要进行实体识别的分块部分转换为词向量;
由词向量组成的矩阵X作为BERT预处理语言模型的输入:
Figure BDA0003788136720000031
Figure BDA0003788136720000041
其中,Wq、Wk、Wv为权重,Q、K、V均表示输入的一个批次内多个词向量X与相应权重组成的矩阵;dk表示输入的词向量的维度;xij表示矩阵QKT的元素(0≤i<m,0≤j<n),m与n分别为词向量的数量及其维度,T表示矩阵的转置;
采用Multi-Head模式扩展BERT预处理语言模型专注于不同位置的能力:
Figure BDA0003788136720000042
其中,
Figure BDA0003788136720000043
表示附加权重矩阵,W为可训练的权重矩阵,C表示矩阵拼接函数。
更进一步地,所述再将得到的特征放入BiLSTM模型中进行进一步的语义编码的步骤,包括:
输入:上文信息输入ht-1,当前输入信息xt
Ct=σ(wf·[ht-1,xt]+bf)⊙Ct-1+σ(wi·[ht-1,xt]+bi)⊙tanh(wc·[ht-1,xt]+bc)
ht=σ(wo·[ht-1,xt]+bo)⊙tanh(Ct)
其中,ht-1表示上文信息输入,ht表示隐藏参数;xt表示当前输入信息;σ表示向量方向的Sigmoid函数;bf表示遗忘门偏置,bi表示输入门偏置,bc表示细胞状态偏置,bo表示输出门偏置;·表示矩阵乘法,⊙表示向量点积;wf表示遗忘门权重,wi表示输入门权重,wc表示细胞状态权重,wo表示输出门权重;tanh表示双曲正切函数;
将BiLSTM模型划分为遗忘门、输入门、输出门,便于累积记忆信息并确定清楚记忆内容的时间;
Figure BDA0003788136720000051
其中,
Figure BDA0003788136720000052
表示顺序隐藏参数,
Figure BDA0003788136720000053
表示逆序隐藏参数;将
Figure BDA0003788136720000054
Figure BDA0003788136720000055
拼接起来表示当前的词向量的编码信息,记为Ht
更进一步地,所述最后通过CRF层得到最终的概率最大标签序列的步骤,包括:
对于BiLSTM模型的输出O={o1,o2,...,om},其中oi(1≤i≤m)表示句子中的第i个词向量对应的输出,标签为Y={y1,y2,...,ym},标签采用BIEO标记法,则预测值可通过下式计算:
Figure BDA0003788136720000056
其中,λj是可训练的参数,m是输入词向量的数量;tj(yi+1,yi,O,i)为两个相邻标签位置的转移特征函数(1≤j<m),用以刻画相邻标签之间的相关关系;
使用softmax对S(O,Y)进行规范化,以概率形式表示输出的预测值,对每一个词向量而言,其概率最大的值即为预测值;
Figure BDA0003788136720000057
其中,
Figure BDA0003788136720000058
为对标签的取值;
损失函数为:
Figure BDA0003788136720000059
n表示标签的类别数,yi(1≤i≤n)是标签,Pi(Y|O)表示类别i下的概率。
与现有技术相比,本发明的有益效果:
(1)本发明对裁判文书进行预先分块处理,而不是对整个裁判文书直接进行编码解析,在对裁判文书进行实体识别时,加快了实体抽取的速度。
(2)本发明司法命名实体识别模型由BERT-BiLSTM-CRF构成,在模型调优阶段,多次增大CRF层的学习率,得到合理的转移矩阵。
(3)本发明在词向量编码阶段,对编码模型微调,采用浅层的embedding层。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明方法流程示意图;
图2为本发明实施例BERT预处理语言模型的结构示意图;
图3为本发明实施例LSTM模型示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性,或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
实施例1:
本发明通过下述技术方案实现,如图1所示,基于自然语言处理的司法命名实体识别方法,包括以下步骤:
步骤S1,获取若干裁判文书,根据审理程序对裁判文书做分块处理。
将裁判文书分为头部区域和正文区域,所述头部区域一般包含标题、审理法院、日期、案号,由于数据源本身问题,这几个部分不一定全部出现。将头部和正文分开后,先从正文区域中分割出“当事人”部分,再分割出“裁判结果”部分,然后在“裁判结果”部分中分割出“审判人员”、“裁判日期”、“书记员”、“附录”。这部分分割完成后,再根据审理程序对剩余的正文区域进行详细的分割,审理程序包括一审、二审、再审、执行,详细分割如下:
一审正文区域包括审理经过、原告诉称、被告辩称、本院查明、本院认为、判断结果模块;
二审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、上诉人诉称、被上诉人辩称、本院查明、本院认为、裁判结果模块;
再审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、二审法院查明、二审法院认为、再审申请人诉称、再审被申请人辩称、本院查明、本院认为、裁判结果模块。
步骤S2,将需要进行实体识别的分块部分作为训练集,对司法命名实体识别模型进行训练,所述司法命名实体识别模型包括BERT预处理语言模型、BiLSTM模型、CRF层。
分割好的部分进行特定的实体识别,比如需要识别法律法规就只用对“审理经过、本院查明、本院认为”进行下一步的处理。在训练时,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding,再将得到的特征放入BiLSTM模型中进行进一步的语义编码,最后通过CRF层得到最终的概率最大标签序列,所述概率最大标签序列中即为需要识别的实体。
详细来说,传统意义上词向量是一个将文本转化为数字符号的工具,可以把真实世界抽象存在的文字转换为可以进行数学公式操作的向量,即为输入数据进行向量化表示。因而某种意义上,NLP任务分为两部分:预训练产生词向量,对词向量操作。
词向量有两种表示方式:One-Hot方式、分布式方式。One-Hot方式把每一个字都表示为由若干个0和一个1表示的长向量,向量的长度是语料词典的大小。分布式方式表示目的是希望用更高效的方法获取词向量,使得语义相近的词在映射到欧式空间中后具有较高的余弦相似度,这种词向量被称为Word2Vec。然而,这些方法得到的词向量为固定向量,不依赖于上下文的改变而改变,例如在句子“在这起财务纠纷中,甲方在偿还乙方4000余元后,还欠乙方一万元整”中两个“还”字表达的是不同的含义,但是在Word2Vec、Glove、ELMo等词向量表示方法中,这两个“还”字的向量表示完全一样,这与客观事实不符,针对传统向量表示方法无法表征多义性的问题,本方案将BERT预处理语言模型应用到词向量的表示中。
所述BERT预处理语言模型的结构如图2所示,为了融合字左右两侧的上下文,BERT预处理语言模型采用双向Transformer作为编码器。本方案所使用的BERT预处理语言模型的输入与传统BERT模型的输入不同,并非采用Token Embedding、Segment Embeddings及Position Embeddings三者相加的方式,而是直接将经过训练的词向量作为输入,以更好的表征词内字与字(字与词,词与词)之间的关系。
Transformer编码器是BERT预处理语言模型最重要的部分,Transformer编码器完全基于注意力机制来对一段文本进行建模。编码器中最重要的模块是Self-Attention部分,其输入是由词向量组成的矩阵X,见下式:
Figure BDA0003788136720000091
Figure BDA0003788136720000092
式(1)中,Wq、Wk、Wv为权重,Q、K、V均表示输入的一个批次内多个词向量X与相应权重组成的矩阵;式(2)中,dk表示输入的词向量的维度;xij表示矩阵QKT的元素(0≤i<m,0≤j<n),m与n分别为词向量的数量及其维度,T表示矩阵的转置。
与只对行或列求softmax的模型相比,本式能更好地体现词与词之间的强关联性,与使用softmax相比,本式将分母加1使得模型具有更强的鲁棒性,与矩阵V联合,使得每个词向量均含有所在句中其他词向量的信息,词与词之间更具有上下文关系,与传统的词向量表示法相比,该方法不仅保留了词意的本意性,也具有全局性。
此外,Transformer编码器采用了Multi-Head模式,以增大注意力机制的“表示子空间”,扩展BERT预处理语言模型专注于不同位置的能力,见式(3)。
Figure BDA0003788136720000101
式(3)中,
Figure BDA0003788136720000102
表示附加权重矩阵,W为可训练的权重矩阵,C表示矩阵拼接函数。
另外,在Transformer编码器中引入残差方法及Normalization,可提高精确度及降低网络退化等问题。与其他语言模型相比,BERT预处理语言模型能够充分利用词左、右两边的信息来获得更好的词分布式表示。
长短时记忆网络(Long Short-Term Memory,LSTM)是由Schmidhuber于1997年提出的,是一种具有特殊结构的RNN结构,但与传统的RNN模型不同,LSTM模型解决了由于序列过长而产生的长程依赖问题。比起传统的RNN模型,LSTM模型引入了三个门的概念:遗忘门、输入门、输出门。遗忘门用来确定上一个隐藏层状态的信息哪些是重要的,输入门用来确定当前状态的哪些信息是重要的,输出门用来确定下一个隐藏层状态。LSTM模型通过特殊设计的门结构使得模型可以有选择的保存上下文信息,因此LSTM具有适合司法领域命名实体识别的特点。LSTM模型的核心思想是细胞的状态,请参见图3,最上方平行的一条线可以称为“主线”,贯穿整个链。
本方案使用BiLSTM模型(双向长短时记忆网络)对BERT预处理语言模型得到的特征进行进一步的语义编码:
输入:上文信息输入ht-1,当前输入信息xt
Ct=σ(wf·[ht-1,xt]+bf)⊙Ct-1+σ(wi·[ht-1,xt]+bi)⊙tanh(wc·[ht-1,xt]+bc) (4)
ht=σ(wo·[ht-1,xt]+bo)⊙tanh(Ct) (5)
其中,ht-1表示上文信息输入,ht表示隐藏参数;xt表示当前输入信息;σ表示向量方向的Sigmoid函数;bf表示遗忘门偏置,bi表示输入门偏置,bc表示细胞状态偏置,bo表示输出门偏置;·表示矩阵乘法,⊙表示向量点积;wf表示遗忘门权重,wi表示输入门权重,wc表示细胞状态权重,wo表示输出门权重;tanh表示双曲正切函数;
将BiLSTM模型划分为遗忘门、输入门、输出门,便于累积记忆信息并确定清楚记忆内容的时间;
Figure BDA0003788136720000111
其中,
Figure BDA0003788136720000112
表示顺序隐藏参数(从第一个词开始,从左往右递归),
Figure BDA0003788136720000113
表示逆序隐藏参数(从最后一个词开始,从右向左递归);将
Figure BDA0003788136720000114
Figure BDA0003788136720000115
拼接起来表示当前的词向量的编码信息,记为Ht,作为BiLSTM模型的输出。
在命名实体识别中,输出标签之间有很强的依赖性,CRF层能够考虑到相邻标签的关系获得一个全局最优的标记序列。本方案将CRF层嵌入BiLSTM模型,对BiLSTM模型的输出进行优化处理。对于BiLSTM模型的输出O={o1,o2,...,om},其中oi(1≤i≤m)表示句子中的第i个词向量对应的输出,标签为Y={y1,y2,...,ym},标签采用BIEO标记法,则预测值可通过下式计算:
Figure BDA0003788136720000121
式(7)中,λj是可训练的参数,m是输入词向量的数量;tj(yi+1,yi,O,i)为两个相邻标签位置的转移特征函数(1≤j<m),用以刻画相邻标签之间的相关关系,转移特征函数通常是实值函数,它表示可能或者期望成立的特性。例如对于“本次庭审涉案金额巨大”,若采用如下转移特征函数:
Figure BDA0003788136720000122
则上式表示第i个标签的输入oi对应的词为“庭审”时,相应的标签yi与yi+1很能分别为B和E。
使用softmax对S(O,Y)进行规范化,以概率形式表示输出的预测值,对每一个词向量而言,其概率最大的值即为预测值。
Figure BDA0003788136720000123
其中,
Figure BDA0003788136720000124
为对标签的取值。
损失函数为:
Figure BDA0003788136720000125
n表示标签的类别数,yi(1≤i≤n)是标签,Pi(Y|O)表示类别i下的概率。
本发明利用批量梯度下降法最小化损失,优化模型。
本方案与传统的命名实体识别模型相比,将BERT-BiLSTM-CRF结合,模型加入了BERT预处理语言模型,在大规模语料上学习所得,可以通过上下文计算字向量表示,表征字的多义性,增强了句子的语义表示。
步骤S3,使用训练好的司法命名实体识别模型对裁判文书进行识别,得到司法命名实体。
实施例2:
本实施例在上述实施列1的基础上做举例说明,本实施例选用的司法领域语料库来源于两部分,第一部分为司法领域刊物及网站,包括人民检察院案件信息公开网、裁判文书网、最高人民法院审判业务指导案例、最高人民法院公报发布的公开案例,共计选取294篇文章,共计16万余字;第二部分为司法领域词典《中国现行法律汇编》,包括200万字法律条文,内容涵盖宪法、刑事领域、民事领域以及行政领域等法律法规。在进行适当的数据预处理并手动标注后构建的语料库。语料库其中一部分作为训练集进行司法命名实体识别模型的训练,另一部分则作为测试集用于评价司法命名实体识别模型的性能。
由于使用基于字的标记策略,需要为句子中的每个字符分配一个命名实体标签。本实施例采用的是三标记法{B,I,O}(Beginning、Inside、Outside)。最后得到标注好的样本有294488个,其中作为训练集的样本为250775个,作为测试集的样本为43713个。
命名实体识别任务主要包括两个部分:(1)实体边界划分;(2)实体类别标注。以往的命名实体识别大多只是在新闻语料和实体类别(人名、地名)中取得效果,通用的方法不能很好的解决专有领域的识别问题。司法领域文本主要是法律人员对被告人或嫌疑人的作案经过进行专业性的描述,包含了大量案件细节相关的实体,需要按照相关从业人员的设计,将需要抽取的实体分为12小类,标注的实体类别如表1:
Figure BDA0003788136720000131
Figure BDA0003788136720000141
表1
命名实体识别的评价指标有精确度(P)、召回率(R)和F1值:
P=(Tp/(Tp+Fp))×100%
R=(Tp/(Tp+Fn))×100%
F1=2*P*R/(P+R)×100%
其中,Fp表示司法命名实体识别模型可识别出的不相关的实体数目,Tp表示司法命名实体识别模型能正确识别的实体数目,Fn表示相关实体但司法命名实体识别模型未能检测出的实体数目。
为了有效验证本方案提出司法命名实体识别模型的合理性并证明模型中每个模块的必要性,在仿真实验中得到模型的相关数据后,又分别进行了BiLSTM模型、BiLSTM模型+CRF层在测试集上的性能评价实验,并通过整合多次实验的结果,进行了数据对比,对比得分结果如下标是所示:
Figure BDA0003788136720000151
表2
表2表示不同模型的命名实体识别效果得分,其中,BiLSTM表示BiLSTM模型,BiLSTM-CRF表示BiLSTM模型加CRF层,BERT-BiLSTM-CRF表示本方案的司法命名实体识别模型。
Figure BDA0003788136720000152
表3
表3表示本方案的司法命名实体识别模型下每个类别识别得分。
对比BiLSTM-CRF与BiLSTM,说明单独使用BiLSTM生成的结果可能在标注序列并不是全局最优,CRF通过分析相邻标签的关系,得到最佳标签,能够提高实体识别的正确率。对比BERT-BiLSTM-CRF和BiLSTM-CRF,BERT预处理语言模型相对于传统的词向量表示能提高2.5%的F1值,说明BERT预处理语言模型能更好的表示字语义信息。
模型在训练过程中存在严重过拟合问题,经分析是由于在实验过程中的数据量太少,而使用的模型为重量级的BERT模型,得到的编码层过度学习到参数,导致过拟合。当以相同量级的学习率进行微调时,BERT部分迅速收敛,也就是每个字的标签分布会迅速被拟合,同时因BERT的拟合能力比较强,所以迅速拟合到一个比较优的状态(即目标标签打分很高,并且拉开了与非目标标签的差距)。而由于转移矩阵跟BERT没有较大联系,当逐字标签分布迅速地收敛到较优值时,还是以一样的速度进行收敛,最终要比逐字标签的分数低一个数量级。而且,逐字标签分布能很好拟合目标序列,不再需要转移矩阵(转移矩阵的梯度会非常小,从而几乎不更新),只需增大CRF的学习速率,得到一个合理的转移矩阵。
因此,研究尝试增大转移矩阵的学习速率,经过多次调试发现,发现CRF层的学习率为主体学习率的100倍以上时,转移矩阵开始变得合理起来。CRF没给BERT带来较大效果变化,原因是BERT的拟合能力太强,导致不需要转移矩阵效果都很好。这时候考虑降低BERT的拟合能力,获得一些显著性差异,前面的实验中是使用BERTbase的最后一层的输出的embedding,之后只用第二层的embedding输出来进行微调,来测试上述调整是否会带来显著性差异。通过多次调试发现对于拟合能力不是特别强大的模型,CRF及其转移矩阵还是有一定帮助的。
因此最终研究尝试采用浅层的embedding层+精调CRF的策略去改善模型严重过拟合的问题,最终调整了CRF学习率,分数提升约2%,F1值提升到0.82%,调整编码层,采用浅层的编码层做下游的微调任务,F1值提升到0.84%。训练最终的loss为0.13781,各项指标为accuracy:96.97%;precision:83.05%;recall:85.12%。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (5)

1.基于自然语言处理的司法命名实体识别方法,其特征在于:包括以下步骤:
步骤S1,获取若干裁判文书,根据审理程序对裁判文书做分块处理;
步骤S2,将需要进行实体识别的分块部分作为训练集,对司法命名实体识别模型进行训练,所述司法命名实体识别模型包括BERT预处理语言模型、BiLSTM模型、CRF层;在训练时,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding,再将得到的特征放入BiLSTM模型中进行进一步的语义编码,最后通过CRF层得到最终的概率最大标签序列,所述概率最大标签序列中即为需要识别的实体;
步骤S3,使用训练好的司法命名实体识别模型对裁判文书进行识别,得到司法命名实体。
2.根据权利要求1所述的基于自然语言处理的司法命名实体识别方法,其特征在于:所述根据审理程序对裁判文书做分块处理的步骤,包括:
将裁判文书分为头部区域和正文区域,所述头部区域包括标题、审理法院、日期、案号中的一种或多种;
从正文区域中分割出当事人部分、裁判结果部分,再从所述裁判结果部分中分割出审判人员、裁判日期、书记员、附录;
再根据审理程序对剩余部分的正文区域进行分割,所述审理程序包括一审、二审、再审、执行:
一审正文区域包括审理经过、原告诉称、被告辩称、本院查明、本院认为、判断结果模块;
二审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、上诉人诉称、被上诉人辩称、本院查明、本院认为、裁判结果模块;
再审正文区域包括审理经过、一审原告诉称、一审被告辩称、一审法院查明、一审法院认为、二审法院查明、二审法院认为、再审申请人诉称、再审被申请人辩称、本院查明、本院认为、裁判结果模块。
3.根据权利要求1所述的基于自然语言处理的司法命名实体识别方法,其特征在于:所述对于需要进行实体识别的分块部分,使用BERT预处理语言模型获得输入语义的特征信息,得到每个字特征的embedding的步骤,包括:
将需要进行实体识别的分块部分转换为词向量;
由词向量组成的矩阵X作为BERT预处理语言模型的输入:
Figure 537557DEST_PATH_IMAGE001
Figure 417919DEST_PATH_IMAGE002
其中,Wq、Wk、Wv为权重,Q、K、V均表示输入的一个批次内多个词向量X与相应权重组成的矩阵;dk表示输入的词向量的维度;xij表示矩阵QKT的元素(0≤i<m,0≤j<n),m与n分别为词向量的数量及其维度,T表示矩阵的转置;
采用Multi-Head模式扩展BERT预处理语言模型专注于不同位置的能力:
Figure 904396DEST_PATH_IMAGE004
其中,
Figure 461279DEST_PATH_IMAGE005
表示附加权重矩阵,W为可训练的权重矩阵,C表示矩阵拼接函数。
4.根据权利要求1所述的基于自然语言处理的司法命名实体识别方法,其特征在于:所述再将得到的特征放入BiLSTM模型中进行进一步的语义编码的步骤,包括:
输入:上文信息输入ht-1,当前输入信息xt
Figure 446421DEST_PATH_IMAGE007
Figure 317425DEST_PATH_IMAGE008
其中,ht-1表示上文信息输入,ht表示隐藏参数;xt表示当前输入信息;
Figure 671790DEST_PATH_IMAGE009
表示向量方向的Sigmoid函数;bf表示遗忘门偏置,bi表示输入门偏置,bc表示细胞状态偏置,bo表示输出门偏置;
Figure 399574DEST_PATH_IMAGE010
表示矩阵乘法,
Figure 622745DEST_PATH_IMAGE011
表示向量点积;wf表示遗忘门权重,wi表示输入门权重,wc表示细胞状态权重,wo表示输出门权重;tanh表示双曲正切函数;
将BiLSTM模型划分为遗忘门、输入门、输出门,便于累积记忆信息并确定清楚记忆内容的时间;
Figure 546708DEST_PATH_IMAGE012
其中,
Figure 742197DEST_PATH_IMAGE013
表示顺序隐藏参数,
Figure 906462DEST_PATH_IMAGE014
表示逆序隐藏参数;将
Figure 570924DEST_PATH_IMAGE013
Figure 314889DEST_PATH_IMAGE014
拼接起来表示当前的词向量的编码信息,记为Ht
5.根据权利要求1所述的基于自然语言处理的司法命名实体识别方法,其特征在于:所述最后通过CRF层得到最终的概率最大标签序列的步骤,包括:
对于BiLSTM模型的输出O={o1,o2,...,om},其中
Figure 692781DEST_PATH_IMAGE015
表示句子中的第i个词向量对应的输出,标签为Y={y1,y2,...,ym},标签采用BIEO标记法,则预测值可通过下式计算:
Figure 949319DEST_PATH_IMAGE016
其中,
Figure 412661DEST_PATH_IMAGE017
是可训练的参数,m是输入词向量的数量;
Figure 176961DEST_PATH_IMAGE018
为两个相邻标签位置的转移特征函数(
Figure 347043DEST_PATH_IMAGE019
),用以刻画相邻标签之间的相关关系;
使用softmax对S(O, Y)进行规范化,以概率形式表示输出的预测值,对每一个词向量而言,其概率最大的值即为预测值;
Figure 587531DEST_PATH_IMAGE020
其中,
Figure 521858DEST_PATH_IMAGE021
为对标签的取值;
损失函数为:
Figure 76467DEST_PATH_IMAGE022
n表示标签的类别数,
Figure 163372DEST_PATH_IMAGE023
是标签,
Figure 528756DEST_PATH_IMAGE024
表示类别i下的概率。
CN202210948074.2A 2022-07-26 2022-08-09 基于自然语言处理的司法命名实体识别方法 Pending CN115238697A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2022108819311 2022-07-26
CN202210881931 2022-07-26

Publications (1)

Publication Number Publication Date
CN115238697A true CN115238697A (zh) 2022-10-25

Family

ID=83680064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210948074.2A Pending CN115238697A (zh) 2022-07-26 2022-08-09 基于自然语言处理的司法命名实体识别方法

Country Status (1)

Country Link
CN (1) CN115238697A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115935992A (zh) * 2022-11-23 2023-04-07 贝壳找房(北京)科技有限公司 命名实体识别方法、装置及存储介质
CN116484010A (zh) * 2023-03-15 2023-07-25 北京擎盾信息科技有限公司 知识图谱构建方法、装置、存储介质及电子装置
CN116956927A (zh) * 2023-07-31 2023-10-27 北京奥德塔数据科技有限公司 一种破产文书命名实体识别方法及***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115935992A (zh) * 2022-11-23 2023-04-07 贝壳找房(北京)科技有限公司 命名实体识别方法、装置及存储介质
CN116484010A (zh) * 2023-03-15 2023-07-25 北京擎盾信息科技有限公司 知识图谱构建方法、装置、存储介质及电子装置
CN116484010B (zh) * 2023-03-15 2024-01-16 北京擎盾信息科技有限公司 知识图谱构建方法、装置、存储介质及电子装置
CN116956927A (zh) * 2023-07-31 2023-10-27 北京奥德塔数据科技有限公司 一种破产文书命名实体识别方法及***

Similar Documents

Publication Publication Date Title
CN106599032B (zh) 一种结合稀疏编码和结构感知机的文本事件抽取方法
Haddad et al. Arabic offensive language detection with attention-based deep neural networks
CN115238697A (zh) 基于自然语言处理的司法命名实体识别方法
CN112231472B (zh) 融入领域术语词典的司法舆情敏感信息识别方法
CN113220890A (zh) 一种基于预训练的结合新闻标题和新闻长文本内容的深度学习方法
CN115687626A (zh) 一种基于提示学习融合关键词的法律文书分类方法
CN112052319B (zh) 一种基于多特征融合的智能客服方法及***
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及***
CN111444704A (zh) 基于深度神经网络的网络安全关键词抽取方法
CN115759092A (zh) 一种基于albert的网络威胁情报命名实体识别方法
CN111339772B (zh) 俄语文本情感分析方法、电子设备和存储介质
Suyanto Synonyms-based augmentation to improve fake news detection using bidirectional LSTM
CN111159405B (zh) 基于背景知识的讽刺检测方法
CN115238693A (zh) 一种基于多分词和多层双向长短期记忆的中文命名实体识别方法
Han et al. An attention-based neural framework for uncertainty identification on social media texts
Ko et al. Paraphrase bidirectional transformer with multi-task learning
CN112685538B (zh) 一种结合外部知识的文本向量检索方法
CN111815426B (zh) 一种涉及金融投研的数据处理方法及终端
Haque et al. Hadith authenticity prediction using sentiment analysis and machine learning
Ananth et al. Grammatical tagging for the Kannada text documents using hybrid bidirectional long-short term memory model
CN112528003B (zh) 一种基于语义排序和知识修正的多项选择问答方法
CN112685548B (zh) 问题回答方法以及电子设备、存储装置
CN115687939A (zh) 一种基于多任务学习的Mask文本匹配方法及介质
Demilie et al. Evaluation of part of speech tagger approaches for the amharic language: a review
Li et al. Attention-based LSTM-CNNs for uncertainty identification on Chinese social media texts

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination