CN113449517A - 基于bert门控多窗口注意力网络模型的实体关系抽取方法 - Google Patents

基于bert门控多窗口注意力网络模型的实体关系抽取方法 Download PDF

Info

Publication number
CN113449517A
CN113449517A CN202110773065.XA CN202110773065A CN113449517A CN 113449517 A CN113449517 A CN 113449517A CN 202110773065 A CN202110773065 A CN 202110773065A CN 113449517 A CN113449517 A CN 113449517A
Authority
CN
China
Prior art keywords
phrase
information
entity
attention
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110773065.XA
Other languages
English (en)
Other versions
CN113449517B (zh
Inventor
孙水华
徐诗傲
张智源
徐凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian University of Technology
Original Assignee
Fujian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian University of Technology filed Critical Fujian University of Technology
Priority to CN202110773065.XA priority Critical patent/CN113449517B/zh
Publication of CN113449517A publication Critical patent/CN113449517A/zh
Application granted granted Critical
Publication of CN113449517B publication Critical patent/CN113449517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开基于BERT门控多窗口注意力网络模型的实体关系抽取方法,对数据集进行预处理;利用最短依存路径解析数据集生成相应的约束信息;采用BERT编码原始序列及其约束信息构建单词的动态语义表示特征、并通过语义表示特征形成句子向量、实体向量表示以及约束信息向量表示;构建了一种关键词组提取网络,采用多窗口CNN获取句子中多粒度词组特征并采用逐元最大池化筛选出关键词组特征;使用自注意力机制和BiLSTM‑Attention对关键词组特征进行筛选和全局感知,形成用于分类的整体特征;利用全连接层和Softmax分类函数进行分类处理。本发明提高了关系抽取的准确率。

Description

基于BERT门控多窗口注意力网络模型的实体关系抽取方法
技术领域
本发明涉及自然语言处理领域,尤其涉及基于BERT门控多窗口注意力网络模型的实体关系抽取方法。
背景技术
在数据量呈指数增长的信息化时代,信息泛滥的问题越来越严重,迫使人们重视研究如何从海量数据中快速、高效、便捷的提取知识。为了迅速有效的从海量的非结构化文本数据中提取所需信息,信息抽取成为自然语言处理领域的研究热点。信息抽取的目的是将非结构化文本转化为结构化的或者半结构的信息,以供进一步分析以及用户查询。实体关系作为信息抽取领域的核心分支,其目的是从自然语言文本中挖掘给定实体对之间的语义关系信息。实体关系抽取技术研究为知识库构建、自动文摘、自动问答等下游任务提供重要的技术支持。
随着深度学习技术的快速发展,大量深度学习模型应用到关系抽取任务中,目前基于深度学习的关系抽取模型大多采用word2vec生成的词向量作为输入,但word2vec生成的词向量无法根据上下文的语义信息进行调整,导致实体上下文信息表示能力有限。有些文献在使用word2vec生成的词向量作为输入时,通过引入实***置、潜在实体等信息来增强实体上下文信息的语义表达能力,但该方法对实体语义信息增强有限,模型性难以取得较大提升,且忽略了句子中关键词组对实体关系抽取分类结果的积极影响以及噪声信息对分类结果的消极影响。
发明内容
本发明的目的在于提供基于BERT门控多窗口注意力网络模型的实体关系抽取方法。
本发明采用的技术方案是:
基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其包括以下步骤:
步骤1:对数据集进行预处理;
步骤2:利用最短依存路径解析数据集生成相应的约束信息;
步骤3:采用BERT编码数据集文本及其约束信息构建单词的动态语义表示特征X、并通过语义表示特征形成句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP
步骤4:构建了一种关键词组提取网络,采用多窗口CNN获取动态语义表示特征X中多粒度词组特征并采用逐元最大池化筛选出关键词组特征T′;
步骤5:使用自注意力机制和BiLSTM-Attention对关键词组特征T′进行筛选和全局感知,形成用于分类的句子表示
Figure BDA0003154606070000011
Figure BDA0003154606070000012
步骤6:将句子向量V0、实体向量表示Ve1、实体向量表示Ve2以及约束信息向量表示VSDP与整体特征
Figure BDA0003154606070000021
Figure BDA0003154606070000022
融合,利用全连接层和Softmax分类函数进行分类处理。
进一步的改进,所述步骤2中约束信息是通过最短依存路径寻找实体对之间的最短路径,去除依存关系的同时保留目标实体之间的主干信息所形成。
进一步的改进,所述步骤3中使用BERT对上述句子进行编码构建单词的动态语义表示特征X{x0,x1,…,xi,…xi+h,…,xj,…,xj+l,…,xp,…,xp+q,…,xn}。
进一步的改进,述步骤3中句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP通过如下公式计算:
V0=W0(tanh(x0))+b0
Figure BDA0003154606070000023
Figure BDA0003154606070000024
Figure BDA0003154606070000025
其中xi至xi+h为实体e1对应的词向量,xj至xj+l为实体e2对应的词向量,xp至xp+q为约束信息对应的词向量,x0为包含句子信息的向量,W0,We,Ws和b0,be,bs分别表示全连接层的权重矩阵和偏置向量。
进一步的改进,所述步骤4中构建的关键词组提取网络结构具体为:
网络结构的第一层为多窗口CNN:该层用于提取句子中多粒度词组特征,以步骤3中生成的动态语义表示特征X作为输入,输出句子的多粒度词组矩阵
Figure BDA0003154606070000026
k为卷积核的大小;
网络结构的第二层为全局门控机制:该层利用不同粒度词组上下文信息增强词组自身语义表达信息,将第一层多窗口CNN提取的多粒度词组矩阵
Figure BDA0003154606070000027
作为输入,通过全局门控机制增强各个粒度词组自身的语义信息,该机制具体公式如下:
Figure BDA0003154606070000028
Figure BDA0003154606070000029
Figure BDA00031546060700000210
Figure BDA00031546060700000211
Tk=Ck⊙Gk
其中,
Figure BDA0003154606070000031
表示
Figure BDA0003154606070000032
中第j维的值,mk表示词组特征全局信息,⊙为点积运算,Wg和bg为权重矩阵和偏置向量,Gk为门控信息,Tk表示全局门控机制的输出。
网络结构的第三层为逐元最大池化:该层通过逐元最大池化策略对全局门控机制的输出Tk进行筛选,形成句子的关键词组特征T′,逐元最大池化策略具体操作公式如下:
Figure BDA0003154606070000033
Figure BDA0003154606070000034
T′=[t′1,t′2,…t′i,…t′n]
其中,
Figure BDA0003154606070000035
表示Tk中第i个词组特征的第j维的值。
进一步的改进,述步骤5所述自注意力机制为多头的自注意力机制,用于对关键词组特征T′进行筛选以形成具有不同权重的相关性词组特征Z;BiLSTM-Attention是采用BiLSTM对关键词组特征T′的上下文进行编码以捕获词组上下文表示H[h1,…,hi,…,hn],并采用添加了实体特征的Attention将相关性词组特征Z和词组上下文表示H转化成句子表示
Figure BDA0003154606070000036
进一步的改进,相关性词组特征Z按如下公式计算生成:
Figure BDA0003154606070000037
Figure BDA0003154606070000038
Figure BDA0003154606070000039
Z=MultiHead(T′,T′,T′)
其中,
Figure BDA00031546060700000310
和WM为权重矩阵,r表示注意力头的数量,
Figure BDA00031546060700000311
为级联操作。
进一步的改进,所述步骤5所述句子表示
Figure BDA00031546060700000312
按如下公式计算生成:
Figure BDA00031546060700000313
Figure BDA00031546060700000314
Figure BDA00031546060700000315
其中,WE为实体权重矩阵,zi为Z中第i个向量,hi为词组上下文表示H中第i个向量,
Figure BDA00031546060700000316
Figure BDA00031546060700000317
为可训练的权重矩阵。
本发明采用以上技术方案,采用BERT替代原始的word2vec的方法,可较好的解决word2vec无法根据上下文进行调整的缺陷,在增强实体上下文信息语义表达能力的同时减少了噪声信息的干扰,并构建了一种关键词组提取网络捕获句子中关键词组信息以丰富句子的语义信息。
附图说明
以下结合附图和具体实施方式对本发明做进一步详细说明;
图1为本发明方法的流程图;
图2为本发明的语义表示生成网络的结构示意图;
图3为本发明的关键词组提取网络的结构示意图;
图4为本发明全局门控机制的示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图对本申请实施例中的技术方案进行清楚、完整地描述。
如图1至图4之一所示,本发明公开了基于BERT门控多窗口注意力网络模型的实体关系抽取方法,步骤如下:
步骤1:对数据集进行预处理;
步骤2:利用最短依存路径解析数据集生成相应的约束信息;
对文本内容采用最短依存路径寻找实体对之间的最短路径,去除依存关系的同时保留目标实体之间的主干信息,生成文本的约束信息。
步骤3:采用BERT编码数据集文本及其约束信息构建单词的动态语义表示特征X、并通过语义表示特征形成句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP
如图2所示,使用BERT对句子S进行编码构建单词的动态语义表示特征X=x0,x1,…,xi,…xi+h,…,xj,…,xj+l,…,xp,…,xp+q,…,xn},同时,通过语义表示矩阵X形成句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP,计算公式如下:
V0=W0(tanh(x0))+b0
Figure BDA0003154606070000041
Figure BDA0003154606070000042
Figure BDA0003154606070000043
其中xi至xi+h为实体e1对应的词向量,xj至xj+l为实体e2对应的词向量,xp至xp+q为约束信息对应的词向量,x0为包含句子信息的向量,W0,We,Ws和b0,be,bs分别表示全连接层的权重矩阵和偏置向量。
步骤4:构建了一种关键词组提取网络,采用多窗口CNN获取动态语义表示特征X中多粒度词组特征并采用逐元最大池化筛选出关键词组特征T′;
构建的关键词组提取网络结构如图3所示,具体为:
网络结构的第一层为多窗口CNN:该层用于提取句子中多粒度词组特征,以步骤3中生成的动态语义表示特征X作为输入,输出句子的多粒度词组矩阵
Figure BDA0003154606070000051
k为卷积核的大小;
网络结构的第二层为全局门控机制:该层利用不同粒度词组上下文信息增强词组自身语义表达信息,将第一层多窗口CNN提取的多粒度词组矩阵
Figure BDA0003154606070000052
作为输入,通过全局门控机制增强各个粒度词组自身的语义信息,如图4所示。该机制具体公式如下:
Figure BDA0003154606070000053
Figure BDA0003154606070000054
Figure BDA0003154606070000055
Figure BDA0003154606070000056
Tk=Ck⊙Gk
其中,
Figure BDA0003154606070000057
表示
Figure BDA0003154606070000058
中第j维的值,mk表示词组特征全局信息,⊙为点积运算,Wg和bg为权重矩阵和偏置向量,Gk为门控信息,Tk表示全局门控机制的输出。
网络结构的第三层为逐元最大池化:该层通过逐元最大池化策略对全局门控机制的输出Tk进行筛选,形成句子的关键词组特征T′,逐元最大池化策略具体操作公式如下:
Figure BDA0003154606070000059
Figure BDA00031546060700000510
T′=[t′1,t′2,…t′i,…t′n]
其中,
Figure BDA00031546060700000511
表示Tk中第i个词组特征的第j维的值。
步骤5:使用自注意力机制和BiLSTM-Attention对关键词组特征T′进行筛选和全局感知,形成用于分类的句子表示
Figure BDA00031546060700000512
Figure BDA00031546060700000513
自注意力机制为多头的自注意力机制,用于对关键词组特征T′进行筛选以形成具有不同权重的相关性词组特征Z,其按如下公式计算生成:
Figure BDA0003154606070000061
Figure BDA0003154606070000062
Figure BDA0003154606070000063
Z=MultiHead(T′,T′,T′)
其中,
Figure BDA0003154606070000064
和WM为权重矩阵,r表示注意力头的数量,
Figure BDA0003154606070000065
为级联操作。
BiLSTM-Attention是采用BiLSTM对关键词组特征T′的上下文进行编码以捕获词组上下文表示H[h1,…,hi,…,hn],并采用添加了实体特征的Attention将相关性词组特征Z和词组上下文表示H转化成句子表示
Figure BDA0003154606070000066
句子表示
Figure BDA0003154606070000067
按如下公式计算生成:
Figure BDA0003154606070000068
Figure BDA0003154606070000069
Figure BDA00031546060700000610
其中,WE为实体权重矩阵,zi为Z中第i个向量,hi为词组上下文表示H中第i个向量,
Figure BDA00031546060700000611
Figure BDA00031546060700000612
为可训练的权重矩阵。
步骤6:将步骤2的句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP与步骤4的整体特征
Figure BDA00031546060700000613
Figure BDA00031546060700000614
融合,利用全连接层和Softmax分类函数进行分类处理。
本发明采用以上技术方案,采用BERT替代原始的word2vec的方法,可较好的解决word2vec无法根据上下文进行调整的缺陷,在增强实体上下文信息语义表达能力的同时减少了噪声信息的干扰,并构建了一种关键词组提取网络捕获句子中关键词组信息以丰富句子的语义信息。
显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

Claims (8)

1.基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:其包括以下步骤:
步骤1:对数据集进行预处理;
步骤2:利用最短依存路径解析数据集生成相应的约束信息;
步骤3:采用BERT编码数据集文本及其约束信息构建单词的动态语义表示特征X、并通过语义表示特征形成句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP
步骤4:构建了一种关键词组提取网络,采用多窗口CNN获取动态语义表示特征X中多粒度词组特征并采用逐元最大池化筛选出关键词组特征T′;
步骤5:使用自注意力机制和BiLSTM-Attention对关键词组特征T′进行筛选和全局感知,形成用于分类的句子表示
Figure FDA0003154606060000014
Figure FDA0003154606060000015
步骤6:将句子向量V0、实体向量表示Ve1、实体向量表示Ve2以及约束信息向量表示VSDP与整体特征
Figure FDA0003154606060000016
Figure FDA0003154606060000017
融合,利用全连接层和Softmax分类函数进行分类处理。
2.根据权利要求1所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤2中约束信息是通过最短依存路径寻找实体对之间的最短路径,去除依存关系的同时保留目标实体之间的主干信息所形成。
3.根据权利要求1所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤3中使用BERT对上述句子进行编码构建单词的动态语义表示特征X={x0,x1,...,xi,...xi+h,...,xj,...,xj+1,...,xp,...,xp+q,...,xn}。
4.根据权利要求3所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤3中句子向量V0、实体向量表示Ve1,Ve2以及约束信息向量表示VSDP通过如下公式计算:
V0=W0(tanh(x0))+b0
Figure FDA0003154606060000011
Figure FDA0003154606060000012
Figure FDA0003154606060000013
其中xi至xi+h为实体e1对应的词向量,xj至xj+1为实体e2对应的词向量,xp至xp+q为约束信息对应的词向量,x0为包含句子信息的向量,W0,We,Ws和b0,be,bs分别表示全连接层的权重矩阵和偏置向量。
5.根据权利要求1所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤4中构建的关键词组提取网络结构具体为:
网络结构的第一层为多窗口CNN:该层用于提取句子中多粒度词组特征,以步骤3中生成的动态语义表示特征X作为输入,输出句子的多粒度词组矩阵
Figure FDA0003154606060000021
k为卷积核的大小;
网络结构的第二层为全局门控机制:该层利用不同粒度词组上下文信息增强词组自身语义表达信息,将第一层多窗口CNN提取的多粒度词组矩阵
Figure FDA0003154606060000022
作为输入,通过全局门控机制增强各个粒度词组自身的语义信息,该机制具体公式如下:
Figure FDA0003154606060000023
Figure FDA0003154606060000024
Figure FDA0003154606060000025
Figure FDA0003154606060000026
Tk=Ck⊙Gk
其中,
Figure FDA0003154606060000027
表示
Figure FDA00031546060600000212
中第j维的值,mk表示词组特征全局信息,⊙为点积运算,Wg和bg为权重矩阵和偏置向量,Gk为门控信息,Tk表示全局门控机制的输出;
网络结构的第三层为逐元最大池化:该层通过逐元最大池化策略对全局门控机制的输出Tk进行筛选,形成句子的关键词组特征T′,逐元最大池化策略具体操作公式如下:
Figure FDA0003154606060000028
Figure FDA0003154606060000029
T′=[t′1,t′2,...t′i,...t′n]
其中,
Figure FDA00031546060600000210
表示Tk中第i个词组特征的第j维的值。
6.根据权利要求1所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤5的自注意力机制为多头的自注意力机制,用于对关键词组特征T′进行筛选以形成具有不同权重的相关性词组特征Z;BiLSTM-Attention是采用BiLSTM对关键词组特征T′的上下文进行编码以捕获词组上下文表示H=[h1,...,hi,...,hn],并采用添加了实体特征的Attention将相关性词组特征Z和词组上下文表示H转化成句子表示
Figure FDA00031546060600000211
7.根据权利要求6所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:相关性词组特征Z按如下公式计算生成:
Figure FDA0003154606060000031
Figure FDA0003154606060000032
Figure FDA0003154606060000033
Z=MultiHead(T′,T′,T′)
其中,
Figure FDA0003154606060000034
和WM为权重矩阵,r表示注意力头的数量,
Figure FDA0003154606060000035
为级联操作。
8.根据权利要求1所述的基于BERT门控多窗口注意力网络模型的实体关系抽取方法,其特征在于:步骤5的句子表示
Figure FDA0003154606060000036
按如下公式计算生成:
Figure FDA0003154606060000037
Figure FDA0003154606060000038
Figure FDA0003154606060000039
其中,WE为实体权重矩阵,zi为Z中第i个向量,hi为词组上下文表示H中第i个向量,
Figure FDA00031546060600000310
Figure FDA00031546060600000311
为可训练的权重矩阵。
CN202110773065.XA 2021-07-08 2021-07-08 基于bert门控多窗口注意力网络模型的实体关系抽取方法 Active CN113449517B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110773065.XA CN113449517B (zh) 2021-07-08 2021-07-08 基于bert门控多窗口注意力网络模型的实体关系抽取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110773065.XA CN113449517B (zh) 2021-07-08 2021-07-08 基于bert门控多窗口注意力网络模型的实体关系抽取方法

Publications (2)

Publication Number Publication Date
CN113449517A true CN113449517A (zh) 2021-09-28
CN113449517B CN113449517B (zh) 2023-03-28

Family

ID=77815460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110773065.XA Active CN113449517B (zh) 2021-07-08 2021-07-08 基于bert门控多窗口注意力网络模型的实体关系抽取方法

Country Status (1)

Country Link
CN (1) CN113449517B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372138A (zh) * 2022-01-11 2022-04-19 国网江苏省电力有限公司信息通信分公司 一种基于最短依存路径和bert的电力领域关系抽取的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522557A (zh) * 2018-11-16 2019-03-26 中山大学 文本关系抽取模型的训练方法、装置及可读存储介质
US20200073933A1 (en) * 2018-08-29 2020-03-05 National University Of Defense Technology Multi-triplet extraction method based on entity-relation joint extraction model
CN111339774A (zh) * 2020-02-07 2020-06-26 腾讯科技(深圳)有限公司 文本的实体关系抽取方法和模型训练方法
US20200257717A1 (en) * 2018-01-12 2020-08-13 Yangzhou University Automatic construction method of software bug knowledge graph
CN111985245A (zh) * 2020-08-21 2020-11-24 江南大学 基于注意力循环门控图卷积网络的关系提取方法及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200257717A1 (en) * 2018-01-12 2020-08-13 Yangzhou University Automatic construction method of software bug knowledge graph
US20200073933A1 (en) * 2018-08-29 2020-03-05 National University Of Defense Technology Multi-triplet extraction method based on entity-relation joint extraction model
CN109522557A (zh) * 2018-11-16 2019-03-26 中山大学 文本关系抽取模型的训练方法、装置及可读存储介质
CN111339774A (zh) * 2020-02-07 2020-06-26 腾讯科技(深圳)有限公司 文本的实体关系抽取方法和模型训练方法
CN111985245A (zh) * 2020-08-21 2020-11-24 江南大学 基于注意力循环门控图卷积网络的关系提取方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
钟华帅: "基于深度学习的实体和关系联合抽取模型研究与应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372138A (zh) * 2022-01-11 2022-04-19 国网江苏省电力有限公司信息通信分公司 一种基于最短依存路径和bert的电力领域关系抽取的方法

Also Published As

Publication number Publication date
CN113449517B (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
US20230048218A1 (en) On-Device Projection Neural Networks for Natural Language Understanding
JP7468929B2 (ja) 地理知識取得方法
CN106980683B (zh) 基于深度学习的博客文本摘要生成方法
Wang et al. Multilayer dense attention model for image caption
CN111143576A (zh) 一种面向事件的动态知识图谱构建方法和装置
CN109359297B (zh) 一种关系抽取方法及***
CN111666758B (zh) 中文分词方法、训练设备以及计算机可读存储介质
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN109902301B (zh) 基于深度神经网络的关系推理方法、装置及设备
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
Suman et al. Why pay more? A simple and efficient named entity recognition system for tweets
CN114936287A (zh) 预训练语言模型的知识注入方法和相应的交互***
CN116304748B (zh) 一种文本相似度计算方法、***、设备及介质
CN113515632A (zh) 基于图路径知识萃取的文本分类方法
CN112199503B (zh) 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法
CN114925205B (zh) 基于对比学习的gcn-gru文本分类方法
CN114757184B (zh) 实现航空领域知识问答的方法和***
CN114281982B (zh) 一种多模态融合技术的图书宣传摘要生成方法和***
CN115934883A (zh) 一种基于语义增强的多特征融合的实体关系联合抽取方法
CN113806543B (zh) 一种基于残差跳跃连接的门控循环单元的文本分类方法
CN113449517B (zh) 基于bert门控多窗口注意力网络模型的实体关系抽取方法
CN113627550A (zh) 一种基于多模态融合的图文情感分析方法
CN112100342A (zh) 一种基于知识表示学习技术的知识图谱问答方法
CN115827879A (zh) 基于样本增强和自训练的低资源文本智能评阅方法和装置
Al Duhayyim et al. Hyperparameter Tuned Deep Learning Enabled Cyberbullying Classification in Social Media.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant