CN113672727B - 一种金融文本实体关系抽取方法及*** - Google Patents
一种金融文本实体关系抽取方法及*** Download PDFInfo
- Publication number
- CN113672727B CN113672727B CN202110855621.8A CN202110855621A CN113672727B CN 113672727 B CN113672727 B CN 113672727B CN 202110855621 A CN202110855621 A CN 202110855621A CN 113672727 B CN113672727 B CN 113672727B
- Authority
- CN
- China
- Prior art keywords
- entity
- financial
- relation
- relationship
- entities
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000010586 diagram Methods 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 21
- 238000012546 transfer Methods 0.000 claims abstract description 18
- 230000002776 aggregation Effects 0.000 claims abstract description 15
- 238000004220 aggregation Methods 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims abstract description 14
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 239000010410 layer Substances 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 8
- 230000000873 masking effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000011229 interlayer Substances 0.000 claims description 2
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种金融文本实体关系抽取方法,涉及人工智能领域的技术领域,具体方案为:S1:在金融数据集上使用BERT预训练单词嵌入;S2:建立实体关系图:以金融文本中的实体作为节点,实体所在的文本作为节点之间的关系边;S3:更新实体关系图:通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入,重复更新实体关系图;S4:预测关系类别:从S3过程中获取若干次更新实体关系图的各层目标实体对嵌入的输出,经变换拼接后送入多层感知机进行分类,选择概率最大的类别作为关系输出。本发明建立在金融数据基础上,因此对金融领域文本的实体关系抽取具有领域优势。
Description
技术领域
本发明涉及人工智能领域的技术领域,更具体地说,它涉及一种金融文本实体关系抽取方法及***。
背景技术
金融文本实体关系抽取是一种信息智能化的重要技术。当前的方法大致遵循4步框架:1.将单词映射到相应的嵌入特征;2.使用RNN或CNN从单词嵌入种学习一个句子表示;3.使用注意力机制融合单词级特征和句子级特征,得到一个最终的表示;4.基于得到的表示使用神经网络进行分类。
然而,在金融实体关系识别任务中,现有的技术方法表现出明显的3点缺陷:
1.文本内容领域跨度大,金融领域适应性差。现有的技术大多是在开源的百科类文本上进行训练。相比而言,金融领域的文本表现出极大的差异性。例如,金融领域的文本中有大量的数字出现,例如收益率3.3%。以往的技术对数字大多采用忽略的处理方法,导致其对金融领域文本的实体关系抽取任务不合适。
2.以前的技术简化了实体间关系的建模,丢失大量信息。以前的技术简单模拟了实体序列的关系,主流采用从左到右和从右到左的RNN对文本建模,然而,文本中常常含有多个实体,实体间的关系可能呈现交叉引用等复杂情况,这些信息被建模时丢弃。
3.不能动态捕获多跳关系。金融文本中常常存在A和B相关,B和C相关,那么A和C之间也存在关系。然而,现有的技术要么没有解决这个问题,要么定义一个静态的关系模板进行匹配,这种方法对非模板的关系不能捕获并且不灵活。
发明内容
为解决上述技术问题,本发明提供一种金融文本实体关系抽取方法,首先预训练金融领域的单词嵌入,然后分类初始化实体嵌入、使用BiGRU建模实体对所在的文本句子获取关系边,构建得到图神经网络。使用聚合函数对节点表示进行多次更新,最后将实体节点嵌入送入全连接神经网络进行关系提取,选取概率最大的作为分类的标签输出。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种金融文本实体关系抽取方法,包括以下步骤:
S1:在金融数据集上使用BERT预训练单词嵌入,包括两个阶段:
阶段一:随机遮罩的单次预测;
阶段二:遮罩金融实体的单次预测;
S2:建立实体关系图:以金融文本中的实体作为节点,实体所在的文本作为节点之间的关系边;其中节点分为3类编码,参与关系抽取的实体、实体关系相关的文本序列开始及结尾实体、无关实体;参与关系抽取的实体使用S1中阶段二BERT单词嵌入表示;实体关系相关的文本序列开始及结尾实体使用零向量表示;无关实体使用flag标志向量表示;实体所在的金融文本经过BERT的阶段一编码获得单词嵌入,拼接位置嵌入后,获取实体节点间的关系转移矩阵;
S3:更新实体关系图:通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入,重复更新实体关系图;
S4:预测关系类别:从S3过程中获取若干次更新实体关系图的各层目标实体对嵌入的输出,经变换拼接后送入多层感知机进行分类,选择概率最大的类别作为关系输出。
作为一种优选方案,S1过程中,通过使用两次预训练BERT分别获取面向实体关系图中文本关系建模的单次嵌入,以及面向实体关系图中目标实体初始嵌入。
作为一种优选方案,预训练BERT使用金融文本数据:预处理金融文本具体包括以下步骤:
准备两份数据,其中一份数据用于阶段一训练,随机遮罩15%的单词,其中遮罩的单词中的80%被替换为[MASK],10%使用随机单词替换,10%保持不变;另一份数据用于阶段二训练,随机遮罩15%的金融实体,并使被遮罩的实体距离两个以上句子。
作为一种优选方案,S2过程中,实体关系边的转移矩阵计算方法如下:
其中:vi和vj分别代表两个实体,这两个实体所在的文本是E(x)表示BERTn的单词嵌入编码,n代表第n次传播,MLP(·)是多层感知机,[·]是将括号内转换为矩阵,n是图更新传播的第n次,BiGRU(·)编码文本,然后将最后一个前向编码和最后一个后向编码的隐藏层输出拼接;
GRU(·)的第t步更新具体计算方法如下:
zt=σ(Wzxt+Uzht-1)
rt=σ(Wtxt+Utht-1)
其中:xt是当前时间步输入,ht-1是前一个时间步的隐藏状态。
作为一种优选方案,S3过程中,使用聚合函数更新节点嵌入,更新计算方法如下:
其中:是第i个实体的第n+1次聚合后的嵌入表示,N(vi)表示第i个实体的邻居节点,/>是S2计算得到的转移矩阵,σ(·)是激活函数。
作为一种优选方案,S3过程中,重复传播聚合函数3次。
作为一种优选方案,S4过程中,对实体关系图中的目标实体对融合、各层嵌入融合具体包括以下步骤:
然后将融合的嵌入送入MLP进行关系分类,具体包括以下步骤:
一种金融文本实体关系抽取***,基于上述的金融文本实体关系抽取方法,其特征在于,包括单词嵌入预训练模块、实体关系图构建模块、实体关系图更新模块和关系预测模块:
单词嵌入预训练模块用于从金融文本语料中训练出适用于金融领域的单词嵌入,包括阶段一的通用词嵌入和阶段二的金融实体词嵌入,供图神经网络构建使用;
实体关系图构建模块用于从金融文本中抽取实体作为顶点、实体对所在的文本编码作为边,构建实体关系图;
实体关系图更新模块用于传播实体间的信息,使实体关系图中的实体节点可以获取到邻接点的信息;
关系预测模块用于将需要预测的实体对嵌入从实体对、不同层间融合表示,通过全连接神经网络预测实体对所属关系。
综上所述,本发明具有以下有益效果:
本发明建立在金融数据基础上,因此对金融领域文本的实体关系抽取具有领域优势;图神经网络增强了实体间的关系的建模能力,实验结果表明了本发明相对以前的方法在分类结果上有优势;本发明可以灵活进行任意次图更新,以发现不同实体间的关系。综合这3项技术,本发明可以明显提高现有金融文本实体关系抽取的性能表现。
附图说明
图1是本发明实施例中的金融文本实体关系抽取方法的流程图;
图2是本发明实施例的金融文本实体关系抽取***的结构示意图;
图3是本发明实施例的构建图模块的结构示意图。
具体实施方式
本说明书及权利要求并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求当中所提及的“包括”为一开放式用语,故应解释成“包括但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。
本说明书及权利要求的上下左右等方位名词,是结合附图以便于进一步说明,使得本申请更加方便理解,并不对本申请做出限定,在不同的场景中,上下、左右、里外均是相对而言。
以下结合附图对本发明作进一步详细说明。
一种金融文本实体关系抽取方法,包括以下步骤:
S1:在金融数据集上使用BERT预训练单词嵌入。BERT的预训练分两个阶段,阶段一是随机遮罩的单词预测,阶段二是遮罩金融实体的单词预测。其中,阶段二的训练是为了获取高质量金融实体嵌入;
S2:建立实体关系图。金融文本中的实体作为节点,实体所在的文本作为节点之间的关系边。图中的实体节点分3类编码:参与关系抽取的实体、和实体关系相关的文本序列开始和结尾实体、无关实体。其中,第1类实体使用阶段二BERT单词嵌入表示,第2类实体使用零向量表示,第3类实体使用特殊的flag标志向量表示。实体所在的文本经过BERT的阶段一编码获得单词嵌入,拼接位置嵌入后送入BiGRU编码获取实体节点间的关系转移矩阵;
S3:更新实体关系图。通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入,重复更新实体关系图3次;
S4:预测关系类别。从S3获取3次更新实体关系图的各层目标实体对嵌入的输出,经变换拼接后送入多层感知机进行分类,选择概率最大的类别作为关系输出。
优选的,S1过程中,通过使用两次预训练BERT分别获取面向实体关系图中文本关系建模的单词嵌入、面向实体关系图中目标实体初始嵌入。预训练BERT使用的是金融文本数据。预处理金融文本时,准备两份数据,一份用于阶段一训练,随机遮罩15%的单词,其中,遮罩的单词中有80%被替换为[MASK],10%使用随机单词替换,10%保持不变;另一份用于阶段二训练,随机遮罩15%的金融实体,并使被遮罩的实体距离2个以上句子。和谷歌原始的BERT一致,BERT的预训练保持遮罩语言模型和下一个句子预测两个任务。单词嵌入大小设置为128,注意力数量设置为8,使用2层、4层或8层Transformer编码。在金融文本数据集上训练15轮获取阶段一单词嵌入编码模型BERTn,再使用数据集二训练15轮获取阶段二单词嵌入编码模型BERTf。
优选的,S2过程中,建立实体关系图的方法。实体关系图包括两部分:实体关系节点和实体关系边。其中,实体关系节点分三类:参与关系抽取的实体、和实体关系相关的文本序列开始和结尾实体和无关实体。实体关系节点的初始嵌入表示依据节点类别不同采用不同初始化方式:假设参与关系抽取的实体嵌入使用实体所在句子上下文的BERT_f生成的单词嵌入使ef,则第一个实体的初始嵌入设置为[ef1,0],第二个实体的初始嵌入设置为[0,ef2],其中[·]中的0是和ef维度相同的零向量;和实体关系相关的文本序列的开始和结束实体使用特殊的flag向量嵌入(如全一向量)来标注关系神经网络传播的开始和结束位置;无关相同使用零向量表示。实体关系边使用边两端实体节点所在的文本编码作为转移矩阵。假设两个实体是vi和vj,这两个实体所在的文本是E(x)表示BERTn的单词嵌入编码,实体关系边的转移矩阵计算如下:
其中,n代表第n次传播,MLP(·)是多层感知机,[·]是将括号内转换为矩阵,n是图更新传播的第n次,BiGRU(·)编码文本,然后将最后一个前向编码和最后一个后向编码的隐藏层输出拼接。
假设xt是当前时间步输入,ht-1是前一个时间步的隐藏状态,GRU(·)的第t步更新是
zt=σ(Wzxt+Uzht-1)
rt=σ(Wtxt+Utht-1)
优选的,S3过程中,更新实体关系图方法。通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入。更新计算是
其中,是第i个实体的第n+1次聚合后的嵌入表示,N(vi)表示第i个实体的邻居节点,/>是S2计算得到的转移矩阵,σ(·)是激活函数。重复传播聚合函数3次。
优选的,S4过程中,从实体嵌入到抽取关系类别的方法。对实体关系图中的目标实体对融合、各层嵌入融合:
然后将融合的嵌入送入MLP进行关系分类:
一种金融文本实体关系抽取***,基于上述的金融文本实体关系抽取方法,包括单词嵌入预训练模块、实体关系图构建模块、实体关系图更新模块和关系预测模块:
单词嵌入预训练模块用于从金融文本语料中训练出适用于金融领域的单词嵌入,包括阶段一的通用词嵌入和阶段二的金融实体词嵌入,供图神经网络构建使用;
实体关系图构建模块用于从金融文本中抽取实体作为顶点、实体对所在的文本编码作为边,构建实体关系图;
实体关系图更新模块用于传播实体间的信息,使实体关系图中的实体节点可以获取到邻接点的信息;
关系预测模块用于将需要预测的实体对嵌入从实体对、不同层间融合表示,通过全连接神经网络预测实体对所属关系,该关系可以是简单推理得到的直接关系,也可以是存在中继点的多跳关系。
实施例1:
如图1所示,一种金融文本实体关系抽取方法,包括以下步骤:
步骤S1:在金融数据集上使用BERT预训练单词嵌入。BERT的预训练分两个阶段,一是随机遮罩的单词预测,二是遮罩金融实体的单词预测;
步骤S2:建立实体关系图。金融文本中的实体作为节点,实体所在的文本作为节点之间的关系边。图中的实体节点分三类编码:参与关系抽取的实体、和实体关系相关的文本序列开始和结尾实体、无关实体。实体所在的文本经过BERT的阶段一编码获得单词嵌入,拼接位置嵌入后送入BiGRU编码获取实体节点间的关系转移矩阵;
步骤S3:更新实体关系图。通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入,重复更新实体关系图3次;
步骤S4:预测关系类别。从S3获取3次更新实体关系图的各层目标实体对嵌入的输出,经变换拼接后送入多层感知机进行分类,选择概率最大的类别作为关系输出。
实施例2:
如图2所示,一种金融文本实体关系抽取***,包括以下模块:
单词嵌入预训练模块:从金融文本语料中训练出适用于金融领域的单词嵌入,包括阶段一的通用词嵌入和阶段二的金融实体词嵌入,供图神经网络构建使用;
实体关系图构建模块:从金融文本中抽取实体作为顶点、实体对所在的文本编码作为边,构建实体关系图;
实体关系图更新模块:传播实体间的信息,使实体关系图中的实体节点可以获取到邻接点的信息;
关系预测模块:将需要预测的实体对嵌入从实体对、不同层间融合表示,通过全连接神经网络预测实体对所属关系,该关系可以是简单推理得到的直接关系,也可以是存在中继点的多跳关系。
工作过程:首先预训练两阶段的BERT模型,然后将实体节点分3类:目标实体对、两段实体、无关实体分别初始化节点嵌入,使用BiGRU捕获节点所在文本句子作为边的边转移矩阵,从而获取实体关系图神经网络。使用聚合函数对节点表示进行3次更新,对目标实体对嵌入、各次目标实体嵌入融合获取关系嵌入,送入全连接神经网络进行关系抽取。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。
Claims (7)
1.一种金融文本实体关系抽取方法,其特征在于,包括以下步骤:
S1:在金融数据集上使用BERT预训练单词嵌入,包括两个阶段:
阶段一:随机遮罩的单次预测;
阶段二:遮罩金融实体的单次预测;
S2:建立实体关系图:以金融文本中的实体作为节点,实体所在的文本作为节点之间的关系边;其中节点分为3类编码,参与关系抽取的实体、实体关系相关的文本序列开始及结尾实体、无关实体;参与关系抽取的实体使用S1中阶段二BERT单词嵌入表示;实体关系相关的文本序列开始及结尾实体使用零向量表示;无关实体使用flag标志向量表示;实体所在的金融文本经过BERT的阶段一编码获得单词嵌入,拼接位置嵌入后,获取实体节点间的关系转移矩阵;
所述S2过程中,实体关系边的转移矩阵计算方法如下:
其中:vi和vj分别代表两个实体,这两个实体所在的文本是E()表示BERTn的单词嵌入编码,n代表第n次传播,MLP(·)是多层感知机,[·]是将括号内转换为矩阵,n是图更新传播的第n次,BiGRU(·)编码文本,然后将最后一个前向编码和最后一个后向编码的隐藏层输出拼接;
GRU(·)的第t步更新具体计算方法如下:
zt=σ(Wzxt+Uzht-1)
rt=σ(Wtxt+Utht-1)
其中:xt是当前时间步输入,ht-1是前一个时间步的隐藏状态。
S3:更新实体关系图:通过关系边的转移矩阵对节点嵌入使用聚合函数更新节点嵌入,重复更新实体关系图;
S4:预测关系类别:从S3过程中获取若干次更新实体关系图的各层目标实体对嵌入的输出,经变换拼接后送入多层感知机进行分类,选择概率最大的类别作为关系输出。
2.根据权利要求1所述的金融文本实体关系抽取方法,其特征在于,所述S1过程中,通过使用两次预训练BERT分别获取面向实体关系图中文本关系建模的单次嵌入,以及面向实体关系图中目标实体初始嵌入。
3.根据权利要求2所述的金融文本实体关系抽取方法,其特征在于,所述预训练BERT使用金融文本数据:预处理金融文本具体包括以下步骤:
准备两份数据,其中一份数据用于阶段一训练,随机遮罩15%的单词,其中遮罩的单词中的80%被替换为[MASK],10%使用随机单词替换,10%保持不变;另一份数据用于阶段二训练,随机遮罩15%的金融实体,并使被遮罩的实体距离两个以上句子。
4.根据权利要求1所述的金融文本实体关系抽取方法,其特征在于,所述S3过程中,使用聚合函数更新节点嵌入,更新计算方法如下:
其中:是第i个实体的第n+1次聚合后的嵌入表示,N(vi)表示第i个实体的邻居节点,/>是S2计算得到的转移矩阵,σ(·)是激活函数。
5.根据权利要求4所述的金融文本实体关系抽取方法,其特征在于,所述S3过程中,重复传播聚合函数3次。
6.根据权利要求5所述的金融文本实体关系抽取方法,其特征在于,所述S4过程中,对实体关系图中的目标实体对融合、各层嵌入融合具体包括以下步骤:
然后将融合的嵌入送入MLP进行关系分类,具体包括以下步骤:
7.一种金融文本实体关系抽取***,基于权利要求1至6任一所述的金融文本实体关系抽取方法,其特征在于,包括单词嵌入预训练模块、实体关系图构建模块、实体关系图更新模块和关系预测模块:
单词嵌入预训练模块用于从金融文本语料中训练出适用于金融领域的单词嵌入,包括阶段一的通用词嵌入和阶段二的金融实体词嵌入,供图神经网络构建使用;
实体关系图构建模块用于从金融文本中抽取实体作为顶点、实体对所在的文本编码作为边,构建实体关系图;
实体关系图更新模块用于传播实体间的信息,使实体关系图中的实体节点可以获取到邻接点的信息;
关系预测模块用于将需要预测的实体对嵌入从实体对、不同层间融合表示,通过全连接神经网络预测实体对所属关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855621.8A CN113672727B (zh) | 2021-07-28 | 2021-07-28 | 一种金融文本实体关系抽取方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110855621.8A CN113672727B (zh) | 2021-07-28 | 2021-07-28 | 一种金融文本实体关系抽取方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113672727A CN113672727A (zh) | 2021-11-19 |
CN113672727B true CN113672727B (zh) | 2024-04-05 |
Family
ID=78540412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110855621.8A Active CN113672727B (zh) | 2021-07-28 | 2021-07-28 | 一种金融文本实体关系抽取方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113672727B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114117055B (zh) * | 2022-01-27 | 2023-03-24 | 浙江太美医疗科技股份有限公司 | 一种文本实体关系的抽取方法、装置、设备和可读介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106970981A (zh) * | 2017-03-28 | 2017-07-21 | 北京大学 | 一种基于转移矩阵构建关系抽取模型的方法 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111695052A (zh) * | 2020-06-12 | 2020-09-22 | 上海智臻智能网络科技股份有限公司 | 标签分类方法、数据处理设备、可读存储介质 |
CN112084790A (zh) * | 2020-09-24 | 2020-12-15 | 中国民航大学 | 一种基于预训练卷积神经网络的关系抽取方法及*** |
CN112100388A (zh) * | 2020-11-18 | 2020-12-18 | 南京华苏科技有限公司 | 一种长文本新闻舆情的情感极性的分析方法 |
CN112632997A (zh) * | 2020-12-14 | 2021-04-09 | 河北工程大学 | 基于BERT和Word2Vec向量融合的中文实体识别方法 |
KR20210089604A (ko) * | 2020-12-30 | 2021-07-16 | 바이두 유에스에이 엘엘씨 | 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 |
-
2021
- 2021-07-28 CN CN202110855621.8A patent/CN113672727B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106970981A (zh) * | 2017-03-28 | 2017-07-21 | 北京大学 | 一种基于转移矩阵构建关系抽取模型的方法 |
CN111651986A (zh) * | 2020-04-28 | 2020-09-11 | 银江股份有限公司 | 事件关键词提取方法、装置、设备及介质 |
CN111695052A (zh) * | 2020-06-12 | 2020-09-22 | 上海智臻智能网络科技股份有限公司 | 标签分类方法、数据处理设备、可读存储介质 |
CN112084790A (zh) * | 2020-09-24 | 2020-12-15 | 中国民航大学 | 一种基于预训练卷积神经网络的关系抽取方法及*** |
CN112100388A (zh) * | 2020-11-18 | 2020-12-18 | 南京华苏科技有限公司 | 一种长文本新闻舆情的情感极性的分析方法 |
CN112632997A (zh) * | 2020-12-14 | 2021-04-09 | 河北工程大学 | 基于BERT和Word2Vec向量融合的中文实体识别方法 |
KR20210089604A (ko) * | 2020-12-30 | 2021-07-16 | 바이두 유에스에이 엘엘씨 | 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 |
Non-Patent Citations (2)
Title |
---|
DCNN-Bigru text classifICation model based on Mask embedding;He Huang等;《2019 IEEE IUCC and DSCI and SmartCNS 》;第632-637页 * |
金融领域文本序列标注与实体关系联合抽取研究;唐晓波等;《情报科学》;第39卷(第05期);第3-11页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113672727A (zh) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108733792B (zh) | 一种实体关系抽取方法 | |
CN110928997A (zh) | 意图识别方法、装置、电子设备及可读存储介质 | |
CN112487807B (zh) | 一种基于膨胀门卷积神经网络的文本关系抽取方法 | |
CN112733768B (zh) | 基于双向特征语言模型的自然场景文本识别方法及装置 | |
WO2021238333A1 (zh) | 一种文本处理网络、神经网络训练的方法以及相关设备 | |
WO2023134084A1 (zh) | 多标签识别方法、装置、电子设备及存储介质 | |
WO2023236977A1 (zh) | 一种数据处理方法及相关设备 | |
CN113051399B (zh) | 一种基于关系型图卷积网络的小样本细粒度实体分类方法 | |
CN112765370B (zh) | 知识图谱的实体对齐方法、装置、计算机设备和存储介质 | |
CN115951883B (zh) | 分布式微服务架构的服务组件管理***及其方法 | |
CN116204674B (zh) | 一种基于视觉概念词关联结构化建模的图像描述方法 | |
CN112380867A (zh) | 文本处理、知识库的构建方法、装置和存储介质 | |
CN113221571A (zh) | 基于实体相关注意力机制的实体关系联合抽取方法 | |
CN113672727B (zh) | 一种金融文本实体关系抽取方法及*** | |
CN113868451B (zh) | 基于上下文级联感知的社交网络跨模态对话方法及装置 | |
CN115687609A (zh) | 一种基于Prompt多模板融合的零样本关系抽取方法 | |
CN111522963A (zh) | 一种基于公安知识图谱引擎的智能助理应用交互方法 | |
CN113297374B (zh) | 一种基于bert和字词特征融合的文本分类方法 | |
CN111145914A (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN117094325B (zh) | 水稻病虫害领域命名实体识别方法 | |
CN116861021A (zh) | 基于去噪和动量蒸馏的跨模态检索模型构建方法 | |
CN112560440A (zh) | 一种基于深度学习的面向方面级情感分析的句法依赖方法 | |
CN115690449A (zh) | 一种基于局部特征增强和并行解码器的图像标注方法 | |
CN115204171A (zh) | 基于超图神经网络的文档级事件抽取方法及*** | |
CN114298052A (zh) | 一种基于概率图的实体联合标注关系抽取方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |