CN113553804A - 一种基于异构图transformer的单文档文本摘要*** - Google Patents
一种基于异构图transformer的单文档文本摘要*** Download PDFInfo
- Publication number
- CN113553804A CN113553804A CN202110802532.7A CN202110802532A CN113553804A CN 113553804 A CN113553804 A CN 113553804A CN 202110802532 A CN202110802532 A CN 202110802532A CN 113553804 A CN113553804 A CN 113553804A
- Authority
- CN
- China
- Prior art keywords
- nodes
- node
- sentence
- layer
- semantic representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000008034 disappearance Effects 0.000 claims description 3
- 239000013604 expression vector Substances 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000012549 training Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于异构图transformer的单文档文本摘要***,属于自然语言处理领域。一种基于异构图transformer的单文档文本摘要***,包括三部分:编码层、图更新层和句子选择层;先通过编码层对句子和词语进行编码,然后,异构图层通过HGT模型来更新句子结点和词语结点的间的语义表示,最后,句子选择层通过句子结点的语义表示来抽取摘要。本发明在图更新层,采用HGT方法来更新结点间的语义,可以融合更深层次的语义,进而可以提高模型对摘要抽取的准确率。在图更新层加入可训练的位置编码,可以在图模型中加入文本的顺序信息,该方法可以进一步提高模型训练过程的收敛速度。
Description
技术领域
本发明属于自然语言处理领域,涉及一种基于异构图transformer的单文档文本摘要***。
背景技术
文本摘要是自然语言处理的核心技术之一,是目前解决信息过剩问题的一种辅助手段,能够帮助人类更加快速、准确、全面地从自然语言文本获取关键信息,在工业和商业方面都具有重要的实用意义。文本摘要技术涉及到语言理解、文本分类、摘要生成等复杂技术,因而面临着诸多挑战。
抽取式文本摘要认为文档的主题思想可通过文章中一句或几句话来代替。传统的抽取式文本摘要技术往往采用基于统计和规则的方法来得到摘要,通过计算文本中句子的相似性对句子进行排序,然后在抽取文本摘要。优点是不需要进行复杂计算,通用性较强,句子的语法错误较少,缺点是准确率较低,,比如LexRank和TextRank。2014年,KagebackM等人首次使用深度学习方法完成抽取式文本摘要任务,该方法通过计算不同句子间语义表示的相似度,并采用次模函数优化选择合适的句子作为摘要。Cheng和Lapata等人于2016年提出一种基于Seq2Seq的通用自动摘要框架,采用层次文档编码器和注意力机制抽取文本摘要句。同年,Cao等人针对查询式摘要任务,提出了一种融合査询信息的注意力机制。2017年,LiP等人提出了一种基于等比序列的编码解码器模型DRGN,采用神经变异推理对复发性潜伏期变量进行后验推理。在不同语言的数据集上证实,该方法表现出良好的性能。2018年,Bennani等人提出了一种使用句子嵌入的简单无监督关键短语抽取模型,在单文本中采用嵌入排序抽取关键短语,该模型在F1得分上有了进一步提高。2019年,BouscarratL等人提出基于句子嵌入的高效抽取式摘要模型,该模型通过利用向量空间的语义信息进行信息抽取。2020年Wang等人根据图注意力模型提出HSG模型,该方法构建提取文档摘要异构图网络来建模句子之间的关系,而无需预先训练语言模型。随着图模型的广泛应用,图模型如何和文本摘要任务相联系,最近的工作已经做了初步的探索。
当前技术问题为:
(1)当前基于图模型的文本摘要,存在融合周围结点的语义不足的问题。
(2)文本摘要对位置信息比较敏感,但当前存在图模型中位置信息不足的问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于异构图transformer的单文档文本摘要***。
为达到上述目的,本发明提供如下技术方案:
一种基于异构图transformer的单文档文本摘要***,包括三部分:编码层、图更新层和句子选择层;
先通过编码层对句子和词语进行编码,然后,异构图层通过HGT模型来更新句子结点和词语结点的间的语义表示,最后,句子选择层通过句子结点的语义表示来抽取摘要。
可选的,所述编码层:使用HSG模型中编码层,用表示词语结点语义表示矩阵,表示句子结点的语义表示矩阵;先对句子中包含的词语语义表示,使用不同大小卷积核CNN捕获其中临近词的语义得到融合周围结点语义表示矩阵,通过池化层得到句子的语义表示cj,使用BiLSTM得到句子的语义表示bj,将BiLSTM和CNN得到的结果拼接,得到句子最终的语义表示Sj=[cj;bj];直接使用Glove训练的300维词嵌入作为词语结点的语义表示。
可选的,所述HGT模型包括注意力信息、传递信息和信息融合;
1)注意力信息:
在HGT更新结点的语义表示的过程中,为了避免结果过拟合,使用多头注意力机制来计算源结点和更新结点间的注意力权重,计算公式为:
公式中ATT-headi(s,e,t)表示多头注意力机制中第i个更新头,其中s为源结点,t为更新结点,e为对应的边的特征;根据不同的边的关系来计算源结点和目标结点间的相关性;多头注意力中的第i头的计算公式,计算公式为:
其中,Ki(s)表示源结点的线性变换,Qi(t)表示更新结点线性变换后的向量,表示可训练的注意力权重,μ<τ(s),φ(e),τ(t)>根据不同注意力头和不同结点对设置的可训练参数,d表示更新结点线性变换后的维度;
2)传递信息:
更新信息从源结点传递到更新结点,为了计算更新结点的注意力,需要根据边的类型e=(s,t)对更新结点进行语义抽取;计算公式为:
3)信息融合:
这个向量是更新结点t根据不同边特征的源结点更新后得到的特征向量;最后一步是对更新结点进行残差连接,以防止出现梯度消失;先对τ(t)类型的更新结点的更新信息使用激活函数,在进行线性变换A-linearτ(t),最后和τ(t)在l-1时刻的更新结点的语义表示进行残差连接,计算公式为:
得到更新后的句子结点的语义表示向量。
可选的,所述HGT模型改进为,由于在图模型更新过程中结点的语义表示中缺少位置信息,故在更新过程中在结点的语义表示中加上位置编码;分别在源结点和更新结点的输入的语义表示中加入可训练的位置编码分别为ps和pt;计算公式为:
可选的,所述句子选择层为:模型需要从异构图更新后的句子节点中抽取出摘要,使用交叉熵作为损失函数。
本发明的有益效果在于:
(1)本发明在图更新层,采用HGT方法来更新结点间的语义,可以融合更深层次的语义,进而可以提高模型对摘要抽取的准确率。
(2)在图更新层加入可训练的位置编码,可以在图模型中加入文本的顺序信息,该方法可以进一步提高模型训练过程的收敛速度。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为基于异构图transformer的单文档文本摘要模型框架图;
图2为图更新层中句子结点的更新方式图;
图3为图更新层中词语结点的更新方式图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明采用一种基于异构图transformer的单文档文本摘要模型,主要包括三部分:文本编码层、图更新层、句子选择层。先通过编码层对句子和词语进行编码,然后,异构图层通过HGT来更新句子结点和词语结点的间的语义表示,最后,句子选择层通过句子结点的语义表示来抽取摘要。
1.编码层:使用HSG模型中编码层,用表示词语结点语义表示矩阵,表示句子结点的语义表示矩阵。先对句子中包含的词语语义表示,使用不同大小卷积核CNN捕获其中临近词的语义得到融合周围结点语义表示矩阵,通过池化层得到句子的语义表示cj,进一步使用BiLSTM得到句子的语义表示bj,将BiLSTM和CNN得到的结果拼接,得到句子最终的语义表示Sj=[cj;bj]。直接使用Glove训练的300维词嵌入作为词语结点的语义表示。
2.HGT模型:其包括三个步奏:注意力信息、传递信息、信息融合。
1)注意力信息:
在HGT更新结点的语义表示的过程中,为了避免结果过拟合,使用多头注意力机制来计算源结点和更新结点间的注意力权重,计算公式为:
公式中ATT-headi(s,e,t)表示多头注意力机制中第i个更新头,其中s为源结点,在图1中表示W表示源结点,在图2中S表示源结点,t为更新结点,在图1中表示S表示更新结点,在图2中W表示更新结点,e为对应的边的特征。由于是异构图,所以结点对之间可能有不同的边的关系。图3为图更新层中词语结点的更新方式图。因此,需要根据不同的边的关系来计算源结点和目标结点间的相关性。因此,多头注意力中的第i头的计算公式,计算公式为:
其中,Ki(s)表示源结点的线性变换,Qi(t)表示更新结点线性变换后的向量,表示可训练的注意力权重,μ<τ(s),φ(e),τ(t)>根据不同注意力头和不同结点对设置的可训练参数,d表示更新结点线性变换后的维度。
2)传递信息:
更新信息从源结点传递到更新结点,为了计算更新结点的注意力,需要根据边的类型e=(s,t)对更新结点进行语义抽取。计算公式为:
3)信息融合:
这个向量是更新结点t根据不同边特征的源结点更新后得到的特征向量。最后一步是对更新结点进行残差连接,以防止出现梯度消失。先对τ(t)类型的更新结点的更新信息使用激活函数,在进行线性变换A-linearτ(t),最后和τ(t)在l-1时刻的更新结点的语义表示进行残差连接,计算公式为:
得到更新后的句子结点的语义表示向量。
3.位置编码:进一步改进模型,由于在图模型更新过程中结点的语义表示中缺少位置信息,故在更新过程中在结点的语义表示中加上位置编码。分别在源结点和更新结点的输入的语义表示中加入可训练的位置编码分别为ps和pt。因此,计算公式为:
4.句子选择层:模型需要从异构图更新后的句子节点中抽取出摘要,本文使用交叉熵作为损失函数。Trigram blocking是Paulus等人在2017年提出的,Trigram blocking是简单和高效的抽取方式,从更新后的结点表示中抽取得分最高的三个句子编号。句子的得分是根据更新层输出的句子语义表示进行计算所得。
实施例:
本发明根据现有的单文档文本摘要模型以及相关语言模型改进而来。本发明的实施过程如下:
1、对文本进行图构建和使用编码层对输入的文本进行编码,分别生成句子的语义表示S,词语结点的语义表示W。
2、通过初始句子结点的语义表示S0=S和词语结点的语义表示W1=W0=W得到第一个时刻的句子语义表示,计算公式如下:
S1=HGT(W0,S0)
然后表示第t层的更新方式计算公式如下;
Wt=HGT(Si-1,Wi-1)
St=HGT(Wi-1,Si-1)
3、将第三层S3作为句子结点的语义表示输入句子选择层中,进行摘要抽取。
4、通过评价指标ROUGE-1、ROUGE-2和ROUGE-L对文本的预测结果进行评估。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于异构图transformer的单文档文本摘要***,其特征在于:包括编码层、图更新层和句子选择层;
先通过编码层对句子和词语进行编码,然后,异构图层通过HGT模型来更新句子结点和词语结点的间的语义表示,最后,句子选择层通过句子结点的语义表示来抽取摘要。
3.根据权利要求2所述的一种基于异构图transformer的单文档文本摘要***,其特征在于:所述HGT模型包括注意力信息、传递信息和信息融合;
1)注意力信息:
在HGT更新结点的语义表示的过程中,为了避免结果过拟合,使用多头注意力机制来计算源结点和更新结点间的注意力权重,计算公式为:
公式中ATT-headi(s,e,t)表示多头注意力机制中第i个更新头,其中s为源结点,t为更新结点,e为对应的边的特征;根据不同的边的关系来计算源结点和目标结点间的相关性;多头注意力中的第i头的计算公式,计算公式为:
其中,Ki(s)表示源结点的线性变换,Qi(t)表示更新结点线性变换后的向量,表示可训练的注意力权重,μ<τ(s),φ(e),τ(t)>根据不同注意力头和不同结点对设置的可训练参数,d表示更新结点线性变换后的维度;
2)传递信息:
更新信息从源结点传递到更新结点,为了计算更新结点的注意力,需要根据边的类型e=(s,t)对更新结点进行语义抽取;计算公式为:
3)信息融合:
这个向量是更新结点t根据不同边特征的源结点更新后得到的特征向量;最后一步是对更新结点进行残差连接,以防止出现梯度消失;先对τ(t)类型的更新结点的更新信息使用激活函数,在进行线性变换A-linearτ(t),最后和τ(t)在l-1时刻的更新结点的语义表示进行残差连接,计算公式为:
得到更新后的句子结点的语义表示向量。
5.根据权利要求4所述的一种基于异构图transformer的单文档文本摘要***,其特征在于:所述句子选择层为:模型需要从异构图更新后的句子节点中抽取出摘要,使用交叉熵作为损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110802532.7A CN113553804A (zh) | 2021-07-15 | 2021-07-15 | 一种基于异构图transformer的单文档文本摘要*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110802532.7A CN113553804A (zh) | 2021-07-15 | 2021-07-15 | 一种基于异构图transformer的单文档文本摘要*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113553804A true CN113553804A (zh) | 2021-10-26 |
Family
ID=78131836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110802532.7A Pending CN113553804A (zh) | 2021-07-15 | 2021-07-15 | 一种基于异构图transformer的单文档文本摘要*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113553804A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725928A (zh) * | 2024-02-18 | 2024-03-19 | 西南石油大学 | 基于关键词异构图和语义匹配的金融文本摘要方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414762A (zh) * | 2020-02-19 | 2020-07-14 | 重庆邮电大学 | 基于dcu编码和自注意力机制的机器阅读理解方法 |
CN111708922A (zh) * | 2020-06-19 | 2020-09-25 | 北京百度网讯科技有限公司 | 用于表示异构图节点的模型生成方法及装置 |
CN111966827A (zh) * | 2020-07-24 | 2020-11-20 | 大连理工大学 | 基于异构二部图的对话情感分析方法 |
CN112148863A (zh) * | 2020-10-15 | 2020-12-29 | 哈尔滨工业大学 | 一种融入常识知识的生成式对话摘要方法 |
CN112597296A (zh) * | 2020-12-17 | 2021-04-02 | 中山大学 | 一种基于计划机制和知识图谱引导的摘要生成方法 |
CN112818113A (zh) * | 2021-01-26 | 2021-05-18 | 山西三友和智慧信息技术股份有限公司 | 一种基于异构图网络的文本自动摘要方法 |
-
2021
- 2021-07-15 CN CN202110802532.7A patent/CN113553804A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414762A (zh) * | 2020-02-19 | 2020-07-14 | 重庆邮电大学 | 基于dcu编码和自注意力机制的机器阅读理解方法 |
CN111708922A (zh) * | 2020-06-19 | 2020-09-25 | 北京百度网讯科技有限公司 | 用于表示异构图节点的模型生成方法及装置 |
CN111966827A (zh) * | 2020-07-24 | 2020-11-20 | 大连理工大学 | 基于异构二部图的对话情感分析方法 |
CN112148863A (zh) * | 2020-10-15 | 2020-12-29 | 哈尔滨工业大学 | 一种融入常识知识的生成式对话摘要方法 |
CN112597296A (zh) * | 2020-12-17 | 2021-04-02 | 中山大学 | 一种基于计划机制和知识图谱引导的摘要生成方法 |
CN112818113A (zh) * | 2021-01-26 | 2021-05-18 | 山西三友和智慧信息技术股份有限公司 | 一种基于异构图网络的文本自动摘要方法 |
Non-Patent Citations (2)
Title |
---|
ZINIU HU等: "Heterogeneous Graph Transformer", 《WWW ’20:PROCEEDINGS OF THE WEB CONFERENCE 2020》 * |
刘欣等: "基于PV-DM模型的多文档摘要方法", 《计算机应用与软件》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725928A (zh) * | 2024-02-18 | 2024-03-19 | 西南石油大学 | 基于关键词异构图和语义匹配的金融文本摘要方法 |
CN117725928B (zh) * | 2024-02-18 | 2024-04-30 | 西南石油大学 | 基于关键词异构图和语义匹配的金融文本摘要方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781683B (zh) | 一种实体关系联合抽取方法 | |
CN110083831B (zh) | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 | |
CN110609891B (zh) | 一种基于上下文感知图神经网络的视觉对话生成方法 | |
CN110377903B (zh) | 一种句子级实体和关系联合抽取方法 | |
CN112100351A (zh) | 一种通过问题生成数据集构建智能问答***的方法及设备 | |
CN109871538A (zh) | 一种中文电子病历命名实体识别方法 | |
CN111966812B (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN113297364B (zh) | 一种面向对话***中的自然语言理解方法及装置 | |
CN112733866A (zh) | 一种提高可控图像文本描述正确性的网络构建方法 | |
CN112949647B (zh) | 三维场景描述方法、装置、电子设备和存储介质 | |
CN114943230B (zh) | 一种融合常识知识的中文特定领域实体链接方法 | |
CN113221571B (zh) | 基于实体相关注意力机制的实体关系联合抽取方法 | |
CN112836496A (zh) | 一种基于bert和前馈神经网络的文本纠错方法 | |
CN112784604A (zh) | 一种基于实体边界网络的实体链接方法 | |
CN114169312A (zh) | 一种针对司法裁判文书的两阶段混合式自动摘要方法 | |
CN115331075A (zh) | 一种多模态场景图知识增强的对抗式多模态预训练方法 | |
CN111651993A (zh) | 融合局部-全局字符级关联特征的中文命名实体识别方法 | |
CN114153971A (zh) | 一种含错中文文本纠错识别分类设备 | |
CN116932722A (zh) | 一种基于跨模态数据融合的医学视觉问答方法及*** | |
CN114417872A (zh) | 一种合同文本命名实体识别方法及*** | |
CN115034208A (zh) | 一种基于bert的中文asr输出文本修复方法及*** | |
CN114239612A (zh) | 一种多模态神经机器翻译方法、计算机设备及存储介质 | |
CN114781382A (zh) | 基于rwlstm模型融合的医疗命名实体识别***及方法 | |
CN117010387A (zh) | 融合注意力机制的RoBERTa-BiLSTM-CRF语音对话文本命名实体识别*** | |
CN116663578A (zh) | 一种基于策略梯度方法改进的神经机器翻译方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211026 |