CN112836482A - 一种基于模板的序列生成模型生成问题的方法及装置 - Google Patents

一种基于模板的序列生成模型生成问题的方法及装置 Download PDF

Info

Publication number
CN112836482A
CN112836482A CN202110181755.6A CN202110181755A CN112836482A CN 112836482 A CN112836482 A CN 112836482A CN 202110181755 A CN202110181755 A CN 202110181755A CN 112836482 A CN112836482 A CN 112836482A
Authority
CN
China
Prior art keywords
text
model
word
template
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110181755.6A
Other languages
English (en)
Other versions
CN112836482B (zh
Inventor
李玉娥
董黎刚
蒋献
吴梦莹
诸葛斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202110181755.6A priority Critical patent/CN112836482B/zh
Publication of CN112836482A publication Critical patent/CN112836482A/zh
Application granted granted Critical
Publication of CN112836482B publication Critical patent/CN112836482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于模板的序列生成模型生成问题的方法及***,构建文本抽取模型对用于生成问题的文本进行分类,获得预测文本;构建文本识别模型,文本识别模型将文本转换成向量表示,基于向量表示和该模型中设置的字词级和语句级注意力机制,获得字向量和词向量对应的输入序列,基于所述输入序列进行分类得到预测文本的预测关系标签;构建序列生成模型,编码单元接收问题并映射成多元向量输入给模板解码单元,对此时解码单元输出的问题模板,根据所述预测根据所述预测关系标签对所述问题模板进行替换。

Description

一种基于模板的序列生成模型生成问题的方法及装置
技术领域
本发明涉及人工智能自然语言处理技术领域,尤其涉及一种基于模板的序列生成模型生成问题的方法及装置。
背景技术
目前,在自然语言处理领域中对中文问题生成的研究很大一部分都是基于模板或者基于规则的模型构建的知识图谱,由于模板和规则的局限性,所生成的问题种类单一且语言缺乏灵活性。
基于规则的方法通常需要耗费大量的人力和时间,并且生成的问题通常存在语句不通顺,与文章内容不匹配的问题。基于模板的方法生成的问题比较死板,类型单一,缺乏语言的多样性,而且模板的好坏直接决生成问题的质量。单纯基于序列模型的问题生成方法存在主题实体识别不明确等问题,同样影响生成问题的质量。
发明内容
鉴于现有技术存在的上述问题,本发明设计了一种基于模板的序列生成模型生成问题的方法及装置,把基于模板和基于序列生成模型的方法结合在一起,在知识图谱中的序列生成模型中生成相关问题时,提高了生成问题的质量。
为实现上述目的,本发明提出了一种基于模板的序列生成模型生成问题的方法,包括:
构建文本抽取模型:对用于生成问题的文本内容输入到联合模型中,利用所述联合模型对所述文本进行分类,得到预测文本;
构建文本关系识别模型:根据所述预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据所述文本关系识别模型中设置的字词级和语句级的注意力机制对所述文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据所述对应的输入序列对所述字向量和词向量进行分类,获取预测文本的预测关系标签;
构建序列生成模型,所述序列生成模型包括编码单元和模板解码单元,输入问题给所述编码单元,并根据所述问题语义映射成对应的多元组向量,并将所述多元组向量依次输入到模板解码单元中,且由模板解码单元的输出为问题模板,根据所述预测关系标签对所述问题模板进行替换。
可选的,所述文本关系识别模型包括输入表示层、字词级层、语句级层以及实体关系分类层,其中将文本语义信息对应的字向量和词向量序列,其中,
输入层用于将输入的文字转换成向量的表示,用于获取文本语义特征向量;
字词级层学习用于学习所述文本上下文的内容信息,得到每个字词对文本语义信息的重要程度;
语句级层学习用于根据上下文语句,给每个输出字词分配不同的权重,获取字词对语句信息的重要程度;
实体关系分类层对语句信息的重要程度进行归一化处理,得到向量的关系标签,从而对实体间的关系进行分类。
可选的,构建所述文本抽取模型步骤包括:
所述联合模型为双向长短记忆网络模型和条件随机场模型的联合结构,所述文本抽取模型包括字词向量表示、语句特征提取和语句级的序列标注三层结构,
其中对所述文本数据进行序列标注得到训练集文本,
读取所述训练集文本作为双向长短记忆网络模型的输入进行无监督训练,使得双向长短记忆网络模型初始化所述训练集文本的权值以及构建特征空间;
基于所述特征空间和文本的权值,利用条件随机场模型对所述训练集文本进行有监督学习;
使用归一化函数获得所述训练集文本中各个字词的分类概率;
利用得到的分类概率进行分类得到所述预测文本。
可选的,建文本关系识别模型步骤包括:
将所述预测文本内容输入到预训练的词袋模型中将文字转换成低维稠密的向量表示,其中所述向量表示为文本语义特征向量,将所述文本语义特征向量输入至构建文本关系识别模型的字词级学习层中,获得所述文本语义特征向量包含的字义信息、词义信息和上下文信息。
可选的,构建文本关系识别模型步骤还包括:
获得文本语义特征向量后,将所述文本语义特征向量输入至构建文本关系识别模型的语句级学***均值法得到每个字词的attention值;
对所述attention值进行归一化处理,基于所述归一化处理得到所述文本语义特征向量的预测关系标签,根据所述预测关系标签对所述预测文本进行分类得到语句实体。
可选的,所述预测关系标签采用HowNet定义的16种标签和5种自定义标签。
可选的,所述输入问题映射成对应的多元组向量内容包括问题主题、问题关系、问题,其中所述接收问题是根据所述主题实体和所述实体关系提出,且能由实体回答。
本发明实施例提供一种基于模板序列模型生成问题的装置,包括:
文本抽取模型模块:用于对用于生成问题的文本内容输入到联合模型中,利用所述联合模型对所述文本进行分类,得到预测文本;
文本关系识别模型模块:用于根据所述预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据所述文本关系识别模型中设置的字词级和语句级的注意力机制对所述文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据所述对应的输入序列对所述字向量和词向量进行分类,获取预测文本的预测关系标签;
序列生成模型模块:用于所述序列生成模型包括编码单元和模板解码单元,输入问题给所述编码单元,并根据所述问题语义映射成对应的多元组向量,并将所述多元组向量依次输入到模板解码单元中,且由模板解码单元的输出为问题模板,根据所述预测关系标签对所述问题模板进行替换。
本发明实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述中任一项所述方法的步骤
与现有技术相比较,本发明提供的一种基于模板与序列相结合模型生成问题的方法,具备以下有益效果:
构建文本抽取模型,根据文本抽取模型中设置的双向长短记忆网络模型和条件随机场模型对用于生成问题的文本进行分类,得到预测文本。之后又对预测文本进行关系识别,加入了字词级和字句级的文本关系模型使得该预测文本的分类更为准确,进而获取的预测关系标签更符合文本语义,不存在语句不通顺、与文本内容不匹配的问题。输入问题至序列生成模型中的编码单元,再由生成序列生成模型中的模板解码单元输出为问题模板,可根据文本识别模型中得到的预测关系标签对序列生成模型中的问题模板进行替换,即将输出模板中的主题实体可被任意标签替换,此时生成的问题种类比较灵活、语言类型丰富。
应当理解,前面的一般描述和以下详细描述都仅是示例性和说明性的,而不是用于限制本公开。
本申请文件提供本公开中描述的技术的各种实现或示例的概述,并不是所公开技术的全部范围或所有特征的全面公开。
附图说明
图1是本发明实施例中的实体关系标签示意图;
图2是本发明实施例中训练集和测试集合所使用的格式示意图;
图3是本发明实施例中基于知识图谱生成的的部分实例示意图;
图4是本发明实施中基于知识图谱的问题生成实验结果示意图;
图5是本发明实施例中实体抽取功能的整体框架示意图;
图6是本发明实施例中实体抽取模型结构的整体结构示意图;
图7是本发明实施例中实体关系识别功能框架示意图;
图8是本发明实施例中实体关系识别模型结构示意图;
图9是本发明实施中基于序列生成模型的结果示意图。
具体实施方式
为了使得本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
为了保持本公开实施例的以下说明清楚且简明,本公开实施例省略了已知功能和已知部件的详细说明。
本发明实施例提供了一种基于模板的序列生成模型生成问题的方法,具体包括:
构建文本抽取模型:对用于生成问题的文本内容输入到联合模型中,利用联合模型对文本进行分类,得到预测文本。文本抽取模型包括字词向量表示、语句特征提取和语句级的序列标注三层结构。
联合模型为双向长短记忆网络模型(Bi-LSTMs)和条件随机场模型的联合结构,基于双向长短记忆网络抽取语句实体和实体上下文信息,使用条件随机场对实体进行分类。使用BIO标注策略对数据集进行序列标注,基于双向长短记忆网络(Bi-LSTMs),将语句中的各个字向量经过一层Bi-LSTMs网络,拼接Bi-LSTMs网络正向和反向的隐含状态序列,使得模型学习到各个词向量的上下文信息,使用条件随机场对Bi-LSTMs网络输出的隐含状态序列进行有监督学习,最后使用归一化函数得到语句中的各个词语的分类概率。
在本发明实施例中,参考图5和图6,实体抽取功能的整体框架图分为了实体抽取的训练部分和实体抽取的测试部分将文本集数据进行划分,实体抽取模型结构图中的条件随机场CRF层,“B-PER”、“O”、“B-LOC”是标注策略,将文本数据的80%作为训练集,剩下的20%作为测试集。
在本发明实施例中,参考图2,为训练集和测试集所使用的格式,包括问题、对应于问题的三元组、问题的答案,使得最后的文本抽取模型具有典型的文本特征。
具体的,给定一个文本,进行数据集构造—序列标注,因为文本是连续的句子,对其进行分词得到每个字和词语,这样可在基于对文本中出现的每个字和出现的词语对文本进行结构化表示。对得到的字、词进行序列标注得到训练集文本,此时不对训练集文本进行训练,直接进行建模,即将其作为双向长短记忆网络的输入进行无监督训练,即执行Bi-LSTMs无监督学习。
利用双向长短记忆网络模型初始化训练集文本的权重以及构建特征向量,其中,因为一般的数学模型接收只接收数值输入,所以还要将文本转换成向量表示,向量表示包括为字向量、词向量,即应当理解为一个文本所代表的语义里面用向量表示时包含有数值1和0。训练集文本的权重值应该理解为对用于生成问题的文本内容找到一个关键词,能代表该词对该文本的重要程度,也侧面的反映了该词预测文本主题的能力。此时用空间向量模型,将文本的集合看成空间向量中的多个向量,每个词对应有坐标轴,坐标轴上有对应词的权重值,构建成所述的特征空间。
基于特征空间和文本的权重,利用条件随机场模型对训练集文本进行有监督学习,即执行图5中CRF有监督学习。通过带有标签的训练集文本进行训练,得到一个最优模型,利用这个模型将训练集映射为相应的输出,对输出进行判断实现分类,其中训练模型最优选择的是条件随机场模型,基于条件随机场模型对训练集文本进行分词,而其实对于中文分词的模型工具有很多,在这里不再赘述。
基于上述步骤,使用归一化函数获得训练集文本中各个字词的分类概率;利用得到的分类概率进行分类得到预测文本。
构建文本关系识别模型:根据预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据文本关系识别模型中设置的字词级和语句级的注意力机制对所述文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据对应的输入序列对文本进行分类,也可理解为对文本对应的字向量和词向量进行分类。
在本发明实施例中,参考图7和图8,实体关系识别模型分为了实体关系识别的训练部分和实体关系识别的测试部分,将文本集数据的80%作为训练集,剩下的20%作为测试集。
参考图2,为本发明实施例提供的一种训练集和测试集所用的格式,根据输入的问题设置的三元组内容包括主题实体、实体关系、实体。在其他实施例中,根据提出的问题映射出的多元组包括但不限于二元组、四元组等。
具体的,对实体抽取模型输出的预测文本对数据集进行构造,参考图8,该实体关系识别模型中添加了字词级AM的BI-GIU和语句级AM的BI-GIU,除此该模型还包括基础的输入表示层以及实体关系分类层;
实体分类关系层中具体包括有隐含层,该隐含层的目的是获取更清晰更好的分类效果。
输入层用于将输入的文字转换成向量的表示,用于获取文本语义特征向量;
字词级层学习用于学习文本上下文的内容信息,得到每个字词对文本语义信息的重要程度;
语句级层学习用于根据上下文语句,给每个输出字词分配不同的权重,获取字词对语句信息的重要程度。
具体的,利用Tensorflow框架构建双向门控制单元层与AM的联合结构,利用带有关系标签的训练数据集进行训练,以构建实体关系识别模型。
带有关系标签的训练数据集格式参考上述抽取模型的图2提到的格式。
构建文本关系识别模型步骤包括:
将预测文本输入到预训练的Word2vec模型中将连续文字转换成低维稠密的向量表示,其中向量表示为文本语义特征向量,将文本语义特征向量输入至构建文本关系识别模型的字词级学习层中进行学习,获得所述文本语义特征向量包含的字义信息、词义信息和上下文信息;
用空间向量模型,将文本的集合看成空间向量中的多个向量,每个词对应有坐标轴,坐标轴上有对应词的权重值,构建成所述的特征空间,此时,Bi-GRUs结构实现了权值的初始化以及特征空间的构造。
构建文本关系识别模型步骤还包括:
获得文本语义特征向量时,要理解文本语义,不止需要词向量,也需要获得一些句子级的向量。来判断该句子向量的下一句是当前的句子还是噪声,即通过在文本关系识别模型中设置语句级AM的Bi-GRU层,它的作用是根据上下文语句,给每个输出字词分配不同的权重,获取词语对语句信息的重要程度,通过加权平均值得到每个词语的attention值。
对attention值进行归一化处理,得训练集文本中各个字词的分类概率,基于分类概率得到文本语义特征向量的预测关系标签,关系标签参考图1,根据预测关系标签对预测文本进行分类得到主题实体,其中通过调整参数来将预测关系标签与真实标签间的误差最小。
以下面文本为例:输入文本:“懂爱的女人通常输得很惨,爱情本来就是残忍的,胜者为王。感情可以转账,婚姻可以随时冻结,爱情善贾而沽”,通过文本识别模型最后将其分类为“女性”,即该段文本获得的语句实体是“女性”。输入文本为“数据之间的逻辑关系?”,通过文本识别模型后将其分类为“数据”,即该段的语句实体为“数据”。
参考图1,预测关系标签采用HowNet定义的16种标签和5种自定义标签,采用的训练集格式为文本1、文本2、关系标签、文本对共同出现的语句。
构建序列生成模型,请参考图9,序列生成模型包括编码单元和模板解码单元,编码单元接收问题,并映射成对应的多元组向量,并将所述多元组向量依次输入到模板解码单元中,且由模板解码单元的输出为问题模板,根据所述预测关系标签对所述问题模板进行替换。
在本实施例中,所述编码单元为三元组编码器,基于三元组编码器,输入一个三元组F=(主题实体T,实体关系R,实体O),表示为提出一个和主题实体T且具有关系R的问题,并且能由实体O回答,三元组的实例如图2所示。首先使用三元组编码器将三元组并将词语映射到一个实值的向量空间,然后将把向量依次输入到模板解码单元中,模板解码单元的输出为主题实体被任意标签替换的问题模板。
利用模板解码单元,将标签替换成特定的主题实体T,从而将问题模板转换成完整问题。
请参考图3,实际问题为“逻辑结构的概念是什么”,基于本发明的方法,最后生成的问题是“S的定义是什么?”,语义预测精准,S应该理解为是文本主题,也就是进行分类得到的语句实体,且S具有预测关系标签的数据,即S可以对该数据进行堆排序,形成完全二叉树,可理解为S内容包括但不限于为逻辑结构,保证了生成问题的完整性。
为了对比模型效果,本实施案列使用相同的问题生成数据集和实验环境,设计了基于知识图谱的问题生成实验,对比了三种问题生成方法产生问题的正确性。将本案列的使用的模型与基于模板和基于序列生成模型进行对比,使用BLEU测度,METEOR测度,ROUGE测度三个评价标准衡量这三种方法生成问题的优劣,对比实验结果如下图4的表格所示,性能最佳。
本发明还提出一种基于模板的序列生成模型生成问题的装置,包括:
文本抽取模型模块:用于对用于生成问题的文本内容输入到联合模型中,利用联合模型对所述文本进行分类,得到预测文本;
文本关系识别模型模块:用于根据预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据文本关系识别模型中设置的字词级和语句级的注意力机制对文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据对应的输入序列对所述字向量和词向量进行分类;
序列生成模型模块:用于序列生成模型包括编码单元和模板解码单元,编码单元接收问题,并映射成对应的多元组向量,并将多元组向量依次输入到模板解码单元中,且由模板解码单元的输出为问题模板,根据预测关系标签对所述问题模板进行替换。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述基于模板序列模型生成问题的方法及对应***的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述一种基于模板序列模型生成问题的方法及对应***的步骤。
上述实施例是对本发明的说明,不是对本发明的限定,任何对本发明简单变换后的方案均属于本发明的保护范围。

Claims (10)

1.一种基于模板的序列生成模型生成问题的方法,其特征在于,
构建文本抽取模型:对用于生成问题的文本输入到联合模型中,利用所述联合模型对所述文本进行分类,得到预测文本;
构建文本关系识别模型:根据所述预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据所述文本关系识别模型中设置的字词级和语句级的注意力机制对所述文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据所述对应的输入序列对所述字向量和词向量进行分类,获取预测文本的预测关系标签;
构建序列生成模型,所述序列生成模型包括编码单元和模板解码单元,输入问题给所述编码单元,并根据所述问题语义映射成对应的多元组向量,并将所述多元组向量依次输入到模板解码单元中,且由模板解码单元输出为问题模板,根据所述预测关系标签对所述问题模板进行替换。
2.根据权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,所述文本关系识别模型包括输入表示层、字词级层、语句级层以及实体关系分类层,其中,
输入层用于将输入的文字转换成向量的表示,用于获取文本语义特征向量;
字词级层学习用于学习所述文本上下文的内容信息,得到每个字词对文本语义信息的重要程度;
语句级层学习用于根据上下文语句,给每个输出字词分配不同的权重,获取字词对语句信息的重要程度;
实体关系分类层对语句信息的重要程度进行归一化处理,得到向量的关系标签,从而对实体间的关系进行分类。
3.如权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,构建所述文本抽取模型步骤包括:
所述联合模型为双向长短记忆网络模型和条件随机场模型的联合结构,所述文本抽取模型包括字词向量表示、语句特征提取和语句级的序列标注三层结构,
其中对所述文本数据进行序列标注得到训练集文本,
读取所述训练集文本作为双向长短记忆网络模型的输入进行无监督训练,使得双向长短记忆网络模型初始化所述训练集文本的权值以及构建特征空间;
基于所述特征空间和文本的权值,利用条件随机场模型对所述训练集文本进行有监督学习;
使用归一化函数获得所述训练集文本中各个字词的分类概率;
利用得到的分类概率进行分类得到所述预测文本。
4.如权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,构建文本关系识别模型步骤包括:
将所述预测文本内容输入到预训练的Word2vec模型中将文字转换成低维稠密的向量表示,其中所述向量表示为文本语义特征向量,将所述文本语义特征向量输入至构建文本关系识别模型的字词级层中,获得所述文本语义特征向量包含的字义信息、词义信息和上下文信息。
5.如权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,构建文本关系识别模型步骤还包括:
获得文本语义特征向量后,将所述文本语义特征向量输入至构建文本关系识别模型的语句级学***均值法得到每个字词的attention值;
对所述attention值进行归一化处理,得到所述文本语义特征向量的预测关系标签,根据所述预测关系标签对所述预测文本进行分类得到语句实体。
6.如权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,所述预测关系标签采用HowNet定义的16种标签和5种自定义标签。
7.如权利要求1所述的一种基于模板的序列生成模型生成问题的方法,其特征在于,将所述输入问题映射成对应的多元组向量时的内容至少包括主题实体、实体关系、实体,其中所述输入问题是根据所述主题实体和所述实体关系提出,且能由所述实体回答。
8.一种基于模板的序列生成模型生成问题的装置,其特征在于,包括:
文本抽取模型模块:用于对用于生成问题的文本内容输入到基于模板序列的联合模型中,利用所述联合模型对所述文本进行分类,得到预测文本;
文本关系识别模型模块:用于根据所述预测文本内容获取文本语义特征向量,利用带有关系标签的训练集训练所述文本关系识别模型,其中根据所述文本关系识别模型中设置的字词级和语句级的注意力机制对所述文本语义特征向量进行训练,可获得字向量和词向量对应的输入序列,根据所述对应的输入序列对所述字向量和词向量进行分类,获取预测文本的预测关系标签;
序列生成模型模块:用于所述序列生成模型包括编码单元和模板解码单元,输入问题给所述编码单元,并根据所述问题语义映射成对应的多元组向量,并将所述多元组向量依次输入到模板解码单元中,且由模板解码单元的输出为问题模板,根据所述预测关系标签对所述问题模板进行替换。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1-7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序包括程序命令,所述程序指令被处理器执行时,执行如权利要求1-7任一项所述的方法。
CN202110181755.6A 2021-02-09 2021-02-09 一种基于模板的序列生成模型生成问题的方法及装置 Active CN112836482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110181755.6A CN112836482B (zh) 2021-02-09 2021-02-09 一种基于模板的序列生成模型生成问题的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110181755.6A CN112836482B (zh) 2021-02-09 2021-02-09 一种基于模板的序列生成模型生成问题的方法及装置

Publications (2)

Publication Number Publication Date
CN112836482A true CN112836482A (zh) 2021-05-25
CN112836482B CN112836482B (zh) 2024-02-23

Family

ID=75933448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110181755.6A Active CN112836482B (zh) 2021-02-09 2021-02-09 一种基于模板的序列生成模型生成问题的方法及装置

Country Status (1)

Country Link
CN (1) CN112836482B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114298001A (zh) * 2021-11-29 2022-04-08 腾讯科技(深圳)有限公司 语料模板生成方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9984062B1 (en) * 2015-07-10 2018-05-29 Google Llc Generating author vectors
US20180329884A1 (en) * 2017-05-12 2018-11-15 Rsvp Technologies Inc. Neural contextual conversation learning
CN108897857A (zh) * 2018-06-28 2018-11-27 东华大学 面向领域的中文文本主题句生成方法
CN109408812A (zh) * 2018-09-30 2019-03-01 北京工业大学 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN109582789A (zh) * 2018-11-12 2019-04-05 北京大学 基于语义单元信息的文本多标签分类方法
CN110688491A (zh) * 2019-09-25 2020-01-14 暨南大学 基于深度学习的机器阅读理解方法、***、设备及介质
US20200073933A1 (en) * 2018-08-29 2020-03-05 National University Of Defense Technology Multi-triplet extraction method based on entity-relation joint extraction model
CN111767409A (zh) * 2020-06-14 2020-10-13 南开大学 一种基于多头自注意力机制的实体关系抽取方法
WO2020232861A1 (zh) * 2019-05-20 2020-11-26 平安科技(深圳)有限公司 命名实体识别方法、电子装置及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9984062B1 (en) * 2015-07-10 2018-05-29 Google Llc Generating author vectors
US20180329884A1 (en) * 2017-05-12 2018-11-15 Rsvp Technologies Inc. Neural contextual conversation learning
CN108897857A (zh) * 2018-06-28 2018-11-27 东华大学 面向领域的中文文本主题句生成方法
US20200073933A1 (en) * 2018-08-29 2020-03-05 National University Of Defense Technology Multi-triplet extraction method based on entity-relation joint extraction model
CN109408812A (zh) * 2018-09-30 2019-03-01 北京工业大学 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN109582789A (zh) * 2018-11-12 2019-04-05 北京大学 基于语义单元信息的文本多标签分类方法
WO2020232861A1 (zh) * 2019-05-20 2020-11-26 平安科技(深圳)有限公司 命名实体识别方法、电子装置及存储介质
CN110688491A (zh) * 2019-09-25 2020-01-14 暨南大学 基于深度学习的机器阅读理解方法、***、设备及介质
CN111767409A (zh) * 2020-06-14 2020-10-13 南开大学 一种基于多头自注意力机制的实体关系抽取方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YUANLI: "Towards Chinese clinical named entity recognition by dynamic embedding using domain-specific knowledge", JOURNAL OF BIOMEDICAL INFORMATICS, vol. 106, pages 1 - 9 *
冯读娟;杨璐;严建峰;: "基于双编码器结构的文本自动摘要研究", 计算机工程, no. 06, pages 66 - 70 *
杨丹浩;吴岳辛;范春晓;: "一种基于注意力机制的中文短文本关键词提取模型", 计算机科学, no. 01, pages 199 - 204 *
董黎刚 等: "面向SDN的动态网络策略部署与实现", 电信科学, vol. 32, no. 10, pages 137 - 138 *
陈文实;: "基于编码解码器与深度主题特征抽取的多标签文本分类", 南京师大学报, vol. 42, no. 4, pages 61 - 68 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114298001A (zh) * 2021-11-29 2022-04-08 腾讯科技(深圳)有限公司 语料模板生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112836482B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
Gallant et al. Representing objects, relations, and sequences
CN111738004A (zh) 一种命名实体识别模型的训练方法及命名实体识别的方法
CN111488931B (zh) 文章质量评估方法、文章推荐方法及其对应的装置
CN111985369A (zh) 基于跨模态注意力卷积神经网络的课程领域多模态文档分类方法
CN108830287A (zh) 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法
CN110888927B (zh) 简历信息抽取方法及***
CN111985239A (zh) 实体识别方法、装置、电子设备及存储介质
CN113626589B (zh) 一种基于混合注意力机制的多标签文本分类方法
CN111881262A (zh) 基于多通道神经网络的文本情感分析方法
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
WO2023137911A1 (zh) 基于小样本语料的意图分类方法、装置及计算机设备
CN111597340A (zh) 一种文本分类方法及装置、可读存储介质
CN114972823A (zh) 数据处理方法、装置、设备及计算机介质
CN114330354A (zh) 一种基于词汇增强的事件抽取方法、装置及存储介质
CN116661805B (zh) 代码表示的生成方法和装置、存储介质及电子设备
CN113051887A (zh) 一种公告信息元素抽取方法、***及装置
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN114648031A (zh) 基于双向lstm和多头注意力机制的文本方面级情感识别方法
CN114781375A (zh) 一种基于bert与注意力机制的军事装备关系抽取方法
CN116186237A (zh) 一种基于事件因果推断的实体关系的联合抽取方法
CN113486174A (zh) 模型训练、阅读理解方法、装置、电子设备及存储介质
CN112836482B (zh) 一种基于模板的序列生成模型生成问题的方法及装置
CN114519353B (zh) 模型的训练方法、情感消息生成方法和装置、设备、介质
CN116127954A (zh) 一种基于词典的新工科专业中文知识概念抽取方法
CN115659242A (zh) 一种基于模态增强卷积图的多模态情感分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant