CN117194633A - 基于多层级多路径的大坝应急响应知识问答***及实现方法 - Google Patents

基于多层级多路径的大坝应急响应知识问答***及实现方法 Download PDF

Info

Publication number
CN117194633A
CN117194633A CN202311170167.8A CN202311170167A CN117194633A CN 117194633 A CN117194633 A CN 117194633A CN 202311170167 A CN202311170167 A CN 202311170167A CN 117194633 A CN117194633 A CN 117194633A
Authority
CN
China
Prior art keywords
candidate
question
matching
relation
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311170167.8A
Other languages
English (en)
Other versions
CN117194633B (zh
Inventor
毛莺池
王彪
庞天富
潘祯祥
戚荣志
李想
吴厚宇
王子成
丁斯龙
荣毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202311170167.8A priority Critical patent/CN117194633B/zh
Priority claimed from CN202311170167.8A external-priority patent/CN117194633B/zh
Publication of CN117194633A publication Critical patent/CN117194633A/zh
Application granted granted Critical
Publication of CN117194633B publication Critical patent/CN117194633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种基于多层级多路径的大坝应急响应知识问答***及实现方法,从问句中找到主题实体,并查找知识库中的候选三元组;根据候选关系的不同粒度,分别从词级、Token级和关系级对后候选关系进行多层级表示;实体类型‑候选关系匹配获取相似性分数,以全局角度扩大目标关系与非目标关系之间的差距;局部问句‑候选关系匹配模型匹配问题模板和关系之间的字面信息;借助全局问句‑候选关系匹配模型获取语义交互信息;整合多路径的匹配分数,进而得到最终关系排序。通过上述的多层级多路径匹配的关系预测方法充分考虑问句和候选关系之间丰富的交互作用,提高了知识库问答***的性能。

Description

基于多层级多路径的大坝应急响应知识问答***及实现方法
技术领域
本发明涉及一种基于多层级多路径的大坝应急响应知识问答***及其实现方法,属于自然语言处理技术领域。
背景技术
大坝应急响应是指在大坝可能出现突发情况时,为保障大坝和周边人员财产安全而采取的一系列措施。它的目的是最大限度地减少灾害损失,保障大坝的安全稳定运行。大坝应急响应的重点是预防性和主动性,它需要预先制定应急预案,对可能出现的危险情况做出预测和预警,并在事故发生后迅速、有序地组织应急响应。大坝应急响应是保障大坝安全运行的一项重要工作,它需要综合考虑技术、管理、应急物资等方面的因素,提高应急响应的能力,降低大坝运行风险。
在信息抽取领域,一般的关系预测方法被称为关系抽取。关系抽取研究与面向知识库问答的关系预测之间存在着明显的差距。首先,在大多数一般的关系预测任务中,目标关系的数量是有限的,通常小于100个。相比之下,在知识库问答中,即使是一个很小的知识库,如FB2M,也包含超过6000种关系类型。其次,对于一些知识库问答任务,需要预测的不是一个单一的关系,而是多个关系或者一个关系链。这就大大增加了候选关系的数量,进一步增加了知识库关系预测的难度。一般的关系预测方法在自然语言处理领域得到了很好的研究,但这些研究通常没有考虑到知识库问答的特异性。在大坝应急响应领域,建立一个知识库问答***可以帮助应急工作人员和研究人员更好地利用和理解大坝相关的信息。然而,与一般的关系预测任务相比,这样的***可能会面临更多的困难,因为大坝领域具有其特有的特点和复杂性。首先,大坝应急响应知识库问答***包含多样的关系类型和多模式实体。大坝应急响应知识库可能包含各种与大坝相关的关系类型,如大坝类型、地理位置、水位监测、工程设计等。这些关系可能涉及多个实体类型,如大坝名称、地理坐标、监测数据等。因此,***需要能够处理大量的关系类型和实体类型。其次,大坝应急响应知识库问答***包含复杂的关系链。在应急响应情境中,需要回答复杂问题,例如:“某大坝的水位升高,导致了什么安全风险?”这可能涉及识别与水位升高相关的一系列关系,如水位监测、洪水预警、堤岸稳定性等。***需要能够有效地构建和分析这些关系链。由于这些原因,面向大坝应急响应知识库问答的关系预测明显比一般的关系预测任务更具有挑战性,现有技术中的知识问答***没有考虑问句和候选关系之间丰富的交互作用,无法解决因在大坝应急响应特定情况下自然语言的灵活性导致的问句多样形式与关系逻辑形式的匹配问题。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提供了一种基于多层级多路径的大坝应急响应知识问答***及其实现方法,充分考虑问句和候选关系之间丰富的交互作用,可以解决因在大坝应急响应特定情况下自然语言的灵活性导致的问句多样形式与关系逻辑形式的匹配问题。
技术方案:一种基于多层级多路径的大坝应急响应知识问答***的实现方法,包括以下步骤:
(1)查找候选三元组:大坝应急响应知识库问答***从问题中找到主题实体,相当于找到知识库中相应事实三元组的头实体,并查找出对应的候选三元组。
(2)多层级表示:根据候选关系的不同粒度,分别从词级(Word-level)、Token级(Token-level)和关系级(Relation-level)对候选关系进行多层级表示,全面挖掘候选关系的特征信息。
(3)实体类型-候选关系匹配:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度。利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度。实体类型与候选关系的最终匹配得分st通过综合上述实体类型与候选关系之间的整体匹配程度和词级匹配程度两个匹配程度来计算。
(4)局部问句-候选关系匹配:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将给定的问句模板和词级候选关系嵌入。选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句向量和候选关系向量的匹配分数sl
(5)全局问句-候选关系匹配:构建全局问句-候选关系匹配模型,使用双向简单循环单元(Bidirectional Simple Recurrent Unit,BiSRU)将输入序列词嵌入Eq向量编码为连续向量。该全局问句-候选关系匹配模型中的注意力层确定生成的全局问句向量和候选关系向量的匹配分数sg。全局问句-候选关系匹配模型的聚合层用于提取问句模板和候选关系之间的相似性特征。
(6)整合多路径的匹配分数:分别将从实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl和全局问句向量和候选关系向量的匹配分数sg三个匹配分数进行串联拼接,计算候选关系的最终排名分数。
进一步的,所述步骤(1)中查找候选三元组的具体步骤如下:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体,相当于找到大坝应急响应知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组。
进一步的,所述步骤(2)中多层级表示的具体如下:分别从词级(Word-level)、Token级(Token-level)和关系级(Relation-level)对候选关系进行多层级表示,全面挖掘候选关系的特征信息。其中,Word-level以“/”和“_”为分隔符将关系名称拆分成一个单词序列,Token-level将关系的domain(领域)、type(类型)部分视为第一个Token,topic(主题)部分视为第二个Token。Relation-level将整个关系名称视为一个整体。
进一步的,所述步骤(3)中实体类型-候选关系匹配的具体步骤如下:
(3.1)利用大坝应急响应知识库中的事实三元组整体信息,将实体类型和候选关系的domain、type部分分别看成一个整体。设t为实体类型的嵌入,r为候选关系domain和type部分的嵌入。使用余弦相似性来度量实体类型与候选关系之间的整体匹配得分,计算方法如下公式所示:
其中,cosin为余弦相似性操作。
(3.2)利用词级信息。将实体类型和候选关系的domain和type部分都拆分成单词序列。设T=(t1,t2,...,tn)表示实体类型序列的词嵌入,T的第i个维度的元素为ti,R=(r1,r2,...,rm)表示候选关系domain和type部分的词嵌入,R的第i个维度的元素为ri。借助矩阵相乘运算,得到n×m维的词义相似性矩阵,如下公式所示:
Mt=TRT
(3.3)将相似矩阵Mt进行卷积和双向最大池化操作,得到双向相似性得分,再将双向相似性分数进行拼接得到实体类型和候选关系之间的词级匹配得分
(3.4)实体类型与候选关系的最终匹配得分st通过综合上述两个匹配程度来计算,如下公式所示:
其中,是线性映射向量,/>表示二维实数集,/>表示整体匹配得分和词级匹配得分/>的串联拼接。
进一步的,所述步骤(4)中局部问句-候选关系匹配的具体步骤如下:
(4.1)给定问句模板q=(x1,x2,...,x|q|),其中元素x表示问句模板中嵌入前的单词,问候选关系r=(y1,y2,...,y|r|),其中元素y指的是候选关系嵌入之前的单词,局部问句-候选关系匹配模型使用预训练的Glove模型将问句模板q和候选关系r表示为嵌入向量Eq=(w1,w2,...,w|q|)和Er=(v1,v2,...,v|r|)。其中,分别表示问句模板q和候选关系r中第i个单词和第j个单词的嵌入向量。选择CNN来获取问句模板-候选关系的字面匹配。利用矩阵相乘操作得到|q|×|r|维的字面交互矩阵M,公式如下所示:
(4.2)将字面交互矩阵M输入到卷积神经网络的卷积层,以获取字面相似特征映射。在行方向和列方向上对字面相似特征映射进行最大池化操作,再输入到卷积神经网络的全连接层,以便在两个方向上分别获取匹配嵌入向量,如下公式所示:
其中,conv表示卷积操作,maxPoolr、maxPoolc分别表示行、列方向上的最大池化操作,Wr、Wc表示权重矩阵,ReLU是激活函数。
(4.3)通过卷积神经网络的线性层得到相似度得分,即局部问句向量和候选关系向量的匹配分数sl,以衡量问句模板和候选关系之间的字面相似性,如下公式所示:
sl=ervr+ecvc
其中,是线性映射向量。
进一步的,所述步骤(5)中全局问句-候选关系匹配的具体步骤如下:
(5.1)给定问句模板q=(x1,x2,...,x|q|)和词嵌入Eq=(w1,w2,...,w|q|)。全局问句-候选关系匹配模型中有BISRU网络、注意力层和聚合层。将词嵌入Eq输入到BiSRU网络,并将每个时间步长的隐藏状态从两个相反方向连接起来,作为问句模板序列的编码,如下公式所示:
Q=BiSRU(w1,w2,...,w|q|)={h1,h2,...,h|q|}
其中,表示在时间i从BiSRU的两个相反方向串联的隐藏状态,d是隐藏层状态的数量,/>
(5.2)另一个BiSRU网络被应用于捕获候选关系的上下文感知表示R′,让全局问句-候选关系匹配模型能够更全面地理解关系上下文,提高关系预测的准确性。
(5.3)全局问句-候选关系匹配模型中的注意力层用于确定生成的问句模板向量Q和候选关系的上下文感知表示R′的匹配分数。根据问句模板的第m个部分Qm和候选关系的第n个部分r′n之间的注意力权重amn,得到亲和矩阵Ma,注意力权重amn为亲和矩阵Ma的元素,如公式所示:
amn=f(Qm)Tf(R′n)
其中,f表示线性层。
在亲和矩阵Ma的i行(1≤i≤|q|)、j列(1≤j≤|r|)两个方向上进行归一化,用于问句模板匹配候选关系的每个部分以及候选关系匹配问句模板的每个部分,如下公式所示:
其中,softmaxc表示在亲和矩阵Ma列方向进行归一化,softmaxr表示在亲和矩阵Ma行方向进行归一化,q′j是匹配候选关系第j个部分的问句模板部分,r′i是匹配问句模板第i个部分的候选关系部分。
(5.4)全局问句-候选关系匹配模型聚合层用于提取问句模板和候选关系之间的相似性特征。首先,将匹配候选关系第j个部分的问句模板部分q′j,匹配问句模板第i个部分的候选关系部分r′i,以及q′j与r′i乘积结果,输送到带有ReLU激活函数的非线性层,接着进行串联得到βx。将q′j输送到线性层得到αy。然后,聚合αy、βx,使用最大池化操作得到最显著特征α和β。最后,利用余弦相似性计算问句模板与候选的语义相似度,即全局问句向量和候选关系向量的匹配分数sg,计算方法如下公式所示:
sg=cosin(α,β)
进一步的,所述步骤(6)中整合多路径的匹配分数的具体步骤如下:在基于多层级多路径的大坝应急响应知识问答***中,***根据输入大坝应急响应知识的问题,找到与问题中主体相关联的候选三元组。通过对候选三元组中关系的不同粒度进行多层级地提取特征,从实体类型-候选关系匹配、局部问句模板-候选关系匹配和全局问句模板-候选关系匹配多条路径获取匹配分数,包括:实体类型与候选关系的最终匹配得分st,局部问句向量和候选关系向量的匹配分数sl,以及全局问句向量和候选关系向量的匹配分数sg。将这三个匹配得分st、sl和sg输入到线性网络来计算候选关系的最终排名分数,最终得到应急响应问题的答案。最终排名分数的计算公式如下所示:
其中,是线性映射向量,/>表示实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl以及全局问句向量和候选关系向量的匹配分数sg的串联拼接。
一种基于多层级多路径的大坝应急响应知识问答***,包括以下模块:
(1)查找候选三元组模块:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体,相当于找到知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组。
(2)多层级表示模块:根据候选关系的不同粒度,分别从词级(Word-level)、Token级(Token-level)和关系级(Relation-level)对候选关系进行多层级表示,全面挖掘候选关系的特征信息。
(3)实体类型-候选关系匹配模块:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度。利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度。实体类型与候选关系的最终匹配得分st通过综合上述实体类型与候选关系之间的整体匹配程度和词级匹配程度两个匹配程度来计算。
(4)局部问句-候选关系匹配模块:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将问句和关系嵌入。选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句向量和候选关系向量的匹配分数sk
(5)全局问句-候选关系匹配模块:构建全局问句-候选关系匹配模型,使用双向简单循环单元(Bidirectional Simple Recurrent Unit,BiSRU)将输入序列编码为连续向量。全局问句-候选关系匹配模型中的注意力层确定生成的全局问句向量和候选关系向量的匹配分数。全局问句-候选关系匹配模型的聚合层用于提取问句模板和候选关系之间的相似性特征。
(6)整合多路径的匹配分数模块:分别将实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl以及全局问句向量和候选关系向量的匹配分数sg三个匹配分数进行串联拼接,计算候选关系的最终排名分数。
一种计算机设备,该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述计算机程序时实现如上所述的基于多层级多路径的大坝应急响应知识问答***的实现方法。
一种计算机可读存储介质,该计算机可读存储介质存储有执行如上所述的基于多层级多路径的大坝应急响应知识问答***的实现方法的计算机程序。
有益效果:本发明与现有技术相比具有以下优点:本发明提供的基于多层级多路径的大坝应急响应知识问答***及其实现方法,充分考虑问句和候选关系之间丰富的交互作用,可以解决因在大坝应急响应特定情况下自然语言的灵活性导致的问句多样形式与关系逻辑形式的匹配问题。在大坝应急响应情境下,关系可能非常复杂,因此对候选关系进行多层级表示,全面挖掘候选关系的特征信息;引入实体类型信息可以扩大目标关系与非目标关系之间的差距,特别是在大坝应急响应中,不同类型的实体可能会涉及不同的应急措施和风险评估,利用实体类型与候选关系的domain、type结构之间的匹配程度来提高关系预测的性能;局部问句-候选关系匹配模型使用词级粒度的候选关系表示形式来匹配问题模板和关系之间的字面信息;全局问句-候选关系匹配模型,使用关系级粒度的候选关系表示形式来匹配问句模板-候选关系之间的语义信息。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例的基于多层级多路径的大坝应急响应知识问答***框架图;
图3为本发明实施例的基于实体类型匹配的关系框架图;
图4为本发明实施例的基于问句模板匹配的关系预测局部模型框架图;
图5为本发明实施例的基于问句模板匹配的关系预测全局模型框架图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示,一种基于多层级多路径的大坝应急响应知识问答***的实现方法,具体包含以下步骤:
步骤(1)查找候选三元组:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体,相当于找到知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组。
例如,输入问句“出现大坝结构受损的处置措施有哪些?”。问答***会提取“大坝结构受损”这个主体,然后在知识库中找到所有的该实体的三元组,如(大坝结构受损,大坝危机险情/处置/应急方案,控制车辆在受损部位附近通行),(大坝结构受损,大坝/现状/原因,洪水冲击)等多个候选三元组。
步骤(2)多层级表示:根据候选关系的不同粒度,分别从词级(Word-level)、Token级(Token-level)和关系级(Relation-level)对候选关系进行多层级表示,全面挖掘候选关系的特征信息。其中,Word-level以“/”和“_”为分隔符将关系名称拆分成一个单词序列,Token-level将关系的domain、type部分视为第一个Token,topic部分视为第二个Token。Relation-level将整个关系名称视为一个整体。
将(大坝结构受损,险情/处置/应急方案,控制车辆在受损部位附近通行)三元组中的关系拆分的词级可以为险情/处置/应急方案。此关系的前两个即domain、type是与头实体相关的属性。险情、处置表示大坝结构受损实体是大坝出现险情了。险情、处置作为第一个Token。
将整个关系(大坝结构受损,险情/处置/应急方案,控制车辆在受损部位附近通行)视为一个整体。
(3)实体类型-候选关系匹配:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度。利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度。实体类型与候选关系的最终匹配得分st通过综合上述实体类型与候选关系之间的整体匹配程度和词级匹配程度两个匹配程度来计算。
步骤(3)中实体类型-候选关系匹配的具体步骤如下:
(3.1)利用大坝应急响应知识库中的事实三元组整体信息,将实体类型和候选关系的domain、type部分分别看成一个整体。假设,t为实体类型的嵌入,r为候选关系domain和type部分的嵌入。使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度,计算方法如下公式所示:
其中,cosin为余弦相似性操作。
(3.2)利用词级信息。将实体类型和候选关系的domain和type部分都拆分成单词序列。假设T=(t1,t2,...,tn)表示实体类型序列的词嵌入,T的第i个维度的元素为ti,R=(r1,r2,...,rm)表示候选关系domain和type部分的词嵌入。借助矩阵相乘运算,得到n×m维的词义相似性矩阵,如下公式所示:
Mt=TRT
(3.3)将相似矩阵Mt进行卷积和双向最大池化操作,得到双向相似性得分,再将双向相似性分数进行拼接得到实体类型和候选关系之间的词级匹配得分
(3.4)实体类型与候选关系的最终匹配得分st通过综合上述两个得分来计算,如公式所示:
其中,是线性映射向量,/>表示整体匹配得分/>和词级匹配得分/>的串联拼接。
(4)局部问句-候选关系匹配:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将给定的问句模板和词级候选关系嵌入。选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句向量和候选关系向量的匹配分数sl
步骤(4)中局部问句-候选关系匹配的具体步骤如下:
(4.1)给定问句模板q=(x1,x2,...,x|q|),候选关系r=(y1,y2,...,y|r|),其中元素y指的是候选关系嵌入之前的单词,局部问句-候选关系匹配模型使用预训练的Glove模型将问句模板q和候选关系r表示为嵌入向量Eq=(w1,w2,...,w|q|)和Er=(v1,v2,...,v|r|)。其中, 分别表示问句模板q和候选关系r中第i个单词和第j个单词的嵌入向量。选择CNN来获取问句模板-候选关系的字面匹配。利用矩阵相乘操作得到|q|×|r|维的字面交互矩阵M,公式如所示:
(4.2)将字面交互矩阵输入到卷积层,以获取字面相似特征映射。在行方向和列方向上对字面相似特征映射进行最大池化操作,再输入到全连接层,以便在两个方向上分别获取匹配嵌入向量,如下公式所示:
其中,conv表示卷积操作,maxPoolr、maxPoolc分别表示行、列方向上的最大池化操作,Wr、Wc表示权重矩阵,ReLU是激活函数。
(4.3)通过线性层得到相似度得分,以衡量问句模板和候选关系之间的字面相似性,即局部问句向量和候选关系向量的匹配分数如下公式所示:
sl=ervr+ecvc
其中,是线性映射向量。
(5)全局问句-候选关系匹配:构建全局问句-候选关系匹配模型,使用双向简单循环单元(Bidirectional Simple Recurrent Unit,BiSRU)将输入序列词嵌入Eq编码为连续向量。该全局问句-候选关系匹配模型中的注意力层确定生成的全局问句向量和候选关系向量的匹配分数sg。全局问句-候选关系匹配模型的聚合层用于提取问句模板和候选关系之间的相似性特征。
步骤(5)中全局问句-候选关系匹配的具体步骤如下:
(5.1)给定问句模板q=(x1,x2,...,x|q|)和词嵌入Eq=(w1,w2,...,w|q|)。将词嵌入Eq输入到BiSRU网络,并将每个时间步长的隐藏状态从两个相反方向连接起来,作为问句模板序列的编码,如下公式所示:
Q=BiSRU(w1,w2,...,w|q|)={h1,h2,...,d|q|}
其中,表示在时间i从BiSRU的两个相反方向串联的隐藏状态,h是隐藏层状态的数量,/>
(5.2)另一个BiSRU网络被应用于捕获候选关系的上下文感知表示R′,让全局问句-候选关系匹配模型模型能够更全面地理解关系上下文,提高关系预测的准确性。
(5.3)注意力层用于确定生成的问句模板向量Q和候选关系的上下文感知表示的R′的匹配分数。问句模板的第i个部分和候选关系的第j个部分之间的注意力权重amn,得到亲和矩阵Ma,如公式所示:
amn=f(Qm)Tf(R′n)
其中,f表示线性层。
在亲和矩阵Ma的i行(1≤i≤|q|)、j列(1≤j≤|r|)两个方向上进行归一化,用于问句模板匹配候选关系的每个部分以及候选关系匹配问句模板的每个部分,如公式所示:
其中,softmaxc表示在亲和矩阵Ma列方向进行归一化,softmaxr表示在亲和矩阵Ma行方向进行归一化,q′j是匹配候选关系第j个部分的问句模板部分,r′i是匹配问句模板第i个部分的候选关系部分。
(5.4)聚合层用于提取问句模板和候选关系之间的相似性特征。首先,将匹配候选关系第j个部分的问句模板部分q′j、匹配问句模板第i个部分的候选关系部分r′i和q′j与r′i乘积结果输送到带有ReLU激活函数的非线性层,接着进行串联得到βx。将q′j输送到线性层得到αy。然后,聚合αy、βx,使用最大池化操作得到最显著特征α和β。最后,利用余弦相似性计算问句模板与候选的语义相似度,计算方法如公式所示:
sg=cosin(α,β)
(6)整合多路径的匹配分数:分别将从实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl和全局问句向量和候选关系向量的匹配分数sg三个匹配分数进行串联拼接,计算候选关系的最终排名分数。
步骤(6)中整合多路径的匹配分数的具体步骤如下:在基于多层级多路径的大坝应急响应知识问答***中,***根据输入大坝应急响应知识的问题,找到与问题中主体相关联的候选三元组。通过对候选三元组中关系的不同粒度进行多层级地提取特征,从实体类型-候选关系匹配、局部问句模板-候选关系匹配和全局问句模板-候选关系匹配多条路径获取匹配分数。实体类型“结构受损”和候选关系匹配的一个匹配得分st,问句模板“出现<大坝结构受损>的处置措施有哪些?”和候选关系匹配得到两个匹配得分sl和sg。将这三个匹配得分输入到线性网络来计算候选关系的最终排名分数,如公式所示:
其中,是线性映射向量,/>表示实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl以及全局问句向量和候选关系向量的匹配分数sg的串联拼接。
知识库问答***最后得到候选结果如表1所示:
表1关系预测结果案例
基于多层级多路径的大坝应急响应知识问答***,包括以下模块:
(1)查找候选三元组模块:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体,相当于找到知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组。
(2)多层级表示模块:根据候选关系的不同粒度,分别从词级(Word-level)、Token级(Token-level)和关系级(Relation-level)对候选关系进行多层级表示,全面挖掘候选关系的特征信息。
(3)实体类型-候选关系匹配模块:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度。利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度。实体类型与候选关系的最终匹配得分st通过综合上述两个匹配程度来计算。
(4)局部问句-候选关系匹配模块:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将给定的问句和词级候选关系嵌入。选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句模板和候选关系之间的字面的相似度分数sl
(5)全局问句-候选关系匹配模块:构建全局问句-候选关系匹配模型,使用双向简单循环单元(Bidirectional Simple Recurrent Unit,BiSRU)将序列词嵌入Eq向量输入编码为连续向量。该全局问句-候选关系匹配模型中的注意力层确定生成的问句向量和候选关系向量的匹配分数sg。聚合层用于提取问句模板和候选关系之间的相似性特征。
(6)整合多路径的匹配分数模块:在基于多层级多路径的大坝应急响应知识问答***中,***根据输入大坝应急响应知识的问题,找到与问题中主体相关联的候选三元组。通过对候选三元组中关系的不同粒度进行多层级地提取特征,从实体类型-候选关系匹配、局部问句模板-候选关系匹配和全局问句模板-候选关系匹配多条路径获取匹配分数。将实体类型和候选关系匹配的一个匹配得分st,局部问句模板以及候选关系匹配得分sl和全局问句模板和候选关系匹配得分sg三个相似分数进行串联拼接,计算候选关系的最终排名分数,得到最终的应急响应的答案。
显然,本领域的技术人员应该明白,上述的本发明实施例的基于多层级多路径的大坝应急响应知识问答***各步骤或基于多层级多路径的大坝应急响应知识问答***各模块可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。

Claims (10)

1.一种基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,包括以下步骤:
(1)查找候选三元组:大坝应急响应知识库问答***从问题中找到主题实体;找到知识库中相应事实三元组的头实体,并查找出对应的候选三元组;
(2)多层级表示:根据候选关系的不同粒度,分别从词级、Token级和关系级对候选关系进行多层级表示;
(3)实体类型-候选关系匹配:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度;利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度;实体类型与候选关系的最终匹配得分st通过综合实体类型与候选关系之间的整体匹配程度和词级匹配程度两个匹配程度来计算;
(4)局部问句-候选关系匹配:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将给定的问句模板和词级候选关系嵌入;选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句向量和候选关系向量的匹配分数sl
(5)全局问句-候选关系匹配:构建全局问句-候选关系匹配模型,使用双向简单循环单元将输入序列词嵌入向量Eq编码为连续向量;全局问句-候选关系匹配模型中的注意力层确定生成的全局问句向量和候选关系向量的匹配分数sg;全局问句-候选关系匹配模型的聚合层用于提取问句模板和候选关系之间的相似性特征;
(6)整合多路径的匹配分数:分别将从实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl和全局问句向量和候选关系向量的匹配分数sg三个匹配分数进行串联拼接,计算候选关系的最终排名分数。
2.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(1)中查找候选三元组:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体,相当于找到大坝应急响应知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组。
3.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(2)中,词级以“/”和“_”为分隔符将关系名称拆分成一个单词序列,Token级将关系的领域、类型部分视为第一个Token,主题部分视为第二个Token;关系级将整个关系名称视为一个整体。
4.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(3)中实体类型-候选关系匹配的具体步骤如下:
(3.1)利用大坝应急响应知识库中的事实三元组整体信息,将实体类型和候选关系的domain、type部分分别看成一个整体;设t为实体类型的嵌入,r为候选关系domain和type部分的嵌入;使用余弦相似性来度量实体类型与候选关系之间的整体匹配得分
(3.2)利用词级信息;将实体类型和候选关系的domain和type部分都拆分成单词序列;设T=(t1,t2,...,tn)表示实体类型序列的词嵌入,T的第i个维度的元素为ti,R=(r1,r2,...,rm)表示候选关系domain和type部分的词嵌入,R的第i个维度的元素为ri;借助矩阵相乘运算,得到n×m维的词义相似性矩阵,如下公式所示:
Mt=TRT
(3.3)将相似矩阵Mt进行卷积和双向最大池化操作,得到双向相似性得分,再将双向相似性分数进行拼接得到实体类型和候选关系之间的词级匹配得分
(3.4)实体类型与候选关系的最终匹配得分st通过综合上述两个匹配程度来计算,如下公式所示:
其中,是线性映射向量,/>表示二维实数集,/>表示整体匹配得分/>和词级匹配得分/>的串联拼接。
5.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(4)中局部问句-候选关系匹配的具体步骤如下:
(4.1)给定问句模板q=(x1,x2,...,x|q|),其中元素x表示问句模板中嵌入前的单词,问候选关系r=(y1,y2,...,y|r|),其中元素y指的是候选关系嵌入之前的单词,局部问句-候选关系匹配模型使用预训练的Glove模型将问句模板q和候选关系r表示为嵌入向量Eq=(w1,w2,...,w|q|)和Er=(v1,v2,...,v|r|);其中,分别表示问句模板q和候选关系r中第i个单词和第j个单词的嵌入向量;选择CNN来获取问句模板-候选关系的字面匹配;利用矩阵相乘操作得到|q|×|r|维的字面交互矩阵M,公式如下所示:
(4.2)将字面交互矩阵M输入到卷积神经网络的卷积层,以获取字面相似特征映射;在行方向和列方向上对字面相似特征映射进行最大池化操作,再输入到卷积神经网络的全连接层,以便在两个方向上分别获取匹配嵌入向量,如下公式所示:
er=ReLU(Wr T×maxPoolr(conv(M)))
ec=ReLU(Wc T×maxPoolc(conv(M)))
其中,conv表示卷积操作,maxPoolr、maxPoolc分别表示行、列方向上的最大池化操作,Wr、Wc表示权重矩阵,ReLU是激活函数;
(4.3)通过卷积神经网络的线性层得到相似度得分,即局部问句向量和候选关系向量的匹配分数sl,以衡量问句模板和候选关系之间的字面相似性,如下公式所示:
sl=ervr+ecvc
其中,是线性映射向量。
6.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(5)中全局问句-候选关系匹配的具体步骤如下:
(5.1)给定问句模板q=(x1,x2,...,x|q|)和词嵌入Eq=(w1,w2,...,w|q|),将词嵌入Eq输入到BiSRU网络,并将每个时间步长的隐藏状态从两个相反方向连接起来,作为问句模板序列的编码;
(5.2)另一个BiSRU网络被应用于捕获候选关系的上下文感知表示R′,让全局问句-候选关系匹配模型能够更全面地理解关系上下文,提高关系预测的准确性;
(5.3)全局问句-候选关系匹配模型中的注意力层用于确定生成的问句模板向量Q和候选关系的上下文感知表示R′的匹配分数;根据问句模板的第m个部分Qm和候选关系的第n个部分R′n之间的注意力权重amn,得到亲和矩阵Ma,注意力权重amn为亲和矩阵Ma的元素,如公式所示:
amn=f(Qm)Tf(R′n)
其中,f表示线性层;
在亲和矩阵Ma的i行、j列两个方向上进行归一化,用于问句模板匹配候选关系的每个部分以及候选关系匹配问句模板的每个部分;
(5.4)全局问句-候选关系匹配模型聚合层用于提取问句模板和候选关系之间的相似性特征;首先,将匹配候选关系第j个部分的问句模板部分q′j,匹配问句模板第i个部分的候选关系部分r′i,以及q′j与r′i乘积结果,输送到带有ReLU激活函数的非线性层,接着进行串联得到βx;将q′j输送到线性层得到αy;然后,聚合αy、βx,使用最大池化操作得到最显著特征α和β;最后,利用余弦相似性计算问句模板与候选的语义相似度,即全局问句向量和候选关系向量的匹配分数sg
7.根据权利要求1所述的基于多层级多路径的大坝应急响应知识问答***的实现方法,其特征在于,所述步骤(6)中整合多路径的匹配分数的具体步骤如下:在基于多层级多路径的大坝应急响应知识问答***中,***根据输入大坝应急响应知识的问题,找到与问题中主体相关联的候选三元组;通过对候选三元组中关系的不同粒度进行多层级地提取特征,从实体类型-候选关系匹配、局部问句模板-候选关系匹配和全局问句模板-候选关系匹配多条路径获取匹配分数,包括:实体类型与候选关系的最终匹配得分st,局部问句向量和候选关系向量的匹配分数sl,以及全局问句向量和候选关系向量的匹配分数sg;将这三个匹配得分st、sl和sg输入到线性网络来计算候选关系的最终排名分数,最终得到应急响应问题的答案;最终排名分数的计算公式如下所示:
其中,是线性映射向量,/>表示实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl以及全局问句向量和候选关系向量的匹配分数sg的串联拼接。
8.一种基于多层级多路径的大坝应急响应知识问答***,其特征在于,包括以下模块:
(1)查找候选三元组模块:根据大坝应急响应知识问答***中输入的应急响应问题,从问题中找到主题实体;找到知识库中相应事实三元组的头实体,并查找出对应的应急响应候选三元组;
(2)多层级表示模块:根据候选关系的不同粒度,分别从词级、Token级和关系级对候选关系进行多层级表示;
(3)实体类型-候选关系匹配模块:构建实体类型-候选关系匹配模型,利用大坝应急响应知识库中的事实三元组整体信息,分别将实体类型和候选关系嵌入,并使用余弦相似性来度量实体类型与候选关系之间的整体匹配程度;利用词级信息,分别将实体类型序列和候选关系序列进行词嵌入,得到词级匹配程度;实体类型与候选关系的最终匹配得分st通过综合上述实体类型与候选关系之间的整体匹配程度和词级匹配程度两个匹配程度来计算;
(4)局部问句-候选关系匹配模块:构建局部问句-候选关系匹配模型,将候选关系拆分成单词序列,并分别将问句和关系嵌入;选择卷积神经网络可以提取特征映射来识别关系和问句之间可匹配的关键词,通过构建局部问句-候选关系匹配模型的线性层得到局部问句向量和候选关系向量的匹配分数sl
(5)全局问句-候选关系匹配模块:构建全局问句-候选关系匹配模型,使用双向简单循环单元将输入序列编码为连续向量;全局问句-候选关系匹配模型中的注意力层确定生成的全局问句向量和候选关系向量的匹配分数;全局问句-候选关系匹配模型的聚合层用于提取问句模板和候选关系之间的相似性特征;
(6)整合多路径的匹配分数模块:分别将实体类型与候选关系的最终匹配得分st、局部问句向量和候选关系向量的匹配分数sl以及全局问句向量和候选关系向量的匹配分数sg三个匹配分数进行串联拼接,计算候选关系的最终排名分数。
9.一种计算机设备,其特征在于:该计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行上述计算机程序时实现如权利要求1-7中任一项所述的基于多层级多路径的大坝应急响应知识问答***的实现方法。
10.一种计算机可读存储介质,其特征在于:该计算机可读存储介质存储有执行如权利要求1-7中任一项所述的基于多层级多路径的大坝应急响应知识问答***的实现方法的计算机程序。
CN202311170167.8A 2023-09-12 基于多层级多路径的大坝应急响应知识问答***及实现方法 Active CN117194633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311170167.8A CN117194633B (zh) 2023-09-12 基于多层级多路径的大坝应急响应知识问答***及实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311170167.8A CN117194633B (zh) 2023-09-12 基于多层级多路径的大坝应急响应知识问答***及实现方法

Publications (2)

Publication Number Publication Date
CN117194633A true CN117194633A (zh) 2023-12-08
CN117194633B CN117194633B (zh) 2024-07-26

Family

ID=

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140358890A1 (en) * 2013-06-04 2014-12-04 Sap Ag Question answering framework
KR101662450B1 (ko) * 2015-05-29 2016-10-05 포항공과대학교 산학협력단 다중 소스 하이브리드 질의응답 방법 및 시스템
WO2017058584A1 (en) * 2015-09-28 2017-04-06 Microsoft Technology Licensing, Llc Extracting facts from unstructured information
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法
US20180232443A1 (en) * 2017-02-16 2018-08-16 Globality, Inc. Intelligent matching system with ontology-aided relation extraction
CN111400455A (zh) * 2020-03-18 2020-07-10 北京工业大学 基于知识图谱的问答***的关系检测方法
US20200293874A1 (en) * 2019-03-12 2020-09-17 Microsoft Technology Licensing, Llc Matching based intent understanding with transfer learning
CN112015868A (zh) * 2020-09-07 2020-12-01 重庆邮电大学 基于知识图谱补全的问答方法
CN112100348A (zh) * 2020-09-01 2020-12-18 武汉纺织大学 一种多粒度注意力机制的知识库问答关系检测方法及***
KR102194837B1 (ko) * 2020-06-30 2020-12-23 건국대학교 산학협력단 지식기반 질문 응답 방법 및 장치
WO2020258487A1 (zh) * 2019-06-25 2020-12-30 平安科技(深圳)有限公司 一种问答关系排序方法、装置、计算机设备及存储介质
WO2021000676A1 (zh) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 问答方法、问答装置、计算机设备及存储介质
CN112256847A (zh) * 2020-09-30 2021-01-22 昆明理工大学 融合事实文本的知识库问答方法
CN112766507A (zh) * 2021-01-20 2021-05-07 河海大学 基于嵌入式和候选子图剪枝的复杂问题知识库问答方法
CN112948546A (zh) * 2021-01-15 2021-06-11 中国科学院空天信息创新研究院 面向多源异构数据源的智能问答方法及装置
CN113946665A (zh) * 2021-09-13 2022-01-18 东北大学 一种基于文本提供背景信息的知识库问答方法
CN114238653A (zh) * 2021-12-08 2022-03-25 华东师范大学 一种编程教育知识图谱构建、补全与智能问答的方法
CN115982338A (zh) * 2023-02-24 2023-04-18 中国测绘科学研究院 一种基于查询路径排序的领域知识图谱问答方法及***
CN116383357A (zh) * 2023-04-06 2023-07-04 南京理工大学 面向知识图谱的查询图生成方法及***

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140358890A1 (en) * 2013-06-04 2014-12-04 Sap Ag Question answering framework
KR101662450B1 (ko) * 2015-05-29 2016-10-05 포항공과대학교 산학협력단 다중 소스 하이브리드 질의응답 방법 및 시스템
WO2017058584A1 (en) * 2015-09-28 2017-04-06 Microsoft Technology Licensing, Llc Extracting facts from unstructured information
US20180232443A1 (en) * 2017-02-16 2018-08-16 Globality, Inc. Intelligent matching system with ontology-aided relation extraction
CN107748757A (zh) * 2017-09-21 2018-03-02 北京航空航天大学 一种基于知识图谱的问答方法
US20200293874A1 (en) * 2019-03-12 2020-09-17 Microsoft Technology Licensing, Llc Matching based intent understanding with transfer learning
WO2020258487A1 (zh) * 2019-06-25 2020-12-30 平安科技(深圳)有限公司 一种问答关系排序方法、装置、计算机设备及存储介质
WO2021000676A1 (zh) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 问答方法、问答装置、计算机设备及存储介质
CN111400455A (zh) * 2020-03-18 2020-07-10 北京工业大学 基于知识图谱的问答***的关系检测方法
KR102194837B1 (ko) * 2020-06-30 2020-12-23 건국대학교 산학협력단 지식기반 질문 응답 방법 및 장치
CN112100348A (zh) * 2020-09-01 2020-12-18 武汉纺织大学 一种多粒度注意力机制的知识库问答关系检测方法及***
CN112015868A (zh) * 2020-09-07 2020-12-01 重庆邮电大学 基于知识图谱补全的问答方法
CN112256847A (zh) * 2020-09-30 2021-01-22 昆明理工大学 融合事实文本的知识库问答方法
CN112948546A (zh) * 2021-01-15 2021-06-11 中国科学院空天信息创新研究院 面向多源异构数据源的智能问答方法及装置
CN112766507A (zh) * 2021-01-20 2021-05-07 河海大学 基于嵌入式和候选子图剪枝的复杂问题知识库问答方法
CN113946665A (zh) * 2021-09-13 2022-01-18 东北大学 一种基于文本提供背景信息的知识库问答方法
CN114238653A (zh) * 2021-12-08 2022-03-25 华东师范大学 一种编程教育知识图谱构建、补全与智能问答的方法
CN115982338A (zh) * 2023-02-24 2023-04-18 中国测绘科学研究院 一种基于查询路径排序的领域知识图谱问答方法及***
CN116383357A (zh) * 2023-04-06 2023-07-04 南京理工大学 面向知识图谱的查询图生成方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
安波;韩先培;孙乐;: "融合知识表示的知识库问答***", 中国科学:信息科学, no. 11, 21 November 2018 (2018-11-21) *
朱雅凤;邵清;: "一种应用于KBQA关系检测的多视角层次匹配网络", 小型微型计算机***, no. 01, 15 January 2020 (2020-01-15) *

Similar Documents

Publication Publication Date Title
Dahouda et al. A deep-learned embedding technique for categorical features encoding
Wang et al. Deep model for dropout prediction in MOOCs
CN106358444A (zh) 用于面部验证的方法和***
US20220277038A1 (en) Image search based on combined local and global information
CN108536735B (zh) 基于多通道自编码器的多模态词汇表示方法与***
CN115828112A (zh) 一种故障事件的响应方法、装置、电子设备及存储介质
Pandit et al. Prediction of earthquake magnitude using adaptive neuro fuzzy inference system
JPWO2019106965A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Zeng et al. An ensemble learning-based remaining useful life prediction method for aircraft turbine engine
CN112148997A (zh) 一种用于灾害事件检测的多模态对抗模型的训练方法和装置
CN117951308A (zh) 一种零样本知识图谱补全方法及装置
CN117194633B (zh) 基于多层级多路径的大坝应急响应知识问答***及实现方法
Wang et al. Research on pedestrian detection based on multi-level fine-grained YOLOX algorithm
CN117194633A (zh) 基于多层级多路径的大坝应急响应知识问答***及实现方法
US11481419B2 (en) Method and apparatus for evaluating matching degree based on artificial intelligence, device and storage medium
CN111091179A (zh) 基于归因图的异构深度模型可迁移性度量方法
CN115456176A (zh) 一种基于知识增强的文本匹配方法及***
CN114169007A (zh) 基于动态神经网络的医疗隐私数据识别方法
CN115203388A (zh) 机器阅读理解方法、装置、计算机设备和存储介质
CN114357297A (zh) 学生画像构建及学习资源分发方法、计算机设备及存储介质
Chen et al. TRANSRW at SemEval-2018 task 12: Transforming semantic representations for argument reasoning comprehension
Sun et al. Unleashing the Potential of Large Language Model: Zero-shot VQA for Flood Disaster Scenario
Kulkarni et al. Order vs. chaos: a language model approach for side-channel attacks
CN111897730A (zh) 城市大脑建设中ai算法评测方法、***、设备及介质
Rollmann et al. A three-way convolutional network to compare 4D seismic data and reservoir simulation models in different domains

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant