CN114168769A - 基于gat关系推理的视觉问答方法 - Google Patents

基于gat关系推理的视觉问答方法 Download PDF

Info

Publication number
CN114168769A
CN114168769A CN202111359601.8A CN202111359601A CN114168769A CN 114168769 A CN114168769 A CN 114168769A CN 202111359601 A CN202111359601 A CN 202111359601A CN 114168769 A CN114168769 A CN 114168769A
Authority
CN
China
Prior art keywords
node
graph
model
network
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111359601.8A
Other languages
English (en)
Other versions
CN114168769B (zh
Inventor
缪亚林
李臻
童萌
白宛婷
李国栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202111359601.8A priority Critical patent/CN114168769B/zh
Publication of CN114168769A publication Critical patent/CN114168769A/zh
Application granted granted Critical
Publication of CN114168769B publication Critical patent/CN114168769B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于GAT关系推理的视觉问答方法,具体为:首先,将问题划分为单词以向量化表示,并进行句子特征提取,得到问题特征向量;再使用Faster R‑CNN结合ResNet‑101网络模型获取对象空间坐标和对象类别,BUTD模型利用对象空间坐标和对象类别得到<属性类,对象类>二元组,使用关系解码器获得物体之间的边标签,使用问题引导的图注意力卷积网络动态更新图节点信息,最后将图表示和问题特征进行多模态融合后输入多层感知机中获取答案。对GAT2R模型在数据集上进行了消融实验验证,与基准模型BUTD相比,提高了准确度。

Description

基于GAT关系推理的视觉问答方法
技术领域
本发明属于图像处理技术领域,具体涉及基于GAT关系推理的视觉问答方法。
背景技术
视觉问答(Visual Question Answering,VQA)***的目标是根据图片提供的信息回答问题,因其丰富的应用领域而具有重要的研究意义,由于现有的视觉问答方法侧重于构建新的注意力机制而使得模型越来越复杂,忽略了需要空间推理、语义关系甚至场景理解问题的研究。大多数的VQA***框架主要包括图像编码器、问题编码器、多模态融合和答案预测模块。使用卷积神经网络学习图像表示和循环神经网络学习文本表示,然后将两个表示融合到同一特征空间用于答案预测。在VQA2.0数据集中,涉及一个以上物体的问答对占据了大约70%的比例。因此对VQA这样的多模态任务来说是不够的。
最近视觉问答探索图像更高层次的表示形式,特别是使用对象检测器和基于图的结构来更好地理解图像物体关系。但是其主要存在两个缺点,首先一些模型进行隐式关系推理,如MAC、Murel,这些模型在没有使用显式关系的情况下进行了训练,不能充分利用数据集预定义的语义关系;其次一些模型进行显示关系推理,这些模型使用显式的视觉关系标注,目前方法只处理空间关系而忽略语义关系,如Teney等人首次提出用图结构表示图像和问题文本,在合成图片上进行实验,具有较大的局限性;Will Norcliffe-Brown等使用高斯核选择与节点最相关的K个区域特征进行节点信息更新;于东飞使用简单的全连接图建模物体之间的关系;朱梓豪等人针对基于事实的FVQA问题构造多模态异构图;Li L等人提出ReGAT模型,建立图的隐式和显式关系;Weixin Liang等人将VQA看做是一个完全的答案生成任务。
发明内容
本发明的目的是提供基于GAT关系推理的视觉问答方法,克服了现有视觉问答方法忽略空间推理、语义关系以及场景理解的问题。
本发明所采用的技术方案是,基于GAT关系推理的视觉问答方法,具体按照以下步骤实施:
步骤1,问题嵌入:将问题划分为独立单词,利用Glove词向量模型对单词进行向量化表示,使用双向GRU网络进行句子特征提取,得到问题特征向量Q;
步骤2:场景图生成:使用Faster R-CNN结合ResNet-101网络模型提取图像的区域特征和空间特征,增加属性检测器,获得物体的属性特征,GAT2R模型对图片内对象进行结构化建模,生成全连接场景图,图节点表示图像中的物体,图的边为节点对之间的关系,通过关系解码器获得场景内节点对之间的交互关系;
步骤3:场景图更新:通过图注意力网络学习以问题引导的动态场景图,通过执行注意力操作来突出步骤1产生的词向量和步骤2产生的节点和边的相关性,然后通过图注意力卷积网络更新节点;
步骤4:多模态融合和答案预测:通过求和步骤3产生的场景图信息,并通过最大池化来计算图的全局向量表示,通过一个简单的元素乘积融合问题和图的全局向量表示,并将其输入到全连接层以预测答案。
本发明的特点还在于,
步骤1中,具体为:
步骤1.1:将输入问题根据标点符号和空格,划分为单独的单词;输入的问题转化为单词数组,表示为如下公式:
q=[q1,q2,...,qN]
其中,N为句子中包含的单词数,q1,q2,...,qN为N个单独的单词,q为单词集合;
步骤1.2:使用Glove词向量模型获得单词向量h,表示为:
h=[h1,h2,...,hN]
其中,hN为单词qN的词向量,h为经过Glove词向量模型训练之后的单词向量集合;
步骤1.3:使用双向GRU网络进行句子特征提取,并在双向GRU的最终输出向量上使用自注意力机制,得到问题特征向量Q。
步骤2中,具体为:
步骤2.1:场景图节点构造;Faster R-CNN结合ResNet-101网络模型是将FasterR-CNN目标检测算法中的骨干网络替换为ResNet-101网络,还增加了一个额外的输出层用来判断对象属性,BUTD模型将对象所在区域平均池化卷积特征与对象类向量连接起来,输入到一个额外的输出层,对于图像内每一个对象边界框都得到<属性类,对象类>这样的二元组,将Faster R-CNN结合ResNet-101网络模型产生的定位信息和BUTD模型产生的二元组拼接在一起就构成了场景图节点;选取置信度最大的前K个物体候选框作为场景图的候选节点;
步骤2.2:场景图边构建,生成场景图G={V,E};
其中,V表示节点集合,即步骤2.1生成的场景图节点集合;E表示这些节点之间的关系集合,考虑了所有边的可能性,边代表了节点之间的各种可能关系,通过一层前馈网络和归一化层将图像中所有对象向量对转换为边向量ei,j,如下公式所示,所有边向量的集合为E;
ei,j=LayerNorm(FeedForward([vi,vj]))i,j=1...K
其中,ei,j代表节点i和节点j之间的场景图边;vi,vj为第i,j的节点,K为节点个数;
步骤2.3:关系解码器;GAT2R通过一个在Visual Genome数据集上预训练的分类网络来学习场景图节点之间的关系;将关系定义为<subject-predicate-object>这样的三元组,每个边向量输入关系解码器,以对其关系标签进行分类。
步骤3中,具体为:
步骤3.1:通过注意力机制来评估每个节点与问题的相关性;节点vi的注意权重计算公式如下:
αi=Softmax(tan h(W1vi+W2Q))i=1...K
其中,W1、W2为要学习的参数,αi为节点vi的注意力权重;
步骤3.2:评估边注意力权重,GAT2R模型在问题的引导下,评估关于节点vi的权重,由邻居节点vj约束的边eji对回答问题的注意力权重,如下公式所示;
βji=Softmax(tanh(W3v′j+W4Q′))i,j=1...K
其中,v′j=W5[vj,eji],Q′=W6[vi,Q],二者均表示向量的拼接操作;W3、W4、W5、W6为要学习的参数,βji为节点vj、vi的连接边eji的注意力权重;
步骤3.3:使用图注意力网络消息传递框架MPNN更新节点v′i的特征;图注意力网络可在的卷积操作的每一层根据相邻节点的相关性,汇总来自邻居节点的信息,从而更新每个节点的表示,如下公式所示;
Figure BDA0003356126560000051
oi=ReLU(W7[mi,αiv′i])
其中,v′j=W5[vj,eji],Ni是vi的所有邻居节点,mi为节点vi周围的邻居节点对节点vi的影响参数,W7为要学习的参数,oi为更新后的节点特征。
步骤4中,具体为:
步骤4.1:将问题特征Q与全图表示
Figure BDA0003356126560000052
通过多模态特征融合策略进行融合,获得回答问题的联合特征表示,如下公式所示:
J=f(Oε,q;Θ)
其中,f表示多模态融合方法,Θ表示融合模块的可训练参数;
步骤4.2:使用简单的点乘策略实现多模态特征融合,建立视觉和语言之间的双线性细粒度交互;J包含了回答问题的关键图信息,其经过最大池化层和全连接层后获得答案,如下公式所示:
y=σ(MLP(J′))
其中,J′表示经过最大池化后的联合特征表示。σ表示Sigmoid激活函数。
本发明的有益效果是:针对现有视觉问答方法忽略空间推理、关系甚至场景理解的问题的研究,提出了基于图注意力网络的关系推理模型,构建了基于问题引导的动态场景图,此模型该模型最大特点是构建一个问题引导的动态图,在进行场景图时进行了数据嵌入和场景图关系的生成还有对场景图答案预测,并且选择使用了GQA和VQA2.0两个数据集做了比较,还使用图注意卷积网络更新图节点信息,提高了VQA问题准确度,最后对GAT2R模型在GQA数据集上进行了消融实验验证,在与基准模型BUTD相比有着显著提高,在两个数据集上提高了准确度。
附图说明
图1是在GQA数据集上训练过程中损失值随迭代次数变化图;
图2是在GQA数据集上训练过程中准确率随迭代次数变化图;
图3是VQA2.0测试集中的图片和问题的注意力可视化展示图;
图4是GQA测试集中的图片和问题的注意力可视化展示图;
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于GAT关系推理的视觉问答方法,具体按照以下步骤实施:
步骤1,问题嵌入,根据标点符号和空格,将问题划分为独立单词;利用Glove词向量模型对单词进行向量化表示;使用双向门控循环单元提取问题向量表示。同时,为了减少问题噪声对答案预测结果的影响;具体为:
步骤1.1:首先将输入问题根据标点符号和空格,划分为单独的单词;输入的问题转化为单词数组,表示为如下公式:
q=[q1,q2,...,qN]
其中,N为句子中包含的单词数,q1,q2,...,qN为N个单独的单词,q为单词集合;
步骤1.2:使用Glove词向量模型获得单词向量h,表示为:
h=[h1,h2,...,hN]
其中,hN为单词qN的词向量,h为经过Glove词向量模型训练之后的单词向量集合;
步骤1.3:为了更好地捕捉长文本特征,使用双向GRU网络进行句子特征提取,并在双向GRU的最终输出向量上使用自注意力机制,得到问题特征向量Q;
步骤2:场景图生成;使用Faster R-CNN结合ResNet-101网络模型提取图像的区域特征和空间特征,增加了属性检测器,获得物体的属性特征,GAT2R模型对图片内对象进行结构化建模,生成全连接场景图,其中图节点表示图像中的物体,图的边为节点对之间的关系。通过关系解码器获得场景内节点对之间的交互关系;具体为:
步骤2.1:场景图节点构造;Faster R-CNN结合ResNet-101网络模型可以同时定位和对象分类。Faster R-CNN结合ResNet-101网络模型是将Faster R-CNN目标检测算法中的骨干网络替换为ResNet-101网络,加入ResNet-101可以保证网络层数增加的同时精度有所提升。网络模型除了定位和预测对象类外,还增加了一个额外的输出层用来判断对象属性,BUTD模型将对象所在区域平均池化卷积特征与对象类向量连接起来,输入到一个额外的输出层,对于图像内每一个对象边界框都得到<属性类,对象类>这样的二元组。将Faster R-CNN结合ResNet-101网络模型产生的定位信息和BUTD模型产生的二元组拼接在一起就构成了场景图节点。因此,场景图节点不仅包含对象自身的区域属性特征二元组,还包含物体在图像上的空间位置信息。
加入ResNet-101可以保证网络层数增加的同时精度有所提升。网络除了预测对象类外,还增加了一个额外的训练来输出区域属性,BUTD模型将区域平均池化卷积特征与真值对象类向量连接起来,输入到一个额外的输出层,对于图像内每一个边界框都得到<属性类,对象类>这样的二元组,选取置信度最大的前K个物体候选框作为场景图的候选节点。
场景图节点不仅包含对象自身的区域属性特征二元组,还包含物体在图像上的空间位置信息。通过这些信息,GAT2R模型可以更加充分地学习图像中物体之间的语义关系和空间位置关系,在遇到相关问题时模型能更加准确地进行关系推理,从而预测出正确的答案。
步骤2.2:场景图边构建,生成场景图G={V,E};
其中V表示节点集合,即步骤2.1生成的场景图节点集合。E表示这些节点之间的关系集合,考虑了所有边的可能性,边代表了节点之间的各种可能关系,如动作关系“eating”、“sitting”、“holding”等,空间关系如“left”、“on”等,比较关系“bigger”等。通过一层前馈网络和归一化层将图像中所有对象向量对转换为边向量ei,j,如公式所示,所有边向量的集合为E;
ei,j=LayerNorm(FeedForward([vi,vj]))i,j=1...K
其中,ei,j代表节点i和节点j之间的场景图边;注意,ei,j和ej,i并不相同。vi,vj为第i,j的节点,K为节点个数。
步骤2.3:关系解码器。GAT2R通过一个在Visual Genome数据集上预训练的分类网络来学习场景图节点之间的关系。将关系定义为<subject-predicate-object>这样的三元组,每个边向量输入关系解码器,以对其关系标签进行分类,
步骤3:场景图更新;通过图注意力网络学习以问题引导的动态场景图。对于VQA任务,不同的节点和边对回答问题的贡献是不一样的,模型通过过滤掉与问题无关的节点和关系来学习一个与问题相关的场景图,而不是将所有关系和节点赋予相同的权重。通过执行注意力操作来突出步骤1产生的词向量和步骤2产生的节点和边的相关性,然后通过图注意力卷积网络更新节点。
步骤3.1:首先通过注意力机制来评估每个节点与问题的相关性。节点vi的注意权重计算公式如下:
αi=Softmax(tan h(W1vi+W2Q))i=1...K
其中,W1、W2为要学习的参数,Q为经过自注意力机制得到的问题特征向量,K为节点的个数,αi为节点vi的注意力权重。
步骤3.2:评估边注意力权重,GAT2R模型在问题的引导下,评估关于节点vi的注意力权重,由邻居节点vj约束的边eji对回答问题的注意力权重,如下公式所示;
βji=Softmax(tan h(W3v′j+W4Q′))i,j=1...K
其中,v′j=W5[vj,eji],Q′=W6[vi,Q],二者均表示向量的拼接操作。W3、W4、W5、W6为要学习的参数,K为节点的个数,βji为节点vj、vi的连接边eji的注意力权重。
步骤3.3:使用图注意力网络消息传递框架MPNN更新节点v′i的特征;图注意力网络可在的卷积操作的每一层根据相邻节点的相关性,汇总来自邻居节点的信息,从而更新每个节点的表示,如下公式所示。
Figure BDA0003356126560000101
oi=ReLU(W7[mi,αiv′i])
其中,βji为节点vj、vi的连接边eji的注意力权重,v′j=W5[vj,eji],Ni是vi的所有邻居节点,mi为节点vi周围的邻居节点对节点vi的影响参数,W7为要学习的参数,αi为节点vi的注意力权重,oi为更新后的节点特征。
经过图卷积后,场景图节点特征包含了回答问题的所有关键信息。
步骤4:多模态融合和答案预测。通过求和步骤3产生的场景图信息,并通过最大池化来计算图的全局向量表示。该向量可以被认为是图的高度非线性压缩。通过一个简单的元素乘积融合问题和图的全局向量表示,并将其输入到全连接层以预测答案。
步骤4.1:将问题特征Q与全图表示
Figure BDA0003356126560000111
通过多模态特征融合策略进行融合,获得回答问题的联合特征表示,如下公式所示:
J=f(Oε,q;Θ)
其中,f表示多模态融合方法,Θ表示融合模块的可训练参数。
步骤4.2:使用简单的点乘策略实现多模态特征融合,建立视觉和语言之间的双线性细粒度交互。J包含了回答问题的关键图信息,其经过最大池化层和全连接层后获得答案,如下公式所示:
y=σ(MLP(J′))
其中,J′表示经过最大池化后的联合特征表示。σ表示Sigmoid激活函数;
将答案生成看作是一个多分类问题。Sigmoid将每个候选答案的概率控制在(0,1)之间。其次,选取软分数作为训练目标,可以弥补数据集中的一些不确定性,例如问题不明确、人类注释者对答案存在分歧等。选择最大概率对应的候选答案作为模型预测答案。
模拟实验及实验结果表征
1.数据集:视觉问答用于关系推理的数据集主要包含两类,一类是人工合成数据,数据集包含少量的对象类和属性,所含物体都是简单的3D形状,另一类数据集图片来自真实场景,具有更大的语义空间,推理更具挑战性,代表数据集是GQA,最终选择GQA和VQA2.0两个大规模公开数据集上评估GAT2R模型性能,GQA包含来自Visual Genome数据集的113,018张真实世界的图像,包含22,669,678个问题,涵盖了广泛的推理能力。GQA有明确的2690个类,包括对象、属性和关系。每个图像会被形式化地表示为场景图,场景图中每个节点表示一个对象,将它链接到一个指定其位置和大小的边界框,每个对象大约1-3个属性进行标记,对象由关系边连接,边可表示动作(动词)、空间关系(介词)和比较词。该数据集含有3097个单词和1878个可能的答案,包含1740个对象、620个属性和330个关系。覆盖了VQA数据集中88.8%和70.6%的问题和答案,证实了其广泛性。同时,GQA问题中51.6%系语义推理问题,22.4%是空间关系推理问题,而VQA2.0中仅包含19.5%的语义关系推理问题,8%的空间推理问题。
评价指标:将VQA视为多分类问题,在GQA和VQA2.0数据集上使用相同的评估标准。使用一种投票机制来计算模型的准确率。
Figure BDA0003356126560000121
在数据集中,模型预测的答案至少与3个标注者保持一致,方可认为模型预测正确。
2.实验环境:本发明模型开发语言为Python 3.7,使用深度学习开发框架PyTorch,版本为1.5.0。实验中选取置信度最大的K个候选物体作为图节点,其中K=36,每个区域物体特征向量维度为2048。此外,对于每个候选物体,也得到一个4维的空间坐标,因此特征拼接后节点维度为2052。GAT2R模型使用双向GRU来编码问题特征,其中词向量维度为300,隐层状态维度为1024。将GQA数据集中所有问题长度保持为25,VQA2.0数据集长度为14,所有的激活函数使用ReLU。在输入层之后和输出层之间使用p=0.5的dropout,以防止网络过拟合。训练样本在每个epoch均被随机shuffle,batch大小设置为32,使用交叉熵作为损失函数,模型使用Adam梯度下降算法。初始学习率设为0.001,GAT2R模型在迭代10k次后,每迭代4k次将学习率降为之前的1/10,实验在迭代了22k次后停止训练;
3.实验结果:
(1)在GQA数据集上训练过程中损失(loss)值随迭代次数(k)变化图如图1所示,可得到:随着迭代次数的增加,模型训练loss值稳定下降。如图2所示,随着迭代次数的增加,模型验证集准确率趋于稳定,在GQA数据集上达到了最佳性能。
将GAT2R模型在GQA数据集上训练的最好结果,与其他先进模型进行比较,如表1所示;
表1 GAT2R模型与其他模型比较结果
Figure BDA0003356126560000131
其中Global Prior模型和Local Prior表示模型根据问题类型返回数据集中最常见的答案。二者的区别在于,相较于Global Prior,Local Prior会进一步思考了问题,MAC模型是当前表现突出的隐式关系推理模型,该模型通过将问题分解为多个基于注意力的推理步骤来推理答案,每个步骤都由一个新的循环记忆、注意和合成(MAC)单元来执行,旨在实现明确的多阶段推理。MAC模型在CLEVR数据集上取得了巨大成功。表中Human表示人类在GQA数据集上的测验结果。
GAT2R模型比基准模型CNN+LSTM总体准确率提高了7.9%,与先进的BUTD模型相比准确率提升了4.71%,和先进的隐式关系推理模型MAC相比,GAT2R模型在整体准确性上同样略胜一筹。主要原因是BUTD模型主要贡献是使用物体检测模型进行图像特征提取,没有实现显式关系推理。而MAC模型是隐式关系推理模型,没有充分运用数据集中预定义的物体关系。
为表明GAT2R模型各部分的作用和贡献,最终对GAT2R模型在GQA数据集上进行了消融实验,从实验结果可以看到使用图注意力网络有选择地融合邻居节点特征,模型准确率有效提高了0.28%,Q+Graph模型仍然比MAC模型准确率高出0.11%。同时,由于本模型使用了和BUTD模型相同的图像特征提取方式,可以看到,GAT2R模型采用简单的级联融合方式效果要比BUTD模型采用逐元素乘积的方式准确率高出4.56%,充分说明了图注意力网络在视觉问答关系推理任务中的巨大潜力。
为了进一步证明提出的基于图注意力网络关系推理模型的有效性与泛化性,在VQA2.0数据集上也将本发明模型与其他方法进行对比,如表2所示。其中Prior、CNN+LSTM、MCB与MUTAN模型在Language-only模型只接受问题作为输入,通过与该模型对比,可充分证明各VQA模型在答案预测时都不同程度地成功运用了图像输入。
表2 GAT2R模型在VQA2.0标准测试集上的结果
Figure BDA0003356126560000151
根据上表的实验结果来看,基于图注意力网络的关系推理模型准确度在各类问题上都有不同程度的提升。与Language-only模型相比,模型准确率提高了23.78%,与CNN+LSTM基准模型相比,GAT2R模型的准确率提升了13.82%,与MCB模型相比提高了5.77%,与先进的BUTD模型相比模型性能提高了2.77%,与MUTAN模型相比GAT2R性能提升了1.66%,充分证明了图注意力网络关系推理模型的有效性。另外,可以看到,特别是在“Other”列,此模型比BUTD模型准确率提升了3.5%,与MUTAN模型相比准确率高出了2.85%。其主要原因是GAT2R模型使用图结构对图像内物体进行关系建模,这使得模型在类似空间推理、语义关系推理等其他问题上准确率有了较大提升。
图注意力网络关系推理模型对图像内物体进行关系建模,保留了图像内物体的空间关系、语义关系,有利于跨模态的显式关系推理。鉴于GAT2R模型在GQA和VQA2.0数据集上的良好表现,GAT2R模型仍然可以推广到其他VQA数据集,尽管提高可能没有GQA明显,本文推测这可能是因为其他VQA数据集中推理问题的比例比GQA小得多。
基于图注意力网络的关系推理模型,随机选取了VQA2.0和GQA测试集当中的一些图片和问题进行注意力可视化展示。如图3及图4所示,图片上方为模型输入的问题,左侧为原始图片,右侧为经过模型注意力可视化后的图片,图片下方分别为数据集真值答案和模型预测的答案。
本发明提出基于图注意力网络的关系推理模型(GAT2R),该模型首先将图像建模为显式场景图,接着利用图注意力网络更新图信息,进而和问题特征进行融合获得答案,具体来说,使用Faster R-CNN结合ResNet-101网络模型获取对象空间坐标和对象类别,BUTD模型利用对象空间坐标和对象类别得到<属性类,对象类>二元组,不仅关注物体之间的语义关系,还对物体之间的空间关系进行建模。使用关系解码器获得物体之间的边标签,由于图注意力网络允许为同一邻域内节点分配不同的权重,因此使用问题引导的图注意力卷积网络动态更新图节点信息。最后将图表示和问题特征进行多模态融合后输入多层感知机中获取答案。

Claims (5)

1.基于GAT关系推理的视觉问答方法,其特征在于,具体按照以下步骤实施:
步骤1,问题嵌入:将问题划分为独立单词,利用Glove词向量模型对单词进行向量化表示,使用双向GRU网络进行句子特征提取,得到问题特征向量Q;
步骤2:场景图生成:使用Faster R-CNN结合ResNet-101网络模型提取图像的区域特征和空间特征,增加属性检测器,获得物体的属性特征,GAT2R模型对图片内对象进行结构化建模,生成全连接场景图,图节点表示图像中的物体,图的边为节点对之间的关系,通过关系解码器获得场景内节点对之间的交互关系;
步骤3:场景图更新:通过图注意力网络学习以问题引导的动态场景图,通过执行注意力操作来突出步骤1产生的词向量和步骤2产生的节点和边的相关性,然后通过图注意力卷积网络更新节点;
步骤4:多模态融合和答案预测:通过求和步骤3产生的场景图信息,并通过最大池化来计算图的全局向量表示,通过一个简单的元素乘积融合问题和图的全局向量表示,并将其输入到全连接层以预测答案。
2.根据权利要求1所述的基于GAT关系推理的视觉问答方法,其特征在于,所述步骤1中,具体为:
步骤1.1:将输入问题根据标点符号和空格,划分为单独的单词;输入的问题转化为单词数组,表示为如下公式:
q=[q1,q2,...,qN]
其中,N为句子中包含的单词数,q1,q2,...,qN为N个单独的单词,q为单词集合;
步骤1.2:使用Glove词向量模型获得单词向量h,表示为:
h=[h1,h2,...,hN]
其中,hN为单词qN的词向量,h为经过Glove词向量模型训练之后的单词向量集合;
步骤1.3:使用双向GRU网络进行句子特征提取,并在双向GRU的最终输出向量上使用自注意力机制,得到问题特征向量Q。
3.根据权利要求1所述的基于GAT关系推理的视觉问答方法,其特征在于,所述步骤2中,具体为:
步骤2.1:场景图节点构造;Faster R-CNN结合ResNet-101网络模型是将Faster R-CNN目标检测算法中的骨干网络替换为ResNet-101网络,还增加了一个额外的输出层用来判断对象属性,BUTD模型将对象所在区域平均池化卷积特征与对象类向量连接起来,输入到一个额外的输出层,对于图像内每一个对象边界框都得到<属性类,对象类>这样的二元组,将Faster R-CNN结合ResNet-101网络模型产生的定位信息和BUTD模型产生的二元组拼接在一起就构成了场景图节点;选取置信度最大的前K个物体候选框作为场景图的候选节点;
步骤2.2:场景图边构建,生成场景图G={V,E};
其中,V表示节点集合,即步骤2.1生成的场景图节点集合;E表示这些节点之间的关系集合,考虑了所有边的可能性,边代表了节点之间的各种可能关系,通过一层前馈网络和归一化层将图像中所有对象向量对转换为边向量ei,j,如下公式所示,所有边向量的集合为E;
ei,j=LayerNorm(FeedForward([vi,vj]))i,j=1…K
其中,ei,j代表节点i和节点j之间的场景图边;vi,vj为第i,j的节点,K为节点个数;
步骤2.3:关系解码器;GAT2R通过一个在Visual Genome数据集上预训练的分类网络来学习场景图节点之间的关系;将关系定义为<subject-predicate-object>这样的三元组,每个边向量输入关系解码器,以对其关系标签进行分类。
4.根据权利要求3所述的基于GAT关系推理的视觉问答方法,其特征在于,所述步骤3中,具体为:
步骤3.1:通过注意力机制来评估每个节点与问题的相关性;节点vi的注意权重计算公式如下:
αi=Softmax(tan h(W1vi+W2Q))i=1…K
其中,W1、W2为要学习的参数,αi为节点vi的注意力权重;
步骤3.2:评估边注意力权重,GAT2R模型在问题的引导下,评估关于节点vi的注意力权重,由邻居节点vj约束的边eji对回答问题的注意力权重,如下公式所示;
βji=Softmax(tan h(W3v′j+W4Q′))i,j=1…K
其中,v′j=W5[vj,eji],Q′=W6[vi,Q],二者均表示向量的拼接操作;W3、W4、W5、W6为要学习的参数,βji为节点vj、vi的连接边eji的注意力权重;
步骤3.3:使用图注意力网络消息传递框架MPNN更新节点v′i的特征;图注意力网络可在的卷积操作的每一层根据相邻节点的相关性,汇总来自邻居节点的信息,从而更新每个节点的表示,如下公式所示;
Figure FDA0003356126550000041
oi=ReLU(W7[mi,αiv′i])
其中,v′j=W5[vj,eji],Ni是vi的所有邻居节点,mi为节点vi周围的邻居节点对节点vi的影响参数,W7为要学习的参数,oi为更新后的节点特征。
5.根据权利要求4所述的基于GAT关系推理的视觉问答方法,其特征在于,所述步骤4中,具体为:
步骤4.1:将问题特征Q与全图表示
Figure FDA0003356126550000042
通过多模态特征融合策略进行融合,获得回答问题的联合特征表示,如下公式所示:
J=f(Oε,q;Θ)
其中,f表示多模态融合方法,Θ表示融合模块的可训练参数;
步骤4.2:使用简单的点乘策略实现多模态特征融合,建立视觉和语言之间的双线性细粒度交互;J包含了回答问题的关键图信息,其经过最大池化层和全连接层后获得答案,如下公式所示:
y=σ(MLP(J′))
其中,J′表示经过最大池化后的联合特征表示;σ表示Sigmoid激活函数。
CN202111359601.8A 2021-11-16 2021-11-16 基于gat关系推理的视觉问答方法 Active CN114168769B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111359601.8A CN114168769B (zh) 2021-11-16 2021-11-16 基于gat关系推理的视觉问答方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111359601.8A CN114168769B (zh) 2021-11-16 2021-11-16 基于gat关系推理的视觉问答方法

Publications (2)

Publication Number Publication Date
CN114168769A true CN114168769A (zh) 2022-03-11
CN114168769B CN114168769B (zh) 2024-02-02

Family

ID=80479316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111359601.8A Active CN114168769B (zh) 2021-11-16 2021-11-16 基于gat关系推理的视觉问答方法

Country Status (1)

Country Link
CN (1) CN114168769B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363712A (zh) * 2023-03-21 2023-06-30 中国矿业大学 一种基于模态信息度评估策略的掌纹掌静脉识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818889A (zh) * 2021-02-09 2021-05-18 北京工业大学 基于动态注意力的超网络融合视觉问答答案准确性的方法
US20210248375A1 (en) * 2020-02-06 2021-08-12 Mitsubishi Electric Research Laboratories, Inc. Scene-Aware Video Dialog

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210248375A1 (en) * 2020-02-06 2021-08-12 Mitsubishi Electric Research Laboratories, Inc. Scene-Aware Video Dialog
CN112818889A (zh) * 2021-02-09 2021-05-18 北京工业大学 基于动态注意力的超网络融合视觉问答答案准确性的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
闫茹玉;刘学亮;: "结合自底向上注意力机制和记忆网络的视觉问答模型", 中国图象图形学报, no. 05 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363712A (zh) * 2023-03-21 2023-06-30 中国矿业大学 一种基于模态信息度评估策略的掌纹掌静脉识别方法
CN116363712B (zh) * 2023-03-21 2023-10-31 中国矿业大学 一种基于模态信息度评估策略的掌纹掌静脉识别方法

Also Published As

Publication number Publication date
CN114168769B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
Yan Computational methods for deep learning
CN110163299B (zh) 一种基于自底向上注意力机制和记忆网络的视觉问答方法
CN110083705B (zh) 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
Ricci et al. Monocular depth estimation using multi-scale continuous CRFs as sequential deep networks
CN108229444B (zh) 一种基于整体和局部深度特征融合的行人再识别方法
CN111914622B (zh) 一种基于深度学习的人物交互检测方法
Yu et al. Heterogeneous graph learning for visual commonsense reasoning
Sharma et al. Visual question answering model based on graph neural network and contextual attention
CN106777125A (zh) 一种基于神经网络及图像关注点的图像描述生成方法
CN112036276B (zh) 一种人工智能视频问答方法
CN113297370B (zh) 基于多交互注意力的端到端多模态问答方法及***
CN109783666A (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN111598118B (zh) 一种视觉问答任务实现方法及***
CN116664719B (zh) 一种图像重绘模型训练方法、图像重绘方法及装置
Hu et al. Safe navigation with human instructions in complex scenes
CN111598183A (zh) 一种多特征融合图像描述方法
US20220198813A1 (en) System and method for efficient visual navigation
CN115860152B (zh) 一种面向人物军事知识发现的跨模态联合学习方法
Park et al. Attribute and-or grammar for joint parsing of human attributes, part and pose
Pise et al. Relational reasoning using neural networks: a survey
CN115331075A (zh) 一种多模态场景图知识增强的对抗式多模态预训练方法
Yan Computational methods for deep learning: theory, algorithms, and implementations
Kim et al. Visual reasoning by progressive module networks
Huang Robustness analysis of visual question answering models by basic questions
Li et al. Multi goals and multi scenes visual mapless navigation in indoor using meta-learning and scene priors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant