CN111612051A - 一种基于图卷积神经网络的弱监督目标检测方法 - Google Patents

一种基于图卷积神经网络的弱监督目标检测方法 Download PDF

Info

Publication number
CN111612051A
CN111612051A CN202010364601.6A CN202010364601A CN111612051A CN 111612051 A CN111612051 A CN 111612051A CN 202010364601 A CN202010364601 A CN 202010364601A CN 111612051 A CN111612051 A CN 111612051A
Authority
CN
China
Prior art keywords
frame
layer
picture
pictures
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010364601.6A
Other languages
English (en)
Other versions
CN111612051B (zh
Inventor
颜成钢
韩顾稳
孙垚棋
张继勇
张勇东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010364601.6A priority Critical patent/CN111612051B/zh
Publication of CN111612051A publication Critical patent/CN111612051A/zh
Application granted granted Critical
Publication of CN111612051B publication Critical patent/CN111612051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图卷积神经网络的弱监督目标检测方法。本发明通过引入只检测到物体一部分的伪标注框作为弱监督目标检测网络的监督条件,通过多实例网络只检测到物体的一部分而不是覆盖全部物体;利用图卷积神经网络把检测为物体框的邻近且相交的候选框学习物体框的特征表示;因为和物体框相交的候选框也是物体的一部分,通过学习检测为物体的框的特征表示来改变候选框的特征表示,邻近的框学习检测为物体的框的特征;候选框和检测为物体框的特征表示就会相似,弱监督网络测试的时候会把与检测为物体框的邻近候选框也分类为目标物体;从而检测出的目标框覆盖更大的面积和更全的物体,提高弱监督目标检测的精度。

Description

一种基于图卷积神经网络的弱监督目标检测方法
技术领域
本发明涉及机器学习计算机视觉以及人工智能领域,具体地说是一种基于图卷积神经网络的弱监督目标检测方法。
背景技术
目标检测是基于计算机视觉的基本问题,在医疗诊断和自动驾驶领域有着长足的发展。同时随着机器学习的飞速发展,计算资源有了长足的进步,几年来目标检测模型性能得到了巨大的提升。但是目前的目标检测模型基本上都是采用有标注框的训练数据作为标注数据训练目标检测模型。这需要大量时间和物力对图片进行标注。全监督目标检测网络模型精度有很大的提升。但是边框的标注信息也有许多缺点。第一:大量的边框标注信息提高了目标检测的金钱成本,第二:人为标注的边框信息存在误差和错误,误差和错误会使模型偏离预训练的精度,使得精度变低。
由于全监督目标检测需要花费大量的成本,以及会产生不必要的错误和误差,弱监督模型就被推广出来,弱监督模型的训练标签只有物体的类别信息,而没有物体的位置信息,所以在进行目标检测时,只能用类别信息作为监督条件,因此,弱监督目标检测比全监督目标检测的精度要低很多。
目前的弱监督目标监测模型都是利用多示例学习,利用类别标签作为监督条件训练一个弱监督目标检测模型,然后通过弱监督目标检测模型产生新的伪标注框作为训练条件,来训练一个全监督目标检测模型,这样就有了位置的标注信息。提高模型的检测效率。
然而通过多示例学习之后的分类网络往往准确率很低,检测到的物体框只覆盖物体的一部分,没有完全覆盖物体的全部,导致检测精度降低。并且传统的弱监督目标检测网络中,实例分类器提炼网络模型是三层的迭代训练模型,检测模型结构冗余,降低了检测的效率。
发明内容
本发明所要解决的技术问题是:提出一种基于图卷积神经网络的弱监督目标检测方法,解决传统的弱监督目标检测网络只检测到物体的一部分而不是整个物体这一问题。本发明通过图卷积神经网络降低弱监督目标检测模型的冗余性,从而提高弱监督目标检测的精度,以及降低弱监督目标检测的时间,提升目标检测的效率。
针对上述实际情况,提出一种基于图卷积神经网络的弱监督目标检测方法,通过引入只检测到物体一部分的伪标注框作为弱监督目标检测网络的监督条件,通过多实例网络只检测到物体的一部分而不是覆盖全部物体。利用图卷积神经网络把检测为物体框的邻近且相交的候选框学习物体框的特征表示。因为和物体框相交的候选框也是物体的一部分,通过学习检测为物体的框的特征表示来改变候选框的特征表示,邻近的框学习检测为物体的框的特征。候选框和检测为物体框的特征表示就会相似,弱监督网络测试的时候会把与检测为物体框的邻近候选框也分类为目标物体。从而检测出的目标框覆盖更大的面积和更全的物体,提高弱监督目标检测的精度。
本发明将两个步骤的弱监督检测模型简化为一个端到端的网络模型结构,不仅简化了网络模型。减少了弱监督目标检测的时间,图卷积网络损失函数和弱监督模型的分类损失函数共同组成新的损失函数训练弱监督检测模型。提高弱监督检测模型的精度,减少了弱监督检测的时间。
本发明解决其技术问题所采用的技术方案具体包括以下步骤:
步骤(1)训练数据集的准备阶段:
在目标检测中用PASCAL VOC 2007以及PASCAL VOC 2012数据集作为训练数据集,训练数据集中包括20种物体类别,PASCAL VOC2007一共有9963张图片,其中有训练数据集5011张图片,测试数据集有4952张图片。PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片。其中除了图片信息外还有每张图片含有的物体类别信息。
步骤(2)获取图片的特征图以及多实例检测网络模型:
首先,图片经过卷积层得到卷积特征图Ⅰ;
其次,选择性搜索边框图片经过金字塔池化层得到每个选择性搜索边框图片的卷积特征图Ⅱ,将卷积特征图Ⅱ连续经过两层全连接层得到选择性搜索边框图片的特征向量Ⅰ,特征向量Ⅰ分别经过全连接层Ⅰ和全连接层Ⅱ,全连接层Ⅰ与物体类别方向的softmax层Ⅰ连接,全连接层Ⅱ与选择性搜索边框图片方向的softmax层Ⅱ连接;将softmax层Ⅰ和softmax层Ⅱ输出的两个特征向量进行数量积相乘得到特征向量Ⅱ,根据特征向量Ⅱ得到每个选择性搜索边框图片在每个类别上的得分。
所述的图片包含多个选择性搜索边框图片;
步骤(3)图卷积神经网络,为了提高弱监督网络模型的检测精度,将步骤(2)获取的选择性搜索边框图片的特征向量Ⅱ输入图卷积神经网络,图卷积神经网络(GCNnetwork)包括第一个隐藏层、第一个ReLU激活函数层、第二个隐藏层、第二个ReLU激活函数层。
将特征向量Ⅰ作为第一个隐藏层的输入,所述的特征向量Ⅰ是2000*4096大小的的特征矩阵;将第一个隐藏层输出设置为256维,因此第一个隐藏层将4096维转为256维,输出特征向量Ⅲ,降低了网络参数的个数,减少训练复杂度。然后输出的特征向量Ⅲ点乘邻接矩阵A,再然后连接第一个ReLU激活函数层;第一个ReLU激活函数层的输出作为第二个隐藏层的输入,第二个隐藏层的输出网络参数为21维,因此第二个隐藏层将256维转为21维,第二个隐藏层输出21维的特征向量Ⅳ,第二个隐藏层输出的特征向量Ⅳ再次点乘邻接矩阵A,然后再连接第二个ReLU激活函数层,得到特征向量Ⅴ;特征向量Ⅴ是2000*21大小的的特征矩阵;
图卷积神经网络的输出层连接一个softmax层,softmax层输出特征向量Ⅵ,即每个选择性搜索边框图片获得特征向量Ⅵ中,属于21个类别中每个类别的概率;最后连接损失函数。
所述的邻接矩阵A的获取如下:
计算n行和m列的选择性搜索边框图片之间的IOU,当IOU大于0.1时邻接矩阵A的n行m列的值为1,当IOU小于0.1时,邻接矩阵A的n行m列的值为0,具体步骤如图所示。
本发明用图卷积神经网络的一个分支网络替代了三个实例分类器优化网络,利用图卷积算法降低了模型的冗余性,只需连接一个图卷积神经网络,提高了模型的检测效率。
步骤(4)设置弱监督目标检测模型的损失函数,多实例检测网络模型的损失函数为分类损失函数,具体的为交叉熵损失函数,如公式(1)所示。
Figure BDA0002476145310000041
其中,φc是多实例网络模型输出的所有选择性搜索框图片的一个类别c上的权重之和。yc表示图片存在或者不存在物体类别c,当存在时等于1,不存在时等于0。C表示物体种类的总数量,PASCALVOC有20类;加上背景这一类,C的取值为21,c表示物体的种类。
所述的权重之和是指在一个类别c上的所有选择性搜索框图片的概率之和,且该权重之和的数值在(0,1)之间。
图片中,当c种类存在时,yc等于1;那么式(1)的加号右侧为0,所以此时φc越大损失函数越小,则存在的分类的置信分数就会越大。
图片中,当c种类不存在时,yc等于0,那么式(1)的加号左侧为0,所以此时φc越小损失函数越小,则不存在的类别的置信分数就会越小。
图卷积神经网络分支结构的损失函数是一个分类损失函数,首先每个选择性搜索框图片的输出特征向量Ⅵ再经过softmax层,分类出每个选择性搜索框图片的类别概率的置信分数
Figure BDA0002476145310000043
分类损失函数如下所示:
Figure BDA0002476145310000042
其中,
Figure BDA0002476145310000051
表示第r个选择性搜索框图片属于c类别的置信分数,属于(0,1)之间。yc表示图像存在或者不存在类别c,当存在时yc等于1,不存在时yc等于0。C表示物体种类数目,PASCAL VOC中有20个类。对图片中所有的选择性搜索框图片对应的类进行聚类,经过聚类分为N束,sn表示第n个聚类束的置信分数,Mn表示第n个聚类束的物体框的个数。
步骤(5)用步骤(1)中训练数据集中的训练接迭代训练弱监督目标检测模型,得到模型结果。由上述步骤可以得到弱监督目标检测模型的训练结果,通过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型.
步骤(6)测试弱监督目标检测模型结果,通过两个重要的指标判断目标定位精度:平均正确率mAP和定位正确率CorLoc;其中平均正确率mAP是对于测试集的目标检测精度,定位正确率CorLoc是对于训练集的目标定位精度。
通过本方法获取的平均正确率mAP和定位正确率CorLoc比现有PCL弱监督算法精确度提高5%mAP。
实验结果表面,在弱监督目标检测模型上达到了端到端的平均正确率mAP最好的性能和定位准确率CorLoc最好的性能。
本发明的有益效果:
本发明所述的方法是一个基于图卷积神经网络的弱监督目标检测方法,本方法是一个端到端的弱监督目标检测模型,而不是两个步骤的弱监督加全监督网络模型。
本发明提出了更简洁的网络结构,减少了检测时间,提高了目标检测的效率,本发明第一次加入了图卷积神经网络模型,在没有物体边框作监督的条件下,利用自身网络产生伪标注框,通过图卷积神经网络使模型检测出更完整的物体。极大的提升了弱监督目标检测精度。
附图说明
图1为本发明的弱监督目标检测网络的实现步骤流程图;
图2为本发明的选择性搜索框示意图;
图3为本发明邻接矩阵示意图;
图4为本发明弱监督目标检测网络的网络结构示意图;
具体实施方式
以下结合附图及实施例,对本发明进行进一步的详细说明。
本发明提出的一种基于图卷积神经网络的弱监督目标检测方法,通过引入只检测到物体一部分的伪标注框作为弱监督目标检测网络的监督条件,通过多实例网络只检测到物体的一部分而不是覆盖全部物体。利用图卷积神经网络把检测为物体框的邻近且相交的候选框学习物体框的特征表示(如图2所示,其中框4经过检测后是伪标注物体框,只检测部分飞机,将与框4相交的框1通过图卷积神经网络建立特征联系训练模型,框1将学习框4的特征表示,进而将框1检测为真实的物体框)。和伪标注框物体框4(图2中框4)相交的候选框(图2中与框4相交的其他框,包括框2和框3)也是物体的一部分,通过学习检测为物体的框的特征表示来改变候选框的特征表示,将与框4相交的候选框(即框2和框3)通过图卷积神经网络建立特征联系训练模型,候选框(即框2和框3)将学习框4的特征表示;候选框和检测为伪标注物体框4的特征表示就会相似,弱监督网络测试的时候会把与检测为伪标注物体框4的候选框(即框2和框3)也分类为目标物体。从而检测出的目标框覆盖更大的面积和更全的物体,提高弱监督目标检测的精度。
将两个步骤的弱监督检测模型简化为一个端到端的网络模型结构,不仅简化了网络模型。减少了弱监督目标检测的时间,提升了弱监督目标检测网络的效率。弱监督目标检测网络的实现步骤流程图如图1所示。本发明所述方法包括以下步骤:
步骤(1)训练数据集的准备阶段,如图一所示。在目标检测中我们用的是PASCALVOC 2007以及PASCAL VOC 2012数据集作为我们的训练数据集,训练数据集中包括20种物体类别,PASCAL VOC 2007一共有9963张图片,其中有训练数据集5011张图片,测试数据集有4952张图片。PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片。其中除了图片信息外还有每张图片含有的物体类别信息。
步骤(2)图片的特征图的获取以及多实例网络模型(Basic MIL network)的结构,多实例检测网络模型(Basic MIL network)结构如图3所示。首先图片先经过卷积层得到卷积特征图,选择性搜索边框的图片经过金字塔池化层得到每个选择性搜索框的卷积特征图,这些卷积特征图经过两层全连接层得到选择性搜索框的特征向量,特征向量分别经过一个全连接层之后,一个在物体类别方向连接softmax层如图3弱监督目标检测网络的网络结构示意图所示,一个在选择性搜索框的方向连接softmax层,两个向量进行数量积相乘,得到每个是选择性搜索框在每个类别上的得分即图2中的框分数。
步骤(3)图卷积神经网络,为了提高弱监督网络模型的检测精度,步骤2中得到选择性搜索框的特征向量之后增加图卷积神经网络,图卷积神经网络(GCN network)结构如图3所示。共有:输入层,第一个隐藏层,ReLU激活函数层,第二个隐藏层,ReLU激活函数层,最后连接输出层。输入层:每张图片经过特征提取网络,和金字塔池化层,得到图片的特征图。特征图之后连接两层全连接层生成2000*4096大小的的特征矩阵,我们把第一个隐藏层输出设置为256大小。所以第一个隐藏层为4096维转为256维,降低了网络参数的个数,减少训练复杂度。然后输出的特征向量点乘邻接矩阵A。再连接一个ReLU的激活层。再连接第二个隐藏层,第二个隐藏层的输出网络参数为256维转为21维,此层每个候选框将输出21个数的向量预测候选框属于每个类别的概率,输出的特征向量再次点乘邻接矩阵A,再连接一个ReLU的激活层。所以输出层的输入是2000*21大小的的特征矩阵,网络后面连接接一个softmax层。输出每个选择性搜索框的属于21个类别的概率。最后连接损失函数。
我们用图卷积网络分支网络替代了传统弱监督网络中的三个实例分类器优化网络,利用图卷积算法降低了模型的冗余性,只需连接一个图卷积神经网络。提高了模型的检测效率。
步骤(4)设置弱监督目标检测模型的损失函数,多实例检测网络模型的损失函数为分类损失函数,具体的为交叉熵损失函数,如公式(1)所示。
Figure BDA0002476145310000081
其中,φc是多实例网络模型输出的所有选择性搜索框图片的一个类别c上的权重之和。yc表示图片存在或者不存在物体类别c,当存在时等于1,不存在时等于0。C表示物体种类的总数量,PASCAL VOC有20类;加上背景这一类,C的取值为21,c表示物体的种类。
所述的权重之和是指在一个类别c上的所有选择性搜索框图片的概率之和,且该权重之和的数值在(0,1)之间。
图片中,当c种类存在时,yc等于1;那么式(1)的加号右侧为0,所以此时φc越大损失函数越小,则存在的分类的置信分数就会越大。
图片中,当c种类不存在时,yc等于0,那么式(1)的加号左侧为0,所以此时φc越小损失函数越小,则不存在的类别的置信分数就会越小。
图卷积神经网络分支结构的损失函数是一个分类损失函数,首先每个选择性搜索框图片的输出特征向量Ⅵ再经过softmax层,分类出每个选择性搜索框图片的类别概率的置信分数
Figure BDA0002476145310000084
分类损失函数如下所示:
Figure BDA0002476145310000082
其中,
Figure BDA0002476145310000083
表示第r个选择性搜索框图片属于c类别的置信分数,属于(0,1)之间。yc表示图像存在或者不存在类别c,当存在时yc等于1,不存在时yc等于0。C表示物体种类数目,PASCAL VOC中有20个类。对图片中所有的选择性搜索框图片对应的类进行聚类,经过聚类分为N束,sn表示第n个聚类束的置信分数,Mn表示第n个聚类束的物体框的个数。
步骤(5)用步骤(1)中训练数据集中的训练接迭代训练弱监督目标检测模型,得到模型结果。由上述步骤可以得到弱监督目标检测模型的训练结果,通过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型.
步骤(6)测试弱监督目标检测模型结果,通过两个重要的指标判断目标定位精度:平均正确率mAP和定位正确率CorLoc;其中平均正确率mAP是对于测试集的目标检测精度,定位正确率CorLoc是对于训练集的目标定位精度。

Claims (3)

1.一种基于图卷积神经网络的弱监督目标检测方法,其特征在于通过引入只检测到物体一部分的伪标注框作为弱监督目标检测网络的监督条件,通过多实例网络只检测到物体的一部分而不是覆盖全部物体;利用图卷积神经网络把检测为物体框的邻近且相交的候选框学习物体框的特征表示;因为和物体框相交的候选框也是物体的一部分,通过学习检测为物体的框的特征表示来改变候选框的特征表示,邻近的框学习检测为物体的框的特征;候选框和检测为物体框的特征表示就会相似,弱监督网络测试的时候会把与检测为物体框的邻近候选框也分类为目标物体;从而检测出的目标框覆盖更大的面积和更全的物体,提高弱监督目标检测的精度。
2.根据权利要求1所述的一种基于图卷积神经网络的弱监督目标检测方法,其特征在于具体包括以下步骤:
步骤(1)训练数据集的准备阶段:
在目标检测中用PASCAL VOC 2007以及PASCAL VOC 2012数据集作为训练数据集,训练数据集中包括20种物体类别,PASCAL VOC 2007一共有9963张图片,其中有训练数据集5011张图片,测试数据集有4952张图片;PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片;其中除了图片信息外还有每张图片含有的物体类别信息;
步骤(2)获取图片的特征图以及多实例检测网络模型:
首先,图片经过卷积层得到卷积特征图Ⅰ;
其次,选择性搜索边框图片经过金字塔池化层得到每个选择性搜索边框图片的卷积特征图Ⅱ,将卷积特征图Ⅱ连续经过两层全连接层得到选择性搜索边框图片的特征向量Ⅰ,特征向量Ⅰ分别经过全连接层Ⅰ和全连接层Ⅱ,全连接层Ⅰ与物体类别方向的softmax层Ⅰ连接,全连接层Ⅱ与选择性搜索边框图片方向的softmax层Ⅱ连接;将softmax层Ⅰ和softmax层Ⅱ输出的两个特征向量进行数量积相乘得到特征向量Ⅱ,根据特征向量Ⅱ得到每个选择性搜索边框图片在每个类别上的得分;
所述的图片包含多个选择性搜索边框图片;
步骤(3)图卷积神经网络,为了提高弱监督网络模型的检测精度,将步骤(2)获取的选择性搜索边框图片的特征向量Ⅱ输入图卷积神经网络,图卷积神经网络包括第一个隐藏层、第一个ReLU激活函数层、第二个隐藏层、第二个ReLU激活函数层;
将特征向量Ⅰ作为第一个隐藏层的输入,所述的特征向量Ⅰ是2000*4096大小的的特征矩阵;将第一个隐藏层输出设置为256维,因此第一个隐藏层将4096维转为256维,输出特征向量Ⅲ,降低了网络参数的个数,减少训练复杂度;然后输出的特征向量Ⅲ点乘邻接矩阵A,再然后连接第一个ReLU激活函数层;第一个ReLU激活函数层的输出作为第二个隐藏层的输入,第二个隐藏层的输出网络参数为21维,因此第二个隐藏层将256维转为21维,第二个隐藏层输出21维的特征向量Ⅳ,第二个隐藏层输出的特征向量Ⅳ再次点乘邻接矩阵A,然后再连接第二个ReLU激活函数层,得到特征向量Ⅴ;特征向量Ⅴ是2000*21大小的的特征矩阵;
图卷积神经网络的输出层连接一个softmax层,softmax层输出特征向量Ⅵ,即每个选择性搜索边框图片获得特征向量Ⅵ中,属于21个类别中每个类别的概率;最后连接损失函数;
步骤(4)设置弱监督目标检测模型的损失函数,多实例检测网络模型的损失函数为分类损失函数,具体的为交叉熵损失函数,如公式(1)所示;
Figure FDA0002476145300000021
其中,φc是多实例网络模型输出的所有选择性搜索框图片的一个类别c上的权重之和;yc表示图片存在或者不存在物体类别c,当存在时等于1,不存在时等于0;C表示物体种类的总数量,PASCAL VOC有20类;加上背景这一类,C的取值为21,c表示物体的种类;
所述的权重之和是指在一个类别c上的所有选择性搜索框图片的概率之和,且该权重之和的数值在(0,1)之间;
图片中,当c种类存在时,yc等于1;那么式(1)的加号右侧为0,所以此时φc越大损失函数越小,则存在的分类的置信分数就会越大;
图片中,当c种类不存在时,yc等于0,那么式(1)的加号左侧为0,所以此时φc越小损失函数越小,则不存在的类别的置信分数就会越小;
图卷积神经网络分支结构的损失函数是一个分类损失函数,首先每个选择性搜索框图片的输出特征向量Ⅵ再经过softmax层,分类出每个选择性搜索框图片的类别概率的置信分数
Figure FDA0002476145300000032
分类损失函数如下所示:
Figure FDA0002476145300000031
其中,
Figure FDA0002476145300000033
表示第r个选择性搜索框图片属于c类别的置信分数,属于(0,1)之间;yc表示图像存在或者不存在类别c,当存在时yc等于1,不存在时yc等于0;C表示物体种类数目,PASCALVOC中有20个类;对图片中所有的选择性搜索框图片对应的类进行聚类,经过聚类分为N束,sn表示第n个聚类束的置信分数,Mn表示第n个聚类束的物体框的个数;
步骤(5)用步骤(1)中训练数据集中的训练接迭代训练弱监督目标检测模型,得到模型结果;由上述步骤可以得到弱监督目标检测模型的训练结果,通过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型.
步骤(6)测试弱监督目标检测模型结果,通过两个重要的指标判断目标定位精度:平均正确率mAP和定位正确率CorLoc;测试结果表明平均正确率mAP和定位正确率CorLoc比现有PCL弱监督算法精确度提高5%mAP。
3.根据权利要求2所述的一种基于图卷积神经网络的弱监督目标检测方法,其特征在于所述的邻接矩阵A的获取如下:
计算n行和m列的选择性搜索边框图片之间的IOU,当IOU大于0.1时邻接矩阵A的n行m列的值为1,当IOU小于0.1时,邻接矩阵A的n行m列的值为0。
CN202010364601.6A 2020-04-30 2020-04-30 一种基于图卷积神经网络的弱监督目标检测方法 Active CN111612051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010364601.6A CN111612051B (zh) 2020-04-30 2020-04-30 一种基于图卷积神经网络的弱监督目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010364601.6A CN111612051B (zh) 2020-04-30 2020-04-30 一种基于图卷积神经网络的弱监督目标检测方法

Publications (2)

Publication Number Publication Date
CN111612051A true CN111612051A (zh) 2020-09-01
CN111612051B CN111612051B (zh) 2023-06-20

Family

ID=72204889

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010364601.6A Active CN111612051B (zh) 2020-04-30 2020-04-30 一种基于图卷积神经网络的弱监督目标检测方法

Country Status (1)

Country Link
CN (1) CN111612051B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112231527A (zh) * 2020-12-17 2021-01-15 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
CN113095235A (zh) * 2021-04-15 2021-07-09 国家电网有限公司 一种基于弱监督判别机制的图像目标检测方法、***及装置
CN113674207A (zh) * 2021-07-21 2021-11-19 电子科技大学 一种基于图卷积神经网络的pcb元器件自动定位方法
CN113807247A (zh) * 2021-09-16 2021-12-17 清华大学 基于图卷积网络的行人重识别高效标注方法及装置
CN114359627A (zh) * 2021-12-15 2022-04-15 南京视察者智能科技有限公司 一种基于图卷积的目标检测后处理方法及装置
CN114627437A (zh) * 2022-05-16 2022-06-14 科大天工智能装备技术(天津)有限公司 一种交通目标识别方法及***
CN114638322A (zh) * 2022-05-20 2022-06-17 南京大学 开放场景下基于给定描述的全自动目标检测***和方法
CN115439688A (zh) * 2022-09-01 2022-12-06 哈尔滨工业大学 一种基于周围区域感知与关联的弱监督物体检测方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001278901A1 (en) * 2000-07-12 2002-01-21 Karo Bio Ab Method of identifying conformation-sensitive binding peptides and uses thereof
CN104573731A (zh) * 2015-02-06 2015-04-29 厦门大学 基于卷积神经网络的快速目标检测方法
US20180165547A1 (en) * 2016-12-08 2018-06-14 Shenzhen University Object Recognition Method and Device
CN109829433A (zh) * 2019-01-31 2019-05-31 北京市商汤科技开发有限公司 人脸图像识别方法、装置、电子设备及存储介质
CN110210330A (zh) * 2019-05-13 2019-09-06 清华大学 基于内隐知识构建图卷积网络的电磁信号识别方法及装置
CN110378381A (zh) * 2019-06-17 2019-10-25 华为技术有限公司 物体检测方法、装置和计算机存储介质
CN110427835A (zh) * 2019-07-11 2019-11-08 清华大学 图卷积网络与迁移学习的新型电磁信号识别方法和装置
CN110533067A (zh) * 2019-07-22 2019-12-03 杭州电子科技大学 基于深度学习的边框回归的端到端弱监督目标检测方法
CN110705613A (zh) * 2019-09-19 2020-01-17 创新奇智(青岛)科技有限公司 物体分类方法
CN110880019A (zh) * 2019-10-30 2020-03-13 北京中科研究院 通过无监督域适应训练目标域分类模型的方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001278901A1 (en) * 2000-07-12 2002-01-21 Karo Bio Ab Method of identifying conformation-sensitive binding peptides and uses thereof
CN104573731A (zh) * 2015-02-06 2015-04-29 厦门大学 基于卷积神经网络的快速目标检测方法
US20180165547A1 (en) * 2016-12-08 2018-06-14 Shenzhen University Object Recognition Method and Device
CN109829433A (zh) * 2019-01-31 2019-05-31 北京市商汤科技开发有限公司 人脸图像识别方法、装置、电子设备及存储介质
CN110210330A (zh) * 2019-05-13 2019-09-06 清华大学 基于内隐知识构建图卷积网络的电磁信号识别方法及装置
CN110378381A (zh) * 2019-06-17 2019-10-25 华为技术有限公司 物体检测方法、装置和计算机存储介质
CN110427835A (zh) * 2019-07-11 2019-11-08 清华大学 图卷积网络与迁移学习的新型电磁信号识别方法和装置
CN110533067A (zh) * 2019-07-22 2019-12-03 杭州电子科技大学 基于深度学习的边框回归的端到端弱监督目标检测方法
CN110705613A (zh) * 2019-09-19 2020-01-17 创新奇智(青岛)科技有限公司 物体分类方法
CN110880019A (zh) * 2019-10-30 2020-03-13 北京中科研究院 通过无监督域适应训练目标域分类模型的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DINGWEN ZHANG 等: "Weakly Supervised Object Detection Using Proposal- and Semantic-Level Relationships" *
LINJIANG HUANG 等: "Relational Prototypical Network for Weakly Supervised Temporal Action Localization" *
PENG TANG 等: "PCL: Proposal Cluster Learning for Weakly Supervised Object Detection" *
蒋弘毅 等: "目标检测模型及其优化方法综述" *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112231527A (zh) * 2020-12-17 2021-01-15 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
CN112231527B (zh) * 2020-12-17 2021-06-11 北京百度网讯科技有限公司 图节点标签信息的预测方法、装置及电子设备
CN113095235A (zh) * 2021-04-15 2021-07-09 国家电网有限公司 一种基于弱监督判别机制的图像目标检测方法、***及装置
CN113095235B (zh) * 2021-04-15 2023-10-27 国家电网有限公司 一种基于弱监督判别机制的图像目标检测方法、***及装置
CN113674207B (zh) * 2021-07-21 2023-04-07 电子科技大学 一种基于图卷积神经网络的pcb元器件自动定位方法
CN113674207A (zh) * 2021-07-21 2021-11-19 电子科技大学 一种基于图卷积神经网络的pcb元器件自动定位方法
CN113807247A (zh) * 2021-09-16 2021-12-17 清华大学 基于图卷积网络的行人重识别高效标注方法及装置
CN113807247B (zh) * 2021-09-16 2024-04-26 清华大学 基于图卷积网络的行人重识别高效标注方法及装置
CN114359627A (zh) * 2021-12-15 2022-04-15 南京视察者智能科技有限公司 一种基于图卷积的目标检测后处理方法及装置
CN114359627B (zh) * 2021-12-15 2024-06-07 南京视察者智能科技有限公司 一种基于图卷积的目标检测后处理方法及装置
CN114627437A (zh) * 2022-05-16 2022-06-14 科大天工智能装备技术(天津)有限公司 一种交通目标识别方法及***
CN114638322A (zh) * 2022-05-20 2022-06-17 南京大学 开放场景下基于给定描述的全自动目标检测***和方法
CN115439688A (zh) * 2022-09-01 2022-12-06 哈尔滨工业大学 一种基于周围区域感知与关联的弱监督物体检测方法

Also Published As

Publication number Publication date
CN111612051B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN111612051B (zh) 一种基于图卷积神经网络的弱监督目标检测方法
CN110956185B (zh) 一种图像显著目标的检测方法
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
US11960568B2 (en) Model and method for multi-source domain adaptation by aligning partial features
CN109919108B (zh) 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN107392901A (zh) 一种用于输电线路部件智能自动识别的方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN110569738B (zh) 基于密集连接网络的自然场景文本检测方法、设备和介质
CN111476315A (zh) 一种基于统计相关性与图卷积技术的图像多标签识别方法
CN107247952B (zh) 基于深层监督的循环卷积神经网络的视觉显著性检测方法
CN113033520A (zh) 一种基于深度学习的树木线虫病害木识别方法及***
CN113177560A (zh) 一种普适性轻量级深度学习车辆检测方法
CN114998220B (zh) 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN112989942A (zh) 一种基于交通监控视频的目标实例分割方法
CN113159067A (zh) 一种基于多粒度局部特征软关联聚合的细粒度图像辨识方法及装置
CN114820655A (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN113298817A (zh) 一种准确率高的遥感图像语义分割方法
CN114511627A (zh) 一种目标果实定位分割方法及***
CN110287970B (zh) 一种基于cam与掩盖的弱监督物体定位方法
Rao et al. Roads detection of aerial image with FCN-CRF model
CN115861306A (zh) 一种基于自监督拼图模块的工业品异常检测方法
CN112818982B (zh) 基于深度特征自相关性激活的农业害虫图像检测方法
CN114693997A (zh) 基于迁移学习的图像描述生成方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Yan Chenggang

Inventor after: Han Guwen

Inventor after: Shi Zhiguo

Inventor after: Sun Yaoqi

Inventor after: Zhang Jiyong

Inventor after: Zhang Yongdong

Inventor before: Yan Chenggang

Inventor before: Han Guwen

Inventor before: Sun Yaoqi

Inventor before: Zhang Jiyong

Inventor before: Zhang Yongdong

GR01 Patent grant
GR01 Patent grant