CN111340096A - 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 - Google Patents

一种基于对抗互补学习的弱监督蝴蝶目标检测方法 Download PDF

Info

Publication number
CN111340096A
CN111340096A CN202010111404.3A CN202010111404A CN111340096A CN 111340096 A CN111340096 A CN 111340096A CN 202010111404 A CN202010111404 A CN 202010111404A CN 111340096 A CN111340096 A CN 111340096A
Authority
CN
China
Prior art keywords
branch
butterfly
network
image
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010111404.3A
Other languages
English (en)
Inventor
李玉鑑
方宇
张婷
刘兆英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010111404.3A priority Critical patent/CN111340096A/zh
Publication of CN111340096A publication Critical patent/CN111340096A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于对抗互补学习的弱监督蝴蝶目标检测方法,依次包括以下步骤:首先将爬虫爬取到的蝴蝶生态图像和蝴蝶标本图像按照类别进行混合,构成蝴蝶数据集;然后将图像裁剪并标准化处理;接着将蝴蝶数据集按比例划分为训练图像集和测试图像集;之后建立骨干网络和对抗互补学习网络,使用训练集训练网络,待网络收敛时保存模型;最后将测试图像输入到训练好的网络模型得到目标检测结果图。

Description

一种基于对抗互补学习的弱监督蝴蝶目标检测方法
技术领域
本发明属于图像识别技术领域,尤其涉及一种基于对抗互补学习的弱监督蝴蝶目标检测方法。
背景技术
蝴蝶是节肢动物门、昆虫纲、鳞翅目、锤角亚目的一类昆虫。一方面,幼虫期的蝴蝶以农林业作物为食,是农林业的主要害虫之一;另一方面,蝴蝶是一种宝贵的环境指标,其监测数据被用在生态环境监测、生物多样性保护等方面,同时,蝴蝶具有很高的观赏价值和经济价值,是一种自然资源。因此,蝴蝶的分类与鉴定在农林业病虫防治、环境保护、蝴蝶产业发展等实际工作方面都具有重大意义。
传统的蝴蝶鉴别方式主要有人工鉴定和生化学鉴定两种方式。人工鉴定方式主要通过将生态学特征和标本特征进行比对,此方法依赖于长期的经验积累且较为费时;生化学鉴定方式利用蝴蝶生殖器对生物化学试剂的反应,此方法依赖于专业的生化学知识且代价较为昂贵。因此,这两种方法均不具备蝴蝶鉴定的普适性。
随着图像处理技术和机器学习理论的发展,研究者通过机器学习方法实现蝴蝶的鉴定,主要方法为人工提取蝴蝶的图像特征(蝴蝶翅面的颜色、纹理以及形状信息),然后根据这些特征信息进行数学建模,确定分类器进行分类。
机器学习方法大多需要人工选择图像特征,特征提取和特征选择在很大程度上决定了分类的最终效果。同时,机器学习方法均集中于蝴蝶标本图像的识别,对蝴蝶生态图像(生态环境中拍摄的蝴蝶图像)缺乏有效的识别手段。在生态图像中,一方面,蝴蝶大多没有占据图像中的全部位置;另一方面,蝴蝶具有拟态能力,使得蝴蝶目标与背景难以区分,这均为蝴蝶图像的识别带来了巨大的挑战。因此,为了更好的识别生态图像中的蝴蝶,需要先确定蝴蝶在图像中的位置,然后再完成蝴蝶的识别,此为蝴蝶的目标检测。
以卷积神经网络(Convolutional Neural Network,CNN)为代表的深度学***均池化(global averagepooling,GAP)层代替VGG的全连接层,获取物体的位置信息,但是这种方法仅能获得最具区分能力的区域。Singh等人在Zhou方法的基础上,将每次输入的图像随机隐藏区域块,来获得更多的区分区域。然而,由于随机隐藏,该方法不能有效地定位到物体的整体区域。
本发明通过对抗互补学习方法,仅使用图像级标签,以弱监督的方式,有效地定位蝴蝶在图像中的全部位置,并识别出蝴蝶的类别。
发明内容
本发明要解决的技术问题是,提供一种基于对抗互补学习的弱监督蝴蝶目标检测方法,用于蝴蝶图像的目标检测。为实现上述目的,本发明采用如下的技术方案:
一种基于对抗互补学习的弱监督蝴蝶目标检测方法包括以下步骤:
步骤1:构建蝴蝶数据集。蝴蝶数据集由两部分组成,第一部分由谷歌图片和百度图片上爬取的蝴蝶生态图像构成,称为数据集D1,第二部分由《中国蝶类志》上的蝴蝶标本图像构成,称为数据集D2。将数据集D1和数据集D2混合构成蝴蝶数据集
Figure BDA0002390134660000021
其中蝴蝶图像为Ii,类别标签为yi。数据集D共包含M类蝴蝶的N幅图像,将数据集D划分为训练集Dt(包含Nt幅图像)和测试集Ds(包含Ns幅图像);
步骤2:构建骨干网络。本发明选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成。骨干网络的输入为彩色的蝴蝶图像Ii∈Rh×w×3(1<i<Nt),其中h和w分别表示图像的高度和宽度,3表示图像的通道数。网络的输出为多通道的位置感知特征图
Figure BDA0002390134660000022
其中K1表示位置感知特征图的通道数,H1和W1分别为特征图的高度和宽度。该骨干网络表示为:
Si=f00,Ii)
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络。对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器。其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB
步骤3.1:对于A分支,该分支首先使用特征提取器EA提取特征,获取类别激活图;然后使用分类器clsA进行分类。其中,特征提取器是一个三层的卷积神经网络,它的输入为骨干网络的输出Si(1≤i≤Nt),输出为类目标图
Figure BDA0002390134660000031
该目标图显示了目标类的唯一区分区域。将
Figure BDA0002390134660000032
归一化到[0,1]之间并定义为
Figure BDA0002390134660000033
Figure BDA0002390134660000034
即为该分支的定位图。分类器由一个全局平均池化(Global Average Pooling,GAP)层和一个软最大(softmax)层组成,它的输入为
Figure BDA0002390134660000035
输出为分类结果
Figure BDA0002390134660000036
其中M表示蝴蝶的类别数。整个分支具体表示为:
Figure BDA0002390134660000037
Figure BDA0002390134660000038
其中fA(·)和
Figure BDA0002390134660000039
分别表示特征提取器EA和分类器clsA的作用,θA为特征提取器EA的参数,
Figure BDA00023901346600000310
为A分支分类器的参数;
步骤3.2:使用特征擦除器Era擦除特征图
Figure BDA00023901346600000311
中最具判别性的区域。设阈值为δ,那么最具判别性的区域为
Figure BDA00023901346600000312
将Aera所在的区域在特征图Si中置为0,生成擦除后的特征图
Figure BDA00023901346600000313
Figure BDA00023901346600000314
步骤3.3:对于B分支,其结构与A分支基本相同。该分支首先使用特征提取器EB提取特征,获取类别激活图,然后再使用分类器clsB进行分类。其中,特征提取器同样是一个三层的卷积神经网络,它的输入为擦除后的特征图
Figure BDA0002390134660000041
输出为类目标图
Figure BDA0002390134660000042
Figure BDA0002390134660000043
将学***均池化层和一个软最大层组成,它的输入为
Figure BDA0002390134660000047
输出为分类结果
Figure BDA0002390134660000048
整个分支具体表示为:
Figure BDA0002390134660000049
Figure BDA00023901346600000410
其中fB(·)和
Figure BDA00023901346600000411
分别表示特征提取器EB和分类器clsB的作用,θB为特征提取器EB的参数,
Figure BDA00023901346600000412
为B分支分类器的参数;
步骤4:建立两个分支网络的损失函数LA和LB,损失函数为实际输出向量
Figure BDA00023901346600000413
Figure BDA00023901346600000414
分别与目标输出向量yi的交叉熵,分别表示为:
Figure BDA00023901346600000415
Figure BDA00023901346600000416
则网络的总损失为L=LA+LB
步骤5:网络训练。设置迭代次数、学习率等超参数,将训练集Dt输入网络,使用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤6:网络测试。加载保存的模型,将测试集Ds输入网络,获得分类的准确率。输入单幅测试图像Ii∈Rh×w×3(1≤i≤Ns),可获得A分支的定位图
Figure BDA00023901346600000417
和B分支的定位图
Figure BDA00023901346600000418
取两个定位图对应位置的最大值,得到最终的定位图
Figure BDA0002390134660000051
根据定位图在图像上绘制矩形框,即可获得蝴蝶目标在图像中的位置。
附图说明
图1为原始图像。
图2为骨干网络结构。
图3为网络整体结构。
图4为测试结果图。
具体实施方式
本发明实例提供一种基于对抗互补学习的弱监督蝴蝶目标检测方法,下面结合相关附图对本发明进行解释和阐述:
本发明的实施方案流程如下:
步骤1:构建蝴蝶数据集。蝴蝶数据集由两部分组成,分别为蝴蝶生态图像数据集和蝴蝶标本图像数据集。蝴蝶生态图像由爬虫在谷歌图片和百度图片上爬取得到,称为数据集D1,该数据集的图像如附图1的(a)所示。蝴蝶标本图像从《中国蝶类志》上获得,称为数据集D2,该数据集的图像如附图1的(b)所示。将数据集D1和数据集D2混合构成蝴蝶数据集
Figure BDA0002390134660000052
其中蝴蝶图像为Ii,类别标签为yi,蝴蝶数据集D分为M=334类,共包含N=74111幅图像。将数据集D按照每类8:2的比例划分为训练集Dt(包含Nt=58288幅图像)和测试集Ds(包含Ns=14823幅图像)。为了防止计算量过大,将每张蝴蝶图像重采样为256×256,然后随机裁剪为224×224作为网络的输入,在输入网络前,需要对数据标准化(图像的各维度减去数据集的均值并除以数据集的标准差);
步骤2:构建骨干网络。本发明选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成。其中,对于前2个卷积块,每个卷积块均由2个卷积层组成;对于后3个卷积块,每个卷积块均由3个卷积层组成,一共13个卷积层,其结构如附图2所示。骨干网络的输入为彩色的蝴蝶图像Ii∈R224×224×3(1<i<Nt),其中3表示图像通道数,h=224和w=224分别表示图像的高度和宽度。网络的输出为多通道的位置感知特征图Si∈R28×28×512,其中512表示特征图的通道数,28×28为特征图的分辨率。该骨干网络表示为:
Si=f00,Ii),1<i<Nt
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络。对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器。其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB
步骤3.1:对于第一个分支A,该分支首先使用特征提取器EA提取特征,获取类别激活图,然后使用分类器clsA进行分类。其中,特征提取器是一个三层的卷积神经网络,它的输入为骨干网络的输出Si,输出为类目标图
Figure BDA0002390134660000061
该图显示了目标类的唯一区分区域。将
Figure BDA0002390134660000062
归一化到[0,1]并定义为
Figure BDA0002390134660000063
Figure BDA0002390134660000064
即为该分支的定位图。分类器由一个全局平均池化(Global Average Pooling,GAP)层和一个软最大层组成。全局平均池化层代替了VGG16中的全连接层,它的输出为一维向量,大小为334;软最大层将一维向量映射为每一类的概率。分类器的输入为
Figure BDA0002390134660000065
输出为分类结果
Figure BDA0002390134660000066
整个分支具体表示为:
Figure BDA0002390134660000067
其中fA(·)和
Figure BDA0002390134660000068
分别表示特征提取器EA和分类器clsA的作用,θA为特征提取器EA的参数,
Figure BDA0002390134660000069
为A分支分类器的参数;
步骤3.2:使用特征擦除器Era擦除特征图
Figure BDA00023901346600000610
中最具判别性的区域。假设阈值为δ(δ∈{0.5,0.6,0.7,0.8,0.9}),那么最具判别性的区域为
Figure BDA00023901346600000611
将Aera所在的区域在特征图Si中置为0,生成擦除后的特征图
Figure BDA0002390134660000071
Figure BDA0002390134660000072
步骤3.3:对于第二个分支B,其结构与分支A基本相同。该分支首先使用特征提取器EB提取特征,获取类别激活图,然后再使用分类器clsB进行分类。其中,特征提取器同样是一个三层的卷积神经网络,它的输入为擦除后的特征图
Figure BDA0002390134660000073
输出为类目标图
Figure BDA0002390134660000074
Figure BDA0002390134660000075
将学***均池化层和一个软最大层组成,全局平均池化层的输出为一维向量,大小为334;软最大层将一维向量映射为每一类的概率。分类器的输入为
Figure BDA0002390134660000079
输出为分类结果
Figure BDA00023901346600000710
整个分支具体表示为:
Figure BDA00023901346600000711
其中fB(·)和
Figure BDA00023901346600000712
分别表示特征提取器EB和分类器clsB的作用,θB为特征提取器EB的参数,
Figure BDA00023901346600000713
为B分支分类器的参数;
步骤4:建立两个分支网络的损失函数LA和LB,损失函数为实际输出向量
Figure BDA00023901346600000714
Figure BDA00023901346600000715
与目标输出向量yi的交叉熵,分别表示为:
Figure BDA00023901346600000716
Figure BDA00023901346600000717
则网络的总损失为L=LA+LB
步骤5:网络训练。设置迭代次数为50、学习率为0.001,阈值δ为0.6,将训练集Dt输入网络,使用ImageNet训练的VGG16权值初始化骨干网络,利用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤6:网络测试。加载保存的模型,将测试集Ds输入网络,获得分类准确率。输入单幅测试图像Ii∈Rh×w×3(1≤i≤Ns),可获得A分支的定位图
Figure BDA0002390134660000081
和B分支的定位图
Figure BDA0002390134660000082
取两个定位图对应位置的最大值,得到最终的定位图
Figure BDA0002390134660000083
将定位图加在测试图像上,如附图4的(a)所示;将定位图二值化然后获取蝴蝶目标轮廓,再获得轮廓的外接矩形,最后将矩形绘制在测试图像上,即可获得蝴蝶目标在图像中的位置,如附图4的(b)所示。
以上实例仅用于描述本发明,而非限制本发明所描述的技术方案。因此,一切不脱离本发明精神和范围的技术方案及其改进,均应涵盖在本发明的权利要求范围中。

Claims (2)

1.一种基于对抗互补学习的弱监督蝴蝶目标检测方法,其特征在于:该方法包括如下步骤,
步骤1:构建蝴蝶数据集:蝴蝶数据集由两部分组成,第一部分由谷歌图片和百度图片上爬取的蝴蝶生态图像构成,称为数据集D1,第二部分由蝴蝶标本图像构成,称为数据集D2;将数据集D1和数据集D2混合构成蝴蝶数据集
Figure FDA0002390134650000011
其中蝴蝶图像为Ii,类别标签为yi;数据集D共包含M类蝴蝶的N幅图像,将数据集D划分为训练集Dt和测试集Ds;训练集Dt包含Nt幅图像,测试集Ds包含Ns幅图像;
步骤2:构建骨干网络:选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成;骨干网络的输入为彩色的蝴蝶图像Ii∈Rh×w×3,1<i<Nt,其中h和w分别表示图像的高度和宽度,3表示图像的通道个数;网络的输出为多通道的位置感知特征图
Figure FDA0002390134650000012
其中K1表示位置感知特征图的通道数,H1和W1分别为特征图的高度和宽度;该骨干网络表示为:
Si=f00,Ii),
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络:对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器;其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB
步骤4:建立两个分支网络的损失函数LA和LB,损失函数为实际输出向量
Figure FDA0002390134650000013
Figure FDA0002390134650000014
分别与目标输出向量yi的交叉熵,分别表示为:
Figure FDA0002390134650000015
Figure FDA0002390134650000016
则网络的总损失为L=LA+LB
步骤5:网络训练:设置迭代次数、学习率等超参数,将训练集Dt输入网络,使用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤6:网络测试:加载保存的模型,将测试集Ds输入网络,获得分类的准确率;输入单幅测试图像Ii∈Rh×w×3,获得A分支的定位图
Figure FDA0002390134650000021
和B分支的定位图
Figure FDA0002390134650000022
取两个定位图对应位置的最大值,得到最终的定位图
Figure FDA0002390134650000023
根据定位图在图像上绘制矩形框,获得蝴蝶目标在图像中的位置。
2.根据权利要求1所述的一种基于对抗互补学***均池化层和一个软最大输出层组成,输入为
Figure FDA0002390134650000028
输出为分类结果
Figure FDA0002390134650000029
整个分支具体表示为:
Figure FDA00023901346500000210
Figure FDA00023901346500000211
其中fA(·)和
Figure FDA00023901346500000212
分别表示特征提取器EA和分类器clsA的作用,θA为特征提取器EA的参数,
Figure FDA00023901346500000213
为A分支分类器的参数;
步骤3.2:使用特征擦除器Era擦除特征图
Figure FDA00023901346500000214
中最具判别性的区域:设阈值为δ,那么最具判别性的区域可表示为
Figure FDA00023901346500000215
将Area所在的区域在特征图Si中置为0,生成擦除后的特征图
Figure FDA00023901346500000216
Figure FDA00023901346500000217
步骤3.3:对于B分支,其结构与A分支基本相同;该分支同样首先使用特征提取器EB提取特征,获取类别激活图,然后使用分类器clsB进行分类;其中,特征提取器同样是一个三层的卷积神经网络,输入为擦除后的特征图
Figure FDA0002390134650000031
输出为类目标图
Figure FDA0002390134650000032
Figure FDA0002390134650000033
将学***均池化层和一个软最大层组成,输入为
Figure FDA0002390134650000037
输出为分类结果
Figure FDA0002390134650000038
整个分支具体表示为:
Figure FDA0002390134650000039
Figure FDA00023901346500000310
其中fB(·)和
Figure FDA00023901346500000311
分别表示特征提取器EB和分类器clsB的作用,θB为特征提取器EB的参数,
Figure FDA00023901346500000312
为B分支分类器的参数。
CN202010111404.3A 2020-02-24 2020-02-24 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 Pending CN111340096A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010111404.3A CN111340096A (zh) 2020-02-24 2020-02-24 一种基于对抗互补学习的弱监督蝴蝶目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010111404.3A CN111340096A (zh) 2020-02-24 2020-02-24 一种基于对抗互补学习的弱监督蝴蝶目标检测方法

Publications (1)

Publication Number Publication Date
CN111340096A true CN111340096A (zh) 2020-06-26

Family

ID=71185486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010111404.3A Pending CN111340096A (zh) 2020-02-24 2020-02-24 一种基于对抗互补学习的弱监督蝴蝶目标检测方法

Country Status (1)

Country Link
CN (1) CN111340096A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364980A (zh) * 2020-11-09 2021-02-12 北京计算机技术及应用研究所 一种弱监督场景下基于强化学习的深度神经网络训练方法
CN112800927A (zh) * 2021-01-25 2021-05-14 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112801029A (zh) * 2021-02-09 2021-05-14 北京工业大学 基于注意力机制的多任务学习方法
CN114882298A (zh) * 2022-07-11 2022-08-09 东声(苏州)智能科技有限公司 一种对抗互补学习模型的优化方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488536A (zh) * 2015-12-10 2016-04-13 中国科学院合肥物质科学研究院 一种基于多特征深度学习技术的农田害虫图像识别方法
CN109063742A (zh) * 2018-07-06 2018-12-21 平安科技(深圳)有限公司 蝴蝶识别网络构建方法、装置、计算机设备及存储介质
CN109376765A (zh) * 2018-09-14 2019-02-22 汕头大学 一种基于深度学习的蝴蝶自动分类方法
CN109886295A (zh) * 2019-01-11 2019-06-14 平安科技(深圳)有限公司 一种基于神经网络的蝴蝶识别方法及相关设备
CN110569901A (zh) * 2019-09-05 2019-12-13 北京工业大学 一种基于通道选择的对抗消除弱监督目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488536A (zh) * 2015-12-10 2016-04-13 中国科学院合肥物质科学研究院 一种基于多特征深度学习技术的农田害虫图像识别方法
CN109063742A (zh) * 2018-07-06 2018-12-21 平安科技(深圳)有限公司 蝴蝶识别网络构建方法、装置、计算机设备及存储介质
CN109376765A (zh) * 2018-09-14 2019-02-22 汕头大学 一种基于深度学习的蝴蝶自动分类方法
CN109886295A (zh) * 2019-01-11 2019-06-14 平安科技(深圳)有限公司 一种基于神经网络的蝴蝶识别方法及相关设备
CN110569901A (zh) * 2019-09-05 2019-12-13 北京工业大学 一种基于通道选择的对抗消除弱监督目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIAOLIN ZHANG 等: "Adversarial Complementary Learning for Weakly Supervised Object Localization", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364980A (zh) * 2020-11-09 2021-02-12 北京计算机技术及应用研究所 一种弱监督场景下基于强化学习的深度神经网络训练方法
CN112364980B (zh) * 2020-11-09 2024-04-30 北京计算机技术及应用研究所 一种弱监督场景下基于强化学习的深度神经网络训练方法
CN112800927A (zh) * 2021-01-25 2021-05-14 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112800927B (zh) * 2021-01-25 2024-03-29 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112801029A (zh) * 2021-02-09 2021-05-14 北京工业大学 基于注意力机制的多任务学习方法
CN112801029B (zh) * 2021-02-09 2024-05-28 北京工业大学 基于注意力机制的多任务学习方法
CN114882298A (zh) * 2022-07-11 2022-08-09 东声(苏州)智能科技有限公司 一种对抗互补学习模型的优化方法及装置
CN114882298B (zh) * 2022-07-11 2022-11-01 东声(苏州)智能科技有限公司 一种对抗互补学习模型的优化方法及装置

Similar Documents

Publication Publication Date Title
CN109214399B (zh) 一种嵌入SENet结构的改进YOLOV3目标识别方法
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN111340096A (zh) 一种基于对抗互补学习的弱监督蝴蝶目标检测方法
Grilli et al. A review of point clouds segmentation and classification algorithms
Li et al. SAR image change detection using PCANet guided by saliency detection
CN109766873B (zh) 一种混合可变形卷积的行人再识别方法
CN112464911A (zh) 基于改进YOLOv3-tiny的交通标志检测与识别方法
CN111833322B (zh) 一种基于改进YOLOv3的垃圾多目标检测方法
CN110619059A (zh) 一种基于迁移学习的建筑物标定方法
CN113269224B (zh) 一种场景图像分类方法、***及存储介质
CN112528845B (zh) 一种基于深度学习的物理电路图识别方法及其应用
CN113761259A (zh) 一种图像处理方法、装置以及计算机设备
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN111339935A (zh) 一种基于可解释cnn图像分类模型的光学遥感图片分类方法
CN111353396A (zh) 一种基于SCSEOCUnet的混凝土裂缝分割方法
CN112132145A (zh) 一种基于模型扩展卷积神经网络的图像分类方法及***
CN112101364B (zh) 基于参数重要性增量学习的语义分割方法
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及***
CN111079837A (zh) 一种用于二维灰度图像检测识别分类的方法
CN115049952A (zh) 一种基于多尺度级联感知深度学习网络的幼鱼肢体识别方法
CN112308825A (zh) 一种基于SqueezeNet的农作物叶片病害识别方法
CN111414951B (zh) 用于图像的细分类方法及装置
Tan et al. Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
CN110688512A (zh) 基于ptgan区域差距与深度神经网络的行人图像搜索算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200626

WD01 Invention patent application deemed withdrawn after publication