CN111340096A - 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 - Google Patents
一种基于对抗互补学习的弱监督蝴蝶目标检测方法 Download PDFInfo
- Publication number
- CN111340096A CN111340096A CN202010111404.3A CN202010111404A CN111340096A CN 111340096 A CN111340096 A CN 111340096A CN 202010111404 A CN202010111404 A CN 202010111404A CN 111340096 A CN111340096 A CN 111340096A
- Authority
- CN
- China
- Prior art keywords
- branch
- butterfly
- network
- image
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 230000000295 complement effect Effects 0.000 title claims abstract description 16
- 241000510032 Ellipsaria lineolata Species 0.000 claims abstract description 62
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 12
- 241000255777 Lepidoptera Species 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims 1
- 238000010801 machine learning Methods 0.000 description 4
- 241000607479 Yersinia pestis Species 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 241000238421 Arthropoda Species 0.000 description 1
- 244000241796 Christia obcordata Species 0.000 description 1
- 241000938605 Crocodylia Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000500891 Insecta Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004392 genitalia Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000001418 larval effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于对抗互补学习的弱监督蝴蝶目标检测方法,依次包括以下步骤:首先将爬虫爬取到的蝴蝶生态图像和蝴蝶标本图像按照类别进行混合,构成蝴蝶数据集;然后将图像裁剪并标准化处理;接着将蝴蝶数据集按比例划分为训练图像集和测试图像集;之后建立骨干网络和对抗互补学习网络,使用训练集训练网络,待网络收敛时保存模型;最后将测试图像输入到训练好的网络模型得到目标检测结果图。
Description
技术领域
本发明属于图像识别技术领域,尤其涉及一种基于对抗互补学习的弱监督蝴蝶目标检测方法。
背景技术
蝴蝶是节肢动物门、昆虫纲、鳞翅目、锤角亚目的一类昆虫。一方面,幼虫期的蝴蝶以农林业作物为食,是农林业的主要害虫之一;另一方面,蝴蝶是一种宝贵的环境指标,其监测数据被用在生态环境监测、生物多样性保护等方面,同时,蝴蝶具有很高的观赏价值和经济价值,是一种自然资源。因此,蝴蝶的分类与鉴定在农林业病虫防治、环境保护、蝴蝶产业发展等实际工作方面都具有重大意义。
传统的蝴蝶鉴别方式主要有人工鉴定和生化学鉴定两种方式。人工鉴定方式主要通过将生态学特征和标本特征进行比对,此方法依赖于长期的经验积累且较为费时;生化学鉴定方式利用蝴蝶生殖器对生物化学试剂的反应,此方法依赖于专业的生化学知识且代价较为昂贵。因此,这两种方法均不具备蝴蝶鉴定的普适性。
随着图像处理技术和机器学习理论的发展,研究者通过机器学习方法实现蝴蝶的鉴定,主要方法为人工提取蝴蝶的图像特征(蝴蝶翅面的颜色、纹理以及形状信息),然后根据这些特征信息进行数学建模,确定分类器进行分类。
机器学习方法大多需要人工选择图像特征,特征提取和特征选择在很大程度上决定了分类的最终效果。同时,机器学习方法均集中于蝴蝶标本图像的识别,对蝴蝶生态图像(生态环境中拍摄的蝴蝶图像)缺乏有效的识别手段。在生态图像中,一方面,蝴蝶大多没有占据图像中的全部位置;另一方面,蝴蝶具有拟态能力,使得蝴蝶目标与背景难以区分,这均为蝴蝶图像的识别带来了巨大的挑战。因此,为了更好的识别生态图像中的蝴蝶,需要先确定蝴蝶在图像中的位置,然后再完成蝴蝶的识别,此为蝴蝶的目标检测。
以卷积神经网络(Convolutional Neural Network,CNN)为代表的深度学***均池化(global averagepooling,GAP)层代替VGG的全连接层,获取物体的位置信息,但是这种方法仅能获得最具区分能力的区域。Singh等人在Zhou方法的基础上,将每次输入的图像随机隐藏区域块,来获得更多的区分区域。然而,由于随机隐藏,该方法不能有效地定位到物体的整体区域。
本发明通过对抗互补学习方法,仅使用图像级标签,以弱监督的方式,有效地定位蝴蝶在图像中的全部位置,并识别出蝴蝶的类别。
发明内容
本发明要解决的技术问题是,提供一种基于对抗互补学习的弱监督蝴蝶目标检测方法,用于蝴蝶图像的目标检测。为实现上述目的,本发明采用如下的技术方案:
一种基于对抗互补学习的弱监督蝴蝶目标检测方法包括以下步骤:
步骤1:构建蝴蝶数据集。蝴蝶数据集由两部分组成,第一部分由谷歌图片和百度图片上爬取的蝴蝶生态图像构成,称为数据集D1,第二部分由《中国蝶类志》上的蝴蝶标本图像构成,称为数据集D2。将数据集D1和数据集D2混合构成蝴蝶数据集其中蝴蝶图像为Ii,类别标签为yi。数据集D共包含M类蝴蝶的N幅图像,将数据集D划分为训练集Dt(包含Nt幅图像)和测试集Ds(包含Ns幅图像);
步骤2:构建骨干网络。本发明选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成。骨干网络的输入为彩色的蝴蝶图像Ii∈Rh×w×3(1<i<Nt),其中h和w分别表示图像的高度和宽度,3表示图像的通道数。网络的输出为多通道的位置感知特征图其中K1表示位置感知特征图的通道数,H1和W1分别为特征图的高度和宽度。该骨干网络表示为:
Si=f0(θ0,Ii)
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络。对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器。其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB;
步骤3.1:对于A分支,该分支首先使用特征提取器EA提取特征,获取类别激活图;然后使用分类器clsA进行分类。其中,特征提取器是一个三层的卷积神经网络,它的输入为骨干网络的输出Si(1≤i≤Nt),输出为类目标图该目标图显示了目标类的唯一区分区域。将归一化到[0,1]之间并定义为 即为该分支的定位图。分类器由一个全局平均池化(Global Average Pooling,GAP)层和一个软最大(softmax)层组成,它的输入为输出为分类结果其中M表示蝴蝶的类别数。整个分支具体表示为:
步骤3.3:对于B分支,其结构与A分支基本相同。该分支首先使用特征提取器EB提取特征,获取类别激活图,然后再使用分类器clsB进行分类。其中,特征提取器同样是一个三层的卷积神经网络,它的输入为擦除后的特征图输出为类目标图 将学***均池化层和一个软最大层组成,它的输入为输出为分类结果整个分支具体表示为:
则网络的总损失为L=LA+LB;
步骤5:网络训练。设置迭代次数、学习率等超参数,将训练集Dt输入网络,使用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤6:网络测试。加载保存的模型,将测试集Ds输入网络,获得分类的准确率。输入单幅测试图像Ii∈Rh×w×3(1≤i≤Ns),可获得A分支的定位图和B分支的定位图取两个定位图对应位置的最大值,得到最终的定位图根据定位图在图像上绘制矩形框,即可获得蝴蝶目标在图像中的位置。
附图说明
图1为原始图像。
图2为骨干网络结构。
图3为网络整体结构。
图4为测试结果图。
具体实施方式
本发明实例提供一种基于对抗互补学习的弱监督蝴蝶目标检测方法,下面结合相关附图对本发明进行解释和阐述:
本发明的实施方案流程如下:
步骤1:构建蝴蝶数据集。蝴蝶数据集由两部分组成,分别为蝴蝶生态图像数据集和蝴蝶标本图像数据集。蝴蝶生态图像由爬虫在谷歌图片和百度图片上爬取得到,称为数据集D1,该数据集的图像如附图1的(a)所示。蝴蝶标本图像从《中国蝶类志》上获得,称为数据集D2,该数据集的图像如附图1的(b)所示。将数据集D1和数据集D2混合构成蝴蝶数据集其中蝴蝶图像为Ii,类别标签为yi,蝴蝶数据集D分为M=334类,共包含N=74111幅图像。将数据集D按照每类8:2的比例划分为训练集Dt(包含Nt=58288幅图像)和测试集Ds(包含Ns=14823幅图像)。为了防止计算量过大,将每张蝴蝶图像重采样为256×256,然后随机裁剪为224×224作为网络的输入,在输入网络前,需要对数据标准化(图像的各维度减去数据集的均值并除以数据集的标准差);
步骤2:构建骨干网络。本发明选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成。其中,对于前2个卷积块,每个卷积块均由2个卷积层组成;对于后3个卷积块,每个卷积块均由3个卷积层组成,一共13个卷积层,其结构如附图2所示。骨干网络的输入为彩色的蝴蝶图像Ii∈R224×224×3(1<i<Nt),其中3表示图像通道数,h=224和w=224分别表示图像的高度和宽度。网络的输出为多通道的位置感知特征图Si∈R28×28×512,其中512表示特征图的通道数,28×28为特征图的分辨率。该骨干网络表示为:
Si=f0(θ0,Ii),1<i<Nt
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络。对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器。其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB;
步骤3.1:对于第一个分支A,该分支首先使用特征提取器EA提取特征,获取类别激活图,然后使用分类器clsA进行分类。其中,特征提取器是一个三层的卷积神经网络,它的输入为骨干网络的输出Si,输出为类目标图该图显示了目标类的唯一区分区域。将归一化到[0,1]并定义为 即为该分支的定位图。分类器由一个全局平均池化(Global Average Pooling,GAP)层和一个软最大层组成。全局平均池化层代替了VGG16中的全连接层,它的输出为一维向量,大小为334;软最大层将一维向量映射为每一类的概率。分类器的输入为输出为分类结果整个分支具体表示为:
步骤3.2:使用特征擦除器Era擦除特征图中最具判别性的区域。假设阈值为δ(δ∈{0.5,0.6,0.7,0.8,0.9}),那么最具判别性的区域为将Aera所在的区域在特征图Si中置为0,生成擦除后的特征图即
步骤3.3:对于第二个分支B,其结构与分支A基本相同。该分支首先使用特征提取器EB提取特征,获取类别激活图,然后再使用分类器clsB进行分类。其中,特征提取器同样是一个三层的卷积神经网络,它的输入为擦除后的特征图输出为类目标图 将学***均池化层和一个软最大层组成,全局平均池化层的输出为一维向量,大小为334;软最大层将一维向量映射为每一类的概率。分类器的输入为输出为分类结果整个分支具体表示为:
则网络的总损失为L=LA+LB;
步骤5:网络训练。设置迭代次数为50、学习率为0.001,阈值δ为0.6,将训练集Dt输入网络,使用ImageNet训练的VGG16权值初始化骨干网络,利用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤6:网络测试。加载保存的模型,将测试集Ds输入网络,获得分类准确率。输入单幅测试图像Ii∈Rh×w×3(1≤i≤Ns),可获得A分支的定位图和B分支的定位图取两个定位图对应位置的最大值,得到最终的定位图将定位图加在测试图像上,如附图4的(a)所示;将定位图二值化然后获取蝴蝶目标轮廓,再获得轮廓的外接矩形,最后将矩形绘制在测试图像上,即可获得蝴蝶目标在图像中的位置,如附图4的(b)所示。
以上实例仅用于描述本发明,而非限制本发明所描述的技术方案。因此,一切不脱离本发明精神和范围的技术方案及其改进,均应涵盖在本发明的权利要求范围中。
Claims (2)
1.一种基于对抗互补学习的弱监督蝴蝶目标检测方法,其特征在于:该方法包括如下步骤,
步骤1:构建蝴蝶数据集:蝴蝶数据集由两部分组成,第一部分由谷歌图片和百度图片上爬取的蝴蝶生态图像构成,称为数据集D1,第二部分由蝴蝶标本图像构成,称为数据集D2;将数据集D1和数据集D2混合构成蝴蝶数据集其中蝴蝶图像为Ii,类别标签为yi;数据集D共包含M类蝴蝶的N幅图像,将数据集D划分为训练集Dt和测试集Ds;训练集Dt包含Nt幅图像,测试集Ds包含Ns幅图像;
步骤2:构建骨干网络:选择VGG-16的前13层作为骨干网络,该骨干网络由5个卷积块组成;骨干网络的输入为彩色的蝴蝶图像Ii∈Rh×w×3,1<i<Nt,其中h和w分别表示图像的高度和宽度,3表示图像的通道个数;网络的输出为多通道的位置感知特征图其中K1表示位置感知特征图的通道数,H1和W1分别为特征图的高度和宽度;该骨干网络表示为:
Si=f0(θ0,Ii),
其中f0(·)表示骨干网络的作用,θ0为骨干网络的参数;
步骤3:构建对抗互补学习网络:对抗互补学习网络包含A和B两个并行分支,每个分支都包含一个特征提取器和一个分类器;其中,A分支的特征提取器和分类器分别表示为EA和clsA,B分支的特征提取器和分类器分别表示为EB和clsB;
则网络的总损失为L=LA+LB;
步骤5:网络训练:设置迭代次数、学习率等超参数,将训练集Dt输入网络,使用随机梯度下降算法对网络参数进行迭代更新,直到损失收敛,保存最终的模型;
步骤3.3:对于B分支,其结构与A分支基本相同;该分支同样首先使用特征提取器EB提取特征,获取类别激活图,然后使用分类器clsB进行分类;其中,特征提取器同样是一个三层的卷积神经网络,输入为擦除后的特征图输出为类目标图 将学***均池化层和一个软最大层组成,输入为输出为分类结果整个分支具体表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010111404.3A CN111340096A (zh) | 2020-02-24 | 2020-02-24 | 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010111404.3A CN111340096A (zh) | 2020-02-24 | 2020-02-24 | 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111340096A true CN111340096A (zh) | 2020-06-26 |
Family
ID=71185486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010111404.3A Pending CN111340096A (zh) | 2020-02-24 | 2020-02-24 | 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340096A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364980A (zh) * | 2020-11-09 | 2021-02-12 | 北京计算机技术及应用研究所 | 一种弱监督场景下基于强化学习的深度神经网络训练方法 |
CN112800927A (zh) * | 2021-01-25 | 2021-05-14 | 北京工业大学 | 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法 |
CN112801029A (zh) * | 2021-02-09 | 2021-05-14 | 北京工业大学 | 基于注意力机制的多任务学习方法 |
CN114882298A (zh) * | 2022-07-11 | 2022-08-09 | 东声(苏州)智能科技有限公司 | 一种对抗互补学习模型的优化方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488536A (zh) * | 2015-12-10 | 2016-04-13 | 中国科学院合肥物质科学研究院 | 一种基于多特征深度学习技术的农田害虫图像识别方法 |
CN109063742A (zh) * | 2018-07-06 | 2018-12-21 | 平安科技(深圳)有限公司 | 蝴蝶识别网络构建方法、装置、计算机设备及存储介质 |
CN109376765A (zh) * | 2018-09-14 | 2019-02-22 | 汕头大学 | 一种基于深度学习的蝴蝶自动分类方法 |
CN109886295A (zh) * | 2019-01-11 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于神经网络的蝴蝶识别方法及相关设备 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
-
2020
- 2020-02-24 CN CN202010111404.3A patent/CN111340096A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488536A (zh) * | 2015-12-10 | 2016-04-13 | 中国科学院合肥物质科学研究院 | 一种基于多特征深度学习技术的农田害虫图像识别方法 |
CN109063742A (zh) * | 2018-07-06 | 2018-12-21 | 平安科技(深圳)有限公司 | 蝴蝶识别网络构建方法、装置、计算机设备及存储介质 |
CN109376765A (zh) * | 2018-09-14 | 2019-02-22 | 汕头大学 | 一种基于深度学习的蝴蝶自动分类方法 |
CN109886295A (zh) * | 2019-01-11 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于神经网络的蝴蝶识别方法及相关设备 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
Non-Patent Citations (1)
Title |
---|
XIAOLIN ZHANG 等: "Adversarial Complementary Learning for Weakly Supervised Object Localization", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112364980A (zh) * | 2020-11-09 | 2021-02-12 | 北京计算机技术及应用研究所 | 一种弱监督场景下基于强化学习的深度神经网络训练方法 |
CN112364980B (zh) * | 2020-11-09 | 2024-04-30 | 北京计算机技术及应用研究所 | 一种弱监督场景下基于强化学习的深度神经网络训练方法 |
CN112800927A (zh) * | 2021-01-25 | 2021-05-14 | 北京工业大学 | 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法 |
CN112800927B (zh) * | 2021-01-25 | 2024-03-29 | 北京工业大学 | 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法 |
CN112801029A (zh) * | 2021-02-09 | 2021-05-14 | 北京工业大学 | 基于注意力机制的多任务学习方法 |
CN112801029B (zh) * | 2021-02-09 | 2024-05-28 | 北京工业大学 | 基于注意力机制的多任务学习方法 |
CN114882298A (zh) * | 2022-07-11 | 2022-08-09 | 东声(苏州)智能科技有限公司 | 一种对抗互补学习模型的优化方法及装置 |
CN114882298B (zh) * | 2022-07-11 | 2022-11-01 | 东声(苏州)智能科技有限公司 | 一种对抗互补学习模型的优化方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214399B (zh) | 一种嵌入SENet结构的改进YOLOV3目标识别方法 | |
CN109977918B (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
CN111340096A (zh) | 一种基于对抗互补学习的弱监督蝴蝶目标检测方法 | |
Grilli et al. | A review of point clouds segmentation and classification algorithms | |
Li et al. | SAR image change detection using PCANet guided by saliency detection | |
CN109766873B (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN112464911A (zh) | 基于改进YOLOv3-tiny的交通标志检测与识别方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN110619059A (zh) | 一种基于迁移学习的建筑物标定方法 | |
CN113269224B (zh) | 一种场景图像分类方法、***及存储介质 | |
CN112528845B (zh) | 一种基于深度学习的物理电路图识别方法及其应用 | |
CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
CN111753682A (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN111339935A (zh) | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 | |
CN111353396A (zh) | 一种基于SCSEOCUnet的混凝土裂缝分割方法 | |
CN112132145A (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及*** | |
CN112101364B (zh) | 基于参数重要性增量学习的语义分割方法 | |
CN113920472A (zh) | 一种基于注意力机制的无监督目标重识别方法及*** | |
CN111079837A (zh) | 一种用于二维灰度图像检测识别分类的方法 | |
CN115049952A (zh) | 一种基于多尺度级联感知深度学习网络的幼鱼肢体识别方法 | |
CN112308825A (zh) | 一种基于SqueezeNet的农作物叶片病害识别方法 | |
CN111414951B (zh) | 用于图像的细分类方法及装置 | |
Tan et al. | Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN110688512A (zh) | 基于ptgan区域差距与深度神经网络的行人图像搜索算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200626 |
|
WD01 | Invention patent application deemed withdrawn after publication |