CN112132004A - 一种基于多视角特征融合的细粒度图像识别方法 - Google Patents

一种基于多视角特征融合的细粒度图像识别方法 Download PDF

Info

Publication number
CN112132004A
CN112132004A CN202010992253.7A CN202010992253A CN112132004A CN 112132004 A CN112132004 A CN 112132004A CN 202010992253 A CN202010992253 A CN 202010992253A CN 112132004 A CN112132004 A CN 112132004A
Authority
CN
China
Prior art keywords
feature
bilinear
loss function
image
fine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010992253.7A
Other languages
English (en)
Other versions
CN112132004B (zh
Inventor
黄伟锋
张甜
常东良
马占宇
柳斐
王丹
刘念
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South To North Water Transfer Middle Route Information Technology Co ltd
Beijing University of Posts and Telecommunications
Original Assignee
South To North Water Transfer Middle Route Information Technology Co ltd
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South To North Water Transfer Middle Route Information Technology Co ltd, Beijing University of Posts and Telecommunications filed Critical South To North Water Transfer Middle Route Information Technology Co ltd
Priority to CN202010992253.7A priority Critical patent/CN112132004B/zh
Publication of CN112132004A publication Critical patent/CN112132004A/zh
Application granted granted Critical
Publication of CN112132004B publication Critical patent/CN112132004B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种基于多视角特征融合的细粒度图像识别方法,涉及图像处理技术领域,解决现有细粒度图像识别方法忽略了图像的细节信息以及存在图像之间视觉差异的适应能力较差,且引入的损失函数复杂,增加了模型的参数量等问题,包括双线性特征提取步骤,抑制分支学习步骤,同类对比模块学习步骤,中心损失计算步骤以及模型优化损失函数计算步骤;本发明引入抑制分支,通过抑制图像中最显著的区域,迫使网络寻找易混淆类别间微妙的判别性特征。引入同类对比学习模块,将同类样本的特征向量进行融合,增加同一类别下不同图像的交互信息。还引入中心损失函数,最小化特征与对应类中心之间的距离,使学到的特征更具判别性。提升了细粒度图像识别的准确率。

Description

一种基于多视角特征融合的细粒度图像识别方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于多视角特征融合的细粒度图像识别方法。
背景技术
细粒度图像分类是在区分出基本类别的基础上,进行更精细的子类划分,例如鸟类或犬类等。因此该问题需要捕获细微的类间差异,充分挖掘图像的判别性特征。
细粒度物体在现实生活中广泛存在,与之相对应的细粒度图像识别是计算机视觉识别中的一个重要研究课题。当前细粒度图像识别主要存在以下三个方面的挑战:(1)由于姿势、背景和拍摄角度的不同,同一类别外表看来可能具有较大的差异。(2)不同类别由于属于同一父类,它们之间的差异仅存在于一些细微的区域中,例如鸟的喙和尾巴等。(3)对细粒度图像的收集、标注费时费力。如图1所示。
现有的方法主要通过以下三个方面达到识别的目的:(1)基于定位-分类网络进行细粒度图像识别。(2)通过开发用于细粒度识别的强大深度模型来直接学习更具判别力的表征。(3)结合图像的全局特征与局部特征实现图像的细粒度分类。
现有技术1,双线性池化细粒度图像分类(Bilinear pooling),通过预训练的孪生卷积神经网络(convolutional neural networks)提取特征,并在特征的各个通道层面进行双线性池化,得到特征的高阶表示,从而增强特征的判别能力。该方法得益于通过一种新的池化方式,实现了细粒度图像识别准确率的提升。
该方法提出了一种新的双线性池化方式,但在细粒度图像类别间关系、模型参数量、细节区域的数量等方面没有针对细粒度图像识别进行有效的设计。即没有考虑到细粒度图像蕴含多种细节信息,类间差异小,类内差异大等因素的影响。
现有技术2,多注意多分类约束网络(Multi-Attention Multi-ClassConstraint),该方法通过一次压缩-多次扩展(one-squeeze multi-excitation)模块提取输入图像的多个注意(attention)区域,然后引入度量学习(metric learning),采用triplet loss和softmax loss来训练网络,将同类特征的相同注意拉近,将不同注意或不同类的特征推开,从而加强了部件之间的关系,实现了细粒度图像识别准确率的提升。
该方法主要利用度量学习来改善特征空间中的样本分布,因此,它对于挖掘一对图像之间视觉差异的适应能力较差。而且引入的损失函数较为复杂,需要构建大量样本对,极大地增加了模型的参数量。
发明内容
本发明为解决现有细粒度图像识别方法忽略了图像的细节信息以及存在图像之间视觉差异的适应能力较差,且引入的损失函数复杂,增加了模型的参数量等问题,提供一种基于多视角特征融合的细粒度图像识别方法。
一种基于多视角特征融合的细粒度图像识别方法,该方法由以下步骤实现:
步骤一、双线性特征提取;
将原始图像输入至双线性特征提取网络,将不同卷积层输出的特征图进行融合,获得双线性特征向量;所述特征提取网络采用在数据集ImageNet预训练的网络结构;
步骤二、抑制分支学习,具体过程为:
步骤二一、根据步骤一所述特征提取网络不同卷积层输出的特征图的大小及阈值生成注意图;
步骤二二、根据步骤二一所述的注意图生成抑制掩码,将所述抑制掩码覆盖到所述原始图像上生成局部区域被掩蔽的抑制图像;
步骤二三、将步骤二所述的抑制图像采用步骤一进行双线性特征提取,获得双线性特征向量,将所述双线性特征向量输入至全连接层,获得预测的类别概率值,并对该预测的类别概率值计算多分类交叉熵;
步骤三、同类对比模块学习;
步骤三一、随机选择与原始图像同一类别下其他N张图像作为正样本图像;
步骤三二、将目标图像与步骤三一所述的正样本图像送入步骤一所述的特征提取网络进行双线性特征向量融合,获得融合特征综合了同类别下多张图像的双线性特征向量;
步骤三三、将步骤三二获得的同类别下多张图像的双线性特征向量求平均,获得一个融合的特征向量,将融合后的特征向量输入全连接层,获得预测的概率,对得到的同类别的预测概率计算多分类交叉熵;
步骤四、中心损失函数LC计算;
令vi为第i个样本的双线性特征,ci为样本i对应类别所有样本的平均特征,即类中心,N为当前批量的样本个数,则中心损失函数LC的公式如下:
Figure BDA0002691299670000021
步骤五、模型优化损失函数计算;
将原始图像的双线性特征向量的交叉熵损失函数,抑制图像的双线性特征向量的交叉熵损失函数,融合特征的交叉熵损失函数以及中心损失函数加权求和,获得模型优化的损失函数。
本发明的有益效果:本发明综合考虑了细粒度图像类内差异大,类间差异小,背景噪声影响大等因素,引入一个抑制分支,通过抑制图像中最显著的区域,从而迫使网络寻找易混淆类别间微妙的判别性特征。还引入了一个同类对比学习模块,将同类样本的特征向量进行融合,从而增加了同一类别下不同图像的交互信息。同时,引入了中心损失函数,最小化特征与对应类中心之间的距离,使学到的特征更具判别性。
综合以上几点,本发明在判断过程综合利用了全局特征和局部特征,在多个细粒度图像分类任务上取得了明显的性能提升,相比现有的方法更具鲁棒性,且易于实际部署。提升了细粒度图像识别的准确率。
附图说明
图1为中图1a、图1b、图1c和图1d均为现有的4组细粒度图像示意图;
图2为本发明所述的一种基于多视角特征融合的细粒度图像识别方法中双线性特征提取的示意图;
图3为本发明所述的一种基于多视角特征融合的细粒度图像识别方法中同类对比学习的示意图;
图4为本发明所述的一种基于多视角特征融合的细粒度图像识别方法中模型优化损失函数计算的示意图;
图5为本发明所述的一种基于多视角特征融合的细粒度图像识别方法获得的特征可视化效果图。
具体实施方式
结合图2至图5说明本实施方式,一种基于多视角特征融合的细粒度图像识别方法,该方法由以下步骤实现:
步骤一、双线性特征提取步骤:采用在ImageNet上的预训练的ResNet-50网络结构,输入大小固定的原始图像,将不同卷积层输出的特征图进行融合,得到双线性特征向量。
结合图2,在特征提取步骤中,使用在数据集ImageNet预训练的网络作为特征提取的基础网络,常用的图像分类网络如VGGNet、GoogLeNet、ResNet等,可对其进行微调(fine-tune)使模型适应特定的任务。具体来说,将原始图像输入至特征提取网络,得到最后两个卷积层输出的特征图(feature map),分别记为
Figure BDA0002691299670000041
其中D1、D2表示两种特征的通道数,H和W分别表示特征图的高度和宽度。为了解决融合后特征维数过高的问题,同时保证生成的特征向量中所包含的特征信息足够多,只随机抽取F2中n个通道的特征图与F1进行融合。记特征图F1与F2中各个位置沿通道的特征向量为
Figure BDA0002691299670000042
Figure BDA0002691299670000043
两个特征向量相乘后可得到双线性矩阵
Figure BDA0002691299670000044
将特征图中各个位置对应的双线性矩阵进行相加,并将矩阵展为一个向量,即为双线性向量
Figure BDA0002691299670000045
其中D=D1×D2。该双线性向量提供了比线性模型更强的特征表示。
步骤二、抑制分支学习步骤:
A、注意图生成步骤:根据特征图的大小及阈值生成注意图。
B、图像抑制步骤:根据注意图生成抑制掩码,覆盖到原始图像上生成局部区域被掩蔽的抑制图像。
C、多分类交叉熵计算步骤:抑制图像经由步骤一得到双线性特征向量,再输入至全连接层得到预测概率值,对得到的类别预测值计算多分类交叉熵。
在抑制分支学习步骤中,包含以下三个方面:
步骤A对特征提取网络中卷积层输出的特征图
Figure BDA0002691299670000046
的各个通道求平均值pd,按该平均值进行排序,选择top-5的值计算熵:
通过比较熵和阈值δ的大小来构建注意图A:
Figure BDA0002691299670000048
步骤B将注意图放大至原始图像大小,计算其平均值m,以m*θ作为阈值,将注意图中大于阈值的元素设置为0,将其他元素设置为1,从而获得抑制掩码M:
Figure BDA0002691299670000049
计算所述注意图的平均值m,设定范围在0~1之间的阈值θ,
步骤C将抑制掩码覆盖到原始图像,从而得到局部区域被掩蔽的抑制图像:
Is(x,y)=I(x,y)*M(x,y)
式中,I(x,y)为原始图像中I中(x,y)位置的值。
由于抑制了图像最显著的区域,从而分散了注意力,迫使神经网络从其他区域学到判别性信息。还可以降低网络对训练样本的依赖,防止过拟合,进一步提高了模型的鲁棒性。
步骤三、同类对比模块学习步骤:
A、图像采样步骤:随机选择同一类别下其他N张图像作为正样本。
B、特征融合步骤:将目标图像和随机采样的正样本图像经步骤一得到的双线性特征向量进行融合,得到的融合特征综合了同一类别下多张图像的特征信息。
C、融合特征损失函数计算:将融合后的特征向量直接输入全连接层得到预测概率,对得到的类别预测值计算多分类交叉熵。
结合图3,步骤A随机选择与输入图像属于同一类别的N张图像,都送入步骤一的双线性特征提取网络。
步骤B对步骤A输出的多张同类图像的双线性特征向量求平均,得到一个融合的特征向量:
Figure BDA0002691299670000051
式中,j为特征向量的位置,V(j)为特征向量在第j个位置的值,T为选取的正样本数量;Vr(j)为第r个正样本在在第j个位置的值;
步骤四、中心损失计算步骤;
A、类中心生成步骤:在训练过程中,不断更新网络学到的各个类别中心的特征向量。
B、中心损失计算步骤:以每个输入图像得到的双线性特征向量与类中心向量之前的距离作为中心损失,在训练过程中不断优化。
本实施方式中,对每个类别都计算一个特征向量作为对应类别的类中心,这个特征向量随着训练的进行会不断的更新。通过惩罚每个样本的双线性特征向量和对应类别样本中心的偏移,使得同一类别的样本尽量聚合在一起,省去了复杂的样本对构造过程。令vi为第i个样本的双线性特征,ci为样本i对应类别所有样本的平均特征,即类中心,N为当前批量的样本个数,公式如下:
Figure BDA0002691299670000061
步骤五、模型优化损失函数计算步骤:
将原始图像的双线性特征的交叉熵损失函数,抑制图像的双线性特征的交叉熵损失函数,融合特征的交叉熵损失函数以及中心损失函数加权求和,即可得到模型优化的损失函数。
结合图4,记原始图像的双线性特征向量的交叉熵损失为LCE1,抑制图像的双线性特征向量的交叉熵损失为LCE2,融合特征的交叉熵损失为LCE3,中心损失为LC,将这些损失函数加权求和,即可得到模型优化的损失函数L:
Figure BDA0002691299670000062
式中,λ为中心损失函数的权重。
结合图5说明本实施方式,图5中,第一行为数据集中随机选取的原始图像,第二行为原始图像输入的全局分支获得的类激活图,第三行为抑制分支获得的类激活图。可以看出,在全局分支中,网络学习到了图像最显著的区域,如鸟的喙、汽车前照灯等,在抑制分支中,网络学习到了有利于细粒度分类的微妙的特征,如鸟的躯干、车轮等。多视角结合,使得网络模型的判断依据更为全面,既能显著性区域,又能微妙地捕捉到细粒度特征。
本实施方式所述的细粒度图像识别方法,引入了一种新的数据增强方式,通过注意图引导来抑制图像中的部件区域,从而分散注意力,使网络学习到更多互补区域特征信息。引入了一个同类对比模块,融合了来自同一类别多张图像的特征信息,使同一类别图像的表示在嵌入空间尽可能接近,从而提高了分类性能。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (4)

1.一种基于多视角特征融合的细粒度图像识别方法,其特征是:该方法由以下步骤实现:
步骤一、双线性特征提取;
将原始图像输入至双线性特征提取网络,将不同卷积层输出的特征图进行融合,获得双线性特征向量;所述特征提取网络采用在数据集ImageNet预训练的网络结构;
步骤二、抑制分支学习,具体过程为:
步骤二一、根据步骤一所述特征提取网络不同卷积层输出的特征图的大小及阈值生成注意图;
步骤二二、根据步骤二一所述的注意图生成抑制掩码,将所述抑制掩码覆盖到所述原始图像上生成局部区域被掩蔽的抑制图像;
步骤二三、将步骤二所述的抑制图像采用步骤一进行双线性特征提取,获得双线性特征向量,将所述双线性特征向量输入至全连接层,获得预测的类别概率值,并对该预测的类别概率值计算多分类交叉熵;
步骤三、同类对比模块学习;
步骤三一、随机选择与原始图像同一类别下其他N张图像作为正样本图像;
步骤三二、将目标图像与步骤三一所述的正样本图像送入步骤一所述的特征提取网络进行双线性特征向量融合,获得融合特征综合了同类别下多张图像的双线性特征向量;
步骤三三、将步骤三二获得的同类别下多张图像的双线性特征向量求平均,获得一个融合的特征向量,将融合后的特征向量输入全连接层,获得预测的概率,对得到的同类别的预测概率计算多分类交叉熵;
步骤四、中心损失函数LC计算;
令vi为第i个样本的双线性特征,ci为样本i对应类别所有样本的平均特征,即类中心,N为当前批量的样本个数,则中心损失函数LC的公式如下:
Figure FDA0002691299660000011
步骤五、模型优化损失函数计算;
将原始图像的双线性特征向量的交叉熵损失函数,抑制图像的双线性特征向量的交叉熵损失函数,融合特征的交叉熵损失函数以及中心损失函数加权求和,获得模型优化的损失函数。
2.根据权利要求1所述的一种基于多视角特征融合的细粒度图像识别方法,其特征在于:步骤二一中,生成注意图的具体过程为:
对特征提取网络中最后一个卷积层输出的特征图
Figure FDA0002691299660000025
的各个通道求平均值pd,式中,D为特征的通道数,H和W分别为特征图的高度和宽度;按该平均值进行排序,获得熵E的公式为:
Figure FDA0002691299660000021
通过比较熵和阈值δ的大小构建注意图A:
Figure FDA0002691299660000022
式中,Fk为按通道排序后的各个通道对应的二维特征图;
步骤二二中,生成抑制掩码的具体过程为:
将步骤二一中的注意图放大至原始图像大小,计算所述注意图的平均值m,设定范围在0~1之间的阈值θ,以m*θ作为阈值,将注意图中大于阈值m*θ的元素设置为0,将其他元素设置为1,获得抑制掩码M:
Figure FDA0002691299660000023
式中,A(x,y)为注意图A中(x,y)位置的值;
将抑制掩码覆盖到原始图像,获得局部区域被掩蔽的抑制图像Is(x,y);
Is(x,y)=I(x,y)*M(x,y)
式中,I(x,y)为原始图像中I中(x,y)位置的值。
3.根据权利要求1所述的一种基于多视角特征融合的细粒度图像识别方法,其特征在于:步骤三三中,对同类别下多张图像的双线性特征向量求平均,获得一个融合的特征向量,用下式表示为:
Figure FDA0002691299660000024
式中,j为特征向量的位置,V(j)为特征向量在第j个位置的值,T为选取的正样本数量;Vr(j)为第r个正样本在在第j个位置的值;
4.根据权利要求1所述的一种基于多视角特征融合的细粒度图像识别方法,其特征在于:步骤五中,原始图像的双线性特征向量的交叉熵损失函数为LCE1,抑制图像的双线性特征向量的交叉熵损失函数为LCE2,融合特征的交叉熵损失函数为LCE3,中心损失函数为LC,将其进行加权求和,获得模型优化的损失函数L,最终实现细粒度图像识别;用下式表示为:
Figure FDA0002691299660000031
式中,λ为中心损失函数的权重。
CN202010992253.7A 2020-09-21 2020-09-21 一种基于多视角特征融合的细粒度图像识别方法 Active CN112132004B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010992253.7A CN112132004B (zh) 2020-09-21 2020-09-21 一种基于多视角特征融合的细粒度图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010992253.7A CN112132004B (zh) 2020-09-21 2020-09-21 一种基于多视角特征融合的细粒度图像识别方法

Publications (2)

Publication Number Publication Date
CN112132004A true CN112132004A (zh) 2020-12-25
CN112132004B CN112132004B (zh) 2024-06-25

Family

ID=73841694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010992253.7A Active CN112132004B (zh) 2020-09-21 2020-09-21 一种基于多视角特征融合的细粒度图像识别方法

Country Status (1)

Country Link
CN (1) CN112132004B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712066A (zh) * 2021-01-19 2021-04-27 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN112733912A (zh) * 2020-12-31 2021-04-30 华侨大学 基于多粒度对抗损失的细粒度图像识别方法
CN112766378A (zh) * 2021-01-19 2021-05-07 北京工商大学 一种专注细粒度识别的跨域小样本图像分类模型方法
CN112800927A (zh) * 2021-01-25 2021-05-14 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112990270A (zh) * 2021-02-10 2021-06-18 华东师范大学 一种传统特征与深度特征的自动融合方法
CN113255793A (zh) * 2021-06-01 2021-08-13 之江实验室 一种基于对比学习的细粒度舰船识别方法
CN113449613A (zh) * 2021-06-15 2021-09-28 北京华创智芯科技有限公司 多任务长尾分布图像识别方法、***、电子设备及介质
CN113642571A (zh) * 2021-07-12 2021-11-12 中国海洋大学 一种基于显著性注意力机制的细粒度图像识别方法
CN113705489A (zh) * 2021-08-31 2021-11-26 中国电子科技集团公司第二十八研究所 基于先验区域知识指导的遥感影像细粒度飞机识别方法
CN115424086A (zh) * 2022-07-26 2022-12-02 北京邮电大学 多视角的细粒度识别方法、装置、电子设备及介质
CN117725483A (zh) * 2023-09-26 2024-03-19 电子科技大学 一种基于神经网络的有监督的信号分类方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685115A (zh) * 2018-11-30 2019-04-26 西北大学 一种双线性特征融合的细粒度概念模型及学习方法
CN110135502A (zh) * 2019-05-17 2019-08-16 东南大学 一种基于强化学习策略的图像细粒度识别方法
CN110210550A (zh) * 2019-05-28 2019-09-06 东南大学 基于集成学习策略的图像细粒度识别方法
CN110222636A (zh) * 2019-05-31 2019-09-10 中国民航大学 基于背景抑制的行人属性识别方法
CN110807465A (zh) * 2019-11-05 2020-02-18 北京邮电大学 一种基于通道损失函数的细粒度图像识别方法
CN111523534A (zh) * 2020-03-31 2020-08-11 华东师范大学 一种图像描述的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685115A (zh) * 2018-11-30 2019-04-26 西北大学 一种双线性特征融合的细粒度概念模型及学习方法
CN110135502A (zh) * 2019-05-17 2019-08-16 东南大学 一种基于强化学习策略的图像细粒度识别方法
CN110210550A (zh) * 2019-05-28 2019-09-06 东南大学 基于集成学习策略的图像细粒度识别方法
CN110222636A (zh) * 2019-05-31 2019-09-10 中国民航大学 基于背景抑制的行人属性识别方法
CN110807465A (zh) * 2019-11-05 2020-02-18 北京邮电大学 一种基于通道损失函数的细粒度图像识别方法
CN111523534A (zh) * 2020-03-31 2020-08-11 华东师范大学 一种图像描述的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄伟锋;张甜;常东良;闫冬;王嘉希;王丹;马占宇;: "基于多视角融合的细粒度图像分类方法", 信号处理, no. 09 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733912B (zh) * 2020-12-31 2023-06-09 华侨大学 基于多粒度对抗损失的细粒度图像识别方法
CN112733912A (zh) * 2020-12-31 2021-04-30 华侨大学 基于多粒度对抗损失的细粒度图像识别方法
CN112766378A (zh) * 2021-01-19 2021-05-07 北京工商大学 一种专注细粒度识别的跨域小样本图像分类模型方法
CN112712066A (zh) * 2021-01-19 2021-04-27 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN112766378B (zh) * 2021-01-19 2023-07-21 北京工商大学 一种专注细粒度识别的跨域小样本图像分类模型方法
CN112800927A (zh) * 2021-01-25 2021-05-14 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112800927B (zh) * 2021-01-25 2024-03-29 北京工业大学 一种基于AM-Softmax损失的蝴蝶图像细粒度识别方法
CN112990270A (zh) * 2021-02-10 2021-06-18 华东师范大学 一种传统特征与深度特征的自动融合方法
CN112990270B (zh) * 2021-02-10 2023-04-07 华东师范大学 一种传统特征与深度特征的自动融合方法
CN113255793B (zh) * 2021-06-01 2021-11-30 之江实验室 一种基于对比学习的细粒度舰船识别方法
CN113255793A (zh) * 2021-06-01 2021-08-13 之江实验室 一种基于对比学习的细粒度舰船识别方法
CN113449613A (zh) * 2021-06-15 2021-09-28 北京华创智芯科技有限公司 多任务长尾分布图像识别方法、***、电子设备及介质
CN113449613B (zh) * 2021-06-15 2024-02-27 北京华创智芯科技有限公司 多任务长尾分布图像识别方法、***、电子设备及介质
CN113642571A (zh) * 2021-07-12 2021-11-12 中国海洋大学 一种基于显著性注意力机制的细粒度图像识别方法
CN113642571B (zh) * 2021-07-12 2023-10-10 中国海洋大学 一种基于显著性注意力机制的细粒度图像识别方法
CN113705489A (zh) * 2021-08-31 2021-11-26 中国电子科技集团公司第二十八研究所 基于先验区域知识指导的遥感影像细粒度飞机识别方法
CN113705489B (zh) * 2021-08-31 2024-06-07 中国电子科技集团公司第二十八研究所 基于先验区域知识指导的遥感影像细粒度飞机识别方法
CN115424086A (zh) * 2022-07-26 2022-12-02 北京邮电大学 多视角的细粒度识别方法、装置、电子设备及介质
CN117725483A (zh) * 2023-09-26 2024-03-19 电子科技大学 一种基于神经网络的有监督的信号分类方法

Also Published As

Publication number Publication date
CN112132004B (zh) 2024-06-25

Similar Documents

Publication Publication Date Title
CN112132004A (zh) 一种基于多视角特征融合的细粒度图像识别方法
CN112101150B (zh) 一种基于朝向约束的多特征融合行人重识别方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN108960140B (zh) 基于多区域特征提取和融合的行人再识别方法
CN111881714B (zh) 一种无监督跨域行人再识别方法
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN113516012B (zh) 一种基于多层级特征融合的行人重识别方法及***
Pasolli et al. SVM active learning approach for image classification using spatial information
Lin et al. RSCM: Region selection and concurrency model for multi-class weather recognition
Awad et al. Multicomponent image segmentation using a genetic algorithm and artificial neural network
CN108596211B (zh) 一种基于集中学习与深度网络学习的遮挡行人再识别方法
Wang et al. A survey of vehicle re-identification based on deep learning
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN114005096A (zh) 基于特征增强的车辆重识别方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN114067143B (zh) 一种基于双子网络的车辆重识别方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN113408492A (zh) 一种基于全局-局部特征动态对齐的行人重识别方法
CN109299668A (zh) 一种基于主动学习和聚类分析的高光谱图像分类方法
CN111274922A (zh) 基于多层次深度学习网络的行人重识别方法及***
CN108596195B (zh) 一种基于稀疏编码特征提取的场景识别方法
CN109447014A (zh) 一种基于双通道卷积神经网络的视频在线行为检测方法
Liu et al. Ground-based remote sensing cloud classification via context graph attention network
CN115661777A (zh) 一种联合语义的雾天道路目标检测算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant