CN114580566A - 一种基于间隔监督对比损失的小样本图像分类方法 - Google Patents

一种基于间隔监督对比损失的小样本图像分类方法 Download PDF

Info

Publication number
CN114580566A
CN114580566A CN202210289086.9A CN202210289086A CN114580566A CN 114580566 A CN114580566 A CN 114580566A CN 202210289086 A CN202210289086 A CN 202210289086A CN 114580566 A CN114580566 A CN 114580566A
Authority
CN
China
Prior art keywords
sample
samples
contrast loss
image
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210289086.9A
Other languages
English (en)
Inventor
杨赛
胡彬
杨慧
周伯俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202210289086.9A priority Critical patent/CN114580566A/zh
Publication of CN114580566A publication Critical patent/CN114580566A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及小样本图像分类技术领域,具体涉及一种基于间隔监督对比损失的小样本图像分类方法,包括:利用一种新颖的间隔监督对比损失函数在基类数据集上对模型进行预训练,固定预训模型中编码器中的参数,对新类数据集中的支持图像样本提取特征并训练SVM分类器,最后利用SVM对查询样本进行分类决策。本发明中的间隔监督对比损失函数对基类样本之间的对比性关系建立数学模型,而不是只关注于基类样本所属的类别,所预训练的骨干网络更具有迁移性。本发明中的监督对比损失函数通过增加间隔参数,能够进一步缩小类内数据的距离,增大类间距离,从而进一步提高分类性能。

Description

一种基于间隔监督对比损失的小样本图像分类方法
技术领域
本发明涉及小样本图像分类技术领域,具体涉及一种基于间隔监督对比损失的小样本图像分类方法。
背景技术
近年来,深度学习在诸如计算机视觉、语音识别、自然语言处理、自动驾驶等若干人工智能领域都取得了重大突破。然而,深度卷积神经网络强大的学习能力完全依赖于大量的手工标签数据。其大数据驱动的特性严重限制了深度学习技术在众多实际场合中的应用。因为对大量数据进行精确标注的成本耗费是非常巨大的,甚至有时候是无法完成的,比如罕见疾病的医疗数据、珍稀物种的图像数据等。在这种背景下,学者们积极开展对小样本图像分类课题的研究,旨在每种类别样本数目非常少的情况下,深度神经网络就能完成对图像的分类识别。
元学习通过学习大量的任务得到内在的元知识,从而能够快速的处理新的任务,是解决小样本图像分类问题的主流学习范式。然而最近的研究表明,将在整个基类数据集上预训练的特征提取器与传统的分类器相结合就能够取得与复杂的元学习模型相媲美的分类性能。这种方法采用的是具有两阶段的迁移学习范式,即首先在大量标注的基类据集上训练骨干网络,从而能够在接下类的后处理阶段为具有少量样本的新类数据提高良好的特征提取器。通常情况下,这类方法使用交叉熵损失函数进行优化训练,然后将骨干网络中与基类类别相关的最后一层移除后提取新类特征并完成分类决策。例如,Chen等(ChenWY,Liu C Y,Kira Z,Wang Y F,Huang J B.A closer look at few-shot classification[C]//Proceedings of the 7th International Conference on LearningRepresentations.New Orleans,USA:ICLR,2019:1-8.)提出在基类数据集使用交叉熵损失函数优化由骨干网络和Cosine分类器构成的神经网络,然后固定骨干网络参数并利用新类支持样本微调Cosine分类器完成对查询样本的分类。随后,如何进一步提高骨干网络的泛化性能,若干工作被相继被提出。例如,Liu等(Liu B,Cao Y,Lin Y T,Li Q,Zhang Z,LongM S,Hu H.Negative margin matters:understanding margin in few-shotclassifification[C]//Proceedings of the16th European Conference on ComputerVision.Berlin,German:Springer,2020:1-8.)在预训练阶段同样采用由骨干网络和Cosine分类器构成的模型,同时使用带有间隔的交叉熵损失函数进行优化;Mangla等(Mangla P,Kumari N,Sinha A,Singh M,Krishnamurthy B,Balasubramanian VN.Charting the right manifold:Manifold mixup for few-shot learning[C]//Proceedings of the IEEE Winter Conference on Applications of Computer Vision,Colorado,USS,2020:2218–2227.)和Tian等(Tian Y,Wang Y,Krishnan D,etal.Rethinking few-shot image classification:a good embedding is all youneed?//Proceedings of the16th European Conference on Computer Vision.Berlin,German:Springer,2020:)分别提出在预训练过程引入自监督和自蒸馏技术;Rizve等(Rizve M N,Khan S,Khan F S,Exploring Complementary Strengths of Invariant andEquivariant Representations for Few-Shot Learning[C]//Proceedings of the 33rdIEEE Conference on Computer Vision and Pattern Recognition.)设计一种能够进行保持等变性和不变性的多任务学习损失函数完成对骨干网络的预训练。
在完成预训练阶段之后,由于模型中与基类类别相关的最后一层被移除,只保留其中的骨干网络。此时,如果想要完成对新类数据的分类识别,需要借助于重新训练的分类器完成决策。其中非参数模型K-近邻分类器或者原型分类器因其简单有效,成为了小样本图像分类任务中常用的分类模型。例如,Wang等(Wang Y,Chao W L,Weinberger K Q,Maaten V D.Simpleshot:revisiting nearest-neighbor classification for few-shotlearning.arXivpreprint arXiv:1911.04623,2019:1-8.)在对新类数据进行白化预处理之后,使用KNN分类器能够取得良好的分类性能。Wang等(WangZ Y,ZhaoYF,Li J,TianYH.Cooperative bi-path metric for few-shot learning[C]//Proceedings ofthe 28th ACM International Conference on Multimedia.New York,USA:ACM press,2020:1524-1532.)同样采用KNN分类器,但是同时利用查询样本以及支持集与基类集之间的相关性来确定分类器中的近邻样本。除此以外,SVM和逻辑回归等参数分类器同样在小样本图像分类任务中取得了良好的分类性能。
上述采用迁移学习范式的小样图像分类方法取得与复杂的元学习模型相媲美的分类性能。通常情况下,这类方法使用交叉熵损失函数在整个基类数据集上进行预训练,更关注于基类样本所属的类别,严重影响了其在新类图像域中的迁移性。
为了解决上述问题,本发明提供了一种基于间隔监督对比损失的小样本图像分类方法。
发明内容
针对以上问题,本发明提供了一种基于间隔监督对比损失的小样本图像分类方法,通过引入带有间隔的监督对比损失函数在基类数据集上进行预训练,使骨干网络更具有迁移性,从而提高对新类数据样本识别的正确率。
为了实现上述目的,本发明采用的技术方案如下:
一种基于间隔监督对比损失的小样本图像分类方法,包括以下步骤:
步骤1:对于给定的数据集D,确定待处理的基类数据集Dbase和新类数据集Dnovel;其中
Figure BDA0003559427200000021
xi表示第i个基类图像样本,yi表示其对应的标签;在Dnovel上构建N-way-K-shot分类任务,每个分类任务由支持样本集
Figure BDA0003559427200000022
和查询样本集
Figure BDA0003559427200000023
组成,其中xs表示第s个支持样本,ys表示对应的标签,xq表示第q个查询样本;
步骤2:从基类数据集Dbase中随机抽取M个图像样本,使用图像增强技术将其扩充为2M个样本,然后将其输入到参数为α的编码器Eα(·)和参数为β的投影器Pβ(·)中,得到由2M个数据特征组成的集合
Figure BDA0003559427200000031
假定集合中任意数据为锚点,并将其作为正例样本,将集合A(i)中与该锚点标签的所有样本视为正例样本,构建正例样本集合P(i),而集合A(i)中的所有剩余样本为负例样本,构建负例样本集合N(i);
步骤3:计算关于正例样本集合P(i)与负例样本集合N(i)之间的间隔监督对比损失,计算该损失函数关于参数的梯度,并利用梯度下降算法对编码器Eα(·)中参数α和投影器Pβ(·)中参数β进行优化;
步骤4,将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的支持图像样本提取特征,并对SVM进行训练;
步骤5:将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的查询图像样本提取特征,利用训练好的SVM进行测试。
优选地,所述步骤1的具体步骤如下:
S11:对于给定的数据集D,将其分割为三个子集,即训练集Dtrain,验证集Dval和测试集Dtest,每个子集中的分类类别不相同,即:
Figure BDA0003559427200000032
Dtrain∪Dval∪Dtest=D;
S12:将训练集Dtrain作为基类数据集Dbase,测试集Dtest作为新类数据集Dnovel;在Dnovel数据集中随机抽取N个类别,每个类别中随机抽取K个样本,得到支持样本集
Figure BDA0003559427200000033
再在N个类别中的剩余数据中抽取一批样本得到查询样本集
Figure BDA0003559427200000034
优选地,所述步骤2的具体步骤如下:
S21:从Dtrain抽取M个图像样本作为训练的批图像样本集DM,对于其中的第i个基类图像样本xi,利用增强技术对其增强得到
Figure BDA0003559427200000035
并将其添加到批图像样本集中;
S22:将数据集DM中的每个图像样本输入到编码器Eα(·)和投影器Pβ(·)得到相应的d维特征向量,这里编码器Eα(·)为ResNet12,投影器Pβ(·)为只有一层隐含层的多层感知器;
则第i个基类图像样本xi的特征表示为:
ui=Pβ(Eα(xi));
S23:经过特征提取环节,此时得到由2M个数据特征组成的集合
Figure BDA0003559427200000036
将ui作为正例样本,在集合A(i)中所有样本的标签与yi一致都视为正例样本,构成正例样本集合P(i),剩余样本则被视为负例样本,构成负例样本集合N(i)。
优选地,所述步骤3的具体步骤如下:
S31:基于正例样本集合P(i)与负例样本集合N(i)所构建的间隔监督对比损失函数的计算公式为:
Figure BDA0003559427200000041
其中,
Figure BDA0003559427200000042
为温度系数,
Figure BDA0003559427200000043
为间隔系数,up为正例样本集合P(i)中的第p个样本,ua为负例样本集合N(i),s(·)表示任意两个样本的cosine相似性度量,表达式为:
Figure BDA0003559427200000044
S32:计算间隔监督对比损失关于参数的梯度,计算公式为:
Figure BDA0003559427200000045
其中
Figure BDA0003559427200000046
Figure BDA0003559427200000047
Figure BDA0003559427200000048
S33:利用梯度下降算法对参数进行更新,直到算法收敛为止,此时完成对主干网络的预训练。
优选地,所述步骤4的具体步骤如下:
S41:固定编码器Eα(·)中的参数α,对新类数据集中的支持样本提取特征,第s个支持样本的d维特征表示为:
us=Pβ(Eα(xs))
S42:选择线性支持向量机对新类数据样本进行分类判别,优化目标函数为:
Figure BDA0003559427200000049
s.t.ys(w·us+b)≥1-ξs
ξs≥0,s=1,2,…,2K
其中,ys为第s个支持样本对应的标签,C为惩罚系数,b为分类阈值,ξs为松弛变量,w为分类器的参数,对上式进行优化求解得到L个支持向量。
优选地,所述步骤5的具体步骤如下:
S51:固定编码器Eα(·)中的参数α,对新类数据集中的查询样本提取特征,第q个支持样本的d维特征表示为:
uq=Pβ(Eα(xq))
S52:利用训练好的支持向量机对查询样本的分类决策为:
Figure BDA0003559427200000051
其中,αl为拉格朗日系数,ul为第l个支持样本特征,yl为其对应的标签。
本发明有益效果:
1、本发明利用一种新颖的间隔监督对比损失函数在基类数据集上对模型进行预训练,固定预训模型中编码器中的参数,对新类数据集中的支持图像样本提取特征并训练SVM分类器,最后利用SVM对查询样本进行分类决策。
2、本发明中的间隔监督对比损失函数对基类样本之间的对比性关系建立数学模型,而不是只关注于基类样本所属的类别,所预训练的骨干网络更具有迁移性。
3、本发明中的监督对比损失函数通过增加间隔参数,能够进一步缩小类内数据的距离,增大类间距离,从而进一步提高分类性能。
附图说明
图1为本发明的流程图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,一种基于间隔监督对比损失的小样本图像分类方法,包括以下步骤:
步骤1:对于给定的数据集D,确定待处理的基类数据集Dbase和新类数据集Dnovel;其中
Figure BDA0003559427200000052
xi表示第i个基类图像样本,yi表示其对应的标签;在Dnovel上构建N-way-K-shot分类任务,每个分类任务由支持样本集
Figure BDA0003559427200000053
和查询样本集
Figure BDA0003559427200000054
组成,其中xs表示第s个支持样本,ys表示对应的标签,xq表示第q个查询样本;
步骤2:从基类数据集Dbase中随机抽取M个图像样本,使用图像增强技术将其扩充为2M个样本,然后将其输入到参数为α的编码器Eα(·)和参数为β的投影器Pβ(·)中,得到由2M个数据特征组成的集合
Figure BDA0003559427200000055
假定集合中任意数据为锚点,并将其作为正例样本,将集合A(i)中与该锚点标签的所有样本视为正例样本,构建正例样本集合P(i),而集合A(i)中的所有剩余样本为负例样本,构建负例样本集合N(i);
步骤3:计算关于正例样本集合P(i)与负例样本集合N(i)之间的间隔监督对比损失,计算该损失函数关于参数的梯度,并利用梯度下降算法对编码器Eα(·)中参数α和投影器Pβ(·)中参数β进行优化;
步骤4,将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的支持图像样本提取特征,并对SVM进行训练;
步骤5:将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的查询图像样本提取特征,利用训练好的SVM进行测试。
具体的,所述步骤2的具体步骤如下:
S21:从Dtrain抽取M个图像样本作为训练的批图像样本集DM,对于其中的第i个基类图像样本xi,利用增强技术对其增强得到
Figure BDA0003559427200000061
并将其添加到批图像样本集中;
S22:将数据集DM中的每个图像样本输入到编码器Eα(·)和投影器Pβ(·)得到相应的d维特征向量,这里编码器Eα(·)为ResNet12,投影器Pβ(·)为只有一层隐含层的多层感知器;
则第i个基类图像样本xi的特征表示为:
ui=Pβ(Eα(xi));
S23:经过特征提取环节,此时得到由2M个数据特征组成的集合
Figure BDA0003559427200000062
将ui作为正例样本,在集合A(i)中所有样本的标签与yi一致都视为正例样本,构成正例样本集合P(i),剩余样本则被视为负例样本,构成负例样本集合N(i)。
具体的,所述步骤3的具体步骤如下:
S31:基于正例样本集合P(i)与负例样本集合N(i)所构建的间隔监督对比损失函数的计算公式为:
Figure BDA0003559427200000063
其中,
Figure BDA0003559427200000064
为温度系数,
Figure BDA0003559427200000065
为间隔系数,up为正例样本集合P(i)中的第p个样本,ua为负例样本集合N(i),s(·)表示任意两个样本的cosine相似性度量,表达式为:
Figure BDA0003559427200000066
S32:计算间隔监督对比损失关于参数的梯度,计算公式为:
Figure BDA0003559427200000071
其中
Figure BDA0003559427200000072
Figure BDA0003559427200000073
Figure BDA0003559427200000074
S33:利用梯度下降算法对参数进行更新,直到算法收敛为止,此时完成对主干网络的预训练。
具体的,所述步骤4的具体步骤如下:
S41:固定编码器Eα(·)中的参数α,对新类数据集中的支持样本提取特征,第s个支持样本的d维特征表示为:
us=Pβ(Eα(xs))
S42:选择线性支持向量机对新类数据样本进行分类判别,优化目标函数为:
Figure BDA0003559427200000075
s.t.ys(w·us+b)≥1-ξs
ξs≥0,s=1,2,…,2K
其中,ys为第s个支持样本对应的标签,C为惩罚系数,b为分类阈值,ξs为松弛变量,w为分类器的参数,对上式进行优化求解得到L个支持向量。
具体的,所述步骤5的具体步骤如下:
S51:固定编码器Eα(·)中的参数α,对新类数据集中的查询样本提取特征,第q个支持样本的d维特征表示为:
uq=Pβ(Eα(xq))
S52:利用训练好的支持向量机对查询样本的分类决策为:
Figure BDA0003559427200000076
其中,αl为拉格朗日系数,ul为第l个支持样本特征,yl为其对应的标签。
综上所述,本发明利用一种新颖的间隔监督对比损失函数在基类数据集上对模型进行预训练,固定预训模型中编码器中的参数,对新类数据集中的支持图像样本提取特征并训练SVM分类器,最后利用SVM对查询样本进行分类决策。
以上对本发明的实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。

Claims (6)

1.一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,包括以下步骤:
步骤1:对于给定的数据集D,确定待处理的基类数据集Dbase和新类数据集Dnovel;其中
Figure FDA0003559427190000011
xi表示第i个基类图像样本,yi表示其对应的标签;在Dnovel上构建N-way-K-shot分类任务,每个分类任务由支持样本集
Figure FDA0003559427190000012
和查询样本集
Figure FDA0003559427190000013
组成,其中xs表示第s个支持样本,ys表示对应的标签,xq表示第q个查询样本;
步骤2:从基类数据集Dbase中随机抽取M个图像样本,使用图像增强技术将其扩充为2M个样本,然后将其输入到参数为α的编码器Eα(·)和参数为β的投影器Pβ(·)中,得到由2M个数据特征组成的集合
Figure FDA0003559427190000014
假定集合中任意数据为锚点,并将其作为正例样本,将集合A(i)中与该锚点标签的所有样本视为正例样本,构建正例样本集合P(i),而集合A(i)中的所有剩余样本为负例样本,构建负例样本集合N(i);
步骤3:计算关于正例样本集合P(i)与负例样本集合N(i)之间的间隔监督对比损失,计算该损失函数关于参数的梯度,并利用梯度下降算法对编码器Eα(·)中参数α和投影器Pβ(·)中参数β进行优化;
步骤4,将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的支持图像样本提取特征,并对SVM进行训练;
步骤5:将步骤3中预训练好的编码器Eα(·)作为特征提取器,对新类数据集中的查询图像样本提取特征,利用训练好的SVM进行测试。
2.根据权利要求1所述的一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,所述步骤1的具体步骤如下:
S11:对于给定的数据集D,将其分割为三个子集,即训练集Dtrain,验证集Dval和测试集Dtest,每个子集中的分类类别不相同,即:
Figure FDA0003559427190000015
Dtrain∪Dval∪Dtest=D;
S12:将训练集Dtrain作为基类数据集Dbase,测试集Dtest作为新类数据集Dnovel;在Dnovel数据集中随机抽取N个类别,每个类别中随机抽取K个样本,得到支持样本集
Figure FDA0003559427190000016
再在N个类别中的剩余数据中抽取一批样本得到查询样本集
Figure FDA0003559427190000017
3.根据权利要求1所述的一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,所述步骤2的具体步骤如下:
S21:从Dtrain抽取M个图像样本作为训练的批图像样本集DM,对于其中的第i个基类图像样本xi,利用增强技术对其增强得到
Figure FDA0003559427190000018
并将其添加到批图像样本集中;
S22:将数据集DM中的每个图像样本输入到编码器Eα(·)和投影器Pβ(·)得到相应的d维特征向量,这里编码器Eα(·)为ResNet12,投影器Pβ(·)为只有一层隐含层的多层感知器;
则第i个基类图像样本xi的特征表示为:
ui=Pβ(Eα(xi));
S23:经过特征提取环节,此时得到由2M个数据特征组成的集合
Figure FDA0003559427190000021
将ui作为正例样本,在集合A(i)中所有样本的标签与yi一致都视为正例样本,构成正例样本集合P(i),剩余样本则被视为负例样本,构成负例样本集合N(i)。
4.根据权利要求1所述的一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,所述步骤3的具体步骤如下:
S31:基于正例样本集合P(i)与负例样本集合N(i)所构建的间隔监督对比损失函数的计算公式为:
Figure FDA0003559427190000022
其中,
Figure FDA0003559427190000023
为温度系数,
Figure FDA0003559427190000024
为间隔系数,up为正例样本集合P(i)中的第p个样本,ua为负例样本集合N(i),s(·)表示任意两个样本的cosine相似性度量,表达式为:
Figure FDA0003559427190000025
S32:计算间隔监督对比损失关于参数的梯度,计算公式为:
Figure FDA0003559427190000026
其中
Figure FDA0003559427190000027
Figure FDA0003559427190000028
Figure FDA0003559427190000029
S33:利用梯度下降算法对参数进行更新,直到算法收敛为止,此时完成对主干网络的预训练。
5.根据权利要求1所述的一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,所述步骤4的具体步骤如下:
S41:固定编码器Eα(·)中的参数α,对新类数据集中的支持样本提取特征,第s个支持样本的d维特征表示为:
us=Pβ(Eα(xs))
S42:选择线性支持向量机对新类数据样本进行分类判别,优化目标函数为:
Figure FDA0003559427190000031
s.t.ys(w·us+b)≥1-ξs
ξs≥0,s=1,2,…,2K
其中,ys为第s个支持样本对应的标签,C为惩罚系数,b为分类阈值,ξs为松弛变量,w为分类器的参数,对上式进行优化求解得到L个支持向量。
6.根据权利要求1所述的一种基于间隔监督对比损失的小样本图像分类方法,其特征在于,所述步骤5的具体步骤如下:
S51:固定编码器Eα(·)中的参数α,对新类数据集中的查询样本提取特征,第q个支持样本的d维特征表示为:
uq=Pβ(Eα(xq))
S52:利用训练好的支持向量机对查询样本的分类决策为:
Figure FDA0003559427190000032
其中,αl为拉格朗日系数,ul为第l个支持样本特征,yl为其对应的标签。
CN202210289086.9A 2022-03-22 2022-03-22 一种基于间隔监督对比损失的小样本图像分类方法 Withdrawn CN114580566A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210289086.9A CN114580566A (zh) 2022-03-22 2022-03-22 一种基于间隔监督对比损失的小样本图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210289086.9A CN114580566A (zh) 2022-03-22 2022-03-22 一种基于间隔监督对比损失的小样本图像分类方法

Publications (1)

Publication Number Publication Date
CN114580566A true CN114580566A (zh) 2022-06-03

Family

ID=81783167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210289086.9A Withdrawn CN114580566A (zh) 2022-03-22 2022-03-22 一种基于间隔监督对比损失的小样本图像分类方法

Country Status (1)

Country Link
CN (1) CN114580566A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115203420A (zh) * 2022-07-25 2022-10-18 腾讯科技(深圳)有限公司 实体关系分类模型训练方法、实体关系分类方法及装置
CN115294386A (zh) * 2022-07-06 2022-11-04 南通大学 一种基于正则化监督损失函数的图像分类方法
CN115984621A (zh) * 2023-01-09 2023-04-18 宁波拾烨智能科技有限公司 一种基于限制性原型对比网络的小样本遥感图像分类方法
CN116168257A (zh) * 2023-04-23 2023-05-26 安徽大学 基于样本生成的小样本图像分类方法、设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294386A (zh) * 2022-07-06 2022-11-04 南通大学 一种基于正则化监督损失函数的图像分类方法
CN115294386B (zh) * 2022-07-06 2023-11-24 南通大学 一种基于正则化监督损失函数的图像分类方法
CN115203420A (zh) * 2022-07-25 2022-10-18 腾讯科技(深圳)有限公司 实体关系分类模型训练方法、实体关系分类方法及装置
CN115203420B (zh) * 2022-07-25 2024-04-26 腾讯科技(深圳)有限公司 实体关系分类模型训练方法、实体关系分类方法及装置
CN115984621A (zh) * 2023-01-09 2023-04-18 宁波拾烨智能科技有限公司 一种基于限制性原型对比网络的小样本遥感图像分类方法
CN115984621B (zh) * 2023-01-09 2023-07-11 宁波拾烨智能科技有限公司 一种基于限制性原型对比网络的小样本遥感图像分类方法
CN116168257A (zh) * 2023-04-23 2023-05-26 安徽大学 基于样本生成的小样本图像分类方法、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
Ruby et al. Binary cross entropy with deep learning technique for image classification
Wu et al. Unsupervised feature learning via non-parametric instance discrimination
Deng et al. Multitask emotion recognition with incomplete labels
WO2022037233A1 (zh) 一种基于自监督知识迁移的小样本视觉目标识别方法
CN114580566A (zh) 一种基于间隔监督对比损失的小样本图像分类方法
Biswas et al. Simultaneous active learning of classifiers & attributes via relative feedback
CN112614538A (zh) 一种基于蛋白质预训练表征学习的抗菌肽预测方法和装置
US20210319215A1 (en) Method and system for person re-identification
CN103400144B (zh) 一种基于k近邻的支持向量机主动学习的方法
Duong et al. Shrinkteanet: Million-scale lightweight face recognition via shrinking teacher-student networks
Ju et al. Fish species recognition using an improved AlexNet model
CN110263174B (zh) —基于焦点关注的主题类别分析方法
CN113672718B (zh) 基于特征匹配和领域自适应的对话意图识别方法及***
CN113361278B (zh) 一种基于数据增强与主动学习的小样本命名实体识别方法
Ostyakov et al. Label denoising with large ensembles of heterogeneous neural networks
CN111460200B (zh) 基于多任务深度学习的图像检索方法、模型及其构建方法
CN112434686B (zh) 针对ocr图片的端到端含错文本分类识别仪
Li et al. Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes
CN111582506A (zh) 基于全局和局部标记关系的偏多标记学习方法
AlKhuraym et al. Arabic sign language recognition using lightweight cnn-based architecture
Okokpujie et al. Predictive modeling of trait-aging invariant face recognition system using machine learning
CN111191033A (zh) 一种基于分类效用的开集分类方法
Hong et al. Gated Multi-Head Attention Pooling for Weakly Labelled Audio Tagging.
CN112200260B (zh) 一种基于丢弃损失函数的人物属性识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220603

WW01 Invention patent application withdrawn after publication