CN113657267A - 一种半监督行人重识别模型、方法和装置 - Google Patents
一种半监督行人重识别模型、方法和装置 Download PDFInfo
- Publication number
- CN113657267A CN113657267A CN202110939921.4A CN202110939921A CN113657267A CN 113657267 A CN113657267 A CN 113657267A CN 202110939921 A CN202110939921 A CN 202110939921A CN 113657267 A CN113657267 A CN 113657267A
- Authority
- CN
- China
- Prior art keywords
- loss function
- image
- training
- resnet
- data network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000013508 migration Methods 0.000 claims abstract description 13
- 230000005012 migration Effects 0.000 claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 68
- 238000004821 distillation Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000014759 maintenance of location Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 11
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种半监督行人重识别模型、方法和装置,包括利用SPGAN神经网络对源域数据集的图像进行风格迁移生成与目标域数据集的图像风格相匹配的图像,将生成的相匹配的图像输入ResNet进行预训练;将利用DBSCAN算法聚类生成的硬伪标签的数据网络和基于ResNet的预测值的数据网络使用平均教师模型进行相互学***均教师模型收敛;将基于ResNet的预测值的数据网络和平均教师模型的预测值的数据网络载入FPGA,实现源域数据集的图像与目标域数据集的图像的匹配。本发明克服了普通卷积神经网络过拟合的问题,能够在应用过程中自我升级,具有良好的自适应性,可快速切换并适应不同的应用场景。
Description
技术领域
本发明属于计算机视觉与智能信息处理技术领域,具体涉及一种半监督行人重识别模型、方法和装置。
背景技术
行人重识别(person re-identification)主要指给定一个摄像头拍摄的行人图像,从其他视野可能重叠但视角不同的摄像头捕获的大量图像中重新识别该行人的过程,是近年来计算机视觉领域的研究热点,在安保领域有着广泛的应用空间。
一般来说,行人重识别任务可以分解为特征提取和特征匹配两个过程。由于不同摄像头捕获的图像其背景、光照、姿势、相机分辨率都存在着较大差异,使得特征提取和特征匹配度都面临极大的挑战,提取稳健的特征表示以及设计适当的特征学习算法也就成为了解决行人重识别问题的关键。
一些研究者主要致力于提取鲁棒性较好的特征来强化行人特征的判别性,也有一些研究者主要关注在学习方法上。例如设计更好的度量方法,以使其更容易地识别相同的人,并区分不同的人,或通过学习公共的子空间或者字典消除不同摄像头之间的差异。
当前,该领域的大部分工作都关注在有监督场景下的行人重识别问题。然而在现实中,行人重识别的数据标注工作往往需要花费大量的人力和财力,特别是对跨摄像头间的行人数据进行关联的这一步骤。并且在当前深度学习时代,大部分方法都是依赖大规模的有标记数据来训练一个深度模型。而数据标注的高成本使得有监督的方法难以扩展到现实应用中。这也是阻碍行人重识别技术能够真正落地的一大因素。另一方面,在现实生活中我们能够轻松获得大量无标记的行人数据。因此在行人重识别问题的研究中,如何使用少标记的大规模图像数据来训练得到鲁棒性较好的模型,具有重大的研究价值和意义。
发明内容
本发明为了解决如何使用少标记的大规模图像数据来训练得到鲁棒性较好的模型的问题,提出了一种半监督行人重识别模型、方法和装置,该方法不存在过拟合,欠拟合,且识别精度高,网络可解释能力强。为实现上述目的,本发明采用以下具体技术方案:
一种半监督行人重识别方法,包括以下步骤:
S1、利用SPGAN神经网络对有标签的源域数据集的图像进行风格迁移,生成与无标签的目标域数据集的图像风格相匹配的图像,将生成的与无标签的目标域数据集的图像风格相匹配的图像输入到ResNet进行预训练,得到基于ResNet的预测值的数据网络;
S2、将利用DBSCAN算法聚类生成的硬伪标签的数据网络和基于ResNet的预测值的数据网络使用平均教师模型进行相互学***均教师模型收敛,得到平均教师模型的预测值的数据网络;
S3、将基于ResNet的预测值的数据网络和平均教师模型的预测值的数据网络载入FPGA,实现源域数据集的图像与目标域数据集的图像的匹配。
优选地,平均教师模型用于第一训练和第二训练:
第一训练包括利用蒸馏学习的方法对生成的硬伪标签的数据网络的参数进行更新;
第二训练包括利用损失函数减弱硬伪标签的数据网络自身的噪声。
优选地,利用蒸馏学习的方法对生成的硬伪标签的数据网络的参数进行更新的公式为:
其中,E(T)[θ1]和E(T)[θ2]分别代表经过两组不同的数据增强后由第一训练得到的用于更新硬伪标签的数据网络的新的参数;
初始参数E(0)[θ1]=θ1,E(0)[θ2]=θ2;
α代表蒸馏学习所设置的保留旧知识的阈值,其范围为(0,1]。
优选地,损失函数表示为:
其中,β1,β2,1-β1-β2分别为分类损失,三元组损失,吸引损失在损失函数中的权重;
Lt push代表目标域的距离损失函数;
优选地,ResNet的最后的卷积层为Transformer计算模块,用于增强ResNet的解耦能力。
优选地,平均教师模型的预测值由Transformer计算模块进行提取,计算公式为:
其中,Q=WqA+bq;
K=WkA+bk;
V=WvA+bv;
A=RELU(X+Station);
Station为一个小数矩阵,代表矩阵中每个元素的空间位置;
Wq、Wk、Wv分别代表Q、K、V输出的权重矩阵;
bq、bk、bv分别表示Q、K、V输出的偏差值。
一种半监督行人重识别模型,由上述训练方法训练得到。
一种半监督行人重识别模型的训练装置,包括处理器以及存储器,处理器调用存储器中的数据执行程序,用于实现上述的训练方法。
本发明能够取得以下技术效果:
1、本发明克服了普通卷积神经网络过拟合的问题,鲁棒性强。
2、本发明可以在应用过程中自我升级,具有良好的自适应性。
3、本发明中引入SPGAN算法使模型可以寻找到更多目标域图像和源域图像共有的特征,从而加速模型的收敛。
4、五种损失函数的引入使得模型能够注意到不同摄像头下相同的人的特征向量距离、不同的个体之间特征向量的距离以及相似的人之间的特征向量距离的处理方法。
附图说明
图1是本发明一个实施例的半监督行人重识别模型的训练方法的流程图;
图2是本发明一个实施例的模型的框架图;
图3是本发明一个实施例的SPGAN神经网络的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。
本发明的目的是提供一种半监督行人重识别模型、方法和装置。下面将对本发明提供的半监督行人重识别模型的训练方法,结合图1-图3通过具体实施例来进行详细说明。
图1示出了本发明的半监督行人重识别模型的训练方法的流程图,通过SPGAN神经网络(Similarity Preserving GAN)利用大量的无标签的应用环境(目标域)的数据集对有标签的源域数据集进行风格迁移,尽可能地减小目标域与源域之间的区别,并生成预训练模型。然后通过DBSCAN聚类算法对没有标签的训练集生成伪标签。为了减少硬标签带来的噪声,训练时采用平均教师模型相互监督,输入一组小批量数据,并进行两种模式的数据增强,采用软标签作为彼此学习的结果。为了保留原始学习的信息,更新数据时选择蒸馏学习法,并通过FPGA进行硬件上的实现。
S1、利用SPGAN神经网络对有标签的源域数据集的图像进行风格迁移生成与无标签的目标域数据集的图像风格相匹配的图像,将生成的与无标签的目标域数据集的图像风格相匹配的图像输入ResNet进行预训练,得到基于ResNet的预测值的数据网络;
在本发明的一个优选实施例中,使用SPGAN神经网络对有人工标签的源域数据集进行风格迁移,一方面能够减少与无标签的目标域数据集之间图像风格的区别,另一方面在迁移的同时无需建立两个数据集之间一对一的映射关系,减少运算量。
参见图3所示的SPGAN神经网络的流程示意图,SPGAN神经网络分为Cyclegan和SiaNet两部分流程的处理:
Cyclegan用于当图片从数据集A风格转换为数据集B风格,即有标签的源域数据集的图像风格转换为无标签的目标域数据集的图片风格时,迁移风格后的图片通过第二次风格迁移应该能形成与原来风格相似,且主要信息保留的图片,包括以下几个损失函数:
生成器G和判别器DY的损失函数:
LYGAN(G,DY,X,Y)=Ey~py[(DY(Y)-1)2]+Ex~px[DY(G(X))2] (4)
其中,px和py分别代表样本X和样本Y的数据集的样本分布,G为生成器,DY为判别器,
Ex~px为对判别器Dx的期望,用于判断判别器Dx是否可以有效工作,证明Dx可以有效的判断图片是否符合X数据集的风格,对X数据集建立有效的判别器;
同理对于生成器F和判别器DX的损失函数:
LXGAN(G,DX,Y,X)=Ex~px[(DX(X)-1)2]+Ey~py[DX(F(Y))2] (5)
Ey~py为对判别器DY的期望,用于判断判别器DY是否可以有效工作,证明DY可以有效判断图片是否符合Y数据集的风格,对Y数据集建立有效的判别器;
同时,在风格迁移后能够通过另一个生成器还原成与原图像相似的图片,其还原损失函数为:
Lcyc(G,F)=Ex~px[||F(G(X))-X||1]+Ey~py[||G(F(Y))-Y||1] (6)
在满足以上条件的同时,原图像在风格迁移后可以尽可能地保留原图像的信息,其迁移损失函数为:
Lid(G,F,X,Y)=Ex~px[||F(X)-X||1]+Ey~py[||G(Y)-Y||1] (7)
SiaNet用于在风格迁移时,使风格迁移后的样本保留原样本所包含的信息,并且应该独立于目标域的任何一个样本,即行人重识别Reid任务中的个体不变性以及相机不变性,因此在Cyclegan的基础上添加SiaNet可以约束映射函数的学习过程。
用来训练SiaNet的相似性保留损失函数为:
Lcon(i,x1,x2)=(1-i){max(0,m-d)}2+i*d2 m∈[0,2] (8)
其中,x1,x2为一对输入向量的样本对;
d为两个向量之间的欧氏距离;
i表示x1,x2是否为正样本,
如果为正,则i=1;如果为负,则i=0;
m代表正负样本之间的阈值。
当m<0时,负样本对会被损失函数无视并无法引入反向传播***;当m>0时,正负样本对会被考虑到损失函数中。
而m则决定了正负样本在损失函数中的比例显然,通过这个损失函数,我们可以让正样本对之间的距离减少,并让负样本对之间的距离增大。
因此,SPGAN的整体损失函数为:
LSPGAN=LXGAN+LYGAN+λ1Lcyc+λ2Lid+λ3Lcon (9)
其中λ1,λ2,λ3为控制上述三种损失函数之间相对关系的权重。
在完成风格迁移后,对迁移后的图片进行基于ResNet的预训练,预训练的损失函数表示为:
代表源域的分类损失函数;
λ代表分类函数于三元组函数之间的权重;
Ns代表源域的样本数量,s代表源域;
Lce为交叉熵损失函数;
m代表正负样本之间的阈值;
‖.‖表示范式距离。
S2、将利用DBSCAN算法聚类生成的硬伪标签的数据网络和基于ResNet的预测值的数据网络使用平均教师模型进行相互学***均教师模型收敛,得到平均教师模型的预测值的数据网络;
在本发明的一个优选实施例中,使用DBSCAN算法对无标签的目标域数据集进行聚类,生成硬伪标签(即一个数据只有一个针对的标签),由于使用硬伪标签在学***均教师模型对硬伪标签和软标签进行相互学习与监督,参考图2。
平均教师模型用于两部分的训练:1、通过DBSCAN聚类算法生成伪硬标签,利用蒸馏学***均教师模型的参数。
行人重识别Reid属于open class类型的问题,因此并不确定任务中行人id的数量,因此在训练过程中需要考虑到行人重识别Reid任务中的样本不变性,相机不变性,近邻不变性三个特征。
虽然通过Kmeans和DBSCAN生成硬伪标签会达到类似的精度,但是DBSCAN可以对任意孔径分布的稠密数据集进行聚类,可以在聚类的同时发现异常点,而且对聚类的结果没有偏倚,不会像Kmeans一样会被初始值的位置所影响。因此,为了让模型在学习过程中注意open class的特征,选择DBSCAN生成硬伪标签。
为了避免模型利用聚类的硬伪标签进行自监督,因此搭建协同网络,并且令每个批次的输出经过两组不同的数据增强,并让输出的结果彼此监督,保证了两个网络,即Net1与Net2之间的独立性。值得注意的是,每次训练后网络只会保留在目标域性能较好的参数,因此本质上本发明只训练了一个网络。
而在学习过程中,为了保留在预训练以及之后的训练中已经学习到了判别性特征,本发明选择使用蒸馏学习的思想更新硬伪标签的数据网络的参数,其参数更新公式如下所示:
其中,T表示第T次训练;
E(T)[θ1]和E(T)[θ2]分别代表经过两组不同的数据增强后由第一训练得到的用于更新硬伪标签的数据网络的新的参数;
初始参数E(0)[θ1]=θ1,E(0)[θ2]=θ2;
θ1、θ2在第一训练初始时是一样的,但随着多次训练变得不同,最终选取训练结果较好的值作为硬伪标签的数据网络的参数。
α代表蒸馏学习所设置的保留旧知识的阈值,其范围为(0,1]。
在学习过程中,为了减弱硬伪标签自身带来的噪声,引入基于软标签的软分类损失函数和软三元组损失函数,其软标签代表输出结果为各行人id的概率。
基于软标签的目标域的软分类损失函数为:
t代表目标域,Nt代表目标域样本的个数;Ns代表源域的样本个数。
基于软标签的目标域的软三元组损失函数为:
其中,Lbce表示二元交叉熵损失函数;
通过以上的软分类损失函数和软三元组损失函数可以拉近样本与正样本之间的距离,并推远样本与负样本之间的距离。
但是软三元组损失函数和软分类损失函数只考虑的将相同类别的个体拉近,不同类别的个体推远,而没有考虑到将相似的样本拉近。即只考虑了样本不变性和相机不变性,而没有考虑到近邻不变性。因此我们需要引入吸引的距离损失函数,拉近相似个体之间的距离:
其中,Lt push(θ1|θ2)代表代表基于Net2参数的模型应用在分析Net1参数得到相同输入的输出结果的距离损失函数;
Lt push(θ2|θ1)代表代表基于Net1参数的模型应用在分析Net2参数得到相同输入的输出结果的距离损失函数;
在本发明的一个优选实施例中,平均教师模型的损失函数还包括传统的,基于无监督的领域适应方法UDA(Unsupervised domain adaptation)的行人重识别Reid任务的硬标签分类损失函数和硬标签三元组损失函数,其中,
目标域的硬标签分类损失函数为:
其中,Lce表示交叉熵损失函数,
目标域的硬标签三元组损失函数为:
其中,m代表正负样本之间的阈值;
因此,平均教师模型中的损失函数可以表示为:
其中,β1,β2,1-β1-β2分别为分类损失,三元组损失,距离损失在损失函数中的权重;
在本发明的一个优选实施例中,ResNet的最后的卷积层为Transformer计算模块,用于增强ResNet的解耦能力。
平均教师模型的预测值由Transformer计算模块进行提取,计算公式为:
其中,Q=WqA+bq;
K=WkA+bk;
V=WvA+bv;
A=RELU(X+Station);
Station为一个小数矩阵,代表矩阵中每个元素的空间位置;
Wq、Wk、Wv分别代表Q、K、V输出的权重矩阵;
bq、bk、bv分别表示Q、K、V输出的偏差值。
即对Q,K,V三个输出运算完成后利用softmax函数得到最后的结果Output。
在本发明的另一个实施例中,利用搭建完成的平均教师模型进行如下训练:
利用DBSCAN算法对经过数据增强的无标签的目标域数据生成硬伪标签,基于获得的硬伪标签按照在平均教师模型上进行训练,得到Net1、Net2后,分别通过临时平均模型对Net1和Net2的参数进行蒸馏学习的更新,得到Mean Net1和Mean Net2;将Net1与Mean Net2进行相互学习,Net2与Mean Net1进行相互监督,选择最匹配的一组进行保留;重新利用DBSCAN算法生成一组新的硬伪标签,重复上述过程,选择一组最为匹配的图像,替换上一次保留的图像,因此本质上我们只训练了一个网络。
S3、将基于ResNet的预测值的数据网络和平均教师模型的预测值的数据网络载入FPGA,实现源域数据集的图像与目标域数据集的图像的匹配。
在本发明的一个优选实施例中,为了便于模型的应用及数据收集,采用米联客MZU09A开发板可将训练好的网络部署后实现对图像中的行人的重识别,借助互联网定期手机数据,让模型可以逐渐自适应应用环境。
表一为本发明的半监督行人重识别方法相较于其它行人重识别方法输入评分***的比较结果:
表一
从上表可以看出本发明的方法相对于现有技术中的行人重识别的方法,在测试***中的评分高于其它,且在测试***中对最像的前1个,前5个和前10个的正确目标的概率值高于其它方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
以上本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所作出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
Claims (8)
1.一种半监督行人重识别模型的训练方法,其特征在于,包括如下步骤:
S1、利用SPGAN神经网络对有标签的源域数据集的图像进行风格迁移,生成与无标签的目标域数据集的图像风格相匹配的图像,将生成的所述与无标签的目标域数据集的图像风格相匹配的图像输入到ResNet进行预训练,得到基于ResNet的预测值的数据网络;
S2、将利用DBSCAN算法聚类生成的硬伪标签的数据网络和基于ResNet的预测值的数据网络使用平均教师模型进行相互学***均教师模型收敛,得到所述平均教师模型的预测值的数据网络;
S3、将所述基于ResNet的预测值的数据网络和所述平均教师模型的预测值的数据网络载入FPGA,实现所述源域数据集的图像与所述目标域数据集的图像的匹配。
2.根据权利要求1所述的训练方法,其特征在于,所述平均教师模型用于第一训练和第二训练:
所述第一训练包括利用蒸馏学习的方法对生成的所述硬伪标签的数据网络的参数进行更新;
所述第二训练包括利用损失函数减弱所述硬伪标签的数据网络自身的噪声。
5.根据权利要求1所述的训练方法,其特征在于,所述ResNet的最后的卷积层为Transformer计算模块,用于增强所述ResNet的解耦能力。
7.一种半监督行人重识别模型,其特征在于,所述半监督行人重识别模型由权利要求1至6任一项所述的训练方法训练得到。
8.一种半监督行人重识别模型的训练装置,其特征在于,所述的装置包括处理器以及存储器,所述处理器调用所述存储器中的数据执行程序,用于实现如权利要求1至6中任一项所述的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110939921.4A CN113657267B (zh) | 2021-08-17 | 2021-08-17 | 一种半监督行人重识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110939921.4A CN113657267B (zh) | 2021-08-17 | 2021-08-17 | 一种半监督行人重识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113657267A true CN113657267A (zh) | 2021-11-16 |
CN113657267B CN113657267B (zh) | 2024-01-12 |
Family
ID=78479344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110939921.4A Active CN113657267B (zh) | 2021-08-17 | 2021-08-17 | 一种半监督行人重识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113657267B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115497120A (zh) * | 2022-09-23 | 2022-12-20 | 清华大学 | 基于Transformer的两步式领域自适应行人再识别方法 |
WO2023160312A1 (zh) * | 2022-02-23 | 2023-08-31 | 厦门市美亚柏科信息股份有限公司 | 基于自监督学习的行人重识别方法、装置、设备及存储介质 |
CN116763259A (zh) * | 2023-08-17 | 2023-09-19 | 普希斯(广州)科技股份有限公司 | 美容设备的多维度控制方法、装置及美容设备 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902662A (zh) * | 2019-03-20 | 2019-06-18 | 中山大学 | 一种行人重识别方法、***、装置和存储介质 |
CN110555390A (zh) * | 2019-08-09 | 2019-12-10 | 厦门市美亚柏科信息股份有限公司 | 基于半监督训练方式的行人重识别方法、装置及介质 |
CN111027421A (zh) * | 2019-11-26 | 2020-04-17 | 西安宏规电子科技有限公司 | 一种基于图的直推式半监督行人再识别方法 |
US20200125897A1 (en) * | 2018-10-18 | 2020-04-23 | Deepnorth Inc. | Semi-Supervised Person Re-Identification Using Multi-View Clustering |
CN111291705A (zh) * | 2020-02-24 | 2020-06-16 | 北京交通大学 | 一种跨多目标域行人重识别方法 |
CN111401281A (zh) * | 2020-03-23 | 2020-07-10 | 山东师范大学 | 基于深度聚类和样例学习的无监督行人重识别方法及*** |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN111860678A (zh) * | 2020-07-29 | 2020-10-30 | 中国矿业大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN112131961A (zh) * | 2020-08-28 | 2020-12-25 | 中国海洋大学 | 一种基于单样本的半监督行人重识别方法 |
US20210150268A1 (en) * | 2017-07-13 | 2021-05-20 | Peking University Shenzhen Graduate School | Method of using deep discriminate network model for person re-identification in image or video |
US20210150194A1 (en) * | 2017-07-04 | 2021-05-20 | Peking University Shenzhen Graduate School | Image feature extraction method for person re-identification |
CN112861705A (zh) * | 2021-02-04 | 2021-05-28 | 东北林业大学 | 一种基于混合学习的跨域行人重识别方法 |
CN113033603A (zh) * | 2021-02-05 | 2021-06-25 | 浙江大学 | 一种基于元学习的弱监督图像多标签分类方法 |
-
2021
- 2021-08-17 CN CN202110939921.4A patent/CN113657267B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210150194A1 (en) * | 2017-07-04 | 2021-05-20 | Peking University Shenzhen Graduate School | Image feature extraction method for person re-identification |
US20210150268A1 (en) * | 2017-07-13 | 2021-05-20 | Peking University Shenzhen Graduate School | Method of using deep discriminate network model for person re-identification in image or video |
US20200125897A1 (en) * | 2018-10-18 | 2020-04-23 | Deepnorth Inc. | Semi-Supervised Person Re-Identification Using Multi-View Clustering |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
CN109902662A (zh) * | 2019-03-20 | 2019-06-18 | 中山大学 | 一种行人重识别方法、***、装置和存储介质 |
CN110555390A (zh) * | 2019-08-09 | 2019-12-10 | 厦门市美亚柏科信息股份有限公司 | 基于半监督训练方式的行人重识别方法、装置及介质 |
CN111027421A (zh) * | 2019-11-26 | 2020-04-17 | 西安宏规电子科技有限公司 | 一种基于图的直推式半监督行人再识别方法 |
CN111291705A (zh) * | 2020-02-24 | 2020-06-16 | 北京交通大学 | 一种跨多目标域行人重识别方法 |
CN111401281A (zh) * | 2020-03-23 | 2020-07-10 | 山东师范大学 | 基于深度聚类和样例学习的无监督行人重识别方法及*** |
CN111860678A (zh) * | 2020-07-29 | 2020-10-30 | 中国矿业大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN112131961A (zh) * | 2020-08-28 | 2020-12-25 | 中国海洋大学 | 一种基于单样本的半监督行人重识别方法 |
CN112861705A (zh) * | 2021-02-04 | 2021-05-28 | 东北林业大学 | 一种基于混合学习的跨域行人重识别方法 |
CN113033603A (zh) * | 2021-02-05 | 2021-06-25 | 浙江大学 | 一种基于元学习的弱监督图像多标签分类方法 |
Non-Patent Citations (4)
Title |
---|
ANCONG WU: "Distilled Camera-Aware Self Training for Semi-Supervised Person Re-Identification", 《IEEE ACCESS》 * |
单纯等: "半监督单样本深度行人重识别方法", 《计算机***应用》, vol. 29, no. 1 * |
张晓伟;吕明强;李慧;: "基于局部语义特征不变性的跨域行人重识别", 北京航空航天大学学报, no. 09 * |
赵舶彤: "基于半监督学习的行人重识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023160312A1 (zh) * | 2022-02-23 | 2023-08-31 | 厦门市美亚柏科信息股份有限公司 | 基于自监督学习的行人重识别方法、装置、设备及存储介质 |
CN115497120A (zh) * | 2022-09-23 | 2022-12-20 | 清华大学 | 基于Transformer的两步式领域自适应行人再识别方法 |
CN115497120B (zh) * | 2022-09-23 | 2023-12-15 | 清华大学 | 基于Transformer的两步式领域自适应行人再识别方法 |
CN116763259A (zh) * | 2023-08-17 | 2023-09-19 | 普希斯(广州)科技股份有限公司 | 美容设备的多维度控制方法、装置及美容设备 |
CN116763259B (zh) * | 2023-08-17 | 2023-12-08 | 普希斯(广州)科技股份有限公司 | 美容设备的多维度控制方法、装置及美容设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113657267B (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960080B (zh) | 基于主动防御图像对抗攻击的人脸识别方法 | |
Wang et al. | Beyond frame-level CNN: saliency-aware 3-D CNN with LSTM for video action recognition | |
Kümmerer et al. | DeepGaze II: Reading fixations from deep features trained on object recognition | |
CN113657267A (zh) | 一种半监督行人重识别模型、方法和装置 | |
Ban et al. | Face detection based on skin color likelihood | |
CN114241282A (zh) | 一种基于知识蒸馏的边缘设备场景识别方法及装置 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN110929679B (zh) | 一种基于gan的无监督自适应行人重识别方法 | |
CN111639544A (zh) | 基于多分支跨连接卷积神经网络的表情识别方法 | |
CN112070058A (zh) | 人脸面部复合情感表情识别方法及*** | |
CN112819065B (zh) | 基于多重聚类信息的无监督行人难样本挖掘方法和*** | |
CN109165673B (zh) | 基于度量学习和多示例支持向量机的图像分类方法 | |
CN105184772A (zh) | 一种基于超像素的自适应彩色图像分割方法 | |
CN108345866B (zh) | 一种基于深度特征学习的行人再识别方法 | |
Kishore et al. | Visual-verbal machine interpreter for sign language recognition under versatile video backgrounds | |
Moallem et al. | Fuzzy inference system optimized by genetic algorithm for robust face and pose detection | |
CN115375951A (zh) | 一种基于图元迁移网络的小样本高光谱图像分类方法 | |
CN114782752B (zh) | 基于自训练的小样本图像集成分类方法及装置 | |
CN113076963B (zh) | 一种图像识别方法、装置和计算机可读存储介质 | |
CN114333062A (zh) | 基于异构双网络和特征一致性的行人重识别模型训练方法 | |
Tan et al. | Wide Residual Network for Vision-based Static Hand Gesture Recognition. | |
CN113378962A (zh) | 一种基于图注意力网络的服装属性识别方法与*** | |
CN112750128B (zh) | 图像语义分割方法、装置、终端及可读存储介质 | |
CN110929013A (zh) | 一种基于bottom-up attention和定位信息融合的图片问答实现方法 | |
Tu et al. | Facial image inpainting with variational autoencoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |