CN111027421A - 一种基于图的直推式半监督行人再识别方法 - Google Patents
一种基于图的直推式半监督行人再识别方法 Download PDFInfo
- Publication number
- CN111027421A CN111027421A CN201911173132.3A CN201911173132A CN111027421A CN 111027421 A CN111027421 A CN 111027421A CN 201911173132 A CN201911173132 A CN 201911173132A CN 111027421 A CN111027421 A CN 111027421A
- Authority
- CN
- China
- Prior art keywords
- model
- pedestrian
- data
- loss function
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000012795 verification Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 64
- 238000005065 mining Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图的直推式半监督行人再识别方法,属于计算机视觉行人再识别技术领域。首先使用有标签行人数据训练双通道模型,得到基模型后对无标签行人数据进行特征提取,为提取到的无标签行人数据特征建立图模型,根据图模型给予无标签行人数据伪标签,使用有标签行人数据和带有伪标签的无标签行人数据,构建正负样本对;使用图模型赋予正负样本对置信度后共同微调基模型;逐渐增加正负样本对的难度和置信度,利用课程学习方法,训练基模型至完全收敛,得到最终模型后对验证集数据进行特征提取并进行特征匹配,根据匹配结果,完成行人再识别。该方法减少了错误伪标签带来的负面影响,提高了模型的鲁棒性,进而提高了行人再识别的精度。
Description
技术领域
本发明属于计算机视觉行人再识别技术领域,具体涉及一种基于图的直推式半监督行人再识别方法。
背景技术
行人再识别是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补目前固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合,可广泛应用于智能视频监控、智能安保等领域。行人再识别就是需要机器识别出不同摄像机拍摄的特定人员的所有图像。具体说,就是给定某人的一张图片(query image),从多张图片(gallery images)中找到属于他/她的那一张或多张,是通过行人整体特征实现的人员比对技术。行人再识别技术在公共安防的刑侦工作中以及图像检索等场景中有很高的应用价值。除此之外,行人再识别技术还可以帮助手机用户实现相册聚类、帮助零售或商超经营者获取有效的顾客轨迹、挖掘商业价值。然而,目前行人再识别技术的精准度并不高,很多工作仍依赖于大量人力的投入。
行人再识别是一项非常重要和具有挑战性的任务,由于图像拍摄的时间、地点随机,且光线、角度、姿态不同,再加上行人容易受到检测精度、遮挡等因素的影响,这些使得行人再试别的研究工作在实际应用中面临更加困难的挑战。大多数的行人再识别算法都采用了全监督卷积神经网络。然而,一个范化性能更好的神经网络往往需要数以万计的标记训练样本来训练。不像分类数据集或人脸识别数据集,其数据量已经扩展到数百万,大多数行人再识别数据集都少于2000人,每个人有几十张图像。由于获得标记的行人样本过于昂贵,所以基于半监督学习的行人再识别技术将在实际应用中更有价值。
行人再识别领域的研究工作主要采用研究行人对象的特征表示方法,提取更具有鲁棒性的鉴别特征对行人进行表示,以及采用距离度量学习方法,通过学习一个有判别力的距离度量函数,使得同一个人的图像间距离小于不同行人图像间的距离。基于图像的行人再识别技术,其核心目标是为一张指定的行人图像找到包含N张行人图像的候选集中与之最相似的行人图像。为了将不同身份的行人区别出来,行人再识别需要提取有鉴别力的行人特征描述子。在日常生活中,人类通常根据服饰识别是否是同一个行人,而在智能多摄像头监控***中,行人外观通常由于照明、行走姿势、摄像头视域的变化而剧烈变化。如何在剧烈的外观变化下提取鲁棒的描述子,是目前需要解决的技术难点,因此在实际应用过程中有着较大限制。
发明内容
为了解决上述问题,本发明的目的在于提供一种基于图的直推式半监督行人再识别方法,减少了错误伪标签带来的负面影响,提高了模型的鲁棒性,进而提高了行人再识别的精度。
本发明是通过以下技术方案来实现:
一种基于图的直推式半监督行人再识别方法,包括以下步骤:
步骤1:使用有标签行人数据训练双通道模型,得到基模型;
步骤2:使用基模型对无标签行人数据进行特征提取,为提取到的无标签行人数据特征建立图模型,根据图模型给予无标签行人数据伪标签,使用有标签行人数据和带有伪标签的无标签行人数据,构建正负样本对;
步骤3:使用图模型赋予正负样本对置信度,使用带有置信度的正负样本对共同微调步骤1所得基模型;
步骤4:重复步骤2、3,逐渐增加正负样本对的难度和置信度,利用课程学习方法,训练基模型至完全收敛,得到最终模型;
步骤5:利用最终模型,对验证集数据进行特征提取并进行特征匹配,根据匹配结果,完成行人再识别。
优选地,步骤1具体为:记有标签行人数据为XL,无标签行人数据为XU;定义属于同一标签的样本对为正样本对,不属于同一标签的样本对为负样本对;在双通道模型中,其中一个通道模型为ResNet50,该模型的参数由学***均移动计算得到,设为“教师”模型,计算公式如下:
θt′=αθt-1′+(1-α)θt
式中,θt为“学生”模型参数,θt′为“教师”模型参数;α为平滑系数,双通道模型使用的损失函数包含三部分:基于特征的一致性损失函数,三元组损失函数,交叉熵损失函数,其中:
使用超参数λ0将三元组损失函数和交叉熵损失函数进行结合,得到全监督损失函数LSL:
使用超参数λ1将全监督损失函数LSL与一致性学习损失函数LCL进行结合,得到有标签行人数据的最终损失函数:
LSL-CL=LSL+λ1LCL
使用有标签行人数据的最终损失函数作为约束,使用有标签行人数据对双通道进行训练,得到基模型。
优选地,步骤2具体为:使用基模型对无标签行人数据进行特征提取,利用无标签行人数据的特征构建有向KNN图G(V,E),在G中:
V={vi=fθ(xi)|xi∈XU}
E={eij=P(vi,vj)|vj∈Nk(vi)}
式中,Nk(vi)为顶点vi的KNN图,P(vi,vj)为vi到vj之间的一条有向边;在KNN图中以若干条边构成的闭合回路中,选取所有无标签行人数据的两两组合作为正样本对记为Ct,其中t为闭合回路的边数;对于有标签的行人数据中的锚样本,从同一标签的行人数据中获取正样本,从不同标签的行人数据和无标签的行人数据中获取负样本;对于无标签行人数据中的锚样本,从Ct中获取正样本对,从有标签行人数据中获取负样本对;提升所挖掘负样本的困难度:
其中,min(·)为选择具有最小欧式距离的样本对,为在Ct中的第i个无标签行人数据,为从XL中选出的有标签行人数据,为在当前训练批次中,从Ct中选择出的无标签行人数据,D(·)为计算欧式距离;对于一个属于Ct的锚样本,Ni为从XL中选出的负样本,为从Ct中选择出的负样本,c为用来控制负样本对的置信度的常数。
优选地,通过逐渐减小常数c来提升所挖掘负样本的困难度。
优选地,步骤3具体为:得到正负样本对后,使用正负样本对构建三元组损失:
其中,N代表当前训练批次中三元组的数量,在每个批次中无标签数据和有标签数据数量相等;无标签数据的三元组从Ct,Ni,中采样,有标签数据的三元组使用标准的三元组采样策略采样;使用图模型赋予三元组置信度,si是第i个三元组的置信度;有标签数据的三元组的置信度si设为常数1;对于无标签数据的三元组的置信度设置,使用Di来定义第i个样本对在图模型中的的重复次数,在图模型中重复次数最多的样本对即Dmax=max({Di}),从中采样的负样本对,使用控制负样本对的置信度的常数c作为负样本对的置信度;从Ni中采样的负样本对,使用c作为其置信度;最终对于无标签数据的三元组置信度定义为:
其中,α代表从图模型中选出的无标签数据的正样本对的最低置信度;定义直推式度量学习损失函数为:
使用超参数λ0将直推式度量学习损失函数与一致性学习损失函数结合,最终损失函数为:
LTSML-CL=LTSML+λ1LCL,
基于该损失函数,通过使用带有置信度的正负样本对共同微调步骤1所得基模型,提升模型性能。
进一步优选地,常数c的取值范围为0.5~1。
与现有技术相比,本发明具有以下有益的技术效果:
本发明的一种基于图的直推式半监督行人再识别方法,结合深度卷积神经网络技术,首先针对无标签数据,构建图模型,利用图模型对无标签数据进行困难样本挖掘,同时利用图模型赋予困难样本置信度,利用带有置信度的伪标签优化模型。相比于传统算法如Knn、K-means等,基于图模型的方法可以得到更加准确伪标签。置信度的引入也使得伪标签在使用的时候更加稳定,例如置信度较小的样本,将控制其对优化模型过程的影响。困难样本挖掘的方法可以挖掘到更加困难的正负样本对,在度量学习中使用时,可以最大化的提升模型的特征表达能力。传统方法只适用于有标签样本的困难样本挖掘,本发明提出的困难样本挖掘方法同时适用于无标签数据,针对数据分布的先验知识,对传统的难样本挖掘方法进行改进,使得正负样本对更加充分,进而可以更大幅度的提升模型的性能。
同时,进行了一致性学习的引入与改进,利用加入不同噪声的同一数据具有特征一致的假设,对模型进行优化。对无标签数据,本发明利用特征一致性假设对模型的优化过程进行约束,使得“教师”、“学生”两个模型可以互相学习以优化参数,加快收敛的同时提升两个模型的性能。课程学习方法的引入,先学习简单的知识(样本),再逐渐增加难度学习困难的知识(样本)。首先利用高置信度的无标签数据和有标签数据对基本模型进行微调,在模型性能得到提升以后,更新无标签数据的置信度,此时该置信度信息将比更新前更可靠,然后利用更新置信度信息的无标签数据与有标签数据再次对模型进行微调,以此反复至模型收敛,得到最终模型。有意义的训练数据的顺序可以使模型性能最大化的提升。该方法减少了错误伪标签带来的负面影响,提高了模型的鲁棒性,进而提高了行人再识别的精度。
附图说明
图1为本发明的流程图;
图2为本发明的直推式度量学习网络结构示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步的详细说明,所述是对本发明的解释而不是限定。
如图1所示为本发明的流程逻辑框图,本发明的基于图的直推式半监督行人再识别方法,包括以下步骤:
步骤1:使用带标签行人数据进行三元组构建;
步骤2:训练双通道模型,如图2,得到基模型;
步骤3:使用基模型对无标签行人数据进行特征提取;
步骤4:为提取到的无标签行人数据特征建立图模型;
步骤5:根据图模型给予无标签行人数据带有置信度的伪标签,并为无标签数据构建三元组;
步骤6:使用带标签行人数据三元组和带有伪标签的无标签行人数据三元组,共同微调模型;
步骤7:重复步骤2、3、4、5、6,训练模型至完全收敛,得到最终模型;
步骤8:利用最终模型,对验证集数据进行特征提取并进行特征匹配,根据匹配结果,完成行人再识别。
具体的:记有标签行人数据为XL,无标签行人数据为XU;定义属于同一标签的样本对为正样本对,不属于同一标签的样本对为负样本对;在双通道模型中,其中一个通道模型为ResNet50,该模型的参数由学***均移动(Exponential Moving Average)计算得到,设为“教师”模型,计算公式如下:
θt′=αθt-1′+(1-α)θt
式中,θt为“学生”模型参数,θt′为“教师”模型参数,模型框架如图2所示;α为平滑系数,双通道模型使用的损失函数包含三部分:基于特征的一致性损失函数,三元组损失函数,交叉熵损失函数,如图2所示,分别为Consistency Loss、Triplet Loss和Classification Loss;其中:
使用超参数λ0将三元组损失函数和交叉熵损失函数进行结合,λ0在训练模型时设为了0.1,得到全监督损失函数LSL:
使用超参数λ1将全监督损失函数LSL与一致性学习损失函数LCL进行结合,得到有标签行人数据的最终损失函数:
LSL-CL=LSL+λ1LCL
使用有标签行人数据的最终损失函数作为约束,使用有标签行人数据对双通道进行训练,得到基模型;如图1中带标签数据三元组构建与模型训练所示。
使用基模型对无标签行人数据进行特征提取,利用无标签行人数据的特征构建有向KNN图G(V,E),我们使用了K=4作为近邻数。在G中:
V={vi=fθ(xi)|xi∈XU}
E={eij=P(vi,vj)|vj∈Nk(vi)}
式中,Nk(vi)为顶点vi的KNN图,P(vi,vj)为vi到vj之间的一条有向边;如果可以通过t条有向边,一个顶点可以连接回到它自己,例如eij→ejk→ekl→eli,我们就称这样的顶点组成一个“环”,t称为这个“环”的阶。一个环中的任意样本组合称为这个环产生的正样本对。通过KNN图得到的“环”属于同一标签的概率更高。相比于基于近邻的方法,其只能找到类内方差较小的正样本对。由“环”提供的正样本对具有更大的类内方差。在KNN图中以若干条边构成的闭合回路中,选取所有无标签行人数据的两两组合作为正样本对记为Ct,其中t为闭合回路的边数;对于有标签的行人数据中的锚样本,从同一标签的行人数据中获取正样本,从不同标签的行人数据和无标签的行人数据中获取负样本;对于无标签行人数据中的锚样本,从Ct中获取正样本对,从有标签行人数据中获取负样本对;提升所挖掘负样本的困难度:
其中,min(·)为选择具有最小欧式距离的样本对,为在Ct中的第i个无标签行人数据,为从XL中选出的有标签行人数据,为在当前训练批次中,从Ct中选择出的无标签行人数据,D(·)为计算欧式距离;对于一个属于Ct的锚样本,Ni为从XL中选出的负样本,为从Ct中选择出的负样本,c为用来控制负样本对的置信度的常数;通常使用c=0.7,c=0.8,c=0.9来产生更加困难的负样本对。
得到正负样本对后,使用正负样本对构建三元组损失:
其中,N代表当前训练批次中三元组的数量,在每个批次中无标签数据和有标签数据数量相等;无标签数据的三元组从Ct,Ni,中采样,有标签数据的三元组使用标准的三元组采样策略采样;使用图模型赋予三元组置信度,si是第i个三元组的置信度;有标签数据的三元组的置信度si设为常数1;对于无标签数据的三元组的置信度设置,使用Di来定义第i个样本对在图模型中的的重复次数,在图模型中重复次数最多的样本对即Dmax=max({Di}),从中采样的负样本对,我们使用控制负样本对的置信度的常数c作为负样本对的置信度;从Ni中采样的负样本对,使用c=1作为其置信度;最终对于无标签数据的三元组置信度定义为:
其中,α代表从图模型中选出的无标签数据的正样本对的最低置信度,α设为0.8。;定义直推式度量学习损失函数为:
使用超参数λ0将直推式度量学习损失函数与一致性学习损失函数结合,最终损失函数为:
LTSML-CL=LTSML+λ1LCL,
基于该损失函数,通过使用带有置信度的正负样本对共同微调步骤1所得基模型,提升模型性能。
在模型性能得到优化后,重复进行特征提取,并进行图模型的构建,不断更新正负样本对以及正负样本对的置信度,利用课程学习方法,训练基模型至完全收敛,得到最终模型。利用最终模型,对验证集数据进行特征提取并进行特征匹配,根据匹配结果,完成行人再识别。
下面以一个具体实施例来对本发明进行进一步的解释说明:
采用ResNet50卷积神经网络模型,输入图像尺寸为128*384,特征层维度为2048,使用PyTorch框架来实现本发明方法,使用Adam优化器,初始学习率为0.0002,weightdecay为0.0005,每个批次共有32个行人ID,每个行人ID有4张图像,模型在ImageNet数据集进行了预训练。
表1列举了采用本发明的行人再识别方法与其他方法在公开行人再识别数据集(Market1501,DukeMCMT-ReID)上的分类精度对比,可以看出,采用本方法得到的模型精度更高。
表1
[1]X.Xin,J.Wang,R.Xie,S.Zhou,W.Huang,N.Zheng,Semi-supervised personre-identification using multi-view clustering,Pattern Recognition 88(2019)285–297.
[2]X.Xin,X.Wu,Y.Wang,J.Wang,Deep self-paced learning for semi-supervised person re-identification using multi-view self-paced clustering,in:2019IEEE International Conference on Image Processing(ICIP),2019,pp.2631–2635.doi:10.1109/ICIP.2019.8803290.
需要说明的是,以上所述仅为本发明实施方式的一部分,根据本发明所做的等效变化,均包括在本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做类似的方式替代,只要不偏离本发明或者超越本权利要求书所定义的范围,均属于本发明的保护范围。
Claims (6)
1.一种基于图的直推式半监督行人再识别方法,其特征在于,包括以下步骤:
步骤1:使用有标签行人数据训练双通道模型,得到基模型;
步骤2:使用基模型对无标签行人数据进行特征提取,为提取到的无标签行人数据特征建立图模型,根据图模型给予无标签行人数据伪标签,使用有标签行人数据和带有伪标签的无标签行人数据,构建正负样本对;
步骤3:使用图模型赋予正负样本对置信度,使用带有置信度的正负样本对共同微调步骤1所得基模型;
步骤4:重复步骤2、3,逐渐增加正负样本对的难度和置信度,利用课程学习方法,训练基模型至完全收敛,得到最终模型;
步骤5:利用最终模型,对验证集数据进行特征提取并进行特征匹配,根据匹配结果,完成行人再识别。
2.如权利要求1所述的基于图的直推式半监督行人再识别方法,其特征在于,步骤1具体为:记有标签行人数据为XL,无标签行人数据为XU;定义属于同一标签的样本对为正样本对,不属于同一标签的样本对为负样本对;在双通道模型中,其中一个通道模型为ResNet50,该模型的参数由学***均移动计算得到,设为“教师”模型,计算公式如下:
θt′=αθt-1′+(1-α)θt
式中,θt为“学生”模型参数,θt′为“教师”模型参数;α为平滑系数,双通道模型使用的损失函数包含三部分:基于特征的一致性损失函数,三元组损失函数,交叉熵损失函数,其中:
使用超参数λ0将三元组损失函数和交叉熵损失函数进行结合,得到全监督损失函数LSL:
使用超参数λ1将全监督损失函数LSL与一致性学习损失函数LCL进行结合,得到有标签行人数据的最终损失函数:
LSL-CL=LSL+λ1LCL
使用有标签行人数据的最终损失函数作为约束,使用有标签行人数据对双通道进行训练,得到基模型。
3.如权利要求1所述的基于图的直推式半监督行人再识别方法,其特征在于,步骤2具体为:使用基模型对无标签行人数据进行特征提取,利用无标签行人数据的特征构建有向KNN图G(V,E),在G中:
V={vi=fθ(xi)|xi∈XU}
E={eij=P(vi,vj)|vj∈Nk(vi)}
式中,Nk(vi)为顶点vi的KNN图,P(vi,vj)为vi到vj之间的一条有向边;在KNN图中以若干条边构成的闭合回路中,选取所有无标签行人数据的两两组合作为正样本对记为Ct,其中t为闭合回路的边数;对于有标签的行人数据中的锚样本,从同一标签的行人数据中获取正样本,从不同标签的行人数据和无标签的行人数据中获取负样本;对于无标签行人数据中的锚样本,从Ct中获取正样本对,从有标签行人数据中获取负样本对;提升所挖掘负样本的困难度:
4.如权利要求1所述的基于图的直推式半监督行人再识别方法,其特征在于,通过逐渐减小常数c来提升所挖掘负样本的困难度。
5.如权利要求1所述的基于图的直推式半监督行人再识别方法,其特征在于,步骤3具体为:得到正负样本对后,使用正负样本对构建三元组损失:
其中,N代表当前训练批次中三元组的数量,在每个批次中无标签数据和有标签数据数量相等;无标签数据的三元组从Ct,Ni,中采样,有标签数据的三元组使用标准的三元组采样策略采样;使用图模型赋予三元组置信度,si是第i个三元组的置信度;有标签数据的三元组的置信度si设为常数1;对于无标签数据的三元组的置信度设置,使用Di来定义第i个样本对在图模型中的的重复次数,在图模型中重复次数最多的样本对即Dmax=max({Di}),从中采样的负样本对,使用控制负样本对的置信度的常数c作为负样本对的置信度;从Ni中采样的负样本对,使用c作为其置信度;最终对于无标签数据的三元组置信度定义为:
其中,α代表从图模型中选出的无标签数据的正样本对的最低置信度;定义直推式度量学习损失函数为:
使用超参数λ0将直推式度量学习损失函数与一致性学习损失函数结合,最终损失函数为:
LTSML-CL=LTSML+λ1LCL,
基于该损失函数,通过使用带有置信度的正负样本对共同微调步骤1所得基模型,提升模型性能。
6.如权利要求3~5任意一项所述的基于图的直推式半监督行人再识别方法,其特征在于,常数c的取值范围为0.5~1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911173132.3A CN111027421A (zh) | 2019-11-26 | 2019-11-26 | 一种基于图的直推式半监督行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911173132.3A CN111027421A (zh) | 2019-11-26 | 2019-11-26 | 一种基于图的直推式半监督行人再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111027421A true CN111027421A (zh) | 2020-04-17 |
Family
ID=70206813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911173132.3A Pending CN111027421A (zh) | 2019-11-26 | 2019-11-26 | 一种基于图的直推式半监督行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111027421A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724867A (zh) * | 2020-06-24 | 2020-09-29 | 中国科学技术大学 | 分子属性测定方法、装置、电子设备及存储介质 |
CN111783646A (zh) * | 2020-06-30 | 2020-10-16 | 北京百度网讯科技有限公司 | 行人再识别模型的训练方法、装置、设备和存储介质 |
CN112101217A (zh) * | 2020-09-15 | 2020-12-18 | 镇江启迪数字天下科技有限公司 | 基于半监督学习的行人再识别方法 |
CN112418331A (zh) * | 2020-11-26 | 2021-02-26 | 国网甘肃省电力公司电力科学研究院 | 一种基于聚类融合的半监督学习伪标签赋值方法 |
CN112614150A (zh) * | 2020-12-18 | 2021-04-06 | 中山大学 | 基于双模型交互式半监督学习的离线行人跟踪方法、***及存储介质 |
CN112686912A (zh) * | 2021-01-05 | 2021-04-20 | 南开大学 | 基于逐步学习和混合样本的急性脑卒中病变分割方法 |
CN112861825A (zh) * | 2021-04-07 | 2021-05-28 | 北京百度网讯科技有限公司 | 模型训练方法、行人再识别方法、装置和电子设备 |
CN112949384A (zh) * | 2021-01-23 | 2021-06-11 | 西北工业大学 | 一种基于对抗性特征提取的遥感图像场景分类方法 |
CN113158554A (zh) * | 2021-03-25 | 2021-07-23 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、计算机设备及存储介质 |
CN113657267A (zh) * | 2021-08-17 | 2021-11-16 | 中国科学院长春光学精密机械与物理研究所 | 一种半监督行人重识别模型、方法和装置 |
CN113792574A (zh) * | 2021-07-14 | 2021-12-14 | 哈尔滨工程大学 | 一种基于度量学习和教师学生模型的跨数据集表情识别方法 |
CN113920574A (zh) * | 2021-12-15 | 2022-01-11 | 深圳市视美泰技术股份有限公司 | 图片质量评价模型的训练方法、装置、计算机设备和介质 |
CN114548259A (zh) * | 2022-02-18 | 2022-05-27 | 东北大学 | 一种基于半监督Semi-KNN模型的PISA故障识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446666A (zh) * | 2018-04-04 | 2018-08-24 | 平安科技(深圳)有限公司 | 双通道神经网络模型训练及人脸比对方法、终端及介质 |
CN109154973A (zh) * | 2016-05-20 | 2019-01-04 | 奇跃公司 | 执行卷积图像变换估算的方法和*** |
CN110135295A (zh) * | 2019-04-29 | 2019-08-16 | 华南理工大学 | 一种基于迁移学习的无监督行人重识别方法 |
-
2019
- 2019-11-26 CN CN201911173132.3A patent/CN111027421A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109154973A (zh) * | 2016-05-20 | 2019-01-04 | 奇跃公司 | 执行卷积图像变换估算的方法和*** |
CN108446666A (zh) * | 2018-04-04 | 2018-08-24 | 平安科技(深圳)有限公司 | 双通道神经网络模型训练及人脸比对方法、终端及介质 |
WO2019192121A1 (zh) * | 2018-04-04 | 2019-10-10 | 平安科技(深圳)有限公司 | 双通道神经网络模型训练及人脸比对方法、终端及介质 |
CN110135295A (zh) * | 2019-04-29 | 2019-08-16 | 华南理工大学 | 一种基于迁移学习的无监督行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
安浩南;赵明;潘胜达;林长青;: "基于伪模态转换的红外目标融合检测算法" * |
贾迪;朱宁丹;杨宁华;吴思;李玉秀;赵明远;: "图像匹配方法研究综述" * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724867B (zh) * | 2020-06-24 | 2022-09-09 | 中国科学技术大学 | 分子属性测定方法、装置、电子设备及存储介质 |
CN111724867A (zh) * | 2020-06-24 | 2020-09-29 | 中国科学技术大学 | 分子属性测定方法、装置、电子设备及存储介质 |
CN111783646A (zh) * | 2020-06-30 | 2020-10-16 | 北京百度网讯科技有限公司 | 行人再识别模型的训练方法、装置、设备和存储介质 |
CN111783646B (zh) * | 2020-06-30 | 2024-01-23 | 北京百度网讯科技有限公司 | 行人再识别模型的训练方法、装置、设备和存储介质 |
CN112101217B (zh) * | 2020-09-15 | 2024-04-26 | 镇江启迪数字天下科技有限公司 | 基于半监督学习的行人再识别方法 |
CN112101217A (zh) * | 2020-09-15 | 2020-12-18 | 镇江启迪数字天下科技有限公司 | 基于半监督学习的行人再识别方法 |
CN112418331A (zh) * | 2020-11-26 | 2021-02-26 | 国网甘肃省电力公司电力科学研究院 | 一种基于聚类融合的半监督学习伪标签赋值方法 |
CN112614150A (zh) * | 2020-12-18 | 2021-04-06 | 中山大学 | 基于双模型交互式半监督学习的离线行人跟踪方法、***及存储介质 |
CN112686912A (zh) * | 2021-01-05 | 2021-04-20 | 南开大学 | 基于逐步学习和混合样本的急性脑卒中病变分割方法 |
CN112686912B (zh) * | 2021-01-05 | 2022-06-10 | 南开大学 | 基于逐步学习和混合样本的急性脑卒中病变分割方法 |
CN112949384A (zh) * | 2021-01-23 | 2021-06-11 | 西北工业大学 | 一种基于对抗性特征提取的遥感图像场景分类方法 |
CN112949384B (zh) * | 2021-01-23 | 2024-03-08 | 西北工业大学 | 一种基于对抗性特征提取的遥感图像场景分类方法 |
CN113158554A (zh) * | 2021-03-25 | 2021-07-23 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、计算机设备及存储介质 |
CN113158554B (zh) * | 2021-03-25 | 2023-02-14 | 腾讯科技(深圳)有限公司 | 模型优化方法、装置、计算机设备及存储介质 |
CN112861825B (zh) * | 2021-04-07 | 2023-07-04 | 北京百度网讯科技有限公司 | 模型训练方法、行人再识别方法、装置和电子设备 |
WO2022213717A1 (zh) * | 2021-04-07 | 2022-10-13 | 北京百度网讯科技有限公司 | 模型训练方法、行人再识别方法、装置和电子设备 |
CN112861825A (zh) * | 2021-04-07 | 2021-05-28 | 北京百度网讯科技有限公司 | 模型训练方法、行人再识别方法、装置和电子设备 |
CN113792574B (zh) * | 2021-07-14 | 2023-12-19 | 哈尔滨工程大学 | 一种基于度量学习和教师学生模型的跨数据集表情识别方法 |
CN113792574A (zh) * | 2021-07-14 | 2021-12-14 | 哈尔滨工程大学 | 一种基于度量学习和教师学生模型的跨数据集表情识别方法 |
CN113657267B (zh) * | 2021-08-17 | 2024-01-12 | 中国科学院长春光学精密机械与物理研究所 | 一种半监督行人重识别方法和装置 |
CN113657267A (zh) * | 2021-08-17 | 2021-11-16 | 中国科学院长春光学精密机械与物理研究所 | 一种半监督行人重识别模型、方法和装置 |
CN113920574B (zh) * | 2021-12-15 | 2022-03-18 | 深圳市视美泰技术股份有限公司 | 图片质量评价模型的训练方法、装置、计算机设备和介质 |
CN113920574A (zh) * | 2021-12-15 | 2022-01-11 | 深圳市视美泰技术股份有限公司 | 图片质量评价模型的训练方法、装置、计算机设备和介质 |
CN114548259A (zh) * | 2022-02-18 | 2022-05-27 | 东北大学 | 一种基于半监督Semi-KNN模型的PISA故障识别方法 |
CN114548259B (zh) * | 2022-02-18 | 2023-10-10 | 东北大学 | 一种基于半监督Semi-KNN模型的PISA故障识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027421A (zh) | 一种基于图的直推式半监督行人再识别方法 | |
CN111126360B (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN109740413B (zh) | 行人重识别方法、装置、计算机设备及计算机存储介质 | |
CN109344787B (zh) | 一种基于人脸识别与行人重识别的特定目标跟踪方法 | |
CN109961051B (zh) | 一种基于聚类和分块特征提取的行人重识别方法 | |
CN109934117B (zh) | 基于生成对抗网络的行人重识别检测方法 | |
CN108960080B (zh) | 基于主动防御图像对抗攻击的人脸识别方法 | |
US11263435B2 (en) | Method for recognizing face from monitoring video data | |
CN105701467B (zh) | 一种基于人体形态特征的多人异常行为识别方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN109299707A (zh) | 一种基于模糊深度聚类的无监督行人再识别方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN112036322A (zh) | 多任务网络跨域行人重识别模型构建方法、***及装置 | |
CN111310662B (zh) | 一种基于集成深度网络的火焰检测识别方法及*** | |
CN111723645A (zh) | 用于同相机内有监督场景的多相机高精度行人重识别方法 | |
CN105095870A (zh) | 基于迁移学习的行人重识别方法 | |
CN109919073B (zh) | 一种具有光照鲁棒性的行人再识别方法 | |
CN108345900B (zh) | 基于颜色纹理分布特征的行人重识别方法及其*** | |
CN111950372A (zh) | 一种基于图卷积网络的无监督行人重识别方法 | |
CN113920472B (zh) | 一种基于注意力机制的无监督目标重识别方法及*** | |
CN112819065A (zh) | 基于多重聚类信息的无监督行人难样本挖掘方法和*** | |
CN111488760A (zh) | 基于深度多示例学习的少样本行人重识别方法 | |
CN112115780A (zh) | 一种基于深度多模型协同的半监督行人重识别方法 | |
CN113065409A (zh) | 一种基于摄像分头布差异对齐约束的无监督行人重识别方法 | |
CN111695531A (zh) | 一种基于异构卷积网络的跨域行人再识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240202 |
|
AD01 | Patent right deemed abandoned |