CN113378620A - 监控视频噪声环境下跨摄像头行人重识别方法 - Google Patents
监控视频噪声环境下跨摄像头行人重识别方法 Download PDFInfo
- Publication number
- CN113378620A CN113378620A CN202110355022.XA CN202110355022A CN113378620A CN 113378620 A CN113378620 A CN 113378620A CN 202110355022 A CN202110355022 A CN 202110355022A CN 113378620 A CN113378620 A CN 113378620A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- identification
- frequency
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/141—Discrete Fourier transforms
- G06F17/142—Fast Fourier transforms, e.g. using a Cooley-Tukey type algorithm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Computing Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Discrete Mathematics (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种监控视频噪声环境下跨摄像头行人重识别方法,包括以下步骤:对监控视频中含有噪声的行人数据集进行双域滤波去噪处理,获得行人图像的高频图、噪声的低频图;对图片构建三元组,规定好损失函数;对三元组的图片输入到特征提取网络中,提取特征;利用距离度量方法来计算行人特征的差异性,将特征向量,进行k‑倒排最近邻重排序,优化排序结果作为最终匹配结果。本发明的监控视屏噪声环境行人跨摄像头重识别方法针对低质图像的行人重识别问题,利用双域滤波分解构建三元组用于训练三元组度量模型,使简单的特征提取网络能学习图像的噪声特性,并且抑制噪声的特征表达,可提高噪声环境下监控视频的行人重识别性能。
Description
技术领域
本发明涉及视频图像处理技术领域,具体涉及一种监控视频噪声环境下跨摄像头行人重识别方法。
背景技术
行人重识别(Person Re-identification)也称行人再识别,简称为ReID,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,被认为是一个图像检索的子问题,实现跨监控设备间的行人图像检索。
由于光照变化、复杂背景变换、低分辨率图像、遮挡、不同行人的相似着装等复杂应用环境,使得行人重识别研究仍然非常具有挑战性。
目前在行人重识别领域中,一项新的挑战是在一些照明度不足、天气条件恶劣,如夜晚、雨雾天气等环境下,大部分模型都将很难获得具有足够表达能力的行人特征。
这些问题主要是由于摄像头获取的图像被噪声所淹没,提升了有效信息的提取难度。在图像的频率域中,低频部分往往是图像中像素值连续渐变的区域,即相对变化较小,梯度值较低,主要以图像的大致轮廓和整体内容为主,是图像大尺度上的风格信息。高频部分则往往是图像中像素值变化较快的区域,即相对变化较大,梯度值较高。例如图像边缘会与背景有明显差别,意味着像素值迅速变化,梯度较大,而图像的细节部分也是如此。因此,人眼对图像的高频部分更加敏感,它包含了图像小尺度的纹理和细节信息。
行人重识别由特征表达和相似性度量两个步骤组成。特征表达的目的是利用具有良好区分性和鲁棒性的特征向量来代表行人图像。特征提取的研究追求对特征的精确表达,尽可能保留对行人重识别最为有效的信息,去除无效信息。相似性度量是指建立一个与提取的特征相适应的度量标准,用于计算不同行人图像特征的相似度,作为判定是否为来自同一个人的依据。计算时应使得来自于同一行人样本的特征相似度高,不同行人样本的特征相似度低。根据行人重识别的两个步骤,行人重识别分为基于特征表达和基于度量学习两种。
对于度量学习,最初,行人相似度的计算都是使用简单的距离度量方法,如余弦距离、欧式距离等,没有考虑各维度之间的主次关系和重要程度。Kostinger等人在论文中提出了一种简单直接度量(KISSME)算法,首先通过主成分分析对特征进行降维,然后计算PCA子空间中相同标签样本与不同标签样本的协方差逆矩阵的差值,将此作为度量矩阵,简化了马氏距离的计算。随后,Shengcai Liao和Yang Hu在KISSME的基础上继续改进,提出了跨视角二次判别分析(XQDA)算法。首先使用高斯分布分别拟合类内与类间样本特征的差值分布,然后根据两个高斯分布的对数似然比推导出度量矩阵,最后,定义了一个新的判别子空间,将度量矩阵映射到新的子空间中,提高了度量函数的判别能力。
在基于卷积神经网络的度量学习中,许多模型将损失函数作为样本相似性度量函数,通过监督学习使类内距离缩小,类间距离拉大,从而提高区分性。对比损失是一种比较常见的度量损失函数,常用与孪生网络的学习过程中。三元组损失函数是另一种流行的度量学习损失函数,在判别网络中应用广泛,它在训练时需要同时输入三个样本,包括固定样本、正样本和负样本。固定样本和正样本是一对正样本对,它们有相同的行人标签,负样本则有不同的行人标签,与固定样本构成负样本对。Hermans和Beyer等人在三元组损失的基础上,引入了难例挖掘策略,提出了一种难样本挖掘三元组损失(TriHard Loss),该方法在每个批量训练样本中,针对每个固定样本分别挑选出最难的正样本和负样本组成三元组来进行迭代。难样本挖掘能提高网络的泛化能力,而小批量训练则能保证网络的稳定性和收敛性。Chen等人在三元组中多输入了一个负样本,提出了一种四元组损失(Quadrupletloss)函数,考虑的是正负样本间的绝对距离,能够使网络有更好的特征表达能力。
噪声环境下的行人重识别,比较直观的解决方案是利用图像增强技术进行预处理去噪。然而这种方案存在两个问题:一是图像增强存在细节丢失问题,给特征提取带来困难;二是步骤繁琐,无法端到端实现行人特征提取。此外,常规的三元组度量学习网络,它对于不同样本有较好的聚类效果,然而在噪声条件下,其泛化能力会显著下降。主要原因在于训练与测试样本均是含噪图像,样本间差异较小,导致模型无法获得足够的区分能力。
发明内容
本发明的目的在于,提供一种监控视屏噪声环境行人跨摄像头重识别方法,可提高噪声环境下监控视频的行人重识别性能。
为实现上述目的,本发明所设计的监控视频噪声环境下跨摄像头行人重识别方法,包括以下步骤:
步骤(1),对监控视频中含有噪声的行人数据集进行双域滤波去噪处理,获得行人图像的高频图、噪声的低频图;
步骤(2),对所述步骤(1)中的图片构建三元组,规定好损失函数;
步骤(3),对三元组的图片输入到特征提取网络中,提取特征;
步骤(4),利用距离度量方法来计算行人特征的差异性,将所述步骤(3)输出特征向量,进行k-倒排最近邻重排序,优化排序结果作为最终匹配结果。
在某一实施中,在所述步骤(1)中,在行人重识别模型的训练阶段,选用Market-1501和CUHK03数据集,利用双域滤波分解,得到行人的低频图和噪声的高频图;所述双域滤波的过程为将图像变换到频率域后,对图像高频部分进行去噪处理,再恢复到空间域中,生成去噪后的图像。
在某一实施中,所述步骤(1)包括以下步骤:
其中,Np是以像素点p为中心,半径为r的邻域窗口;k(p,q)是双边滤波器的核函数;在第一次迭代时g=x,即和输入图像一致,滤波结果将作为下次迭代的引导层;x(q)是输入图像x在像素点q处的值,g(q)是引导层在像素点q处的值;
其中,i为虚数单位;f为频率,f的取值范围(-∞,+∞);
在某一实施中,所述步骤(2)中,损失函数Loss=LCont+LTrip,其中,LCont为对比损失,LTrip为三元组损失。
在某一实施中,所述对比损失 所述三元组损失其中,fA、fP、fN分别为在通过行人重识别模型进行特征计算后得到原图的特征向量、低频图的特征向量、高频图的特征向量,低频图对应y=1,高频图对应y=0,w为最小的间隔,λ、μ为权重因子。
在某一实施中,在所述步骤(3)中,特征提取网络基于ResNet50结构,行人重识别模型中每个子网络都由一个相同的主干特征提取网络构成,子网络共享参数和权值。
在某一实施中,在所述步骤(3)中,特征提取网络的主干网络ResNet50先在ImageNet上进行预训练,然后再在行人重识别数据集上进行迭代优化;特征提取网络的各子网络通过ResNet50先得到2048维特征,然后通过最大池化和全连接层后最终得到1024维特征向量,用于特征提取网络计算损失值。
在某一实施中,所述步骤(4)
进一步包括以下步骤:
对于查询样本q,其前k个与其最近邻样本的集合N(q,k)={p1,p2,…pk};
定义互为近邻的样本集合为k-互近邻集合R(q,k)={g|(g∈N(q,k)∩q∈N(g,k))};
针对样本q的k-互近邻集合中的每个样本g,找到其1/2-k-互近邻集合R(g,k/2);
若1/2-k-互近邻集合R(g,k/2)与样本q的k-互近邻集合N(q,k)重合样本数量足够大,则可以认为R(g,k/2)这个集合中的样本与样本q接近,并将其添加入查询排序表中,表示为:
其中,k的取值为20,查询样本q根据实际结果为一个多个图片的集合。
本发明的有益效果是:本发明的监控视屏噪声环境行人跨摄像头重识别方法针对低质图像的行人重识别问题,利用双域滤波分解构建三元组用于训练三元组度量模型,使简单的特征提取网络能学习图像的噪声特性,并且抑制噪声的特征表达,可提高噪声环境下监控视频的行人重识别性能。
附图说明
图1示出了本发明实施例提供的监控视屏噪声环境下跨摄像头行人重识别方法的流程示意图;
图2示出了本发明的监控视屏噪声环境下跨摄像头行人重识别方法中的双域滤波的流程图;
图3示出了本发明的监控视屏噪声环境下跨摄像头行人重识别方法中的模型测试的流程示意图;
图4示出了本发明的监控视屏噪声环境下跨摄像头行人重识别方法在Market-1501数据集与其它方法的对比结果曲线图;
图5示出了本发明的监控视屏噪声环境下跨摄像头行人重识别方法在CHUK-03数据集与其它方法的对比结果曲线图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明。
本发明的监控视屏噪声环境行人跨摄像头重识别方法将图像分解为低频图和高频图两个部分,根据噪声多分布于高频的特性,筛选出非噪声成分,再和低频成分叠加,最终恢复出去噪的图像,提高噪声环境下监控视频的行人重识别性能。基于双域滤波分解对图像噪声的分离作用,借鉴三元组损失的聚类能力,本发明的监控视屏噪声环境行人跨摄像头重识别方法提出一种新的三元组构建方式:在行人重识别模型训练阶段,利用双域滤波生成两幅分解图,再与原图一起构成三元组,通过网络学习图像的噪声特性,并使其抑制输出特征图谱中的噪声成分,提高行人特征对于噪声的鲁棒性。
请结合参阅图1至图3,本发明的监控视屏噪声环境下跨摄像头行人重识别方法包括以下步骤:
步骤(1),双域滤波分解去噪。
对监控视频中含有噪声的行人数据集进行双域滤波去噪处理,获得行人图像的高频图,噪声的低频图。
首先,在进行图像增强时,重点抑制图像高频部分的噪声成分,利用噪声的随机性来区分同属高频的图像细节信息。在行人重识别模型的训练阶段,选用Market-1501和CUHK03数据集,利用双域滤波分解,得到行人的低频图和噪声的高频图。
双域滤波过程是:将图像变换到频率域后,对图像高频部分进行去噪处理,再恢复到空间域中,生成去噪后的图像。
其中,Np是以像素点p为中心,半径为r的邻域窗口;k(p,q)是双边滤波器的核函数;在第一次迭代时g=x,即和输入图像一致,滤波结果将作为下次迭代的引导层;x(q)是输入图像x在像素点q处的值,g(q)是引导层在像素点q处的值。
其中,i为虚数单位;f为频率,f的取值范围(-∞,+∞)。
经过这些处理后,上述得到的背景层和细节层即分别对应所需的低频图像和高频图像,低频图是没有噪声的行人图像,高频图是噪声。
步骤(2),构建三元组,优化损失函数。
对步骤(1)中的图片构建三元组,规定好损失函数。构建新的三元组,将原图像作为固定样本,高频图作为正样本,低频图作为负样本,优化比对损失和三元组损失函数,输入新改进的RestNet50网络进行训练。
将原始行人图作为三元组的固定样本图,将图像分解得到的低频图作为正样本图,高频图作为负样本图,构建训练三元组,使特征提取网络能抑制噪声的特征表达,提高行人特征对噪声的泛化能力。
本发明的行人重识别模型的损失函数主要包含对比损失和三元组损失两部分,基于它们的基本形式进行了对应改进,主要是由于双域滤波分解得到的低频图和高频图包含的图像信息量并不完全对等,在与原图进行损失值计算时,数值范围会有一定差距,因此本发明在两个损失函数中添加了一个权重因子来调节它们的相对大小。
具体来说,在通过行人重识别模型进行特征计算后,分别得到原图即固定样本图的特征向量fA,低频图即正样本图的特征向量fP,高频图即负样本图的特征向量fN。
对比损失Lcont具体可以表示为:
其中,低频图对应y=1,高频图对应y=0,w指最小的间隔。w由于低频图与高频图包含的图像信息量并不完全对等,在损失计算时,式中第一项会远小于第二项,所以需要添加权重因子λ调节两项的权重。
三元组损失LTrip可以增加正样本对之间的相似度,逐步减小负样本对之间的相似度,最后在样本空间中,使得正负样本形成聚集的效果。三元组损失LTrip具体可以表示为:
该式中,w指最小的间隔,权重因子μ与对比损失中权重因子λ作用一致,用于调节低频图与高频图两项损失的权重。于是,网络整体损失函数Loss将表示为:
Loss=LCont+LTrip。
根据上述步骤,构建出了后续网络需要的三元组数据和网络损失函数,基于双域滤波的分解特性使行人重识别模型能稳定收敛。
步骤(3),特征提取。
对三元组的图片输入到特征提取网络中,提取特征。
与常规三元组度量方法类似,行人重识别模型中每个子网络都由一个相同的主干特征提取网络构成,子网络共享参数和权值。
本发明的特征提取网络基于ResNet50结构,针对三元组度量学***均池化、全连接层和Softmax损失。
将三元组图片输入该特征提取网络中,通过优化函数进行度量学习,得到训练的结果。
步骤(4),结果重排序。
在行人重识别模型测试阶段,输入多个摄像头下含噪的需查找的行人图片,计算输出相似度排序结果,然后重排序,得到最终的结果。
将步骤(3)输出特征向量结果,进行k-互近邻重排序,即k-倒排最近邻重排序(re-ranking),扩充排序表,优化排序结果作为最终匹配结果。
在行人重识别模型测试时,不需要双域滤波进行去噪,含噪的行人图像被直接输入到训练完成的一个分支子网络中,端到端的获取行人样本的特征向量。
输出特征向量后,需要利用距离度量方法来计算行人特征的差异性,在此基础上对候选结果进行排序。
考虑到光照、姿态、视角和遮挡等影响,匹配结果的排列顺序可能并不准确,于是利用k-互近邻重排序方法,扩充排序表,提高识别的准确率。
具体地,对于查询样本q,其前k个与其最近邻样本的集合可以表示为:
N(q,k)={p1,p2,…pk}。
接着定义互为近邻的样本集合,即样本和样本都在对方的k-NN集合中,称为k-互近邻集合,表示为:
R(q,k)={g|(g∈N(q,k)∩q∈N(g,k))}。
最后,为了扩充原本的查询排序表,针对样本q的k-互近邻集合中的每个样本g,找到其1/2-k-互近邻集合R(g,k/2),若1/2-k-互近邻集R(g,k/2)与样本q的k-互近邻集合N(q,k)重合样本数量足够大,则可以认为R(g,k/2)这个集合中的样本与样本q接近,并将其添加入查询排序表中。具体可以表示为:
其中,k的取值为20,查询样本q根据实际结果是一个多个图片的集合。
经过上述步骤处理后,得到的排序为最终的匹配结果。根据相似度排序结果,判断行人的身份。
本发明的监控视频噪声环境下跨摄像头行人重识别方法可使用Caffe框架来实现行人重识别模型。
本发明的监控视频噪声环境下跨摄像头行人重识别方法的特征提取网络的主干网络主要以ResNet50网络结构作为基础。输入行人图像统一缩放到的分辨率,然后经过双域滤波得到高频图和低频图,作为三元组的正样本图和负样本图一起输入到特征提取网络中。各子网络通过ResNet50首先得到2048维特征,然后通过最大池化和全连接层后最终得到1024维特征向量,用于特征提取网络计算损失值。主干网络ResNet50首先在ImageNet上进行预训练,然后再在行人重识别数据集上进行迭代优化。特征提取网络训练时,训练样本均被调整到大小,每个像素值映射到[0,1]区间,然后分别在RGB三个通道上减去数据集对应的均值并分别除以数据集对应的标准差来进行标准化。每个迭代周期Mini-batch大小设置为64。进行反向传播优化行人重识别模型时,采用随机梯度下降算法,基础学习率0.0002,每100个周期呈指数衰减。
本发明的监控视频噪声环境下跨摄像头行人重识别方法主要使用Market-1501和CUHK03数据集作为训练样本,对行人重识别模型进行优化,并用来评估行人重识别模型的性能,以证明提出的行人重识别模型良好的和较好的泛化能力。
本发明的监控视频噪声环境下跨摄像头行人重识别方法使用两种客观评价指标来衡量算法性能的优劣,分别是Rank-N和mAP。
行人重识别问题通常被看作是图像检索问题,在进行测试时,针对某一查询图,根据其与候选集中所有样本的相似度对候选集进行排序,然后计算前N个中能与查询图正确匹配的样本的比例,称为Rank-N。常用的指标如Rank-1、Rank-5、Rank-10。在Rank-N的基础上,可以绘制累积匹配(CMC)曲线,曲线横轴为N,纵轴为Rank-N。
mAP称为平均准确率均值,即在每个样本的匹配平均准确率(AP)的基础上,计算所有样本AP的均值。相比Rank-N只计算前N个的准确率,mAP能考察算法整体的准确率,体现行人重识别模型的召回能力。mAP可以表示为:
其中,Q表示查询集中样本个数,APi单个查询样本的匹配平均准确率。
三类比较有代表性的行人重识别方法分别是传统特征提取方法、深度学习特征融合方法以及重排序方法,本发明的监控视频噪声环境下跨摄像头行人重识别方法的对比算法具体包括LOMO+XQDA方法、SpindleNet方法和IDE_ResNet_50方法。其中,LOMO+XQDA方法属于传统特征提取方法,融合HSV色彩直方图和不变尺度局部三值模式(SILTP)特征,提出了局部最大发现(LOMO)特征,并通过跨视角二次判别分析(XQDA)算法提高度量函数的判别能力,可以较好应对视角和光照变化。SpindleNet属于多局部特征融合的方法,通过提取不同局部感兴趣区域的特征,并在不同层次进行不同粒度的融合,对于姿态及遮挡都有较好鲁棒性。IDE_ResNet_50方法属于度量学习模型,通过重排序来改进度量矩阵的计算,并且行人重识别模型结合了行人检测阶段的先验知识,对匹配成功率提升较大。这三种方法代表了三类典型的行人重识别手段,针对不同方面力图改善行人重识别特征的泛化能力,将本发明的监控视频噪声环境下跨摄像头行人重识别方法与这三种方法进行实验对比,综合考虑图像噪声对不同类型行人重识别方法的影响,如图4和图5中所示。此外,本发明的监控视频噪声环境下跨摄像头行人重识别方法还进一步与近期的基于深度学习的行人重识别算法SVDNet、APR、PIE进行比较,重点计算了不同算法的Rank-1指标和mAP指标(如表1和表2中所示),以及它们的变化情况(如表3和表4中所示)。
表1在Market-1501数据集上在不同噪声场景下Rank-1和mAP
表2在CUHK-03数据集上在不同噪声场景下Rank-1和mAP
表3在Market-1501数据集上在噪声场景下Rank-1和mAP相对不含噪时的平均下降率
表4在CUHK-03数据集上在噪声场景下Rank-1和mAP相对不含噪时的平均下降率
表3和表4计算出了本发明在Market-1501数据集和CUHK-03数据集上,各方法在噪声场景下Rank-1和mAP相对不含噪时的平均下降率。由此可以发现,本发明的监控视屏噪声环境下跨摄像头行人重识别方法的行人重识别模型受噪声影响最小,性能衰减最低,Rank-1和mAP分别只下降了1.9%和2.0%,能最大程度恢复到最佳场景下的行人再识别精度。根据这些结果,证明本发明的监控视屏噪声环境下跨摄像头行人重识别方法对不同噪声的鲁棒性较高,在不同场景下受噪声影响造成的性能损失最小,能够最接近理想场景中的行人重识别指标。
综上所述,本发明的监控视屏噪声环境下跨摄像头行人重识别方法针对低质图像的行人重识别问题,利用双域滤波分解构建三元组,用于训练三元组度量模型。且三元组的负样本中为噪声,所以去除了噪声对识别的影响。该方法使简单的特征提取网络也能学习图像的噪声特性,并且抑制噪声的特征表达。基于此过程,本发明可提高噪声环境下监控视频的行人重识别性能。
另一方面,本发明的监控视屏噪声环境下跨摄像头行人重识别方法在训练阶段将图像分解为低频图和高频图两个部分,能有效分离噪声,提高行人特征对于噪声的鲁棒性。而在测试阶段,尽管含有噪声,但网络已经学习到了噪声的特点,所以能摆脱图像前处理去噪过程,实现端到端的行人重识别。并且,在最后结果阶段通过重排序方法,排除了较多外在因素对匹配结果的影响,大大提高了识别结果的准确性。通过在公开数据集Market-1501与CHUK-03数据集上实验和对比分析,验证了本发明方法对含噪图像行人重识别的有效性,实现了对噪声鲁棒的行人重识别特征提取,提高了行人重识别在智能监控***中的实用性。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种监控视频噪声环境下跨摄像头行人重识别方法,其特征在于,包括以下步骤:
步骤(1),对监控视频中含有噪声的行人数据集进行双域滤波去噪处理,获得行人图像的高频图、噪声的低频图;
步骤(2),对所述步骤(1)中的图片构建三元组,规定好损失函数;
步骤(3),对三元组的图片输入到特征提取网络中,提取特征;
步骤(4),利用距离度量方法来计算行人特征的差异性,将所述步骤(3)输出特征向量,进行k-倒排最近邻重排序,优化排序结果作为最终匹配结果。
2.如权利要求1所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于:在所述步骤(1)中,在行人重识别模型的训练阶段,选用Market-1501和CUHK03数据集,利用双域滤波分解,得到行人的低频图和噪声的高频图;所述双域滤波的过程为将图像变换到频率域后,对图像高频部分进行去噪处理,再恢复到空间域中,生成去噪后的图像。
3.如权利要求2所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于,所述步骤(1)包括以下步骤:
其中,Np是以像素点p为中心,半径为r的邻域窗口;k(p,q)是双边滤波器的核函数;在第一次迭代时g=x,即和输入图像一致,滤波结果将作为下次迭代的引导层;x(q)是输入图像x在像素点q处的值,g(q)是引导层在像素点q处的值;
其中,i为虚数单位;f为频率,f的取值范围(-∞,+∞);
4.如权利要求1所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于:所述步骤(2)中,损失函数Loss=LCont+LTrip,其中,LCont为对比损失,LTrip为三元组损失。
6.如权利要求1所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于:在所述步骤(3)中,特征提取网络基于ResNet50结构,行人重识别模型中每个子网络都由一个相同的主干特征提取网络构成,子网络共享参数和权值。
7.如权利要求6所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于:在所述步骤(3)中,特征提取网络的主干网络ResNet50先在ImageNet上进行预训练,然后再在行人重识别数据集上进行迭代优化;特征提取网络的各子网络通过ResNet50先得到2048维特征,然后通过最大池化和全连接层后最终得到1024维特征向量,用于特征提取网络计算损失值。
8.如权利要求1所述的监控视频噪声环境下跨摄像头行人重识别方法,其特征在于,所述步骤(4)进一步包括以下步骤:
对于查询样本q,其前k个与其最近邻样本的集合N(q,k)={p1,p2,…pk};
定义互为近邻的样本集合为k-互近邻集合R(q,k)={g|(g∈N(q,k)∩q∈N(g,k))};
针对样本q的k-互近邻集合中的每个样本g,找到其1/2-k-互近邻集合R(g,k/2);
若1/2-k-互近邻集合R(g,k/2)与样本q的k-互近邻集合N(q,k)重合样本数量足够大,则可以认为R(g,k/2)这个集合中的样本与样本q接近,并将其添加入查询排序表中,表示为:
其中,k的取值为20,查询样本q根据实际结果为一个多个图片的集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110355022.XA CN113378620B (zh) | 2021-03-31 | 2021-03-31 | 监控视频噪声环境下跨摄像头行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110355022.XA CN113378620B (zh) | 2021-03-31 | 2021-03-31 | 监控视频噪声环境下跨摄像头行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378620A true CN113378620A (zh) | 2021-09-10 |
CN113378620B CN113378620B (zh) | 2023-04-07 |
Family
ID=77570642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110355022.XA Active CN113378620B (zh) | 2021-03-31 | 2021-03-31 | 监控视频噪声环境下跨摄像头行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378620B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433770A (zh) * | 2023-04-27 | 2023-07-14 | 东莞理工学院 | 一种定位方法、定位装置及存储介质 |
CN117315576A (zh) * | 2023-09-22 | 2023-12-29 | 中交第二公路勘察设计研究院有限公司 | 一种在监控视频中识别指定人员的方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
CN109492528A (zh) * | 2018-09-29 | 2019-03-19 | 天津卡达克数据有限公司 | 一种基于高斯和深度特征的行人再识别方法 |
CN109961051A (zh) * | 2019-03-28 | 2019-07-02 | 湖北工业大学 | 一种基于聚类和分块特征提取的行人重识别方法 |
CN110796057A (zh) * | 2019-10-22 | 2020-02-14 | 上海交通大学 | 行人重识别方法、装置及计算机设备 |
CN111126360A (zh) * | 2019-11-15 | 2020-05-08 | 西安电子科技大学 | 基于无监督联合多损失模型的跨域行人重识别方法 |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
US20200285896A1 (en) * | 2019-03-09 | 2020-09-10 | Tongji University | Method for person re-identification based on deep model with multi-loss fusion training strategy |
CN111931637A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于双流卷积神经网络的跨模态行人重识别方法和*** |
CN112084895A (zh) * | 2020-08-25 | 2020-12-15 | 南京邮电大学 | 一种基于深度学习的行人重识别方法 |
-
2021
- 2021-03-31 CN CN202110355022.XA patent/CN113378620B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180114055A1 (en) * | 2016-10-25 | 2018-04-26 | VMAXX. Inc. | Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition |
CN109492528A (zh) * | 2018-09-29 | 2019-03-19 | 天津卡达克数据有限公司 | 一种基于高斯和深度特征的行人再识别方法 |
US20200226421A1 (en) * | 2019-01-15 | 2020-07-16 | Naver Corporation | Training and using a convolutional neural network for person re-identification |
US20200285896A1 (en) * | 2019-03-09 | 2020-09-10 | Tongji University | Method for person re-identification based on deep model with multi-loss fusion training strategy |
CN109961051A (zh) * | 2019-03-28 | 2019-07-02 | 湖北工业大学 | 一种基于聚类和分块特征提取的行人重识别方法 |
CN110796057A (zh) * | 2019-10-22 | 2020-02-14 | 上海交通大学 | 行人重识别方法、装置及计算机设备 |
CN111126360A (zh) * | 2019-11-15 | 2020-05-08 | 西安电子科技大学 | 基于无监督联合多损失模型的跨域行人重识别方法 |
CN111931637A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于双流卷积神经网络的跨模态行人重识别方法和*** |
CN112084895A (zh) * | 2020-08-25 | 2020-12-15 | 南京邮电大学 | 一种基于深度学习的行人重识别方法 |
Non-Patent Citations (7)
Title |
---|
CHIH-TING LIU等: "Supervised Joint Domain Learning for Vehicle Re-Identification" * |
YUE HUANG等: "Dual Domain Multi-Task Model for Vehicle Re-Identification", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
公安部第三研究所: "《多摄像机协同关注目标检测跟踪技术》", 30 June 2017, 东南大学出版社 * |
徐思敏;胡士强;: "多属性融合网络的行人重识别方法" * |
肖进胜等: "基于双域滤波的三维块匹配视频去噪算法", 《通信学报》 * |
茆诗松等: "《贝叶斯统计 第2版》", 30 September 2012, 中国统计出版社 * |
项俊;林染染;黄子源;侯建华;: "时域模型对视频行人重识别性能影响的研究" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433770A (zh) * | 2023-04-27 | 2023-07-14 | 东莞理工学院 | 一种定位方法、定位装置及存储介质 |
CN116433770B (zh) * | 2023-04-27 | 2024-01-30 | 东莞理工学院 | 一种定位方法、定位装置及存储介质 |
CN117315576A (zh) * | 2023-09-22 | 2023-12-29 | 中交第二公路勘察设计研究院有限公司 | 一种在监控视频中识别指定人员的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113378620B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230022943A1 (en) | Method and system for defending against adversarial sample in image classification, and data processing terminal | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
Nishiyama et al. | Facial deblur inference using subspace analysis for recognition of blurred faces | |
CN111209952A (zh) | 基于改进ssd和迁移学习的水下目标检测方法 | |
CN108765465B (zh) | 一种无监督sar图像变化检测方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN112580590A (zh) | 一种基于多语义特征融合网络的指静脉识别方法 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
CN107862680B (zh) | 一种基于相关滤波器的目标跟踪优化方法 | |
CN110880010A (zh) | 基于卷积神经网络的视觉slam闭环检测算法 | |
WO2024021461A1 (zh) | 缺陷检测方法及装置、设备、存储介质 | |
CN111091129A (zh) | 一种基于多重颜色特征流形排序的图像显著区域提取方法 | |
Nizami et al. | No-reference image quality assessment using bag-of-features with feature selection | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 | |
Çevik et al. | A novel high-performance holistic descriptor for face retrieval | |
CN113378620B (zh) | 监控视频噪声环境下跨摄像头行人重识别方法 | |
Hussain et al. | Image denoising to enhance character recognition using deep learning | |
CN114494809A (zh) | 特征提取模型优化方法、装置及电子设备 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN113221660A (zh) | 一种基于特征融合的跨年龄人脸识别方法 | |
Gaston et al. | Matching larger image areas for unconstrained face identification | |
Yao | A compressed deep convolutional neural networks for face recognition | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
CN114049675B (zh) | 基于轻量双通道神经网络的人脸表情识别方法 | |
CN114913607A (zh) | 一种基于多特征融合的指静脉仿冒检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |