CN114170625A - 一种上下文感知、噪声鲁棒的行人搜索方法 - Google Patents

一种上下文感知、噪声鲁棒的行人搜索方法 Download PDF

Info

Publication number
CN114170625A
CN114170625A CN202111360243.2A CN202111360243A CN114170625A CN 114170625 A CN114170625 A CN 114170625A CN 202111360243 A CN202111360243 A CN 202111360243A CN 114170625 A CN114170625 A CN 114170625A
Authority
CN
China
Prior art keywords
pedestrian
network
training
image
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111360243.2A
Other languages
English (en)
Inventor
赵才荣
陈至成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202111360243.2A priority Critical patent/CN114170625A/zh
Publication of CN114170625A publication Critical patent/CN114170625A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉领域,提出一种上下文感知、噪声鲁棒的行人搜索方法,采用深度学习框架,包括:1)使用一个端到端的行人搜索神经网络同时完成行人检测和行人辨识;2)在神经网络的训练过程中对行人特征的不确定性进行建模并额外使用同一场景行人的上下文信息约束行人的特征表示;3)第一阶段的训练结束后,对于网络预测的每一行人身份特征中心进行相似性比对,分析潜在的数据噪声;4)进行第二阶段的训练,在该阶段的训练过程中对于数据噪声进行抑制;5)使用训练完毕的行人搜索网络进行行人检索任务并按照行人的相似程度对结果进行可视化。此算法具有充分利用场景图像中的上下文信息,对于遮挡以及错误数据标注等来源的噪声鲁棒,相比现有的相关方法更加准确的特点。

Description

一种上下文感知、噪声鲁棒的行人搜索方法
技术领域
本发明属于计算机视觉中的图像检索领域。
背景技术
数以万计的视频监控设备正在源源不断的部署到我们日常的生活中,组成一个庞大的视频监控网络。面对海量的数据,如何对这些数据进行分析以及使用成了不得不面对的问题。现在使用范围较广的人工的监视或是检索的方式,明显是低效且将耗费大量的人力以及财力。
由于监控视频画面的特殊性,使用现有人脸识别的方式并不能够很好地解决该场景下的需求。行人重识别以及行人搜索是解决该问题的一个研究方向,其旨在通过利用行人的体型,衣着等特征,建立起不同监控画面之间的联系,从而完成跨摄像头的行人的识别以及检索。不同的是,行人搜索将检测以及识别的工作合融合在一起,使用完整的摄像头画面作为输入。将检测以及识别两个部分共同进行优化能够获得更好效果,此外,这样也更加贴近于实际的落地环境。行人搜索是对进行海量监控视频检索分析的重要组成部分,在最近几年引起了众多研究学者的关注。
CN111209799A提出了一种基于部分共享网络和余弦间隔损失函数的行人搜索方法。该方法通过部分共享解决行人检测以及行人辨识两个子任务冲突的问题,该方法同时使用余弦间隔损失函数获得更加具有鉴别力的行人特征表示。但是该方法并没有针对行人搜索任务的特点,充分利用场景图像的空间上下文信息,使得神经网络的最终性能收到了一定的限制。
CN112446340A提出了一种结合行人局部特征和服饰属性分类的行人搜索方法。该方法通过级连目标检测以及行人辨识两个模型,最终完成行人搜索任务;在行人识别辨识子任务中,针对服饰属性以及行人局部特征进行了优化,提升了行人特征的辨识性。但是在该方法中,行人搜索的两个子任务相互独立,没有办法进行相互适应,使得其方法的最终性能受到了一定程度的限制。
发明内容
本发明为了克服上述现有技术存在的缺陷,提出了一种上下文感知且对于噪声鲁棒的端到端行人搜索方法。本发明通过对于场景图像中上下文信息的充分挖掘,利用出现在同一个画面中的行人构造对比对,使得行人搜索神经网络的能够人流拥挤场景以及遮挡场景更加的鲁棒。此外本发明提出了一种发现训练数据中噪声的方法,并提出一种抑制训练数据中噪声所带来的负面影响的方法。最后,此发明将数据不确定性学习引入行人搜索并取得了良好效果。总体而言,本发明相比先前的行人搜索方法,在遮挡、拥挤等复杂场景中更加鲁棒,从而在行人搜索任务获得的更好的效果。
本发明的目的可以通过以下技术方案来实现:步骤1构建一个端到端的行人搜索神经网络,该神经网络使用完整的监控视频画面作为输入,使用单个网络同时完成行人的检测以及行人的辨识两项任务;
步骤2进行神经网络的训练,本发明提出的神经网络训练过程分为两个阶段。首先进行第一阶段神经网络的训练,在训练过程中使用数据不确定性模块对于数据中的不确定性进行建模,同时使用场景上下文信息对于网络预测的行人特征表示进行约束。
步骤3使用完成第一阶段训练的神经网络对于训练数据中的噪声进行分析,查找训练数据中可能存在噪声。
步骤4进行第二阶段神经网络的训练,除了使用噪声抑制模块对于步骤3中噪声进行抑制之外,该训练阶段的过程和其余各模块的表现于第一阶段训练时保持一致。
步骤5使用训练完成的行人搜索神经网络,进行场景图像中行人的检索任务
所述的步骤1具体包括以下步骤:
步骤1.1使用通用模型ResNet-50中的前四部分(conv1~conv4)作为行人搜索网络中的骨干网络,用于提取场景图像特征;
步骤1.2使用若干卷积层构建候选区域提取网络(Region Proposal Network(RPN)),用于提取场景图像中可能存在行人的区域;
步骤1.3使用感兴趣区域池化(RoI Pooling)模块提取在场景图像中候选区域的特征;
步骤1.4使用通用模型ResNet-50中的最后一部分(conv5)作为行人搜索网络中的识别网络,用于对候选区域的特征进一步提取;
步骤1.5使用若干全连接层构建检测子任务的分类和回归模块,用于对候选区域的特征进行分类并回归;
步骤1.6使用数据不确定性模块对于候选区域的数据不确定性进行建模。
所述步骤2)具体包括以下步骤:
步骤2.1对图像进行归一化,将图像减去预先计算的图像均值,除以预先计算的图像方差;
步骤2.2将归一化的图像以及图像上行人的边界框进行缩放到指定尺寸,在保证宽高比不变;以一定的概率将图像以及其标注水平翻转;
步骤2.3将步骤2.2处理完成的图像送入骨干网络,提取得到场景图像的特征图谱fbackbone
步骤2.4将fbackbone送入候选区域提取网络,得到可能存在行人的候选区域;
步骤2.5使用感兴趣区域池化模块,从fbackbone提取候选区域的特征图froi
步骤2.6将特征图froi送入识别网络,提取到表示候选区域特征的特征向量z;
步骤2.7将特征向量z送入检测子任务的分类和回归模块,分别得到后选区域的前景背景预测结果vfgbg以及vreg
步骤2.8将特征向量z送入数据不确定性模块,得到表示样本特征的均值xμ和标准差xσ,从上述均值和标准差组成的高斯分布中进行采样,得到用于训练的行人特征表示x;
步骤2.9使用分类损失以及回归损失计算RPN以及分类和回归模块的损失函数,使用在线实例匹配(Online Instance Matching(OIM))损失函数以及本发明提出的上下文对 比损失函数计算行人特征表示的损失函数;
步骤2.10进行方向传播运算,更新网络的参数;
步骤2.11按照事先定义好的迭代次数,重复步骤2.1~步骤2.10。
对于所述的步骤3具体包括以下步骤
步骤3.1使用步骤2训练的网络,对于训练集中的数据进行预测,运算得到每一个行人身份ID的特征中心;
步骤3.2计算训练集中所有身份ID特征中心的相似度,得到相似性矩阵Msim
步骤3.3将Msim中非对角线区域的值按照从大到小进行排序,将相似性值对应的身份ID进行可视化,选取合适相似性阈值,使得阈值能够较好区分数据中的噪声以及困难样本;
步骤3.4记录下高于阈值的相似度对应的身份ID二元组作为数据中的噪声。
所述的步骤4具体包括以下步骤:
进行第二阶段的神经网络训练,以步骤2为基础,使用下述步骤替换步骤2.9:
步骤4.1使用分类损失以及回归损失计算RPN以及分类和回归模块的损失函数;
步骤4.2使用噪声鲁棒的在线实例匹配损失函数,抑制步骤3.4得到的噪声二元组,同时使用所述上下文对比损失函数计算行人特征表示的损失函数。
所述的步骤5具体包括以下步骤:
步骤5.1将待查找的行人所处的图像以及其在图像上的位置输入神经网络,得到待查找的行人的特征表示;
步骤5.2将图像库中的图像输入神经网络,得到图像库中行人所在的位置以及对应的特征表示;
步骤5.3计算待查找行人的特征表示和图像库中的行人的特征表示之间的余弦距离;
步骤5.4按照距离由近到远进行排序,进行相关信息的展示。
本发明技术方案相比先前的方案,具有以下的优点:
本发明通过构建上下文对比损失,充分利用场景图像中的上下文信息。利用出现在同一场景图像的行人作为上下文信息,构造对比对并训练行人搜索神经网络对其进行区分,使得网络能够在行人之间相互重叠或拥挤的情况下,拥有更好的总体性能。从而提升在拥挤以及遮挡的场景下,网络所提取到的行人特征的鲁棒性以及鉴别力。与此同时,本发明将数据不确定性学习引入行人搜索。通过对于数据的不确定性进行建模,将行人样本的特征表示建模成为一个概率分布。使得网络对于低质量的样本进一步地具有更好的了鲁棒性。
同时,本发明提出了一种训练策略,缓解了训练数据中的错误标注以及行人严重重叠的噪声对训练过程的负面影响。该训练策略包含了一个两阶段的训练过程,第一个阶段进行正常的行人搜索网络训练。在第一阶段的训练结束之后,对于训练数据进行推理分析,进行行人身份ID的特征中心的比对,分析得出训练集中的错误数据标注以及严重重叠的数据噪声。第二阶段的训练重新进行神经网络的训练,并在训练的过程中,对于上述错误标注以及数据噪声进行抑制,缓解错误数据标注以及数据噪声对于训练过程的负面影响。
附图说明
图1本发明流程示意图
图2本发明的神经网络结构示意图:(a)主体网络结构(b)数据不确定性建模模块结构(c)上下文对比损失示意图
图3本发明步骤三即噪声抑制方法的运算过程
图4提出的方法与其他方法在训练时损失函数约束的对比示意图
图5行人搜索训练数据噪声示例:(a)由于行人重叠带来的噪声(b)由于错误标注带来的噪声
图6实施例行人检索及可视化示意图
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明,本发明的总体流程如图1所示。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方法中所涉及到的技术特征只要彼此之间不构成冲突就可以相互组合。
步骤1构建一个端到端的行人搜索神经网络
神经网络的结构如图2(a)所示。神经网络具有行人检测分支以及行人辨识分支两个分支,从而在同一个神经网络内完成行人检测以及行人辨识两个子任务。行人检测分支负责对监控场景图像中的行人进行定位,获取得到行人所在区域的边界包围框;行人辨识分支负责行人特征表示的提取,特征表示之间的距离反应行人间的相似程度,后续通过比对特征之间的距离,检索与目标行人相似的行人。
行人搜索神经网络基于Faster R-CNN目标检测框架并在此基础上添加行人辨识分支。具体地,行人搜索神经网络包括用于提取场景图像特征的骨干网络(Backbone Network)、用于提取可能存在行人区域的候选区域提取网络Region Proposal Network)以及感兴趣区域池化(RoI Pooling)模块、用于进一步提取行人特征表示的行人识别网络、用于预测场景图像中行人所在位置的行人边界框分类以及回归模块数据不确定性模块。为了使模块之间的联系更为清楚和明白,下面将对各个组成部分的进行进一步描述,具体地:
(1)对于骨干网络,使用通用模型ResNet-50中的前四部分(conv1~conv4)作为行人搜索网络中的骨干网络部分。骨干网络使用经过通用做法预处理后的图像作为输入,输出场景图像特征图。
(2)对于候选区域提取网络,使用一个输入输出通道数分别为1024和512、卷积核大小为3×3的卷积层,对骨干网络提取到的场景图像特征进行进一步提取。随后,使用输入输出通道分别为512和18、卷积核大小为1×1的卷积层对特征图上每一空间位置9个anchor的前景背景进行分类预测;使用输入输出通道分别为512和36、卷积核大小为1×1的卷积层对特征图上每一空间位置9个anchor的边界框的坐标位置以及宽和高的空间位置进行回归预测。其中anchor的尺度设置为[32×32~512×512]、anchor的宽高比设置为[1:1,1:2,2:1]。
(3)对于行人识别网络,使用通用模型ResNet-50中的最后一部分(conv5)作为行人识别网络。行人识别网络使用感兴趣区域池化模块的输出结果作为输入。输出用于行人检测以及行人辨识的行人特征向量。
(4)对于行人边界框分类及回归模块,使用行人识别网络输出的行人特征向量作为输入。选取一个输入输出通道数分别为2048和2的全连接层对相对应的前景/背景进行分类;选取一个输入输出通道数分别为2048和8的全连接层对行人的坐标位置以及边界框的宽高的变换参数进行回归。从而完成行人检测的子任务。
(5)对于数据不确定性模块,其结构如图2(b)所示。使用行人识别网络输出的行人特征向量作为输入。选取两个输入输出通道数分别为2048和256的全连接层对于行人特征的均值和标准差进行预测。从而完成行人辨识的子任务。
步骤2对神经网络进行第一阶段的训练(创新步骤)
神经网络的训练过程分为两个阶段。两个阶段的训练过程除了部分模块之间的表现存在差异之外,训练的过程以及行为保持一致。在该步骤中,进行第一阶段的神经网络训练。
具体步骤如下:
(1)将图像每一个通道的亮度映射到0~1的范围内。随后对图像进行归一化,将图像RGB三个通道减去[0.485,0.456,0.406],除以[0.229,0.224,0.225];
(2)将归一化的图像以及图像上行人的边界框进行缩放,在保证宽高比不变、长边不超过1500个像素、短边不超过900个像素的情况下,保证图像尽可能大。以0.5的概率将图像以及其标注水平翻转。最后在图像的左边缘和下边缘进行填充,使得图像的宽和高均为32的整数倍,最终得到高为H,宽为W的一副图像;
(3)将(2)处理完成的图像送入骨干网络,提取得到场景图像的特征图谱fbackbone,fbackbone的宽和高分别为W/16以及H/16,通道数量为1024;
(4)将fbackbone送入候选区域提取网络,对于fbackbone上的每一个空间位置的9个Anchor进行预测,得到可能存在行人的候选区域;
(5)使用感兴趣区域池化模块,对候上述候选区域按照正负样本1:1采样得到256个候选区域,裁切fbackbone对应位置的特征并缩放到目标尺寸14×14。得到候选区域的特征图froi
(6)将froi送入识别网络,提取到表示候选区域特征的2048维的特征向量z;
(7)将z送入检测子任务的分类和回归模块,分别得到后选区域的前景背景预测结果vfgbg以及vreg
(8)将z送入数据不确定性模块,对于行人的数据不确定性进行建模。在数据不确定性模块中,分别对行人特征的均值以及标准差进行预测,得到表示样本特征均值xμ,标准差xσ将行人样本的特征表示建模成一个正态分布(而非通常做法中一个确定的向量),通过两个全连接层分别预测行人特征表示对应的分布的均值以及标准差:
Figure BDA0003358764470000091
Figure BDA0003358764470000092
其中zi是从行人识别网络中获得到的第i个样本对应的行人特征向量,
Figure BDA0003358764470000093
Figure BDA0003358764470000094
是全连结层预测的特征表示的均值以及标准差,θμ和θσ分别表示全连接层的参数。这样一来,便可以根据均值以及标准差,得到行人样本所对应的概率分布。在行人搜索网络训练的过程中,用于损失函数计算的行人特征表示在多元高斯分布中采样得到;在行人搜索网络推理的过程中,只使用网络预测的多元高斯分布的均值用于最终的行人检索。
由于采样操作的不可微分性,因此使用重参数化方法从所预测的均值及标准差所组成的概率分布中进行采样:
Figure BDA0003358764470000101
其中∈~N(0,I),xi表示第i个行人样本用于计算损失函数和行人匹配的特征表示,N(·)表示高斯分布,I为单位矩阵;
与此同时,使用KL散度将网络所预测的行人特征表示xi,约束到一个标准的正态分布:
Figure BDA0003358764470000102
(9)使用Softmax交叉熵损失以及平滑的L1损失函数计算RPN以及分类和回归模块的损失函数:Lrpn_cls,Lrpn_reg,Lcls,Lreg,计算在线实例匹配(Online Instance Matching)损失函数:LOIM
(10)如图2(c)所示,利用上下文信息,构造对比对。使用本发明所提出的上下文对此损失对于场景图像中的行人特征表示进行约束使得归属同一行人的样本对应的特征尽可能地一致,归属不同行人样本的特征尽可能的相互具有鉴别性。更具体的,上下文对比损失包含候选区域的上下文对比以及人工标注区域的上下文对比。增加上下文对比损失后,本方法在训练过程中的约束与其他方法的对比如图4所示。相比其他方法,本方法额外约束了没有身份标签的行人之间的特征鉴别力。
其中,候选区域的上下文对比损失表示为:
Figure BDA0003358764470000103
其中,
Figure BDA0003358764470000104
表示被分配到第i个人工标注区域对应的候选区域特征。G表示人工标注区域的数量,gj表示第j个人工标注区域对应的特征,T表示矩阵的转置,sp是用于该损失函数的放缩系数,是一个超参数。与上述候选区域上下文对比损失函数同时作用的人工标注区域的上下文对比损失函数表示为:
Figure BDA0003358764470000111
其中,sg是用于该损失函数的放缩系数、是一个超参数;其余的符号与候选区域上下文对比损失函数相同。
为了解决训练前期,候选区域数量较为有限的问题。本发明提出将人工标注区域进行上下抖动,以获得更多的候选区域,及其操作过程如下:
Figure BDA0003358764470000112
Figure BDA0003358764470000113
其中,N(·)表示高斯分布,
Figure BDA0003358764470000114
Figure BDA0003358764470000115
分别表示人工标注矩形区域左上角以及右下角的坐标,k∈[1,2]。
Figure BDA0003358764470000116
Figure BDA0003358764470000117
表示经过上下的抖动得到的新的候选区域。
(11)计算神经网络总体的损失L=Lrpn_cls+Lrpn_reg+Lcls+Lreg+LOIM+Lgt_cc+Lp_cc,进行神经网络的反向传播运算,更新神经网络的参数。
步骤3:对于训练数据中的噪声进行分析(创新步骤)
(1)使用步骤2训练的网络,对于训练集中的数据进行预测,由于神经网络的特点,分类器的权重可以看作是每一行人身份ID的特征中心,提取行人搜索神经网络中行人分类的损失函数中的分类器权重
Figure BDA0003358764470000118
作为每一行人的身份ID特征中心,其中L为训练集中身份ID的数量,D为行人特征表示的维度。
(2)基于上述身份ID中心,计算身份ID之间相互的相似度Msim=VVT,得到以行人身份ID之间的相似性矩阵
Figure BDA0003358764470000121
其中Msim是一个对称矩阵。矩阵的第i行、第j列表示身份ID为i、j的特征中心之间的距离。(1)和本步骤的具体示意如图3(1)所示。
(3)将Msim中非对角线区域的值按照从大到小进行排序,将相似性值对应的身份ID进行可视化,按照经验选取0.75作为阈值,使得阈值能够较好区分数据中的噪声以及困难样本。
(4)记录下高于阈值的相似度对应的身份ID二元组Tnoise=[(a0,b0),(a1,b1),…,(an,bn)]作为数据中的噪声
步骤4:进行第二阶段的神经网络训练(创新步骤)
在该阶段的神经网络训练过程中,抑制步骤3分析得到的数据噪声。以步骤二为基础,使用下述步骤替换步骤2中的(9):
(1)使用Softmax交叉熵损失以及平滑的L1损失函数计算RPN以及分类和回归模块的损失函数:Lrpn_cls,Lrpn_reg,Lcls,Lreg
(2)使用改动后噪声鲁棒的在线实例匹配损失函数计算损失函数LOIM。该损失函数使用步骤3(4)得到的噪声身份ID二元组,对于数据集中的噪声进行抑制。具体过程示意如图3(2)所示。对于以相似性较高的行人身份对(a,b),在身份为a的样本输入网络的时候,在网络所预测的logit中下标b的位置乘以0,减少噪声样本对于训练过程的影响:
Figure BDA0003358764470000122
其中B{·}为指示函数,当其中的条件为真时、它的值为1,当其中的条件为假时、它的值为0;a为样本的真实标签,logitc为分类器输出类别c的预测结果;
Figure BDA0003358764470000123
为进行噪声抑制后的对应结果预测结果。
步骤5:场景图像中行人的检索任务
使用训练完成的行人搜索神经网络,进行场景图像中行人的检索任务,整体流程如图6所示,具体地:
(1)将包含待查询的行人所在的图像,以及其对应的位置,输入行人搜索神经网络。网络输出待查询行人对应的特征表示。
(2)将待搜索的场景图像数据集合输入行人搜索神经网络。神经网络预测场景图像中的行人所在的位置,以及其对应的深度特征表示。将上述存储下来,用于后续的行人特征相似度对比。
(3)将目标行人的特征与待搜索的行人的特征进行距离度量,计算特征之间的相似度,行人特征表示的相似程度使用余弦距离进行度量。
(4)对于每一个待查询的行人,按照相似度从高到低展示待搜索的场景图像中的与之相似的行人,同时展示相关的信息。

Claims (6)

1.一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,包括步骤:
步骤1构建一个端到端的行人搜索神经网络,该神经网络使用完整的监控视频画面作为输入,使用单个网络同时完成行人的检测以及行人的辨识两项任务;
步骤2进行神经网络的训练,训练过程分为两个阶段:首先进行第一阶段神经网络的训练,在训练过程中使用数据不确定性模块对于数据中的不确定性进行建模,同时使用场景上下文信息对于网络预测的行人特征表示进行约束;
步骤3使用完成第一阶段训练的神经网络对于训练数据中的噪声进行分析,查找训练数据中可能存在噪声;
步骤4进行第二阶段神经网络的训练,除了使用噪声抑制模块对于步骤3中噪声进行抑制之外,该训练阶段的过程和其余各模块的表现于第一阶段训练时保持一致;
步骤5使用训练完成的行人搜索神经网络,进行场景图像中行人的检索任务。
2.根据权利要求1所述的一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,所述的步骤1具体包括以下步骤:
步骤1.1使用通用模型ResNet-50中的前四部分作为行人搜索网络中的骨干网络,用于提取场景图像特征;
步骤1.2使用若干卷积层构建候选区域提取网络,用于提取场景图像中可能存在行人的区域;
步骤1.3使用感兴趣区域池化模块提取在场景图像中候选区域的特征;
步骤1.4使用通用模型ResNet-50中的最后一部分作为行人搜索网络中的识别网络,用于对候选区域的特征进一步提取;
步骤1.5使用若干全连接层构建检测子任务的分类和回归模块,用于对候选区域的特征进行分类并回归;
步骤1.6使用数据不确定性模块对于候选区域的数据不确定性进行建模。
3.根据权利要求1所述的一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,所述步骤2具体包括以下步骤:
步骤2.1对图像进行归一化,将图像减去预先计算的图像均值,除以预先计算的图像方差;
步骤2.2将归一化的图像以及图像上行人的边界框进行缩放到指定尺寸,在保证宽高比不变;以一定的概率将图像以及其标注水平翻转;
步骤2.3将步骤2.2处理完成的图像送入骨干网络,提取得到场景图像的特征图谱fbackbone
步骤2.4将fbackbone送入候选区域提取网络,得到可能存在行人的候选区域;
步骤2.5使用感兴趣区域池化模块,从fbackbone提取候选区域的特征图froi
步骤2.6将特征图froi送入识别网络,提取到表示候选区域特征的特征向量z;
步骤2.7将特征向量z送入检测子任务的分类和回归模块,分别得到后选区域的前景背景预测结果vfgbg以及vreg
步骤2.8将特征向量z送入数据不确定性模块,得到表示样本特征的均值xμ和标准差xσ,从上述均值和标准差组成的高斯分布中进行采样,得到用于训练的行人特征表示x;
步骤2.9使用分类损失以及回归损失计算RPN以及分类和回归模块的损失函数,使用在线实例匹配损失函数以及本发明提出的上下文对比损失函数计算行人特征表示的损失函数;
步骤2.10进行方向传播运算,更新网络的参数;
步骤2.11按照事先定义好的迭代次数,重复步骤2.1~步骤2.10。
4.根据权利要求1所述的一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,对于所述的步骤3具体包括以下步骤
步骤3.1使用步骤2训练的网络,对于训练集中的数据进行预测,运算得到每一个行人身份ID的特征中心;
步骤3.2计算训练集中所有身份ID特征中心的相似度,得到相似性矩阵Msim
步骤3.3将Msim中非对角线区域的值按照从大到小进行排序,将相似性值对应的身份ID进行可视化,选取合适相似性阈值,使得阈值能够较好区分数据中的噪声以及困难样本;
步骤3.4记录下高于阈值的相似度对应的身份ID二元组作为数据中的噪声。
5.根据权利要求1所述的一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,所述的步骤4具体包括以下步骤:
进行第二阶段的神经网络训练,以步骤2为基础,使用下述步骤替换步骤2.9:
步骤4.1使用分类损失以及回归损失计算RPN以及分类和回归模块的损失函数;
步骤4.2使用噪声鲁棒的在线实例匹配损失函数,抑制步骤3.4得到的噪声二元组,同时使用所述上下文对比损失函数计算行人特征表示的损失函数。
6.根据权利要求1所述的一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,所述的步骤5具体包括以下步骤:
步骤5.1将待查找的行人所处的图像以及其在图像上的位置输入神经网络,得到待查找的行人的特征表示;
步骤5.2将图像库中的图像输入神经网络,得到图像库中行人所在的位置以及对应的特征表示;
步骤5.3计算待查找行人的特征表示和图像库中的行人的特征表示之间的余弦距离;
步骤5.4按照距离由近到远进行排序,进行相关信息的展示。
CN202111360243.2A 2021-11-17 2021-11-17 一种上下文感知、噪声鲁棒的行人搜索方法 Pending CN114170625A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111360243.2A CN114170625A (zh) 2021-11-17 2021-11-17 一种上下文感知、噪声鲁棒的行人搜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111360243.2A CN114170625A (zh) 2021-11-17 2021-11-17 一种上下文感知、噪声鲁棒的行人搜索方法

Publications (1)

Publication Number Publication Date
CN114170625A true CN114170625A (zh) 2022-03-11

Family

ID=80479866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111360243.2A Pending CN114170625A (zh) 2021-11-17 2021-11-17 一种上下文感知、噪声鲁棒的行人搜索方法

Country Status (1)

Country Link
CN (1) CN114170625A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116824695A (zh) * 2023-06-07 2023-09-29 南通大学 一种基于特征去噪的行人再识别非局部防御方法

Similar Documents

Publication Publication Date Title
US9031305B2 (en) Image classification apparatus with first and second feature extraction units and recording medium having program recorded therein
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN113159120A (zh) 一种基于多尺度跨图像弱监督学习的违禁物检测方法
CN112861917B (zh) 基于图像属性学习的弱监督目标检测方法
CN112529005B (zh) 基于语义特征一致性监督金字塔网络的目标检测方法
CN111275010A (zh) 一种基于计算机视觉的行人重识别方法
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN114821014A (zh) 基于多模态与对抗学习的多任务目标检测识别方法及装置
US20230095533A1 (en) Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling
Yadav et al. An improved deep learning-based optimal object detection system from images
CN111325237A (zh) 一种基于注意力交互机制的图像识别方法
CN116721414A (zh) 一种医学图像细胞分割与跟踪方法
CN114241250A (zh) 一种级联回归目标检测方法、装置及计算机可读存储介质
CN113780145A (zh) ***形态检测方法、装置、计算机设备和存储介质
CN112528058A (zh) 基于图像属性主动学习的细粒度图像分类方法
Murugan et al. A novel CNN method for the accurate spatial data recovery from digital images
CN113011528B (zh) 一种基于上下文和级联结构的遥感图像小目标检测方法
CN114283326A (zh) 一种结合局部感知和高阶特征重构的水下目标重识别方法
CN112241736A (zh) 一种文本检测的方法及装置
CN111611919B (zh) 一种基于结构化学习的道路场景布局分析方法
CN113822134A (zh) 一种基于视频的实例跟踪方法、装置、设备及存储介质
CN114170625A (zh) 一种上下文感知、噪声鲁棒的行人搜索方法
Shahriyar et al. An approach for multi label image classification using single label convolutional neural network
Al-Shammri et al. A combined method for object detection under rain conditions using deep learning
CN115063831A (zh) 一种高性能行人检索与重识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination