CN111652909B - 一种基于深度哈希特征的行人多目标追踪方法 - Google Patents

一种基于深度哈希特征的行人多目标追踪方法 Download PDF

Info

Publication number
CN111652909B
CN111652909B CN202010318731.6A CN202010318731A CN111652909B CN 111652909 B CN111652909 B CN 111652909B CN 202010318731 A CN202010318731 A CN 202010318731A CN 111652909 B CN111652909 B CN 111652909B
Authority
CN
China
Prior art keywords
target
pedestrian
det
trk
hash
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010318731.6A
Other languages
English (en)
Other versions
CN111652909A (zh
Inventor
练智超
邵帅
***阿地力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010318731.6A priority Critical patent/CN111652909B/zh
Publication of CN111652909A publication Critical patent/CN111652909A/zh
Application granted granted Critical
Publication of CN111652909B publication Critical patent/CN111652909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度哈希特征的行人多目标追踪方法。该方法为:选取行人重识别Market‑1501数据集训练残差网络ResNet50;结合行人重识别及哈希图像检索思想,将训练好的ResNet50作为基础网络模型与全连接哈希层相连接构建深度哈希网络模型;选取新的行人重识别数据集训练深度哈希网络,并使用此网络提取行人深度哈希表观特征;结合行人表观特征及与运动特征作为行人特征描述子,并在追踪过程中融合中断恢复机制以完成行人多目标追踪。本发明有效减少了行人多目标追踪过程中由于目标遮挡、目标交互产生的身份交换数量,提升了追踪精度。

Description

一种基于深度哈希特征的行人多目标追踪方法
技术领域
本发明涉及计算机视觉技术领域,特别是一种基于深度哈希特征的行人多目标追踪方法。
背景技术
近年来,随着人工智能技术的发展,计算机视觉愈发得到海内外学者关注。计算机视觉囊括多个研究方向,例如目标检测、目标追踪、图像分类、图像分割等等。随着计算机视觉技术的完善,越来越多的视觉算法也被应用在现实场景中。在安防领域,例如车站、体育场等人员密集场景;小区、银行等安防监控场景;景区、地铁等人流量统计场景,都需要对监控摄像头抓捕的视频信息进行实时分析。传统监控方法主要依靠人工对视频信息进行统计分析,这种方法不仅效率低,误检、漏检情况也相对较多,此外,仅依靠人工分析是如此庞大数量的监控视频是不现实的,所以利用视觉算法对视频进行自动化分析具有重要研究意义。
目标检测与目标追踪是计算机视觉领域的热点问题,而目标追踪中的多目标追踪问题因其实用价值极高更是研究的重中之重,它可以应用于视频监控、人机交互、虚拟现实等方向。目标追踪算法可以对视野内指定目标进行实时追踪,通过目标检测、位置预测、数据关联的方式获取目标移动轨迹。此外,多追踪算法还可以获取目标更为细节的信息,例如位置、速度、加速度、方向等,多样化的信息对目标状态分析、场景状态分析均有很大的帮助,因此越来越多的智能视觉分析算法依赖于多目标追踪完成。在如此大环境下,大量的多目标追踪算法被提出,但算法的准确性、普适性以及实用性仍有巨大的进步空间。多目标跟踪场景一般较为复杂,存在大量影响追踪结果因素例如:频繁遮挡、目标高速移动、目标方向变化等等,在复杂追踪场景中保证追踪准确性也是一大难点。多目标追踪算法作为众多视觉应用的基础,具有重要的研究意义。
早期的多目标追踪算法大多在特征表示部分使用目标的运动特征,例如位置重叠度(IOU)等。当目标运动状态规律且无复杂情况发生时,此类算法表现优异,而在现实复杂场景中运动特征表现不佳。在目标遮挡、目标交互、方向突变、尺度突变情况频发的场景中,若仅使用运动特征,目标遮挡和目标交互会引起追踪过程中频繁的目标ID交换。此外,方向与尺度的突变会造成运动特征失效导致追踪频繁中断而产生大量追踪碎片及冗余轨迹。而这些问题也是多目标追踪问题面临的主要挑战。
发明内容
本发明的目的在于提供一种可以减少目标遮挡、目标交互影响的基于深度哈希特征的行人多目标追踪方法。
实现本发明目的的技术解决方案为:一种基于深度哈希特征的行人多目标追踪方法,在行人多目标追踪过程中使用深度哈希表观特征与运动特征描述行人,同时结合追踪中断恢复机制减少追踪时身份交换次数以提升追踪准确率,包括以下步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中deti与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合
Figure BDA0002460537250000021
未匹配trk存至未匹配轨迹集合
Figure BDA0002460537250000022
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
Figure BDA0002460537250000023
步骤6、将未匹配目标集合
Figure BDA0002460537250000024
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合
Figure BDA0002460537250000025
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt
步骤8、返回第t帧目标轨迹集合Tt
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用
Figure BDA0002460537250000031
表示当前帧共M个目标的检测框集合,其中
Figure BDA0002460537250000032
表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用
Figure BDA0002460537250000033
表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中
Figure BDA0002460537250000034
det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
Figure BDA0002460537250000035
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
Figure BDA0002460537250000036
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
Figure BDA0002460537250000041
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集台
Figure BDA0002460537250000042
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集台
Figure BDA0002460537250000043
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.1:构建特征池
Figure BDA0002460537250000044
保存当前帧中所有目标在历史帧中特征信息,其中K代表特征池的容量大小。
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池
Figure BDA0002460537250000045
中id=i的所有特征作为当前行人id特征集合
Figure BDA0002460537250000046
之后选择行人检测目标detj与特征池
Figure BDA0002460537250000047
集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
Figure BDA0002460537250000051
本发明与现有技术相比,其显著优点为:(1)在追踪数据关联时使用融合特征的思想,将目标表观特征与运动特征相结合以提升特征鲁棒性;(2)在表观特征提取方面,借鉴图像检索、行人重识别的思想,构建深度哈希网络并使用行人重识别数据集对其进行训练。通过此网络提取行人图像深度哈希特征作为行人表观特征,该深度哈希表换特征可以更好地描述行人目标;(3)改进了传统多目标追踪机制,提出特征池的概念保存未匹配到目标的轨迹特征信息以实现追踪中断后的身份恢复。
附图说明
图1为本发明基于深度哈希特征的行人多目标追踪方法的流程图。
图2为在行人视频中追踪实验效果图,其中(a)为对视频中密集的人群完成多目标追踪任务效果图,(b)为对视频中稀疏车辆完成无目标任务效果图。
具体实施方式
本发明基于深度哈希特征的行人多目标追踪方法,该方法核心由运动特征表示模块,表观特征表示模块以及追踪失败恢复模块组成。首先使用行人重识别数据集训练残差网络ResNet50;将训练好的ResNet50与全连接哈希层相连接构建深度哈希网络,并使用此网络提取行人深度哈希表观特征;在获得目标检测框的基础上,采用交并比(IOU)作为行人运动特征表示;通过权重结合目标运动特征与表观特征并使用匈牙利算法进行行人目标数据关联,将关联结果保存为轨迹。在追踪过程中,如果出现目标遮挡、目标交互情况,采用追踪中断恢复机制及时将错误匹配的目标匹配到原有轨迹,避免身份交换情况的发生。本发明方法具体包括以下几个步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合
Figure BDA0002460537250000061
未匹配trk存至未匹配轨迹集合
Figure BDA0002460537250000062
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
Figure BDA0002460537250000063
步骤6、将未匹配目标集合
Figure BDA0002460537250000064
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合
Figure BDA0002460537250000065
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt
步骤8、返回第t帧目标轨迹集合Tt
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用
Figure BDA0002460537250000066
表示当前帧共M个目标的检测框集合,其中
Figure BDA0002460537250000067
表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用
Figure BDA0002460537250000068
表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中
Figure BDA0002460537250000069
det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
Figure BDA00024605372500000610
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
Figure BDA0002460537250000071
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
Figure BDA0002460537250000072
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集合
Figure BDA0002460537250000081
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合
Figure BDA0002460537250000082
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.1:构建特征池
Figure BDA0002460537250000083
保存当前帧中所有目标在历史帧中特征信息,其中K代表特征池的容量大小。
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池
Figure BDA0002460537250000084
中id=i的所有特征作为当前行人id特征集合
Figure BDA0002460537250000085
之后选择行人检测目标detj与特征池
Figure BDA0002460537250000086
集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
Figure BDA0002460537250000087
图2展示了本发明在实际拍摄视频中对行人的多目标追踪结果,通过结果可以看出本发明可以准确对行人目标进行追踪,且能够处理一些遮挡、交互情况,追踪准确度较高,效果较好。本发明着重对行人多目标追踪问题中特征表示及数据关联部分进行研究,提出了深度哈希行人特征表示方法并设计追踪中断恢复机制以减少追踪过程中ID交换数量,提升追踪精确度。

Claims (5)

1.一种基于深度哈希特征的行人多目标追踪方法,其特征在于,包括以下几个步骤:
步骤1、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间运动特征相似度Simmot(trki,detj);
步骤2、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间表观特征相似度Simapp(trki,detj);
步骤3、结合步骤1、步骤2结果,计算行人目标检测集合Dt中detj与行人目标轨迹集合Tt -1在t帧中预测框trki间相似度Sim(trki,detj),并保存为代价矩阵C;
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合
Figure FDA0003768362120000011
未匹配trk存至未匹配轨迹集合
Figure FDA0003768362120000012
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
Figure FDA0003768362120000013
步骤6、将未匹配目标集合
Figure FDA0003768362120000014
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合
Figure FDA0003768362120000015
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;
步骤7、当行人检测目标与现存行人轨迹关联完成时,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt
步骤8、返回第t帧目标轨迹集合Tt
2.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用
Figure FDA0003768362120000016
表示当前帧共M个目标的检测框集合,其中
Figure FDA0003768362120000021
表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用
Figure FDA0003768362120000022
表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中
Figure FDA0003768362120000023
det与trk间运动特征相似度的计算方法为:
Figure FDA0003768362120000024
其中Area代表检测框面积。
3.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数;
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联;
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示;最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征;
Figure FDA0003768362120000025
步骤2.4:设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
Figure FDA0003768362120000026
4.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,所述步骤3,结合步骤1、步骤2结果,计算行人目标检测集合Dt中detj与行人目标轨迹集合Tt-1在t帧中预测框trki间相似度Sim(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合;选取检测框重叠度IOU作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重:
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj);
步骤3.2:根据不同场景调整α的取值;如果场景中没有频繁的目标交互且目标运动状态规律,提高运动特征权重;相反的,当追踪场景复杂则降低α,提升表观特征权重;
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成数据关联模块中匈牙利算法的代价矩阵,采用匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
5.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤6所述将未匹配目标集合
Figure FDA0003768362120000031
视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合
Figure FDA0003768362120000032
视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;具体如下:
步骤6.1:构建特征池
Figure FDA0003768362120000033
保存当前帧中所有目标在历史帧中特征信息,其中K代表特征池的容量大小;
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,将池内存在时间最长的特征替换为新的特征;
步骤6.3:计算trki与detj间表观特征相似度,选取特征池
Figure FDA0003768362120000034
中id=i的所有特征作为当前行人id特征集合
Figure FDA0003768362120000035
之后选择行人检测目标detj与特征池
Figure FDA0003768362120000036
集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
Figure FDA0003768362120000037
CN202010318731.6A 2020-04-21 2020-04-21 一种基于深度哈希特征的行人多目标追踪方法 Active CN111652909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010318731.6A CN111652909B (zh) 2020-04-21 2020-04-21 一种基于深度哈希特征的行人多目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010318731.6A CN111652909B (zh) 2020-04-21 2020-04-21 一种基于深度哈希特征的行人多目标追踪方法

Publications (2)

Publication Number Publication Date
CN111652909A CN111652909A (zh) 2020-09-11
CN111652909B true CN111652909B (zh) 2022-11-04

Family

ID=72348502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010318731.6A Active CN111652909B (zh) 2020-04-21 2020-04-21 一种基于深度哈希特征的行人多目标追踪方法

Country Status (1)

Country Link
CN (1) CN111652909B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070807B (zh) * 2020-11-11 2021-02-05 湖北亿咖通科技有限公司 多目标跟踪方法和电子装置
CN112489090B (zh) * 2020-12-16 2024-06-04 影石创新科技股份有限公司 目标跟踪的方法、计算机可读存储介质及计算机设备
CN112581506A (zh) * 2020-12-31 2021-03-30 北京澎思科技有限公司 人脸跟踪方法、***及计算机可读存储介质
CN112465078B (zh) * 2021-02-03 2021-04-16 成都点泽智能科技有限公司 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质
CN113012203B (zh) * 2021-04-15 2023-10-20 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN113221750A (zh) * 2021-05-13 2021-08-06 杭州飞步科技有限公司 车辆追踪方法、装置、设备及存储介质
CN113420679B (zh) * 2021-06-26 2024-04-26 南京搜文信息技术有限公司 一种人工智能跨相机多目标追踪***及追踪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203513B (zh) * 2016-07-08 2019-06-21 浙江工业大学 一种基于行人头肩多目标检测及跟踪的统计方法
CN106327502A (zh) * 2016-09-06 2017-01-11 山东大学 一种安防视频中多场景多目标识别和跟踪方法
CN109816690A (zh) * 2018-12-25 2019-05-28 北京飞搜科技有限公司 基于深度特征的多目标追踪方法及***

Also Published As

Publication number Publication date
CN111652909A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
CN111652909B (zh) 一种基于深度哈希特征的行人多目标追踪方法
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数***及方法
CN110781838A (zh) 一种复杂场景下行人的多模态轨迹预测方法
CN108875588A (zh) 基于深度学习的跨摄像头行人检测跟踪方法
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN110968711B (zh) 一种基于序列图像特征的自主无人***位置识别定位方法
CN113468950A (zh) 一种基于深度学习的无人驾驶场景下的多目标跟踪方法
CN104680559A (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN106327528A (zh) 无人机运动目标跟踪方法及无人机的工作方法
CN107609509A (zh) 一种基于运动显著性区域检测的动作识别方法
CN114926859A (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
CN114419669A (zh) 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法
CN105957103A (zh) 一种基于视觉的运动特征提取方法
Yin Object Detection Based on Deep Learning: A Brief Review
Fu et al. A real-time multi-vehicle tracking framework in intelligent vehicular networks
Wang et al. Simple but effective: Upper-body geometric features for traffic command gesture recognition
CN115731287B (zh) 基于集合与拓扑空间的运动目标检索方法
Erçelik et al. Temp-frustum net: 3d object detection with temporal fusion
Liu et al. Weighted sequence loss based spatial-temporal deep learning framework for human body orientation estimation
Sri Jamiya An efficient algorithm for real-time vehicle detection using deep neural networks
CN115830643A (zh) 一种姿势引导对齐的轻量行人重识别方法
CN112613472B (zh) 一种基于深度搜索匹配的行人检测方法及***
Wang et al. Joint learning of siamese CNNs and temporally constrained metrics for tracklet association
Li et al. Review of multi-object tracking based on deep learning
Zheng et al. A Real-Time Vehicle Indoor Positioning Algorithm Based on Multi-Camera Perception

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Lian Zhichao

Inventor after: Shao Shuai

Inventor after: Mu Hanmude

Inventor after: A Dili

Inventor before: Shao Shuai

Inventor before: Muhammad Adili

Inventor before: Lian Zhichao

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant