CN113850221A - 一种基于关键点筛选的姿态跟踪方法 - Google Patents

一种基于关键点筛选的姿态跟踪方法 Download PDF

Info

Publication number
CN113850221A
CN113850221A CN202111168498.9A CN202111168498A CN113850221A CN 113850221 A CN113850221 A CN 113850221A CN 202111168498 A CN202111168498 A CN 202111168498A CN 113850221 A CN113850221 A CN 113850221A
Authority
CN
China
Prior art keywords
module
key point
network
human body
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111168498.9A
Other languages
English (en)
Inventor
刘庆杰
左文航
王蕴红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202111168498.9A priority Critical patent/CN113850221A/zh
Publication of CN113850221A publication Critical patent/CN113850221A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于关键点筛选的姿态跟踪方法,构建了基于关键点筛选的多人姿态跟踪模型,包含了目标检测模块、姿态估计与关键点筛选模块、匹配模块以及行人重识别模块。通过本发明的技术方案,能够解决多人姿态跟踪任务中人体关键点阈值难以调整,以及关键点识别低而引起的多目标跟踪精度(MOTA)指标低的问题。

Description

一种基于关键点筛选的姿态跟踪方法
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于关键点筛选的姿态跟踪方法。
背景技术
计算机视觉领域中的多人姿态跟踪任务就是指通过对输入的视频图像进行处理,在视频的每一帧中检测出每个行人的姿态,再通过对目标的外观特征、位置、运动状态等信息进行计算分析,随着时间推移正确记录每个人的连续姿态轨迹。作为计算机视觉领域的一个热门问题,人体姿态跟踪是计算机视觉中几乎所有与人类有关问题研究的基础,在人机交互、视频监控、活动识别、体育视频分析领域都具有广泛的应用,这些实际需求引起了人们对这一话题的极大兴趣。
现有的多人姿态跟踪方法通常是采用自顶向下的框架,首先通过多人姿态估计的方法,检测出每个人体的边界框信息,之后对每个人体边界框进行姿态估计得到姿态信息。接下来根据视频当前帧中需要跟踪的人体的信息,与下一帧中获得的信息进行匹配。
尽管多人姿态跟踪技术已经得到广泛的应用,但由于多人姿态估计与跟踪不仅要考虑解决多目标跟踪中普遍具有的挑战性的问题如尺度变化、平面旋转、光照变化,并且视频中还存在人的姿态变化复杂等的情况,都对多人姿态估计与跟踪造成困难。除此之外,在Pose Track挑战赛数据集中,需要将低于一定阈值的关键点清空,以往的方法全部都是根据经验进行阈值调整,阈值的选择往往很影响模型最终的性能。这些问题使得模型的多目标跟踪精度(MOTA)指标还有待提升。
发明内容
为了解决上述已有技术存在的不足,本发明提出一种基于关键点筛选的姿态跟踪方法,能够解决多人姿态跟踪任务中人体关键点阈值难以调整,以及关键点识别低而引起的多目标跟踪精度(MOTA)指标低的问题。本发明的具体技术方案如下:
一种基于关键点筛选的姿态跟踪方法,包括以下步骤:
S1:构建数据集;
S1-1:采用COCO 2017数据集进行检测和姿态估计,PoseTrack 2018数据集进行姿态估计与跟踪;
S1-2:在PoseTrack 2018数据集的基础上,构建行人重识别数据集,裁剪PoseTrack 2018数据集中的所有人体框,保存为图片,对同一视频中具有id的人体框给予相同的标签,最终生成包含4613个标签,共计119656个图片的行人重识别数据集;
S2:构建基于自顶向下框架和通用型关键点筛选网络的多人姿态跟踪模型;
S3:模型训练;
S4:将待测视频输入模型,得到检测结果。
进一步地,所述多人姿态跟踪模型包括目标检测模块、姿态估计与关键点筛选模块、匹配模块以及行人重识别模块,其中,
所述目标检测模块是基于多任务多阶段的混合级联结构模型即HTC模型,HTC模型的骨干网络使用101层的ResNeXt网络,并采用特征图金字塔网络即FPN网络、基于PCK指标的非极大抑制算法;
所述姿态估计与关键点筛选模块,采用通用型姿态估计网络,分别通过关键点预测模块和关键点筛选模块,得到每个关键点的热力图和存在概率,最终获得人体姿态;
所述匹配模块将当前帧的人体姿态与现有的人体姿态轨迹进行数据关联,采用基于边界框的交并比距离的匈牙利算法进行关联;对于丢失轨迹的人体,将其加入到所述行人重识别模块中;当出现新增的人体时,使用所述行人重识别模块找回丢失的人体轨迹。
进一步地,所述基于PCK指标的非极大抑制算法即使用PCK距离作为两个人体框的相似度量,当确认一个人体框被保留时,删除PCK距离大于设定阈值的其他人体框。
进一步地,所述关键点预测模块与所述关键点筛选模块采用相同的网络结构,由三层卷积核为3x3的转置卷积组成,所述关键点预测模块最终对每个关键点生成一张热力图,所述关键点筛选模块对生成的每个关键点的特征图通过全连接层得到每个关键点存在的二分类概率。
进一步地,所述行人重识别模块采用姿态估计网络HRNet作为骨干网络来进行特征提取获得每个人的特征图,每次对现有姿态轨迹和当前帧的姿态关联,对于丢失的轨迹进行保存;对于未能成功匹配的姿态,使用所述行人重识别模块与已丢失的行人轨迹进行对比,若对比成功,则将新的姿态与丢失的姿态轨迹合并,若对比失败,则生成新的轨迹;
在训练阶段,设置每个具有相同标签的人为一个类别,获得每个人的特征图后,将其接入分类网络进行分类,使用多分类交叉熵作为其损失函数;
在姿态跟踪过程中,提取每个人的特征图和已丢失的行人进行特征匹配,使用L1距离即哈密顿距离来比较两个人的距离,当距离小于阈值时,认为是同一个人。
进一步地,所述关键点预测模块输出的热力图还将通过二阶高斯滤波对热力图进行平滑。
进一步地,所述步骤S3为对模型进行分开训练,具体为:
S3-1:目标检测模块采用HTC检测器,在PoseTrack 2018验证集上mAP达到0.346,目标检测模块仅在COCO 2017数据集上训练,不在PoseTrack 2018数据集上微调;
S3-2:姿态估计与关键点筛选模块在COCO2017上进行训练,将训练好的模型在PoseTrack 2018数据集上微调,由于只有关键点被注释,通过将其所有关键点的边界框延长20%的长度以获得一个人实例的基本真值框,通过在高度或宽度上延伸边界框,人体边界框被制成固定的纵横比;
在姿态估计与关键点筛选模块的训练中,对姿态进行数据增强,包括随机缩放、随机旋转和随机翻转,采用adam作为优化器;
S3-3:行人重识别模块则是将PoseTrack 2018数据集将同一个标签的行人从原图中裁剪出来,构成新的数据集,使用经过PoseTrack 2018数据集预训练的HRNet网络作为骨干网络,训练时将HRNet网络输出的特征图通过全连接层分类,验证时候只使用HRNet网络输出的特征图,不再通过全连接层。
本发明的有益效果在于:本发明在现有的基于自顶向下的多人姿态估计方法的基础上,在现有的姿态估计网络上加上通用型关键点筛选网络,提高模型的精度的同时,降低关键点阈值对跟踪精度造成的影响。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。其中:
图1是本发明的网络流程图;
图2是本发明的姿态估计与关键点筛选模块;
图3是HRNet网络结构;
图4是关键点筛选模块网络结构;
图5是姿态估计可视化结果;
图6是姿态跟踪可视化结果。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明能够在现有的基于自顶向下的多人姿态估计方法的基础上,加上通用型关键点筛选模型,提高模型的精度的同时,降低关键点阈值对跟踪精度造成的影响。
一种基于关键点筛选的姿态跟踪方法,包括以下步骤:
S1:构建数据集;
S1-1:采用COCO 2017数据集进行检测和姿态估计,PoseTrack 2018数据集进行姿态估计与跟踪;
S1-2:在PoseTrack 2018数据集的基础上,构建行人重识别数据集,裁剪PoseTrack 2018数据集中的所有人体框,保存为图片,对同一视频中具有id的人体框给予相同的标签,最终生成包含4613个标签,共计119656个图片的行人重识别数据集;
S2:构建基于自顶向下框架和通用型关键点筛选网络的多人姿态跟踪模型;
S3:模型训练;
S4:将待测视频输入模型,得到检测结果。
如图1-4所示,本发明构建了一个基于自顶向下框架和通用型关键点筛选网络的多人姿态跟踪模型,包含目标检测模块、姿态估计与关键点筛选模块、匹配模块以及行人重识别模块。目标检测模块是基于多任务多阶段的混合级联结构模型即HTC模型,HTC模型的骨干网络使用101层的ResNeXt网络,并采用特征图金字塔网络即FPN网络、基于PCK指标的非极大抑制算法;
姿态估计与关键点筛选模块,采用通用型姿态估计网络,分别通过关键点预测模块和关键点筛选模块,得到每个关键点的热力图和存在概率,最终获得人体姿态;
匹配模块将当前帧的人体姿态与现有的人体姿态轨迹进行数据关联,采用基于边界框的交并比距离的匈牙利算法进行关联;对于丢失轨迹的人体,将其加入到行人重识别模块中;当出现新增的人体时,使用行人重识别模块找回丢失的人体轨迹。
(1)目标检测模块是基于多任务多阶段的混合级联结构(HTC)模型,使用ResNeXt作为骨干网络进行特征提取,使用特征金字塔网络(FPN)进行多尺度测试,最后使用PCK距离来进行非极大抑制算法来过滤冗余的人体提议框,从而得到最终的人体边界框。
HTC网络的每个阶段结合级联和多任务改善信息流,并利用空间背景进一步提高准确性。HTC模型的骨干网络使用101层的ResNeXt网络,ResNeXt是深度残差网络(ResNet)和Inception的结合体,不同于Inception v4的是,ResNext不需要人工设计复杂的Inception结构细节,而是每一个分支都采用相同的拓扑结构。ResNeXt的本质是分组卷积,通过变量基数来控制组的数量。
FPN网络解决人体检测中的多尺度问题,通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小人体检测的性能。除此之外,采用基于PCK指标的非极大抑制算法剔除冗余人体提议框,PCK用于计算检测的关键点之间的归一化距离小于设定阈值的比例,在人体交互遮挡的情况下,传统的基于IOU距离容易将交互遮挡的人体给错误过滤,而PCK距离可以通过姿态信息在有交互遮挡情况下更好的保留下人体提议框,比传统检测模型中使用的IOU指标更加适用于人体检测。PCK距离公式为:
Figure BDA0003288545330000051
其中,i表示ID为i的关键点,k表示第k个阈值Tk,p表示第p个行人,dpqi表示第p个人中id为i的关键点预测值与表示第q个人中id为i的关键点预测值的欧式距离,
Figure BDA0003288545330000061
表示第p个人的尺度因子,Tk为人工设定的阈值。
(2)姿态估计与关键点筛选模块的骨干网络如图2所示,其骨干网络采用的是高分辨率子网络(HRNet)。如图3所示,HRNet是通过在高分辨率特征图主网络逐渐并行加入低分辨率特征图子网络,不同网络实现多尺度融合与特征提取实现的。
本发明将HRNet网络多多分辨率输出中的第三层输出作为姿态估计模型的特征提取部分获得人体姿态特征图,再分别通过姿态估计模块和关键点筛选模块,得到每个关键点的热力图和存在概率。
关键点预测模块和关键点筛选模块采用相同的网络结构,由三层卷积核为3x3的转置卷积组成,姿态估计模块最终对每个关键点生成一张热力图,而关键点筛选模块则在转置卷积的基础上,分别对生成的每个关键点的特征图通过全连接层得到每个关键点存在的二分类概率。此外,关键点预测模块输出得到的热力图还将通过二阶高斯滤波对热力图进行平滑,得到更加准确的关键点位置。
具体的,关键点预测模块输出为15个关键点的热力图,关键点的标签为高斯分布的概率图,训练的损失函数为:
Figure BDA0003288545330000062
其中,i表示第i个关键点,j表示热力图中第j个位置是关键点的概率,
Figure BDA0003288545330000063
表示标签中第i个关键点在第j个位置的概率,
Figure BDA0003288545330000064
表示网络预测的第i个关键点在第j个位置的概率,vi表示第i个关键点是否可见,vi=0则表示关键点不可见,不计入网络的损失。
关键点筛选模块的输出为15个关键点的二分类概率,关键点的标签为one-hot二值分布,损失函数为:
Figure BDA0003288545330000065
其中,yi表示第i个关键点是否可见,zi表示第i个关键点预测的可见性。
(3)匹配模块将当前帧的人体姿态与前一帧现有姿态轨迹进行数据关联,采用基于边界框的交并比(IOU)距离的匈牙利算法进行关联。IOU距离的计算公式如下:
Figure BDA0003288545330000066
其中,box1当前帧的人体姿态对应的边界框和box2前一帧现有姿态轨迹对应的边界框,area为计算box的面积。
(4)行人重识别模块,采用姿态估计网络HRNet作为骨干网络来进行特征提取获得每个人的特征图,每次对现有姿态轨迹和当前帧的姿态关联,对于丢失的轨迹进行保存;对于未能成功匹配的姿态,使用所述行人重识别模块与已丢失的行人轨迹进行对比,若对比成功,则将新的姿态与丢失的姿态轨迹合并,若对比失败,则生成新的轨迹;
在训练阶段,设置每个具有相同标签的人为一个类别,获得每个人的特征图后,将其接入分类网络进行分类,使用多分类交叉熵作为其损失函数;
在姿态跟踪过程中,提取每个人的特征图和已丢失的行人进行特征匹配,使用L1距离即哈密顿距离来比较两个人的距离,当距离小于阈值时,认为是同一个人。
另外,本发明的网络模型是分模块进行训练:
S3-1:目标检测模块采用HTC检测器,在PoseTrack 2018验证集上mAP达到0.346,目标检测模块仅在COCO 2017数据集上训练,不在PoseTrack 2018数据集上微调。
S3-2:姿态估计与关键点筛选模块在COCO 2017上进行训练,将训练好的模型在PoseTrack 2018数据集上微调,由于只有关键点被注释,通过将其所有关键点对应的边界框延长20%的长度以获得人体边界框,通过在高度或宽度上延伸边界框,人体边界框被制成固定的纵横比;例如,高度:宽度=4:3,采用的分辨率为384:288,热力图的大小为分辨率的四分之一,即96:72。
在姿态估计与关键点筛选模块的训练中,对姿态进行数据增强,包括随机缩放(30%)、随机旋转(40度)和随机翻转,采用adam作为优化器。
S3-3:行人重识别模块则是将PoseTrack 2018数据集将同一个标签的行人从原图中裁剪出来,构成新的数据集,共包含4613个行人标签,119656个图片,使用经过PoseTrack2018数据集预训练的HRNet网络作为骨干网络,训练时将HRNet网络输出的特征图通过全连接层分类,验证时候只使用HRNet网络输出的特征图,不再通过全连接层。
实施例1
为了验证模型每个模块的有效性,在关键模块上进行消融实验。如表1所示,实验过程包括基准实验和连续在此基础上添加两个模块:
·基准实验:采用HTC检测器、HRNet姿态估计网络、和IOU匹配作为基准方法。
·基准+关键点筛选模块:在基准方法的基础上,加入了关键点筛选模块(checkmodel)。
·基准+关键点筛选模块+行人重识别(re-id):在基准方法的基础上,加入了关键点
筛选模块(check model)和行人重识别(re-id)。
从表中发现,本发明的网络中的每个模块对性能的提升都有一定的贡献,尤其是关键点筛选模块对性能提升的贡献最大。
表1本发明的方法在PoseTrack 2018数据集上的消融实验
Figure BDA0003288545330000081
本实施例还验证了关键点筛选模块在不同的自顶向下的姿态估计网络中模型的有效性,如表2所示,HRNet、Hourglass和pose_resnet分别测试在有无关键点筛选模块情况下的多目标跟踪精确度(MOTA)指标,实验结果证明关键点筛选模块可以有效提高姿态跟踪网络的性能,也说明本发明的方法具有良好的泛化能力。
表2关键点筛选模块在不同姿态估计网络中的消融实验
Figure BDA0003288545330000082
如表3所示,在自顶向下的姿态估计网络的框架下,人体关键点的阈值设置很大程度上影响跟踪精度MOTA指标。而在使用了关键点筛选模块下,人体关键点阈值对跟踪精度MOTA指标的影响将显著性的减小,缓解了多人姿态跟踪任务中人体关键点阈值难以调整的问题。
表3关键点筛选模块在不同阈值下的性能表现
Figure BDA0003288545330000091
表4报告了本发明的方法与其他方法的结果对比,包括:LightTrack、Miracle+、OpenSV AI、STAF。从表中发现,本发明的方法在PoseTrack 2018数据集上表现出优异的结果,其中,图5为该数据集上姿态估计可视化结果,图6为姿态跟踪可视化结果。
表4本发明的方法与其他方法对比
Figure BDA0003288545330000092
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于关键点筛选的姿态跟踪方法,其特征在于,包括以下步骤:
S1:构建数据集;
S1-1:采用COCO 2017数据集进行检测和姿态估计,PoseTrack 2018数据集进行姿态估计与跟踪;
S1-2:在PoseTrack 2018数据集的基础上,构建行人重识别数据集,裁剪PoseTrack2018数据集中的所有人体框,保存为图片,对同一视频中具有id的人体框给予相同的标签,最终生成包含4613个标签,共计119656个图片的行人重识别数据集;
S2:构建基于自顶向下框架和通用型关键点筛选网络的多人姿态跟踪模型;
S3:模型训练;
S4:将待测视频输入模型,得到检测结果。
2.根据权利要求1所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述多人姿态跟踪模型包括目标检测模块、姿态估计与关键点筛选模块、匹配模块以及行人重识别模块,其中,
所述目标检测模块是基于多任务多阶段的混合级联结构模型即HTC模型,HTC模型的骨干网络使用101层的ResNeXt网络,并采用特征图金字塔网络即FPN网络、基于PCK指标的非极大抑制算法;
所述姿态估计与关键点筛选模块,采用通用型姿态估计网络,分别通过关键点预测模块和关键点筛选模块,得到每个关键点的热力图和存在概率,最终获得人体姿态;
所述匹配模块将当前帧的人体姿态与现有的人体姿态轨迹进行数据关联,采用基于边界框的交并比距离的匈牙利算法进行关联;对于丢失轨迹的人体,将其加入到所述行人重识别模块中;当出现新增的人体时,使用所述行人重识别模块找回丢失的人体轨迹。
3.根据权利要求2所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述基于PCK指标的非极大抑制算法即使用PCK距离作为两个人体框的相似度量,当确认一个人体框被保留时,删除PCK距离大于设定阈值的其他人体框。
4.根据权利要求2所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述关键点预测模块与所述关键点筛选模块采用相同的网络结构,由三层卷积核为3x3的转置卷积组成,所述关键点预测模块最终对每个关键点生成一张热力图,所述关键点筛选模块对生成的每个关键点的特征图通过全连接层得到每个关键点存在的二分类概率。
5.根据权利要求2所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述行人重识别模块采用姿态估计网络HRNet作为骨干网络来进行特征提取获得每个人的特征图,每次对现有姿态轨迹和当前帧的姿态关联,对于丢失的轨迹进行保存;对于未能成功匹配的姿态,使用所述行人重识别模块与已丢失的行人轨迹进行对比,若对比成功,则将新的姿态与丢失的姿态轨迹合并,若对比失败,则生成新的轨迹;
在训练阶段,设置每个具有相同标签的人为一个类别,获得每个人的特征图后,将其接入分类网络进行分类,使用多分类交叉熵作为其损失函数;
在姿态跟踪过程中,提取每个人的特征图和已丢失的行人进行特征匹配,使用L1距离即哈密顿距离来比较两个人的距离,当距离小于阈值时,认为是同一个人。
6.根据权利要求2所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述关键点预测模块输出的热力图还将通过二阶高斯滤波对热力图进行平滑。
7.根据权利要求1所述的一种基于关键点筛选的姿态跟踪方法,其特征在于,所述步骤S3为对模型进行分开训练,具体为:
S3-1:目标检测模块采用HTC检测器,在PoseTrack 2018验证集上mAP达到0.346,目标检测模块仅在COCO 2017数据集上训练,不在PoseTrack 2018数据集上微调;
S3-2:姿态估计与关键点筛选模块在COCO2017上进行训练,将训练好的模型在PoseTrack 2018数据集上微调,由于只有关键点被注释,通过将其所有关键点的边界框延长20%的长度以获得一个人实例的基本真值框,通过在高度或宽度上延伸边界框,人体边界框被制成固定的纵横比;
在姿态估计与关键点筛选模块的训练中,对姿态进行数据增强,包括随机缩放、随机旋转和随机翻转,采用adam作为优化器;
S3-3:行人重识别模块则是将PoseTrack 2018数据集将同一个标签的行人从原图中裁剪出来,构成新的数据集,使用经过PoseTrack 2018数据集预训练的HRNet网络作为骨干网络,训练时将HRNet网络输出的特征图通过全连接层分类,验证时候只使用HRNet网络输出的特征图,不再通过全连接层。
CN202111168498.9A 2021-09-30 2021-09-30 一种基于关键点筛选的姿态跟踪方法 Pending CN113850221A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111168498.9A CN113850221A (zh) 2021-09-30 2021-09-30 一种基于关键点筛选的姿态跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111168498.9A CN113850221A (zh) 2021-09-30 2021-09-30 一种基于关键点筛选的姿态跟踪方法

Publications (1)

Publication Number Publication Date
CN113850221A true CN113850221A (zh) 2021-12-28

Family

ID=78977690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111168498.9A Pending CN113850221A (zh) 2021-09-30 2021-09-30 一种基于关键点筛选的姿态跟踪方法

Country Status (1)

Country Link
CN (1) CN113850221A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100442A (zh) * 2022-08-23 2022-09-23 浙江大华技术股份有限公司 目标匹配方法、目标与部位匹配方法及相关设备
CN115556110A (zh) * 2022-10-25 2023-01-03 华中科技大学 基于主动半监督迁移学习的机器人位姿误差感知方法
CN115953722A (zh) * 2023-03-03 2023-04-11 阿里巴巴(中国)有限公司 一种用于视频分类任务的处理方法、装置
WO2024114500A1 (zh) * 2022-11-30 2024-06-06 天翼数字生活科技有限公司 一种人体姿态识别方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100232727A1 (en) * 2007-05-22 2010-09-16 Metaio Gmbh Camera pose estimation apparatus and method for augmented reality imaging
CN110674785A (zh) * 2019-10-08 2020-01-10 中兴飞流信息科技有限公司 一种基于人体关键点跟踪的多人姿态分析方法
CN111339903A (zh) * 2020-02-21 2020-06-26 河北工业大学 一种多人人体姿态估计方法
CN112069943A (zh) * 2020-08-25 2020-12-11 西安工业大学 基于自顶向下框架的在线多人姿态估计与跟踪方法
CN112639873A (zh) * 2018-08-28 2021-04-09 北京京东尚科信息技术有限公司 基于单对象姿态估计器的多个对象的姿态跟踪设备和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100232727A1 (en) * 2007-05-22 2010-09-16 Metaio Gmbh Camera pose estimation apparatus and method for augmented reality imaging
CN112639873A (zh) * 2018-08-28 2021-04-09 北京京东尚科信息技术有限公司 基于单对象姿态估计器的多个对象的姿态跟踪设备和方法
CN110674785A (zh) * 2019-10-08 2020-01-10 中兴飞流信息科技有限公司 一种基于人体关键点跟踪的多人姿态分析方法
CN111339903A (zh) * 2020-02-21 2020-06-26 河北工业大学 一种多人人体姿态估计方法
CN112069943A (zh) * 2020-08-25 2020-12-11 西安工业大学 基于自顶向下框架的在线多人姿态估计与跟踪方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100442A (zh) * 2022-08-23 2022-09-23 浙江大华技术股份有限公司 目标匹配方法、目标与部位匹配方法及相关设备
CN115100442B (zh) * 2022-08-23 2022-11-22 浙江大华技术股份有限公司 目标匹配方法、目标与部位匹配方法及相关设备
CN115556110A (zh) * 2022-10-25 2023-01-03 华中科技大学 基于主动半监督迁移学习的机器人位姿误差感知方法
WO2024114500A1 (zh) * 2022-11-30 2024-06-06 天翼数字生活科技有限公司 一种人体姿态识别方法及装置
CN115953722A (zh) * 2023-03-03 2023-04-11 阿里巴巴(中国)有限公司 一种用于视频分类任务的处理方法、装置
CN115953722B (zh) * 2023-03-03 2023-07-04 阿里巴巴(中国)有限公司 一种用于视频分类任务的处理方法、装置

Similar Documents

Publication Publication Date Title
Fiaz et al. Handcrafted and deep trackers: Recent visual object tracking approaches and trends
Li et al. Attentive contexts for object detection
CN108470332B (zh) 一种多目标跟踪方法及装置
CN108549846B (zh) 一种结合运动特征和头肩结构的行人检测与统计方法
Ofli et al. Sequence of the most informative joints (smij): A new representation for human skeletal action recognition
Conde et al. HoGG: Gabor and HoG-based human detection for surveillance in non-controlled environments
Zhang et al. Video anomaly detection and localization using motion-field shape description and homogeneity testing
CN113850221A (zh) 一种基于关键点筛选的姿态跟踪方法
CN109191497A (zh) 一种基于多种信息融合的实时在线多目标跟踪方法
Ogale A survey of techniques for human detection from video
US20090226044A1 (en) Real-time body segmentation system
CN105046195A (zh) 基于非对称广义高斯模型的人体行为识别方法
CN106295532B (zh) 一种视频图像中的人体动作识别方法
CN105893946A (zh) 一种正面人脸图像的检测方法
KR102132722B1 (ko) 영상 내 다중 객체 추적 방법 및 시스템
Avgerinakis et al. Activity detection using sequential statistical boundary detection (ssbd)
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法
CN110991397B (zh) 一种行进方向确定方法及相关设备
Miao et al. Application of human motion recognition technology in extreme learning machine
Yi et al. Human action recognition based on action relevance weighted encoding
Ibrahem et al. Real-time weakly supervised object detection using center-of-features localization
Adeli et al. A component-based video content representation for action recognition
CN106056627A (zh) 一种基于局部鉴别性稀疏表示的鲁棒目标跟踪方法
CN115798055B (zh) 一种基于cornersort跟踪算法的暴力行为检测方法
Zeng et al. Kernel based multiple cue adaptive appearance model for robust real-time visual tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination