CN111881773A - 一种基于位置偏移的事件相机人体姿态估计方法及*** - Google Patents

一种基于位置偏移的事件相机人体姿态估计方法及*** Download PDF

Info

Publication number
CN111881773A
CN111881773A CN202010642133.4A CN202010642133A CN111881773A CN 111881773 A CN111881773 A CN 111881773A CN 202010642133 A CN202010642133 A CN 202010642133A CN 111881773 A CN111881773 A CN 111881773A
Authority
CN
China
Prior art keywords
human body
body posture
event
image
joint point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010642133.4A
Other languages
English (en)
Other versions
CN111881773B (zh
Inventor
杨文�
贺钰洁
余磊
徐芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010642133.4A priority Critical patent/CN111881773B/zh
Publication of CN111881773A publication Critical patent/CN111881773A/zh
Application granted granted Critical
Publication of CN111881773B publication Critical patent/CN111881773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于位置偏移的事件相机人体姿态估计方法及***,该方法包括:将事件相机获取的人体姿态事件流建立图像帧,在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;基于堆叠沙漏网络建立人体姿态估计模型,基于高分辨率网络建立人体姿态修正模型,利用事件图像和热图进行训练;将待检测事件图像输入到人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的人体姿态。本发明引入事件相机来获取人体姿态图像,利用基于位置偏移的人体姿态修正网络进行修正,提高精度。

Description

一种基于位置偏移的事件相机人体姿态估计方法及***
技术领域
本发明属于计算机视觉目标检测技术领域,具体涉及一种基于位置偏移的事件相机人体姿态估计方法及***。
背景技术
人体姿态估计,是利用图像特征来估计人体各个部位在图像中的具***置,对描述人体姿态、预测人体行为等起着至关重要的作用,且在动作识别、人机交互、增强现实等领域获得了广泛应用。然而,传统相机拍摄的图像是基于固定帧率捕获的一系列静态帧,存在着大量数据冗余、运动模糊以及受光照变化影响较大等缺点,会影响人体姿态估计的精度。
发明内容
本发明解决的技术问题是提供一种基于位置偏移的事件相机人体姿态估计方法及***,解决传统相机拍摄的图像存在数据冗余、运动模糊以及受光照变化影响较大等缺点,而影响人体姿态估计精度的问题。
本发明采用的技术方案为:一种基于位置偏移的事件相机人体姿态估计方法,包括以下步骤:
S1、将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;
S2、基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练;
S3、基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练;
S4、将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的2D人体姿态。
进一步地,在每帧事件图像的时间窗内,求取所有关节点的平均位置具体包括:
S101、将每帧事件图像时间窗内的事件流建立图像帧,得到多张子事件图像;
S102、计算每张子事件图像中所有关节点的位置;
S103、分别求取每个关节点的平均位置,作为该帧事件图像中关节点的位置。
进一步地,建立图像帧具体为:将一段时间里相应的事件进行累积,并以二进制图像进行表达。
进一步地,利用2D人体姿态得到所有关节点的二维坐标,利用投影矩阵将关节点二维坐标转换为三维坐标,得到3D人体姿态。
进一步地,利用事件相机获取多视角的人体姿态事件流,进而得到多视角的2D人体姿态,通过多视角的2D人体姿态得到3D人体姿态。
进一步地,通过多视角的2D人体姿态得到3D人体姿态具体包括:
S501、利用多视角的2D人体姿态得到所有关节点的二维坐标;
S502、利用投影矩阵将每个视角的关节点二维坐标转换为三维坐标,利用投影矩阵得到每个视角下该事件相机的3D位置;
S503、对每个类别的关节点,每个视角下该事件相机的3D位置和该视角下该类别关节点的三维坐标形成一条射线,多个视角得到多条射线;
S504、利用最小二乘法,从该类别关节点的三维坐标中,找出距离该类别关节点的多条射线最近的点,即为该类别关节点的3D位置,进而得到3D人体姿态。
进一步地,利用投影矩阵将关节点二维坐标转换为三维坐标具体如下:
Figure BDA0002571535190000021
式中,(u,v)为关节点二维坐标,(X,Y,Z)为关节点三维坐标,p为投影矩阵。
进一步地,利用投影矩阵得到每个视角下该事件相机的3D位置具体如下:
P=(Q|c4)
C=Q-1c4
式中,Q为3×3的矩阵,c4为P矩阵的第四列,C为相机位置。
进一步地,创建每个关节点的热图具体包括:为每个关节点创建一个标签图像,将关节点位置的像素设置为1,其余像素点设置为0,使用高斯模糊对每个标签图像进行平滑处理,得到对应的热图。
本发明还提供一种用于实现上述权利要求的基于位置偏移的事件相机人体姿态估计方法的基于位置偏移的事件相机人体姿态估计***,包括:
关节点热图模块,用于将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;
人体姿态估计模块,用于基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练;
人体姿态修正模块,用于基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练;
人体姿态检测模块,用于将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的人体姿态。
本发明的有益效果是:本发明引入具有低延时、动态范围高等优点的动态视觉传感器DVS-事件相机来获取人体姿态图像,能够解决传统相机拍摄的图像存在数据冗余、运动模糊以及受光照变化影响较大等缺点而影响人体姿态估计精度的问题;本发明由人体姿态估计网络得到初始的人体姿态,为了减小人体姿态估计网络下采样带来的偏差,减少错估漏估的情况,将基于位置偏移的人体姿态修正网络作为后端处理措施,由初始人体姿态加上偏移值得到最终的人体姿态,能够得到较高的精度。
进一步地,本发明可以利用事件相机获取多视角的人体姿态事件流,进而得到多视角的2D人体姿态,利用多视角的2D人体姿态得到所有关节点的二维坐标,利用投影矩阵将每个视角的关节点二维坐标转换为三维坐标,并利用最小二乘法从该类别关节点的三维坐标中找出距离该类别射线最近的点,作为该类别关节点的3D位置,提高了估计的准确度。
附图说明
图1为本发明基于位置偏移的事件相机人体姿态估计方法流程图。
图2为本发明事件相机的事件流和建帧示意图。
图3为本发明提出的基于位置偏移的人体姿态估计网络结构图。
图4为本发明实施例的人体姿态修正网络的结构图。
图5为本发明实施例的人体姿态修正网络参数变化示意图。
图6为本发明可视化实验结果图。
具体实施方式
下面将结合附图对本发明的基于位置偏移的事件相机人体姿态估计方法及***作进一步的说明:
本发明实施例的基于位置偏移的事件相机人体姿态估计方法,如图1所示,包括:
S1、将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图。
将事件相机产生的事件流建立图像帧,如图2所示,建帧的方法一般是通过将一段时间内的事件累积起来,最终以二进制图像进行表达。为了拥有用于训练的输入-输出数据对,用于训练的关节标签需要在时间上与事件图像对齐。将每帧事件图像的初始和最终事件的时间戳之间视为一时间窗,在每帧事件图像的时间窗内,求取所有关节点的平均位置,具体包括:
S101、将每帧事件图像时间窗内的事件流建立图像帧,得到多张子事件图像;
S102、计算每张子事件图像中所有关节点的位置;
S103、分别求取每个关节点的平均位置,作为该帧事件图像中关节点的位置。
根据关节点的个数,创建J个标签图像(每个关节一个,初始化为零),对于每个2D关节,将标签位置的像素设置为1。最后,使用2个像素半径的高斯模糊对每个标签图像进行平滑处理。对于每个事件图像和每个关节都重复此过程,则得到所有关节的热图标签。
S2、基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练。
将生成的事件图像和对应的热图标签送入堆叠沙漏网络里进行监督训练。卷积层和最大池化层用于将特征降到很小的分辨率。在每个最大池化阶段,网络产生分支,一路作为当前的“副本”,一路对池化前的分辨率特征进行卷积。在特征图降低到最小分辨率后,网络开始进行上采样,并通过将“副本”与上采样后的特征相加,得到不同层的信息。这样层层叠加之后,最后一个特征图既保留了所有层的信息,又与输入的原图大小相同。本发明共堆叠了2个沙漏结构,采用中继监督策略,每个沙漏结构都会输出预测热图,并参与最终的loss计算。通过均方差损失函数来使得网络的输出和标签的分布尽可能一致。
S3、基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练。
本发明的网络的整体框架如图3所示,利用训练完成的权重进行网络的前向传播可以得到结构化网络的输出,这就是初始的人体姿态。将初始人体姿态以及事件图像串联输入到人体姿态修正网络进行监督训练,此时的标签为每个关节点与真实关节点位置的x、y偏移。人体姿态修正网络基于高分辨率网络(High-Resolution Net)构建,网络结构如图4所示。Start模块负责初步特征提取与降尺度,每到transition模块,网络分支出更低分辨率的子网络,在stage模块进行特征提取,并将所有子网的特征融合,最后的final layer层进行通道转换。网络假设输入的尺寸为(H,W,C),其中W和H分别为图像的宽和高,C=k+1为通道数,k为关节点个数,1为事件图像的通道数。经过多个并行子网模块、特征提取模块以及特征融合模块,最终得到(H/4,W/4,2k)的输出。网络的特征图参数变化如图5所示。
S4、将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的人体姿态。
利用堆叠沙漏网络预测出的初始人体姿态,以及人体姿态修正网络预测的x,y偏移,将其上采样到原来的尺寸并相加,得到最终的关节点位置。将各个关节点按照人体骨架连接,可以得到2D的人体姿态。
进一步地,可以利用2D人体姿态得到所有关节点的二维坐标,进而利用投影矩阵将关节点二维坐标转换为三维坐标,得到3D人体姿态。对于每一台事件相机,在其对应视角拍摄到的关节点坐标是二维坐标(u,v),则二维与三维坐标之间存在着转换关系,利用投影矩阵将关节点二维坐标转换为三维坐标具体如下:
Figure BDA0002571535190000051
式中,(u,v)为关节点二维坐标,(X,Y,Z)为关节点三维坐标,p为投影矩阵。
为了提高3D人体姿态的估计精度,可以利用事件相机获取多视角的人体姿态事件流,进而得到多视角的2D人体姿态,通过多视角的2D人体姿态得到3D人体姿态。通过多视角的2D人体姿态得到3D人体姿态具体包括:
S501、利用多视角的2D人体姿态得到所有关节点的二维坐标;
S502、利用投影矩阵将每个视角的关节点二维坐标转换为三维坐标,利用投影矩阵得到每个视角下该事件相机的3D位置;
S503、对每个类别的关节点,每个视角下该事件相机的3D位置和该视角下该类别关节点的三维坐标能够形成一条射线,假设有n个视角,每个类别的三维关节点坐标的总个数也为n,每个相机的位置和该相机得到的该类别三维关节点就可以确定一条射线,n个视角就可以得到n条射线;
S504、利用最小二乘法,从该类别关节点的三维坐标中,找出距离该类别关节点的n条射线最近的点,即为该类别关节点的3D位置,进而得到3D人体姿态。
其中,利用投影矩阵得到每个视角下该事件相机的3D位置具体如下:
P=(Q|c4)
C=Q-1c4
式中,Q为3×3的矩阵,c4为P矩阵的第四列,C为相机位置。
本发明还提供一种用于实现上述基于位置偏移的事件相机人体姿态估计方法的基于位置偏移的事件相机人体姿态估计***,包括:
关节点热图模块,用于将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;
人体姿态估计模块,用于基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练;
人体姿态修正模块,用于基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练;
人体姿态检测模块,用于将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的人体姿态。
本发明最后提供一个人体姿态估计实验,用于证明本发明基于位置偏移的事件相机人体姿态估计方法及***的优越性。在实验过程中,选用事件相机人体姿态数据集DHP19进行实验,共包括4个视角的事件数据。实验结果如图6所示,第一列代表相机2视角的2D人体姿态估计结果,第二列代表相机3视角的2D人体姿态估计结果,第三列代表3D人体姿态估计结果。对人体姿态估计精度的测量,本方法采用的分析指标为:每个关节位置平均误差(MPJPE,Mean Per Joint Position Error),即2D MPJPE(pixel)与3D MPJPE(mm)。实验结果如表1所示。由预测精度的定量分析和定性分析可知,本方法在人体姿态估计上具有较高的精度。
表1 DHP19数据集上人体姿态估计算法的实验结果
Method Camera 2 Δ Camera 3 Δ MPJPE 3D Δ
DHP19 Net 7.55 - 6.95 - 82.97 -
Pose ResNet 6.15 -1.40 5.80 -1.15 68.06 -14.91
HRNet 5.49 -2.06 5.17 -1.78 61.10 -21.87
SHN 5.19 -2.36 4.82 -2.13 56.58 -26.39
SHN+PoseRefiner 4.90 -2.65 4.65 -2.30 56.02 -26.95
说明书中未阐述的部分均为现有技术或公知常识。本实施例仅用于说明该发明,而不用于限制本发明的范围,本领域技术人员对于本发明所做的等价置换等修改均认为是落入该发明权利要求书所保护范围内。
本领域的技术人员容易理解,以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于位置偏移的事件相机人体姿态估计方法,其特征在于,包括以下步骤:
S1、将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;
S2、基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练;
S3、基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练;
S4、将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的2D人体姿态。
2.根据权利要求1所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,在每帧事件图像的时间窗内,求取所有关节点的平均位置具体包括:
S101、将每帧事件图像时间窗内的事件流建立图像帧,得到多张子事件图像;
S102、计算每张子事件图像中所有关节点的位置;
S103、分别求取每个关节点的平均位置,作为该帧事件图像中关节点的位置。
3.根据权利要求1或2所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,建立图像帧具体为:将一段时间里相应的事件进行累积,并以二进制图像进行表达。
4.根据权利要求1所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,利用2D人体姿态得到所有关节点的二维坐标,利用投影矩阵将关节点二维坐标转换为三维坐标,得到3D人体姿态。
5.根据权利要求1所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,利用事件相机获取多视角的人体姿态事件流,进而得到多视角的2D人体姿态,通过多视角的2D人体姿态得到3D人体姿态。
6.根据权利要求5所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,通过多视角的2D人体姿态得到3D人体姿态具体包括:
S501、利用多视角的2D人体姿态得到所有关节点的二维坐标;
S502、利用投影矩阵将每个视角的关节点二维坐标转换为三维坐标,利用投影矩阵得到每个视角下该事件相机的3D位置;
S503、对每个类别的关节点,每个视角下该事件相机的3D位置和该视角下该类别关节点的三维坐标形成一条射线,多个视角得到该类别关节点的多条射线;
S504、利用最小二乘法,从该类别关节点的三维坐标中,找出距离该类别关节点的多条射线最近的点,即为该类别关节点的3D位置,进而得到3D人体姿态。
7.根据权利要求4或6所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,利用投影矩阵将关节点二维坐标转换为三维坐标具体如下:
Figure FDA0002571535180000021
式中,(u,v)为关节点二维坐标,(X,Y,Z)为关节点三维坐标,p为投影矩阵。
8.根据权利要求7所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,利用投影矩阵得到每个视角下该事件相机的3D位置具体如下:
P=(Q|c4)
C=Q-1c4
式中,Q为3×3的矩阵,c4为P矩阵的第四列,C为相机位置。
9.根据权利要求1所述的基于位置偏移的事件相机人体姿态估计方法,其特征在于,创建每个关节点的热图具体包括:为每个关节点创建一个标签图像,将关节点位置的像素设置为1,其余像素点设置为0,使用高斯模糊对每个标签图像进行平滑处理,得到对应的热图。
10.一种用于实现权利要求1所述的基于位置偏移的事件相机人体姿态估计方法的基于位置偏移的事件相机人体姿态估计***,其特征在于,包括:
关节点热图模块,用于将事件相机获取的人体姿态事件流建立图像帧,得到多帧事件图像;在每帧事件图像的时间窗内,求取所有关节点的平均位置,并创建每个关节点的热图;
人体姿态估计模块,用于基于堆叠沙漏网络建立人体姿态估计模型,利用事件图像和对应的关节点热图对人体姿态估计模型进行训练;
人体姿态修正模块,用于基于高分辨率网络建立人体姿态修正模型,将所有关节点的热图和对应的事件图像串联输入到人体姿态修正模型进行训练;
人体姿态检测模块,用于将待检测事件图像输入到训练好的人体姿态估计模型,得到初始人体姿态;将初始人体姿态和待检测事件图像串联输入到训练好的人体姿态修正模型,得到关节点的位置偏移特征图;将位置偏移特征图上采样并与初始人体姿态相加,得到最终的人体姿态。
CN202010642133.4A 2020-07-06 2020-07-06 一种基于位置偏移的事件相机人体姿态估计方法及*** Active CN111881773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010642133.4A CN111881773B (zh) 2020-07-06 2020-07-06 一种基于位置偏移的事件相机人体姿态估计方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010642133.4A CN111881773B (zh) 2020-07-06 2020-07-06 一种基于位置偏移的事件相机人体姿态估计方法及***

Publications (2)

Publication Number Publication Date
CN111881773A true CN111881773A (zh) 2020-11-03
CN111881773B CN111881773B (zh) 2023-08-25

Family

ID=73150192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010642133.4A Active CN111881773B (zh) 2020-07-06 2020-07-06 一种基于位置偏移的事件相机人体姿态估计方法及***

Country Status (1)

Country Link
CN (1) CN111881773B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287867A (zh) * 2020-11-10 2021-01-29 上海依图网络科技有限公司 一种多摄像头的人体动作识别方法及装置
CN112800860A (zh) * 2021-01-08 2021-05-14 中电海康集团有限公司 一种事件相机和视觉相机协同的高速抛撒物检测方法和***
CN113705445A (zh) * 2021-08-27 2021-11-26 深圳龙岗智能视听研究院 一种基于事件相机的人体姿态识别的方法及设备
CN113903051A (zh) * 2021-07-23 2022-01-07 南方科技大学 一种基于dvs相机数据的人体姿态检测方法及终端设备
CN114241232A (zh) * 2021-11-23 2022-03-25 电子科技大学 基于多任务学习的摄影***识别和体表解剖标志检测方法
CN114529605A (zh) * 2022-02-16 2022-05-24 青岛联合创智科技有限公司 一种基于多视图融合的人体三维姿态估计方法
WO2022115991A1 (en) * 2020-12-01 2022-06-09 Intel Corporation Incremental 2d-to-3d pose lifting for fast and accurate human pose estimation
CN114758205A (zh) * 2022-04-24 2022-07-15 湖南大学 用于3d人体姿态估计的多视角特征融合方法及***
CN116310408A (zh) * 2022-11-29 2023-06-23 北京大学 一种建立事件相机与帧相机数据关联的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376571A (zh) * 2018-08-03 2019-02-22 西安电子科技大学 基于变形卷积的人体姿态估计方法
CN110427877A (zh) * 2019-08-01 2019-11-08 大连海事大学 一种基于结构信息的人体三维姿态估算的方法
CN110702111A (zh) * 2018-07-09 2020-01-17 三星电子株式会社 使用双事件相机的同时定位与地图创建(slam)
CN111008583A (zh) * 2019-11-28 2020-04-14 清华大学 一种利用肢体特征辅助的行人和骑车人姿态估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110702111A (zh) * 2018-07-09 2020-01-17 三星电子株式会社 使用双事件相机的同时定位与地图创建(slam)
CN109376571A (zh) * 2018-08-03 2019-02-22 西安电子科技大学 基于变形卷积的人体姿态估计方法
CN110427877A (zh) * 2019-08-01 2019-11-08 大连海事大学 一种基于结构信息的人体三维姿态估算的方法
CN111008583A (zh) * 2019-11-28 2020-04-14 清华大学 一种利用肢体特征辅助的行人和骑车人姿态估计方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CI-JYUN LIANG 等: "A vision-based marker-less pose estimation system for articulated construction robots", ELSEVIER *
STEVEN SCHWARCZ 等: "3D Human Pose Estimation from Deep Multi-View 2D Pose", ARXIV *
王浩 等: "基于堆叠深度卷积沙漏网络的步态识别", 计算机工程与应用 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112287867B (zh) * 2020-11-10 2021-06-08 上海依图网络科技有限公司 一种多摄像头的人体动作识别方法及装置
CN112287867A (zh) * 2020-11-10 2021-01-29 上海依图网络科技有限公司 一种多摄像头的人体动作识别方法及装置
WO2022115991A1 (en) * 2020-12-01 2022-06-09 Intel Corporation Incremental 2d-to-3d pose lifting for fast and accurate human pose estimation
CN112800860A (zh) * 2021-01-08 2021-05-14 中电海康集团有限公司 一种事件相机和视觉相机协同的高速抛撒物检测方法和***
CN112800860B (zh) * 2021-01-08 2023-10-17 中电海康集团有限公司 一种事件相机和视觉相机协同的高速抛撒物检测方法和***
CN113903051A (zh) * 2021-07-23 2022-01-07 南方科技大学 一种基于dvs相机数据的人体姿态检测方法及终端设备
CN113903051B (zh) * 2021-07-23 2022-12-27 南方科技大学 一种基于dvs相机数据的人体姿态检测方法及终端设备
CN113705445A (zh) * 2021-08-27 2021-11-26 深圳龙岗智能视听研究院 一种基于事件相机的人体姿态识别的方法及设备
CN113705445B (zh) * 2021-08-27 2023-08-04 深圳龙岗智能视听研究院 一种基于事件相机的人体姿态识别的方法及设备
CN114241232A (zh) * 2021-11-23 2022-03-25 电子科技大学 基于多任务学习的摄影***识别和体表解剖标志检测方法
CN114529605A (zh) * 2022-02-16 2022-05-24 青岛联合创智科技有限公司 一种基于多视图融合的人体三维姿态估计方法
CN114529605B (zh) * 2022-02-16 2024-05-24 青岛联合创智科技有限公司 一种基于多视图融合的人体三维姿态估计方法
CN114758205A (zh) * 2022-04-24 2022-07-15 湖南大学 用于3d人体姿态估计的多视角特征融合方法及***
CN116310408A (zh) * 2022-11-29 2023-06-23 北京大学 一种建立事件相机与帧相机数据关联的方法及装置
CN116310408B (zh) * 2022-11-29 2023-10-13 北京大学 一种建立事件相机与帧相机数据关联的方法及装置

Also Published As

Publication number Publication date
CN111881773B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN111881773B (zh) 一种基于位置偏移的事件相机人体姿态估计方法及***
CN110490919B (zh) 一种基于深度神经网络的单目视觉的深度估计方法
CN105160703B (zh) 一种使用时域视觉传感器的光流计算方法
CN112861729B (zh) 一种基于伪深度图引导的实时深度补全方法
WO2019029099A1 (zh) 基于图像梯度联合优化的双目视觉里程计算方法
CN113139989B (zh) 一种基于深度学习的粒子图像测速方法与装置
CN106875437B (zh) 一种面向rgbd三维重建的关键帧提取方法
CN109767459B (zh) 新型眼底图配准方法
CN110276768B (zh) 图像分割方法、图像分割装置、图像分割设备及介质
KR100951309B1 (ko) 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법
CN111612825B (zh) 基于光流与多尺度上下文的图像序列运动遮挡检测方法
CN114529605A (zh) 一种基于多视图融合的人体三维姿态估计方法
CN112906675B (zh) 一种固定场景中的无监督人体关键点检测方法及***
CN112561807B (zh) 一种基于卷积神经网络的端到端径向畸变校正方法
CN113570658A (zh) 基于深度卷积网络的单目视频深度估计方法
CN113762177A (zh) 实时人体3d姿态估计方法、装置、计算机设备和存储介质
CN111860651A (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN114548606B (zh) 一种气旋强度预测模型的构建方法及气旋强度预测方法
CN115661862A (zh) 一种基于压力视觉卷积模型的坐姿样本集自动标注方法
CN113838102A (zh) 一种基于各向异性稠密卷积的光流确定方法和***
CN111160362B (zh) 一种fast特征均匀化提取与帧间特征误匹配去除方法
CN102592308B (zh) 基于小波变换的单相机视频三维重建方法
CN111274901A (zh) 一种基于深度门控递归单元的手势深度图像连续检测方法
CN114399547B (zh) 一种基于多帧的单目slam鲁棒初始化方法
CN111274902B (zh) 用多头掩模均衡融和单元的手势深度图像连续检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant