CN113205595A - 一种3d人体姿态估计模型的构建方法及其应用 - Google Patents
一种3d人体姿态估计模型的构建方法及其应用 Download PDFInfo
- Publication number
- CN113205595A CN113205595A CN202110554484.4A CN202110554484A CN113205595A CN 113205595 A CN113205595 A CN 113205595A CN 202110554484 A CN202110554484 A CN 202110554484A CN 113205595 A CN113205595 A CN 113205595A
- Authority
- CN
- China
- Prior art keywords
- human body
- time
- space
- posture estimation
- body posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种3D人体姿态估计模型的构建方法及其应用,属于人体姿态估计领域;其中,3D人体姿态估计模型包括M个特征提取模块和与各特征提取模块相连的特征融合模块;本发明充分利用了人体在空间结构上的多尺度特征以及时间维度上关节点的长期运动特征,通过M个特征提取模块分别在多个不同感受野大小上提取输入的人体2D骨架时序数据在时间维度上的运动特征和在空间维度上的空间结构特征,得到多个不同尺度的融合时空特征,并通过特征融合模块对不同尺度的融合时空特征进行融合,有效的提升了模型对于人体2D骨架序列的特征提取能力,提高了3D姿态估计网络的预测精度。
Description
技术领域
本发明属于人体姿态估计领域,更具体地,涉及一种3D人体姿态估计模型的构建方法及其应用。
背景技术
3D人体姿态估计是指通过RGB图像或视频,对于人体关节点的3D坐标进行预测,相比于传统的2D姿态估计方法,由于3D姿态具备立体的空间结构信息,在行为识别、人机交互等场景下都有重要应用价值。
当前基于视频的3D人体姿态估计方法大致可以分为两类,一类采用端到端方式,利用深度学习网络直接从输入的RGB视频中预测出人体3D关节点位置;另一类则采用两阶段方式,首先利用已有的2D姿态估计网络从输入视频中提取出人体的2D骨架,然后利用连续的多帧2D骨架进行3D关节点预测。
对于端到端的3D姿态估计方法,由于其输入是二维图像矩阵,所以网络在学习过程中可以获得更多的颜色、纹理等对于关节点恢复有用的信息,但是相对的当输入视频的场景过于复杂或是目标和背景区分不大时,端到端的方式也更容易受到颜色、光照等因素的影响。并且端到端的网络在训练时需要有3D骨架关节点的真实坐标作为训练监督,由于此类数据非常难以获取,当前可供使用的数据集较少场景也较为单一,导致此类网络精度和泛化能力都较差。而对于两阶段的3D姿态估计方法,由于当前2D姿态估计网络已经非常成熟,具备较高的精度和较强的泛化能力,通过2D姿态估计网络从RGB图像中估计出人体的2D骨架,消除掉图像中背景、光照等因素的影响,然后构建2D骨架到3D骨架的预测网络,实现3D人体姿态估计,这个过程也使得模型整体对于不同场景具备了一定的泛化能力。尽管如此,当前两阶段的3D姿态估计方法也仍然存在诸多问题,例如当前已有的基于单目视频的两阶段3D姿态估计网络往往需要大量骨架帧作为输入才能获得较为准确的3D人体姿态,导致模型在姿态估计速度上较慢。且当前网络往往过度关注于时间或空间单一维度的特征,3D姿态估计的精度较低。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供一种基于时空特性融合的3D人体姿态估计方法,用以解决采用现有技术进行3D姿态估计精确度较低的技术问题。
为了实现上述目的,第一方面,本发明提供了一种3D人体姿态估计模型的构建方法,包括以下步骤:
S1、搭建3D人体姿态估计模型;其中,3D人体姿态估计模型包括M个特征提取模块和与各特征提取模块相连的特征融合模块;M大于或等于2;
M个特征提取模块用于对输入的人体2D骨架时序数据在M个不同感受野大小上进行时域卷积和图卷积,以提取其在时间维度上的运动特征和在空间维度上的空间结构特征,从而得到M个不同尺度的时空特征;人体2D骨架时序数据为Q帧人体各关节点的2D位置数据;Q大于或等于2;
特征融合模块用于将M个不同尺度的时空特征进行融合,得到人体各关节点3D位置的预测值;
S2、以最小化人体各关节点3D位置的预测值与真实值之间的差异以及最小化估计到的左右对称的关节长度的差异为目标,采用预采集好的训练集训练3D人体姿态估计模型;其中,训练集中的训练样本包括2D骨架时序数据及其对应的各关节点的3D位置数据。
进一步优选地,第一个特征提取模块包括级联的第一时域卷积单元、图卷积单元和第二时域卷积单元;
第M个特征提取模块的输入端与第M-1个特征提取模块中的图卷积单元的输出端相连;第M个特征提取模块包括级联的第一时域卷积单元、图池化单元和图卷积单元;
当M大于或等于3时,第i个特征提取模块的输入端与第i-1个特征提取模块中的图卷积单元的输出端相连;第i个特征提取模块包括级联的第一时域卷积单元、图池化单元、图卷积单元和第二时域卷积单元;i=2,3,…,M-1。
进一步优选地,第一个特征提取模块用于对输入的人体2D骨架时序数据依次进行时域卷积、图卷积和时域卷积操作,得到第一个尺度的时空特征,输出至特征融合模块;并将其中进行图卷积操作后的中间时空特征输出至下一个特征提取模块;
第M个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化和图卷积操作,得到第M个尺度的时空特征,并输出至特征融合模块;
当M大于或等于3时,第i个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化、图卷积和时域卷积操作,得到第i个尺度的时空特征,输出至特征融合模块;并将其中进行图卷积后的中间时空特征发送至第i+1个特征提取模块。
进一步优选地,第M个特征提取模块中的图池化方法包括:直接对中间时空特征进行时域卷积后的结果进行Topk池化操作;
当M大于或等于3时,第i个特征提取模块中的图池化方法包括:将人体关节按照四肢、头部和躯干进行分组,对每组关节所对应的中间时空特征进行时域卷积后的结果分别进行Topk池化操作;
其中,k取值为1。
进一步优选地,特征融合模块用于从j=M开始进行时空特征融合操作;具体为:对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合,并将第j-1个尺度的时空特征更新为融合后的结果;令j=j-1,重复上述时空特征融合操作,直至j=1,得到更新后的第一个尺度的时空特征后对其进行图卷积操作,得到人体各关节点3D位置的预测值。
进一步优选地,对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合的方法包括:对第j个尺度的时空特征进行上采样后执行图卷积操作,使得其大小与第j-1个尺度的时空特征的大小相同后,将二者进行加和。
进一步优选地,训练集的采集方法包括:
采集人体姿态视频;其中,人体姿态视频为在同一视角下对同一个人体拍摄的多种姿态视频;
从人体姿态视频中抽取Q帧人体姿态图像,并按照时间先后顺序进行排列;抽取多次后,得到多组包含Q帧人体姿态图像的图像数据;
对各组图像数据,分别按帧进行2D姿态估计,得到多组人体2D骨架时序数据;
对各组人体2D骨架时序数据,分别标注其所对应的人体各关节点的3D位置,构成训练集。
进一步优选地,采用预训练好的HR-Net网络进行2D姿态估计;
上述HR-Net网络采用人体不同姿势下的图像及其对应的人体各关节点的2D位置构成的2D姿态估计训练集进行训练。
第二方面,本发明提供了一种3D人体姿态估计方法,包括:
对输入的Q帧人体姿态图像分别进行2D姿态估计,得到人体2D骨架时序数据;
将人体2D骨架时序数据输入到采用上述3D人体姿态估计模型的构建方法所构建的3D人体姿态估计模型中,得到人体各关节点3D位置的预测值。
第三方面,本发明还提供一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现如上所述的任一种3D人体姿态估计模型的构建方法和/或如上所述的3D人体姿态估计方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
1、本发明提供了一种3D人体姿态估计模型的构建方法,充分利用了人体在空间结构上的多尺度特征以及时间维度上关节点的长期运动特征,分别在多个不同感受野大小上提取输入的人体2D骨架时序数据在时间维度上的运动特征和在空间维度上的空间结构特征,得到多个不同尺度的融合时空特征,并对不同尺度的融合时空特征进行融合,有效提升了模型对于人体2D骨架序列的特征提取能力,提高了3D姿态估计网络的预测精度。
2、本发明所提供的3D人体姿态估计模型的构建方法,所构建的模型包含图卷积网络层、时域卷积网络层、图池化层和上采样层五种子网络层,构建得到从局部到全局的多层网络结构,通过时域卷积操作捕获骨架关节点在时间维度上的运动趋势,同时通过图池化和图卷积操作得到不同尺度的空间结构特征,能够很好的融合不同尺度的时空特性并有效提升3D姿态估计的精度。
3、本发明所提供的3D人体姿态估计模型的构建方法,在进行图池化操作时采用分组Topk图池化方法,将人体关节按照四肢、头部和躯干进行分组后进行Top1池化操作,可以使得模型在对关节点进行下采样的过程中尽量减少关节点的信息丢失,且该分组方式能够很好的维持人体的结构特性,使得模型在获得不同尺度特征的同时减少姿态语义信息丢失。
4、本发明所提供的3D人体姿态估计模型的构建方法,通过上采样操作从局部到全局对不同尺度特征进行融合,能够大大提高预测的精确度。
5、本发明所提供的3D人体姿态估计方法,由于同时引入了时间和空间特征,最大程度的挖掘了2D骨架序列的时空信息,相比于现有技术,在单目视频应用场景下只需输入少量的2D骨架数据帧即可得到精确度较高的3D人体姿态预测结果,速度较快。
附图说明
图1为本发明实施例1提供的3D人体姿态估计模型的构建方法的流程框图;
图2为本发明实施例1提供的3D人体姿态估计模型的结构示意图;
图3为本发明实施例1提供的将人体形状表示成17个关节点后所构成的骨架示意图;
图4为本发明实施例1提供的将人体关节进行分组Top1池化的示意图;
图5为本发明实施例1提供的对图4中所得的示意图进行Top1池化的示意图;
图6为本发明实施例1提供的Topk池化方法的流程图;
图7为本发明实施例1提供的采用3D姿态估计模型所得的3D人体姿态估计结果示意图;其中,(a)、(b)、(c)、(d)分别为不同人体姿态图像及其对应的3D人体姿态估计结果;
图8为本发明实施例2提供的3D人体姿态估计方法应用于普通单目RGB摄像机的实施流程图;
图9为本发明实施例2提供的HR-Net网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例1、
一种3D人体姿态估计模型的构建方法,适用于单目视频应用场景,如图1所示,包括以下步骤:
S1、搭建3D人体姿态估计模型;3D人体姿态估计模型包括M个特征提取模块和与各特征提取模块相连的特征融合模块;M大于或等于2;
M个特征提取模块用于对输入的人体2D骨架时序数据在M个不同感受野大小上进行时域卷积和图卷积,以提取其在时间维度上的运动特征和在空间维度上的空间结构特征,从而得到M个不同尺度的时空特征;人体2D骨架时序数据为Q帧人体各关节点的2D位置数据;Q大于或等于2;优选地,为了在执行时域卷积过程中使得每个子卷积层更好的学习前后帧信息,Q取值为3的倍数最佳,本实施例中Q取值为27。
本实施例中,第一个特征提取模块包括级联的第一时域卷积单元、图卷积单元和第二时域卷积单元;第M个特征提取模块的输入端与第M-1个特征提取模块中的图卷积单元的输出端相连;第M个特征提取模块包括级联的第一时域卷积单元、图池化单元和图卷积单元;且当M大于或等于3时,第i个特征提取模块的输入端与第i-1个特征提取模块中的图卷积单元的输出端相连;第i个特征提取模块包括级联的第一时域卷积单元、图池化单元、图卷积单元和第二时域卷积单元;i=2,3,…,M-1。
其中,第一个特征提取模块用于对输入的人体2D骨架时序数据依次进行时域卷积、图卷积和时域卷积操作,得到第一个尺度的时空特征,输出至特征融合模块;并将其中进行图卷积操作后的中间时空特征输出至下一个特征提取模块;第M个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化和图卷积操作,得到第M个尺度的时空特征,并输出至特征融合模块;且当M大于或等于3时,第i个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化、图卷积和时域卷积操作,得到第i个尺度的时空特征,输出至特征融合模块;并将其中进行图卷积后的中间时空特征发送至第i+1个特征提取模块。优选地,本实施例中,第M个特征提取模块中的图池化方法包括:直接对中间时空特征进行时域卷积后的结果进行Topk池化操作;当M大于或等于3时,第i个特征提取模块中的图池化方法包括:将人体关节按照四肢、头部和躯干进行分组,对每组关节所对应的中间时空特征进行时域卷积后的结果分别进行Topk池化操作;其中,k取值为1。
进一步地,特征融合模块用于从j=M开始进行时空特征融合操作;具体为:对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合,并将第j-1个尺度的时空特征更新为融合后的结果;令j=j-1,重复上述时空特征融合操作,直至j=1,得到更新后的第一个尺度的时空特征后对其进行图卷积操作,得到人体各关节点的3D位置的预测值。优选地,对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合的方法包括:对第j个尺度的时空特征进行上采样后执行图卷积操作,使得其大小与第j-1个尺度的时空特征的大小相同后,将二者进行加和。
S2、以最小化人体各关节点3D位置的预测值与真实值之间的差异以及最小化估计到的左右对称的关节长度的差异为目标,采用预采集好的训练集训练3D人体姿态估计模型;其中,训练集中的训练样本包括2D骨架时序数据及其对应的各关节点的3D位置数据。
具体地,上述训练集的采集方法包括:采集人体姿态视频;其中,人体姿态视频为在同一视角下对同一个人体拍摄的多种姿态视频;从人体姿态视频中抽取Q帧人体姿态图像,并按照时间先后顺序进行排列;抽取多次后,得到多组包含Q帧人体姿态图像的图像数据;对各组图像数据,分别按帧进行2D姿态估计,得到多组人体2D骨架时序数据;对各组人体2D骨架时序数据,分别标注其所对应的人体各关节点的3D位置,构成训练集。
优选地,为了在实验时方便与前人数据进行比较,在对3D人体姿态估计模型进行训练之前,对3D人体姿态估计模型中的训练集中的训练样本进行归一化处理,即2D骨架时序数据及其对应的各关节点的3D位置数据均进行了归一化处理。除此之外,为了便于进行姿态表示,可以将髋关节定义为中心关节点标定为零点,同时将其它关节点坐标表示为与零点的相对位置坐标。
具体地,3D人体姿态估计模型的损失函数由以下两项组成:第一项为三维姿态损失,表示人体各关节点的3D位置的预测值与真实值之间的差异;本实施例中,通过计算人体各关节点的3D位置的预测值与真实值之间的均值平方差得到二者之间的差异,具体表示为:其中,N为人体关节点个数;为人体第i个关节点的3D位置的预测值;为人体第i个关节点的3D位置的真实值。第二项为对称性损失,表示估计到的左右对称的关节长度的差异,是指利用人体结构的对称性,惩罚姿态估计结果中左右对称的关节长度不一致的情况;具体表示为: 其中,m为人体姿态中有对称关系的关节数量;为第j对关节中左边关节的骨长,为第j对关节中右边关节的骨长,基于人体关节点的3D位置的预测值计算得到。需要说明的是,基于人体的对称骨骼关系,m取值为6。
综上,3D人体姿态估计模型的损失函数为:
L=αLp+βLs
其中,α、β为标准化因子;Lp为三维姿态损失;Ls表示对称性损失。
优选地,采用预训练好的HR-Net网络进行2D姿态估计;其中,HR-Net网络采用人体不同姿势下的图像及其对应的人体各关节点的2D位置构成的2D姿态估计训练集进行训练。
为了进一步说明本发明所提供的3D人体姿态估计模型的构建方法,下面以M=3为例进行说明;具体地,3D人体姿态估计模型的结构示意图如图2所示;本实施例中,模型整体分为三层,共包含五种子网络层,分别为图卷积网络层、时域卷积网络层、图池化层和上采样层;其中每一层中均包括一个特征融合模块,共有3个特征融合模块。3D人体姿态估计模型的输入为人体2D骨架时序数据所构成的三维数组(Q,N,C),即多帧二维姿态特征;其中,Q为人体2D骨架时序数据的帧数,N为人体关节点的个数,C为每个关节点的坐标维度。在时间维度上,每一个特征融合模块都对输入的三维数组执行了多次时域卷积操作,将多帧二维姿态特征进行聚合,用于捕获骨架关节点在时间维度上的运动趋势,即运动特征。另外,第二个特征融合模块和第三个特征融合模块中均包括图池化层,通过图池化操作可以得到不同的感受野;故在空间维度上,3D人体姿态估计模型可以在3个不同感受野大小上进行图卷积,获得三种不同尺度的空间结构特征;进而包含运动特征和不同尺度的空间特征的高维向量,即得到3个不同尺度的时空特征。在特征融合模块通过上采样操作对包含了运动特征和不同尺度的空间特征的高维向量进行聚合,然后将其映射回三维空间生成人体的三维骨架结构,即人体各关节点的3D位置。其中,图卷积单元中的图卷积网络层的个数以及时域卷积单元中的时域卷积网络层的个数可以根据具体需求进行调整。其中,图卷积单元中的图卷积网络层有多个时,输入到下一个特征提取模块中的中间时空特征可以为其中某一个图卷积网络层的输出结果。
进一步地,本发明中的图卷积方式优选为语义图卷积,通过在传统的图卷积公式中引入可学习的权重参数矩阵,网络可以学习到不同关节点对于其它身体部件的影响程度,从而获得更加深层次的结构语义特性,其数学表达形式为:其中表示的就是可学习的权重矩阵。
本发明中的时域卷积方式优选为空洞卷积方式,此时,时域卷积网络为时域空洞卷积网络;它的优点在于可以通过调整3D人体姿态估计模型的时域卷积网络层和膨胀因子灵活的改变3D人体姿态估计模型在时间维度上的感受野,捕获不同尺度的关节点运动特性,其数学表达形式为: 并且与传统的基于RNN的特性提取方式不同,时域空洞卷积网络可以通过卷积核跨层共享减少网络的内存消耗,在性能上也更加优秀。
需要说明的是,在进行图池化操作时,为了在图池化过程中尽量不损失关节点的信息,同时保留人体的空间拓扑结构,本发明采用一种分组Topk图池化方法,使得在图池化过程尽可能保留原始图结构的信息。具体地,如图3所示,本实施例中,将人体形状表示成17个关节点构成的骨架,分别为髋、右髋、右膝、右脚、左髋、左膝、左脚、躯干中部、胸部、颈部、头、左肩、左手肘、左手、右肩、右手肘、右手。此时,人体关节点的个数N为17;人体2D骨架时序数据中的每个关节点的坐标维度C为2,对应为xl,yl,表示第l个关节点的X,Y轴坐标。此时,第2个特征提取模块中的图池化方法包括:将人体关节按照四肢、头部和躯干进行分组,对每组关节所对应的中间时空特征进行时域卷积后的结果分别进行Topk池化操作;其中,k取值为1。如图4所示,此时人体关节被分为6组;头和颈部为第一组,左肩、左手肘和左手为第二组,右肩、右手肘和右手为第三组,右髋、右膝和右脚为第四组,左髋、左膝和左脚为第五组,髋、躯干中部、胸部为第六组。第3个特征提取模块中的图池化方法包括:直接对中间时空特征进行时域卷积后的结果进行Topk池化操作,其中,k同样取值为1;此时,如图5所示,上述第一组、第二组、第三组、第四组、第五组和第六组为一组,进行Top1池化操作。
Topk池化方法的目标是在特征损失最小的情况下将图中的节点数降为k个。具体地,如图6所示,整个过程分为五个阶段,在输入阶段,对于每组关节所对应的中间时空特征G,Xl和Al分别表示G的特征矩阵和邻接矩阵,其中,表示G中包含有N个关节点,每个关节点包含坐标维度为C。在投影阶段,是一个可训练的投影向量,将其与特征矩阵X做矩阵乘法得到矩阵y的每个元素都表示一个标量值得分,用于记录对应的节点经过向量p投影可以保留的信息量,得分越高表明该节点保留的信息越多。Topk节点选择阶段,网络对y中的元素按数值大小进行排序,选择最大的k个元素并记录它们的索引,根据索引对Xl和Al进行下采样生成新的特征矩阵和邻接矩阵Al+1。此外,为了使得投影向量p可以通过反向传播进行训练,网络通过门控将特征矩阵与进行元素乘积操作,避免p产生离散输出,同时获得最终的特征矩阵Xl+1。整个图池化过程的数学表达形式为:
y=Xlpl/||pl||,
idx=rank(y,k),
Al+1=Al(idx,idx),
Topk池化可以使得模型在对关节点进行下采样的过程中尽量减少关节点的信息丢失,分组方式则很好的维持了人体的结构特性,两者融合使得模型在获得不同尺度特征的同时减少了姿态语义信息丢失。
上采样层则采用了图池化的逆过程,将聚合了多个低维节点特征的高维节点按照分组重新恢复成多个,其数学表达形式为:Xl+1=distribute(0N×C,Xl,idx),其中表示当前图的特征矩阵,idx表示池化过程中留存下来的节点索引值,0N×C是一个全为0的特征矩阵。通过distribute操作,Xl将它的k行特征向量按照idx索引值取代特征矩阵0N×C中的对应行,生成新的特征矩阵
通过以上五种子网络层构建的从局部到全局的三层网络结构,模型能够很好的融合不同尺度的时空特性并有效提升3D姿态估计的精度。
进一步地,为了更好的说明本发明提出的3D姿态估计模型进行3D姿态估计时的性能,本发明在现实场景视频以及Human3.6M数据集上对模型分别进行如下定性和定量的分析:
a、定性分析:如图7所示为采用3D姿态估计模型所得的3D人体姿态估计结果示意图;其中,(a)、(b)、(c)、(d)分别为不同人体姿态图像及其对应的3D人体姿态估计结果;四组图像都来源于同一段网络视频,左边表示输入的RGB图像帧,右边表示3D人体姿态估计结果。从视觉效果上看,无论人体正面面对摄像机还是侧身面对摄像机,模型都能较为精确的提取出3D骨架,并且即使图像中出现强光干扰,模型也能具备较强的3D姿态估计能力。
b、定量分析:如表1所示为分别采用本发明所提供的3D姿态估计模型以及现有的Cai、Pavllo、Liu、Lin提出的网络在不同人体姿态下进行3D人体姿态估计所得的精确度结果。且为了最小化2D姿态检测器的影响,本次测试使用2D骨架真实坐标作为输入,评估标准选用MPJEP中的协议1,将预测出的人体姿态与真实人体姿态在髋关节点处对齐后,直接计算预测关节点位置与真实关节点位置之间的平均欧氏距离;其中,F表示输入的2D估计帧数量,Direct、Discuss、Eating、Greet、Phone、Photo、Pose、Purch、Sitting、SitingD、Smoke、Wait、WalkD、Walk、WalkT分别表示不同人体行为,Avg(mm)表示的是对以上所有的这些人体行为的估计误差求误差均值的结果。从表1可以看出,与现有网络相比,本发明所提供的3D姿态估计模型实现了较高的姿态估计精度。相对于Cai和Pavllo等提出的单一依赖空间特性或时间特性的网络,本网络在姿态估计精度上提升了3.2mm,证明了同时提取时空特性能够有效的提升姿态估计精度。而相比于Liu和Lin提出的方法,本发明所提供的3D姿态估计模型在输入帧的数量上更具优势,由于同时引入了时间和空间特征,最大程度的挖掘了2D骨架序列的时空信息,所以只需在输入少量2D估计帧便可得到与其相近的估计结果,姿态估计速度较快。
表1
人体行为 | Caietal(F=3) | Pavlloetal(F=243) | Liuetal(F=243) | Linetal(F=50) | 本发明(F=27) |
Direct. | 32.9 | - | 30.5 | 30.1 | 32.7 |
Discuss. | 38.7 | - | 33.1 | 33.7 | 35.2 |
Eating | 32.9 | - | 27.6 | 28.7 | 31.3 |
Greet | 37 | - | 31 | 31 | 33.7 |
Phone | 37.3 | - | 31.8 | 33.7 | 35.3 |
Photo | 44.8 | - | 37 | 40.1 | 39.5 |
Pose | 38.7 | - | 33.2 | 33.8 | 35.9 |
Purch. | 36.1 | - | 30 | 28.5 | 32.1 |
Sitting | 41 | - | 35.7 | 38.6 | 39.4 |
SitingD. | 45.6 | - | 37.7 | 40.8 | 40.8 |
Smoke | 36.8 | - | 31.4 | 32.4 | 34.8 |
Wait | 37.7 | - | 29.8 | 31.7 | 31.5 |
WalkD | 37.7 | - | 31.7 | 33.8 | 34.1 |
Walk | 29.5 | - | 24 | 25.3 | 26.2 |
WalkT | 31.6 | - | 25.7 | 24.3 | 26.9 |
Avg(mm). | 37.2 | 37.2 | 31.4 | 32.8 | 34 |
本发明充分利用人体2D骨架序列的时间和空间特性,建立了更为准确的2D姿态到3D姿态之间的预测模型,提升了3D姿态估计的精度。
实施例2、
一种3D人体姿态估计方法,包括:
对输入的Q帧人体姿态图像分别进行2D姿态估计,得到人体2D骨架时序数据;
将人体2D骨架时序数据输入到采用上述3D人体姿态估计模型的构建方法所构建的3D人体姿态估计模型中,得到人体各关节点3D位置的预测值。
本实施例中,进行2D姿态估计的方法与实施例1的训练集中获取人体各节点的2D位置的方法相同。
进一步地,为了进一步说明书上述3D人体姿态估计方法,下面结合一个具体场景进行详述:
本实施例中的3D人体姿态估计方法应用于普通单目RGB摄像机,如图8所示为本发明提供的3D人体姿态估计方法应用于普通单目RGB摄像机的实施流程图,其实现目标是使单目视频,在不借助相机内部参数和任何其他辅助设备的情况下,对人体的3维姿态进行实时预测。具体包括如下步骤:
1)、图像读取:通过单目摄像机读取一帧RGB格式的图像;
2)、图像判定:判断读取到的图像是否为空,若为空则说明视频已经读取完毕,相应的可以结束流程,若不为空则表明依然有图像帧需要处理,则继续执行步骤3);
3)、2D人体姿态估计:将人体形状表示成如图3所示的17个关节点构成的骨架,对于给定的2D人体姿态定义为:P2D=[x0,y0,x1,y1,…,x16,y16],P2D∈R1×34表示P2D是一个1行34列的矩阵,其中xi,yi表示第i个关节点的X,Y轴坐标。将2D姿态估计模型HR-Net在Human3.6M数据集上进行预训练,然后以RGB图像作为输入,使用HR-Net预测出图像中人体的2D骨架P2D;
具体地,HR-Net(High ResolutionNetwork)网络结构如图9所示。使用Human3.6M数据集中的s1,s5,s6,s7,s8五个训练集对HR-Net网络进行预训练。首先使用Human3.6M数据集提供的检测器估计出人的中心位置,然后在中心周围裁剪出一个440x440像素的正方形,并将其调整为256x256像素大小。为了优化整个3D姿态估计过程的速度,这里选则使用HRNet-W32,相比于HRNet-W48,它的子网宽度更小,参数更少,模型更为轻量级。在训练时,全部使用HR-Net网络的默认参数,Batch Size大小为3,学习率为2.5×10-4,模型在训练数据集上进行15000次迭代。
将从步骤2)中读取的RGB图像送入按上述方式预训练过的HR-Net网络中,提取出人体的2D姿态P2D,P2D∈R1×34是一个1行34列的矩阵,相邻的每两列表示一个关节点的x,y轴坐标;
4)、归一化处理:为了在实验时方便与前人数据进行比较,在对3D人体姿态估计模型进行训练之前,对3D人体姿态估计模型中的训练集中的训练样本进行归一化处理,即2D骨架时序数据及其对应的各关节点的3D位置数据均进行了归一化处理。具体归一化方式为:为了与Human3.6M标准协议一致,需要对2D输入坐标和3D输出坐标都减去平均值并除以标准差;除此之外,为了便于进行姿态表示,将髋关节定义为中心关节点标定为零点,同时将其它关节点坐标表示为与零点的相对位置坐标: i∈[0,16],i≠0;故在进行3D人体姿态估计时,同样需要采用相同的方法对所得的2D姿态P2D进行归一化处理;
6)、数组阈值判断:判断数组中存储的2D骨架帧数量是否达到阈值数量Q,若未达到阈值数量Q说明不满足3D姿态估计模型的输入条件,则回到步骤1)继续读取下一帧图像进行2D姿态估计并存入数组中,若达到阈值数量Q则表明满足了3D姿态估计网络的输入条件,转至步骤7);
7)、3D人体姿态估计:将数组中的连续多帧2D骨架 表示第i帧2D骨架,输入到上述预训练好的3D姿态估计模型中,生成第k-1帧2D骨架对应的3D骨架 表示一个1行51列的矩阵,其中,xi,yi,zi表示第i个关节点的X,Y,Z轴坐标。
相关技术手段同实施例1,这里不做赘述。
实施例3、
一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现实施例1中所述的3D人体姿态估计模型的构建方法和/或如实施例2中所述的3D人体姿态估计方法。
相关技术手段同实施例1和实施例2,这里不做赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种3D人体姿态估计模型的构建方法,其特征在于,包括以下步骤:
S1、搭建3D人体姿态估计模型;所述3D人体姿态估计模型包括M个特征提取模块和与各所述特征提取模块相连的特征融合模块;M大于或等于2;
M个所述特征提取模块用于对输入的人体2D骨架时序数据在M个不同感受野大小上进行时域卷积和图卷积,以提取其在时间维度上的运动特征和在空间维度上的空间结构特征,从而得到M个不同尺度的时空特征;所述人体2D骨架时序数据为Q帧人体各关节点的2D位置数据;Q大于或等于2;
所述特征融合模块用于将所述M个不同尺度的时空特征进行融合,得到人体各关节点3D位置的预测值;
S2、以最小化人体各关节点3D位置的预测值与真实值之间的差异以及最小化估计到的左右对称的关节长度的差异为目标,采用预采集好的训练集训练所述3D人体姿态估计模型;其中,所述训练集中的训练样本包括2D骨架时序数据及其对应的各关节点的3D位置数据。
2.根据权利要求1所述的3D人体姿态估计模型的构建方法,其特征在于,第一个特征提取模块包括级联的第一时域卷积单元、图卷积单元和第二时域卷积单元;
第M个特征提取模块的输入端与第M-1个特征提取模块中的图卷积单元的输出端相连;所述第M个特征提取模块包括级联的第一时域卷积单元、图池化单元和图卷积单元;
当M大于或等于3时,第i个特征提取模块的输入端与第i-1个特征提取模块中的图卷积单元的输出端相连;所述第i个特征提取模块包括级联的第一时域卷积单元、图池化单元、图卷积单元和第二时域卷积单元;i=2,3,…,M-1。
3.根据权利要求2所述的3D人体姿态估计模型的构建方法,其特征在于,所述第一个特征提取模块用于对输入的人体2D骨架时序数据依次进行时域卷积、图卷积和时域卷积操作,得到第一个尺度的时空特征,输出至所述特征融合模块;并将其中进行图卷积操作后的中间时空特征输出至下一个特征提取模块;
所述第M个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化和图卷积操作,得到第M个尺度的时空特征,并输出至所述特征融合模块;
当M大于或等于3时,所述第i个特征提取模块用于对输入的中间时空特征依次执行时域卷积、图池化、图卷积和时域卷积操作,得到第i个尺度的时空特征,输出至所述特征融合模块;并将其中进行图卷积后的中间时空特征发送至第i+1个特征提取模块。
4.根据权利要求3所述的3D人体姿态估计模型的构建方法,其特征在于,所述第M个特征提取模块中的图池化方法包括:直接对中间时空特征进行时域卷积后的结果进行Topk池化操作;
当M大于或等于3时,所述第i个特征提取模块中的图池化方法包括:将人体关节按照四肢、头部和躯干进行分组,对每组关节所对应的中间时空特征进行时域卷积后的结果分别进行Topk池化操作;
其中,k取值为1。
5.根据权利要求1-4任意一项所述的3D人体姿态估计模型的构建方法,其特征在于,所述特征融合模块用于从j=M开始进行时空特征融合操作;具体为:对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合,并将第j-1个尺度的时空特征更新为融合后的结果;令j=j-1,重复上述时空特征融合操作,直至j=1,得到更新后的第一个尺度的时空特征后对其进行图卷积操作,得到人体各关节点3D位置的预测值。
6.根据权利要求5所述的3D人体姿态估计模型的构建方法,其特征在于,所述对第j个尺度的时空特征与第j-1个尺度的时空特征进行融合的方法包括:对所述第j个尺度的时空特征进行上采样后执行图卷积操作,使得其大小与所述第j-1个尺度的时空特征的大小相同后,将二者进行加和。
7.根据权利要求1所述的3D人体姿态估计模型的构建方法,其特征在于,所述训练集的采集方法包括:
采集人体姿态视频;其中,所述人体姿态视频为在同一视角下对同一个人体拍摄的多种姿态视频;
从所述人体姿态视频中抽取Q帧人体姿态图像,并按照时间先后顺序进行排列;抽取多次后,得到多组包含Q帧人体姿态图像的图像数据;
对各组图像数据,分别按帧进行2D姿态估计,得到多组人体2D骨架时序数据;
对各组人体2D骨架时序数据,分别标注其所对应的人体各关节点的3D位置,构成所述训练集。
8.根据权利要求7所述的3D人体姿态估计模型的构建方法,其特征在于,采用预训练好的HR-Net网络进行2D姿态估计;
所述HR-Net网络采用人体不同姿势下的图像及其对应的人体各关节点的2D位置构成的2D姿态估计训练集进行训练。
9.一种3D人体姿态估计方法,其特征在于,包括:
对输入的Q帧人体姿态图像分别进行2D姿态估计,得到人体2D骨架时序数据;
将所述人体2D骨架时序数据输入到采用权利要求1-8任意一项所述的3D人体姿态估计模型的构建方法所构建的3D人体姿态估计模型中,得到人体各关节点3D位置的预测值。
10.一种机器可读存储介质,其特征在于,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现权利要求1-8任意一项所述的3D人体姿态估计模型的构建方法和/或权利要求9所述的3D人体姿态估计方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554484.4A CN113205595B (zh) | 2021-05-21 | 2021-05-21 | 一种3d人体姿态估计模型的构建方法及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554484.4A CN113205595B (zh) | 2021-05-21 | 2021-05-21 | 一种3d人体姿态估计模型的构建方法及其应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113205595A true CN113205595A (zh) | 2021-08-03 |
CN113205595B CN113205595B (zh) | 2022-03-29 |
Family
ID=77032236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110554484.4A Active CN113205595B (zh) | 2021-05-21 | 2021-05-21 | 一种3d人体姿态估计模型的构建方法及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205595B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537393A (zh) * | 2021-08-09 | 2021-10-22 | 南通大学 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
CN113850236A (zh) * | 2021-11-29 | 2021-12-28 | 深圳市优必选科技股份有限公司 | 3d姿态估计方法、装置和计算机设备及存储介质 |
CN114663593A (zh) * | 2022-03-25 | 2022-06-24 | 清华大学 | 三维人体姿态估计方法、装置、设备及存储介质 |
CN116071785A (zh) * | 2023-03-06 | 2023-05-05 | 合肥工业大学 | 一种基于多维空间交互的人体姿态估计方法 |
CN116665309A (zh) * | 2023-07-26 | 2023-08-29 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
WO2023197938A1 (zh) * | 2022-04-14 | 2023-10-19 | 华为技术有限公司 | 动态场景处理方法、神经网络模型训练方法和装置 |
CN118097785A (zh) * | 2024-03-07 | 2024-05-28 | 广西师范大学 | 人体姿态的分析方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476155A (zh) * | 2020-04-07 | 2020-07-31 | 南京邮电大学 | 基于时空图卷积神经网络与特征融合的人体动作分类方法 |
US20210073525A1 (en) * | 2019-09-11 | 2021-03-11 | Naver Corporation | Action Recognition Using Implicit Pose Representations |
CN112712019A (zh) * | 2020-12-28 | 2021-04-27 | 湖南大学 | 一种基于图卷积网络的三维人体姿态估计方法 |
-
2021
- 2021-05-21 CN CN202110554484.4A patent/CN113205595B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210073525A1 (en) * | 2019-09-11 | 2021-03-11 | Naver Corporation | Action Recognition Using Implicit Pose Representations |
CN111476155A (zh) * | 2020-04-07 | 2020-07-31 | 南京邮电大学 | 基于时空图卷积神经网络与特征融合的人体动作分类方法 |
CN112712019A (zh) * | 2020-12-28 | 2021-04-27 | 湖南大学 | 一种基于图卷积网络的三维人体姿态估计方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113537393A (zh) * | 2021-08-09 | 2021-10-22 | 南通大学 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
CN113537393B (zh) * | 2021-08-09 | 2023-08-22 | 南通大学 | 一种基于改进Transformer的黑暗场景三维人体姿态估计算法 |
CN113850236A (zh) * | 2021-11-29 | 2021-12-28 | 深圳市优必选科技股份有限公司 | 3d姿态估计方法、装置和计算机设备及存储介质 |
CN113850236B (zh) * | 2021-11-29 | 2022-04-15 | 深圳市优必选科技股份有限公司 | 3d姿态估计方法、装置和计算机设备及存储介质 |
CN114663593A (zh) * | 2022-03-25 | 2022-06-24 | 清华大学 | 三维人体姿态估计方法、装置、设备及存储介质 |
WO2023197938A1 (zh) * | 2022-04-14 | 2023-10-19 | 华为技术有限公司 | 动态场景处理方法、神经网络模型训练方法和装置 |
CN116071785A (zh) * | 2023-03-06 | 2023-05-05 | 合肥工业大学 | 一种基于多维空间交互的人体姿态估计方法 |
CN116665309A (zh) * | 2023-07-26 | 2023-08-29 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
CN116665309B (zh) * | 2023-07-26 | 2023-11-14 | 山东睿芯半导体科技有限公司 | 一种步姿特征识别方法、装置、芯片及终端 |
CN118097785A (zh) * | 2024-03-07 | 2024-05-28 | 广西师范大学 | 人体姿态的分析方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN113205595B (zh) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113205595B (zh) | 一种3d人体姿态估计模型的构建方法及其应用 | |
CN109387204B (zh) | 面向室内动态环境的移动机器人同步定位与构图方法 | |
CN108921893B (zh) | 一种基于在线深度学习slam的图像云计算方法及*** | |
Yang et al. | Unsupervised learning of geometry from videos with edge-aware depth-normal consistency | |
CN108596974B (zh) | 动态场景机器人定位建图***及方法 | |
CN107492121B (zh) | 一种单目深度视频的二维人体骨骼点定位方法 | |
WO2019174378A1 (zh) | 一种基于深度预测和增强子网络的高质量深度估计方法 | |
CN110059598B (zh) | 基于姿态关节点的长时程快慢网络融合的行为识别方法 | |
CN109658445A (zh) | 网络训练方法、增量建图方法、定位方法、装置及设备 | |
CN109377530A (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN111968217A (zh) | 基于图片的smpl参数预测以及人体模型生成方法 | |
CN109087243A (zh) | 一种基于深度卷积生成对抗网络的视频超分辨率生成方法 | |
CN112232134B (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN112232106B (zh) | 一种二维到三维人体姿态估计方法 | |
CN110827304B (zh) | 一种基于深度卷积网络与水平集方法的中医舌像定位方法和*** | |
CN108171249B (zh) | 一种基于rgbd数据的局部描述子学习方法 | |
CN112767467B (zh) | 一种基于自监督深度学习的双图深度估计方法 | |
CN114036969B (zh) | 一种多视角情况下的3d人体动作识别算法 | |
CN113610046B (zh) | 一种基于深度视频联动特征的行为识别方法 | |
CN116012950A (zh) | 一种基于多重心时空注意图卷积网络的骨架动作识别方法 | |
CN115841697A (zh) | 一种基于骨架和图像数据融合的动作识别方法 | |
CN111833400B (zh) | 一种相机位姿定位方法 | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN114758152A (zh) | 一种基于注意力机制和邻域一致性的特征匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |