CN111291687B - 一种3d人体动作标准性判识的方法 - Google Patents

一种3d人体动作标准性判识的方法 Download PDF

Info

Publication number
CN111291687B
CN111291687B CN202010085665.2A CN202010085665A CN111291687B CN 111291687 B CN111291687 B CN 111291687B CN 202010085665 A CN202010085665 A CN 202010085665A CN 111291687 B CN111291687 B CN 111291687B
Authority
CN
China
Prior art keywords
equal
human body
joint point
camera
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010085665.2A
Other languages
English (en)
Other versions
CN111291687A (zh
Inventor
纪刚
周萌萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN202010085665.2A priority Critical patent/CN111291687B/zh
Publication of CN111291687A publication Critical patent/CN111291687A/zh
Application granted granted Critical
Publication of CN111291687B publication Critical patent/CN111291687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种3D人体动作标准性判识的方法,包括如下步骤:(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;(4)根据最终计算出的3D人体姿态信息进行动作标准型判识。本发明所公开的方法能够对不同角度下的目标体,对复杂的人体姿态做到准确判识,具备实时性。

Description

一种3D人体动作标准性判识的方法
技术领域
本发明涉及一种3D人体动作标准性判识的方法。
背景技术
目前,基于姿态估计算法提取人体关节点从而进行人体动作标准性评判的技术很多,包括:
(1)基于单目相机的2D姿态估计算法,分为自底而上和自上而下两种计算方法,自底而上的检测方法,首先检测到关节点再判识是否属于统一目标体,这种方法具有实时性,对单张图像能够快速响应,但检测精度有所牺牲;自上而下的检测方法,首先会检测出目标体,根据目标体再提取关节点,检测精度较高,但实时性不足。
这类做法存在共同的缺点,即目标体侧面存在关节点遮挡情况,存在误判和错误的关节点连接情况,导致动作的标准性打分错误,提取精度受限于人体角度,无法投入使用。
(2)基于单目相机的3D姿态估计算法,首先虚拟化一个相对的3D网格空间,然后在3D网格空间坐标中对输入的2D图像进行3D关节点推理。这类做法虽然改进了2D人体姿态估计的不足,但仍然无法满足实际需求,且依赖于2D姿态的精度,且只能在相对坐标系下,得到的人体动作的评判。
(3)基于多目相机的3D姿态估计算法依赖于2D姿态估计精度,对于复杂和存在遮挡的2D姿态精度改善仍然有限。
由此可见,目前,根据人体姿态估计对人体动作标准性进行判识的方法存在一定的缺陷。
发明内容
为解决上述技术问题,本发明提供了一种3D人体动作标准性判识的方法,以达到能够对不同角度下的目标体,对复杂的人体姿态做到准确判识,具备实时性的目的。
为达到上述目的,本发明的技术方案如下:
一种3D人体动作标准性判识的方法,包括如下步骤:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识;
所述步骤(1)具体如下:
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为
Figure GDA0003851265090000021
1≤i′≤N,N表示高分辨率子网络特征层的数量,
Figure GDA0003851265090000022
为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;
Figure GDA0003851265090000023
为特征矩阵的通道信息;
定义低分辨率子网络特征响应矩阵集合为
Figure GDA0003851265090000024
l1,l2分别表示两个低分辨率子网络结构,3≤i″≤N,7≤i″′≤N,
Figure GDA0003851265090000025
Figure GDA0003851265090000026
分别为两个低分辨率子网络的特征响应子矩阵;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
Figure GDA0003851265090000027
分别为两个低分辨率子网络的通道信息;
当i″,i″′为偶数时,两个低分辨率子网络
Figure GDA0003851265090000028
Figure GDA0003851265090000029
通过反卷积操作与高分辨率子网络融合,融合公式为:
Figure GDA0003851265090000031
Figure GDA0003851265090000032
Figure GDA0003851265090000033
Figure GDA0003851265090000034
对通道
Figure GDA0003851265090000035
进行反卷积的转换矩阵,
Figure GDA0003851265090000036
Figure GDA0003851265090000037
对通道
Figure GDA0003851265090000038
进行反卷积的转换矩阵;
高分辨率子网络的特征响应子矩阵的递推公式为:
Figure GDA0003851265090000039
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵
Figure GDA00038512650900000310
求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
Figure GDA00038512650900000311
Figure GDA00038512650900000312
为求解第k个关节点位置置信度矩阵的权重参数,
Figure GDA00038512650900000313
为偏移量,
Figure GDA00038512650900000314
表示融合网络的第N层
Figure GDA00038512650900000315
通道的特征响应子矩阵;
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
Figure GDA00038512650900000316
Figure GDA00038512650900000317
其中,(μx,ky,k)为关节点k的真实像素坐标位置,σx,ky,k为目标输出的方差,均取值1.5;
(iv)通过Hi,k(x,y)对
Figure GDA00038512650900000318
求解梯度进行权值参数更新,
Figure GDA00038512650900000319
Figure GDA00038512650900000320
表示第N层高分辨率子网络特征层的数量,参数更新公式如下:
Figure GDA0003851265090000041
Figure GDA0003851265090000042
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
(vi)根据HeadMapi得到相机Ci下图像Ii(x,y,c)的2D关节点的位置,表示为:
Figure GDA0003851265090000043
其中,
Figure GDA0003851265090000044
表示人体关节点位置置信度矩阵Hi,k中最大值对应的像素坐标;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja};
所述步骤(2)具体如下:
(i)对多个多目相机进行对齐操作:将世界坐标系转换成相机坐标系,然后将相机坐标系转换成像素坐标系,得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作;
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的
Figure GDA0003851265090000045
通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
Figure GDA0003851265090000046
其中,
Figure GDA0003851265090000047
表示多目相机Ci第k关节点的位置,θ表示多目相机Cj检测到的第k关节点的位置的融合权值矩阵,
Figure GDA0003851265090000048
是转换到相机Ci像素坐标系下的像素坐标;
更新所有相机像素坐标系下的融合2D关节点位置:
Figure GDA0003851265090000051
Figure GDA0003851265090000052
上述方案中,所述步骤(3)具体如下:
(i)设3D人体姿态信息表达为
Figure GDA0003851265090000053
l3D=[l1,l2,...,ln′...,lK-1],其中,
Figure GDA0003851265090000054
表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
Figure GDA0003851265090000055
Figure GDA0003851265090000056
均在N3数量的网格g中,1≤t0,t1,t2≤Ng,t0表示网格深度,t1表示网格宽度,t2表示网格高度,Ng初始值取16;
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示
Figure GDA0003851265090000057
l3D(1)=[l1,l2,...,ln′...,lK-1],s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
(iii)采用迭代算法,对每一个关节点
Figure GDA0003851265090000058
1≤k≤K围绕该关节点当前位置,离散化其所在网格
Figure GDA0003851265090000059
为一个2×2×2的局部网格,即令Ng=2,重复上一步中PSM方法,获取更新的3D姿态估计
Figure GDA00038512650900000510
l3D(2)=[l1,l2,...,ln′...,lK-1],随着迭代,人体3D姿态得到细化,V的边长s更新为
Figure GDA00038512650900000511
精度提高,迭代次数iter_3D根据样本复杂情况而定。
上述方案中,所述步骤(4)具体如下:
根据最终估算出的3D人体姿态信息:
Figure GDA0003851265090000061
l3D(iter_3D)=[l1,l2,...,ln′...,lK-1],进行动作标准性判识,具体方法为:
(i)设人体姿态标准动作角度集合为:
Figure GDA0003851265090000062
Figure GDA0003851265090000063
表示任意两条边ln′,ln″的夹角,其中,
Figure GDA0003851265090000064
1≤n′,n″≤K-1,根据公式:
Figure GDA0003851265090000065
求解各边角度
Figure GDA0003851265090000066
(ii)建立高斯混合模型
Figure GDA0003851265090000067
Figure GDA0003851265090000068
表示以
Figure GDA0003851265090000069
为均值的高斯分布,1≤n′,n″≤K-1,则
Figure GDA00038512650900000610
服从标准正态分布,根据标准正态分布表查的置信度为95%的Y0.025,Y0.0975求取
Figure GDA00038512650900000611
值:
Figure GDA00038512650900000612
(iii)以高斯混合模型
Figure GDA00038512650900000613
为基准,对待评价的人体3D姿态判断姿态动作
Figure GDA00038512650900000614
打分,得到最终的动作标准得分与总得分集合:
Figure GDA00038512650900000615
具体为判断
Figure GDA00038512650900000616
是否满足分布
Figure GDA00038512650900000617
如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分
Figure GDA00038512650900000618
Figure GDA00038512650900000619
1≤n′,n″≤K-1,通常,ωii=1;
score即为当前动作标准性分数,分解动作标准性得分为
Figure GDA00038512650900000620
通过上述技术方案,本发明提供的3D人体动作标准性判识的方法具有如下有益效果:
(1)对不同角度下的目标体,对复杂的人体姿态做到准确判识;
(2)服从世界坐标系定位,对多目相机进行标定,根据对齐后的坐标系可以准确的融合不同视角下的特征,提高2D姿态精度。
(3)具备实时性,常见硬件资源即可运行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种人体关节点图模型;
图2为世界坐标系与相机坐标系间的相互转换图;
图3为相机坐标系与像素坐标系的转换关系示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种3D人体动作标准性判识的方法,具体方法如下:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为
Figure GDA0003851265090000071
1≤i′≤N,N表示高分辨率子网络特征层的数量,
Figure GDA0003851265090000072
为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;
Figure GDA0003851265090000073
为特征矩阵的通道信息;
定义低分辨率子网络特征响应矩阵集合为
Figure GDA0003851265090000081
l1,l2分别表示两个低分辨率子网络结构,3≤i″≤N,7≤i″′≤N,
Figure GDA0003851265090000082
Figure GDA0003851265090000083
分别为两个低分辨率子网络的特征响应子矩阵;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
Figure GDA0003851265090000084
分别为两个低分辨率子网络的通道信息;
当i″,i″′为偶数时,两个低分辨率子网络
Figure GDA0003851265090000085
Figure GDA0003851265090000086
通过反卷积操作与高分辨率子网络融合,融合公式为:
Figure GDA0003851265090000087
Figure GDA0003851265090000088
Figure GDA0003851265090000089
Figure GDA00038512650900000810
对通道
Figure GDA00038512650900000811
进行反卷积的转换矩阵,
Figure GDA00038512650900000812
Figure GDA00038512650900000813
对通道
Figure GDA00038512650900000814
进行反卷积的转换矩阵;
高分辨率子网络的特征响应子矩阵的递推公式为:
Figure GDA00038512650900000815
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵
Figure GDA00038512650900000816
求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,如图1所示,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
Figure GDA00038512650900000817
Figure GDA00038512650900000818
为求解第k个关节点位置置信度矩阵的权重参数,
Figure GDA00038512650900000819
为偏移量,
Figure GDA00038512650900000820
表示融合网络的第N层
Figure GDA0003851265090000091
通道的特征响应子矩阵;
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
Figure GDA0003851265090000092
Figure GDA0003851265090000093
其中,(μx,ky,k)为关节点k的真实像素坐标位置,σx,ky,k为目标输出的方差,均取值1.5;
(iv)通过Hi,k(x,y)对
Figure GDA0003851265090000094
求解梯度进行权值参数更新,
Figure GDA0003851265090000095
Figure GDA0003851265090000096
表示第N层高分辨率子网络特征层的数量,参数更新公式如下:
Figure GDA0003851265090000097
Figure GDA0003851265090000098
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
(vi)根据HeadMapi得到相机Ci下图像Ii(x,y,c)的2D关节点的位置,表示为:
Figure GDA0003851265090000099
其中,
Figure GDA00038512650900000910
表示人体关节点位置置信度矩阵Hi,k中最大值对应的像素坐标;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja}。
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(i)对多个多目相机进行对齐操作:
根据论文A Flexible New Technique for Camera Calibration进行多目相机的对齐操作,如图2所示,R为3×3的正交单位矩阵,t为平移向量,R,t为相机的外参数,用于表示世界坐标系和相机坐标系之间的距离。
如图3所示,平面π称为相机的像平面,点Oc称为摄像机中心(光心),f为相机的焦距,以Oc为端点做垂直于像平面的射线,交像平面与点p,则射线Ocp称为光轴(主轴),p点为相机的主点,且有,
Figure GDA0003851265090000101
(xc,yc,zc)表示相机坐标系坐标。
根据图2和图3得到世界坐标系坐标Pw(xw,yw,zw)转换到像素坐标系坐标P1(u,v)的转换过程如下所示:
Figure GDA0003851265090000102
Figure GDA0003851265090000104
据此得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作。
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的
Figure GDA0003851265090000103
通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
Figure GDA0003851265090000111
其中,
Figure GDA0003851265090000112
表示多目相机Ci第k关节点的位置,θ表示多目相机Cj检测到的第k关节点的位置的融合权值矩阵,
Figure GDA0003851265090000113
是转换到相机Ci像素坐标系下的像素坐标;
更新所有相机像素坐标系下的融合2D关节点位置:(11)
Figure GDA0003851265090000114
Figure GDA0003851265090000115
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(i)设3D人体姿态信息表达为
Figure GDA0003851265090000116
l3D=[l1,l2,...,ln′...,lK-1],其中,
Figure GDA0003851265090000117
表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
Figure GDA0003851265090000118
Figure GDA0003851265090000119
均在N3数量的网格g中,1≤t0,t1,t2≤Ng,t0表示网格深度,t1表示网格宽度,t2表示网格高度,Ng初始值取16;
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示
Figure GDA00038512650900001110
s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
(iii)采用迭代算法,对每一个关节点
Figure GDA0003851265090000121
1≤k≤K围绕该关节点当前位置,离散化其所在网格
Figure GDA0003851265090000122
为一个2×2×2的局部网格,即令Ng=2,重复上一步中PSM方法,获取更新的3D姿态估计
Figure GDA0003851265090000123
l3D(2)=[l1,l2,...,ln′...,lK-1],随着迭代,人体3D姿态得到细化,V的边长s更新为
Figure GDA0003851265090000124
精度提高,迭代次数iter_3D根据样本复杂情况而定。
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识。
根据最终估算出的3D人体姿态信息:
Figure GDA0003851265090000125
l3D(iter_3D)=[l1,l2,...,ln′...,lK-1],进行动作标准性判识,具体方法为:
(i)设人体姿态标准动作角度集合为:
Figure GDA0003851265090000126
Figure GDA0003851265090000127
表示任意两条边ln′,ln″的夹角,其中,
Figure GDA0003851265090000128
1≤n′,n″≤K-1,根据公式:
Figure GDA0003851265090000129
求解各边角度
Figure GDA00038512650900001210
(ii)建立高斯混合模型
Figure GDA00038512650900001211
Figure GDA00038512650900001212
表示以
Figure GDA00038512650900001213
为均值的高斯分布,1≤n′,n″≤K-1,则
Figure GDA00038512650900001214
服从标准正态分布,根据标准正态分布表查的置信度为95%的Y0.025,Y0.0975求取
Figure GDA00038512650900001215
值:
Figure GDA00038512650900001216
(iii)以高斯混合模型
Figure GDA00038512650900001217
为基准,对待评价的人体3D姿态判断姿态动作
Figure GDA00038512650900001218
打分,得到最终的动作标准得分与总得分集合:
Figure GDA00038512650900001219
具体为判断
Figure GDA00038512650900001220
是否满足分布:
Figure GDA00038512650900001221
如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分
Figure GDA0003851265090000131
Figure GDA0003851265090000132
1≤n′,n″≤K-1,通常,ωii=1;
score即为当前动作标准性分数,分解动作标准性得分为
Figure GDA0003851265090000133
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (3)

1.一种3D人体动作标准性判识的方法,其特征在于,包括如下步骤:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识;
所述步骤(1)具体如下:
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为
Figure FDA0003851265080000011
1≤i′≤N,N表示高分辨率子网络特征层的数量,
Figure FDA0003851265080000012
为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;
Figure FDA0003851265080000013
为特征矩阵的通道信息;
定义低分辨率子网络特征响应矩阵集合为
Figure FDA0003851265080000014
l1,l2分别表示两个低分辨率子网络结构,3≤i″≤N,7≤i″′≤N,
Figure FDA0003851265080000015
Figure FDA0003851265080000016
分别为两个低分辨率子网络的特征响应子矩阵;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
Figure FDA0003851265080000021
分别为两个低分辨率子网络的通道信息;
当i″,i″′为偶数时,两个低分辨率子网络
Figure FDA0003851265080000022
Figure FDA0003851265080000023
通过反卷积操作与高分辨率子网络融合,融合公式为:
Figure FDA0003851265080000024
Figure FDA0003851265080000025
Figure FDA0003851265080000026
Figure FDA0003851265080000027
对通道
Figure FDA0003851265080000028
进行反卷积的转换矩阵,
Figure FDA0003851265080000029
Figure FDA00038512650800000210
对通道
Figure FDA00038512650800000211
进行反卷积的转换矩阵;
高分辨率子网络的特征响应子矩阵的递推公式为:
Figure FDA00038512650800000212
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵
Figure FDA00038512650800000213
求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
Figure FDA00038512650800000214
Figure FDA00038512650800000215
为求解第k个关节点位置置信度矩阵的权重参数,
Figure FDA00038512650800000216
为偏移量,
Figure FDA00038512650800000217
表示融合网络的第N层
Figure FDA00038512650800000218
通道的特征响应子矩阵;
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
Figure FDA00038512650800000219
Figure FDA00038512650800000220
其中,(μx,ky,k)为关节点k的真实像素坐标位置,σx,ky,k为目标输出的方差,均取值1.5;
(iv)通过Hi,k(x,y)对
Figure FDA00038512650800000310
求解梯度进行权值参数更新,
Figure FDA0003851265080000031
Figure FDA0003851265080000032
表示第N层高分辨率子网络特征层的数量,参数更新公式如下:
Figure FDA0003851265080000033
Figure FDA0003851265080000034
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
(vi)根据HeadMapi得到相机Ci下图像Ii(x,y,c)的2D关节点的位置,表示为:
Figure FDA0003851265080000035
其中,
Figure FDA0003851265080000036
表示人体关节点位置置信度矩阵Hi,k中最大值对应的像素坐标;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja};
所述步骤(2)具体如下:
(i)对多个多目相机进行对齐操作:将世界坐标系转换成相机坐标系,然后将相机坐标系转换成像素坐标系,得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作;
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的
Figure FDA0003851265080000037
通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
Figure FDA0003851265080000038
其中,
Figure FDA0003851265080000039
表示多目相机Ci第k关节点的位置,θ表示多目相机Cj检测到的第k关节点的位置的融合权值矩阵,
Figure FDA0003851265080000041
是转换到相机Ci像素坐标系下的像素坐标;
更新所有相机像素坐标系下的融合2D关节点位置:
Figure FDA0003851265080000042
Figure FDA0003851265080000043
2.根据权利要求1所述的一种3D人体动作标准性判识的方法,其特征在于,所述步骤(3)具体如下:
(i)设3D人体姿态信息表达为
Figure FDA0003851265080000044
l3D=[l1,l2,...,ln′...,lK-1],其中,
Figure FDA0003851265080000045
表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
Figure FDA0003851265080000046
Figure FDA0003851265080000047
均在N3数量的网格g中,1≤t0,t1,t2≤Ng,t0表示网格深度,t1表示网格宽度,t2表示网格高度,Ng初始值取16;
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示
Figure FDA0003851265080000048
l3D(1)=[l1,l2,...,ln′...,lK-1],s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
(iii)采用迭代算法,对每一个关节点
Figure FDA0003851265080000049
1≤k≤K围绕该关节点当前位置,离散化其所在网格
Figure FDA00038512650800000410
为一个2×2×2的局部网格,即令Ng=2,重复上一步中PSM方法,获取更新的3D姿态估计
Figure FDA00038512650800000411
l3D(2)=[l1,l2,...,ln′...,lK-1],随着迭代,人体3D姿态得到细化,V的边长s更新为
Figure FDA0003851265080000051
精度提高,迭代次数iter_3D根据样本复杂情况而定。
3.根据权利要求2所述的一种3D人体动作标准性判识的方法,其特征在于,所述步骤(4)具体如下:
根据最终估算出的3D人体姿态信息:
Figure FDA0003851265080000052
l3D(iter_3D)=[l1,l2,...,ln′...,lK-1],进行动作标准性判识,具体方法为:
(i)设人体姿态标准动作角度集合为:
Figure FDA0003851265080000053
Figure FDA0003851265080000054
表示任意两条边ln′,ln″的夹角,其中,
Figure FDA0003851265080000055
1≤n′,n″≤K-1,根据公式:
Figure FDA0003851265080000056
求解各边角度
Figure FDA0003851265080000057
(ii)建立高斯混合模型
Figure FDA0003851265080000058
Figure FDA0003851265080000059
表示以
Figure FDA00038512650800000510
为均值的高斯分布,1≤n′,n″≤K-1,则
Figure FDA00038512650800000511
服从标准正态分布,根据标准正态分布表查的置信度为95%的Y0.025,Y0.0975求取
Figure FDA00038512650800000512
值:
Figure FDA00038512650800000513
(iii)以高斯混合模型
Figure FDA00038512650800000514
为基准,对待评价的人体3D姿态判断姿态动作
Figure FDA00038512650800000515
打分,得到最终的动作标准得分与总得分集合:
Figure FDA00038512650800000516
具体为判断
Figure FDA00038512650800000517
是否满足分布
Figure FDA00038512650800000518
如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分
Figure FDA00038512650800000519
Figure FDA0003851265080000061
1≤n′,n″≤K-1,通常,ωii=1;
score即为当前动作标准性分数,分解动作标准性得分为
Figure FDA0003851265080000062
CN202010085665.2A 2020-02-11 2020-02-11 一种3d人体动作标准性判识的方法 Active CN111291687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010085665.2A CN111291687B (zh) 2020-02-11 2020-02-11 一种3d人体动作标准性判识的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010085665.2A CN111291687B (zh) 2020-02-11 2020-02-11 一种3d人体动作标准性判识的方法

Publications (2)

Publication Number Publication Date
CN111291687A CN111291687A (zh) 2020-06-16
CN111291687B true CN111291687B (zh) 2022-11-11

Family

ID=71025534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010085665.2A Active CN111291687B (zh) 2020-02-11 2020-02-11 一种3d人体动作标准性判识的方法

Country Status (1)

Country Link
CN (1) CN111291687B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183506A (zh) * 2020-11-30 2021-01-05 成都市谛视科技有限公司 一种人体姿态生成方法及其***
CN112435731B (zh) * 2020-12-16 2024-03-19 成都翡铭科技有限公司 一种判断实时姿势是否满足预设规则的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101561881A (zh) * 2009-05-19 2009-10-21 华中科技大学 人体非程式化运动的情感识别方法
CN108427282A (zh) * 2018-03-30 2018-08-21 华中科技大学 一种基于示教学习的机器人逆运动学求解方法
CN108549856A (zh) * 2018-04-02 2018-09-18 上海理工大学 一种人体动作和路况识别方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN110464349A (zh) * 2019-08-30 2019-11-19 南京邮电大学 一种基于隐半马尔科夫模型的上肢运动功能评分方法
CN110633005A (zh) * 2019-04-02 2019-12-31 北京理工大学 一种光学式无标记的三维人体动作捕捉方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101561881A (zh) * 2009-05-19 2009-10-21 华中科技大学 人体非程式化运动的情感识别方法
CN108427282A (zh) * 2018-03-30 2018-08-21 华中科技大学 一种基于示教学习的机器人逆运动学求解方法
CN108549856A (zh) * 2018-04-02 2018-09-18 上海理工大学 一种人体动作和路况识别方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN110633005A (zh) * 2019-04-02 2019-12-31 北京理工大学 一种光学式无标记的三维人体动作捕捉方法
CN110464349A (zh) * 2019-08-30 2019-11-19 南京邮电大学 一种基于隐半马尔科夫模型的上肢运动功能评分方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. Jiang.3D Human Pose Reconstruction Using Millions of Exemplars.《2010 20th International Conference on Pattern Recognition》.2010,第1674-1677页. *
H. Qiu et al.Cross View Fusion for 3D Human Pose Estimation.《2019 IEEE/CVF International Conference on Computer Vision (ICCV)》.2019,第4341-4350页. *
K. Sun et al.Deep High-Resolution Representation Learning for Human Pose Estimation.《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》.2019,第5686-5696页. *

Also Published As

Publication number Publication date
CN111291687A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
US11763485B1 (en) Deep learning based robot target recognition and motion detection method, storage medium and apparatus
CN106960449B (zh) 基于多特征约束的异源配准方法
CN107358629B (zh) 一种基于目标识别的室内建图与定位方法
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
CN106709950A (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
CN111291687B (zh) 一种3d人体动作标准性判识的方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN110310305B (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN113393524B (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN112419497A (zh) 基于单目视觉的特征法与直接法相融合的slam方法
CN111126116A (zh) 无人船河道垃圾识别方法及***
US11741615B2 (en) Map segmentation method and device, motion estimation method, and device terminal
CN112132874A (zh) 无标定板异源图像配准方法、装置、电子设备及存储介质
CN109376641A (zh) 一种基于无人机航拍视频的运动车辆检测方法
CN105513094A (zh) 基于三维Delaunay三角剖分的立体视觉跟踪方法及***
CN115880364A (zh) 基于激光点云和视觉slam的机器人位姿估计方法
CN111664845B (zh) 交通标志定位、视觉地图制作方法及装置、定位***
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
CN114494644A (zh) 一种基于双目立体匹配的空间非合作目标位姿估计与三维重建方法及***
CN110349209A (zh) 基于双目视觉的振捣棒定位方法
CN114004900A (zh) 一种基于点线面特征的室内双目视觉里程计方法
CN110060290B (zh) 一种基于3d卷积神经网络的双目视差计算方法
CN116704307A (zh) 基于图像虚拟点云与激光点云融合的目标检测方法及***
CN116630423A (zh) 一种基于orb特征的微小型机器人多目标双目定位方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant