CN111291687B - 一种3d人体动作标准性判识的方法 - Google Patents
一种3d人体动作标准性判识的方法 Download PDFInfo
- Publication number
- CN111291687B CN111291687B CN202010085665.2A CN202010085665A CN111291687B CN 111291687 B CN111291687 B CN 111291687B CN 202010085665 A CN202010085665 A CN 202010085665A CN 111291687 B CN111291687 B CN 111291687B
- Authority
- CN
- China
- Prior art keywords
- equal
- human body
- joint point
- camera
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种3D人体动作标准性判识的方法,包括如下步骤:(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;(4)根据最终计算出的3D人体姿态信息进行动作标准型判识。本发明所公开的方法能够对不同角度下的目标体,对复杂的人体姿态做到准确判识,具备实时性。
Description
技术领域
本发明涉及一种3D人体动作标准性判识的方法。
背景技术
目前,基于姿态估计算法提取人体关节点从而进行人体动作标准性评判的技术很多,包括:
(1)基于单目相机的2D姿态估计算法,分为自底而上和自上而下两种计算方法,自底而上的检测方法,首先检测到关节点再判识是否属于统一目标体,这种方法具有实时性,对单张图像能够快速响应,但检测精度有所牺牲;自上而下的检测方法,首先会检测出目标体,根据目标体再提取关节点,检测精度较高,但实时性不足。
这类做法存在共同的缺点,即目标体侧面存在关节点遮挡情况,存在误判和错误的关节点连接情况,导致动作的标准性打分错误,提取精度受限于人体角度,无法投入使用。
(2)基于单目相机的3D姿态估计算法,首先虚拟化一个相对的3D网格空间,然后在3D网格空间坐标中对输入的2D图像进行3D关节点推理。这类做法虽然改进了2D人体姿态估计的不足,但仍然无法满足实际需求,且依赖于2D姿态的精度,且只能在相对坐标系下,得到的人体动作的评判。
(3)基于多目相机的3D姿态估计算法依赖于2D姿态估计精度,对于复杂和存在遮挡的2D姿态精度改善仍然有限。
由此可见,目前,根据人体姿态估计对人体动作标准性进行判识的方法存在一定的缺陷。
发明内容
为解决上述技术问题,本发明提供了一种3D人体动作标准性判识的方法,以达到能够对不同角度下的目标体,对复杂的人体姿态做到准确判识,具备实时性的目的。
为达到上述目的,本发明的技术方案如下:
一种3D人体动作标准性判识的方法,包括如下步骤:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识;
所述步骤(1)具体如下:
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为1≤i′≤N,N表示高分辨率子网络特征层的数量,为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;为特征矩阵的通道信息;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
高分辨率子网络的特征响应子矩阵的递推公式为:
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
其中,(μx,k,μy,k)为关节点k的真实像素坐标位置,σx,k,σy,k为目标输出的方差,均取值1.5;
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja};
所述步骤(2)具体如下:
(i)对多个多目相机进行对齐操作:将世界坐标系转换成相机坐标系,然后将相机坐标系转换成像素坐标系,得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作;
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
更新所有相机像素坐标系下的融合2D关节点位置:
上述方案中,所述步骤(3)具体如下:
(i)设3D人体姿态信息表达为l3D=[l1,l2,...,ln′...,lK-1],其中,表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示l3D(1)=[l1,l2,...,ln′...,lK-1],s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
(iii)采用迭代算法,对每一个关节点1≤k≤K围绕该关节点当前位置,离散化其所在网格为一个2×2×2的局部网格,即令Ng=2,重复上一步中PSM方法,获取更新的3D姿态估计l3D(2)=[l1,l2,...,ln′...,lK-1],随着迭代,人体3D姿态得到细化,V的边长s更新为精度提高,迭代次数iter_3D根据样本复杂情况而定。
上述方案中,所述步骤(4)具体如下:
根据最终估算出的3D人体姿态信息:
(iii)以高斯混合模型为基准,对待评价的人体3D姿态判断姿态动作打分,得到最终的动作标准得分与总得分集合:具体为判断是否满足分布如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分
通过上述技术方案,本发明提供的3D人体动作标准性判识的方法具有如下有益效果:
(1)对不同角度下的目标体,对复杂的人体姿态做到准确判识;
(2)服从世界坐标系定位,对多目相机进行标定,根据对齐后的坐标系可以准确的融合不同视角下的特征,提高2D姿态精度。
(3)具备实时性,常见硬件资源即可运行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种人体关节点图模型;
图2为世界坐标系与相机坐标系间的相互转换图;
图3为相机坐标系与像素坐标系的转换关系示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种3D人体动作标准性判识的方法,具体方法如下:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为1≤i′≤N,N表示高分辨率子网络特征层的数量,为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;为特征矩阵的通道信息;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
高分辨率子网络的特征响应子矩阵的递推公式为:
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,如图1所示,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
其中,(μx,k,μy,k)为关节点k的真实像素坐标位置,σx,k,σy,k为目标输出的方差,均取值1.5;
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja}。
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(i)对多个多目相机进行对齐操作:
根据论文A Flexible New Technique for Camera Calibration进行多目相机的对齐操作,如图2所示,R为3×3的正交单位矩阵,t为平移向量,R,t为相机的外参数,用于表示世界坐标系和相机坐标系之间的距离。
如图3所示,平面π称为相机的像平面,点Oc称为摄像机中心(光心),f为相机的焦距,以Oc为端点做垂直于像平面的射线,交像平面与点p,则射线Ocp称为光轴(主轴),p点为相机的主点,且有,
根据图2和图3得到世界坐标系坐标Pw(xw,yw,zw)转换到像素坐标系坐标P1(u,v)的转换过程如下所示:
据此得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作。
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
更新所有相机像素坐标系下的融合2D关节点位置:(11)
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(i)设3D人体姿态信息表达为l3D=[l1,l2,...,ln′...,lK-1],其中,表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
(iii)采用迭代算法,对每一个关节点1≤k≤K围绕该关节点当前位置,离散化其所在网格为一个2×2×2的局部网格,即令Ng=2,重复上一步中PSM方法,获取更新的3D姿态估计l3D(2)=[l1,l2,...,ln′...,lK-1],随着迭代,人体3D姿态得到细化,V的边长s更新为精度提高,迭代次数iter_3D根据样本复杂情况而定。
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识。
根据最终估算出的3D人体姿态信息:
(iii)以高斯混合模型为基准,对待评价的人体3D姿态判断姿态动作打分,得到最终的动作标准得分与总得分集合:具体为判断是否满足分布:如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (3)
1.一种3D人体动作标准性判识的方法,其特征在于,包括如下步骤:
(1)采用多个多目相机对人体动作进行图像采集,遍历图像集合,求同一时间戳下,图像的2D人体关节点位置;
(2)根据得到的所有多目相机下的2D人体关节点位置集合,进行多目相机2D关节点的信息融合,得到所有相机像素坐标系下的融合2D关节点位置;
(3)根据得到的所有相机像素坐标系下的融合2D关节点位置,计算3D人体关节点位置和关节点构成的边信息,即3D人体姿态;
(4)根据最终计算出的3D人体姿态信息进行动作标准型判识;
所述步骤(1)具体如下:
给定相机集合Camera={C1,C2,...,Ci,...,Ca},1≤i≤a,a表示多目相机的个数,且a≥2;多目相机采集的图像数据为Ig={I1,I2,...,Ii,...,Ia};Ii(x,y,c)为同一时间戳下,Ci相机采集的图像样本,其中,0≤x≤W-1,W表示图像宽度,0≤y≤H-1,H表示图像高度,c为输入图像的通道信息,且0≤c≤2;遍历图像集合Ig,求同一时间戳下,图像Ii(x,y,c)的2D人体关节点位置,具体步骤如下:
(i)根据图像Ii(x,y,c)执行高低分辨率融合网络,分别求融合网络的高低分辨率的特征响应矩阵;
定义其高分辨率子网络特征响应矩阵为1≤i′≤N,N表示高分辨率子网络特征层的数量,为高分辨率子网络第i′层的特征响应子矩阵,0≤xi′≤W′-1,W′=W,W′表示高分辨率子网络特征矩阵宽度,0≤yi′≤H′-1,H′=H,H′表示高分辨率子网络特征矩阵长度;为特征矩阵的通道信息;
0≤xi″≤W″,W″=W/2-1,W″表示第一个低分辨率子网络特征矩阵宽度,
0≤yi″≤H″,H″=H/2-1,H″表示第一个低分辨率子网络特征矩阵高度,
0≤xi″′≤W″′,W″′=W/4-1,W″′表示第二个低分辨率子网络特征矩阵宽度,
0≤yi″′≤H″′,H″′=H/4-1,H″′表示第二个低分辨率子网络特征矩阵高度;
高分辨率子网络的特征响应子矩阵的递推公式为:
(ii)根据公式(3)计算的高分辨率子网络的特征响应子矩阵求解输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi.K},1≤k≤K,K=17,表示待求取的人体17个关节点的数量,然后对图像Ii(x,y,c)中每个像素坐标位置评估是否为第k个关节点所在位置,Hi,k(x,y)表示第k个关节点所在第i个相机下的置信度矩阵,1≤k≤K:
(iii)根据(ii)中计算的Hi,k(x,y),1≤k≤K,得到的输出响应矩阵集合HeatMapi求解均方误差距离:
其中,(μx,k,μy,k)为关节点k的真实像素坐标位置,σx,k,σy,k为目标输出的方差,均取值1.5;
其中,τ为一个较小数,为0.1或0.01;
同理,进行高低分辨率子网络特征层的权值参数更新;
(v)重复步骤(i)~(iv),直至MSEloss收敛或者满足最大迭代次数iter,得到最终的输出响应矩阵集合HeatMapi={Hi,1,Hi,2,...,Hi,k,...,Hi,K},Hi,k表示人体第k个关节点的位置置信度矩阵;
则所有多目相机下的人体2D关节点位置集合表示为,J={J1,J2,...,Ji,...,Ja};
所述步骤(2)具体如下:
(i)对多个多目相机进行对齐操作:将世界坐标系转换成相机坐标系,然后将相机坐标系转换成像素坐标系,得到多目相机Camera={C1,C2,...,Ci,...,Ca}之间的转换关系,从而实现多目相机的对齐操作;
(ii)计算多目相机的融合2D关节点位置,对相机Ci下的通过融合权值矩阵θ与步骤(1)中得到的Jj计算得融合后的Ji,1≤j≤a,j≠i,a表示多目相机数量,θ在相加极线上满足高斯分布,θ~N(0,1),其中,融合后的关节点位置表示为:
更新所有相机像素坐标系下的融合2D关节点位置:
2.根据权利要求1所述的一种3D人体动作标准性判识的方法,其特征在于,所述步骤(3)具体如下:
(i)设3D人体姿态信息表达为l3D=[l1,l2,...,ln′...,lK-1],其中,表示人体第k个关节点的世界坐标系位置,1≤k≤K,K=17,表示17个人体关节点,ln′表示关节点构成的边向量,1≤n′≤K-1,K-1为关节点构成的边的数量,根据三角测量原理得到以根节点为中心的3D空间V,V的边长s取初始值为2000mm,并将V体积离散化为Ng×Ng×Ng的粗略网格:
(ii)根据图模型算法PSM计算的初始网格中的3D姿态估计表示l3D(1)=[l1,l2,...,ln′...,lK-1],s(1)=2000mm,J3D(1),l3D(1)均表示在Ng=1的初始网格中3D姿态估计的结果,分别为关节点在世界坐标系下的位置坐标和关节点边向量;
3.根据权利要求2所述的一种3D人体动作标准性判识的方法,其特征在于,所述步骤(4)具体如下:
(iii)以高斯混合模型为基准,对待评价的人体3D姿态判断姿态动作打分,得到最终的动作标准得分与总得分集合:具体为判断是否满足分布如果满足,则表明动作合格,进而根据标准正态分布表计算该分布下的分解动作标准性得分 1≤n′,n″≤K-1,通常,ωii=1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010085665.2A CN111291687B (zh) | 2020-02-11 | 2020-02-11 | 一种3d人体动作标准性判识的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010085665.2A CN111291687B (zh) | 2020-02-11 | 2020-02-11 | 一种3d人体动作标准性判识的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111291687A CN111291687A (zh) | 2020-06-16 |
CN111291687B true CN111291687B (zh) | 2022-11-11 |
Family
ID=71025534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010085665.2A Active CN111291687B (zh) | 2020-02-11 | 2020-02-11 | 一种3d人体动作标准性判识的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111291687B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183506A (zh) * | 2020-11-30 | 2021-01-05 | 成都市谛视科技有限公司 | 一种人体姿态生成方法及其*** |
CN112435731B (zh) * | 2020-12-16 | 2024-03-19 | 成都翡铭科技有限公司 | 一种判断实时姿势是否满足预设规则的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561881A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 人体非程式化运动的情感识别方法 |
CN108427282A (zh) * | 2018-03-30 | 2018-08-21 | 华中科技大学 | 一种基于示教学习的机器人逆运动学求解方法 |
CN108549856A (zh) * | 2018-04-02 | 2018-09-18 | 上海理工大学 | 一种人体动作和路况识别方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN110464349A (zh) * | 2019-08-30 | 2019-11-19 | 南京邮电大学 | 一种基于隐半马尔科夫模型的上肢运动功能评分方法 |
CN110633005A (zh) * | 2019-04-02 | 2019-12-31 | 北京理工大学 | 一种光学式无标记的三维人体动作捕捉方法 |
-
2020
- 2020-02-11 CN CN202010085665.2A patent/CN111291687B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101561881A (zh) * | 2009-05-19 | 2009-10-21 | 华中科技大学 | 人体非程式化运动的情感识别方法 |
CN108427282A (zh) * | 2018-03-30 | 2018-08-21 | 华中科技大学 | 一种基于示教学习的机器人逆运动学求解方法 |
CN108549856A (zh) * | 2018-04-02 | 2018-09-18 | 上海理工大学 | 一种人体动作和路况识别方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN110633005A (zh) * | 2019-04-02 | 2019-12-31 | 北京理工大学 | 一种光学式无标记的三维人体动作捕捉方法 |
CN110464349A (zh) * | 2019-08-30 | 2019-11-19 | 南京邮电大学 | 一种基于隐半马尔科夫模型的上肢运动功能评分方法 |
Non-Patent Citations (3)
Title |
---|
H. Jiang.3D Human Pose Reconstruction Using Millions of Exemplars.《2010 20th International Conference on Pattern Recognition》.2010,第1674-1677页. * |
H. Qiu et al.Cross View Fusion for 3D Human Pose Estimation.《2019 IEEE/CVF International Conference on Computer Vision (ICCV)》.2019,第4341-4350页. * |
K. Sun et al.Deep High-Resolution Representation Learning for Human Pose Estimation.《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》.2019,第5686-5696页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111291687A (zh) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112435325B (zh) | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN106960449B (zh) | 基于多特征约束的异源配准方法 | |
CN107358629B (zh) | 一种基于目标识别的室内建图与定位方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN106709950A (zh) | 一种基于双目视觉的巡线机器人跨越障碍导线定位方法 | |
CN111291687B (zh) | 一种3d人体动作标准性判识的方法 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN111126116A (zh) | 无人船河道垃圾识别方法及*** | |
US11741615B2 (en) | Map segmentation method and device, motion estimation method, and device terminal | |
CN112132874A (zh) | 无标定板异源图像配准方法、装置、电子设备及存储介质 | |
CN109376641A (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN105513094A (zh) | 基于三维Delaunay三角剖分的立体视觉跟踪方法及*** | |
CN115880364A (zh) | 基于激光点云和视觉slam的机器人位姿估计方法 | |
CN111664845B (zh) | 交通标志定位、视觉地图制作方法及装置、定位*** | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
CN114494644A (zh) | 一种基于双目立体匹配的空间非合作目标位姿估计与三维重建方法及*** | |
CN110349209A (zh) | 基于双目视觉的振捣棒定位方法 | |
CN114004900A (zh) | 一种基于点线面特征的室内双目视觉里程计方法 | |
CN110060290B (zh) | 一种基于3d卷积神经网络的双目视差计算方法 | |
CN116704307A (zh) | 基于图像虚拟点云与激光点云融合的目标检测方法及*** | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |