CN104268138B - 融合深度图和三维模型的人体运动捕捉方法 - Google Patents

融合深度图和三维模型的人体运动捕捉方法 Download PDF

Info

Publication number
CN104268138B
CN104268138B CN201410205213.8A CN201410205213A CN104268138B CN 104268138 B CN104268138 B CN 104268138B CN 201410205213 A CN201410205213 A CN 201410205213A CN 104268138 B CN104268138 B CN 104268138B
Authority
CN
China
Prior art keywords
human action
action
human
depth
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410205213.8A
Other languages
English (en)
Other versions
CN104268138A (zh
Inventor
肖秦琨
谢艳梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN201410205213.8A priority Critical patent/CN104268138B/zh
Publication of CN104268138A publication Critical patent/CN104268138A/zh
Application granted granted Critical
Publication of CN104268138B publication Critical patent/CN104268138B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种融合深度图和三维模型的人体运动捕捉方法。光学式运动捕获方法需粘贴标记点,交互不便,标记点易混淆、遮挡。本发明采集人体动作的深度信息,去除运动目标背景,获取完整的人体动作深度信息,转化成人体三维点云信息,获得人体动作三维模型,建立数据库,与建立的人体动作骨架数据库数据一一对应,提取待识别人体动作的深度信息构建三维模型,然后与三维模型数据库中的人体动作进行相似性匹配,按相似性排序输出人体动作骨架作为运动捕获结果。本发明无需在人体上安装传感器或添加标记点,方便易实现,在运动序列匹配上使用正则时间规整的方法,提高了两个序列匹配的精度,使匹配的时间大幅降,保证了运动捕获的速度和精度。

Description

融合深度图和三维模型的人体运动捕捉方法
技术领域
本发明属于多媒体信息检索技术领域,具体涉及一种融合深度图和三维模型的人体运动捕捉方法。
背景技术
人体运动捕获技术是多媒体信息检索领域的热点问题,特别是在影视动画、游戏等的发展中,具有广泛应用前景,国内外许多研究机构正致力于这一方向的研究。近年来,随着运动捕获技术的快速发展,三维影视动画、游戏、新一代人交互等领域的兴起,非常多复杂和逼真的人体动作需要快速的被捕获应用,需要一种快速有效的方法进行人体运动的捕获。目前已提出的光学式的运动捕获方法,主要基于计算机视觉原理,通过对目标上特定光点的监视和跟踪来完成运动捕捉任务。但上述的运动捕获方法有几点不足:
(1)光学式的运动捕获在使用时需要在表演者身上粘贴标记点,并需要表演者穿上特制的表演用服装,交互起来并不方便。当运动复杂时,不同部位的标记点有可能发生混淆、遮挡,产生错误结果,这时需要人工干预后处理过程。
(2)虽然它可以捕捉实时运动,但后处理(包括标记点的识别、跟踪、空间坐标的计算)的工作量较大,对于表演场地的光照、反射情况有一定的要求,装置定标也较为烦琐。
发明内容
本发明的目的是提供一种融合深度图和三维模型的人体运动捕捉方法,能有效克服现有运动捕获方法中动作幅度受限制、捕捉效果失真度高和误差较大的技术缺陷。
本发明所采用的技术方案是:
融合深度图和三维模型的人体运动捕捉方法,其特征在于:
由以下步骤实现:
步骤一:采集人体动作的深度信息,去除运动目标背景,获取完整的人体动作深度信息;
步骤二:将提取的人体动作深度信息信息转化成人体的三维点云信息,对人体进行三维重建,获得人体动作的三维模型;
步骤三:重复步骤一和步骤二,基于大量采集的人体动作深度信息,建立人体动作的三维模型数据库M={Y1,Y2,…,Yn},M表示三维模型数据库,Yn表示第n个三维模型;
步骤四:根据人体结构及人体动作的三维模型构建出人体动作骨架,建立人体动作的骨架数据库G={S1,S2,…Sn},G表示人体骨架数据库,其中Sn表示第n个人体骨架数据,其中人体动作的骨架数据与三维模型数据一一对应;
步骤五:提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配,按相似性排序输出人体动作骨架,相似性距离值最小的骨架作为最优骨架,以最优骨架作为运动捕获结果;
步骤一中,基于采集的人体动作深度信息,去除运动目标背景,获取完整的人体动作深度信息的具体步骤为:
(1)采集的一个人体动作深度图用F(x,y,dp)表示,其中,x、y分别为像素坐标系下的横坐标和纵坐标,dp为深度信息;假设基于深度信息分割背景区域和目标区域的阈值为:
T=(maxDepthVulue+minDepthVulue)/2
其中,maxDepthVulue和minDepthVulue分别为图像深度值的最大和最小值,将T记录在T0中,根据阈值T,将F(x,y,dp)分为背景区域和目标区域,分别求出背景区域和目标区域的平均深度值du1和du2
(2)重新计算T=(du1+du2)/2,判断T与T0是否相等,如果不相等,那么将T记录在T0里,重复上述步骤,直到T=T0成立,终止算法;把最后得到的T作为最佳阈值对F(x,y,dp)进行分割,去除背景,得到完整的人体动作深度信息d0
步骤二中,将提取的人体动作深度信息转化成人体的三维点云信息,对人体进行三维重建,获得人体动作的三维模型的具体步骤为:
(1)将提取出的深度信息d0归一化,假设深度值的个数为N,计算出深度值中的最大值max d0(k)和最小值min d0(k),归一化后的深度值为:
z(n)=(d0(n)-min d0(k))/(max d0(k)-min d0(k))k,n=1,2,...,N
(2)令Z=z(n),世界坐标系是以摄像机为原点的,经过标定后摄像机可以看做是理想的成像模型,根据简单的相似三角形变换原理:
从中可以计算得到世界坐标系的X、Y值,其中,x、y分别为像素坐标系的横坐标和纵坐标,f为摄像机的焦距;最终可以得到人体动作的三维点云信息(X,Y,Z);
步骤四中,根据人体结构及人体动作的三维模型构建出人体动作骨架的具体步骤为:
(1)在深度图中将身体躯干近似视为四边形,记为Q;
Q上方的两个顶点就是肩关节点a1和a2的位置;
颈关节点b为a1、a2连线的中点;
沿b点向上,最上端就是头部节点c的位置;
Q下方的两个顶点为髋关节d1和d2的位置;
胯关节点e在d1、d2的中点位置;
(2)确定手关节点和肘关节位置从a1、a2处开始进行搜索,若手臂伸直,根据上下手臂长度比例确定肘关节点f1、f2和手关节点g1、g2的位置;若手臂弯曲,在肘关节点的位置有拐点,拐点的位置为f1、f2,沿f1、f2继续搜索至终点为手关节点g1、g2的位置;
同理,根据手关节点和肘关节位置的确定方法可以确定出膝关节点h1、h2和脚关节点i1、i2的位置;
(3)将各个关节点坐标按人体结构顺序用直线相连接,就得到了人体动作骨架;
步骤五中,提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配的具体步骤为:
(1)将三维模型表示的人体动作用层次聚类算法进行聚类:
①假设一个参数m表示最终聚类簇的数目,将每个输入的数据作为单独的一个数据簇D0,求出与每个D相邻的最近的簇Dx,数据簇间的距离可以看做是数据簇中心间的距离;
②将距离最近的两个数据簇Dp和Dq进行合并,产生的新的数据簇Dn,再计算Dn与其它簇的距离,如果当前数据簇的数目大于m,那么就转到②继续进行数据簇的合并,否则算法结束,得到聚类结果D={u1,u2,…,um},其中u表示每个类的值;
(2)计算待识别人体动作序列各个动作帧与三维模型数据库中的人体动作序列各个动作帧之间的距离:
①假设待识别的人体动作和数据库中任意一个三维模型聚类结果分别表示为:
Di={u′1,u′2,…,u′m}
Dj={v1,v2,…,vm}
从聚类树的根节点开始,进行深度优先搜索直至叶节点;
②在遍历搜索的过程中对Di和Dj中各个类的对象计算距离,将各个类的距离求和,得到两颗聚类树的欧式距离:
(3)用正则时间规整的方法计算出最优匹配路径,得到最优匹配序列:
①假设待识别的三维模型动作序列为三维模型数据库中的一组动作序列为m和n分别表示两个动作序列的长度,两个序列中各个动作帧之间的距离用上述方法可以计算得到;
②因为m和n可能不相等,所以其对应的匹配关系可能有很多种,利用正则时间规整的方法,计算出序列间的最小距离J,同时获得最佳匹配路径Px和Py
这里,Wx=W(px)∈{0,1}m×l和Wy=W(py)∈{0,1}n×l是两个二进制的规整矩阵,对每一步的t∈{1:l}有其他情况时其中l是正则时间规整算法自动选择的需要匹配的动作帧的数目,l≥max(m,n);φ(·)是正则项:
Px和Py表示所有可能的匹配路径,需要满足的约束条件为:
Ψ={{Px,Py}|Px∈(1:m)l,Py∈(1:n)l
边界:
单调性:
连续性:
是线性变化矩阵,d≤min(dx,dy),需满足的约束条件为:
其中,λ∈[0,1];
③重复以上步骤,利用正则时间规整方法,计算三维模型数据库中每一组动作序列Y分别与X的最小距离J及最佳匹配路径Px和Py;然后求出各个J的最小值和其对应的Px和Py,从而获得对应的最佳匹配序列。
本发明具有以下优点:
(1)本发明所涉及的方法使用相关设备采集深度信息,表演者无需在人体上安装传感器或添加标记点,活动的幅度大,对于表演场地要求不多,方便且容易实现。
(2)本发明针对以往无标记点的运动捕获技术主要是基于视频方法,拍摄出二维图像序列达到运动捕获的目的,本发明融合了深度信息,解决了在没有深度信息的二维图像中身体的自遮挡导致身体部位信息缺失的问题,保证了信息获取的完整性和可靠性。
(3)本发明使用层次聚类法,数据簇间距离和规则的相似度容易定义,将数据量较大的三维点云数据缩小为几个类,以便于后续利用深度优先搜索方法计算两帧三维模型的欧式距离,减少了计算量。
(4)本发明在运动序列匹配上使用正则时间规整(Canonical Time Warping,CTW)的方法,该方法具有算法鲁棒的优点,并且即使测试序列模式与数据库中参考序列模式的时间尺度不能完全一致,它仍能较好地完成测试序列与参考序列之间的模式匹配。CTW是基于动态规划的方法,步骤五第(3)步的②中公式是CTW方法的目标函数,目标函数中加有正则项和两个二进制规整矩阵,为目标函数提供了唯一解的可能性,提高了两个序列匹配的精度,使匹配的时间大幅降,保证了运动捕获的速度和精度。
附图说明
图1为本发明方法的总体流程图。
图2为本发明步骤一的具体流程框图。
图3为本发明步骤五的具体流程框图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明所涉及的融合深度图和三维模型的人体运动捕捉方法,由以下步骤实现:
步骤一:应用相关设备采集人体动作的深度信息,去除运动目标背景,获取完整的人体动作深度信息。
基于采集的人体动作深度信息,去除运动目标背景,获取完整的人体动作深度信息的具体步骤为:
(1)采集的一个人体动作深度图用F(x,y,dp)表示,其中,x、y分别为像素坐标系下的横坐标和纵坐标,dp为深度信息;假设基于深度信息分割背景区域和目标区域的阈值为:
T=(maxDepthVulue+minDepthVulue)/2
其中,maxDepthVulue和minDepthVulue分别为图像深度值的最大和最小值,将T记录在T0中,根据阈值T,将F(x,y,dp)分为背景区域和目标区域,分别求出背景区域和目标区域的平均深度值du1和du2
(2)重新计算T=(du1+du2)/2,判断T与T0是否相等,如果不相等,那么将T记录在T0里,重复上述步骤,直到T=T0成立,终止算法;把最后得到的T作为最佳阈值对F(x,y,dp)进行分割,去除背景,得到完整的人体动作深度信息d0
步骤二:将提取的人体动作深度信息转化成人体的三维点云信息,对人体进行三维重建,获得人体动作的三维模型,具体步骤为:
(1)将提取出的深度信息d0归一化,假设深度值的个数为N,计算出深度值中的最大值最大值max d0(k)和最小值min d0(k),归一化后的深度值为:
z(n)=(d0(n)-mind0(k))/(maxd0(k)-mind0(k))k,n=1,2,...,N
(2)令Z=z(n),世界坐标系是以摄像机为原点的,经过标定后摄像机可以看做是理想的成像模型,根据简单的相似三角形变换原理:
从中可以计算得到世界坐标系的X、Y值,其中,x、y分别为像素坐标系的横坐标和纵坐标,f为摄像机的焦距。最终可以得到人体动作的三维点云信息(X,Y,Z)。
步骤三:重复步骤一和步骤二,基于大量采集的尽可能多的人体动作深度信息,建立人体动作的三维模型数据库M={Y1,Y2,…,Yn},M表示三维模型数据库,Yn表示第n个三维模型。
步骤四:根据人体结构及人体动作的三维模型构建出人体动作骨架,建立人体动作的骨架数据库G={S1,S2,…Sn},G表示人体骨架数据库,其中Sn表示第n个人体骨架数据,其中人体动作的骨架数据与三维模型数据一一对应。
根据人体结构及人体动作的三维模型构建出人体动作骨架的具体步骤为:
(1)在深度图中将身体躯干近似视为四边形,记为Q;
Q上方的两个顶点就是肩关节点a1和a2的位置;
颈关节点b为a1、a2连线的中点;
沿b点向上,最上端就是头部节点c的位置;
Q下方的两个顶点为髋关节d1和d2的位置;
胯关节点e在d1、d2的中点位置;
(2)确定手关节点和肘关节位置从a1、a2处开始进行搜索,若手臂伸直,根据上下手臂长度比例确定肘关节点f1、f2和手关节点g1、g2的位置;若手臂弯曲,在肘关节点的位置有拐点,拐点的位置为f1、f2,沿f1、f2继续搜索至终点为手关节点g1、g2的位置;
同理,根据手关节点和肘关节位置的确定方法可以确定出膝关节点h1、h2和脚关节点i1、i2的位置;
(3)将各个关节点坐标按人体结构顺序用直线相连接,就得到了人体动作骨架。
步骤五:提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配,按相似性排序输出人体动作骨架,相似性距离值最小的骨架作为最优骨架,以最优骨架作为运动捕获结果。
提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配的具体步骤为:
(1)将三维模型表示的人体动作用层次聚类算法(THA)进行聚类:
①假设一个参数m表示最终聚类簇的数目,将每个输入的数据作为单独的一个数据簇D0,求出与每个D相邻的最近的簇Dx,数据簇间的距离可以看做是数据簇中心间的距离;
②将距离最近的两个数据簇Dp和Dq进行合并,产生的新的数据簇Dn,再计算Dn与其它簇的距离,如果当前数据簇的数目大于m,那么就转到②继续进行数据簇的合并,否则算法结束,得到聚类结果D={u1,u2,…,um},其中u表示每个类的值;
(2)计算待识别人体动作序列各个动作帧与三维模型数据库中的人体动作序列各个动作帧之间的距离:
①假设待识别的人体动作和数据库中任意一个三维模型聚类结果分别表示为:
Di={u′1,u′2,…,u′m}
Dj={v1,v2,…,vm}
从聚类树的根节点开始,进行深度优先搜索直至叶节点;
②在遍历搜索的过程中对Di和Dj中各个类的对象计算距离,将各个类的距离求和,得到两颗聚类树的欧式距离:
(3)用正则时间规整(Canonical Time Warping,CTW)的方法计算出最优匹配路径,得到最优匹配序列:
①假设待识别的三维模型动作序列为三维模型数据库中的一组动作序列为m和n分别表示两个动作序列的长度,两个序列中各个动作帧之间的距离用上述方法可以计算得到;
②因为m和n可能不相等,所以其对应的匹配关系可能有很多种,利用正则时间规整的方法,计算出序列间的最小距离J,同时获得最佳匹配路径Px和Py
这里,Wx=W(px)∈{0,1}m×l和Wy=W(py)∈{0,1}n×l是两个二进制的规整矩阵,对每一步的t∈{1:l}有其他情况时其中l是正则时间规整算法自动选择的需要匹配的动作帧的数目,l≥max(m,n)。φ(·)是正则项:
Px和Py表示所有可能的匹配路径,需要满足的约束条件为:
Ψ={{Px,Py}|Px∈(1:m)l,Py∈(1:n)l
边界:
单调性:
连续性:
是线性变化矩阵,需满足的约束条件为:
其中,λ∈[0,1];
③重复以上步骤,利用正则时间规整方法,计算三维模型数据库中每一组动作序列Y分别与X的最小距离J及最佳匹配路径Px和Py。然后求出各个J的最小值和其对应的Px和Py,从而获得对应的最佳匹配序列。
本发明的内容不限于实施例所列举,本领域普通技术人员通过阅读本发明说明书而对本发明技术方案采取的任何等效的变换,均为本发明的权利要求所涵盖。

Claims (1)

1.融合深度图和三维模型的人体运动捕捉方法,其特征在于:
由以下步骤实现:
步骤一:采集人体动作的深度信息,去除运动目标背景,获取完整的人体动作深度信息;
步骤二:将提取的人体动作深度信息信息转化成人体的三维点云信息,对人体进行三维重建,获得人体动作的三维模型;
步骤三:重复步骤一和步骤二,基于大量采集的人体动作深度信息,建立人体动作的三维模型数据库M={Y1,Y2,…,Yn},M表示三维模型数据库,Yn表示第n个三维模型;
步骤四:根据人体结构及人体动作的三维模型构建出人体动作骨架,建立人体动作的骨架数据库G={S1,S2,…Sn},G表示人体骨架数据库,其中Sn表示第n个人体骨架数据,其中人体动作的骨架数据与三维模型数据一一对应;
步骤五:提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配,按相似性排序输出人体动作骨架,相似性距离值最小的骨架作为最优骨架,以最优骨架作为运动捕获结果;
步骤一中,基于采集的人体动作深度信息,去除运动目标背景,获取完整的人体动作深度信息的具体步骤为:
(1)采集的一个人体动作深度图用F(x,y,dp)表示,其中,x、y分别为像素坐标系下的横坐标和纵坐标,dp为深度信息;假设基于深度信息分割背景区域和目标区域的阈值为:
T=(maxDepthVulue+minDepthVulue)/2
其中,maxDepthVulue和minDepthVulue分别为图像深度值的最大和最小值,将T记录在T0中,根据阈值T,将F(x,y,dp)分为背景区域和目标区域,分别求出背景区域和目标区域的平均深度值du1和du2
(2)重新计算T=(du1+du2)/2,判断T与T0是否相等,如果不相等,那么将T记录在T0里,重复上述步骤,直到T=T0成立,终止算法;把最后得到的T作为最佳阈值对F(x,y,dp)进行分割,去除背景,得到完整的人体动作深度信息d0
步骤二中,将提取的人体动作深度信息转化成人体的三维点云信息,对人体进行三维重建,获得人体动作的三维模型的具体步骤为:
(1)将提取出的深度信息d0归一化,假设深度值的个数为N,计算出深度值中的最大值max d0(k)和最小值min d0(k),归一化后的深度值为:
z(n)=(d0(n)-min d0(k))/(max d0(k)-min d0(k))k,n=1,2,...,N
(2)令Z=z(n),世界坐标系是以摄像机为原点的,经过标定后摄像机可以看做是理想的成像模型,根据简单的相似三角形变换原理:
从中可以计算得到世界坐标系的X、Y值,其中,x、y分别为像素坐标系的横坐标和纵坐标,f为摄像机的焦距;最终可以得到人体动作的三维点云信息(X,Y,Z);
步骤四中,根据人体结构及人体动作的三维模型构建出人体动作骨架的具体步骤为:
(1)在深度图中将身体躯干近似视为四边形,记为Q;
Q上方的两个顶点就是肩关节点a1和a2的位置;
颈关节点b为a1、a2连线的中点;
沿b点向上,最上端就是头部节点c的位置;
Q下方的两个顶点为髋关节d1和d2的位置;
胯关节点e在d1、d2的中点位置;
(2)确定手关节点和肘关节位置从a1、a2处开始进行搜索,若手臂伸直,根据上下手臂长度比例确定肘关节点f1、f2和手关节点g1、g2的位置;若手臂弯曲,在肘关节点的位置有拐点,拐点的位置为f1、f2,沿f1、f2继续搜索至终点为手关节点g1、g2的位置;
同理,根据手关节点和肘关节位置的确定方法可以确定出膝关节点h1、h2和脚关节点i1、i2的位置;
(3)将各个关节点坐标按人体结构顺序用直线相连接,就得到了人体动作骨架;
步骤五中,提取待识别人体动作的深度信息,基于深度信息构建待识别人体动作的三维模型,然后与三维模型数据库中的人体动作进行相似性匹配的具体步骤为:
(1)将三维模型表示的人体动作用层次聚类算法进行聚类:
①假设一个参数m表示最终聚类簇的数目,将每个输入的数据作为单独的一个数据簇D0,求出与每个D相邻的最近的簇Dx,数据簇间的距离可以看做是数据簇中心间的距离;
②将距离最近的两个数据簇Dp和Dq进行合并,产生的新的数据簇Dn,再计算Dn与其它簇的距离,如果当前数据簇的数目大于m,那么就转到②继续进行数据簇的合并,否则算法结束,得到聚类结果D={u1,u2,…,um},其中u表示每个类的值;
(2)计算待识别人体动作序列各个动作帧与三维模型数据库中的人体动作序列各个动作帧之间的距离:
①假设待识别的人体动作和数据库中任意一个三维模型聚类结果分别表示为:
Di={u′1,u′2,…,u′m}
Dj={v1,v2,…,vm}
从聚类树的根节点开始,进行深度优先搜索直至叶节点;
②在遍历搜索的过程中对Di和Dj中各个类的对象计算距离,将各个类的距离求和,得到两颗聚类树的欧式距离:
(3)用正则时间规整的方法计算出最优匹配路径,得到最优匹配序列:
①假设待识别的三维模型动作序列为三维模型数据库中的一组动作序列为m和n分别表示两个动作序列的长度,两个序列中各个动作帧之间的距离用上述方法可以计算得到;
②因为m和n可能不相等,所以其对应的匹配关系可能有很多种,利用正则时间规整的方法,计算出序列间的最小距离J,同时获得最佳匹配路径Px和Py
这里,Wx=W(px)∈{0,1}m×l和Wy=W(py)∈{0,1}n×l是两个二进制的规整矩阵,对每一步的t∈{1:l}有wpt,t=1,其他情况时wpt,t=0,其中l是正则时间规整算法自动选择的需要匹配的动作帧的数目,l≥max(m,n);φ(·)是正则项:
Px和Py表示所有可能的匹配路径,需要满足的约束条件为:
Ψ={{Px,Py}|Px∈(1:m)l,Py∈(1:n)l
边界:
单调性:
连续性:
是线性变化矩阵,d≤min(dx,dy),需满足的约束条件为:
其中,λ∈[0,1];
③重复以上步骤,利用正则时间规整方法,计算三维模型数据库中每一组动作序列Y分别与X的最小距离J及最佳匹配路径Px和Py;然后求出各个J的最小值和其对应的Px和Py,从而获得对应的最佳匹配序列。
CN201410205213.8A 2014-05-15 2014-05-15 融合深度图和三维模型的人体运动捕捉方法 Expired - Fee Related CN104268138B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410205213.8A CN104268138B (zh) 2014-05-15 2014-05-15 融合深度图和三维模型的人体运动捕捉方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410205213.8A CN104268138B (zh) 2014-05-15 2014-05-15 融合深度图和三维模型的人体运动捕捉方法

Publications (2)

Publication Number Publication Date
CN104268138A CN104268138A (zh) 2015-01-07
CN104268138B true CN104268138B (zh) 2017-08-15

Family

ID=52159660

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410205213.8A Expired - Fee Related CN104268138B (zh) 2014-05-15 2014-05-15 融合深度图和三维模型的人体运动捕捉方法

Country Status (1)

Country Link
CN (1) CN104268138B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680582B (zh) * 2015-03-24 2016-02-24 中国人民解放军国防科学技术大学 一种面向对象定制的三维人体模型创建方法
CN104700452B (zh) * 2015-03-24 2016-03-02 中国人民解放军国防科学技术大学 一种面向任意姿态的三维人体姿态模型匹配方法
CN105069423B (zh) * 2015-07-29 2018-11-09 北京格灵深瞳信息技术有限公司 一种人体姿态检测方法及装置
CN105335722B (zh) * 2015-10-30 2021-02-02 商汤集团有限公司 一种基于深度图像信息的检测***及方法
JP6596309B2 (ja) * 2015-11-11 2019-10-23 株式会社東芝 分析装置および分析方法
CN105930773A (zh) * 2016-04-13 2016-09-07 中国农业大学 动作识别方法及装置
CN106441275A (zh) * 2016-09-23 2017-02-22 深圳大学 一种机器人规划路径的更新方法及装置
CN106599806A (zh) * 2016-12-01 2017-04-26 西安理工大学 一种基于局部曲面几何特征的人体动作识别方法
US20180295338A1 (en) * 2017-04-10 2018-10-11 Eys3D Microelectronics, Co. Depth processing system capable of capturing depth information from multiple viewing points
CN106998430B (zh) * 2017-04-28 2020-07-21 北京瑞盖科技股份有限公司 基于多相机的360度视频回放方法
CN107212975A (zh) * 2017-07-17 2017-09-29 徐彬 具有智能救护功能的轮椅及方法
CN107551551B (zh) * 2017-08-09 2021-03-26 Oppo广东移动通信有限公司 游戏效果构建方法及装置
CN108096836B (zh) * 2017-12-20 2021-05-04 深圳市百恩互动娱乐有限公司 一种真人实拍制作游戏的方法
CN108121963B (zh) * 2017-12-21 2021-08-24 北京奇虎科技有限公司 视频数据的处理方法、装置及计算设备
CN108510577B (zh) * 2018-01-31 2021-03-23 中国科学院软件研究所 基于已有动作数据的真实感动作迁移和生成方法及***
CN108392207B (zh) * 2018-02-09 2020-12-11 西北大学 一种基于姿态标签的动作识别方法
CN108563329B (zh) * 2018-03-23 2021-04-27 上海数迹智能科技有限公司 一种基于深度图的人体手臂位置参数提取算法
CN109215128B (zh) * 2018-08-09 2019-12-24 北京华捷艾米科技有限公司 物体运动姿态图像的合成方法及***
CN110020611B (zh) * 2019-03-17 2020-12-08 浙江大学 一种基于三维假设空间聚类的多人动作捕捉方法
CN110276266B (zh) * 2019-05-28 2021-09-10 暗物智能科技(广州)有限公司 一种基于旋转的点云数据的处理方法、装置及终端设备
CN111530048A (zh) * 2019-12-31 2020-08-14 沈恒 一种新型划船机及其数据采集的应用方法
CN111354075A (zh) * 2020-02-27 2020-06-30 青岛联合创智科技有限公司 一种三维重建中前景降干扰提取方法
CN112330815B (zh) * 2020-11-26 2024-05-14 北京百度网讯科技有限公司 基于障碍物融合的三维点云数据处理方法、装置和设备
WO2023042592A1 (en) * 2021-09-14 2023-03-23 Nec Corporation Method and apparatus for determining abnormal behaviour during cycle
CN114694263B (zh) * 2022-05-30 2022-09-02 深圳智华科技发展有限公司 动作识别方法、装置、设备及存储介质
CN116385663B (zh) * 2023-05-26 2023-08-29 北京七维视觉传媒科技有限公司 动作数据生成方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294996A (zh) * 2013-05-09 2013-09-11 电子科技大学 一种3d手势识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294996A (zh) * 2013-05-09 2013-09-11 电子科技大学 一种3d手势识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
canonical time warping for alignment of human behavior;Feng zhou等;《Carnegie mellon university》;20091231;全文 *
Human-like character animation of maize driven by motion capture data;wang xue等;《information and computational science》;20111231;全文 *
动态深度数据匹配及其应用;陈炉军;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140415;正文第10-11,14页,20-21页,图2-3,图2-8 *
基于Kinect传感器的骨骼定位研究;罗鸣;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140415;正文第10页,图2.5 *

Also Published As

Publication number Publication date
CN104268138A (zh) 2015-01-07

Similar Documents

Publication Publication Date Title
CN104268138B (zh) 融合深度图和三维模型的人体运动捕捉方法
Schonberger et al. Structure-from-motion revisited
CN102682302B (zh) 一种基于关键帧的多特征融合的人体姿态识别方法
Sundar et al. Skeleton based shape matching and retrieval
CN102855470B (zh) 基于深度图像的人体姿态估计方法
CN103577793B (zh) 手势识别方法及装置
CN108537191B (zh) 一种基于结构光摄像头的三维人脸识别方法
JP6025845B2 (ja) オブジェクト姿勢検索装置及び方法
WO2022213612A1 (zh) 一种非接触式三维人体尺寸的测量方法
WO2015149302A1 (zh) 基于点云与数据驱动的树木模型重建方法
Zhang et al. Data-driven synthetic modeling of trees
Ran et al. Applications of a simple characterization of human gait in surveillance
CN105931283B (zh) 一种基于动作捕捉大数据的三维数字内容智能制作云平台
CN102074012B (zh) 结合图像和计算模型的茶叶嫩芽形态的三维重建方法
CN108305283A (zh) 基于深度相机和基本姿势的人体行为识别方法及装置
CN102467753A (zh) 基于骨架配准的时变点云重建方法及***
Uddin et al. Human Activity Recognition via 3-D joint angle features and Hidden Markov models
CN105930770A (zh) 一种基于高斯过程隐变量模型的人体动作识别方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
WO2017079918A1 (zh) 室内场景扫描重建的方法及装置
CN109101864A (zh) 基于关键帧和随机森林回归的人体上半身动作识别方法
Zhao et al. Character‐object interaction retrieval using the interaction bisector surface
Song et al. Attention-oriented action recognition for real-time human-robot interaction
Wang et al. Action recognition using edge trajectories and motion acceleration descriptor
CN108154176A (zh) 一种针对单一深度图像的3d人体姿态估计算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170815

Termination date: 20190515

CF01 Termination of patent right due to non-payment of annual fee