CN104463146B - 基于近红外tof相机深度信息的姿势识别方法和装置 - Google Patents

基于近红外tof相机深度信息的姿势识别方法和装置 Download PDF

Info

Publication number
CN104463146B
CN104463146B CN201410840006.XA CN201410840006A CN104463146B CN 104463146 B CN104463146 B CN 104463146B CN 201410840006 A CN201410840006 A CN 201410840006A CN 104463146 B CN104463146 B CN 104463146B
Authority
CN
China
Prior art keywords
end points
skeleton
human body
barycenter
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410840006.XA
Other languages
English (en)
Other versions
CN104463146A (zh
Inventor
李榕
马晓阳
张金权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN201410840006.XA priority Critical patent/CN104463146B/zh
Publication of CN104463146A publication Critical patent/CN104463146A/zh
Application granted granted Critical
Publication of CN104463146B publication Critical patent/CN104463146B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于近红外TOF相机深度信息的姿势识别方法,该方法通过SR4000获取深度图像进行前期运处理得到人体目标并骨骼化后,提取人体目标的头、手、脚、质心的端点坐标,并计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性,然后结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,方便了实时嵌入式移植。本发明还公开了一种用于实现上述方法的装置。

Description

基于近红外TOF相机深度信息的姿势识别方法和装置
技术领域
本发明涉及图像处理技术领域,特别是涉及一种应用于无人驾驶汽车领域的基于近红外TOF相机深度信息的姿势识别方法和装置。
背景技术
目前,交互式人体识别已经在游戏、零售体验、人机交互、安全工程、远程控制以及卫生保健等行业中得到广泛的应用。然而,由于现有的姿势识别***一般采用传统的彩色摄像机来捕获彩色图像,而彩色图像容易受到光照变化和复杂背景的影响,导致目标追踪困难和目标分割不精确。同时,现有姿势识别***通过对彩色图像进行处理获得目标的方法存在着算法复杂度较高、实时嵌入式移植不方便等问题。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于近红外TOF相机深度信息的姿势识别方法,通过SR4000获取深度图像进行前期运处理得到人体目标并骨骼化后,提取人体目标的头、手、脚、质心的端点坐标,并计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性,然后结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,方便了实时嵌入式移植。本发明还提供了一种用于实现上述方法的装置。
本发明是通过以下技术方案实现的:一种基于近红外TOF相机深度信息的姿势识别方法,包括以下步骤:
步骤1:获取深度图像;
步骤2:根据深度图像提取人体目标,以及人体目标的质心和骨架;
步骤3:根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标;
步骤4:识别人体目标各端点属性;
步骤5:根据姿势动作特征和各端点属性提取人体目标姿势运动轨迹;
步骤6:判断人体目标姿势,实现姿势识别。
进一步,所述步骤1中,通过近红外TOF相机获取深度图像。通过近红外TOF相机获取深度图像减少了拍摄环境的影响,其具有优于传统彩色图像的环境适应性,能够用于夜间和恶劣气候,能够穿透雾霾对目标进行成像,提供全天候和抗干扰的图像信息,有效地提高了图像的识别有效率和保证了图像的稳定性。
进一步,所述步骤2中实现人体目标及其质心和骨架的提取包括以下步骤:
步骤21:对深度图像依次进行背景差分处理和图像二值化运算处理,得到目标二值图像;
步骤22:对目标二值图像依次进行孔洞填充、开运算处理以及连通域标记,得到连通域的质心;
步骤23:通过对目标二值图像进行zhang快速并行细化运算,实现人体目标骨架及其坐标的提取。
利用背景差分法处理深度图像,采用图像序列中的当前帧和背景参考模型比较来检测运动物体,具有检测速度快、检测准确和易于实现等优点。然后通过图像二值化运算继续对深度图像进行处理,有利于简化图像、减少数据量和凸显目标的轮廓。继续通过对目标二值图像进行孔洞填充和开运算操作,分离图像中连接在一起的物体和消除图像中的小物体,并解决了由于噪声带来的图像边缘不平滑、物体内部有孤立小孔、孤立白噪声点等问题;通过连通域标记处理和zhang快速并行细化运算有利于快速地提取一个单像素宽的目标骨架。
进一步,所述步骤3中,实现人体头部端点、左手端点、右手端点、左脚端点和右脚端点的提取和标记包括以下步骤:
步骤31:在骨架中标记距离质心最近的骨架点,生成骨架质心;
步骤32:通过森林树遍历的方法以骨架质心为父节点遍历骨架,获取多个骨架分支节点;
步骤33:根据骨架坐标中骨架分支端点坐标数组的分支节点信息判断骨架分支节点是否存在;若存在,执行步骤34;若不存在,将骨架分支节点存入骨架分支端点坐标数组,执行步骤34;
步骤34:以每个骨架分支节点为子节点遍历骨架,寻找骨架结束端点;
步骤35:根据骨架坐标中骨架结束端点坐标数组的结束端点信息判断骨架结束端点是否存在;若存在,执行步骤36;若不存在,将骨架结束端点存入骨架结束端点坐标数组中,执行步骤36;
步骤36:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点的提取和标记。
进一步,所述步骤4中,实现人体目标各端点属性的识别包括以下步骤:
步骤41:计算人体头部端点、左手端点、右手端点、左脚端点和右脚端点等各端点距离地面的高度、以及各端点沿骨架线到质心的距离;
步骤42:根据骨架线距离和离地高度识别各端点的属性。
所述步骤41中,实现各端点距离地面的高度和距离质心的骨架线距离的计算包括以下步骤:
步骤411:测量相机离地高度H、像素端点横倾斜度θ、像素端点竖倾斜度β、像素端点距离相机的距离值D;则像素端点的离地高度h=H-D·cosθ·sinβ;实现质心和各端点距离地面的高度的计算;
步骤412:在深度图像中,求任意两点P1和P2的三维距离和d;三维距离和d根据下述公式求得:其中P1P1y_2xz为点P1在Y轴方向的高度差,P2′P1y_2xz为点P1和点P2的水平方向的距离差,P1y_2xz是P1点在P2点所处xz平面的映射点;P2P2′为P2在Z轴方向的深度差;
步骤413:所述三维距离和d为骨架线距离,根据三维距离和的计算公式得到人体头部端点、左手端点、右手端点、左脚端点和右脚端点分别距离质心的骨架线距离。
所述步骤42中,实现各端点属性的识别包括以下步骤:
步骤421:骨架线距离最大的两点为脚部端点,骨架线距离最小的一点为头部端点,骨架线距离大于最小骨架线距离且小于最大骨架线距离为手部端点;
步骤422:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点共5个端点的属性识别。
所述步骤5中,实现人体目标姿势运动轨迹的提取包括以下步骤:
步骤51:设置姿势动作特征为手部姿势特征;
步骤52:利用质心与头部端点的平均深度距离信息作为阈值分割人体身躯前的手势;
步骤53:通过计算骨架线距离识别出人体目标的头部端点和手部端点;通过手部端点的横向坐标识别左手端点和右手端点;
步骤54:根据最近邻分类原则,获取手势运动轨迹图,实现人体目标姿势运动轨迹的提取。
进一步,所述步骤6中,根据人体骨架端点属性和数量、身躯前手势数量、手势轨迹及其方差结合判断人体目标姿势和实现姿势识别。
因此,相对于现有技术,本发明通过对深度图像进行前期运处理得到人体目标并骨骼化后,提取人体目标的头、手、脚、质心的端点坐标,并计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性,然后结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,方便了实时嵌入式移植。
本发明还提供了一种基于近红外TOF相机深度信息的姿势识别装置,包括近红外TOF相机、图像预处理模块、骨架端点标志模块、端点属性识别模块、运动轨迹提取模块和姿势识别模块。所述近红外TOF相机用于获取深度图像,并传送至图像预处理模块;所述图像预处理模块用于根据深度图像提取人体目标、人体目标的质心和骨架,并传送至骨架端点标志模块;所述骨架端点标志模块用于根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标,并传送至端点属性识别模块;所述端点属性识别模块用于识别骨架各端点的属性,并传送至运动轨迹提取模块;所述运动轨迹提取模块根据姿势动作特征和骨架各端点的运动提取人体目标姿势运动轨迹,并传送至所述姿势识别模块;所述姿势识别模块用于判断人体目标姿势以实现姿势识别。
相对于现有技术,本发明通过近红外TOF相机和图像预处理模块实现深度图像的获取和对深度图像进行前期运处理得到人体目标并骨骼化;通过骨架端点标志模块提取人体目标的头、手、脚、质心的端点坐;通过端点属性识别模块计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性;通过运动轨迹提取模块和姿势识别模块结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,同时简化了本装置的结构和方便了本装置的实时嵌入式移植。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1是本发明的基于近红外TOF相机深度信息的姿势识别方法的方法流程图;
图2是本发明的基于近红外TOF相机深度信息的姿势识别方法的算法流程图;
图3是本发明的步骤S1中获取得到的彩色深度图像图;
图4是经过本发明的步骤S21处理得到的灰色深度图;
图5是经过本发明的步骤S22处理得到的人体目标二值图;
图6是经过本发明的步骤S23处理得到的人体骨架端点图;
图7是实现公式的推导中P1、P2和相机的坐标系图;
图8是靠边停车手势运动轨迹图;
图9是左转弯手势运动轨迹图;
图10是停止信号手势运动轨迹图;
图11是直行信号手势运动轨迹图;
图12是变道信号手势运动轨迹图;
图13是减速慢行手势运动轨迹图;
图14是本发明的基于近红外TOF相机深度信息的姿势识别装置的连接示意图。
具体实施方式
请同时参阅图1~图6,本发明提供了一种基于近红外TOF相机深度信息的姿势识别方法,其包括以下步骤:
S1:获取深度图像。在本实施例中,通过近红外TOF相机SR4000获取深度图像。
S2:根据深度图像提取人体目标,以及人体目标的质心和骨架。具体地,包括以下步骤:
S21:对深度图像依次进行背景差分处理和图像二值化运算处理,得到目标二值图像;
S22:对目标二值图像依次进行孔洞填充、开运算处理以及连通域标记,得到连通域的质心;
S23:通过对目标二值图像进行zhang快速并行细化运算,实现人体目标骨架及其坐标的提取。所述骨架坐标的提取包括对骨架中各个分支节点信息和骨架结束端点信息的保存,并建立分支节点数组以保存各个分支节点信息,同时建立结束端点数组以保存结束端点信息。
其中,背景差分处理是采用图像序列中的当前帧背景和背景参考模型比较来检测运动物体;开运算是指用同一个结构元素,对图像进行先腐蚀后膨胀,其物理意义是将图像中某些连接在一起的物体分开、消除图像中的小物体;解决由于噪声带来的图像边缘不平滑、物体内部有孤立小孔、孤立白噪声点等情况;连通区域标记是指将图像中符合某种连通规则(4邻域连通、8邻域连通或m邻域)的像素标识为同一目标,设计合适的数据结构保存每个像素点所属的目标的标号,并保存相关目标的属性,例如目标的面积即目标的像素点的数量、质心、二阶矩等参数;图像细化是指在保持原图像拓扑结构的情况下尽可能快地抽出一个单像素宽的骨架的过程。
S3:根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标。具体地,包括以下步骤:
S31:在骨架中标记距离质心最近的骨架点,生成骨架质心;
S32:通过森林树遍历的方法以骨架质心为父节点遍历骨架,获取多个骨架分支节点;
S33:根据骨架坐标中骨架分支端点坐标数组的分支节点信息判断骨架分支节点是否存在;若存在,执行步骤S34;若不存在,将骨架分支节点存入骨架分支端点坐标数组,执行步骤S34。
在本实施例中,通过将多个骨架分支节点与骨架分支端点坐标数组进行对比,实现对骨架分支节点是否已经存在于骨架分支端点坐标数组的判断。
S34:以每个骨架分支节点为子节点遍历骨架,寻找骨架结束端点;
S35:根据骨架坐标中骨架结束端点坐标数组的结束端点信息判断骨架结束端点是否存在;若存在,执行步骤S36;若不存在,将骨架结束端点存入骨架结束端点坐标数组中,执行步骤S36;
在本实施例中,通过将骨架结束端点与骨架结束端点坐标数组进行对比,实现对骨架结束端点是否存在于骨架结束端点坐标数组的判断。
S36:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点的提取和标记。
S4:识别人体目标各端点属性。具体地,包括以下步骤:
S41:计算人体头部端点、左手端点、右手端点、左脚端点和右脚端点等各端点距离地面的高度、以及各端点沿骨架线到质心的距离;具体地,包括以下步骤:
S411:测量相机离地高度H、像素端点横倾斜度θ、像素端点竖倾斜度β、像素端点距离相机的距离值D;则像素端点的离地高度h=H-D·cosθ·sinβ;实现质心和各端点距离地面的高度的计算。也即,根据上述公式h=H-D·cosθ·sinβ分别计算出质心、体头部端点、左手端点、右手端点、左脚端点和右脚端点等端点距离地面的高度。
S412:在深度图像中,求任意两点P1和P2的三维距离和d;三维距离和d根据下述公式求得:其中P1P1y_2xz为点P1在Y轴方向的高度差,P2′P1y_2xz为点P1和点P2的水平方向的距离差,P2P1y_2xz为点P2在Y轴方向的高度差,P1y_2xz是P1点在P2点所处xz平面的映射点;P2P2′为P2在Z轴方向的深度差。
请同时参阅图7,具体地,公式的推导过程如下:
设P1、P2为图像中的任意两点,d1、d2为这两点的深度距离,点P1、P2与相机的横倾斜度夹角θ1、θ2,以及竖倾斜度夹角β1、β2可由相机的角度分辨率0.23°与点P1、P2的横坐标计算得到:
θ1=0.23°×P1x,β1=0.23°×P1y
θ2=0.23°×P2x,β2=0.23°×P2y
已知d1、d2和θ1、θ2,β1、β2要求两点距离d,首先要求出两点分别在Y轴方向的高度差P1P1y_2xz和P2P1y_2xz。其中点P1y_2xz是P1点在P2点所处xz平面的映射点。由上文计算出的端点高度h可得:
P1P1y_2xz=h1-h2
其中h1、h2为两点离地高度。而要求P2P1y_2xz,要先求出两点水平方向的距离差P2′P1y_2xz和Z轴方向的深度差P2P2′:
P2′P1y_2xz=P2yP2′+P1P1y
=d2sinθ2+d1sinθ1
P2P2′=OO′-P2zO′
=O′P1ycosβ1-O′P2y′cosθ2
=d1cosθ1cosβ1-d2cosθ2cosβ2
其中,点O′为相机所在的点,O为O′在XY平面的映射点;
最后由勾股定理得:
S413:所述三维距离和d为骨架线距离,根据三维距离和的计算公式得到人体头部端点、左手端点、右手端点、左脚端点和右脚端点分别距离质心的骨架线距离。
本文所述的骨架线指的是人体骨架线端点到其它端点之间所有像素点的实际三维距离之和。请参阅图6,P1头部端点的骨架线距离指的是P2~P5这4个点沿着骨架线上的像素点到P1点的实际三维距离值之和。
S42:根据骨架线距离和离地高度识别各端点的属性;具体地,包括以下步骤:
S421:骨架线距离最大的两点为脚部端点,骨架线距离最小的一点为头部端点,骨架线距离大于最小骨架线距离且小于最大骨架线距离为手部端点;如表一所示:
表一端点骨架线距离
P1 P2 P3 P4 P5 骨架线距离
P1 0 116 120 172 169 577
P2 116 0 176 228 225 745
P3 120 176 0 232 229 757
P4 172 228 232 0 197 829
P5 169 225 229 197 0 820
S422:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点共5个端点的属性识别。也即,通过表一中的计算结果可知,P1为头部端点,P2和P3为手部端点,P4和P5为脚部端点。
S5:根据姿势动作特征和各端点属性提取人体目标姿势运动轨迹。具体地,包括以下步骤:
S51:设置姿势动作特征为手部姿势特征;
S52:利用质心与头部端点的平均深度距离信息作为阈值分割人体身躯前的手势;此步骤需要执行的条件为:出现手部挡在身体前等自遮挡情况,如手臂置于身体前,导致骨架线没有手部端点,此时需设定一深度信息的阈值,分离手和身体躯干,得到自遮挡部分的手部端点。
S53:通过计算骨架线距离识别出人体目标的头部端点和手部端点;通过手部端点的横向坐标识别左手端点和右手端点;
S54:根据最近邻分类原则,获取手势运动轨迹图,实现人体目标姿势运动轨迹的提取。
S6:判断人体目标姿势,实现姿势识别。在实施例中,所述步骤S6中,根据人体骨架端点属性和数量、身躯前手势数量、手势轨迹及其方差结合判断人体目标姿势和实现姿势识别。
具体地,在步骤S5~S6中,以交警的姿势动作特征为基础对其进行说明:
本文通过结合交通警察的8个指挥动作的特征和上述姿势端点识别算法,识别停止、直行、左转弯、左转弯待转、右转弯、变道、减速慢行、靠边停车8个标准交警指挥姿势。
以靠边停车姿势为例子,利用质心与头部端点的平均深度距离信息作为阈值分割身躯前的手势。
对分割出来的手势图进行连通域图像标记,删除面积较小的连通区域,找出每个区域距离值的中值点,将该点作为该区域手势的代表点并计算该点离地高度。
对人体目标进行上述姿势识别算法的运算,识别出人体目标的头和手部端点。手部端点可通过其横坐标的值区分右手和左手端点。因为交警指挥动作一般是站立完成,脚步端点可忽略。
请同时参阅图8~图13,在一个完整的交警动作序列帧里,身躯前的手势代表点有时候会有一个点,有时会有两个,根据最近邻分类原则,当帧代表点的坐标位置离前一帧代表点的坐标位置最近的点,将该两点作为同一手势点的连续动作,如图8~13所示,分类得到的6个指挥动作(左转弯和右转弯选一个,左转弯待转信号没有身前手势运动轨迹,故忽略)身躯前手势运动轨迹图,以代表点的离地高度为轨迹的特征值绘图。
将人体骨架端点属性和数量(由于交警始终处于站立姿态,所以只取头,手的端点),身躯前手势数量,手势轨迹及其方差结合判断交警姿势。
当没有手部端点活动,身躯前没有手势运动,则为站立姿势。
当有一手部端点活动,身躯前没有手势运动,则为左转弯待转信号。
当有两手部端点活动,身躯前有两手势运动,多点高度高于头部端点,则为靠边停车信号。如图8所示。
当有两手部端点活动,身躯前有两手势运动轨迹,没有高于头部端点的轨迹,则为左转弯信号或右转弯信号。如图9所示。再根据较高的那个手部端点的横坐标在头部端点的左右两侧来判断是左转弯还是右转弯。
当有一手部端点活动,身躯前有一手势运动,可能的姿势有停止信号,直行信号,变道信号和减速慢行信号。其中只有停止信号的轨迹图有多点高度高于头部端点,如图10所示,另外三个信号由于波动的剧烈程度存在明显差别,如图11~图13所示。为准确的识别出此处的手势运动为直行信号,变道信号还是减速慢行信号,本发明通过判断手势运动轨迹的方差大小对这三种姿势进行判断。首先,对手势运动轨迹上的各个点进行计算,得出轨迹方差;然后,根据轨迹方差值对当前姿势信号进行判断:当轨迹方差值高于2000,当前手势运动为直行信号;当轨迹方差值低于500,当前手势运动为变道信号;当轨迹方差值介于500-2000之间,当前手势运动为减速慢行信号。
根据停止、直行、左转弯、左转弯待转、右转弯、变道、减速慢行、车辆靠边停车这8种标准交通警察姿势,本发明对20个人在不同的环境下每种获取多个样本,且其识别率如表二所示。
表二交警姿势识别率
由表二可知,并经过实验表明,本发明方法算法复杂度较低,便于嵌入式移植,可实时应用于无人驾驶汽车等领域。
因此,相对于现有技术,本发明通过对深度图像进行前期运处理得到人体目标并骨骼化后,提取人体目标的头、手、脚、质心的端点坐标,并计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性,然后结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,方便了实时嵌入式移植。
请参阅图14,本发明还提供了一种基于近红外TOF相机深度信息的姿势识别装置,包括近红外TOF相机1、图像预处理模块2、骨架端点标志模块3、端点属性识别模块4、运动轨迹提取模块5和姿势识别模块6。所述近红外TOF相机1用于获取深度图像,并传送至图像预处理模块2;所述图像预处理模块2用于根据深度图像提取人体目标、人体目标的质心和骨架,并传送至骨架端点标志模块3;所述骨架端点标志模块3用于根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标,并传送至端点属性识别模块4;所述端点属性识别模块4用于识别骨架各端点的属性,并传送至运动轨迹提取模块5;所述运动轨迹提取模块5根据姿势动作特征和骨架各端点的运动提取人体目标姿势运动轨迹,并传送至所述姿势识别模块6;所述姿势识别模块6用于判断人体目标姿势以实现姿势识别。
其中,图像预处理模块2处理和分析图像采用Windows7操作***,Intel(R)Core(TM)i7-3610Q处理器,2.30GHz主频。***采用的软件开发环境:Matlab2012b。处理每帧交警姿势深度图平均所需时间为24ms,大约每秒可处理42帧的图像,可以满足实时性的需求。
相对于现有技术,本发明通过近红外TOF相机1和图像预处理模块2实现深度图像的获取和对深度图像进行前期运处理得到人体目标并骨骼化;通过骨架端点标志模块3提取人体目标的头、手、脚、质心的端点坐;通过端点属性识别模块4计算各端点距离地面的高度和距离质心的骨架线距离,根据骨架线距离和离地高度识别各端点的属性;通过运动轨迹提取模块5和姿势识别模块6结合动作的特征和深度信息实现姿势的识别;从而降低了目标追踪的难度和算法的复杂性,提高了识别有效率和目标分割的准确性,同时简化了本装置的结构和方便了本装置的实时嵌入式移植。
本发明并不局限于上述实施方式,如果对本发明的各种改动或变形不脱离本发明的精神和范围,倘若这些改动和变形属于本发明的权利要求和等同技术范围之内,则本发明也意图包含这些改动和变形。

Claims (8)

1.一种基于近红外TOF相机深度信息的姿势识别方法,其特征在于:包括以下步骤:
步骤1:获取深度图像;
步骤2:根据深度图像提取人体目标,以及人体目标的质心和骨架;
步骤3:根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标;
步骤4:识别人体目标各端点属性;包括以下步骤:
步骤41:计算人体头部端点、左手端点、右手端点、左脚端点和右脚端点等各端点距离地面的高度、以及各端点沿骨架线到质心的距离;包括以下步骤:
步骤411:测量相机离地高度H、像素端点横倾斜度θ、像素端点竖倾斜度β、像素端点距离相机的距离值D;则像素端点的离地高度h=H-D·cosθ·sinβ;实现质心和各端点距离地面的高度的计算;
步骤412:在深度图像中,求任意两点P1和P2的三维距离和d;三维距离和d根据下述公式求得:其中P1P1y_2xz为点P1在Y轴方向的高度差,P2′P1y_2xz为点P1和点P2的水平方向的距离差,P1y_2xz是P1点在P2点所处xz平面的映射点;P2P2′为P2在Z轴方向的深度差;
步骤413:所述三维距离和d为骨架线距离,根据三维距离和的计算公式得到人体头部端点、左手端点、右手端点、左脚端点和右脚端点分别距离质心的骨架线距离;
步骤42:根据骨架线距离和离地高度识别各端点的属性;
步骤5:根据姿势动作特征和各端点属性提取人体目标姿势运动轨迹;
步骤6:判断人体目标姿势,实现姿势识别。
2.根据权利要求1所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤1中,通过近红外TOF相机获取深度图像。
3.根据权利要求2所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤2中实现人体目标及其质心和骨架的提取包括以下步骤:
步骤21:对深度图像依次进行背景差分处理和图像二值化运算处理,得到目标二值图像;
步骤22:对目标二值图像依次进行孔洞填充、开运算处理以及连通域标记,得到连通域的质心;
步骤23:通过对目标二值图像进行zhang快速并行细化运算,实现人体目标骨架及其坐标的提取。
4.根据权利要求3所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤3中,实现人体头部端点、左手端点、右手端点、左脚端点和右脚端点的提取和标记包括以下步骤:
步骤31:在骨架中标记距离质心最近的骨架点,生成骨架质心;
步骤32:通过森林树遍历的方法以骨架质心为父节点遍历骨架,获取多个骨架分支节点;
步骤33:根据骨架坐标中骨架分支端点坐标数组的分支节点信息判断骨架分支节点是否存在;若存在,执行步骤34;若不存在,将骨架分支节点存入骨架分支端点坐标数组,执行步骤34;
步骤34:以每个骨架分支节点为子节点遍历骨架,寻找骨架结束端点;
步骤35:根据骨架坐标中骨架结束端点坐标数组的结束端点信息判断骨架结束端点是否存在;若存在,执行步骤36;若不存在,将骨架结束端点存入骨架结束端点坐标数组中,执行步骤36;
步骤36:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点的提取和标记。
5.根据权利要求1~4任一项所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤42中,实现各端点属性的识别包括以下步骤:
步骤421:骨架线距离最大的两点为脚部端点,骨架线距离最小的一点为头部端点,骨架线距离大于最小骨架线距离且小于最大骨架线距离为手部端点;
步骤422:完成人体头部端点、左手端点、右手端点、左脚端点和右脚端点共5个端点的属性识别。
6.根据权利要求5所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤5中,实现人体目标姿势运动轨迹的提取包括以下步骤:
步骤51:设置姿势动作特征为手部姿势特征;
步骤52:利用质心与头部端点的平均深度距离信息作为阈值分割人体身躯前的手势;
步骤53:通过计算骨架线距离识别出人体目标的头部端点和手部端点;通过手部端点的横向坐标识别左手端点和右手端点;
步骤54:根据最近邻分类原则,获取手势运动轨迹图,实现人体目标姿势运动轨迹的提取。
7.根据权利要求6所述的基于近红外TOF相机深度信息的姿势识别方法,其特征在于:所述步骤6中,根据人体骨架端点属性和数量、身躯前手势数量、手势轨迹及其方差结合判断人体目标姿势和实现姿势识别。
8.一种基于近红外TOF相机深度信息的姿势识别装置,其特征在于:包括近红外TOF相机、图像预处理模块、骨架端点标志模块、端点属性识别模块、运动轨迹提取模块和姿势识别模块;所述近红外TOF相机用于获取深度图像,并传送至图像预处理模块;所述图像预处理模块用于根据深度图像提取人体目标、人体目标的质心和骨架,并传送至骨架端点标志模块;所述骨架端点标志模块用于根据人体目标的质心和骨架标记并提取人体头部端点、左手端点、右手端点、左脚端点和右脚端点的坐标,并传送至端点属性识别模块;所述端点属性识别模块用于识别骨架各端点的属性,并传送至运动轨迹提取模块;所述运动轨迹提取模块根据姿势动作特征和骨架各端点的运动提取人体目标姿势运动轨迹,并传送至所述姿势识别模块;所述姿势识别模块用于判断人体目标姿势以实现姿势识别;其中,所述端点属性识别模块对骨架各端点属性的识别包括以下步骤:
步骤41:计算人体头部端点、左手端点、右手端点、左脚端点和右脚端点等各端点距离地面的高度、以及各端点沿骨架线到质心的距离;包括以下步骤:
步骤411:测量相机离地高度H、像素端点横倾斜度θ、像素端点竖倾斜度β、像素端点距离相机的距离值D;则像素端点的离地高度h=H-D·cosθ·sinβ;实现质心和各端点距离地面的高度的计算;
步骤412:在深度图像中,求任意两点P1和P2的三维距离和d;三维距离和d根据下述公式求得:其中P1P1y_2xz为点P1在Y轴方向的高度差,P2′P1y_2xz为点P1和点P2的水平方向的距离差,P1y_2xz是P1点在P2点所处xz平面的映射点;P2P2′为P2在Z轴方向的深度差;
步骤413:所述三维距离和d为骨架线距离,根据三维距离和的计算公式得到人体头部端点、左手端点、右手端点、左脚端点和右脚端点分别距离质心的骨架线距离;
步骤42:根据骨架线距离和离地高度识别各端点的属性。
CN201410840006.XA 2014-12-30 2014-12-30 基于近红外tof相机深度信息的姿势识别方法和装置 Expired - Fee Related CN104463146B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410840006.XA CN104463146B (zh) 2014-12-30 2014-12-30 基于近红外tof相机深度信息的姿势识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410840006.XA CN104463146B (zh) 2014-12-30 2014-12-30 基于近红外tof相机深度信息的姿势识别方法和装置

Publications (2)

Publication Number Publication Date
CN104463146A CN104463146A (zh) 2015-03-25
CN104463146B true CN104463146B (zh) 2018-04-03

Family

ID=52909162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410840006.XA Expired - Fee Related CN104463146B (zh) 2014-12-30 2014-12-30 基于近红外tof相机深度信息的姿势识别方法和装置

Country Status (1)

Country Link
CN (1) CN104463146B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718908B (zh) * 2016-01-25 2018-11-16 大连楼兰科技股份有限公司 一种基于衣帽特征与姿态检测的交警检测方法和***

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106606363A (zh) * 2015-10-22 2017-05-03 上海西门子医疗器械有限公司 一种医疗设备中患者***的确定方法、***及医疗设备
CN106683070B (zh) * 2015-11-04 2020-05-12 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN106886741A (zh) * 2015-12-16 2017-06-23 芋头科技(杭州)有限公司 一种基手指识别的手势识别方法
CN105654045B (zh) * 2015-12-29 2019-04-05 大连楼兰科技股份有限公司 应用在主动驾驶技术中识别交通管制人员的方法
CN105740776B (zh) * 2016-01-25 2019-02-12 大连楼兰科技股份有限公司 基于衣帽特征与姿态检测的交警检测方法和***
CN105956586B (zh) * 2016-07-15 2019-06-11 瑞胜科信息(深圳)有限公司 一种基于tof 3d摄像机的智能跟踪***
CN107767407B (zh) * 2016-08-16 2020-09-22 北京万集科技股份有限公司 一种基于tof相机的道路车辆目标提取***及方法
CN106417104A (zh) * 2016-08-31 2017-02-22 北京农业信息技术研究中心 养殖鱼类游动方向测定***和方法
CN106774850B (zh) * 2016-11-24 2020-06-30 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN106780601B (zh) * 2016-12-01 2020-03-27 北京未动科技有限公司 一种空间位置追踪方法、装置及智能设备
CN109923583A (zh) * 2017-07-07 2019-06-21 深圳市大疆创新科技有限公司 一种姿态的识别方法、设备及可移动平台
CN108803426A (zh) * 2018-06-27 2018-11-13 常州星宇车灯股份有限公司 一种基于tof手势识别的车机控制***
CN109017552A (zh) * 2018-06-27 2018-12-18 常州星宇车灯股份有限公司 一种基于tof手势识别的氛围灯控制装置及其控制方法
CN109376515A (zh) * 2018-09-10 2019-02-22 Oppo广东移动通信有限公司 电子装置及其控制方法、控制装置和计算机可读存储介质
CN109140168A (zh) * 2018-09-25 2019-01-04 广州市讯码通讯科技有限公司 一种体感采集多媒体播放***
CN109558835A (zh) * 2018-11-28 2019-04-02 科大智能机器人技术有限公司 一种基于人体识别的自动牵引车的控制方法及其***
CN109859237B (zh) * 2019-01-25 2023-05-26 湖南大学 一种基于红外扫描的人体骨骼运动分析方法
CN109815921A (zh) * 2019-01-29 2019-05-28 北京融链科技有限公司 加氢站中活动类别的预测方法及装置
CN109977786B (zh) * 2019-03-01 2021-02-09 东南大学 一种基于视频及肤色区域距离的驾驶员姿态检测方法
CN110599407B (zh) * 2019-06-21 2022-04-05 杭州一隅千象科技有限公司 基于向下倾角方向的多台tof相机人体降噪方法及***
CN110363140B (zh) * 2019-07-15 2022-11-11 成都理工大学 一种基于红外图像的人体动作实时识别方法
CN110826405B (zh) * 2019-09-30 2022-05-24 许昌许继软件技术有限公司 一种基于人体体态图像的设备控制方法及装置
CN110687534A (zh) * 2019-10-28 2020-01-14 湖南华诺星空电子技术有限公司 一种基于无人机载生命探测仪的姿态识别方法
CN111178170B (zh) * 2019-12-12 2023-07-04 青岛小鸟看看科技有限公司 一种手势识别方法和一种电子设备
CN111158489B (zh) * 2019-12-31 2023-08-08 上海佑久健康科技有限公司 一种基于摄像头的手势交互方法及手势交互***
CN111345928B (zh) * 2020-03-09 2022-02-25 腾讯科技(深圳)有限公司 头部姿势监测方法及装置、存储介质、电子设备
CN112090076B (zh) * 2020-08-14 2022-02-01 深圳中清龙图网络技术有限公司 游戏角色动作控制方法、装置、设备和介质
CN112183206B (zh) * 2020-08-27 2024-04-05 广州中国科学院软件应用技术研究所 一种基于路侧单目摄像头的交通参与者定位方法和***
CN113033369B (zh) * 2021-03-18 2024-03-12 北京达佳互联信息技术有限公司 动作捕捉方法、装置、电子设备及计算机可读存储介质
CN113878595B (zh) * 2021-10-27 2022-11-01 上海清宝引擎机器人有限公司 基于树莓派的仿人实体机器人***
CN114334084B (zh) * 2022-03-01 2022-06-24 深圳市海清视讯科技有限公司 健身数据的处理方法、装置、设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894278A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于变结构多模型的人体运动跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894278A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于变结构多模型的人体运动跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
3D人机交互中的骨架提取和动态手势识别;庄浩洋;《中国优秀硕士学位论文全文数据库全文期刊》;20140115;第13页第2行-第14页第24行,第16页第6行-第17页第12行,第23页第2行-第24页第20行,图2-4,图2-5,图2-8 *
Zhang 快速并行细化算法的扩展;吴选忠;《福建工程学院学报》;福建工程学院;20060228;第4卷(第1期);89-92 *
基于Kinect的姿势识别与应用研究;谢亮等;《计算机技术与发展》;陕西省计算机学会;20130531;第23卷(第5期);258-260 *
基于骨骼信息的在线姿势识别技术研究;沈润杰等;《计算机工程与应用》;20140621;第50卷;第208页第1栏第7行-第2栏第8行,图1 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718908B (zh) * 2016-01-25 2018-11-16 大连楼兰科技股份有限公司 一种基于衣帽特征与姿态检测的交警检测方法和***

Also Published As

Publication number Publication date
CN104463146A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104463146B (zh) 基于近红外tof相机深度信息的姿势识别方法和装置
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
Choi et al. A general framework for tracking multiple people from a moving camera
Jalal et al. Ridge body parts features for human pose estimation and recognition from RGB-D video data
Schwarz et al. Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow
Bohg et al. Robot arm pose estimation through pixel-wise part classification
CN104200200B (zh) 融合深度信息和灰度信息实现步态识别的***及方法
Thành et al. An evaluation of pose estimation in video of traditional martial arts presentation
CN106682641A (zh) 基于fhog‑lbph特征的图像行人识别方法
CN114187665B (zh) 一种基于人体骨架热图的多人步态识别方法
Tulyakov et al. Robust real-time extreme head pose estimation
CN106204594A (zh) 一种基于视频图像的弥散性运动物体的方向检测方法
Munaro et al. 3D flow estimation for human action recognition from colored point clouds
CN107564035B (zh) 基于重要区域识别和匹配的视频跟踪方法
Gaus et al. Hidden Markov Model-Based gesture recognition with overlapping hand-head/hand-hand estimated using Kalman Filter
CN110895683B (zh) 一种基于Kinect的单视点手势姿势识别方法
Sternig et al. Multi-camera multi-object tracking by robust hough-based homography projections
Hu et al. Depth sensor based human detection for indoor surveillance
Thalhammer et al. SyDPose: Object detection and pose estimation in cluttered real-world depth images trained using only synthetic data
Escalera Human behavior analysis from depth maps
Hu et al. Human interaction recognition using spatial-temporal salient feature
Amrutha et al. Human Body Pose Estimation and Applications
Kress et al. Human pose estimation in real traffic scenes
Dib et al. Pose estimation for a partially observable human body from RGB-D cameras
Kondori et al. Direct hand pose estimation for immersive gestural interaction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180403

Termination date: 20181230