CN107463873B - 一种基于rgbd深度传感器的实时手势分析与评价方法与*** - Google Patents
一种基于rgbd深度传感器的实时手势分析与评价方法与*** Download PDFInfo
- Publication number
- CN107463873B CN107463873B CN201710523575.5A CN201710523575A CN107463873B CN 107463873 B CN107463873 B CN 107463873B CN 201710523575 A CN201710523575 A CN 201710523575A CN 107463873 B CN107463873 B CN 107463873B
- Authority
- CN
- China
- Prior art keywords
- palm
- node
- frame
- initial image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 52
- 238000004458 analytical method Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 210000000707 wrist Anatomy 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000007797 corrosion Effects 0.000 claims description 6
- 238000005260 corrosion Methods 0.000 claims description 6
- 239000011541 reaction mixture Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 230000001537 neural effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 abstract description 4
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 230000003068 static effect Effects 0.000 abstract description 3
- 230000007613 environmental effect Effects 0.000 abstract 1
- 230000010339 dilation Effects 0.000 description 4
- 230000003628 erosive effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于RGBD深度传感器的实时手势分析与评价的方法与***,包括火车驾驶员手掌的静态手势识别与评价***和火车驾驶员手臂的动态手势识别与评价***,火车驾驶员手掌的静态手势识别与评价***包括确定手掌掌心位置模块、提取手掌区域图像模块、去噪模块、手势识别及评价模块;火车驾驶员手臂的动态手势识别与评价***包括手臂骨骼节点运动序列提取模块、动态手势最优匹配模块、手臂动态手势评价模块。本发明对于环境背景、光照具有很强的鲁棒性,而且在手掌手势检测时采用基于掌心节点的手势像素搜索,提高了手掌手势的检测效果;实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于RGBD深度传感器的实时手势分析与评价方法与***。
背景技术
手势识别技术作为未来人机交互***的关键技术之一不仅具有重要的研究价值,而且具有广泛的应用前景。目前,传统的手势识别方法通常是对输入的二维图像进行手势检测并加以识别,然而这类方法对于输入的图像比较敏感,当背景简单、环境光照影响较小时手势检测与识别效果较好,然而当背景复杂、光照变化较大时手势检测与识别效果急剧下降,应用范围受到限制。近几年,为了克服传统手势识别方法的缺陷,三维图像传感设备越来越受到人们的青睐,这类设备不仅可以获取到RGB图像,而且还可以获取到图像的深度数据,从而可以避免复杂的环境背景、光照变化等对手势识别的影响。
目前,手势在交通领域应用广泛,例如火车驾驶员在火车行驶前、行驶中、车内仪器检测情况等需要用手势演示出来,以确保火车的安全行驶,防止事故的发生,交警则通过一系列的手势来保障道路交通安全畅通等。然而,由于火车驾驶员、交警等人员工作环境较为复杂,光线变化极大,传统方法无法对驾驶员手势有效地进行识别与评价,而且驾驶员标准手势众多,不仅包含手臂上的动态手势,还包括手掌区域的手势,进一步加大了手势识别的难度。传统的手势识别方法主要包括两个步骤,首先在二维图像上检测出手掌与手臂,其次是对检测出来的手势进行识别。一般说来,手势检测的好坏直接影响着手势识别的效果,通常背景环境和光照会对手势检测有影响,而且,在二维图像上检测出手掌与手臂也是一大难点,传统做法是训练大量手势样本获得分类器,然而,人手是复杂的变形体,手势具有多样性、多义性、时间上的差异等特点,很难训练得到理想的手势分类器,从而传统手势识别方法无法应用于驾驶员等手势识别当中。
发明内容
本发明的目的是提供一种基于RGBD深度传感器的实时手势分析与评价***,解决了在复杂背景和光照条件下检测手掌与手臂的问题,并且能够对火车驾驶员、交警等工作人员的各种手势进行分析并评价,具有广阔的应用前景。
本发明所采用的技术方案是,
一种基于RGBD深度传感器的实时手掌手势分析与评价方法,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
一种基于RGBD深度传感器的实时手臂手势分析与评价方法,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
步骤3,通过式(4)得到手臂动态手势的得分Parm:
式(4)中,α为标准手势序列样本之间的DTW距离平均值,Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
一种基于RGBD深度传感器的实时手势分析与评价方法,包括权利要求1所述实时手掌手势分析与评价方法和权利要求2所述的实时手臂手势分析与评价方法。
一种基于RGBD深度传感器的实时手掌手势分析与评价***,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
一种基于RGBD深度传感器的实时手臂手势分析与评价***,包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm:
式(4)中,α为标准手势序列样本之间的DTW距离平均值,Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
一种基于RGBD深度传感器的实时手势分析与评价***,包括权利要求4所述实时手掌手势分析与评价***和权利要求5所述的实时手臂手势分析与评价***。
本发明的有益效果是
本发明采用RGBD深度传感器来获取二维图像的深度数据,通过相应算法能够很好的提取到手掌、手臂等关键数据,相比传统方法,本发明对于环境背景、光照具有很强的鲁棒性,而且在手掌手势检测时采用基于掌心节点的手势像素搜索,进一步提高了手掌手势的检测效果。其次,本发明能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
附图说明
图1是火车驾驶员手掌区域手势识别与评价流程图;
图2是火车驾驶员手掌与手臂各节点示意图;
图3是火车驾驶员手臂动态手势识别与评价流程图;
图4是本发明应用场景图。
具体实施方式
火车驾驶员手势通常包含手掌区域的手势以及手臂部分动态手势,下面分别对手掌区域手势和手臂动态手势识别过程分别进行详细介绍。
实施例1
一种基于RGBD深度传感器的实时手掌手势分析与评价方法,其特征在于,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
如图2,所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
如图4,所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
由于RGBD传感器跟踪人体骨骼节点时容易发生节点漂移现象,导致手掌与传感器之间的距离存在偏差,为了减小偏差,需对初始手掌节点进行校正来得到手掌节点P的准确坐标:
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
由于矩形搜索区域的W和H不能设置的过小,防止手势区域大小的变化导致手势检测的不完全,矩形搜寻区域的高、宽为:其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手掌区域图像通常包含一些噪声,这些噪声包括手势边缘的一些毛刺和图像内部的一些孔洞等,为了得到更加精确的手势图像,需要进行膨胀与腐蚀操作,膨胀可以去除二值手势图像边缘的一些毛刺以及分散的噪声点等,而腐蚀则可以填平图像内部的一些孔洞。
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
式(1)中,为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
实施例2
一种基于RGBD深度传感器的实时手臂手势分析与评价方法,如图3,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
本实施例采用DTW算法来解决两条运动序列长度不同的问题,设驾驶员标准动态手势样本的运动序列Da=(Da 1,Da 2,...,Da T′),初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn T),设两条序列之间的点对关系为φ(k)=(φs(k),φa(k)),其中1≤φs(k)≤T,1≤φa(k)≤T′,max(T,T′)≤k≤T+T′,DTW算法目的是找出两条序列之间的最佳点对关系φ(k),使得对应点之间距离之和DTW(Da,Dsn)最小:
步骤3,通过式(4)得到手臂动态手势的得分Parm:
式(4)中,α为标准手势序列样本之间的DTW距离平均值,Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
实施例3
本实施例在实施例1、2的基础上,提供了一种基于RGBD深度传感器的实时手势分析与评价方法,包括实施例1所提供的实时手掌手势分析与评价方法和实施例2所提供的实时手臂手势分析与评价方法。该实施例能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
实施例4
本实施例提供了火车驾驶员手掌的静态手势识别与评价***,如图1所示,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
如图2,所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
如图4,所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
由于RGBD传感器跟踪人体骨骼节点时容易发生节点漂移现象,导致手掌与传感器之间的距离存在偏差,为了减小偏差,需对初始手掌节点进行校正来得到手掌节点P的准确坐标:
提取手掌区域图像模块,提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
由于矩形搜索区域的W和H不能设置的过小,防止手势区域大小的变化导致手势检测的不完全,矩形搜寻区域的高、宽为:其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手掌区域图像通常包含一些噪声,这些噪声包括手势边缘的一些毛刺和图像内部的一些孔洞等,为了得到更加精确的手势图像,需要进行膨胀与腐蚀操作,膨胀可以去除二值手势图像边缘的一些毛刺以及分散的噪声点等,而腐蚀则可以填平图像内部的一些孔洞。
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
实施例5
本实施例提供了火车驾驶员手臂的动态手势识别与评价***,如图3,包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
本实施例采用DTW算法来解决两条运动序列长度不同的问题,设驾驶员标准动态手势样本的运动序列Da=(Da 1,Da 2,...,Da T′),初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn T),设两条序列之间的点对关系为φ(k)=(φs(k),φa(k)),其中1≤φs(k)≤T,1≤φa(k)≤T′,max(T,T′)≤k≤T+T′,DTW算法目的是找出两条序列之间的最佳点对关系φ(k),使得对应点之间距离之和DTW(Da,Dsn)最小:
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm:
式(4)中,α为标准手势序列样本之间的DTW距离平均值,Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数;Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),Dsn为初始图像中手臂骨骼节点的运动序列。
实施例6
本实施例在实施例4、5的基础上,提供了一种基于RGBD深度传感器的实时手势分析与评价***,包括实施例4所提供的实时手掌手势分析与评价***和实施例5所提供的实时手臂手势分析与评价***。该实施例能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
Claims (4)
1.一种基于RGBD深度传感器的实时手掌手势分析与评价方法,其特征在于,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
2.一种基于RGBD深度传感器的实时手势分析与评价方法,其特征在于,包括权利要求1所述实时手掌手势分析与评价方法和实时手臂手势分析与评价方法;
所述的实时手臂手势分析与评价方法包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
步骤3,通过式(4)得到手臂动态手势的得分Parm:
3.一种基于RGBD深度传感器的实时手掌手势分析与评价***,其特征在于,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm:
4.一种基于RGBD深度传感器的实时手势分析与评价***,其特征在于,包括权利要求3所述实时手掌手势分析与评价***和实时手臂手势分析与评价***;
所述的实时手臂手势分析与评价***包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t:
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710523575.5A CN107463873B (zh) | 2017-06-30 | 2017-06-30 | 一种基于rgbd深度传感器的实时手势分析与评价方法与*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710523575.5A CN107463873B (zh) | 2017-06-30 | 2017-06-30 | 一种基于rgbd深度传感器的实时手势分析与评价方法与*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107463873A CN107463873A (zh) | 2017-12-12 |
CN107463873B true CN107463873B (zh) | 2020-02-21 |
Family
ID=60546461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710523575.5A Expired - Fee Related CN107463873B (zh) | 2017-06-30 | 2017-06-30 | 一种基于rgbd深度传感器的实时手势分析与评价方法与*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107463873B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6962878B2 (ja) * | 2018-07-24 | 2021-11-05 | 本田技研工業株式会社 | 操作補助システムおよび操作補助方法 |
CN110032957B (zh) * | 2019-03-27 | 2023-10-17 | 长春理工大学 | 一种基于骨骼节点信息的手势空间域匹配方法 |
CN110175566B (zh) * | 2019-05-27 | 2022-12-23 | 大连理工大学 | 一种基于rgbd融合网络的手部姿态估计***及方法 |
CN110717385A (zh) * | 2019-08-30 | 2020-01-21 | 西安文理学院 | 一种动态手势识别方法 |
CN113657346A (zh) * | 2021-08-31 | 2021-11-16 | 深圳市比一比网络科技有限公司 | 一种基于目标检测和关键点检测结合的司机动作识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923669A (zh) * | 2008-07-18 | 2010-12-22 | 史迪芬·凯斯 | 智能的适应式设计 |
CN103914132A (zh) * | 2013-01-07 | 2014-07-09 | 富士通株式会社 | 识别基于手指的手势的方法和*** |
CN103926999A (zh) * | 2013-01-16 | 2014-07-16 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
-
2017
- 2017-06-30 CN CN201710523575.5A patent/CN107463873B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923669A (zh) * | 2008-07-18 | 2010-12-22 | 史迪芬·凯斯 | 智能的适应式设计 |
CN103914132A (zh) * | 2013-01-07 | 2014-07-09 | 富士通株式会社 | 识别基于手指的手势的方法和*** |
CN103926999A (zh) * | 2013-01-16 | 2014-07-16 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
Non-Patent Citations (2)
Title |
---|
Finger detection and hand posture recognition based on depth information;Stergios Poularakis等;《IEEE International Conference on Acoustics, Speech and Processing》;20140531;1-5页 * |
基于Kinect骨架信息的交通警察手势识别;刘阳等;《计算机工程与应用》;20150331(第3期);157-161页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107463873A (zh) | 2017-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107463873B (zh) | 一种基于rgbd深度传感器的实时手势分析与评价方法与*** | |
US11643076B2 (en) | Forward collision control method and apparatus, electronic device, program, and medium | |
WO2019232894A1 (zh) | 一种基于复杂场景下的人体关键点检测***及方法 | |
CN109559330B (zh) | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
CN106934333B (zh) | 一种手势识别方法及*** | |
CN106600625A (zh) | 检测小型生物的图像处理方法及装置 | |
Rahman et al. | Person identification using ear biometrics | |
Kalsh et al. | Sign language recognition system | |
CN109145696B (zh) | 一种基于深度学习的老人跌倒检测方法及*** | |
CN110796101A (zh) | 一种嵌入式平台的人脸识别方法及*** | |
CN113608663B (zh) | 一种基于深度学习和k-曲率法的指尖跟踪方法 | |
US9160986B2 (en) | Device for monitoring surroundings of a vehicle | |
CN111914832B (zh) | 一种rgb-d相机在动态场景下的slam方法 | |
Chansri et al. | Reliability and accuracy of Thai sign language recognition with Kinect sensor | |
CN115527269A (zh) | 一种人体姿态图像智能识别方法及*** | |
KR20190050551A (ko) | 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치 | |
CN113255779B (zh) | 多源感知数据融合识别方法、***及计算机可读存储介质 | |
CN114676756A (zh) | 图像识别方法、装置及计算机存储介质 | |
CN103426000A (zh) | 一种静态手势指尖检测方法 | |
CN109492573A (zh) | 一种指针读取方法及装置 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
CN103093481A (zh) | 一种基于分水岭分割的静态背景下运动目标检测方法 | |
CN111860084A (zh) | 图像特征的匹配、定位方法及装置、定位*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200221 |