CN107463873B - 一种基于rgbd深度传感器的实时手势分析与评价方法与*** - Google Patents

一种基于rgbd深度传感器的实时手势分析与评价方法与*** Download PDF

Info

Publication number
CN107463873B
CN107463873B CN201710523575.5A CN201710523575A CN107463873B CN 107463873 B CN107463873 B CN 107463873B CN 201710523575 A CN201710523575 A CN 201710523575A CN 107463873 B CN107463873 B CN 107463873B
Authority
CN
China
Prior art keywords
palm
node
frame
initial image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710523575.5A
Other languages
English (en)
Other versions
CN107463873A (zh
Inventor
梁华刚
易生
孙凯
李怀德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN201710523575.5A priority Critical patent/CN107463873B/zh
Publication of CN107463873A publication Critical patent/CN107463873A/zh
Application granted granted Critical
Publication of CN107463873B publication Critical patent/CN107463873B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于RGBD深度传感器的实时手势分析与评价的方法与***,包括火车驾驶员手掌的静态手势识别与评价***和火车驾驶员手臂的动态手势识别与评价***,火车驾驶员手掌的静态手势识别与评价***包括确定手掌掌心位置模块、提取手掌区域图像模块、去噪模块、手势识别及评价模块;火车驾驶员手臂的动态手势识别与评价***包括手臂骨骼节点运动序列提取模块、动态手势最优匹配模块、手臂动态手势评价模块。本发明对于环境背景、光照具有很强的鲁棒性,而且在手掌手势检测时采用基于掌心节点的手势像素搜索,提高了手掌手势的检测效果;实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。

Description

一种基于RGBD深度传感器的实时手势分析与评价方法与***
技术领域
本发明属于图像处理技术领域,具体涉及一种基于RGBD深度传感器的实时手势分析与评价方法与***。
背景技术
手势识别技术作为未来人机交互***的关键技术之一不仅具有重要的研究价值,而且具有广泛的应用前景。目前,传统的手势识别方法通常是对输入的二维图像进行手势检测并加以识别,然而这类方法对于输入的图像比较敏感,当背景简单、环境光照影响较小时手势检测与识别效果较好,然而当背景复杂、光照变化较大时手势检测与识别效果急剧下降,应用范围受到限制。近几年,为了克服传统手势识别方法的缺陷,三维图像传感设备越来越受到人们的青睐,这类设备不仅可以获取到RGB图像,而且还可以获取到图像的深度数据,从而可以避免复杂的环境背景、光照变化等对手势识别的影响。
目前,手势在交通领域应用广泛,例如火车驾驶员在火车行驶前、行驶中、车内仪器检测情况等需要用手势演示出来,以确保火车的安全行驶,防止事故的发生,交警则通过一系列的手势来保障道路交通安全畅通等。然而,由于火车驾驶员、交警等人员工作环境较为复杂,光线变化极大,传统方法无法对驾驶员手势有效地进行识别与评价,而且驾驶员标准手势众多,不仅包含手臂上的动态手势,还包括手掌区域的手势,进一步加大了手势识别的难度。传统的手势识别方法主要包括两个步骤,首先在二维图像上检测出手掌与手臂,其次是对检测出来的手势进行识别。一般说来,手势检测的好坏直接影响着手势识别的效果,通常背景环境和光照会对手势检测有影响,而且,在二维图像上检测出手掌与手臂也是一大难点,传统做法是训练大量手势样本获得分类器,然而,人手是复杂的变形体,手势具有多样性、多义性、时间上的差异等特点,很难训练得到理想的手势分类器,从而传统手势识别方法无法应用于驾驶员等手势识别当中。
发明内容
本发明的目的是提供一种基于RGBD深度传感器的实时手势分析与评价***,解决了在复杂背景和光照条件下检测手掌与手臂的问题,并且能够对火车驾驶员、交警等工作人员的各种手势进行分析并评价,具有广阔的应用前景。
本发明所采用的技术方案是,
一种基于RGBD深度传感器的实时手掌手势分析与评价方法,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌 节点得到当前帧初始图像中手掌节点P的坐标
Figure GDA0001399495770000021
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure GDA0001399495770000031
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
Figure GDA0001399495770000041
其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure GDA0001399495770000042
式(1)中,
Figure GDA0001399495770000046
为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
一种基于RGBD深度传感器的实时手臂手势分析与评价方法,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
Figure GDA0001399495770000045
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
步骤3,通过式(4)得到手臂动态手势的得分Parm
Figure GDA0001399495770000051
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure GDA0001399495770000052
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
一种基于RGBD深度传感器的实时手势分析与评价方法,包括权利要求1所述实时手掌手势分析与评价方法和权利要求2所述的实时手臂手势分析与评价方法。
一种基于RGBD深度传感器的实时手掌手势分析与评价***,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌 节点得到当前帧初始图像中手掌节点P的坐标
Figure GDA0001399495770000061
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure GDA0001399495770000071
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
Figure GDA0001399495770000072
其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure GDA0001399495770000073
式(1)中,
Figure GDA0001399495770000084
为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
一种基于RGBD深度传感器的实时手臂手势分析与评价***,包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
Figure GDA0001399495770000083
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm
Figure GDA0001399495770000091
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure GDA0001399495770000092
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
一种基于RGBD深度传感器的实时手势分析与评价***,包括权利要求4所述实时手掌手势分析与评价***和权利要求5所述的实时手臂手势分析与评价***。
本发明的有益效果是
本发明采用RGBD深度传感器来获取二维图像的深度数据,通过相应算法能够很好的提取到手掌、手臂等关键数据,相比传统方法,本发明对于环境背景、光照具有很强的鲁棒性,而且在手掌手势检测时采用基于掌心节点的手势像素搜索,进一步提高了手掌手势的检测效果。其次,本发明能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
附图说明
图1是火车驾驶员手掌区域手势识别与评价流程图;
图2是火车驾驶员手掌与手臂各节点示意图;
图3是火车驾驶员手臂动态手势识别与评价流程图;
图4是本发明应用场景图。
具体实施方式
火车驾驶员手势通常包含手掌区域的手势以及手臂部分动态手势,下面分别对手掌区域手势和手臂动态手势识别过程分别进行详细介绍。
实施例1
一种基于RGBD深度传感器的实时手掌手势分析与评价方法,其特征在于,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌 节点得到当前帧初始图像中手掌节点P的坐标
Figure GDA0001399495770000101
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
如图2,所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
如图4,所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
由于RGBD传感器跟踪人体骨骼节点时容易发生节点漂移现象,导致手掌与传感器之间的距离存在偏差,为了减小偏差,需对初始手掌节点进行校正来得到手掌节点P的准确坐标:
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure GDA0001399495770000111
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
由于矩形搜索区域的W和H不能设置的过小,防止手势区域大小的变化导致手势检测的不完全,矩形搜寻区域的高、宽为:
Figure GDA0001399495770000121
其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手掌区域图像通常包含一些噪声,这些噪声包括手势边缘的一些毛刺和图像内部的一些孔洞等,为了得到更加精确的手势图像,需要进行膨胀与腐蚀操作,膨胀可以去除二值手势图像边缘的一些毛刺以及分散的噪声点等,而腐蚀则可以填平图像内部的一些孔洞。
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure GDA0001399495770000122
式(1)中,为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
实施例2
一种基于RGBD深度传感器的实时手臂手势分析与评价方法,如图3,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
Figure GDA0001399495770000131
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
本实施例采用DTW算法来解决两条运动序列长度不同的问题,设驾驶员标准动态手势样本的运动序列Da=(Da 1,Da 2,...,Da T′),初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn T),设两条序列之间的点对关系为φ(k)=(φs(k),φa(k)),其中1≤φs(k)≤T,1≤φa(k)≤T′,max(T,T′)≤k≤T+T′,DTW算法目的是找出两条序列之间的最佳点对关系φ(k),使得对应点之间距离之和DTW(Da,Dsn)最小:
Figure GDA0001399495770000132
步骤3,通过式(4)得到手臂动态手势的得分Parm
Figure GDA0001399495770000141
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure GDA0001399495770000142
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
实施例3
本实施例在实施例1、2的基础上,提供了一种基于RGBD深度传感器的实时手势分析与评价方法,包括实施例1所提供的实时手掌手势分析与评价方法和实施例2所提供的实时手臂手势分析与评价方法。该实施例能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。
实施例4
本实施例提供了火车驾驶员手掌的静态手势识别与评价***,如图1所示,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌 节点得到当前帧初始图像中手掌节点P的坐标
Figure GDA0001399495770000151
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
如图2,所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
如图4,所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
由于RGBD传感器跟踪人体骨骼节点时容易发生节点漂移现象,导致手掌与传感器之间的距离存在偏差,为了减小偏差,需对初始手掌节点进行校正来得到手掌节点P的准确坐标:
提取手掌区域图像模块,提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure GDA0001399495770000161
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di,j)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
由于矩形搜索区域的W和H不能设置的过小,防止手势区域大小的变化导致手势检测的不完全,矩形搜寻区域的高、宽为:其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手掌区域图像通常包含一些噪声,这些噪声包括手势边缘的一些毛刺和图像内部的一些孔洞等,为了得到更加精确的手势图像,需要进行膨胀与腐蚀操作,膨胀可以去除二值手势图像边缘的一些毛刺以及分散的噪声点等,而腐蚀则可以填平图像内部的一些孔洞。
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure GDA0001399495770000171
式(1)中,
Figure GDA0001399495770000175
为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
实施例5
本实施例提供了火车驾驶员手臂的动态手势识别与评价***,如图3,包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
Figure GDA0001399495770000174
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
本实施例采用DTW算法来解决两条运动序列长度不同的问题,设驾驶员标准动态手势样本的运动序列Da=(Da 1,Da 2,...,Da T′),初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn T),设两条序列之间的点对关系为φ(k)=(φs(k),φa(k)),其中1≤φs(k)≤T,1≤φa(k)≤T′,max(T,T′)≤k≤T+T′,DTW算法目的是找出两条序列之间的最佳点对关系φ(k),使得对应点之间距离之和DTW(Da,Dsn)最小:
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm
Figure GDA0001399495770000182
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure GDA0001399495770000183
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数;Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),Dsn为初始图像中手臂骨骼节点的运动序列。
实施例6
本实施例在实施例4、5的基础上,提供了一种基于RGBD深度传感器的实时手势分析与评价***,包括实施例4所提供的实时手掌手势分析与评价***和实施例5所提供的实时手臂手势分析与评价***。该实施例能够同时识别驾驶员手掌手势与手臂动态手势,而且能够依据识别算法的输出结果对驾驶员手势进行规范性评价并给出手掌手势和手臂动态手势的得分,不仅可以实时监督驾驶员手势以确保火车行驶安全,还可以避免人为的对火车驾驶员手势监控,减轻人力资源消耗。

Claims (4)

1.一种基于RGBD深度传感器的实时手掌手势分析与评价方法,其特征在于,包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌节点得到当前帧初始图像中手掌节点P的坐标
Figure FDA0002221045120000011
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
步骤2,根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像,包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure FDA0002221045120000021
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
Figure FDA0002221045120000022
其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
步骤3,对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
步骤4,通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure FDA0002221045120000023
式(1)中,
Figure FDA0002221045120000031
Figure FDA0002221045120000032
为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
2.一种基于RGBD深度传感器的实时手势分析与评价方法,其特征在于,包括权利要求1所述实时手掌手势分析与评价方法和实时手臂手势分析与评价方法;
所述的实时手臂手势分析与评价方法包括以下步骤:
步骤1,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
Figure FDA0002221045120000033
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
步骤2,在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
步骤3,通过式(4)得到手臂动态手势的得分Parm
Figure FDA0002221045120000041
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure FDA0002221045120000042
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
3.一种基于RGBD深度传感器的实时手掌手势分析与评价***,其特征在于,包括:
确定手掌掌心位置模块,用于利用RGBD传感器在一段时间内获取T帧初始图像,所述T帧初始图像中的每一帧初始图像均包括手掌节点、手腕节点和手肘节点,确定T帧初始图像的手掌节点坐标;
包括:
步骤11,从T帧初始图像中任选一帧初始图像作为当前帧初始图像,通过初始手掌节点得到当前帧初始图像中手掌节点P的坐标
Figure FDA0002221045120000043
其中,M表示区域圆内白色像素点的个数,M为大于等于1的自然数,xi表示第i个像素点的横坐标,yi表示第i个像素点的纵坐标,zi表示第i个像素点到RGBD传感器之间的距离;
所述区域圆为以初始手掌节点P1为圆心,以初始手掌节点到手腕节点之间的距离为半径的圆;
所述手掌节点坐标P是在以RGBD传感器中心为原点,以水平方向为X轴,竖直方向为Y轴,传感器指向驾驶员方向为Z轴的坐标系下;
步骤12,重复步骤11,直至T帧初始图像中的每一帧初始图像都被作为当前帧初始图像,得到T帧初始图像的手掌节点坐标;
提取手掌区域图像模块,用于根据T帧初始图像的手掌节点坐标,提取T帧初始图像的手掌区域图像:
包括:
步骤21,从T帧初始图像中任选一帧初始图像作为当前初始图像,提取该当前初始图像的方法包括:
以当前初始图像的手掌节点为中心,在宽度为W,高度为H的矩形区域内进行手掌像素点搜索,将满足式(2)的手掌像素点放入手掌像素点集合Sk中,即得到当前手掌区域图像;
Figure FDA0002221045120000051
式(2)中,k=1,2,...,W×H,k表示搜寻的次数,dp表示当当前初始图像的手掌节点到RGBD传感器之间的距离,gi表示第i个像素点,di表示矩形区域内第i个像素点到RGBD传感器之间的距离,abs(dp-di)表示当前初始图像的手掌节点与矩形区域内第i个像素点到RGBD传感器之间的距离之差的绝对值,threshold表示阈值,25≤threshold≤35,Sk表示第k次搜索到的手势像素点集合,Sk-1表示第k-1次搜索到的手势像素点集合;
Figure FDA0002221045120000061
其中(xw,yw)和(xe,ye)分别表示当前初始图像的手掌节点中手腕节点以及手肘节点的坐标;
步骤22,重复步骤22,直至提取到T帧初始图像的手掌区域图像;
去噪模块:用于对T帧初始图像的手掌区域图像中的每一帧手掌区域图像进行膨胀和腐蚀操作,得到T帧去噪后的手掌区域图像;
手势识别及评价模块:用于通过神经网络识别T帧去噪后的手掌区域图像中的手掌区域的手势,并通过式(1)得到识别出的手掌区域的手势的分数Ppalm
Figure FDA0002221045120000062
式(1)中,
Figure FDA0002221045120000063
为将T帧去噪后的手掌区域图像输入到神经网络中后神经网络第t帧的输出结果,T为去噪后的手掌区域图像的总帧数,round(·)表示取整数。
4.一种基于RGBD深度传感器的实时手势分析与评价***,其特征在于,包括权利要求3所述实时手掌手势分析与评价***和实时手臂手势分析与评价***;
所述的实时手臂手势分析与评价***包括:
手臂骨骼节点运动序列提取模块,利用RGBD传感器在一段时间内获取T帧初始图像,从T帧初始图像中任选一帧初始图像作为第t帧初始图像,提取第t帧初始图像的手臂骨骼节点运动序列;
包括:
所述第t帧初始图像包括初始手掌节点P1 t、手腕节点P2 t、手肘节点P3 t、肩节点P4 t和肩中心节点Ps t,通过式(3)得到节点Pn t到肩中心节点Ps t的距离Dsn t
式(3)中,n=1,2,3,4,t=1,2,...,T,Dsn t表示第t帧初始图像中节点Pn t到肩中心节点Ps t的距离,T为初始图像的总帧数,xn t,yn t,zn t分别表示第t帧初始图像中手掌节点、手腕节点、手肘节点、肩节点的坐标值;xs t,ys t,zs t表示第t帧初始图像中肩中心节点的坐标;
即可得到初始图像中手臂骨骼节点的运动序列Dsn=(Dsn 1,Dsn 2,...,Dsn t,...,Dsn T),所述手臂骨骼节点包括手掌节点、手腕节点、手肘节点、肩节点;
动态手势最优匹配模块,用于在驾驶员标准动态手势样本的运动序列库中找到与初始图像中手臂骨骼节点的运动序列之间的对应点距离之和最小的驾驶员标准动态手势样本的运动序列;
手臂动态手势评价模块,用于通过式(4)得到手臂动态手势的得分Parm
Figure FDA0002221045120000072
式(4)中,α为标准手势序列样本之间的DTW距离平均值,
Figure FDA0002221045120000073
Da,Db表示驾驶员标准动态手势样本的运动序列库中的任一运动序列,a=1,2,...,N,b=1,2,...,N,a≠b,N为驾驶员标准动态手势样本的运动序列库中运动序列的总数。
CN201710523575.5A 2017-06-30 2017-06-30 一种基于rgbd深度传感器的实时手势分析与评价方法与*** Expired - Fee Related CN107463873B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710523575.5A CN107463873B (zh) 2017-06-30 2017-06-30 一种基于rgbd深度传感器的实时手势分析与评价方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710523575.5A CN107463873B (zh) 2017-06-30 2017-06-30 一种基于rgbd深度传感器的实时手势分析与评价方法与***

Publications (2)

Publication Number Publication Date
CN107463873A CN107463873A (zh) 2017-12-12
CN107463873B true CN107463873B (zh) 2020-02-21

Family

ID=60546461

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710523575.5A Expired - Fee Related CN107463873B (zh) 2017-06-30 2017-06-30 一种基于rgbd深度传感器的实时手势分析与评价方法与***

Country Status (1)

Country Link
CN (1) CN107463873B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6962878B2 (ja) * 2018-07-24 2021-11-05 本田技研工業株式会社 操作補助システムおよび操作補助方法
CN110032957B (zh) * 2019-03-27 2023-10-17 长春理工大学 一种基于骨骼节点信息的手势空间域匹配方法
CN110175566B (zh) * 2019-05-27 2022-12-23 大连理工大学 一种基于rgbd融合网络的手部姿态估计***及方法
CN110717385A (zh) * 2019-08-30 2020-01-21 西安文理学院 一种动态手势识别方法
CN113657346A (zh) * 2021-08-31 2021-11-16 深圳市比一比网络科技有限公司 一种基于目标检测和关键点检测结合的司机动作识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923669A (zh) * 2008-07-18 2010-12-22 史迪芬·凯斯 智能的适应式设计
CN103914132A (zh) * 2013-01-07 2014-07-09 富士通株式会社 识别基于手指的手势的方法和***
CN103926999A (zh) * 2013-01-16 2014-07-16 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923669A (zh) * 2008-07-18 2010-12-22 史迪芬·凯斯 智能的适应式设计
CN103914132A (zh) * 2013-01-07 2014-07-09 富士通株式会社 识别基于手指的手势的方法和***
CN103926999A (zh) * 2013-01-16 2014-07-16 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Finger detection and hand posture recognition based on depth information;Stergios Poularakis等;《IEEE International Conference on Acoustics, Speech and Processing》;20140531;1-5页 *
基于Kinect骨架信息的交通警察手势识别;刘阳等;《计算机工程与应用》;20150331(第3期);157-161页 *

Also Published As

Publication number Publication date
CN107463873A (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN107463873B (zh) 一种基于rgbd深度传感器的实时手势分析与评价方法与***
US11643076B2 (en) Forward collision control method and apparatus, electronic device, program, and medium
WO2019232894A1 (zh) 一种基于复杂场景下的人体关键点检测***及方法
CN109559330B (zh) 运动目标的视觉跟踪方法、装置、电子设备及存储介质
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN106934333B (zh) 一种手势识别方法及***
CN106600625A (zh) 检测小型生物的图像处理方法及装置
Rahman et al. Person identification using ear biometrics
Kalsh et al. Sign language recognition system
CN109145696B (zh) 一种基于深度学习的老人跌倒检测方法及***
CN110796101A (zh) 一种嵌入式平台的人脸识别方法及***
CN113608663B (zh) 一种基于深度学习和k-曲率法的指尖跟踪方法
US9160986B2 (en) Device for monitoring surroundings of a vehicle
CN111914832B (zh) 一种rgb-d相机在动态场景下的slam方法
Chansri et al. Reliability and accuracy of Thai sign language recognition with Kinect sensor
CN115527269A (zh) 一种人体姿态图像智能识别方法及***
KR20190050551A (ko) 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치
CN113255779B (zh) 多源感知数据融合识别方法、***及计算机可读存储介质
CN114676756A (zh) 图像识别方法、装置及计算机存储介质
CN103426000A (zh) 一种静态手势指尖检测方法
CN109492573A (zh) 一种指针读取方法及装置
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
JP6393495B2 (ja) 画像処理装置および物体認識方法
CN103093481A (zh) 一种基于分水岭分割的静态背景下运动目标检测方法
CN111860084A (zh) 图像特征的匹配、定位方法及装置、定位***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200221