CN103530892A - 一种基于Kinect传感器的双手跟踪方法与装置 - Google Patents

一种基于Kinect传感器的双手跟踪方法与装置 Download PDF

Info

Publication number
CN103530892A
CN103530892A CN201310497334.XA CN201310497334A CN103530892A CN 103530892 A CN103530892 A CN 103530892A CN 201310497334 A CN201310497334 A CN 201310497334A CN 103530892 A CN103530892 A CN 103530892A
Authority
CN
China
Prior art keywords
hands
hand
tracks
tracking
kinect sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310497334.XA
Other languages
English (en)
Other versions
CN103530892B (zh
Inventor
朱艳敏
袁博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201310497334.XA priority Critical patent/CN103530892B/zh
Publication of CN103530892A publication Critical patent/CN103530892A/zh
Application granted granted Critical
Publication of CN103530892B publication Critical patent/CN103530892B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于Kinect传感器的双手跟踪方法与装置,所述跟踪方法,包括:S1.视频采集步骤;S2.检测步骤一;S3.单手跟踪步骤;S4.检测步骤二;S5.双手跟踪步骤,对已经检测到的双手进行跟踪。由于检测第二只手时利用了第一只手的信息,所以本发明的跟踪方法能够快速、准确的跟踪用户双手的运动,且计算复杂度低。

Description

一种基于Kinect传感器的双手跟踪方法与装置
技术领域
本发明涉及人机交互领域中手势识别和双手跟踪,尤其涉一种基于Kinect传感器的双手跟踪方法与装置。
背景技术
随着计算机技术的迅猛发展和人们科技观念的进步,用户对计算机的感知能力提出了越来越高的要求。传统的人机交互模式主要依赖于物理键盘和鼠标,其比较单一的以文本为主的输入方式已经不能满足人们的需求,而更注重“以人为本”的新型人机交互方式打破了传统模式的束缚,把输入方式转变成图像和声音等更加丰富自然的形式,大大改善了用户的体验。近年来人们在人脸识别、语音识别、人体姿态识别、手势识别等研究领域都取得了长足的进步。
手势在人们的生活中扮演着极其重要的角色,基于计算机视觉的手势识别是实现新一代人机交互所不可或缺的一项关键技术。手势识别中的关键和大多数难点都存在于人手的跟踪部分。其面临的主要挑战有:一、复杂背景的干扰,如人脸和别的类肤色背景;二、手在运动过程中会发生形变;三、光照的变化对手的外观影响很大;四、***运行实时性的要求。
目前手势识别技术大多是针对单手情况,所用的定位跟踪方法有:Camshift(Continuously Adaptive Mean-SHIFT)算法,特征空间匹配法等。这些已有的方法只是在特定的条件下取得不错的效果。双手的跟踪和识别相比于单手又有新的特点和挑战,如在双手发生相互遮挡之后如何准确分辨和跟踪双手。现有技术中有的做法是限制两只手在遮挡前后形状不变,双手遮挡分开后,利用遮挡前的双手形状信息进行识别。但这种方法对人手限制较大,不够自然方便。微软公司的Kinect为手势跟踪和识别提供了很大的便利,它提供的深度信息大大简化了背景去除步骤。现有技术中有利用Kinect提供的深度图像和彩色图像建立双手的3D模型并进行跟踪的方法,可准确定位到双手关节等细节信息,但这种方法计算复杂度非常高,即便在使用GPU(Graphic Processing Unit)加速的情况下也不能达到实时跟踪。因Kinect本身带有提取和跟踪人体骨架的功能,故现有技术中也有用在骨架上寻找手部节点的方法提取手部位置从而跟踪人手,但这种方法要求用户的姿态是标准的坐姿或者站姿,对用户姿势限制太多,且识别和追踪效果不够理想。
发明内容
本发明所要解决的技术问题是:克服前述现有技术的缺陷,提供一种可以处理复杂背景和不同光照情况且对人手姿态限制很少的基于Kinect传感器的双手跟踪方法,包括:
S1视频采集步骤,从Kinect传感器获取分辨率和帧率都相同的彩***流和深度视频流;
S2检测步骤一,从所获取的彩***流和深度视频流的图像中检测第一只做起始手势的手;
S3单手跟踪步骤,利用前一帧或两帧以上图像中第一只手的位置信息和尺寸信息对第一只手进行定位和跟踪;
S4检测步骤二,利用第一只手的位置信息和尺寸信息检测第二只手;
S5双手跟踪步骤,对已经检测到的双手进行跟踪。
根据实施例,本发明还可采用以下优选的技术方案:
所述步骤S2中进一步包括:S2-1样本训练步骤;S2-2模式选择步骤;S2-3起始手势判定步骤。
所述步骤S2-1中,选用SVM分类器(Support Vector Machine)学习和训练手部的形态学信息,选取几何不变矩作为训练特征。
所述步骤S2-2中,当光线适当时,选用肤色模式,即用肤色滤波结合深度滤波的方法提取第一只手;当光线太暗或太亮时,选用形状模式,即用深度滤波结合形状滤波的方法提取第一只手。
所述步骤S2-3中,起始手势定义为:手向前伸出且距离身体在阈值d以上。
所述步骤S3中的定位是:利用已得到的前一帧或两帧以上图像中第一只手的位置及其外接矩形预测当前帧图像中第一只手的ROI(Region Of Interest),在此ROI内做深度滤波以定位当前帧图像中第一只手的位置。
所述步骤S5中的双手跟踪包括:
1)双手在相互遮挡之前的分离状态时,对两个目标进行分别跟踪,即根据前一帧或两帧以上图像中两只手的位置和尺寸信息分别预测当前帧图像两目标各自的ROI,并在这两个区域内分别检测;
2)双手在相互遮挡状态时,检测到的两个目标轨迹重合,视为对同一目标进行跟踪;
3)双手在相互遮挡后分开时,根据遮挡前后双手在深度方向上位置关系的不变性辨别双手,并分别跟踪。
本发明还提供一种基于Kinect的双手跟踪装置,包括如下模块:
视频采集模块,用于从Kinect传感器获取分辨率和帧率都相同的彩***流和深度视频流;
检测模块一,用于从所获取的彩色图像和深度图像中检测第一只做起始手势的手;
单手跟踪模块,包括定位单元和跟踪单元,用于利用前一帧或两帧以上图像中第一只手的位置信息和尺寸信息对第一只手进行定位和跟踪;
检测模块二,用于利用第一只手的位置信息和尺寸信息检测第二只手;
双手跟踪模块,用于对已经检测到的双手进行跟踪。
根据实施例还可采用以下优选的技术方案:
所述检测模块一包括样本训练单元、模式选择单元和起始手势判定单元。
所述样本训练单元选用SVM分类器学习和训练手部的形态学信息,选取几何不变矩作为训练特征。
所述模式选择单元用于:当光线适当时,选用肤色模式,即用肤色滤波结合深度滤波的方法提取第一只手;当光线太暗或太亮时,选用形状模式,即用深度滤波结合形状滤波的方法提取第一只手。
所述起始手势判定单元中,起始手势定义为:手向前伸出且距离身体在阈值d以上。
所述定位单元用于:利用已得到的前一帧或两帧以上图像中第一只手的位置及其外接矩形预测当前帧图像中第一只手的ROI,在此ROI内做深度滤波以定位当前帧图像中第一只手的位置。
所述双手跟踪模块用于:
1)双手在相互遮挡之前的分离状态时,对两个目标进行分别跟踪,即根据前一帧或两帧以上图像中两只手的位置和尺寸信息分别预测当前帧图像两目标各自的ROI,并在这两个区域内分别检测;
2)双手在相互遮挡状态时,检测到的两个目标轨迹重合,视为对同一目标进行跟踪;
3)双手在相互遮挡后分开时,根据遮挡前后双手在深度方向上位置关系的不变性辨别双手,并分别跟踪。
本发明与现有技术对比的有益效果是:
由于检测第二只手时利用了第一只手的信息,所以本发明的跟踪方法能够快速、准确的跟踪用户双手的运动,且计算复杂度低。
一个优选的技术方案中,由于采用了深度滤波的方法并在跟踪过程中设定了目标的感兴趣区域ROI,所以可以不受复杂背景的干扰,因为深度滤波可以去除目标后方干扰物如用户的脸部的影响;而设定ROI区域使得只在目标附近的区域检测下一帧图像中的目标,去除了ROI区域外的物体,如旁观者的手部和脸部等的干扰;以上还带来另一好处,就是对用户的姿态限制很少。
另一个优选的技术方案中,用户可以根据光线情况选择合适的检测模式,使得此方法能够适应不同光线的情况。
再一个优选的技术方案中,在跟踪过程中检测手时不使用其形状信息,因此手在运动过程中的形变不影响跟踪效果。
附图说明
图1是本发明一个实施例的双手跟踪的流程图。
图2是一个实施例的检测第一只手初始手势的流程图。
具体实施方式
下面对照附图和结合优选具体实施方式对本发明进行详细的阐述。
实施例1
一种基于Kinect的双手跟踪方法,包括:
S1视频采集步骤,从Kinect传感器获取分辨率和帧率都相同的彩***流和深度视频流;
S2检测步骤一,从所获取的彩***流和深度视频流的图像中检测第一只做起始手势的手;
S3单手跟踪步骤,利用前一帧或两帧以上中第一只手的位置信息和尺寸信息对第一只手进行定位和跟踪;
S4检测步骤二,利用第一只手的位置信息和尺寸信息检测第二只手;
S5双手跟踪步骤,对已经检测到的双手进行跟踪。
所述步骤S2中进一步包括:S2-1样本训练步骤;S2-2模式选择步骤;S2-3起始手势判定步骤。
所述步骤S2-1中,选用SVM分类器学习和训练手部的形态学信息,选取几何不变矩作为训练特征。
所述步骤S2-2中,当光线适当时,选用肤色模式,即用肤色滤波结合深度滤波的方法提取第一只手;当光线太暗或太亮时,选用形状模式,即用深度滤波结合形状滤波的方法提取第一只手。
所述步骤S2-3中,起始手势定义为:手向前伸出且距离身体在阈值d以上。
所述步骤S3中的定位是:利用已得到的前一帧或两帧以上图像中第一只手的位置及其外接矩形预测当前帧图像中第一只手的ROI,在此ROI内做深度滤波以定位当前帧图像中第一只手的位置。
所述步骤S5中的双手跟踪包括:
1)双手在相互遮挡之前的分离状态时,对两个目标进行分别跟踪,即根据前一帧或两帧以上图像中两只手的位置和尺寸信息分别预测当前帧图像两目标各自的ROI,并在这两个区域内分别检测;
2)双手在相互遮挡状态时,检测到的两个目标轨迹重合,视为对同一目标进行跟踪;
3)双手在相互遮挡后分开时,根据遮挡前后双手在深度方向上位置关系的不变性辨别双手,并分别跟踪。
实施例2
如图1所示,是本实施例的双手跟踪的流程图,包括:
步骤1)获取视频流。譬如使用Kinect传感器获取分辨率为640*480,帧率为30fps的彩***流和深度视频流。
步骤2)检测第一只手。即从获取到的彩色图和深度图中检测第一只手。具体是根据深度信息和肤色信息或者形状信息寻找最近的足够大的目标物体作为第一只手。
步骤3)判断是否检测到初始手势。即判断找到的第一只手是否在做起始手势。当手向前伸出,距离身体在阈值d以上时,判定此手做出有效起始手势,跟踪开始。标记此手为Hand1,把其三维位置信息存入此手的轨迹traj1中。
其中d一般设为15~25cm。
步骤4)跟踪单只手。即跟踪检测到的所述第一只手Hand1。具体可以是:根据前两帧图像中手的位置和尺寸信息,预测当前帧图像中目标的可能位置区域,即感兴趣区域ROI。在深度图的ROI区域内寻找最可能的目标,把目标的三维位置信息存入Hand1的轨迹traj1中。所述前两帧是指跟踪过程中当前帧之前的两帧图像,如当前帧是ft,那么前两帧指ft-1和ft-2。当然,利用前两帧只是一个优选的做法,也不一定必须是前“两”帧,如当开始跟踪时,前面只有一帧图像中(检测到第一只手的那帧)有手的信息,那就只能利用前一帧的手的位置尺寸信息。
这个步骤主要作用是利用“前N帧”的信息对当前帧目标的位置做预测。N越大,可以参考的信息越多,但预测公式会更复杂。另外,N越大,前面第N帧图像的参考价值越小,所以N不是越大越好,取2或3可能比较合适。
步骤5)检测第二只手。因双手手势的自然起始状态是两只手伸出相近的深度距离,摆出相似的手势,因此可以利用当前帧图像中第一只手Hand1的位置和尺寸信息在全局范围内检测第二只手。对深度图做滤波,寻找面积和深度位置与第一只手都相似的目标,这种方法相对于利用颜色信息或者形状信息重新搜索另外一只手的方法更加简单快速。
步骤6)判断是否检测到目标。即判定步骤5是否找到第二只手,如果找到了,标为第二只手Hand2,把其三维位置信息存入Hand2的轨迹traj2中;如果没找到,则继续跟踪单只手。
步骤7)跟踪双手。即在找到第二只手之后对双手(Hand1和Hand2)进行跟踪。在两只手没有相互遮挡或者重叠的时候,相当于对两个单独的目标进行跟踪,根据前两帧图像中目标的位置和尺寸信息预测当前帧图像中两目标的可能位置区域,设定两个目标的各自的感兴趣区域ROI1和ROI2,并在深度图的ROI1和ROI2范围内做深度滤波分别寻找最有可能的目标。当两只手相互遮挡或者重叠时,在ROI1和ROI2内检测到的是同一目标,两只手的位置信息相同,轨迹重合。当两只手相互遮挡之后再分开时,根据遮挡前和遮挡后两手的深度值关系的不变性来分辨Hand1和Hand2,即如果在遮挡前Hand1在Hand2之前,那么遮挡分开后Hand1应该仍然在Hand2之前。
步骤8)输出手的轨迹。即分辨出两手后,把其各自三维位置信息分别存入对应的轨迹中。
如图2所示,是本实施例中检测第一只手初始手势的流程图,主要包括:
步骤201,获取彩色图像和深度图像:从Kinect获取分辨率为640*480,帧率为30fps的RGB彩色图像和灰度深度图像。
步骤202判断光线是否合适。根据光照强弱选择检测模式,如果光照适中,选择肤色模式;如果光照太弱或者太亮,选择形状模式。
步骤203肤色滤波。肤色模式首先把RGB图片转换到肤色更为集中的YCbCr颜色空间,其中Y表示明亮度(Luminance、Luma),Cb和Cr都指色彩,Cb指蓝色色度,Cr指红色色度。转换公式如下:
Y=0.299*R+0.587*G+0.114*B
Cr=(R-Y)*0.713+128
Cb=(B-Y)*0.564+128
然后进行肤色滤波,用椭圆肤色模型对YCbCr色彩空间的彩色图片进行滤波得到肤色的二值图像mask1。
步骤204深度滤波:结合深度图对肤色二值图像mask1进行深度滤波。从mask1中找到所有面积大于手部最小面积Amin的连通域,选出其中面积最大的3个,得到新的肤色二值图像mask2。在mask2中选取深度最小的连通域SRn,对其进行深度滤波,选取深度范围在[Dmin,Dmin+l]内的区域作为准目标区域Rc。其中,Dmin为连通域SRn的最小深度值,l为用于分割手部的阈值,一般设为5~8cm(此处是指从手的最前端如指尖到手腕的深度距离,后文所述“分割手部的阈值”的设定含义与此处相同)。
步骤205样本训练:形状模式要求用户和摄像头之间没有物体干扰,用户处于最前方,且做起始手势时手掌要张开。首先采集张开手掌的正负样本数据库,再选取特征和分类器学***移、旋转和尺度不变性,选择它作为训练分类器的特征。Hu矩定义如下:
其中,ηpq是(p+q)阶归一化中心矩。
I12002
I 2 = ( η 20 - η 02 ) 2 + 4 η 11 2
I3=(η30-3η12)2+(3η2103)2
I4=(η3012)2+(η2103)2
I5=(η30-3η12)(η3012)[(η3012)2-3(η2103)2]+
(3η2103)(η2103)[3(η3012)2-(η2103)2]
I6=(η2002)[(η3012)2-(η2103)2]+4η113012)(η2103)
I7=(3η2103)(η3012)[(η3012)2-3(η2103)2]-
30-3η12)(η2103)[3(η3012)2-(η2103)2]
SVM(Support Vector Machine,支持向量机)在解决小样本、非线性及高维度分类问题时有许多特有的优势,因此选用SVM对手部的Hu矩特征进行学习和训练,生成手形分类器。
步骤206深度滤波:对深度图进行深度滤波,定位深度范围在[Dmin,Dmin+l]内的最大物体轮廓,如果其面积大于手型最小面积Amin,则此轮廓包含的区域为可能目标区域Rn。其中,Dmin为深度图最小深度值,l为用于分割手部的阈值,一般设为5~8cm。
步骤207形状辨别:用训练好的SVM手形分类器对可能目标区域Rn做分类,判别是否是张开的手部。如果是,则此可能目标区域为准目标区域Rc。
步骤208判断是否找到目标手:判定准目标区域Rc是否是要做手势的人手,即判定手是否做出起始手势。首先对深度图像进行滤波,取深度范围在[Dmin,Dmin+d]内的区域,选取其中包含Rc的区域Rb,计算两个区域的面积比值。
ratio=area(Rc)/area(Rb)
根据ratio的范围判断目标是否是伸出的手。
Figure BDA0000399347950000082
如果ratio在[0.5,1]范围内,则判定Rb不包括身体,只包括手臂部分,此时判定准目标Rc是伸出的手,是有效的起始手势,否则不是有效的起始手势。
其中,Dmin为准目标区域Rc的最小深度,d为用于判定人手是否伸出的阈值,一般设为15~25cm。
步骤209锁定目标:如果找到了有效的起始手势,标记找到的目标手为Hand1,把其三维位置信息存入Hand1的轨迹traj1中。
找到起始手势之后,后面步骤的详细实施过程描述如下:
单手跟踪,找到第一只手后进入了单手跟踪模块,利用前两帧ft-2和ft-1中Hand1的位置和尺寸信息确定当前帧ft的矩形感兴趣区域ROI1。ROI1的确定方法为:
x=2xt-1-xt-2
y=2yt-1-yt-2
width=1.5*width(boundRect)
height=1.5*height(boundRect)
其中(x,y)为ROI1的中心点,width和height分别为其宽和高,(xt-2,yt-2)和(xt-1,yt-1)为Hand1中心点在前两帧图像ft-2和ft-1中xy平面的坐标,boundRect为前一帧ft-1中手形区域的外接矩形。如果t<2,即当前帧为检测到起始手势后的第一帧,此时仅有前一帧的手的信息,则ROI1的中心点为x=xt-1,y=yt-1,宽和高与上面相同。在深度图的ROI1范围内寻找深度在[Dmin,Dmin+l]内的面积大于Amin的最大连通区域,判定为跟踪目标,把其三维位置信息存入Hand1的轨迹traj1中。其中,Dmin为ROI1范围内的最小深度值,l为用于分割手部的阈值,一般设为5~8cm。
检测第二只手,在当前帧中寻找深度值和面积都与Hand1相似的目标,即深度在[zt-2cm,zt+l+2cm]范围内,且面积在[areat*0.8,areat*1.2]范围内的连通区域,标记为第二只手Hand2,把其三维位置信息存入其对应的轨迹traj2中。其中,zt为Hand1的最小深度值,areat为Hand1的面积,l为分割手部的阈值,一般设为5~8cm。
双手跟踪,当两手处于遮挡前分离的状态时,根据前两帧ft-2和ft-1中Hand1和Hand2的位置和大小信息设定当前帧ft中各自的感兴趣区域ROI1和ROI2。在ROI1中寻找目标Hand1,在ROI2中寻找目标Hand2,方法与单手跟踪相同。当两只手发生相互遮挡时,ROI1与ROI2重合,检测到的两个目标实际为同一目标,此时两只手的轨迹重合。当两只手遮挡之后分开时,根据两只手遮挡前后在其深度方向上位置关系的不变性来分辨双手。
z s 1 < z s 2 &DoubleRightArrow; z t 1 < z t 2
其中s为遮挡前的时刻,t为遮挡分开后的时刻,
Figure BDA0000399347950000103
分别为s时刻Hand1和Hand2的深度值,
Figure BDA0000399347950000104
Figure BDA0000399347950000105
分别为t时刻Hand1和Hand2的深度值。即如果在相互遮挡前的时刻Hand1处于Hand2之前,那么遮挡结束后的时刻,Hand1也在Hand2之前。用这种方法分辨出双手后,对其做标示并把它们的三维位置信息分别存入各自的轨迹中。
应当理解,本发明的装置实施例中的各个模块和单元的具体操作过程可与方法实施例中的描述相同,此处不再详细描述。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (14)

1.一种基于Kinect传感器的双手跟踪方法,其特征在于包括:
S1视频采集步骤,从Kinect传感器获取分辨率和帧率都相同的彩***流和深度视频流;
S2检测步骤一,从所获取的彩***流和深度视频流的图像中检测第一只做起始手势的手;
S3单手跟踪步骤,利用前一帧或两帧以上图像中第一只手的位置信息和尺寸信息对第一只手进行定位和跟踪;
S4检测步骤二,利用第一只手的位置信息和尺寸信息检测第二只手;
S5双手跟踪步骤,对已经检测到的双手进行跟踪。
2.如权利要求1所述的基于Kinect传感器的双手跟踪方法,其特征在于所述步骤S2中进一步包括:
S2-1样本训练步骤;
S2-2模式选择步骤;
S2-3起始手势判定步骤。
3.如权利要求2所述的基于Kinect传感器的双手跟踪方法,其特征在于:所述步骤S2-1中,选用SVM分类器(Support Vector Machine)学习和训练手部的形态学信息,选取几何不变矩作为训练特征。
4.如权利要求2所述的基于Kinect传感器的双手跟踪方法,其特征在于:所述步骤S2-2中,当光线适当时,选用肤色模式,即用肤色滤波结合深度滤波的方法提取第一只手;当光线太暗或太亮时,选用形状模式,即用深度滤波结合形状滤波的方法提取第一只手。
5.如权利要求2所述的基于Kinect传感器的双手跟踪方法,其特征在于:所述步骤S2-3中,起始手势定义为:手向前伸出且距离身体在阈值d以上。
6.如权利要求1所述的基于Kinect传感器的双手跟踪方法,其特征在于,所述步骤S3中的定位是:利用已得到的前一帧或两帧以上图像中第一只手的位置及其外接矩形预测当前帧图像中第一只手的ROI(Region Of Interest),在此ROI内做深度滤波以定位当前帧图像中第一只手的位置。
7.如权利要求1所述的基于Kinect传感器的双手跟踪方法,其特征在于,所述步骤S5中的双手跟踪包括:
1)双手在相互遮挡之前的分离状态时,对两个目标进行分别跟踪,即根据前一帧或两帧以上图像中两只手的位置和尺寸信息分别预测当前帧图像两目标各自的ROI,并在这两个区域内分别检测;
2)双手在相互遮挡状态时,检测到的两个目标轨迹重合,视为对同一目标进行跟踪;
3)双手在相互遮挡后分开时,根据遮挡前后双手在深度方向上位置关系的不变性辨别双手,并分别跟踪。
8.一种基于Kinect传感器的双手跟踪装置,其特征在于包括如下模块:
视频采集模块,用于从Kinect传感器获取分辨率和帧率都相同的彩***流和深度视频流;
检测模块一,用于从所获取的彩色图像和深度图像中检测第一只做起始手势的手;
单手跟踪模块,包括定位单元和跟踪单元,用于利用前一帧或者两帧以上图像中第一只手的位置信息和尺寸信息对第一只手进行定位和跟踪;
检测模块二,用于利用第一只手的位置信息和尺寸信息检测第二只手;
双手跟踪模块,用于对已经检测到的双手进行跟踪。
9.如权利要求8所述的基于Kinect传感器的双手跟踪装置,其特征在于:所述检测模块一包括样本训练单元、模式选择单元和起始手势判定单元。
10.如权利要求9所述的基于Kinect传感器的双手跟踪装置,其特征在于:所述样本训练单元选用SVM分类器学习和训练手部的形态学信息,选取几何不变矩作为训练特征。
11.如权利要求9所述的基于Kinect传感器的双手跟踪装置,其特征在于,所述模式选择单元用于:
当光线适当时,选用肤色模式,即用肤色滤波结合深度滤波的方法提取第一只手;
当光线太暗或太亮时,选用形状模式,即用深度滤波结合形状滤波的方法提取第一只手。
12.如权利要求9所述的基于Kinect传感器的双手跟踪装置,其特征在于:所述起始手势判定单元中,起始手势定义为:手向前伸出且距离身体在阈值d以上。
13.如权利要求8所述的基于Kinect传感器的双手跟踪装置,其特征在于,所述定位单元用于:利用已得到的前一帧或者两帧以上图像中第一只手的位置及其外接矩形预测当前帧图像中第一只手的ROI,在此ROI内做深度滤波以定位当前帧图像中第一只手的位置。
14.如权利要求8所述的基于Kinect传感器的双手跟踪装置,其特征在于,所述双手跟踪模块用于:
1)双手在相互遮挡之前的分离状态时,对两个目标进行分别跟踪,即根据前一帧或者两帧以上图像中两只手的位置和尺寸信息分别预测当前帧图像两目标各自的ROI,并在这两个区域内分别检测;
2)双手在相互遮挡状态时,检测到的两个目标轨迹重合,视为对同一目标进行跟踪;
3)双手在相互遮挡后分开时,根据遮挡前后双手在深度方向上位置关系的不变性辨别双手,并分别跟踪。
CN201310497334.XA 2013-10-21 2013-10-21 一种基于Kinect传感器的双手跟踪方法与装置 Active CN103530892B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310497334.XA CN103530892B (zh) 2013-10-21 2013-10-21 一种基于Kinect传感器的双手跟踪方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310497334.XA CN103530892B (zh) 2013-10-21 2013-10-21 一种基于Kinect传感器的双手跟踪方法与装置

Publications (2)

Publication Number Publication Date
CN103530892A true CN103530892A (zh) 2014-01-22
CN103530892B CN103530892B (zh) 2016-06-22

Family

ID=49932870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310497334.XA Active CN103530892B (zh) 2013-10-21 2013-10-21 一种基于Kinect传感器的双手跟踪方法与装置

Country Status (1)

Country Link
CN (1) CN103530892B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469043A (zh) * 2015-11-20 2016-04-06 苏州铭冠软件科技有限公司 一种手势识别***
CN106327486A (zh) * 2016-08-16 2017-01-11 广州视源电子科技股份有限公司 跟踪指蹼位置的方法及其装置
CN106504751A (zh) * 2016-08-01 2017-03-15 深圳奥比中光科技有限公司 自适应唇语交互方法以及交互装置
WO2017049626A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Face detection window refinement using depth
CN106625658A (zh) * 2016-11-09 2017-05-10 华南理工大学 一种实时模仿人体上半身动作的人形机器人控制方法
CN107742102A (zh) * 2017-10-13 2018-02-27 北京华捷艾米科技有限公司 一种基于深度传感器的手势识别方法
CN108120433A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种机器人对障碍物的检测方法以及装置
CN108509025A (zh) * 2018-01-26 2018-09-07 吉林大学 一种基于肢体动作识别的起重机智能吊装***
CN108664904A (zh) * 2018-04-24 2018-10-16 长沙学院 一种基于Kinect的人体坐姿行为识别方法和***
CN108846789A (zh) * 2018-05-31 2018-11-20 中国科学院合肥物质科学研究院 一种基于GPU的高速CAMShift方法
CN109271847A (zh) * 2018-08-01 2019-01-25 阿里巴巴集团控股有限公司 无人结算场景中异常检测方法、装置及设备
CN109636779A (zh) * 2018-11-22 2019-04-16 华南农业大学 识别家禽体积体尺的方法、装置及存储介质
CN109933190A (zh) * 2019-02-02 2019-06-25 青岛小鸟看看科技有限公司 一种头戴显示设备及其交互方法
US10372228B2 (en) 2016-07-20 2019-08-06 Usens, Inc. Method and system for 3D hand skeleton tracking
CN112083801A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于vr虚拟办公的手势识别***及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901052A (zh) * 2010-05-24 2010-12-01 华南理工大学 双手互为参考的目标控制方法
CN103034851A (zh) * 2012-12-24 2013-04-10 清华大学深圳研究生院 自学习的基于肤色模型的手部跟踪装置及方法
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901052A (zh) * 2010-05-24 2010-12-01 华南理工大学 双手互为参考的目标控制方法
CN103034851A (zh) * 2012-12-24 2013-04-10 清华大学深圳研究生院 自学习的基于肤色模型的手部跟踪装置及方法
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
I. OIKONOMIDIS: "Tracking the articulated motion of two strongly interacting hands", 《COMPUTER VISION AND PATTERN RECOGNITION》 *
YANMIN ZHU ET AL: "tracking the articulated motion of two strongly interacting hands", 《SERVICE SCIENCES》 *
YI LI: "Hand Gesture Recognition Using Kinect", 《SOFTWARE ENGINEERING AND SERVICE SCIENCE》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017049626A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Face detection window refinement using depth
US10685214B2 (en) 2015-09-25 2020-06-16 Intel Corporation Face detection window refinement using depth
CN105469043A (zh) * 2015-11-20 2016-04-06 苏州铭冠软件科技有限公司 一种手势识别***
US10372228B2 (en) 2016-07-20 2019-08-06 Usens, Inc. Method and system for 3D hand skeleton tracking
CN106504751A (zh) * 2016-08-01 2017-03-15 深圳奥比中光科技有限公司 自适应唇语交互方法以及交互装置
CN106327486B (zh) * 2016-08-16 2018-12-28 广州视源电子科技股份有限公司 跟踪指蹼位置的方法及其装置
CN106327486A (zh) * 2016-08-16 2017-01-11 广州视源电子科技股份有限公司 跟踪指蹼位置的方法及其装置
CN106625658A (zh) * 2016-11-09 2017-05-10 华南理工大学 一种实时模仿人体上半身动作的人形机器人控制方法
CN108120433A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种机器人对障碍物的检测方法以及装置
CN108120433B (zh) * 2016-11-28 2021-06-11 沈阳新松机器人自动化股份有限公司 一种机器人对障碍物的检测方法以及装置
CN107742102A (zh) * 2017-10-13 2018-02-27 北京华捷艾米科技有限公司 一种基于深度传感器的手势识别方法
CN107742102B (zh) * 2017-10-13 2020-03-24 北京华捷艾米科技有限公司 一种基于深度传感器的手势识别方法
CN108509025A (zh) * 2018-01-26 2018-09-07 吉林大学 一种基于肢体动作识别的起重机智能吊装***
CN108664904A (zh) * 2018-04-24 2018-10-16 长沙学院 一种基于Kinect的人体坐姿行为识别方法和***
CN108846789A (zh) * 2018-05-31 2018-11-20 中国科学院合肥物质科学研究院 一种基于GPU的高速CAMShift方法
CN109271847A (zh) * 2018-08-01 2019-01-25 阿里巴巴集团控股有限公司 无人结算场景中异常检测方法、装置及设备
US11132559B2 (en) 2018-08-01 2021-09-28 Advanced New Technologies Co., Ltd. Abnormality detection method, apparatus, and device for unmanned checkout
CN109636779A (zh) * 2018-11-22 2019-04-16 华南农业大学 识别家禽体积体尺的方法、装置及存储介质
CN109933190A (zh) * 2019-02-02 2019-06-25 青岛小鸟看看科技有限公司 一种头戴显示设备及其交互方法
CN109933190B (zh) * 2019-02-02 2022-07-19 青岛小鸟看看科技有限公司 一种头戴显示设备及其交互方法
CN112083801A (zh) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 基于vr虚拟办公的手势识别***及方法

Also Published As

Publication number Publication date
CN103530892B (zh) 2016-06-22

Similar Documents

Publication Publication Date Title
CN103530892B (zh) 一种基于Kinect传感器的双手跟踪方法与装置
CN102831404B (zh) 手势检测方法及***
CN105739702B (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN108256421A (zh) 一种动态手势序列实时识别方法、***及装置
CN103353935A (zh) 一种用于智能家居***的3d动态手势识别方法
CN101477631B (zh) 图像中提取目标的方法、设备及人机交互***
CN102402680A (zh) 人机交互***中手部、指示点定位方法和手势确定方法
CN104992171A (zh) 一种基于2d视频序列的手势识别及人机交互方法和***
CN103295016A (zh) 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法
CN104268514A (zh) 一种基于多特征融合的手势检测方法
Chen et al. Research and implementation of sign language recognition method based on Kinect
CN102831439A (zh) 手势跟踪方法及***
Zhu et al. Real-time hand gesture recognition with Kinect for playing racing video games
CN103995595A (zh) 一种基于手势的游戏体感控制方法
CN103105924B (zh) 人机交互方法和装置
CN106326860A (zh) 基于视觉的手势识别方法
Ji et al. Integrating visual selective attention model with HOG features for traffic light detection and recognition
CN102880865A (zh) 基于肤色与形态特征的动态手势识别方法
CN103413145A (zh) 基于深度图像的关节点定位方法
CN102194108A (zh) 一种聚类线性鉴别分析特征选择的笑脸表情识别方法
CN106200971A (zh) 基于手势识别的人机交互***装置及操作方法
CN105138990A (zh) 一种基于单目摄像头的手势凸包检测与掌心定位方法
CN112509009B (zh) 一种基于自然语言信息辅助的目标追踪方法
CN105335711A (zh) 一种复杂环境下指尖检测方法
CN103257713A (zh) 一种手势控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant