CN103713738B - 一种基于视觉跟踪和手势识别的人机交互方法 - Google Patents

一种基于视觉跟踪和手势识别的人机交互方法 Download PDF

Info

Publication number
CN103713738B
CN103713738B CN201310693150.0A CN201310693150A CN103713738B CN 103713738 B CN103713738 B CN 103713738B CN 201310693150 A CN201310693150 A CN 201310693150A CN 103713738 B CN103713738 B CN 103713738B
Authority
CN
China
Prior art keywords
high definition
photographic head
screen
gesture
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310693150.0A
Other languages
English (en)
Other versions
CN103713738A (zh
Inventor
何辉
李磊
刘凌志
汪志冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Tuo Bao Science And Technology Co Ltd
Original Assignee
Wuhan Tuo Bao Science And Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Tuo Bao Science And Technology Co Ltd filed Critical Wuhan Tuo Bao Science And Technology Co Ltd
Priority to CN201310693150.0A priority Critical patent/CN103713738B/zh
Publication of CN103713738A publication Critical patent/CN103713738A/zh
Application granted granted Critical
Publication of CN103713738B publication Critical patent/CN103713738B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于视觉跟踪和手势识别的人机交互方法,本发明包括一个可变焦的高清红外摄像头以及多个高清红外摄像头。本发明装置安装在屏幕的边框或边框上方。其中可变焦的高清红外摄像头采集视觉的信息,再通过视觉观察屏幕的位置和拍摄的图像进行标定,最后通过本发明装置的专用处理器实现瞳孔的识别,从而实现本发明方法的第一步视觉跟踪。本发明的第二步在视觉跟踪之后,多个高清红外摄像头在视觉观察屏幕的区域实现手势的识别,即完成人机交互。再通过摄像头对屏幕进行标定,对手势进行三维成像,并判断手势触摸点的位置和动作。本发明实现了具有视觉跟踪的手势识别人机交互***,提供了智能的非接触式的人机交互方式。

Description

一种基于视觉跟踪和手势识别的人机交互方法
技术领域
本发明属于计算机人工智能技术领域,更具体地,涉及一种基于视觉跟踪和手势识别的人机交互方法。
背景技术
技术的进步使人与计算机之间的交互越来越接近自然方式的交互,也就是人们大力倡导的“自然交互”。触摸技术这种轻松的人机交互方式已经被推向了众多的领域,除了应用在个人便携式数码产品之外,它还被广泛地应用在信息家电、公共信息、电子游戏、办公室自动化设备以及工业设备等领域。利用触摸技术,用户只需要用手势轻轻触碰屏幕上的文字或图标就能够实现与计算机的交互,使得人与机器之间的交互更加直观便捷。
而现有的触摸技术必须通过人手接触屏幕从而完成人机交互的过程。这种接触式的触摸技术当人远离屏幕时无法实现与屏幕的自然交互,必须通过遥控器等装置控制屏幕,不能提供良好的人机交互体验,因此上述触摸技术在人工智能应用中存在局限性。视觉跟踪技术利用视觉的变化代替人手在触摸屏上的运动,使人远离屏幕时仍可以定位屏幕上的任意区域。通过眼睛的运动使用触摸屏,减少了许多步骤,加速以人为中心的智能化人机交互的发展与实现。目前这种技术还仅限于眼动仪,人脸识别等方面的应用,还未应用在触摸技术领域。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于视觉跟踪和手势识别的人机交互方法,其目的在于,能够在任意具有屏幕特性的屏幕例如电脑液晶屏、普通液晶屏、投影仪屏幕、大型显示器上实现视觉跟踪,并实现非接触式控制屏幕的人机交互方式。
为实现上述目的,按照本发明的一个方面,提供了一种基于视觉跟踪和手势识别的人机交互方法,包括以下步骤:
(1)将红外光源、用于进行视觉跟踪的可变焦高清红外摄像头、以及多个用于进行手势识别的高清红外摄像头安装在屏幕边框处;
(2)可变焦高清红外摄像头采集人脸图像,并对采集的人脸图像进行人脸轮廓提取;
(3)计算步骤(2)获得的人脸轮廓中左、右瞳孔中心的像素坐标(ueL,veL)和(ueR,veR);
(4)根据人脸轮廓中左右瞳孔中心的像素坐标以及屏幕四个角的坐标计算左右瞳孔的投影矩阵Mel和Mer;
(5)通过步骤(4)得到的左右瞳孔的投影矩阵Mel和Mer以及左右瞳孔的中心像素坐标值计算左、右瞳孔在屏幕上的物理坐标值,该物理坐标值所对应的区域为用户执行手势操作的区域:
u e L v e L 1 = M e l X e l Y e l 1
u e R v e R 1 = M e r X e r Y e r 1
其中(Xer,Yer)表示右瞳孔在屏幕上的物理坐标值,(Xel,Yel)表示左瞳孔在屏幕上的物理坐标值;
(6)根据双目视觉的原理对放置有高清红外摄像头的屏幕进行参数标定,以分别获得左、右高清红外摄像头的投影矩阵Ml和Mr;
(7)高清红外摄像头采集用户手势触摸屏幕的图像,对采集的图像进行预处理,以获取用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F);
(8)根据用户的手势操作在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F)、以及左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr,并通过以下等式获得用户的手势在屏幕上的三维空间坐标(xf,yf,zf),其中该手势操作是在上述步骤(5)中获得的物理坐标值对应的区域中:
u 1 F v 1 F 1 = M l x f y f z f 1 , u 2 F v 2 F 1 = M r x f y f z f 1
(9)判断步骤(8)获得的坐标zf是否小于阀值γ,若zf小于γ,可以判断用户手势发生点击动作,通过USB接口将指尖的三维空间坐标(xf,yf,zf)输出,否则过程结束。
优选地,步骤(2)包括以下子步骤:
(2-1)利用可变焦高清红外摄像头采集人脸图像,并用掩膜法对采集的人脸图像去噪;
(2-2)利用Sobel算子对人脸图像上的像素点做梯度变换,以得到人脸轮廓。
优选地,步骤(3)具体为,在步骤(2)获得的人脸轮廓中使用Sobel算子得到左瞳孔的左右像素坐标值为uLeL、uHeL,左瞳孔的上下像素坐标值为vLeL、vHeL,左瞳孔的中心像素坐标值(ueL,veL)为(uLeL+uHeL/2,vLeL+vHeL/2),右瞳孔的中心像素坐标值(ueR,veR)为(uLeR+uHeR/2,vLeR+vHeR/2),其中uLeR、uHeR为右瞳孔的左右像素坐标值,vLeR、vHeR为右瞳孔的上下像素坐标值。
优选地,步骤(6)具体为,利用张正友标定对屏幕进行标定,以获得标定物在左右高清红外摄像头上的像素坐标,每个标定物在左右高清红外摄像头上的像素坐标(u1m,v1m)、(u2m,v2m),其中m为标定点的个数,并利用以下等式分别获得左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr:
u 1 m v 1 m 1 = M l x m y m z m 1 u 2 m v 2 m 1 = M r x m y m z m 1
其中(xm,ym,zm)为圆圈标定点的物理坐标。
优选地,步骤(7)具体包括以下子步骤:
(7-1)左、右高清红外摄像头分别采集用户手势触摸屏幕的图像,并将采集到的图像与初始化帧的图像对应点上像素点相减,以组成新的图像;
(7-2)对步骤(7-1)获得的新的图像进行图像去噪;
(7-3)利用Sobel算子对图像上的像素点做梯度变换,以得到边缘检测图;
(7-4)根据步骤(7-3)获取的边缘检测图对左、右高清红外摄像头上的像素点进行K曲率判别,以获得用户的手势在左、右高清红外摄像头上的成像坐标(u1F,v1F)和(u2F,v2F)。
按照本发明的另一方面,提供了一种基于视觉跟踪和手势识别的人机交互方法,包括以下步骤:
(1)将红外光源、用于进行视觉跟踪的可变焦高清红外摄像头、以及多个用于进行手势识别的高清红外摄像头安装在屏幕边框处;
(2)可变焦高清红外摄像头采集人脸图像,并对采集的人脸图像进行人脸轮廓提取;
(3)计算步骤(2)获得的人脸轮廓中左、右瞳孔中心的像素坐标(ueL,veL)和(ueR,veR);
(4)根据人脸轮廓中左右瞳孔中心的像素坐标以及屏幕四个角的坐标计算左右瞳孔的投影矩阵Mel和Mer;
(5)通过步骤(4)得到的左右瞳孔的投影矩阵Mel和Mer以及左右瞳孔的中心像素坐标值计算左、右瞳孔在屏幕上的物理坐标值,该物理坐标值所对应的区域为用户执行手势操作的区域:
u e L v e L 1 = M e l X e l Y e l 1
u e R v e R 1 = M e r X e r Y e r 1
其中(Xer,Yer)表示右瞳孔在屏幕上的物理坐标值,(Xel,Yel)表示左瞳孔在屏幕上的物理坐标值;
(6)根据双目视觉的原理对放置有高清红外摄像头的屏幕进行参数标定,以分别获得左、右高清红外摄像头的投影矩阵Ml和Mr;
(7)高清红外摄像头采集用户手势触摸屏幕的图像,对采集的图像进行预处理,以获取用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F);
(8)当用户滑动触摸屏幕时,根据用户的手势操作在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F)、以及左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr,并通过以下等式获得用户的手势在屏幕上第一帧指尖的三维空间坐标(xf1,yf1,zf1),其中该手势操作是在上述步骤(5)中获得的物理坐标值对应的区域中:
u 1 F v 1 F 1 = M l x f 1 y f 1 z f 1 1 , u 2 F v 2 F 1 = M r x f 1 y f 1 z f 1 1
(9)重复步骤(8),以获得后续D-1帧指尖图像的三维空间坐标(xf2,yf2,zf2),…,(xfD,yfD,zfD),其中D表示用户滑动触摸屏幕时采集到的指尖图像的帧数,从而得到手势在屏幕上的滑动轨迹,将轨迹通过USB接口输出。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明实现了任意屏幕上(包括液晶屏、投影仪屏幕或其他屏幕等)实现具有视觉跟踪定位以及非接触式触摸的功能;
(2)本发明使用简单,定位准确,便于安装。
附图说明
图1是本发明基于视觉跟踪和手势识别的人机交互方法的流程图。
图2是本发明人脸轮廓检测的示意图。
图3是本发明视觉跟踪的示意图。
图4是本发明手势识别所使用的装置的外形图。
图5是本发明的正视图。
图6是本发明屏幕的侧视图。
图7是本发明标定物示意图。
图8是本发明手势触摸点击示意图。
图9是本发明手势滑动示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明一种基于视觉跟踪和手势识别的人机交互方法,包括以下步骤:
(1)将红外光源、用于进行视觉跟踪的可变焦高清红外摄像头、以及多个用于进行手势识别的高清红外摄像头安装在屏幕边框的任意位置;在本实施方式中,进行视觉跟踪的可变焦高清红外摄像头,其特性是10倍变焦,分辨率是720P,帧率是60帧/秒,镜头角度在110°;红外光源选择800nm-1200nm波长的红外光;进行手势识别的高清红外摄像头的帧率是60帧/秒、分辨率是720P,镜头角度在110°;屏幕为任意尺寸或形式的屏幕,包括液晶屏、投影仪屏幕、或其他屏幕)摄像头被安放在屏幕边框的左右任意位置,如图4至6所示,作为示例,选取屏幕上边框的中心位置安装红外光源、可变焦高清红外摄像头、以及高清红外摄像头,在本实施方式中,使用两个高清红外摄像头,以及一个可变焦高清红外摄像头,应该理解的是,本发明的摄像头数量绝不局限于此。本发明通过红外光源作为辅助光源。
(2)可变焦高清红外摄像头采集人脸图像,并对采集的人脸图像进行人脸轮廓提取;如图2所示,本步骤包括以下子步骤:
(2-1)利用可变焦高清红外摄像头采集人脸图像,并用掩膜法对采集的人脸图像去噪;具体而言,首先建立一个3*3的掩模 W = w 1 w 2 w 3 w 4 w 5 w 6 w 7 w 8 w 9 , 假设采集的人脸图像上某一点的像素为aj,k,其中j和k表示图像上点的位置;则有aj,k=aj-1,k-1w1+aj-1,kw2+…+aj,kw5+…+aj+1,kw8+aj+1,k+1w9,从而得到新的像素aj,k,在本实施方式中, W = 1 9 1 1 1 1 1 1 1 1 1 ;
(2-2)对去噪后的人脸图像进行边缘检测,即利用Sobel算子对人脸图像上的像素点做梯度变换,以得到人脸轮廓;具体而言,M设Sobel算子 S h = - 1 - 2 - 1 0 0 0 1 2 1 为横向梯度算子, S v = - 1 0 1 - 2 0 2 1 0 1 为纵向梯度算子,对人脸图像分别使用Sh和Sv来进行卷积运算,以获得该人脸图像在两个横向和纵向上的梯度图;
(3)计算步骤(2)获得的人脸轮廓中左右瞳孔中心的像素坐标;如图3所示,本步骤具体为,在步骤(2)获得的人脸轮廓中仍调用上述步骤(2-2)中的Sobel算子,得到左瞳孔的左右像素坐标值为uLeL、uHeL,左瞳孔的上下像素坐标值为vLeL、vHeL,因此左瞳孔的中心像素坐标值(ueL,veL)为(uLeL+uHeL/2,vLeL+vHeL/2)。同理可得右瞳孔的中心像素坐标值(ueR,veR)为(uLeR+uHeR/2,vLeR+vHeR/2),其中uLeR、uHeR为右瞳孔的左右像素坐标值,vLeR、vHeR为右瞳孔的上下像素坐标值。
(4)根据人脸轮廓中左右瞳孔中心的像素坐标以及屏幕四个角的坐标计算左右瞳孔的投影矩阵Mel和Mer,如图4所示,本步骤具体为:首先,当人眼视觉注视屏幕左上角时(左上角坐标为(xA,yA,0)),可以通过步骤(3)求得左右瞳孔中心在高清红外摄像头上的像素坐标为(u1eL,v1eL),(u1eR,v1eR),同理求得注视屏幕右上角(右上角坐标为(xB,yB,0))时,左右瞳孔中心在高清红外摄像头的像素坐标分别为(u2eL,v2eL),(u2eR,v2eR);注视屏幕左下角(左下角坐标为(xC,yC,0))时,左右瞳孔中心在高清红外摄像头的像素坐标分别为(u3eL,v3eL),(u3eR,v3eR);注视屏幕右下角(右下角坐标为(xD,yD,0))时,左右瞳孔中心在高清红外摄像头的像素坐标分别为(u4eL,v4eL),(u4eR,v4eR);
然后,根据双目视觉的原理
u e L v e L 1 = M e l x y 1
根据上述屏幕四个角的坐标即左上角坐标为(xA,yA),右上角坐标为(xB,yB),左下角坐标为(xC,yC),右下角坐标为(xD,yD)带入上述等式右边,屏幕四个角对应的左瞳孔的像素坐标为(u1eL,v1eL),(u2eL,v2eL),(u3eL,v3eL),(u4eL,v4eL)带入上述等式左边,联立解方程
即可计算得到左瞳孔的投影矩阵为
M e l = mel 11 mel 12 mel 13 mel 21 mel 22 mel 23 mel 31 mel 32 mel 33 ,
同理可求得右瞳孔的投影矩阵为
M e r = mer 11 mer 12 mer 13 mer 21 mer 22 mer 23 mer 31 mer 32 mer 33 .
(5)通过步骤(4)得到的左右瞳孔的投影矩阵Mel和Mer以及左右瞳孔的中心像素坐标值计算左、右瞳孔在屏幕上的物理坐标值,该物理坐标值所对应的区域为用户执行手势操作的区域;具体而言,通过以下双目视觉的原理
u e L v e L 1 = M e l X e l Y e l 1
u e R v e R 1 = M e r X e r Y e r 1
计算得到左、右瞳孔在屏幕上的物理坐标值,其中(Xer,Yer)表示右瞳孔在屏幕上的物理坐标值;(Xel,Yel)表示左瞳孔在屏幕上的物理坐标值。当视觉投向不同的屏幕区域,如图3所示在屏幕上显示虚线框,即可完成视觉的定位及跟踪,本步骤获得的物理坐标值对应的区域就是后续步骤(8)中用户手势的操作区域。
(6)根据双目视觉的原理对放置有高清红外摄像头的屏幕进行参数标定,以分别获得左、右高清红外摄像头的投影矩阵Ml和Mr;具体而言,通过如图(7)所示的标定物,利用张正友标定对屏幕进行标定,以获得标定物在左右高清红外摄像头上的像素坐标,每个标定物在左右高清红外摄像头上的像素坐标(u1m,v1m)、(u2m,v2m),其中m为标定点的个数,如图(7)所示有9个,(xm,ym,zm)为图(7)所示的圆圈标定点的物理坐标。并利用以下等式分别获得左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr:
u 1 m v 1 m 1 = M l x m y m z m 1 u 2 m v 2 m 1 = M r x m y m z m 1
最终获得的投影矩阵分别为
M l = ml 11 ml 12 ml 13 ml 14 ml 21 ml 22 ml 23 ml 24 ml 31 ml 32 ml 33 ml 34 , M r = mr 11 mr 12 mr 13 mr 14 mr 21 mr 22 mr 23 mr 24 mr 31 mr 32 mr 33 mr 34
(7)高清红外摄像头采集用户手势触摸屏幕的图像,对采集的图像进行预处理,包括图像相减、图像去噪、边缘提取、基于K曲率判别的指尖或笔尖图像识别,以获取用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F);如图8所示,本步骤具体包括以下子步骤:
(7-1)左、右高清红外摄像头分别采集用户手势触摸屏幕的图像,并将采集到的图像与初始化帧的图像对应点上像素点相减,以组成新的图像;
(7-2)对步骤(7-1)获得的新的图像进行图像去噪,图像去噪的过程和上述步骤(2-1)相同,在此不再赘述;
(7-3)对去噪后的图像进行边缘检测,即利用Sobel算子对图像上的像素点做梯度变换,以得到边缘检测图;边缘检测的过程和上述步骤(2-2)相同,在此不再赘述;
(7-4)根据步骤(7-3)获取的边缘检测图对左、右高清红外摄像头上的像素点进行K曲率判别,以获得用户的手势在左、右高清红外摄像头上的成像坐标;具体而言,是根据(7-3)中得到的边缘检测图可以提取出手势的边缘图像,每一个边缘坐标点向量为以该点为起始点按边缘的顺时针方向数到的第K点设为按逆时针方向数到的第K点设为的K向量计算公式为当上述计算α大于0并且大于设定阀值β(其取值范围为0.5至1之间),则当前向量对应的像素坐标即为用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F);右摄像头的处理与上述相同,得到用户的手势在右高清红外摄像头的像素坐标为(u2F,v2F);
(8)根据用户的手势操作在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F)、以及左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr,并通过以下等式获得用户的手势在屏幕上的三维空间坐标(xf,yf,zf),其中该手势操作是在上述步骤(5)中获得的物理坐标值对应的区域中:
u 1 F v 1 F 1 = M l x f y f z f 1 , u 2 F v 2 F 1 = M r x f y f z f 1
通过上述两个矩阵方程求解可以得到手势的三维空间坐标(xf,yf,zf),即完成用户的手势的三维成像及定位。
需要注意的是,在本步骤中,用户的手势操作是点击的方式触摸屏幕。
(9)判断步骤(8)获得的坐标zf是否小于阀值γ,其中γ的取值范围和屏幕的长度成正比,若zf小于γ,可以判断用户手势发生点击动作,通过USB接口将指尖的三维空间坐标(xf,yf,zf)输出,否则过程结束;
如图9所示,当用户以滑动的方式触摸屏幕时,本发明基于视觉定位及跟踪的手势识别人机交互方法所包括的步骤基本与上述点击方式基本相同,唯一不同在于上述步骤(9)被替换为:
获得连续D帧指尖的三维空间坐标(xf1,yf1,zf1),(xf2,yf2,zf2),…,(xfD,yfD,zfD),其中D表示用户滑动触摸屏幕时采集到的指尖图像的帧数,且为正整数,从而得到手势在屏幕上的滑动轨迹,将轨迹通过USB接口输出,从而实现手势滑动的识别。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于视觉跟踪和手势识别的人机交互方法,其特征在于,包括以下步骤:
(1)将红外光源、用于进行视觉跟踪的可变焦高清红外摄像头、以及多个用于进行手势识别的高清红外摄像头安装在屏幕边框处;
(2)可变焦高清红外摄像头采集人脸图像,并对采集的人脸图像进行人脸轮廓提取;
(3)计算步骤(2)获得的人脸轮廓中左、右瞳孔中心的像素坐标(ueL,veL)和(ueR,veR);
(4)根据人脸轮廓中左右瞳孔中心的像素坐标以及屏幕四个角的坐标计算左右瞳孔的投影矩阵Mel和Mer;
(5)通过步骤(4)得到的左右瞳孔的投影矩阵Mel和Mer以及左右瞳孔的中心像素坐标值计算左、右瞳孔在屏幕上的物理坐标值,该物理坐标值所对应的区域为用户执行手势操作的区域:
u e L v e L 1 = M e l X e l Y e l 1
u e R v e R 1 = M e r X e r Y e r 1
其中(Xer,Yer)表示右瞳孔在屏幕上的物理坐标值,(Xel,Yel)表示左瞳孔在屏幕上的物理坐标值;
(6)根据双目视觉的原理对放置有高清红外摄像头的屏幕进行参数标定,以分别获得左、右高清红外摄像头的投影矩阵Ml和Mr;
(7)高清红外摄像头采集用户手势触摸屏幕的图像,对采集的图像进行预处理,以获取用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F);
(8)根据用户的手势操作在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F)、以及左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr,并通过以下等式获得用户的手势在屏幕上的三维空间坐标(xf,yf,zf),其中该手势操作是在上述步骤(5)中获得的物理坐标值对应的区域中:
u 1 F v 1 F 1 = M l x f y f z f 1 , u 2 F v 2 F 1 = M r x f y f z f 1
(9)判断步骤(8)获得的坐标zf是否小于阀值γ,若zf小于γ,可以判断用户手势发生点击动作,通过USB接口将指尖的三维空间坐标(xf,yf,zf)输出,否则过程结束。
2.根据权利要求1所述的人机交互方法,其特征在于,步骤(2)包括以下子步骤:
(2-1)利用可变焦高清红外摄像头采集人脸图像,并用掩膜法对采集的人脸图像去噪;
(2-2)利用Sobel算子对人脸图像上的像素点做梯度变换,以得到人脸轮廓。
3.根据权利要求2所述的人机交互方法,其特征在于,步骤(3)具体为,在步骤(2)获得的人脸轮廓中使用Sobel算子得到左瞳孔的左右像素坐标值为uLeL、uHeL,左瞳孔的上下像素坐标值为vLeL、vHeL,左瞳孔的中心像素坐标值(ueL,veL)为(uLeL+uHeL/2,vLeL+vHeL/2),右瞳孔的中心像素坐标值(ueR,veR)为(uLeR+uHeR/2,vLeR+vHeR/2),其中uLeR、uHeR为右瞳孔的左右像素坐标值,vLeR、vHeR为右瞳孔的上下像素坐标值。
4.根据权利要求1所述的人机交互方法,其特征在于,步骤(6)具体为,利用张正友标定对屏幕进行标定,以获得标定物在左右高清红外摄像头上的像素坐标,每个标定物在左右高清红外摄像头上的像素坐标(u1m,v1m)、(u2m,v2m),其中m为标定点的个数,并利用以下等式分别获得左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr:
u 1 m v 1 m 1 = M l x m y m z m 1 u 2 m v 2 m 1 = M r x m y m z m 1
其中(xm,ym,zm)为圆圈标定点的物理坐标。
5.根据权利要求1所述的人机交互方法,其特征在于,步骤(7)具体包括以下子步骤:
(7-1)左、右高清红外摄像头分别采集用户手势触摸屏幕的图像,并将采集到的图像与初始化帧的图像对应点上像素点相减,以组成新的图像;
(7-2)对步骤(7-1)获得的新的图像进行图像去噪;
(7-3)利用Sobel算子对图像上的像素点做梯度变换,以得到边缘检测图;
(7-4)根据步骤(7-3)获取的边缘检测图对左、右高清红外摄像头上的像素点进行K曲率判别,以获得用户的手势在左、右高清红外摄像头上的成像坐标(u1F,v1F)和(u2F,v2F)。
6.一种基于视觉跟踪和手势识别的人机交互方法,其特征在于,包括以下步骤:
(1)将红外光源、用于进行视觉跟踪的可变焦高清红外摄像头、以及多个用于进行手势识别的高清红外摄像头安装在屏幕边框处;
(2)可变焦高清红外摄像头采集人脸图像,并对采集的人脸图像进行人脸轮廓提取;
(3)计算步骤(2)获得的人脸轮廓中左、右瞳孔中心的像素坐标(ueL,veL)和(ueR,veR);
(4)根据人脸轮廓中左右瞳孔中心的像素坐标以及屏幕四个角的坐标计算左右瞳孔的投影矩阵Mel和Mer;
(5)通过步骤(4)得到的左右瞳孔的投影矩阵Mel和Mer以及左右瞳孔的中心像素坐标值计算左、右瞳孔在屏幕上的物理坐标值,该物理坐标值所对应的区域为用户执行手势操作的区域:
u e L v e L 1 = M e l X e l Y e l 1
u e R v e R 1 = M e r X e r Y e r 1
其中(Xer,Yer)表示右瞳孔在屏幕上的物理坐标值,(Xel,Yel)表示左瞳孔在屏幕上的物理坐标值;
(6)根据双目视觉的原理对放置有高清红外摄像头的屏幕进行参数标定,以分别获得左、右高清红外摄像头的投影矩阵Ml和Mr;
(7)高清红外摄像头采集用户手势触摸屏幕的图像,对采集的图像进行预处理,以获取用户的手势在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F);
(8)当用户滑动触摸屏幕时,根据用户的手势操作在左高清红外摄像头上的成像坐标(u1F,v1F)以及在右高清红外摄像头上的成像坐标(u2F,v2F)、以及左高清红外摄像头的投影矩阵Ml和右高清红外摄像头的投影矩阵Mr,并通过以下等式获得用户的手势在屏幕上第一帧指尖的三维空间坐标(xf1,yf1,zf1),其中该手势操作是在上述步骤(5)中获得的物理坐标值对应的区域中:
u 1 F v 1 F 1 = M l x f 1 y f 1 z f 1 1 , u 2 F v 2 F 1 = M r x f 1 y f 1 z f 1 1
(9)重复步骤(8),以获得后续D-1帧指尖图像的三维空间坐标(xf2,yf2,zf2),…,(xfD,yfD,zfD),其中D表示用户滑动触摸屏幕时采集到的指尖图像的帧数,从而得到手势在屏幕上的滑动轨迹,将轨迹通过USB接口输出。
CN201310693150.0A 2013-12-17 2013-12-17 一种基于视觉跟踪和手势识别的人机交互方法 Active CN103713738B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310693150.0A CN103713738B (zh) 2013-12-17 2013-12-17 一种基于视觉跟踪和手势识别的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310693150.0A CN103713738B (zh) 2013-12-17 2013-12-17 一种基于视觉跟踪和手势识别的人机交互方法

Publications (2)

Publication Number Publication Date
CN103713738A CN103713738A (zh) 2014-04-09
CN103713738B true CN103713738B (zh) 2016-06-29

Family

ID=50406777

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310693150.0A Active CN103713738B (zh) 2013-12-17 2013-12-17 一种基于视觉跟踪和手势识别的人机交互方法

Country Status (1)

Country Link
CN (1) CN103713738B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016115872A1 (zh) * 2015-01-21 2016-07-28 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN106406684B (zh) * 2016-04-22 2019-07-02 法法汽车(中国)有限公司 投影处理方法、装置及投影仪
CN107330746A (zh) * 2016-09-18 2017-11-07 安徽华陶信息科技有限公司 一种基于vr技术的购物方法及***
CN106502418B (zh) * 2016-11-09 2019-04-16 南京阿凡达机器人科技有限公司 一种基于单目手势识别的视觉跟随方法
CN106791399A (zh) * 2016-12-22 2017-05-31 深圳市虚拟现实技术有限公司 虚拟现实变焦空间定位方法与***
CN108734066B (zh) * 2017-04-20 2021-09-07 奥克斯空调股份有限公司 一种手势图像获取设备及方法
CN107562210A (zh) * 2017-10-17 2018-01-09 极鱼(北京)科技有限公司 交互装置和***
CN107967100A (zh) * 2017-12-06 2018-04-27 Tcl移动通信科技(宁波)有限公司 基于移动终端摄像头的操作控制处理方法、及存储介质
CN109726646B (zh) * 2018-12-14 2021-02-02 中国联合网络通信集团有限公司 一种手势识别方法和***、显示方法和***
CN111290575A (zh) * 2020-01-21 2020-06-16 中国人民解放军空军工程大学 一种防空反导武器的多通道交互控制***
CN112380990A (zh) * 2020-11-13 2021-02-19 咪咕文化科技有限公司 图片调节方法、电子设备和可读存储介质
CN112631422B (zh) * 2020-12-10 2023-04-07 西安理工大学 一种基于人体行为触发的媒体交互***
CN115685616A (zh) * 2022-10-27 2023-02-03 深圳市华弘智谷科技有限公司 一种显示装置和眼动跟踪***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的***
JP2009211563A (ja) * 2008-03-05 2009-09-17 Tokyo Metropolitan Univ 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
CN102426480A (zh) * 2011-11-03 2012-04-25 康佳集团股份有限公司 一种人机交互***及其实时手势跟踪处理方法
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互***和方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211563A (ja) * 2008-03-05 2009-09-17 Tokyo Metropolitan Univ 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的***
CN102426480A (zh) * 2011-11-03 2012-04-25 康佳集团股份有限公司 一种人机交互***及其实时手势跟踪处理方法
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互***和方法

Also Published As

Publication number Publication date
CN103713738A (zh) 2014-04-09

Similar Documents

Publication Publication Date Title
CN103713738B (zh) 一种基于视觉跟踪和手势识别的人机交互方法
US11609607B2 (en) Evolving docking based on detected keyboard positions
CN103488356B (zh) 一种基于红外摄像头三维成像的触摸识别方法
EP2203982B1 (en) Detecting finger orientation on a touch-sensitive device
Miksik et al. The semantic paintbrush: Interactive 3d mapping and recognition in large outdoor spaces
CN116724285A (zh) 用于控制虚拟和图形元素的微手势
CN117178247A (zh) 用于动画化及控制虚拟和图形元素的手势
CN105637443B (zh) 嵌入单元内低功率模式
KR20120045667A (ko) 움직임 인식을 이용한 사용자 인터페이스 장치 및 방법
CN104067209B (zh) 交互式输入***及方法
EP2966555A1 (en) Three-dimensional operation control method and device for touchscreen, and mobile terminal thereof
CN103677270A (zh) 一种基于眼动跟踪的人机交互方法
CN103135753A (zh) 手势输入的方法及***
CN102880304A (zh) 用于便携设备的字符输入方法及装置
TWI479430B (zh) 以自然影像進行的手勢辨識方法
CN104808788A (zh) 一种非接触式手势操控用户界面的方法
CN106033250B (zh) 物件感测装置与方法
CN113711587A (zh) 具有无源深度提取的轻型交叉显示设备
CN103677240A (zh) 虚拟触摸交互方法和虚拟触摸交互设备
CN102799875A (zh) 任意手形人手跟踪方法
Wang et al. Immersive human–computer interactive virtual environment using large-scale display system
CN104765454A (zh) 基于人体肌肉运动知觉的人机交互界面菜单选择方法
CN104035544A (zh) 一种控制电子设备的方法及电子设备
CN107272971B (zh) 抓握管理
Yang et al. 3D character recognition using binocular camera for medical assist

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: 701, room 430075, building C2, future science and Technology City, East Lake hi tech Zone, Hubei, Wuhan, 999

Applicant after: WUHAN TURBO TECHNOLOGIES Corp.

Address before: 712, 2, 58, international headquarters, Optics Valley Road, East Lake hi tech Zone, Hubei, Wuhan, Optics Valley, 430074

Applicant before: WUHAN TURBO ELECTRONIC SYSTEM CO.,LTD.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: WUHAN TURBO ELECTRONIC SYSTEM CO., LTD. TO: WUHAN TURBO TECHNOLOGY CO., LTD.

Free format text: CORRECT: ADDRESS; FROM: 430074 WUHAN, HUBEI PROVINCE TO: 430075 WUHAN, HUBEI PROVINCE

C14 Grant of patent or utility model
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A human-machine interaction method based on visual tracking and gesture recognition

Effective date of registration: 20230919

Granted publication date: 20160629

Pledgee: Wuhan Guanggu Branch of Hubei Bank Co.,Ltd.

Pledgor: WUHAN TURBO TECHNOLOGIES Corp.

Registration number: Y2023980057502