CN107390881A - 一种手势控制方法 - Google Patents

一种手势控制方法 Download PDF

Info

Publication number
CN107390881A
CN107390881A CN201710845960.1A CN201710845960A CN107390881A CN 107390881 A CN107390881 A CN 107390881A CN 201710845960 A CN201710845960 A CN 201710845960A CN 107390881 A CN107390881 A CN 107390881A
Authority
CN
China
Prior art keywords
hand
gesture
user
recognition system
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710845960.1A
Other languages
English (en)
Inventor
闫立俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qiang Chunjuan
Original Assignee
Xi'an Lingxun Excellent Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Lingxun Excellent Information Technology Co Ltd filed Critical Xi'an Lingxun Excellent Information Technology Co Ltd
Priority to CN201710845960.1A priority Critical patent/CN107390881A/zh
Publication of CN107390881A publication Critical patent/CN107390881A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种手势控制方法,其特征在于,包括双手手势操作场景和单手手势操作场景;双手手势操作场景包括手势捕捉摄像头、主计算机***和近端手势识别***;单手手势操作场景包括语音或脑电波控制设备及其主计算机***、手势捕捉摄像头、近端手势识别***;本发明的技术方案,通过头戴设备和手势结合或者双手手势结合的方式避免了,***误将自己或其他人的无意识手势判断为***命令,从而提高了***的安全性。

Description

一种手势控制方法
技术领域
本发明属于人机交互技术领域,特别涉及一种手势控制方法。
背景技术
随着计算机技术的发展,人机交互技术也越来越智能化、个性化。从传统的鼠标、键盘、触摸屏等交互手段,逐渐发展出了手势控制等非接触式控制方法。
在计算机领域,包括但不限于虚拟现实、增强现实、混合现实场景,目前的手势交互范围包括基于二维显示对象和基于三维显示对象的手势操作。其原理一般都是通过手势识别***的摄像头拍摄用户手势的图像或视频,然后通过计算机算法识别出用户手势的静态含义或运动含义,再映射为***内部命令,最后***根据该命令执行对显示对象的各种操作。
现有技术:面向二维平面显示对象的手势操作,比如传统计算机的二维平面显示对象,通过手势操作代替鼠标、键盘、触摸屏等物理设备,可以获得更自然的人机交互方式。如微软研究院设在以色列的先进技术实验室研究的一个名为Project Prague的布拉格项目,就是通过摄像头设备捕获用户手势操作,映射为windows内部命令,执行某项具体操作。
面向三维立体显示对象的手势操作,比如微软的智能眼镜hololens全息透镜支持针对虚拟三维模型的手势交互。微软智能眼镜hololens支持的手势操作包括:Bloom绽放手势、Air tap空气敲击手势、按住不放、滚动、拖拽、放大缩小、钉住、解除或卸载应用等,具体操作可以参考微软的网站信息。
综合以上面向二维显示对象和三维显示对象的手势操作,现有技术存在如下问题:
1)手势操作不够隐蔽,需要用户抬手操作,以便主摄像头能够“看到”用户的手势;在用户操作虚拟显示对象时,旁边看不到虚拟影像的人会觉得奇怪,尤其是在公共场合;
2)现有***很多操作都是单手手势识别,有一定的安全风险,当周围人多时,***容易将其他人的无意识手势判断为***命令,造成***错误;
发明内容
本发明的目的在于提供一种手势控制方法,以解决上述问题。
为实现上述问题,本发明采用以下技术方案:
一种手势控制方法,包括双手手势操作场景和单手手势操作场景;
双手手势操作场景包括手势捕捉摄像头、主计算机***和近端手势识别***;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑,主计算机***为支持手势操作的设备原有的计算机***;具体包括以下步骤:
步骤一,用户伸出一只手A,处于身体近端,手A采取姿势代表用户开始操作虚拟显示对象;
步骤二,用户伸出另一只手B,处于身体近端,展开针对虚拟显示对象的具体操作;
步骤三,近端手势识别***判断手A手势是“开始操作”手势时,手B的手势操作才会生效;
步骤四,近端手势识别***获得有效的手B操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑;
包括以下操作:
1)用户伸出一只手A,处于身体近端,手掌伸直,手掌或手背朝上,以手A的手掌或手背代表用户开始操作二维平面对象;
2)用户伸出另一只手B进行针对二维平面对象的具体操作,包括以下情况:
手B伸出一只手指,在手A的手掌或手背,通过单指单击、双击操作该二维对象,近端手势识别***映射为对二维平面对象的单击、双击命令;
手B伸出两只手指,在手A的手掌或手背,通过双指张开、闭合操作,近端手势识别***映射为对二维平面对象的放大、缩小的命令;
手B伸出某个手指B1,在手A的手掌或手背进行滑动操作,近端手势识别***映射为对二维平面对象的滚动命令;
手B伸出某个手指B2,在手A的手掌或手背滑动操作,近端手势识别***映射为对二维平面对象的拖动命令;
手B伸出某个手指,点击手A的某个手指,近端手势识别***映射为对二维平面对象或三维立体对象的快捷操作命令;
手B伸出某个手指,通过点击手A某个手指的快捷操作命令,启动手写识别模式,用户使用手B在手A的掌心或手背,进行英文字母或汉字的书写操作,近端手势识别***映射为英文字母或汉字的输入;
单手手势操作场景包括语音或脑电波控制设备及其包含的主计算机***、手势捕捉摄像头、近端手势识别***;语音或脑电波控制设备实时采集用户的语音或脑电波信息,用户的语音或脑电波信号被该设备识别;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;语音或脑电波控制设备主计算机***与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和语音或脑电波控制设备的主计算机***交互,驱动主计算机***的原有控制逻辑,具体包括以下步骤:
一、用户伸出一只手A,处于身体近端;手A采取姿势代表用户开始操作该对象;
二、手势捕捉摄像头将该手势传递给近端手势识别***,近端手势识别***判断手A的手势为开始操作时,近端手势识别***和语音或脑电波控制设备的主计算机***交互,语音或脑电波控制设备才开始分析用户的语音或脑电波信号,语音或脑电波控制设备根据分析出的语音或脑电波信号,发出对应的控制信号输出到其它设备;
进一步的,双手手势操作场景中手B采用微软Hololens全息眼镜标准操作姿势,近端手势识别***映射为内部命令并执行。
进一步的,手A采取的姿势不限于握拳、手掌伸直。
进一步的,近端手势识别***的计算机***可以和主设备的计算机***合一。
与现有技术相比,本发明有以下技术效果:
本发明对于大部分手势操作在用户身体近端就可以完成,减少了用户抬手在空中的操作时对其他人的干扰,提高了手势操作的隐蔽性。
本发明的技术方案,通过双手手势结合的方式避免了周围环境有其他人时,***误将其他人的无意识手势判断为***命令,从而提高了***的安全性。
本发明的技术方案,通过语音或脑电波控制设备和手势结合,避免用户在非控制状态时,语音交互或脑电波活动被误认为***命令,提高了***的兼容性;语音控制设备和手势配合还可以免去用户频繁说唤醒词的烦恼;
本发明通过用户自己的双手完成手势操作,可以代替鼠标、键盘等其它设备,所以具有成本低、易于实现的特点。
具体实施方式
下面结合具体实施方式对本发明进行详细说明:
一种手势控制方法,包括双手手势操作场景和单手手势操作场景;
双手手势操作场景包括手势捕捉摄像头、主计算机***和近端手势识别***;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑,主计算机***为支持手势操作的设备原有的计算机***;具体包括以下步骤:
步骤一,用户伸出一只手A,处于身体近端,手A采取姿势代表用户开始操作虚拟显示对象;
步骤二,用户伸出另一只手B,处于身体近端,展开针对虚拟显示对象的具体操作;
步骤三,近端手势识别***判断手A手势是“开始操作”手势时,手B的手势操作才会生效;
步骤四,近端手势识别***获得有效的手B操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑;
包括以下操作:
1)用户伸出一只手A,处于身体近端,手掌伸直,手掌或手背朝上,以手A的手掌或手背代表用户开始操作二维平面对象;
2)用户伸出另一只手B进行针对二维平面对象的具体操作,包括以下情况:
手B伸出一只手指,在手A的手掌或手背,通过单指单击、双击操作该二维对象,近端手势识别***映射为对二维平面对象的单击、双击命令;
手B伸出两只手指,在手A的手掌或手背,通过双指张开、闭合操作,近端手势识别***映射为对二维平面对象的放大、缩小的命令;
手B伸出某个手指B1,在手A的手掌或手背进行滑动操作,近端手势识别***映射为对二维平面对象的滚动命令;
手B伸出某个手指B2,在手A的手掌或手背滑动操作,近端手势识别***映射为对二维平面对象的拖动命令;
手B伸出某个手指,点击手A的某个手指,近端手势识别***映射为对二维平面对象或三维立体对象的快捷操作命令;
手B伸出某个手指,通过点击手A某个手指的快捷操作命令,启动手写识别模式,用户使用手B在手A的掌心或手背,进行英文字母或汉字的书写操作,近端手势识别***映射为浏览器的英文字母或汉字的输入;
单手手势操作场景包括语音或脑电波控制设备及其包含的主计算机***、手势捕捉摄像头、近端手势识别***;语音或脑电波控制设备实时采集用户的语音或脑电波信息,用户的语音或脑电波信号被该设备识别;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;语音或脑电波控制设备主计算机***与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和语音或脑电波控制设备的主计算机***交互,驱动主计算机***的原有控制逻辑,具体包括以下步骤:
步骤一,用户伸出一只手A,处于身体近端;手A采取姿势代表用户开始操作该对象;
步骤二,手势捕捉摄像头将该手势传递给近端手势识别***,近端手势识别***判断手A的手势为开始操作时,近端手势识别***和语音或脑电波控制设备的主计算机***交互,语音或脑电波控制设备才开始分析用户的语音或脑电波信号,语音或脑电波控制设备根据分析出的语音或脑电波信号,发出对应的控制信号输出到其它设备;
双手手势操作场景中手B采用微软Hololens全息眼镜标准操作姿势,近端手势识别***映射为内部命令并执行。
手A采取的姿势不限于握拳、手掌伸直。
近端手势识别***的计算机***可以和主设备的计算机***合一。
实施例1、智能眼镜用户完成二维显示对象的操作。
步骤一,智能眼镜开机,用户浏览内容;
步骤二,智能眼镜的显示单元呈现某个二维图像,比如用户打开windows的edge浏览器,显示单元显示出edge浏览器界面;
步骤三,用户伸出一只手A,在身体近端,比如腹部或胸部前面,手掌或手背朝上,以手A的手掌或手背代表欲操作的edge浏览器;
步骤四,用户伸出另一只手B进行针对edge浏览器的具体操作,包括以下三种情况;
1)、手B伸出一只手指,在手A的手掌或手背,通过单击、双击操作,***映射为对edge浏览器浏览内容的单击、双击命令;
手势识别***映射过程为:根据智能眼镜向下的一个或多个摄像头拍摄的手势图像、图像序列或视频,经过计算机***处理和分析,得出具体手势动作,此处可以参考业界成熟的手势图像和手势运动识别算法。然后,根据预先设置的手势动作和***控制命令的映射关系,手势识别***将手势转换为内部控制命令。
2)、手B伸出两只手指,在手A的手掌或手背,通过双指张开、闭合操作,***映射为对edge浏览器浏览内容的放大、缩小的命令;
进一步的,通过手B伸出某个手指B1的滑动操作,***映射为对edge浏览器浏览内容的滚动命令;通过手B伸出某个手指B2的滑动操作,***映射为对edge浏览器窗口的拖动命令;
进一步的,手B伸出某个手指,点击手A的某个手指,***映射为对edge浏览器界面的某个快捷操作命令。比如,手B点击手A的大拇指表示关闭窗口;
进一步的,手B伸出某个手指,在手A的手掌或手背,通过点击手A某个手指的快捷操作命令,比如无名指,启动手写识别模式,用户使用手B的手指在手A的掌心或手背,进行英文字母或汉字的书写操作,***映射为edge浏览器的英文字母或汉字的输入。
实施例2、智能眼镜用户完成三维显示对象的操作。
步骤一,智能眼镜开机,用户浏览内容;
步骤二,智能眼镜的显示单元呈现操作菜单,菜单包括一系列三维的物体模型;以下步骤是用户操作“地球仪”模型的示例;
步骤三,用户伸出一只手A,在身体近端,比如腹部或胸部前面;手A采取的姿势不限于握拳、伸直姿势,手A的特定姿势代表用户开始操作;比如,用户采用握拳表示开始操作;
步骤四,用户伸出另一只手B,展开针对地球仪模型的具体操作;手B操作采用微软智能眼镜hololens标准操作姿势,但不同于标准hololens的是操作位置在身体近端,近端手势控制***将手势操作映射为内部命令并执行;比如,通过用户的视线焦点配合,使用点击手势选取“地球仪”模型,然后放置到虚拟环境中的某个具***置。
实施例3、脑电波头戴设备与手势配合
脑电波头戴设备,以杭州回车电子科技有限公司的kether为例说明。
深圳回车科技的一款脑电波控制的赛车Kether的典型使用场景是用户通过脑电波设备驱动赛车运动。用户戴上脑电波信号采集设备后,集中注意力,当注意力达到设定值后,赛车会在跑道上奔跑起来,体验者的注意力值越高,赛车行进速度越快。当体验者的注意力值下降到设定值以下,赛车就会停止前进。
本技术方案中,脑电波设备与手势操作配合的步骤:
步骤一,脑电波设备集成向下的一个或多个用于手势识别的摄像头;
步骤二,用户伸出一只手A,在身体近端,比如放置在靠近腹部或胸部的位置;手A采取某种特定姿势代表用户开始操作赛车,手A采取的姿势不限于握拳、手掌伸直;同时,用户集中注意力,开始用脑电波控制赛车速度;
步骤三,近端手势控制***识别手A的手势,当判断手势为开始操作赛车的手势时,近端手势识别***和脑电波设备的主计算机交互,脑电波设备开始分析用户的脑电波控制信号,根据脑电波信号强度,向赛车发送控制信号;如果判断手势不是开始操作赛车的手势,则不向赛车发送控制信号;
步骤四,赛车根据脑电波设备发出的控制信号,调整自己的行进速度。
实施例4、语音控制设备与手势配合
支持语音控制的设备,比如谷歌眼镜;通过与手势操作配置,谷歌眼镜在语音交互时,可以免去频繁的说出唤醒词;本技术方案中,谷歌眼镜与手势操作配合的步骤:
步骤一,谷歌眼镜设备集成向下的一个或多个用于手势识别的摄像头;
步骤二,用户伸出一只手A,在身体近端,比如放置在靠近腹部或胸部的位置;手A采取某种特定姿势代表用户开始语音交互,手A采取的姿势不限于握拳、手掌伸直;
步骤三,用户发出语音命令;比如,用户使用语音说出“照相”命令;
步骤四,近端手势识别***识别手A的手势,当判断手势为开始操作的手势时,近端手势识别***和谷歌眼镜的主计算机***交互,谷歌眼镜才开始进行语音识别,并控制主摄像头完成照相操作。

Claims (4)

1.一种手势控制方法,其特征在于,包括双手手势操作场景和单手手势操作场景;
双手手势操作场景包括手势捕捉摄像头、主计算机***和近端手势识别***;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑,主计算机***为支持手势操作的设备原有的计算机***;具体包括以下步骤:
步骤一,用户伸出一只手A,处于身体近端,手A采取姿势代表用户开始操作虚拟显示对象;
步骤二,用户伸出另一只手B,处于身体近端,展开针对虚拟显示对象的具体操作;
步骤三,近端手势识别***判断手A手势是“开始操作”手势时,手B的手势操作才会生效;
步骤四,近端手势识别***获得有效的手B操作后,和主计算机***交互,驱动主计算机***的原有控制逻辑;
包括以下操作:
1)用户伸出一只手A,处于身体近端,手掌伸直,手掌或手背朝上,以手A的手掌或手背代表用户开始操作二维平面对象;
2)用户伸出另一只手B进行针对二维平面对象的具体操作,包括以下情况:
手B伸出一只手指,在手A的手掌或手背,通过单指单击、双击操作该二维对象,近端手势识别***映射为对二维平面对象的单击、双击命令;
手B伸出两只手指,在手A的手掌或手背,通过双指张开、闭合操作,近端手势识别***映射为对二维平面对象的放大、缩小的命令;
手B伸出某个手指B1,在手A的手掌或手背进行滑动操作,近端手势识别***映射为对二维平面对象的滚动命令;
手B伸出某个手指B2,在手A的手掌或手背滑动操作,近端手势识别***映射为对二维平面对象的拖动命令;
手B伸出某个手指,点击手A的某个手指,近端手势识别***映射为对二维平面对象或三维立体对象的快捷操作命令;
手B伸出某个手指,通过点击手A某个手指的快捷操作命令,启动手写识别模式,用户使用手B在手A的掌心或手背,进行英文字母或汉字的书写操作,近端手势识别***映射为英文字母或汉字的输入;
单手手势操作场景包括语音或脑电波控制设备及其包含的主计算机***、手势捕捉摄像头、近端手势识别***;语音或脑电波控制设备实时采集用户的语音或脑电波信息,用户的语音或脑电波信号被该设备识别;手势捕捉摄像头用于捕捉用户手势,手势捕捉摄像头与近端手势识别***连接;语音或脑电波控制设备主计算机***与近端手势识别***连接;近端手势识别***用于在识别出用户的近端手势操作后,和语音或脑电波控制设备的主计算机***交互,驱动主计算机***的原有控制逻辑,具体包括以下步骤:
一、用户伸出一只手A,处于身体近端;手A采取姿势代表用户开始操作该对象;
二、手势捕捉摄像头将该手势传递给近端手势识别***,近端手势识别***判断手A的手势为开始操作时,近端手势识别***和语音或脑电波控制设备的主计算机***交互,语音或脑电波控制设备才开始分析用户的语音或脑电波信号,语音或脑电波控制设备根据分析出的语音或脑电波信号,发出对应的控制信号输出到其它设备。
2.根据权利要求1所述的一种手势控制方法,其特征在于,双手手势操作场景中手B采用微软Hololens全息眼镜标准操作姿势,近端手势识别***映射为内部命令并执行。
3.根据权利要求1所述的一种手势控制方法,其特征在于,手A采取的姿势不限于握拳、手掌伸直。
4.根据权利要求1所述的一种手势控制方法,其特征在于,近端手势识别***的计算机***能够和主设备的计算机***合一。
CN201710845960.1A 2017-09-14 2017-09-14 一种手势控制方法 Pending CN107390881A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710845960.1A CN107390881A (zh) 2017-09-14 2017-09-14 一种手势控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710845960.1A CN107390881A (zh) 2017-09-14 2017-09-14 一种手势控制方法

Publications (1)

Publication Number Publication Date
CN107390881A true CN107390881A (zh) 2017-11-24

Family

ID=60350971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710845960.1A Pending CN107390881A (zh) 2017-09-14 2017-09-14 一种手势控制方法

Country Status (1)

Country Link
CN (1) CN107390881A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032358A (zh) * 2018-08-27 2018-12-18 百度在线网络技术(北京)有限公司 基于手势识别的ar交互虚拟模型的控制方法及装置
CN109725722A (zh) * 2018-12-29 2019-05-07 百度在线网络技术(北京)有限公司 有屏设备的手势控制方法和装置
CN109933194A (zh) * 2019-03-05 2019-06-25 郑州万特电气股份有限公司 一种混合现实环境中对虚拟目标物的交互方法
CN112750437A (zh) * 2021-01-04 2021-05-04 欧普照明股份有限公司 控制方法、控制装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102221891A (zh) * 2011-07-13 2011-10-19 广州视源电子科技有限公司 实现视像手势识别的方法和***
CN103226443A (zh) * 2013-04-02 2013-07-31 百度在线网络技术(北京)有限公司 智能眼镜的控制方法、装置和智能眼镜
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法
US20140201684A1 (en) * 2013-01-15 2014-07-17 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
CN106959746A (zh) * 2016-01-12 2017-07-18 百度在线网络技术(北京)有限公司 语音数据的处理方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102221891A (zh) * 2011-07-13 2011-10-19 广州视源电子科技有限公司 实现视像手势识别的方法和***
US20140201684A1 (en) * 2013-01-15 2014-07-17 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
CN103226443A (zh) * 2013-04-02 2013-07-31 百度在线网络技术(北京)有限公司 智能眼镜的控制方法、装置和智能眼镜
CN103257713A (zh) * 2013-05-31 2013-08-21 华南理工大学 一种手势控制方法
CN106959746A (zh) * 2016-01-12 2017-07-18 百度在线网络技术(北京)有限公司 语音数据的处理方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032358A (zh) * 2018-08-27 2018-12-18 百度在线网络技术(北京)有限公司 基于手势识别的ar交互虚拟模型的控制方法及装置
CN109725722A (zh) * 2018-12-29 2019-05-07 百度在线网络技术(北京)有限公司 有屏设备的手势控制方法和装置
CN109933194A (zh) * 2019-03-05 2019-06-25 郑州万特电气股份有限公司 一种混合现实环境中对虚拟目标物的交互方法
CN112750437A (zh) * 2021-01-04 2021-05-04 欧普照明股份有限公司 控制方法、控制装置及电子设备

Similar Documents

Publication Publication Date Title
CN111680594B (zh) 一种基于手势识别的增强现实交互方法
Wexelblat An approach to natural gesture in virtual environments
Wachs et al. Vision-based hand-gesture applications
Murthy et al. A review of vision based hand gestures recognition
CN102854983B (zh) 一种基于手势识别的人机交互方法
TWI411935B (zh) 利用影像擷取裝置辨識使用者姿勢以產生控制訊號之系統以及方法
CN108845668B (zh) 人机交互***和方法
CN107390881A (zh) 一种手势控制方法
US20130335318A1 (en) Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers
CN101510121A (zh) 一种基于手势识别的界面漫游操作方法与装置
CN103240746B (zh) 一种具有图像识别***的猜拳机器人及猜拳手势识别方法
Nooruddin et al. HGR: Hand-gesture-recognition based text input method for AR/VR wearable devices
CN114821753B (zh) 一种基于视觉图像信息的眼动交互***
Baig et al. Qualitative analysis of a multimodal interface system using speech/gesture
CN113961067A (zh) 基于深度学习的非接触式涂鸦绘制方法与识别交互***
Jindal et al. A comparative analysis of established techniques and their applications in the field of gesture detection
Annachhatre et al. Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review
CN109725722A (zh) 有屏设备的手势控制方法和装置
CN111860086A (zh) 基于深度神经网络的手势识别方法、装置及***
Soroni et al. Hand Gesture Based Virtual Blackboard Using Webcam
CN113807280A (zh) 一种基于Kinect的虚拟船舶机舱***与方法
Rustagi et al. Virtual Control Using Hand-Tracking
Chaudhary Finger-stylus for non touch-enable systems
JPH09237151A (ja) グラフィカルユーザインタフェース
Dadiz et al. Go-Mo (Go-Motion): An android mobile application detecting motion gestures for generating basic mobile phone commands utilizing KLT algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200924

Address after: Building 1, No.8, Jinye 2nd Road, Yanta District, Xi'an City, Shaanxi Province

Applicant after: Qiang Chunjuan

Address before: High tech Zone 710065 Shaanxi city of Xi'an Province Tang Yan Road No. eleven Plaza Garden - Xi'an (two) 1 Building 1 unit 12332 room

Applicant before: XI'AN LINGXUN ZHUOYUE INFORMATION TECHNOLOGY Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171124