CN103809733B - 人机交互***和方法 - Google Patents

人机交互***和方法 Download PDF

Info

Publication number
CN103809733B
CN103809733B CN201210440197.1A CN201210440197A CN103809733B CN 103809733 B CN103809733 B CN 103809733B CN 201210440197 A CN201210440197 A CN 201210440197A CN 103809733 B CN103809733 B CN 103809733B
Authority
CN
China
Prior art keywords
user
man
hand
posture
interactive operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210440197.1A
Other languages
English (en)
Other versions
CN103809733A (zh
Inventor
孙迅
陈茂林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Original Assignee
Beijing Samsung Telecommunications Technology Research Co Ltd
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Samsung Telecommunications Technology Research Co Ltd, Samsung Electronics Co Ltd filed Critical Beijing Samsung Telecommunications Technology Research Co Ltd
Priority to CN201810619648.5A priority Critical patent/CN108845668B/zh
Priority to CN201210440197.1A priority patent/CN103809733B/zh
Priority to KR1020130050237A priority patent/KR102110811B1/ko
Priority to US14/071,180 priority patent/US9684372B2/en
Publication of CN103809733A publication Critical patent/CN103809733A/zh
Application granted granted Critical
Publication of CN103809733B publication Critical patent/CN103809733B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种人机交互***和人机交互方法,所述人机交互***包括:图像获取设备,用于获取图像数据;人机交互处理设备,根据从图像数据检测的用户的多种类型的动作和姿态来确定用户想要进行的交互操作;显示设备,显示与交互操作的结果对应的显示屏幕。本发明可以利用多种运动检测方式的组合来进行人机交互操作,从而在不需要额外的输入装置的情况下,降低人机交互操作识别的模糊度,提高人机交互操作的准确性。

Description

人机交互***和方法
技术领域
本发明涉及计算机视觉和模式识别领域,更具体地,涉及一种非接触的、自然的远距离人机交互(HCI)***和方法。
背景技术
基于计算机视觉技术的人机交互方式可通过各种图像获取和处理方法来视觉地获取用户输入。基于计算机视觉技术的人机交互方式成为了新一代人机交互技术的热门话题,尤其在休闲娱乐的人机交互方面得到了广泛的应用。在这种交互方式下,可通过用户的身体姿态、头部姿态、视线或人体动作来与计算机进行交互,从而可以使用户从传统的键盘、鼠标等的输入方式中解脱,得到前所未有的人机交互体验。
目前提出了多种基于计算机视觉的人机交互方式。在一种现有的人机交互方式中,可通过使用触摸输入和三维(3D)手势输入来产生、修改和操作3D物体。在另一种方法中,可通过人体姿态检测来与虚拟用户界面进行交互。
然而,现有的人机交互设备和方法所利用的运动检测的类型较为单一,通常需要基于触摸的输入装置并且需要用户记住大量的规定动作来执行交互。由于手势、姿势以及深度感应范围的原因,通常需要进行预处理或各种手动操作,例如,需要校准各种传感器,预先定义交互空间等。这使用户感到不方便。因此,需要一种能够利用多种运动检测方式且不依赖于附加的输入装置的人机交互方式。
发明内容
根据本发明的一方面,提供了一种人机交互***,包括:图像获取设备,用于获取图像数据;人机交互处理设备,根据从图像数据检测的用户的多种类型的动作和姿态来确定用户想要进行的交互操作;显示设备,显示与交互操作的结果对应的显示屏幕。
根据本发明的一方面,人机交互处理设备包括:运动检测模块,从图像数据中检测用户的多种类型的动作和姿态;交互确定模块,根据运动检测模块检测的用户的多种类型的动作和姿态来确定用户想要将要进行的交互操作,并向显示控制模块发出相应的显示操作指令;显示控制模块,根据交互确定模块确定的指令控制显示设备在显示屏幕上显示相应的交互操作。
根据本发明的一方面,运动检测模块包括:视线捕捉模块,用于从图像数据中检测用户的视线方向;姿态追踪模块,用于在图像数据中追踪和识别用户身体各部分的姿态和动作。
根据本发明的一方面,视线捕捉模块通过从图像数据中检测用户的头部的俯仰方向和偏转方向来确定用户的视线方向。
根据本发明的一方面,姿态追踪模块在图像数据中追踪和检测用户的手的节点以确定用户的手的运动和手势,并检测用户的身体骨骼节点以确定用户身体各部分的姿态动作。
根据本发明的一方面,交互确定模块根据视线捕捉模块检测的用户的视线方向和姿态追踪模块识别的用户的手的姿态来确定是否开始交互操作。
根据本发明的一方面,如果确定用户的视线方向和用户的手的指示方向均指向显示屏幕上的显示项超过预定时间,则交互确定模块确定开始对该显示项进行交互操作。
根据本发明的一方面,如果确定用户的视线方向和用户的手的指示方向均未指向显示项,则交互确定模块确定停止对该显示项进行交互操作。
根据本发明的一方面,当用户靠近图像获取设备时,姿态追踪模块追踪和识别用户的手指动作以识别用户的手势,当用户远离图像获取设备时,姿态追踪模块追踪和识别用户的手臂的动作。
根据本发明的一方面,人机交互处理设备还包括:自定义姿势注册模块,用于注册与用户自定义的姿势动作对应的交互操作命令。
根据本发明的另一方面,提供了一种人机交互方法,包括:获取图像数据;根据从图像数据检测的用户的多种类型的动作和姿态来确定用户想要进行的交互操作;显示与交互操作的结果对应的显示屏幕。
根据本发明的另一方面,确定交互操作的步骤包括:从图像数据中检测用户的多种类型的动作和姿态;根据检测的用户的多种类型的动作和姿态来确定将要进行的交互操作,并发出与交互操作对应的显示操作指令;根据确定的指令控制显示设备在显示屏幕上显示相应的交互操作。
根据本发明的另一方面,检测用户的多种类型的动作和姿态的步骤包括:从图像数据中检测用户的视线方向;追踪和识别用户身体各部分的姿态动作。
根据本发明的另一方面,通过从图像数据中检测用户的头部的俯仰方向和偏转方向来确定用户的视线方向。
根据本发明的另一方面,通过在图像数据中追踪和检测用户的手的节点以确定用户的手的运动和手势,并通过从图像数据中检测用户的身体骨骼节点以确定用户身体各部分的姿态动作。
根据本发明的另一方面,根据检测的用户的视线方向和姿态追踪模块识别的用户的手的姿态来确定是否开始交互操作。
根据本发明的另一方面,如果确定用户的视线方向和用户的手的指示方向均指向显示屏幕上的显示项超过预定时间,则确定开始对该显示项进行交互操作。
根据本发明的另一方面,如果确定用户的视线方向和用户的手的指示方向均未指向显示项,则确定停止对该显示项进行交互操作。
根据本发明的另一方面,当用户靠近图像获取设备时,追踪和识别用户的手指动作以识别用户的手势,当用户远离图像获取设备时,识别用户的手臂的动作。
根据本发明的另一方面,确定交互操作的步骤还包括:确定与注册的用户自定义的姿势动作对应的交互操作。
附图说明
通过下面结合示例性地示出实施例的附图进行的描述,本发明的上述和其他目的和特点将会变得更加清楚,其中:
图1是示出根据本发明实施例的人机交互***和用户进行互动的示意图;
图2是示出根据本发明实施例的人机交互***的人机交互处理设备的结构框图;
图3是示出根据本发明另一实施例的开始或停止人机交互操作姿态的示意图;
图4是示出根据本发明实施例的人机交互方法的流程图;
图5是示出根据本发明实施例的人机交互方法进行菜单操作的流程图;
图6是示出根据本发明实施例的人机交互方法进行3D显示目标的交互操作的流程图;
图7是示出根据本发明实施例的人机交互方法进行手写操作的流程图。
具体实施方式
现将详细描述本发明的实施例,所述实施例的示例在附图中示出,其中,相同的标号始终指的是相同的部件。以下将通过参照附图来说明所述实施例,以便解释本发明。
图1是示出根据本发明实施例的人机交互***和用户进行互动的示意图。
如图1所示,根据本发明实施例的人机交互***包括图像获取设备100、人机交互处理设备200和显示设备300。图像获取设备100用于获取图像数据,图像数据可具有深度特征和颜色特征。图像获取设备100可以是能够拍摄深度图像的装置,例如,深度相机。
人机交互处理设备200用于对图像获取设备100获取的图像数据进行分析,从而识别出用户的姿态和动作并对用户的姿态和动作进行解析。然后,人机交互处理设备200根据解析的结果控制显示设备300进行对应的显示。显示设备300可以是诸如电视机(TV),投影仪的设备。
这里,如图1所示,人机交互处理设备200可根据检测到的用户的多种类型的动作和姿态来确定用户想要进行的交互操作。例如,用户可在注视显示设备300所显示的内容中的多个对象(例如,图1中所示的OBJ1、OBJ2和OBJ3)中的某个特定对象(OBJ2)的同时,用手指指向该特定对象,从而开始交互操作。也就是说,人机交互处理设备200可检测用户的视线方向、手势和身体各部分的动作和姿势。用户还可通过移动手指来对显示的某个特定对象进行操作,例如,改变该对象的显示位置。同时,用户还可移动身体的某个部位(例如,手臂)或者移动整个身体来进行交互操作的输入。应理解,虽然图像获取设备100、人机交互处理设备200和显示设备300被显示为分离的设备,但是这三个设备也可以任意地组合为一个或两个设备。例如,图像获取设备100和人机交互处理设备200可以在一个设备中实现。
下面将参照图2来对根据本发明实施例的人机交互***中的人机交互处理设备200的结构进行详细说明。
如图2所示,根据本发明实施例的人机交互处理设备200包括运动检测模块210、交互确定模块220和显示控制模块230。
运动检测模块210用于检测用户的多种类型的动作和确定用户的姿态。例如,运动检测模块210可检测和确定用户的视线方向的运动、身体部件的运动、手势动作和身体姿态动作。交互确定模块220可根据运动检测模块210检测的用户的多种类型的动作和姿态来确定将要进行的交互操作。将在下面对运动检测模块210的操作过程进行详细描述。
根据本发明的一个实施例,运动检测模块210可包括视线捕捉模块211和姿态追踪模块213。
其中,视线捕捉模块211用于从图像数据中获取用户的视线方向。可通过从图像数据中检测用户的头部姿势来获得用户的视线方向。头部的姿势主要由头部俯仰和头部偏转来体现。相应地,可在深度图像中的头部区域分别估计头部的俯仰角和偏转角,从而基于所述俯仰角和偏转角来合成相应的头部姿势,从而得到用户的视线方向。
姿态追踪模块213用于追踪和识别用户身体各部分的姿态动作。例如,姿态追踪模块213可从获取的图像数据中追踪和识别用户的指示方向和手指的动作。姿态追踪模块213可追踪手的运动轨迹和速度。另外,姿态追踪模块213还可追踪和识别用户身体各个部件(例如,手臂)的动作。优选地,在用户靠近图像获取设备100的模式下,姿态追踪模块213可通过密集、可靠的图像数据对用户的手部的节点进行追踪,从而确定用户的手指的指向方向和动作(即,手势)。而在用户远离图像获取设备100的模式下,由于获取的图像数据比较粗略、噪声较多且手部区域小,姿态追踪模块213可通过追踪人体的骨骼节点来对用户的上臂(即,腕节点和肘节点之间的骨骼)进行追踪,从而追踪和识别用户的手臂指向方向和动作。
为此,根据本发明的实施例,姿态追踪模块213可基于皮肤颜色特征和/或3D特征来识别和追踪用户的手的运动。具体地,姿态追踪模块213可包括基于皮肤颜色或3D特征训练的分类器。对于采用皮肤颜色分类器的情况,可利用概率模型(例如,高斯混合模型(GMM))来通过手部皮肤的颜色分布以区分一个可能的像素是否属于手部。对于深度特征,可如“Real-Time Human Pose Recognition in Parts from Single Depth Images.JamieShotton et al.In CVPR 2011”中介绍的方式产生深度比较特征,或将局部深度块(小的矩形块)与已知手部模型上的块进行比较并测量相似度。然后,将不同的颜色特征和深度特征组合,可使用通用的分类器(诸如,Random Forest或AdaBoosting决策树)来执行分类任务以确定图像数据中的手部。然后,通过逐帧的检测手部,姿态追踪模块213可追踪和计算手部的运动轨迹/速度,以在2D图像和3D空间域中定位手部。特别地,通过将深度数据与3D手部模型进行比对,可追踪手部关节的位置。然而,如果手部远离图像获取设备100,则当图像数据中的手部区域小于预定阈值时,考虑数据可靠性,可通过追踪用户的身体骨骼的方式来确定手臂的运动。
交互确定模块220可根据由运动检测模块210检测到的用户的多种动作来确定将要进行的交互操作。例如,交互确定模块220可根据由姿态追踪模块211确定的用户视线方向和姿态追踪模块213确定的用户指示方向来确定是否进入交互操作姿态,并根据后续的用户的姿态动作和视线方向确定将要执行的交互操作。也就是说,交互确定模块220可根据用户视线方向和用户的指示方向来确定交互操作的开始或结束。具体地,当姿态追踪模块211确定用户的视线方向和姿态追踪模块213确定的用户指示方向均指向在显示设备300上显示的某个目标(即,视线方向和手指的指示方向的交汇之处具有特定的显示目标)超过预定时间时,交互确定模块220可确定用户想要开始进行交互以对显示目标进行操作。在对显示目标进行操作的过程中,交互确定模块220确定用户视线和指向方向中的至少一个是否仍然保持在该显示目标上。当用户视线和指向方向均未保持在该目标之上时,交互确定模块220可确定用户停止与该显示目标的交互操作。通过以上的方式,可更加准确地确定用户是否开始或者结束交互操作,从而提高了交互操作的准确性。
应理解,以上仅是根据检测到的用户的动作和姿态来确定是否开始或结束交互操作状态的一个示例。还可根据其它预设的方式来确定是否开始或结束交互操作状态。例如,可根据用户的视线方向和预定的手势来开始交互操作姿态。如图3所示,当运动检测模块210从图像数据中确定用户的手指张开且视线方向指向显示设备300的显示屏幕上的特定项时,则交互确定模块220可确定用户想要对该特定项进行交互操作。接下来,当运动检测模块210确定用户的手指并拢且手开始移动时,交互确定模块220可确定用户想要拖动特定项。如果运动检测模块210确定用户的手握成拳头,则交互确定模块220可确定用户想要停止交互操作。
在进入交互操作状态之后,交互确定模块220还根据用户的动作和姿态来确定用户想要进行的交互操作。根据本发明的一个实施例,交互确定模块220可根据用户的手的指示方向来确定移动指针的交互操作。根据姿态追踪模块213确定的用户的手的指示方向,交互确定模块220可计算出该指示方向与显示屏幕的交点,从而获得指针在显示屏幕上的位置。当用户的手移动时,交互确定模块220可发出相应的命令,指示显示控制模块230控制显示设备300的显示,使得指针也随着手的移动而在屏幕上移动。
根据本发明的一个实施例,交互确定模块220还可根据姿态追踪模块213确定的用户的手部动作来确定按钮的交互操作。根据姿态追踪模块213确定的用户的手的指示方向,交互确定模块220可计算出该指示方向与显示屏幕的交点,如果在该位置存在诸如按钮的显示项,则交互确定模块220可确定用户按下该按钮。或者,如果姿态追踪模块213确定用户的手指/拳头沿着其指示方向快速移动,则交互确定模块220确定按钮被按下。
应理解,这里仅仅给出了交互确定模块220根据视线追踪模块210所确定的视线方向和姿态追踪模块213确定的用户的姿态动作来确定用户想要进行的交互操作的几个示例。但本领域的技术人员应理解,本发明的交互操作不限于此。还可根据用户的姿态动作和/或用户的视线方向来进行更多的交互操作,例如可通过移动手来拖动显示目标、旋转显示目标,通过手指的运动单击或双击显示目标等。
另外,根据本发明的实施例,用户还可自定义与特定的动作姿势对应的交互操作。为此,人机交互处理设备200还可包括一自定义姿势注册模块(未示出),用于注册与用户自定义的姿势动作对应的交互操作。自定义姿势注册模块可具有一数据库,用于将记录的姿势和动作映射到对应的交互操作命令。例如,在进行2D或3D目标显示的情况下,可通过追踪两个手的运动方向来缩小或放大2D或3D显示目标。特别地,为了注册新的姿势动作,自定义姿势注册模块测试用户自定义的姿势动作的可再现性和模糊性,并返回一个可靠性分数,以指示用户自定义的交互操作命令是否有效。
在交互确定模块220确定了用户想要进行的交互操作之后,交互确定模块220向显示控制模块230发出相应的指令,显示控制模块230根据指令控制显示设备300在显示屏幕上显示相应的交互操作。例如,可控制显示设备300显示指针被移动、相应的显示项被移动、按钮被按下等操作的屏幕画面。
下面将参照图4来描述根据本发明实施例的人机交互方法的具体过程。
如图4所示,在步骤S410,首先由图像获取设备100获取图像数据。
接下来,在步骤S420,人机交互处理设备200分析图像获取设备100获取的图像数据中的多种类型的用户姿态和动作,以确定是否进入交互操作状态和用户想要进行的交互操作。这里,例如,人机交互处理设备200可从图像数据检测和识别用户的视线方向和人体的各个部分的动作和姿态,以确定用户想要进行的交互操作。根据本实施例,人机交互处理设备200可根据检测的视线方向和用户的指示方向来确定是否进入交互操作状态。具体地,当人机交互处理设备200确定从图像数据中检测出用户的视线方向和手的指示方向指向显示设备300的显示屏幕上所显示的某个显示项超过预定时间时,人机交互处理设备200进入交互操作状态,并根据用户后续的姿态动作来确定将要对显示目标执行的交互操作。
然后,在步骤S430,根据确定的交互操作控制显示设备300显示对应的显示屏幕或者更新显示屏幕。例如,可根据用户的手的指示方向确定用户想要移动显示的指针的位置、拖动显示项、单击显示项、双击显示项等等。
在步骤S420中,如果在执行交互操作期间,人机交互处理设备200确定用户的指示方向和视线方向均离开了显示目标,则确定用户想要停止对显示目标的交互操作,并显示停止对显示目标进行操作的显示屏幕。应注意,还可通过其它的方式来确定用户是否想要停止交互操作。例如,可根据用户的特定手势(如上所述的握紧拳头)来停止交互操作。
下面将参照图5-图7来说明利用根据本发明的人机交互方法执行各种交互操作的示意流程。
图5示出的是根据本发明实施例的人机交互方法进行菜单操作的流程图。
在图5的实施例中,假设预设菜单被显示在显示设备300的显示屏幕上,并且预设菜单包括若干项供用户进行交互操作。
在步骤S510,当从捕捉的图像数据中检测到的人体姿态表现出用户的手的指示方向和视线方向均指向显示屏幕上的某个特定菜单项时,确定进入对菜单的交互操作状态。
接下来,在步骤S520,可追踪用户的手的运动轨迹和速度以确定用户的手的动作和手势,并根据手的动作和手势确定用户想要执行的交互操作。例如,可根据用户的手的动作来模拟鼠标的交互操作。当确定用户的食指做出单击的动作时,可选中手指指示方向上的菜单的特定项。当确定用户的中指做出单击的动作时,可显示与鼠标右键动作对应的内容,例如,显示与该项相关的附加菜单选项等。然后,在步骤S530,控制显示设备显示或更新与确定的交互操作对应的菜单内容。
图6是根据本发明实施例的人机交互方法进行3D显示目标的操作的流程图。这里,显示设备300是可以显示3D内容的显示设备。
首先,在步骤S610,当从捕捉的图像数据中检测到的人体姿态表现出用户的手的指示方向和视线方向均指向显示屏幕上的特定3D显示目标时,确定进入对3D显示目标的交互操作状态。接下来,在步骤S620,可追踪用户的手的运动轨迹和速度以确定用户的手的动作和手势,并根据手的动作和手势确定用户想要执行的交互操作。例如,可将手的指示方向和视线方向的交汇点上的3D显示目标拾取起来,并可根据手的移动而移动3D显示目标。另外,还可根据手的动作来拖动、放大或缩小选中的3D显示目标。最后,在步骤S630,控制显示设备根据确定的交互操作重新渲染交互操作之后的3D显示目标。
图7是根据本发明实施例的人机交互方法进行文本输入操作的流程图。这里,假设显示设备300所显示的显示屏幕上的预定区域可作为文本输入区域。
首先,在步骤S710,当从捕捉的图像数据中检测到的人体姿态表现出用户的手的指示方向和视线方向均指向显示屏幕上的手写输入区域时,确定进入手写输入的交互操作状态。接下来,在步骤S720,可追踪用户的手的运动轨迹和速度,并根据用户的手的运动轨迹确定用户想要输入的文本。可根据基于学习的识别方法来确定用户想要输入的文本,并将文本解释为对应的交互操作命令。最后,在步骤S730,控制显示设备显示交互操作命令执行之后的结果的显示屏幕。
应理解,以上实施例虽然根据视线方向和手的指示方向来确定是否开始或结束交互操作以及用户的后续的交互操作,但是本发明不限于此。可根据检测其它类型的运动检测的组合来确定是否开始或结束交互操作以及后续的交互操作。
根据本发明,可以利用多种运动检测方式的组合来进行人机交互操作,从而在不需要额外的输入装置(例如,触摸屏输入装置)的情况下,降低人机交互操作识别的模糊度,提高人机交互操作的准确性。例如,在不采用触摸屏输入装置的情况下,可以实现显示目标的放大、缩小的交互操作。这样,充分利用了计算机视觉技术的运动检测方式,为用户带来了更好地交互操作体验。
虽然已经参照本发明的若干示例性实施例示出和描述了本发明,但是本领域的技术人员将理解,在不脱离权利要求及其等同物限定的本发明的精神和范围的情况下,可以在形式和细节上做出各种改变。

Claims (14)

1.一种人机交互***,包括:
图像获取设备,用于获取图像数据;
视线捕捉模块,通过从图像数据中检测用户的头部的俯仰方向和偏转方向来确定用户的视线方向;
姿态追踪模块,用于在图像数据中追踪和识别用户的手的指示方向;
交互确定模块,基于用户的视线方向和用户的手的指示方向均指向显示项来确定交互操作的开始;
其中,所述交互确定模块:
响应于确定用户的视线方向和用户的手的指示方向中的至少一个仍指向显示项来保持交互操作,
响应于确定用户的视线方向和用户的手的指示方向均未指向显示项来停止交互操作。
2.如权利要求1所述的人机交互***,其中,姿态追踪模块还用于在图像数据中追踪和识别用户身体各部分的姿态和动作。
3.如权利要求2所述的人机交互***,其中,姿态追踪模块在图像数据中追踪和检测用户的手的节点以确定用户的手的运动和手势,并检测用户的身体骨骼节点以确定用户身体各部分的姿态动作。
4.如权利要求3所述的人机交互***,其中,交互确定模块还根据用户身体各部分的姿态和动作来确定开始交互操作。
5.如权利要求4所述的人机交互***,其中,交互确定模块根据视线捕捉模块检测的用户的视线方向和姿态追踪模块识别的用户的手的动作来确定是否开始交互操作。
6.如权利要求2所述的人机交互***,其中,当用户靠近图像获取设备时,姿态追踪模块追踪和识别用户的手指动作以识别用户的手势,当用户远离图像获取设备时,姿态追踪模块追踪和识别用户的手臂的动作。
7.如权利要求1所述的人机交互***,还包括:
显示设备,显示与交互操作的结果对应的显示屏幕,
其中,如果确定用户的视线方向和用户的手的指示方向均指向显示屏幕上的显示项超过预定时间,则开始交互操作。
8.如权利要求1所述的人机交互***,还包括:
自定义姿势注册模块,用于注册与用户自定义的姿势动作对应的交互操作命令。
9.一种人机交互方法,包括:
获取图像数据;
通过从图像数据中检测用户的头部的俯仰方向和偏转方向来确定用户的视线方向;
在图像数据中追踪和识别用户的手的指示方向;
基于用户的视线方向和用户的手的指示方向均指向显示项来确定交互操作的开始;
其中,响应于确定用户的视线方向和用户的手的指示方向中的至少一个仍指向显示项来保持交互操作,响应于确定用户的视线方向和用户的手的指示方向均未指向显示项来停止交互操作。
10.如权利要求9所述的人机交互方法,其中,通过在图像数据中追踪和检测用户的手的节点以确定用户的手的运动和手势,并通过从图像数据中检测用户的身体骨骼节点以确定用户身体各部分的姿态动作。
11.如权利要求9所述的人机交互方法,其中,根据检测的用户的视线方向和姿态追踪模块识别的用户的手的动作来确定是否开始交互操作。
12.如权利要求9所述的人机交互方法,其中,如果确定用户的视线方向和用户的手的指示方向均指向显示屏幕上的显示项超过预定时间,则开始交互操作。
13.如权利要求9所述的人机交互方法,其中,当用户靠近图像获取设备时,追踪和识别用户的手指动作以识别用户的手势,当用户远离图像获取设备时,识别用户的手臂的动作。
14.如权利要求9所述的人机交互方法,其中,确定交互操作的步骤还包括:确定与注册的用户自定义的姿势动作对应的交互操作。
CN201210440197.1A 2012-11-07 2012-11-07 人机交互***和方法 Active CN103809733B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810619648.5A CN108845668B (zh) 2012-11-07 2012-11-07 人机交互***和方法
CN201210440197.1A CN103809733B (zh) 2012-11-07 2012-11-07 人机交互***和方法
KR1020130050237A KR102110811B1 (ko) 2012-11-07 2013-05-03 Hci 시스템 및 방법
US14/071,180 US9684372B2 (en) 2012-11-07 2013-11-04 System and method for human computer interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210440197.1A CN103809733B (zh) 2012-11-07 2012-11-07 人机交互***和方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201810619648.5A Division CN108845668B (zh) 2012-11-07 2012-11-07 人机交互***和方法

Publications (2)

Publication Number Publication Date
CN103809733A CN103809733A (zh) 2014-05-21
CN103809733B true CN103809733B (zh) 2018-07-20

Family

ID=50706630

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201210440197.1A Active CN103809733B (zh) 2012-11-07 2012-11-07 人机交互***和方法
CN201810619648.5A Active CN108845668B (zh) 2012-11-07 2012-11-07 人机交互***和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201810619648.5A Active CN108845668B (zh) 2012-11-07 2012-11-07 人机交互***和方法

Country Status (2)

Country Link
KR (1) KR102110811B1 (zh)
CN (2) CN103809733B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030093065A (ko) * 2002-05-31 2003-12-06 주식회사 유니온금속 다수의 버링 튜브가 일체로 형성된 평판형 방열휜을이용한 열교환기 및 그 제조방법
CN104391578B (zh) * 2014-12-05 2018-08-17 重庆蓝岸通讯技术有限公司 一种三维影像的实时手势操控方法
CN104740869B (zh) * 2015-03-26 2018-04-03 北京小小牛创意科技有限公司 一种融合真实环境的虚实结合的交互方法及***
CN105005779A (zh) * 2015-08-25 2015-10-28 湖北文理学院 基于交互式动作的人脸验证防伪识别方法及***
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置
CN105759973A (zh) * 2016-03-09 2016-07-13 电子科技大学 一种基于3d视线估计的远近距离人机交互***与方法
CN107743257B (zh) * 2017-02-22 2018-09-28 合肥龙图腾信息技术有限公司 人体姿势识别装置
CN109426498B (zh) * 2017-08-24 2023-11-17 北京迪文科技有限公司 一种人机交互***后台开发方法和装置
CN107678545A (zh) * 2017-09-26 2018-02-09 深圳市维冠视界科技股份有限公司 一种信息交互终端及方法
CN107944376A (zh) * 2017-11-20 2018-04-20 北京奇虎科技有限公司 视频数据实时姿态识别方法及装置、计算设备
CN107895161B (zh) * 2017-12-22 2020-12-11 北京奇虎科技有限公司 基于视频数据的实时姿态识别方法及装置、计算设备
JP7091983B2 (ja) 2018-10-01 2022-06-28 トヨタ自動車株式会社 機器制御装置
CN110442243A (zh) * 2019-08-14 2019-11-12 深圳市智微智能软件开发有限公司 一种人机交互方法及***
WO2021097600A1 (zh) * 2019-11-18 2021-05-27 华为技术有限公司 一种隔空交互方法、装置和设备
KR102375947B1 (ko) * 2020-03-19 2022-03-18 주식회사 메이아이 영상에 기초하여 사람과 상품 간 인터랙션 정보를 추정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN112051746B (zh) * 2020-08-05 2023-02-07 华为技术有限公司 获取服务的方法以及装置
CN112099623A (zh) * 2020-08-20 2020-12-18 昆山火灵网络科技有限公司 一种人机交互***及方法
KR102524016B1 (ko) * 2020-08-21 2023-04-21 김덕규 투영된 콘텐츠와 인터렉션하기 위한 시스템
US11693482B2 (en) 2021-05-28 2023-07-04 Huawei Technologies Co., Ltd. Systems and methods for controlling virtual widgets in a gesture-controlled device
CN113849065A (zh) * 2021-09-17 2021-12-28 支付宝(杭州)信息技术有限公司 一种利用健身动作触发客户端操作指令的方法及装置
US20230168736A1 (en) * 2021-11-29 2023-06-01 Sony Interactive Entertainment LLC Input prediction for pre-loading of rendering data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694045A (zh) * 2005-06-02 2005-11-09 北京中星微电子有限公司 一种非接触式目控操作***和方法
CN102270035A (zh) * 2010-06-04 2011-12-07 三星电子株式会社 以非触摸方式来选择和操作对象的设备和方法
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的***和方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
KR100520050B1 (ko) * 2003-05-12 2005-10-11 한국과학기술원 응시방향 기반의 머리착용형 컴퓨터 인터페이스 장치 및방법
JP5207513B2 (ja) * 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
JP5483899B2 (ja) * 2009-02-19 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
KR101596890B1 (ko) * 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
US8418237B2 (en) * 2009-10-20 2013-04-09 Microsoft Corporation Resource access based on multiple credentials
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
JP2012098771A (ja) * 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
EP3527121B1 (en) * 2011-02-09 2023-08-23 Apple Inc. Gesture detection in a 3d mapping environment
US9746928B2 (en) * 2011-04-19 2017-08-29 Lg Electronics Inc. Display device and control method thereof
CN202142050U (zh) * 2011-06-29 2012-02-08 由田新技股份有限公司 交互式顾客接待***
US9201500B2 (en) * 2012-09-28 2015-12-01 Intel Corporation Multi-modal touch screen emulator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694045A (zh) * 2005-06-02 2005-11-09 北京中星微电子有限公司 一种非接触式目控操作***和方法
CN102270035A (zh) * 2010-06-04 2011-12-07 三星电子株式会社 以非触摸方式来选择和操作对象的设备和方法
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的***和方法

Also Published As

Publication number Publication date
KR102110811B1 (ko) 2020-05-15
KR20140059109A (ko) 2014-05-15
CN103809733A (zh) 2014-05-21
CN108845668B (zh) 2022-06-03
CN108845668A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN103809733B (zh) 人机交互***和方法
US11567578B2 (en) Systems and methods of free-space gestural interaction
US20210181857A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
US11720181B2 (en) Cursor mode switching
US8166421B2 (en) Three-dimensional user interface
US9684372B2 (en) System and method for human computer interaction
US9477324B2 (en) Gesture processing
EP2049976B1 (en) Virtual controller for visual displays
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
US20120202569A1 (en) Three-Dimensional User Interface for Game Applications
US20120204133A1 (en) Gesture-Based User Interface
US9063573B2 (en) Method and system for touch-free control of devices
CN105980965A (zh) 用于非接触式打字的***、设备和方法
US20140139429A1 (en) System and method for computer vision based hand gesture identification
KR20130001176A (ko) 근접 범위 움직임 추적 시스템 및 방법
US20130120250A1 (en) Gesture recognition system and method
CN109753154A (zh) 有屏设备的手势控制方法和装置
Choondal et al. Design and implementation of a natural user interface using hand gesture recognition method
Caputo Gestural interaction in virtual environments: User studies and applications
Feng et al. FM: Flexible mapping from one gesture to multiple semantics
Hartmann et al. A virtual touchscreen with depth recognition
Yoon et al. Vision-Based bare-hand gesture interface for interactive augmented reality applications
US20230031200A1 (en) Touchless, Gesture-Based Human Interface Device
Susantok et al. Android-based Touch Screen Projector Design Using a 3D Camera
Cong Research on fingertip positioning and human-computer interaction technology based on stereo vision

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant