CN105630176B - 一种智能体感控制的方法及装置 - Google Patents
一种智能体感控制的方法及装置 Download PDFInfo
- Publication number
- CN105630176B CN105630176B CN201610089795.7A CN201610089795A CN105630176B CN 105630176 B CN105630176 B CN 105630176B CN 201610089795 A CN201610089795 A CN 201610089795A CN 105630176 B CN105630176 B CN 105630176B
- Authority
- CN
- China
- Prior art keywords
- hand
- user
- cursor
- displacement
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种智能体感控制的方法及装置。所述智能体感控制的方法,包括:实时获取用户的动作图像;根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;根据所述手部的动作图像的连续视频帧,分析手部的动作信息;根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令。本发明在不借助外设的控制装置的情况下,直接通过人体的动作来生成相应的操作指令,可降低生成操作指令的硬件要求,以及提供了便捷的生成操作指令的方式。
Description
技术领域
本发明涉及体感操控领域,特别涉及一种智能体感控制的方法及装置。
背景技术
体感控制在于人们可以很直接地使用肢体动作,与周边的装置或环境互动,而无需使用任何复杂的控制设备,便可让人们身历其境地与内容做互动。对于一些需要复杂的体感控制的操作方面,比如像使用电脑鼠标一样来控制和操作,使用现有的智能体感的控制技术就难以满足。如何提高体感控制的用户使用体验,及如何完成复杂的体感控制,就成为业界亟待解决的课题。
发明内容
本发明提供一种智能体感控制的方法及装置,在不借助控制设备的情况下,利用人体的动作信息来达到控制的目的。
根据本发明实施例的第一方面,提供一种智能体感控制的方法,包括:
实时获取用户的动作图像;
根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令。
本发明的实施例提供的技术方案可以包括以下有益效果:不借助外设的操作装置的情况下,直接通过人体的动作来生成相应的操作指令,可降低生成操作指令的硬件要求,以及提供了便捷的生成操作指令的方式。
在一个实施例中,根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令,包括:
建立所述手部与控制界面的光标的对应关系;
所述手部的动作信息包括手部的位移动作信息和手部的非位移动作信息;
关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
生成与所述手部的动作信息相对应的操作指令。
本发明的实施例提供的技术方案可以包括以下有益效果:手部的位移动作信息和手部的非位移动作信息都关联到相应的操作指令,可以便捷的通过用动作信息来实现对应的操作指令。
在一个实施例中,还包括:
根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置。
本发明的实施例提供的技术方案可以包括以下有益效果:用户通过动作来实现初始化的操作,可提升用户的操作体验。
在一个实施例中,所述关联所述手部的位移动作信息与所述控制界面的光标的位移信息,包括:
根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;
当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;
当所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
本发明的实施例提供的技术方案可以包括以下有益效果:限定了手部的移动的有效范围及其规则,可以让使用者更加便捷的通过手部的动作信息来实现体感控制。
在一个实施例中,关联所述手部的位移动作信息与所述控制界面的光标的位移信息,还包括:
判断所述手部的位移动作信息是否小于预设的位移信息阈值;
当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
本发明的实施例提供的技术方案可以包括以下有益效果:克服了因为人体自然的微抖动所产生的手部的位移动作信息的干扰,降低了非用户操作意图而产生的操作指令,提高了本方案的实用性和用户的操作体验。
根据本发明实施例的第二方面,提供一种智能体感控制的装置,包括:
获取模块,用于实时获取用户的动作图像;
第一分析模块,用于根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
第二分析模块,用于根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
生成模块,用于根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令。
在一个实施例中,所述生成模块,包括:
建立子模块,用于建立所述手部与控制界面的光标的对应关系;
第一关联子模块,用于关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
第二关联子模块,用于关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
生成子模块,用于生成与所述手部的动作信息相对应的操作指令。
在一个实施例中,还包括:
判断模块,用于根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
初始化模块,用于若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置。
在一个实施例中,所述第一关联子模块,还用于根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;当所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
在一个实施例中,所述第一关联子模块,还用于判断所述手部的位移动作信息是否小于预设的位移信息阈值;当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明一示例性实施例示出的一种智能体感控制的方法的流程图;
图2为本发明一示例性实施例示出的一种智能体感控制的方法的步骤S14的流程图;
图3为本发明又一示例性实施例示出的一种智能体感控制的方法的流程图;
图4为本发明一示例性实施例示出的一种智能体感控制的方法的步骤S22的流程图;
图5为本发明又一示例性实施例示出的一种智能体感控制的方法的步骤S22的流程图;
图6为本发明一示例性实施例示出的一种智能体感控制的装置的框图;
图7为本发明一示例性实施例示出的一种智能体感控制的装置的生成模块14的框图;
图8为本发明又一示例性实施例示出的一种智能体感控制的装置的框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1是根据一示例性实施例示出的一种智能体感控制的方法流程图,如图1所示,该智能体感控制的方法,包括以下步骤S11-S14:
在步骤S11中,实时获取用户的动作图像;
在步骤S12中,根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
在步骤S13中,根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
在步骤S14中,根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令。
在一个实施例中,通过拍摄装置,拍摄用户的动作图像。且该拍摄装置与控制界面处于同一个***中。***根据拍摄装置拍摄用户的动作图像,通过预设的人体图像算法,根据人体各个部位所具有的图像纹理信息、图像轮廓信息、图像角点信息和图像颜色信息中的一者或多者,分析出用户的动作图像中的用户的身体部位,该用户的身体部位包括头部、手部、肩部、胸部中的一者或多者。通过分析用户的手部的动作图像的连续视频帧,可得到手部的动作信息。根据用户的手部的动作信息,该动作信息包括位移动作信息和非位移动作信息。根据该手部的动作信息,通过预设的智能体感控制算法,对比与智能体感控制算法库中的标准动作信息,可得到与该手部的动作信息最匹配的标准动作信息,以及与该最匹配的标准动作信息的匹配度。若该匹配度低于预设的匹配度阈值,则放弃该最匹配的标准动作信息,确认该手部的动作信息是无效的。若该匹配度高于等于预设的匹配度,则采用该最匹配的标准动作信息,确认该手部的动作信息等价于该最匹配的标准动作信息。根据该最匹配的标准动作信息在智能体感控制算法库中所对应的操作指令,生成该操作指令,并执行该操作指令。
本发明的实施例提供的技术方案可以包括以下有益效果:不借助外设的操作装置的情况下,直接通过人体的动作来生成相应的操作指令,可降低生成操作指令的硬件要求,以及提供了便捷的生成操作指令的方式。
在一个实施例中,如图2所示,步骤S14包括如下步骤S21-S24:
在步骤S21中,建立所述手部与控制界面的光标的对应关系;
在步骤S22中,关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
在步骤S23中,关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
在步骤S24中,生成与所述手部的动作信息相对应的操作指令。
在一个实施例中,***根据拍摄装置拍摄用户的动作图像,通过预设的人体图像算法,可以得到用户的手部图像,建立用户的手部图像与控制界面中的光标的对应关系。该手部的动作信息包括手部的位移动作信息和手部的非位移动作信息。关联该手部的位移动作信息与该控制界面的光标的位移信息,也关联该手部的非位移动作信息与该控制界面的光标的功能信息,根据手部的动作信息生成与之相对应的操作指令。
例如,当用户的手掌保持面向摄像头的方向,且移动手部。则可以得出用户的手部的该动作信息对应的操作指令为移动光标的操作,根据用户手部移动的距离和方向来执行相应的该移动光标的操作指令。
又例如,当用户的手掌由掌心面对摄像头的动作,变化为手部握成拳的动作。则可以得出用户的手部的该动作信息对应的操作指令为选中的操作,执行该选中的操作指令。
另例如,当用户的手部动作为双手摊开,双手的手腕交叉,五指叉开,掌背面向摄像头,且双手的大拇指相邻时。则可以得出用户的该动作信息对应的操作指令为屏蔽手部的动作信息生成相应的操作指令,初始化操作指令除外。
在用户的手部移动为单手的情况下,获取该单手的移动信息;在用户的手部移动为双手时,如果该***的光标为唯一光标的设置,则选择获取用户的左手的移动信息,放弃用户的右手的移动信息;如果该***的光标可以为多个光标的设置时,则分别获取用户的左手和右手的移动信息。
本发明的实施例提供的技术方案可以包括以下有益效果:手部的位移动作信息和手部的非位移动作信息都关联到相应的操作指令,可以便捷的通过用动作信息来实现对应的操作指令。
在一个实施例中,如图3所示,还包括如下步骤S31-S32:
在步骤S31中,根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
在步骤S32中,若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置。
在一个实施例中,通过用户的动作图像来确定用户的身体部位,根据用户的身体部位做出的动作信息,来获取该动作信息对应的操作指令。通过分析用户的动作信息生成与之相对应的操作指令例如,当用户的手部动作为双手摊开,五指叉开,掌心面向摄像头,且双手的大拇指相邻时。则可以得出用户的该动作信息对应的操作指令为初始化操作,执行该初始化操作的内容为将光标移动到预先设置的初始化位置。
例如,当用户的手部动作为双手摊开,五指叉开,掌心面向摄像头,且双手的大拇指相邻时。则可以得出用户的该动作信息对应的操作指令为初始化操作,执行该初始化操作的内容为将光标移动到预先设置的初始化位置。
本发明的实施例提供的技术方案可以包括以下有益效果:用户通过动作来实现初始化的操作,可提升用户的操作体验。
在一个实施例中,如图4所示,步骤S22包括如下步骤S41-S43:
在步骤S41中,根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;
在步骤S42中,当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;
当在步骤S43中,所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
在一个实施例中,根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围。例如,根据用户的身体部位来限定用户手部移动的有效范围,该有效范围为一个方形,该方形的第一条边为过用户头部顶端的水平直线,获取用户头部顶端到头部底端的第一距离,第二条边平行于第一条边,且第二条边与第一条边的距离为两倍的第一距离。获取用户的两侧的肩部之间的最大距离,不妨称该距离为第二距离。第三条边与第四条边距离用户的头部的鼻尖等距离,且第三条边和第四条边的距离为两倍的第二距离。第三条边垂直于第一条边。由上述第一条边、第二条边、第三条边和第四条边所围成的方形,即为用户手部移动的有效范围。用户手部移动的有效范围并不局限于上述具体的实施例。
当该手部移动到该有效范围之外后,该光标的位置停留在该手部移动到该有效范围的边缘时所对应的该光标所在的位置,该位置称之为停留位置。例如,手部移动到用户手部移动的有效范围之外,在该有效范围之外的区域移动手部,与手部对应的光标将不再移动,该光标将保持停留在手部移动到该有效范围的边缘时所对应的该光标所在的位置。
当该手部从该有效范围之外移动到该有效范围之内时,光标从该停留位置开始移动。例如,手部从该有效范围之外的地方移动到有效范围之内时,光标从该停留位置开始移动,且记录手部移动出该有效范围时,手部与有效范围的边缘的交点为A点,当手部重新移动回该有效范围时,手部与有效范围的边缘的交点可以为该边缘上的任意点,都可以触发光标从该停留位置开始移动。
本发明的实施例提供的技术方案可以包括以下有益效果:限定了手部移动的有效范围及其规则,可以让使用者更加便捷的通过手部的动作信息来实现体感控制。
在一个实施例中,如图5所示,步骤S22还包括如下步骤S51-S53:
在步骤S51中,判断所述手部的位移动作信息是否小于预设的位移信息阈值;
在步骤S52中,当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
在步骤S53中,当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
在一个实施例中,手部的位移动作信息中包含了很多由于人体不自觉的微抖动所产生的手部的位移动作信息,且用户无法避免不发生轻微的抖动,这些微抖动所产生的手部的位移动作信息并非是由用户的操作意图所产生的运动状态信息。目前在业界,广泛应用在拍摄设备上的防抖动功能就是针对人们的手部的微抖动而设计的,通过各种方法来补偿人们的手部因抖动而产生的误差,来达到克服微抖动所带来的影响。在本方案中不需要专门设计一套防抖动功能来克服人们微抖动,只需要合理设计一个预设的位移信息阈值来排除因为微抖动而产生的手部的位移动作信息即可。当监测得到手部的位移动作信息大于等于所述预设的位移信息阈值时,才生成与该手部的动作信息相对应的操作指令。
本公开的实施例提供的技术方案可以包括以下有益效果:克服了因为人体自然的微抖动所产生的手部的位移动作信息的干扰,降低了非用户操作意图而产生的操作指令,提高了本方案的实用性和用户的操作体验。
在一个实施例中,图6是根据一示例性实施例示出的一种智能体感控制的装置框图。如图6示,该装置包括获取模块61、第一分析模块62、第二分析模块63和生成模块64。
该获取模块61,用于实时获取用户的动作图像;
该第一分析模块62,用于根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
该第二分析模块63,用于根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
该生成模块64,用于根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令。
如图7所示,该生成模块64包括建立子模块71、第一关联子模块72、第二关联子模块73和生成子模块74。
该建立子模块71,用于建立所述手部与控制界面的光标的对应关系;
该第一关联子模块72,用于关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
该第一关联子模块72,还用于根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;当所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
该第一关联子模块72,还用判断所述手部的位移动作信息是否小于预设的位移信息阈值;当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
该第二关联子模块73,用于关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
该生成子模块74,用于生成与所述手部的动作信息相对应的操作指令。
如图8所示,该装置还包括判断模块81和初始化模块82。
该判断模块81,用于根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
该初始化模块82,用于若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (6)
1.一种智能体感控制的方法,其特征在于,包括:
实时获取用户的动作图像;
根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令;
还包括:
根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置;
所述手部的位移动作信息与控制界面的光标的位移信息,包括:
根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;根据用户的身体部位来限定用户手部移动的有效范围,该有效范围为一个方形,该方形的第一条边为过用户头部顶端的水平直线,获取用户头部顶端到头部底端的第一距离,第二条边平行于第一条边,且第二条边与第一条边的距离为两倍的第一距离;获取用户的两侧的肩部之间的最大距离,不妨称该距离为第二距离;第三条边与第四条边距离用户的头部的鼻尖等距离,且第三条边和第四条边的距离为两倍的第二距离;第三条边垂直于第一条边;由上述第一条边、第二条边、第三条边和第四条边所围成的方形,即为用户手部移动的有效范围;
当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;
当所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
2.如权利要求1所述的方法,其特征在于,根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令,包括:
建立所述手部与控制界面的光标的对应关系;
所述手部的动作信息包括手部的位移动作信息和手部的非位移动作信息;
关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
生成与所述手部的动作信息相对应的操作指令。
3.如权利要求2所述的方法,其特征在于,所述关联所述手部的位移动作信息与所述控制界面的光标的位移信息,还包括:
判断所述手部的位移动作信息是否小于预设的位移信息阈值;
当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
4.一种智能体感控制的装置,其特征在于,包括:
获取模块,用于实时获取用户的动作图像;
第一分析模块,用于根据所述用户的动作图像,通过预设的人体图像算法,分析出用户的身体部位,所述用户的身体部位包括手部;
第二分析模块,用于根据所述手部的动作图像的连续视频帧,分析手部的动作信息;
生成模块,用于根据所述手部的动作信息,通过预设的智能体感控制算法,生成与所述手部的动作信息相对应的操作指令;
还包括:
判断模块,用于根据所述用户的身体部位,所述身体部位包括头部、手部、肩部、胸部中的一者或多者,判断用户是否做出预设的初始化光标的动作;
初始化模块,用于若判断结果为用户做出了初始化光标的动作,将光标移动到光标初始化位置;
包括:
第一关联子模块,还用于根据预设的用户手部移动的有效范围限定方法,确定出用户手部移动的有效范围;根据用户的身体部位来限定用户手部移动的有效范围,该有效范围为一个方形,该方形的第一条边为过用户头部顶端的水平直线,获取用户头部顶端到头部底端的第一距离,第二条边平行于第一条边,且第二条边与第一条边的距离为两倍的第一距离;获取用户的两侧的肩部之间的最大距离,不妨称该距离为第二距离;第三条边与第四条边距离用户的头部的鼻尖等距离,且第三条边和第四条边的距离为两倍的第二距离;第三条边垂直于第一条边;由上述第一条边、第二条边、第三条边和第四条边所围成的方形,即为用户手部移动的有效范围;当所述手部移动到所述有效范围之外后,所述光标的位置停留在所述手部移动到所述有效范围的边缘时所对应的所述光标所在的位置,所述位置称之为停留位置;当所述手部从所述有效范围之外移动到所述有效范围之内时,光标从所述停留位置开始移动。
5.根据权利要求4所述的装置,其特征在于,所述生成模块,包括:
建立子模块,用于建立所述手部与控制界面的光标的对应关系;
第一关联子模块,用于关联所述手部的位移动作信息与所述控制界面的光标的位移信息;
第二关联子模块,用于关联所述手部的非位移动作信息与所述控制界面的光标的功能信息;
生成子模块,用于生成与所述手部的动作信息相对应的操作指令。
6.根据权利要求5所述的装置,其特征在于,还包括:
所述第一关联子模块,还用于判断所述手部的位移动作信息是否小于预设的位移信息阈值;当所述手部的位移动作信息小于所述预设的位移信息阈值时,取消关联所述手部的位移动作信息与所述控制界面的光标的位移信息;当所述手部的位移动作信息大于等于所述预设的位移信息阈值时,关联所述手部的位移动作信息与所述控制界面的光标的位移信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610089795.7A CN105630176B (zh) | 2016-02-17 | 2016-02-17 | 一种智能体感控制的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610089795.7A CN105630176B (zh) | 2016-02-17 | 2016-02-17 | 一种智能体感控制的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105630176A CN105630176A (zh) | 2016-06-01 |
CN105630176B true CN105630176B (zh) | 2018-08-24 |
Family
ID=56045204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610089795.7A Expired - Fee Related CN105630176B (zh) | 2016-02-17 | 2016-02-17 | 一种智能体感控制的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105630176B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454490B (zh) * | 2016-09-21 | 2019-07-26 | 天脉聚源(北京)传媒科技有限公司 | 一种智能播放视频的方法及装置 |
CN109587539B (zh) * | 2018-12-29 | 2021-04-20 | 江苏爱仕达电子有限公司 | 一种用于智能电视体感遥控器的高安全性控制方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102566744A (zh) * | 2010-12-22 | 2012-07-11 | 康佳集团股份有限公司 | 一种鼠标控制方法、装置及终端 |
CN102880304A (zh) * | 2012-09-06 | 2013-01-16 | 天津大学 | 用于便携设备的字符输入方法及装置 |
CN103488294A (zh) * | 2013-09-12 | 2014-01-01 | 华南理工大学 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
CN105302310A (zh) * | 2015-11-12 | 2016-02-03 | 姚焕根 | 一种手势识别装置、***及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9684372B2 (en) * | 2012-11-07 | 2017-06-20 | Samsung Electronics Co., Ltd. | System and method for human computer interaction |
-
2016
- 2016-02-17 CN CN201610089795.7A patent/CN105630176B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102566744A (zh) * | 2010-12-22 | 2012-07-11 | 康佳集团股份有限公司 | 一种鼠标控制方法、装置及终端 |
CN102880304A (zh) * | 2012-09-06 | 2013-01-16 | 天津大学 | 用于便携设备的字符输入方法及装置 |
CN103488294A (zh) * | 2013-09-12 | 2014-01-01 | 华南理工大学 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
CN105302310A (zh) * | 2015-11-12 | 2016-02-03 | 姚焕根 | 一种手势识别装置、***及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105630176A (zh) | 2016-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9734393B2 (en) | Gesture-based control system | |
KR101807241B1 (ko) | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 | |
CN105589553A (zh) | 一种智能设备的手势控制方法和*** | |
Palleja et al. | Implementation of a robust absolute virtual head mouse combining face detection, template matching and optical flow algorithms | |
CN105630176B (zh) | 一种智能体感控制的方法及装置 | |
Jais et al. | A review on gesture recognition using Kinect | |
KR20200051938A (ko) | 손가락 마디의 추적을 통한 가상현실 내 상호작용 제어방법 및 이를 이용한 vr 시스템 | |
Silva et al. | Sensor data fusion for full arm tracking using myo armband and leap motion | |
JP7359577B2 (ja) | ロボット教示装置及びロボットシステム | |
Placidi et al. | Data integration by two-sensors in a LEAP-based Virtual Glove for human-system interaction | |
Boruah et al. | Development of a learning-aid tool using hand gesture based human computer interaction system | |
KR20230080938A (ko) | 컨볼루션 블록 어텐션 모듈을 이용한 동작 인식 및 분류 방법 및 장치 | |
CN107633551B (zh) | 一种虚拟键盘的展示方法及装置 | |
EP3309713B1 (en) | Method and device for interacting with virtual objects | |
US11676357B2 (en) | Modification of projected structured light based on identified points within captured image | |
KR101525011B1 (ko) | Nui 기반의 실감형 가상공간 디스플레이 제어장치 및 제어방법 | |
Guliani et al. | Gesture controlled mouse navigation: Hand landmark approach | |
KR101374316B1 (ko) | 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법 | |
KR101085536B1 (ko) | 제스처 인식을 이용한 인터페이스 구성방법 | |
Gallo et al. | View-independent hand posture recognition from single depth images using PCA and Flusser moments | |
CN108829248A (zh) | 一种基于用户表现模型矫正的移动目标选择方法及*** | |
de Nóbrega Nogueira | Self-adaptive Cobots in Cyber-Physical Production Systems | |
Barbosa et al. | Human gesture evaluation with visual detection and haptic feedback | |
KR20200063727A (ko) | 제스처 인식 방법 및 장치 | |
Khan et al. | Telepresence Mechatronic Robot (TEBoT): Towards the design and control of socially interactive bio-inspired system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A method and device of agent sense control Effective date of registration: 20210104 Granted publication date: 20180824 Pledgee: Inner Mongolia Huipu Energy Co.,Ltd. Pledgor: TVMINING (BEIJING) MEDIA TECHNOLOGY Co.,Ltd. Registration number: Y2020990001527 |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180824 Termination date: 20210217 |