CN103529948B - 一种基于手势识别的控制方法 - Google Patents
一种基于手势识别的控制方法 Download PDFInfo
- Publication number
- CN103529948B CN103529948B CN201310546144.2A CN201310546144A CN103529948B CN 103529948 B CN103529948 B CN 103529948B CN 201310546144 A CN201310546144 A CN 201310546144A CN 103529948 B CN103529948 B CN 103529948B
- Authority
- CN
- China
- Prior art keywords
- hand
- factor
- multidate information
- gesture identification
- influence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于手势识别的控制方法,用于有效对三维模型进行精确控制。本发明实施例方法包括:当手做出动作时,获取手的动态信息;通过动态信息计算影响因子;通过动态信息和影响因子生成控制指令;根据控制指令对三维模型进行控制。通过动态信息和影响因子生成控制指令,进而消除了影响因素,使得控制结果更加精确。
Description
技术领域
本发明涉及控制技术领域,尤其涉及一种基于手势识别的控制方法。
背景技术
人与计算机的交互活动越来越成为人们日常生活的一个重要组成部分,特别是最近几年随着计算机技术的迅猛发展,研究符合人际交流习惯的新颖人机交互技术变得异常活跃,也取得了可喜的进步,这些研究包括人脸识别、面部表情识别、唇读、头部运动跟踪、凝视跟踪、手势识别以及体势识别等等。总的来说.人机交互技术已经从以计算机为中心逐步转移到以人为中心,是多媒体、多种模式的交互技术。
手势是一种自然、直观、易于学习的人机交互手段。以人手直接作为计算机的输人设备,人机间的通讯将不再需要中间的媒体,用户可以简单地定义一种适当的手势来对周围的机器进行控制。
以人手直接作为输人手段与其它输人方法相比较,具有自然性、简洁性和丰富性、直接性的特点。但由于手是弹性物体,故同一种手势之间差别很大,手在做出动作后,由于惯性导致对三维模型控制并不精确。
发明内容
本发明实施例提供了一种基于手势识别的控制方法,用于有效对三维模型进行精确控制。
本发明实施例中一种基于手势识别的控制方法,具体包括:
当手做出动作时,获取手的动态信息;
通过动态信息计算影响因子;
通过动态信息和影响因子生成控制指令;
根据控制指令对三维模型进行控制。
可选的,
当手做出动作时,获取手的动态信息包括:
当单手移动时,以手为质点,获取质点始末空间坐标,移动时间,从而计算得到单手位移和速度。
可选的,
通过动态信息计算影响因子包括:
将惯性系数与该速度相乘得到惯性因子。
可选的,
通过动态信息和影响因子生成控制指令包括:
通过单手位移和惯性因子得到三维模型的位移,从而生成控制三维模型按该位移移动的控制指令。
可选的,
当手做出动作时,获取手的动态信息包括:
当双手移动时,以双手为两个质点,获取两个质点始末空间坐标,移动时间,从而计算得到相对位移和相对速度。
可选的,
通过动态信息计算影响因子包括:
将惯性系数与相对速度相乘得到惯性因子。
可选的,
通过相对位移和惯性因子得到缩放因子,从而生成控制三维模型按该缩放因子缩放的控制指令。
可选的,
当手做出动作时,获取手的动态信息还包括:
当手的移动范围超过显示屏范围时,将手在显示屏中首次出现的位置记为初始位置,将手在显示屏中最后时刻出现的位置记为终止位置。
可选的,
当手做出动作时,获取手的动态信息还包括:
当手移动幅度不大于精度0.0001时,不获取动态信息。
可选的,
惯性系数为常量0.12,是通过统计方法得出的结果。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明方法中当手做出动作时,获取手的动态信息;通过动态信息计算影响因子;通过动态信息和影响因子生成控制指令;根据控制指令对三维模型进行控制。通过动态信息和影响因子生成控制指令,进而消除了影响因素,使得控制结果更加精确。
附图说明
图1为本发明实施例中一种基于手势识别的控制方法第一实施例流程图;
图2为本发明实施例中一种基于手势识别的控制方法第二实施例流程图;
图3为本发明实施例中一种基于手势识别的控制方法第三实施例流程图。
具体实施方式
请参阅图1,本发明实施例中一种基于手势识别的控制方法第一实施例,具体包括:
101、当手做出动作时,获取手的动态信息;
在本实施例中,操作者可以站在摄像头前进行操作,当手做出动作时,摄像头获取操作者手的动作视频流,从中提取手的动态信息,该动态信息可以描述手的运动状态,比如手移动的方向是向上还是向下等动态信息。
102、通过动态信息计算影响因子;
在本实施例中,为了消除手势控制过程中影响因素,使控制更加精确,需要确定该影响因素量化后的影响因子,需要说明的是,该影响因子与动态信息有关。
103、通过动态信息和影响因子生成控制指令;
在本实施例中,根据前面的步骤得到影响因子和动态信息生成对三维模型控制的控制指令,该控制指令可以是控制三维模型进行移动、放缩或者旋转等操作。
104、根据控制指令对三维模型进行控制。
本实施例中,当手做出动作时,获取手的动态信息;通过动态信息计算影响因子;通过动态信息和影响因子生成控制指令;根据控制指令对三维模型进行控制。通过动态信息和影响因子生成控制指令,进而消除了影响因素,使得控制结果更加精确。其中三维模型可以在pc显示屏中显示也可以在拼墙上显示,在此不做具体限定。
上面对本发明实施例中一种基于手势识别的控制方法第一实施例进行了说明,下面请参阅图2,本发明实施例中一种基于手势识别的控制方法第二实施例具体包括:
201、当单手移动时,以手为质点,获取质点始末空间坐标,移动时间,从而计算得到单手位移和速度;
在本实施例中,操作者可以站在摄像头前进行单手操作,当手做出动作时,摄像头获取操作者单手的动作视频流,从中提取单手的动态信息,该动态信息可以描述手的运动状态。以手为质点,获取质点始末空间坐标,移动时间,从而计算得到单手位移和速度。例如:P1(100,0,0)为初始点,P2(500,0,0)为终止点,时间t=4,计算得到单手位移为400速度为100。
202、将惯性系数与该速度相乘得到惯性因子;
在本实施例中,惯性系数为常量0.12,是通过统计方法得出的结果。将速度与惯性系数相乘得到惯性因子为12。
203、通过单手位移和惯性因子得到三维模型的位移,从而生成控制三维模型按该位移移动的控制指令;
在本实施例中,通过单手位移和惯性因子,再通过空间坐标转换得到三维模型的位移0.176,需要说明的是,具体算法为本技术人员开发固定方法,不做具体限定。从而生成控制三维模型移动0.176个单位的控制指令。
204、根据控制指令对三维模型进行控制。
本实施例中,举单手移动例子说明本发明一种基于手势识别的控制方法具体实施方式,需要说明的是,本发明中还有两种特殊规则:第一种:当手的移动范围超过显示屏范围时,将手在显示屏中首次出现的位置记为初始位置,将手在显示屏中最后时刻出现的位置记为终止位置。第二种:当手移动幅度不大于精度0.0001时,不获取动态信息。
上面对本发明实施例中一种基于手势识别的控制方法第二实施例进行了说明,下面请参阅图3,本发明实施例中一种基于手势识别的控制方法第三实施例具体包括:
301、当双手移动时,以双手为两个质点,获取两个质点始末空间坐标,移动时间,从而计算得到相对位移和相对速度;
在本实施例中,操作者可以站在摄像头前进行双手操作,当手做出动作时,摄像头获取操作者双手的动作视频流,从中提取双手的动态信息,该动态信息可以描述手的运动状态。以手为质点,获取质点始末空间坐标,移动时间,从而计算得到相对位移和相对速度。例如:PL1(100,0,0)、PR1(-100,0,0)为初始点,PL2(500,0,0)、PR2(-500,0,0)为终止点,时间t=4,计算得到单手位移为800,速度为200。
302、将惯性系数与相对速度相乘得到惯性因子;
在本实施例中,惯性系数为常量0.12,是通过统计方法得出的结果。将相对速度与惯性系数相乘得到惯性因子为24。
303、通过相对位移和惯性因子得到缩放因子,从而生成控制三维模型按该缩放因子缩放的控制指令;
在本实施例中,通过单手位移和惯性因子,再通过空间坐标转换得到放缩因子为0.0002,三维模型将放缩0.0352个单位。需要说明的是,具体算法为本技术人员开发固定方法,不做具体限定。从而生成控制三维模型放缩0.0352个单位的控制指令。
304、根据控制指令对三维模型进行控制。
本实施例中,举双手缩放例子说明本发明一种基于手势识别的控制方法具体实施方式,需要说明的是,本发明中还有两种特殊规则:第一种:当手的移动范围超过显示屏范围时,将手在显示屏中首次出现的位置记为初始位置,将手在显示屏中最后时刻出现的位置记为终止位置。第二种:当手移动幅度不大于精度0.0001时,不获取动态信息。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (6)
1.一种基于手势识别的控制方法,其特征在于,包括:
当手做出动作时,获取手的动态信息;
通过所述动态信息计算影响因子;
通过所述动态信息和所述影响因子生成控制指令;
根据所述控制指令对三维模型进行控制;
当手做出动作时,获取手的动态信息包括:
当单手移动时,以手为质点,获取所述质点始末空间坐标,移动时间,从而计算得到单手位移和速度;
所述通过所述动态信息计算影响因子包括:
将惯性系数与所述速度相乘得到惯性因子;
将惯性系数与相对速度相乘得到惯性因子;
通过所述动态信息和所述影响因子生成控制指令包括:
通过所述单手位移和所述惯性因子得到三维模型的位移,从而生成控制三维模型按所述位移移动的控制指令。
2.根据权利要求1所述的基于手势识别的控制方法,其特征在于,
当手做出动作时,获取手的动态信息包括:
当双手移动时,以双手为两个质点,获取所述两个质点始末空间坐标,移动时间,从而计算得到相对位移和相对速度。
3.根据权利要求2所述的基于手势识别的控制方法,其特征在于,
通过相对位移和惯性因子得到缩放因子,从而生成控制三维模型按所述缩放因子缩放的控制指令。
4.根据权利要求1至3中任一项所述的基于手势识别的控制方法,其特征在于,
所述当手做出动作时,获取手的动态信息还包括:
当手的移动范围超过显示屏范围时,将手在显示屏中首次出现的位置记为初始位置,将手在显示屏中最后时刻出现的位置记为终止位置。
5.根据权利要求1至3中任一项所述的基于手势识别的控制方法,其特征在于,
所述当手做出动作时,获取手的动态信息还包括:
当手移动幅度不大于精度0.0001mm时,不获取所述动态信息。
6.根据权利要求1至3中任一项所述的基于手势识别的控制方法,其特征在于,
所述惯性系数为常量0.12,是通过统计方法得出的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310546144.2A CN103529948B (zh) | 2013-11-06 | 2013-11-06 | 一种基于手势识别的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310546144.2A CN103529948B (zh) | 2013-11-06 | 2013-11-06 | 一种基于手势识别的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103529948A CN103529948A (zh) | 2014-01-22 |
CN103529948B true CN103529948B (zh) | 2017-07-18 |
Family
ID=49932021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310546144.2A Expired - Fee Related CN103529948B (zh) | 2013-11-06 | 2013-11-06 | 一种基于手势识别的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103529948B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103885597B (zh) * | 2014-03-27 | 2017-06-13 | 广东威创视讯科技股份有限公司 | 空间输入识别方法和*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402291A (zh) * | 2011-12-07 | 2012-04-04 | 北京盈胜泰科技术有限公司 | 一种肢体姿势识别方法及装置 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互***和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI348639B (en) * | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
-
2013
- 2013-11-06 CN CN201310546144.2A patent/CN103529948B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402291A (zh) * | 2011-12-07 | 2012-04-04 | 北京盈胜泰科技术有限公司 | 一种肢体姿势识别方法及装置 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互***和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103529948A (zh) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hansberger et al. | Dispelling the gorilla arm syndrome: the viability of prolonged gesture interactions | |
JP6495331B2 (ja) | 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト | |
Sharma et al. | Human computer interaction using hand gesture | |
CN102779000B (zh) | 一种用户交互***和方法 | |
Lu | A motion control method of intelligent wheelchair based on hand gesture recognition | |
US20180136744A1 (en) | Input controller stabilization techniques for virtual reality systems | |
US10838508B2 (en) | Apparatus and method of using events for user interface | |
CN102713792A (zh) | 使用可访问模板处理运动传感器数据 | |
CN103961869A (zh) | 一种设备控制方法 | |
Yin et al. | AirContour: Building contour-based model for in-air writing gesture recognition | |
US20140236529A1 (en) | Method and Apparatus for Determining Displacement from Acceleration Data | |
KR20130039585A (ko) | 로봇을 이용한 인지 능력 훈련 장치 및 그 방법 | |
CN106950927A (zh) | 一种控制智能家居的方法和智能穿戴设备 | |
CN103529948B (zh) | 一种基于手势识别的控制方法 | |
Parga et al. | Tele-manipulation of robot arm with smartphone | |
CN208521255U (zh) | 一种基于虚拟现实的人机交互*** | |
Du et al. | Smart phone based phubbing walking detection and safety warning | |
CN105929946B (zh) | 一种基于虚拟界面的自然交互方法 | |
Parga et al. | Smartphone-based human machine interface with application to remote control of robot arm | |
CN103136541B (zh) | 基于深度摄像头的双手三维非接触式动态手势识别方法 | |
Seo et al. | Remote data acquisition and touch-based control of a mobile robot using a smart phone | |
Balzano et al. | Mandri: a new proposal of manus VR facility integration in everyday car driving | |
Piplica et al. | Full-body gesture interaction with improvisational narrative agents | |
JP2013006232A (ja) | コミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラム | |
TWI554910B (zh) | Medical image imaging interactive control method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Kezhu road high tech Industrial Development Zone, Guangzhou city of Guangdong Province, No. 233 510670 Patentee after: VTRON GROUP Co.,Ltd. Address before: 510663 Guangzhou province high tech Industrial Development Zone, Guangdong, Cai road, No. 6, No. Patentee before: VTRON TECHNOLOGIES Ltd. |
|
CP03 | Change of name, title or address | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170718 Termination date: 20211106 |
|
CF01 | Termination of patent right due to non-payment of annual fee |