CN108920228B - 一种控制指令输入方法和输入装置 - Google Patents
一种控制指令输入方法和输入装置 Download PDFInfo
- Publication number
- CN108920228B CN108920228B CN201810523767.0A CN201810523767A CN108920228B CN 108920228 B CN108920228 B CN 108920228B CN 201810523767 A CN201810523767 A CN 201810523767A CN 108920228 B CN108920228 B CN 108920228B
- Authority
- CN
- China
- Prior art keywords
- screen
- motion
- rotation
- instruction
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提供了一种控制指令输入方法和装置,用于解决穿戴设备对应单手输入缺少输入途径的技术问题。方法包括通过肢体运动形成屏幕的运动状态;根据所述运动状态形成所述屏幕中UI界面的操作指令。利用对佩戴智能穿戴设备的肢体稳定姿态的识别,建立肢体稳定姿态与触控标准指令间的关联,将指令输入的触控手势演化为肢体运动姿态,避免了双手的配合操作过程,使得佩戴智能穿戴设备的应用场景更丰富。同时,利用肢体稳定姿态的相对大尺度运动状态,将现有触摸手势的动作过程放大,形成更精细的指令控制过程。
Description
技术领域
本发明涉及人机互动技术领域,具体涉及一种控制指令输入方法和输入装置。
背景技术
对于智能佩戴设备,通常具有用于人机交互的屏幕用于显示UI(user interface)界面,佩戴者通过触摸手势进行控制指令的输入。但是在一些应用场景下,例如骑行中、或单手负重中、或户外戴有手套时,甚至对于肢体残障人士而言,触摸输入十分不便。需要一种能够克服单手输入障碍的新的技术方案。
发明内容
有鉴于此,本发明实施例提供一种控制指令输入方法和输入装置,以解决现有技术中智能穿戴设备对应单手输入缺少输入途径的技术问题。
本发明实施例的控制指令输入方法,包括:
通过肢体运动形成屏幕的运动状态;
根据所述运动状态形成所述屏幕中UI界面的操作指令。
本发明一实施例中,所述通过肢体运动形成屏幕的运动状态包括:
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于稳定姿态的时间区间及所述稳定姿态下的转动数据;
根据所述时间区间和所述转动数据确定所述屏幕在所述稳定姿态时的转动状态。
本发明一实施例中,所述运动状态包括:
正向平滑转动、正向加速转动、反向平滑转动、反向加速转动;
所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
所述正向平滑转动的映射指令为所述UI界面向正向方向滚屏,或所述UI界面中的焦点内容向正向方向滚屏,或在所述UI界面向正向方向移动焦点;
所述正向加速转动的映射指令为向前一个所述UI界面切换,或正向扫屏;
所述反向平滑转动的映射指令为所述UI界面向反向方向滚屏,或所述UI界面中的焦点内容向反向方向滚屏,或在所述UI界面向反向方向移动焦点;
所述反向加速转动的映射指令为向后一个所述UI界面切换,或反向扫屏。
本发明一实施例中,所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
获取时间区间内的所述屏幕的运动状态;
判断所述运动状态是转动运动还是往复运动;
根据所述转动运动的运动特征形成所述UI界面的操作指令。
本发明一实施例中,所述根据所述转动运动的运动特征形成所述UI界面的操作指令包括:
进一步判断转动方向;
当所述转动方向为第一时针方向时进一步判断转速是否达到第一定值;
当所述转速未达到所述第一定值时,形成当前所述UI界面中向第一方向的滚动指令;当所述转速达到所述第一定值时,形成当前所述UI界面向前一个所述UI界面的切换指令;
当所述转动方向为第二时针方向时进一步判断所述转速是否达到第二定值;
当所述转速未达到所述第二定值时,形成当前所述UI界面中向第二方向的滚动指令;
当所述转速达到所述第二定值时,形成当前所述UI界面向后一个所述UI界面的切换指令。本发明一实施例中,所述通过肢体运动形成屏幕的运动状态包括:
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于稳定姿态的时间区间及所述时间区间内的实时移动数据;
根据所述时间区间和所述移动数据确定所述屏幕在所述稳定姿态时的移动状态。
本发明一实施例中,所述运动状态包括:
快速落差移动-回复和快速重复快速落差移动-回复;
所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
所述快速落差移动-回复的映射指令为单击;
所述快速重复快速落差移动-回复的映射指令为双击或连击。
本发明一实施例中,所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
获取时间区间内的所述屏幕的运动状态;
判断所述运动状态是转动运动还是往复运动;
当所述运动状态是往复运动时形成当前所述UI界面中的点击指令。
本发明一实施例中,所述肢体运动以负载所述屏幕的肘部或腰部或手部为所述运动状态的参照点。
本发明实施例的控制指令输入装置,包括:
存储器,用于存储与上述控制指令输入方法的处理过程对应的程序代码;
处理器,用于执行所述程序代码。
本发明实施例的控制指令输入装置包括:
状态确认模块,用于通过肢体运动形成屏幕的运动状态;
指令映射模块,用于根据所述运动状态形成所述屏幕中UI界面的操作指令。
本发明实施例的控制指令输入方法和输入装置利用对佩戴智能穿戴设备的肢体动作的识别,建立肢体动作与触控标准指令间的关联,将指令输入的触控手势演化为肢体运动姿态,避免了双手的配合操作过程,使得佩戴智能穿戴设备的应用场景更丰富。同时,利用肢体稳定姿态的相对大尺度运动状态,将现有触摸手势的动作过程放大,形成更精细的指令控制过程。
附图说明
图1所示为本发明实施例的控制指令输入方法的流程图。
图2所示为本发明实施例的控制指令输入方法中转动状态和位移状态获取的流程图。
图3所示为本发明实施例的控制指令输入方法中形成操作指令的流程图。
图4所示为本发明实施例的控制指令输入装置的架构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本领域技术人员可以理解,在智能穿戴设备中集成有陀螺仪、加速度传感器或重力传感器以及其他磁场传感器,可以通过陀螺仪采集的各自由度量化信号以获得智能穿戴设备的基本姿态数据,配合其他传感器提供的量化信号可以进一步准确量化智能穿戴设备的移动轨迹、加速度、指向方向或重力方向等运动状态数据。
图1所示为本发明实施例的控制指令输入方法的流程图。如图1所示,包括:
步骤100:通过肢体运动形成屏幕的运动状态。
肢体运动由佩戴部位的肢体协调动作形成,肢体运动可以形成屏幕的运动姿态,运动姿态包括一类稳定姿态,维持屏幕处于稳定的姿态。屏幕稳定姿态可以包括:
-使屏幕保持一个有利于佩戴者视线观察的稳定角度。
-使屏幕保持在有利于佩戴者视线观察的水平面。
-使屏幕保持在有利于佩戴者视线观察的视觉落差,该视觉落差是表现屏幕与眼部的高度差异。
-使屏幕沿一个弧线轨迹单向匀速移动或加速移动,例如以肘部为圆心的弧线轨迹。
-使屏幕沿一个合成半径长度做小角度周向转动,例如以腰部为圆心以肩部、上臂和下臂间距形成半径长度的弧线轨迹。
-使屏幕在竖直方向上形成短距离快速落差,该快速落差是表现屏幕一段距离内的运动速度差异。
-使屏幕维持水平的同时在竖直方向上形成短距离快速落差。
上述屏幕稳定姿态可以是独立的姿态,也可以是复杂运动姿态中的一个局部的主要姿态。上述运动状态可以包括上述屏幕稳定姿态中的转动状态和位移状态。本领域技术人员可以理解,通过陀螺仪以及其他各传感器采集的屏幕稳定姿态信号可以体现为在空间中相应自由度的转动状态数据和位移状态数据。即每一种屏幕稳定姿态的转动状态数据和位移状态数据能够反映姿态特征。
步骤200:根据运动状态形成屏幕中UI界面的操作指令。
本领域技术人员可以理解,通过对转动状态数据和位移状态数据在时间轴上积分,就可以以数学方式基本还原描述上述屏幕稳定姿态的肢体动作过程。通过将判断识别的特定屏幕稳定姿态与指定触控手势关联,可以将肢体运动过程中的屏幕稳定姿态作为屏幕中UI界面的操作指令输入,实现人机交互。
本发明实施例的控制指令输入方法利用对佩戴智能穿戴设备的肢体稳定姿态的识别,建立肢体稳定姿态与触控标准指令间的关联,将指令输入的触控手势演化为肢体运动姿态,避免了双手的配合操作过程,使得佩戴智能穿戴设备的应用场景更丰富。同时,利用肢体稳定姿态的相对大尺度运动状态,将现有触摸手势的动作过程放大,形成更精细的指令控制过程。
图2所示为本发明实施例的控制指令输入方法中转动状态和位移状态获取的流程图。如图2所示,步骤100中包括:
步骤110:根据传感器信号获取屏幕的运动姿态。
通过对传感器采集的信号简单分析,可以获得智能穿戴设备的运动状态,包括运动轨迹,以及智能穿戴设备的本体姿态数据。根据各传感器默认初始值与屏幕的初始关联结构结合智能穿戴设备的本体姿态数据可以获得屏幕的运动姿态。
步骤120:通过屏幕的转动数据获取屏幕处于稳定姿态的时间区间及稳定姿态下的实时水平转动数据。
实时转动数据是在屏幕运动姿态的实时数据中,通过过滤获得的屏幕姿态处于有利于观察的数据。利用实时转动数据获得屏幕处于有利于视觉关注角度的稳定姿态时长和对应时长下的转动数据。其中一种视觉关注角度可以是屏幕处于水平面或较小偏离水平面。
步骤140:根据时间区间和转动数据确定屏幕在稳定姿态时的转动状态。
将屏幕处于稳定姿态时的数据进行统计,量化为具有各种特征的水平运动状态,其中水平转动状态可以包括正向平滑转动、正向加速转动、反向平滑转动、反向加速转动、正向加速转动连接反向平滑转动、反向加速转动连接正向平滑转动等水平转动状态,也可以是形成水平转动状态的趋势量化数据,例如转动方向、转速等。本领域技术人员可以理解,平滑转动是指具有基本相近速率和确定方向的转动,加速转动是指具有速率加速趋势和确定方向的转动。
步骤130:通过屏幕的转动数据获取屏幕处于稳定姿态的时间区间及时间区间内的实时竖直移动数据。
利用实时水平转动数据获得屏幕处于有利于视觉关注角度的稳定姿态时长和确定稳定姿态时长内的屏幕落差数据。其中一种视觉关注角度可以是屏幕处于水平面或较小偏离水平面。
步骤150:根据时间区间和竖直移动数据确定屏幕在稳定姿态时的竖直移动状态。
将屏幕处于稳定姿态时的数据统计和量化为具有各种特征的位移运动状态,其中竖直移动状态可以包括,快速落差-回复、快速重复快速落差-回复等竖直移动状态,也可以是形成竖直移动状态的趋势量化数据,例如移动方向、移动速率、往复移动次数等。
本发明实施例的控制指令输入方法利用传感器信号确定屏幕状态,利用屏幕状态确定屏幕处于稳定姿态的时长和对应时长内的运动数据,并对运动数据定量统计分析形成屏幕的主要运动状态,形成佩戴者肢体运动的若干标准动作过程,使得佩戴者肢体运动中的稳定姿态可以作为与标准触摸手势或标准输入指令的关联基础,将特定肢体动作形成与UI屏幕人机交互的控制输入。
在本发明实施例的控制指令输入方法中,形成操作指令的流程中运动状态的判断主要包括:
获取时间区间内的屏幕的运动状态;
判断运动状态是转动运动还是往复运动;
根据转动运动的运动特征形成所述UI界面的操作指令。
根据往复运动的运动特征形成所述UI界面的操作指令。
其中转动运动和往复运动的运动特征包括运动方向、运动平均速度、运动即时速度、运动峰值速度等运动特征。
图3所示为本发明实施例的控制指令输入方法中形成操作指令的流程图。如图3所示,步骤200包括:
步骤210:获取时间区间内的屏幕运动状态;
步骤220:判断运动状态是转动运动还是竖直往复运动;
步骤300:当运动状态是竖直运动时形成当前UI界面中的点击指令(根据往复次数和频率确定单击或双击);
步骤230:当运动状态是转动运动时进一步判断转动方向;
步骤240:当转动方向为第一时针方向时进一步判断转速是否达到第一定值;
步骤260:当转速未达到第一定值时,形成当前UI界面中向第一方向的滚动指令;
步骤280:当转速达到第一定值时,形成当前UI界面向前一个UI界面的切换指令;
步骤250:当转动方向为第二时针方向时进一步判断转速是否达到第二定值;
步骤270:当转速未达到第二定值时,形成当前UI界面中向第二方向的滚动指令;
步骤290:当转速达到第二定值时,形成当前UI界面向后一个UI界面的切换指令。
本发明实施例的控制指令输入方法利用趋势量化数据作为判断要素,将屏幕的主要运动状态与标准输入指令连接,形成了新的控制指令输入过程。
本发明实施例中在确定运动参照点的时针方向和滚动方向可以设定为:
第一时针方向-逆时针转动,第一方向-页面上滚;
第二时针方向-顺时针转动,第二方向-页面下滚。
在本发明一实施例中,还可以直接将屏幕量化的主要运动状态与标准输入指令相映射,形成至少包括下表所示对应关系的控制指令输入过程:
利用本发明实施例的控制指令输入方法可以形成与标准输入指令丰富的映射方案,进而可以实现复合标准输入指令的快速输入。
图4所示为本发明实施例的控制指令输入装置的架构示意图。如图4所示包括:
状态确认模块1000,用于通过肢体运动形成屏幕的运动状态。
指令映射模块2000,用于根据运动状态形成屏幕中UI界面的操作指令。
如图4所示状态确认模块1000包括:
屏幕姿态确认单元1110,用于根据传感器信号获取屏幕的运动姿态。
屏幕水平运动确认单元1120,用于通过屏幕的转动数据获取屏幕处于稳定姿态的时间区间及稳定姿态下的实时水平转动数据。
屏幕水平运动状态确认单元1140,用于根据时间区间和水平转动数据确定屏幕在稳定姿态时的水平转动状态。
屏幕竖直运动确认单元1130,用于通过屏幕的转动数据获取屏幕处于稳定姿态的时间区间及时间区间内的实时竖直移动数据。
屏幕竖直运动状态确认单元1150,用于根据时间区间和竖直移动数据确定屏幕在稳定姿态时的竖直移动状态。
如图4所示指令映射模块2000包括:
状态获取单元1210,用于获取时间区间内的屏幕运动状态。
运动判断单元1220,用于判断为运动状态是转动运动还是往复运动。
第一指令映射单元1300,用于当运动状态是竖直运动时形成当前UI界面中的点击指令。
转动判断单元1230,用于当运动状态是转动运动时进一步判断转动方向。
第一转速判断单元1240,用于当转动方向为第一时针方向时进一步判断转速是否达到第一定值。
第二指令映射单元1260,用于当转速未达到第一定值时,形成当前UI界面中向第一方向的滚动指令。
第三指令映射单元1280,用于当转速达到第一定值时,形成当前UI界面向前一个UI界面的切换指令。
第二转速判断单元1250,用于当转动方向为第二时针方向时进一步判断转速是否达到第二定值。
第四指令映射单元1270,用于当转速未达到第二定值时,形成当前UI界面中向第二方向的滚动指令。
第五指令映射单元1290,用于当转速达到第二定值时,形成当前UI界面向后一个UI界面的切换指令。
本发明实施例的控制指令输入装置包括:
存储器,用于存储与上述控制指令输入方法的处理过程对应的程序代码。
处理器,用于执行程序代码。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序校验码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种控制指令输入方法,其特征在于,包括:
通过肢体运动形成屏幕处于有利于视觉关注角度的稳定姿态下的运动状态,所述稳定姿态作为与标准触摸手势或标准输入指令的关联基础;
根据所述运动状态形成所述屏幕中UI界面的操作指令,
其中,所述通过肢体运动形成屏幕的运动状态包括:
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于有利于视觉关注角度的稳定姿态的时间区间及所述稳定姿态下的转动数据;
根据所述时间区间和所述转动数据确定所述屏幕在所述稳定姿态时的转动状态,或
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于有利于视觉关注角度的稳定姿态的时间区间及所述时间区间内的实时移动数据;
根据所述时间区间和所述移动数据确定所述屏幕在所述稳定姿态时的移动状态,
其中,所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
获取时间区间内的所述屏幕的运动状态;
判断所述运动状态是转动运动还是往复运动;
根据所述转动运动的运动特征形成所述UI界面的操作指令,
其中,所述根据所述转动运动的运动特征形成所述UI界面的操作指令包括:
进一步判断转动方向;
当所述转动方向为第一时针方向时进一步判断转速是否达到第一定值;
当所述转速未达到所述第一定值时,形成当前所述UI界面中向第一方向的滚动指令;
当所述转速达到所述第一定值时,形成当前所述UI界面向前一个所述UI界面的切换指令;
当所述转动方向为第二时针方向时进一步判断所述转速是否达到第二定值;
当所述转速未达到所述第二定值时,形成当前所述UI界面中向第二方向的滚动指令;
当所述转速达到所述第二定值时,形成当前所述UI界面向后一个所述UI界面的切换指令。
2.根据权利要求1所述的控制指令输入方法,其特征在于,所述运动状态包括:
正向平滑转动、正向加速转动、反向平滑转动、反向加速转动;
所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
所述正向平滑转动的映射指令为所述UI界面向正向方向滚屏,或所述UI界面中的焦点内容向正向方向滚屏,或在所述UI界面向正向方向移动焦点;
所述正向加速转动的映射指令为向前一个所述UI界面切换,或正向扫屏;
所述反向平滑转动的映射指令为所述UI界面向反向方向滚屏,或所述UI界面中的焦点内容向反向方向滚屏,或在所述UI界面向反向方向移动焦点;
所述反向加速转动的映射指令为向后一个所述UI界面切换,或反向扫屏。
3.根据权利要求1所述的控制指令输入方法,其特征在于,所述运动状态包括:
快速落差移动-回复和快速重复快速落差移动-回复;
所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
所述快速落差移动-回复的映射指令为单击;
所述快速重复快速落差移动-回复的映射指令为双击或连击。
4.根据权利要求1所述的控制指令输入方法,其特征在于,所述肢体运动以负载所述屏幕的肘部或腰部或手部为所述运动状态的参照点。
5.一种控制指令输入装置,其特征在于,包括:
存储器,用于存储与权利要求1-4任一所述的控制指令输入方法的处理过程对应的程序代码;
处理器,用于执行所述程序代码。
6.一种控制指令输入装置,其特征在于,包括:
状态确认模块,用于通过肢体运动形成屏幕处于有利于视觉关注角度的稳定姿态下的运动状态,其中,所述稳定姿态作为与标准触摸手势或标准输入指令的关联基础;
指令映射模块,用于根据所述运动状态形成所述屏幕中UI界面的操作指令,
其中,所述通过肢体运动形成屏幕的运动状态包括:
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于有利于视觉关注角度的稳定姿态的时间区间及所述稳定姿态下的转动数据;
根据所述时间区间和所述转动数据确定所述屏幕在所述稳定姿态时的转动状态,或
根据传感器信号获取所述屏幕的运动姿态;
通过所述屏幕的转动数据获取所述屏幕处于有利于视觉关注角度的稳定姿态的时间区间及所述时间区间内的实时移动数据;
根据所述时间区间和所述移动数据确定所述屏幕在所述稳定姿态时的移动状态,
其中,所述根据所述运动状态形成所述屏幕中UI界面的操作指令包括:
获取时间区间内的所述屏幕的运动状态;
判断所述运动状态是转动运动还是往复运动;
根据所述转动运动的运动特征形成所述UI界面的操作指令,
其中,所述根据所述转动运动的运动特征形成所述UI界面的操作指令包括:
进一步判断转动方向;
当所述转动方向为第一时针方向时进一步判断转速是否达到第一定值;
当所述转速未达到所述第一定值时,形成当前所述UI界面中向第一方向的滚动指令;
当所述转速达到所述第一定值时,形成当前所述UI界面向前一个所述UI界面的切换指令;
当所述转动方向为第二时针方向时进一步判断所述转速是否达到第二定值;
当所述转速未达到所述第二定值时,形成当前所述UI界面中向第二方向的滚动指令;
当所述转速达到所述第二定值时,形成当前所述UI界面向后一个所述UI界面的切换指令。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810523767.0A CN108920228B (zh) | 2018-05-28 | 2018-05-28 | 一种控制指令输入方法和输入装置 |
PCT/CN2018/103212 WO2019227734A1 (zh) | 2018-05-28 | 2018-08-30 | 一种控制指令输入方法和输入装置 |
TW107132770A TWI721317B (zh) | 2018-05-28 | 2018-09-18 | 一種控制指令輸入方法和輸入裝置 |
US16/505,971 US10983606B2 (en) | 2018-05-28 | 2019-07-09 | Control instruction input methods and control instruction input devices |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810523767.0A CN108920228B (zh) | 2018-05-28 | 2018-05-28 | 一种控制指令输入方法和输入装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108920228A CN108920228A (zh) | 2018-11-30 |
CN108920228B true CN108920228B (zh) | 2021-01-15 |
Family
ID=64409999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810523767.0A Active CN108920228B (zh) | 2018-05-28 | 2018-05-28 | 一种控制指令输入方法和输入装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10983606B2 (zh) |
CN (1) | CN108920228B (zh) |
TW (1) | TWI721317B (zh) |
WO (1) | WO2019227734A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114442830B (zh) * | 2020-11-02 | 2024-06-18 | 华硕电脑股份有限公司 | 电子装置及其控制方法 |
TWI797494B (zh) * | 2020-11-02 | 2023-04-01 | 華碩電腦股份有限公司 | 電子裝置及其控制方法 |
CN113672091B (zh) * | 2021-08-26 | 2024-06-04 | 歌尔科技有限公司 | 智能穿戴设备控制方法、装置、智能穿戴设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101311882A (zh) * | 2007-05-23 | 2008-11-26 | 华为技术有限公司 | 视线跟踪人机交互方法及装置 |
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
CN106959769A (zh) * | 2012-09-19 | 2017-07-18 | 卡西欧计算机株式会社 | 功能驱动装置及功能驱动方法 |
WO2018045569A1 (zh) * | 2016-09-09 | 2018-03-15 | 华为技术有限公司 | 一种控制移动终端屏幕的方法及装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2298506B1 (en) * | 2002-03-18 | 2013-09-11 | Sony Corporation | Mobile device and method for controlling a mobile device |
KR101495786B1 (ko) * | 2008-06-25 | 2015-02-25 | 주식회사 케이티 | 터치 인식 방법 및 터치 인식 장치 |
US8289162B2 (en) * | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
US8502704B2 (en) * | 2009-03-31 | 2013-08-06 | Intel Corporation | Method, apparatus, and system of stabilizing a mobile gesture user-interface |
CN102915184B (zh) * | 2012-09-18 | 2017-04-05 | 百度在线网络技术(北京)有限公司 | 用于移动终端的交互控制方法、装置和移动终端 |
US10185416B2 (en) * | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US9740906B2 (en) * | 2013-07-11 | 2017-08-22 | Practech, Inc. | Wearable device |
CN104714631A (zh) * | 2013-12-12 | 2015-06-17 | 李庆华 | 腕上智能设备及其控制方法和*** |
US10406059B2 (en) * | 2014-04-21 | 2019-09-10 | The Trustees Of Columbia University In The City Of New York | Human movement research, therapeutic, and diagnostic devices, methods, and systems |
CN104111732A (zh) * | 2014-07-15 | 2014-10-22 | 天津三星通信技术研究有限公司 | 基于姿态解算的便携式终端的输入方法 |
TWI534698B (zh) * | 2014-08-12 | 2016-05-21 | 拓連科技股份有限公司 | 以動作為基礎之資料瀏覽方法及系統,及相關電腦程式產品 |
US10327939B2 (en) * | 2014-09-25 | 2019-06-25 | Falconworks | Devices, systems, and methods for administering therapy |
AU2015362045C1 (en) * | 2014-12-08 | 2020-10-15 | Rohit Seth | Wearable wireless HMI device |
CN104699390A (zh) | 2015-03-20 | 2015-06-10 | 蔡思强 | 一种适用于智能手表的快捷浏览免触摸操作解决方案 |
US9804679B2 (en) * | 2015-07-03 | 2017-10-31 | Google Inc. | Touchless user interface navigation using gestures |
US9693711B2 (en) * | 2015-08-07 | 2017-07-04 | Fitbit, Inc. | User identification via motion and heartbeat waveform data |
CN105242780B (zh) * | 2015-09-23 | 2018-05-18 | 谢小强 | 一种交互控制方法和装置 |
CN105487707B (zh) * | 2015-11-24 | 2019-02-15 | 歌尔股份有限公司 | 一种智能穿戴设备及其信息输入方法 |
US9939910B2 (en) * | 2015-12-22 | 2018-04-10 | Intel Corporation | Dynamic effects processing and communications for wearable devices |
CN106125910A (zh) | 2016-06-17 | 2016-11-16 | 钟林 | 一种利用方位手势随动操作智能手表的方法及装置 |
CN106445299A (zh) * | 2016-09-28 | 2017-02-22 | 维沃移动通信有限公司 | 一种控制方法及移动终端 |
CN106557021A (zh) * | 2016-10-14 | 2017-04-05 | 杭州联络互动信息科技股份有限公司 | 一种基于智能手表的屏幕点亮方法和装置、智能手表 |
CN106775307B (zh) * | 2016-11-29 | 2020-01-03 | 努比亚技术有限公司 | 一种终端属性操作装置、终端及方法 |
-
2018
- 2018-05-28 CN CN201810523767.0A patent/CN108920228B/zh active Active
- 2018-08-30 WO PCT/CN2018/103212 patent/WO2019227734A1/zh active Application Filing
- 2018-09-18 TW TW107132770A patent/TWI721317B/zh active
-
2019
- 2019-07-09 US US16/505,971 patent/US10983606B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101311882A (zh) * | 2007-05-23 | 2008-11-26 | 华为技术有限公司 | 视线跟踪人机交互方法及装置 |
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
CN106959769A (zh) * | 2012-09-19 | 2017-07-18 | 卡西欧计算机株式会社 | 功能驱动装置及功能驱动方法 |
WO2018045569A1 (zh) * | 2016-09-09 | 2018-03-15 | 华为技术有限公司 | 一种控制移动终端屏幕的方法及装置 |
Non-Patent Citations (2)
Title |
---|
Exact interactions executed with new technique estimating positions of virtual objects by using human body movements;Masahiro Suzuki;Hiroshi Unno;Kazutake Uehira;《2015 IEEE Symposium on 3D User Interfaces (3DUI)》;20150324;第185-186页 * |
基于多传感器数据融合的肢体动作识别***研究;张少飞;《中国优秀硕士学位论文全文数据库信息科技辑》;20160815;第I138-1260页,第25-67页 * |
Also Published As
Publication number | Publication date |
---|---|
US20190332193A1 (en) | 2019-10-31 |
US10983606B2 (en) | 2021-04-20 |
TW202004433A (zh) | 2020-01-16 |
TWI721317B (zh) | 2021-03-11 |
CN108920228A (zh) | 2018-11-30 |
WO2019227734A1 (zh) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115443445A (zh) | 用于可穿戴***的手部手势输入 | |
CN108920228B (zh) | 一种控制指令输入方法和输入装置 | |
US20160098094A1 (en) | User interface enabled by 3d reversals | |
CN212112406U (zh) | 一种基于用户eog信号和头部姿态的驱动装置 | |
US9619024B2 (en) | Virtual input device and virtual input method | |
CN108616712B (zh) | 一种基于摄像头的界面操作方法、装置、设备及存储介质 | |
CN107174824B (zh) | 特效信息处理方法、装置、电子设备及存储介质 | |
CN105068657B (zh) | 手势的识别方法及装置 | |
JP6621133B2 (ja) | 情報処理方法、情報処理装置及びプログラム | |
CN115033097A (zh) | 一种智能眼镜的控制方法、装置和智能眼镜 | |
WO2015030482A1 (ko) | 웨어러블 디스플레이용 입력장치 | |
US20210245368A1 (en) | Method for virtual interaction, physical robot, display terminal and system | |
CN110717993B (zh) | 一种分体式ar眼镜***的交互方法、***及介质 | |
CN117784926A (zh) | 控制装置、控制方法和计算机可读存储介质 | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
CN104704449A (zh) | 用户界面设备和用户界面方法 | |
WO2018076609A1 (zh) | 一种操作终端的方法和终端 | |
CN113496168B (zh) | 手语数据采集方法、设备、存储介质 | |
CN102749994A (zh) | 交互***中手势的运动方向及速率强度的提示方法 | |
CN104536568A (zh) | 侦测用户头部动态的操控***及其操控方法 | |
Lee et al. | Hand gesture recognition with inertial sensors and a magnetometer | |
CN112328156B (zh) | 输入设备的控制方法、装置和电子设备 | |
Prabhakar et al. | Comparison of three hand movement tracking sensors as cursor controllers | |
CN109710075B (zh) | 一种在vr场景中显示内容的方法及装置 | |
CN117289792A (zh) | Ar交互方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |