CN105892881A - 人机交互方法及装置、移动设备 - Google Patents

人机交互方法及装置、移动设备 Download PDF

Info

Publication number
CN105892881A
CN105892881A CN201510920862.0A CN201510920862A CN105892881A CN 105892881 A CN105892881 A CN 105892881A CN 201510920862 A CN201510920862 A CN 201510920862A CN 105892881 A CN105892881 A CN 105892881A
Authority
CN
China
Prior art keywords
information
use scene
user
mobile device
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510920862.0A
Other languages
English (en)
Inventor
甘书宇
于燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Original Assignee
LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LeTV Mobile Intelligent Information Technology Beijing Co Ltd filed Critical LeTV Mobile Intelligent Information Technology Beijing Co Ltd
Priority to CN201510920862.0A priority Critical patent/CN105892881A/zh
Publication of CN105892881A publication Critical patent/CN105892881A/zh
Priority to PCT/CN2016/096771 priority patent/WO2017096958A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本申请涉及一种人机交互方法及装置、移动设备。其中,人机交互方法包括:接收移动设备对用户动作的感应信息,所述感应信息包括位于所述移动设备边框的触摸传感器生成的触摸感应信息;分析所述感应信息,获知用户的当前手势动作;从保存的使用场景与手势动作的对应关系中,查找与所述当前手势动作匹配的使用场景;提供查找到的使用场景对应的服务。本发明能够主动“理解”用户的操作意图,快速、准确的给出响应,使移动设备更智能、更人性,提升了用户体验。

Description

人机交互方法及装置、移动设备
技术领域
本发明涉及通信领域,尤其涉及一种人机交互方法及装置、移动设备。
背景技术
手机、平板电脑等移动设备在当前人们的日常生活中发挥着重要的作用。特别是手机,作为人们远距离通信的主要手段,几乎是每个人必不可少的随身物品。随着手机技术的不断发展,手机的人机交互方式变得越来越智能。从最初的按键到现在的触控屏幕,工程师们一直致力于让人机交互更加便捷、更加人性化。
一种相关技术中,通过用户操作触控屏幕来实现人机交互。这种交互方式的做法是:预先通过软件程序在界面上提供一些操作入口(例如绘制一个按钮或图标),用户可以通过点击触控屏幕上相应的图标或位置,实现机器“理解”用户意图,从而达到人机交互的目的。在这种人机交互方式中,用户打开照相机抓拍需要进行的步骤依次为:掏出手机;按下电源键;上拉或下拉寻找照相机图标;点击照相机图标启动照相机;将镜头对准要抓拍的场景。尽管触控屏幕具有相当大的便利性,但其也存在如下一些缺陷:由于不同的界面提供的操作入口不同,导致操作入口难找;容易发生误触;操作时手指遮挡屏幕,影响视线;触控屏的屏幕越做越大,单手操作时手指离开手机边框,移动到手机屏幕的过程中容易造成手机跌落。
另一种相关技术中,采用语音识别技术获取用户的指令,然后机器按照用户的指令进行动作。这种方式的缺陷是:由于用户的口音千奇百怪,导致语音识别的正确识别率低;算法复杂,软件开发成本高,处理器开销大。
发明内容
本发明的目的在于提供一种人机交互方法及装置、移动设备,提高移动设备的智能化程度,提升用户体验。
为实现上述目的,本发明提出了一种人机交互方法,包括:
接收移动设备对用户动作的感应信息,所述感应信息包括位于所述移动设备边框的触摸传感器生成的触摸感应信息;
分析所述感应信息,获知用户的当前手势动作;
从保存的使用场景与手势动作的对应关系中,查找与所述当前手势动作匹配的使用场景;
提供查找到的使用场景对应的服务。
进一步地,上述方法还可具有以下特点,还包括:
在保存的使用场景与手势动作的对应关系中未查找到与所述当前手势动作匹配的使用场景时,记录用户在所述当前手势动作下主动启用的使用场景;
将所述主动启用的使用场景与所述当前手势动作绑定为一组对应关系,添加到所述使用场景与手势动作的对应关系中。
进一步地,上述方法还可具有以下特点,所述感应信息包括转动角速度信息、距离信息、指纹信息中的任意一种或多种,所述触摸感应信息包括手指坐标信息和/或压力信息。
进一步地,上述方法还可具有以下特点,所述移动设备为手机。
本发明实施例的人机交互方法,能够主动“理解”用户的操作意图,快速、准确的给出响应,使移动设备更智能、更人性,提升了用户体验。
为实现上述目的,本发明还提出了一种人机交互装置,包括:
接收模块,用于接收移动设备对用户动作的感应信息,所述感应信息包括位于所述移动设备边框的触摸传感器生成的触摸感应信息;
分析模块,用于分析所述接收模块接收的感应信息,获知用户的当前手势动作;
匹配模块,用于从保存的使用场景与手势动作的对应关系中,查找与所述分析模块获知的当前手势动作匹配的使用场景;
服务模块,用于提供所述匹配模块查找到的使用场景对应的服务。
进一步地,上述装置还可具有以下特点,还包括:
记录模块,用于在保存的使用场景与手势动作的对应关系中未查找到与所述当前手势动作匹配的使用场景时,记录用户在所述当前手势动作下主动启用的使用场景;
添加模块,用于将所述主动启用的使用场景与所述当前手势动作绑定为一组对应关系,添加到所述使用场景与手势动作的对应关系中。
进一步地,上述装置还可具有以下特点,所述感应信息包括转动角速度信息、距离信息、指纹信息中的任意一种或多种,所述触摸感应信息包括手指坐标信息和/或压力信息。
进一步地,上述装置还可具有以下特点,所述移动设备为手机。
本发明实施例的人机交互装置,能够主动“理解”用户的操作意图,快速、准确的给出响应,使移动设备更智能、更人性,提升了用户体验。
为实现上述目的,本发明还提出了一种移动设备,包括位于所述移动设备边框的触摸传感器和前述任一项所述的人机交互装置,其中:
所述触摸传感器,用于感应用户的触摸,产生触摸感应信息,并将所述触摸感应信息发送给所述人机交互装置;
所述人机交互装置,用于接收移动设备对用户动作的感应信息,并根据所述感应信息提供相应的服务,所述感应信息包括所述触摸感应信息。
进一步地,上述移动设备还可具有以下特点,所述移动设备为手机。
本发明实施例的移动设备,能够主动“理解”用户的操作意图,快速、准确的给出响应,使移动设备更智能、更人性,提升了用户体验。
附图说明
图1为本发明实施例一中人机交互方法的流程图。
图2为本发明实施例二中人机交互方法的流程图。
图3为本发明实施例三中人机交互装置的结构框图。
图4为本发明实施例四中人机交互装置的结构框图。
图5为本发明实施例五中移动设备的结构框图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实施例只用于解释本发明,并非用于限定本发明的范围。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,根据本发明精神所获得的所有实施例,都属于本发明的保护范围。
图1为本发明实施例一中人机交互方法的流程图。如图1所示,本实施例中,人机交互方法可以包括如下步骤:
步骤S101,接收移动设备对用户动作的感应信息,其中,该感应信息包括位于该移动设备边框的触摸传感器生成的触摸感应信息;
需要说明的是,这里的用户是指移动设备的用户,也即移动设备使用者。
其中,移动设备可以是手机,也可以是可单手操作的其他智能设备。该移动设备中设置有陀螺仪、指纹传感器、距离传感器以及位于该移动设备边框的触摸传感器。
其中,感应信息可以包括转动角速度信息、距离信息、指纹信息等之中的任意一种或多种,触摸感应信息可以包括手指坐标信息和压力信息这两者之一或者全部。其中,转动角速度信息由陀螺仪产生,指纹信息由指纹传感器生成,距离信息由距离传感器生成。
触摸感应信息由位于移动设备边框的触摸传感器生成。移动设备的四个边框上都可以设置有触摸传感器。该触摸传感器能够感知用户手指的触摸,生成手指坐标信息、压力信息等。
基于触摸传感器生成的信息以及移动设备对用户动作的其他感应信息,可以分析出用户的当前手势动作。
步骤S102,分析步骤S101中接收的感应信息,获知用户的当前手势动作;
用户的每个手势动作通常会对应移动设备产生的一些相对固定的感应信息。例如,用户单手拿手机走路时,手机的边框会生成手指坐标信息(由位于手机边框的触摸传感器生成),同时由于走路时手机晃动,手机中的陀螺仪会感知到手机摆动,从而产生转动角速度信息。因此,如果接收到的感应信息为“转动角速度信息+手指坐标信息”,那么就可以知道对应的用户手势动作为单手拿手机走路。
步骤S103,从保存的使用场景与手势动作的对应关系中,查找与当前手势动作匹配的使用场景;
使用场景与手势动作的对应关系是预先设置在移动设备中的。仍以上述的用户单手拿手机走路示例为例。在手机中预置的使用场景与手势动作的对应关系中,单手拿手机走路这个手势动作对应的使用场景就是走路。
步骤S104,提供查找到的使用场景对应的服务。
例如,如果使用场景“走路”对应的服务为使手机进入深度睡眠。因此当查找到的使用场景为走路时,本发明就使手机自动进入深度睡眠,以减少手机的电量消耗,而不需要用户通过手动设置来使手机进入深度睡眠。
下面通过具体应用示例来对本发明的人机交互方法作进一步详细说明。
示例一
当用户用两只手拿手机时,手机接收到的感应信息包括手机边框产生的手指坐标信息、压力信息,以及手机中距离传感器产生的距离信息(手机从有遮挡到无遮挡)和指纹传感器产生的指纹信息;
通过分析上述感应信息,获知用户的当前手势动作为两只手拿手机;
从保存的使用场景与手势动作的对应关系中,查找与两只手拿手机这一手势动作匹配的使用场景为抓拍;
抓拍对应的服务是开启照相机,因此,在查找到使用场景为抓拍后,就自动开启照相机,使手机处于能够抓拍的状态。
可见,通过本发明的人机交互方法,用户只需要做出两只手拿手机的动作,就可以自动切换到照相机的拍照模式下,不需要查找照相机图标、点击照相机图标开启拍照功能这些中间过程,简化了用户的操作,提升了用户体验。这得益于本发明的人机交互方法能够主动“理解”用户意图的特点。
示例二
当用户用大姆指在手机边框上下滑动时,接收来自手机边框的压力信息(由触摸传感器产生)、手指加速度信息(由陀螺仪产生)、手指指纹信息(由指纹传感器产生);
通过分析该触摸感应信息,获知用户的当前手势动作为大姆指在手机边框上下滑动;
从保存的使用场景与手势动作的对应关系中,查找与大姆指在手机边框上下滑动这一手势动作匹配的使用场景为浏览手机屏幕上的内容;
提供浏览手机屏幕上的内容这一功能对应的服务,即根据大姆指在手机边框的上下滑动上下滚动手机屏幕上的内容。
在本示例中,用户不用将手指移到屏幕上,就能使手机屏幕上的内容上下滚动,从而浏览手机屏幕上的内容,避免了因手指遮挡屏幕造成的不便。
本发明实施例的人机交互方法,能够主动“理解”用户的操作意图,快速、准确的给出响应,将移动设备快速切换到用户想要的使用场景模式下,使移动设备更人性、更智能。并且,本发明实施例的人机交互方法,将目前许多只能够在触控屏或实体按键上完成的操作,在移动设备边框上就能完成,不遮挡屏幕,不需要大幅度移动手指,从而能够大大提升用户体验。
图2为本发明实施例二中人机交互方法的流程图。如图2所示,本实施例中,人机交互方法可以包括如下步骤:
步骤S201,接收移动设备对用户动作的感应信息,其中,该感应信息包括位于该移动设备边框的触摸传感器生成的触摸感应信息;
步骤S202,分析感应信息,获知用户的当前手势动作;
步骤S203,判断保存的使用场景与手势动作的对应关系中是否有与当前手势动作匹配的使用场景,如果有则执行步骤204,否则执行步骤206;
步骤S204,从保存的使用场景与手势动作的对应关系中,查找与当前手势动作匹配的使用场景;
步骤S205,提供查找到的使用场景对应的服务,结束;
步骤S206,记录用户在当前手势动作下主动启用的使用场景;
步骤S207,将主动启用的使用场景与当前手势动作绑定为一组对应关系,添加到使用场景与手势动作的对应关系中,结束。
通过步骤S207,可以记录下用户习惯手势与在该习惯手势下启用的使用场景,在下次使用时,当用户做出该习惯手势,手机就可以自动启动对应的使用场景,而不再需要用户主动去启动该使用场景。
本发明实施例的人机交互方法,能够主动“理解”用户的操作意图,快速、准确的给出响应,将移动设备快速切换到用户想要的使用场景模式下,使移动设备更人性、更智能;将目前许多只能够在触控屏或实体按键上完成的操作,在移动设备边框上就能完成,不遮挡屏幕,不需要大幅度移动手指,从而能够大大提升用户体验。并且,本发明实施例的人机交互方法,能够建立用户习惯手势与使用场景的对应关系,使得在下一次使用时根据用户习惯手势就切换到相应的使用场景模式下,实现符合用户个人习惯的个性化操作,提高用户满意度。
图3为本发明实施例三中人机交互装置的结构框图。图3所示实施例的人机交互装置可以用于实施图1所示实施例的人机交互方法。
如图3所示,本实施例中,人机交互装置300可以包括接收模块310、分析模块320、匹配模块330和服务模块340。其中,接收模块310用于接收移动设备对用户动作的感应信息,该感应信息包括位于移动设备边框的触摸传感器生成的触摸感应信息。分析模块320用于分析接收模块310接收的感应信息,获知用户的当前手势动作。匹配模块330用于从保存的使用场景与手势动作的对应关系中,查找与分析模块320获知的当前手势动作匹配的使用场景。服务模块340用于提供匹配模块330查找到的使用场景对应的服务。
其中,移动设备可以是手机,也可以是可单手操作的其他智能设备。
其中,感应信息可以包括转动角速度信息、距离信息、指纹信息等之中的任意一种或多种,触摸感应信息可以包括手指坐标信息和压力信息这两者之一或者全部。
本发明实施例的人机交互装置,能够主动“理解”用户的操作意图,快速、准确的给出响应,将移动设备快速切换到用户想要的使用场景模式下,使移动设备更人性、更智能。并且,本发明实施例的人机交互方法,将目前许多只能够在触控屏或实体按键上完成的操作,在移动设备边框上就能完成,不遮挡屏幕,不需要大幅度移动手指,从而能够大大提升用户体验。
图4为本发明实施例四中人机交互装置的结构框图。图4所示实施例的人机交互装置可以用于实施图2所示实施例的人机交互方法。
如图4所示,本实施例中,人机交互装置300可以包括接收模块310、分析模块320、匹配模块330、服务模块340、记录模块350和添加模块360。其中,接收模块310、分析模块320、匹配模块330、服务模块340的功能与前述图3所示实施例中相应模块的功能相同,此处不再赘述。记录模块350用于在保存的使用场景与手势动作的对应关系中未查找到与分析模块320获知的当前手势动作匹配的使用场景时,记录用户在该当前手势动作下主动启用的使用场景。添加模块360用于将记录模块350记录的用户主动启用的使用场景与该当前手势动作绑定为一组对应关系,添加到使用场景与手势动作的对应关系中。
其中,感应信息可以包括转动角速度信息、距离信息、指纹信息等之中的任意一种或多种,触摸感应信息可以包括手指坐标信息和压力信息这两者之一或者全部。
其中,移动设备可以是手机,也可以是可单手操作的其他智能设备。
本发明实施例的人机交互装置,能够主动“理解”用户的操作意图,快速、准确的给出响应,将移动设备快速切换到用户想要的使用场景模式下,使移动设备更人性、更智能;将目前许多只能够在触控屏或实体按键上完成的操作,在移动设备边框上就能完成,不遮挡屏幕,不需要大幅度移动手指,从而能够大大提升用户体验。并且,本发明实施例的人机交互装置,能够建立用户习惯手势与使用场景的对应关系,使得在下一次使用时根据用户习惯手势就切换到相应的使用场景模式下,实现符合用户个人习惯的个性化操作,提高用户满意度。
图5为本发明实施例五中移动设备的结构框图。如图5所示,本实施例中,移动设备500包括位于移动设备边框的触摸传感器400和人机交互装置300。其中,人机交互装置300可以是本发明前述实施例中的任一种人机交互装置。触摸传感器400用于感应用户的触摸,产生触摸感应信息,并将该触摸感应信息发送给人机交互装置300。人机交互装置300用于接收移动设备对用户动作的感应信息,并根据该感应信息提供相应的服务,该感应信息包括触摸传感器400产生的触摸感应信息。
更具体地,人机交互装置300可以用于接收移动设备边框的触摸感应信息,其中,触摸感应信息由位于移动设备边框处的触摸传感器400生成;分析接收的触摸感应信息,获知用户的当前手势动作;从保存的使用场景与手势动作的对应关系中,查找与该当前手势动作匹配的使用场景;提供查找到的使用场景对应的服务。
其中,移动设备可以为手机,也可以是可单手操作的其他智能设备。
本发明实施例的移动设备,能够主动“理解”用户的操作意图,快速、准确的给出响应,将移动设备快速切换到用户想要的使用场景模式下,使移动设备更人性、更智能。并且,本发明实施例的移动设备,将目前许多只能够在触控屏或实体按键上完成的操作,在移动设备边框上就能完成,不遮挡屏幕,不需要大幅度移动手指,从而能够大大提升用户体验。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人机交互方法,其特征在于,包括:
接收移动设备对用户动作的感应信息,所述感应信息包括位于所述移动设备边框的触摸传感器生成的触摸感应信息;
分析所述感应信息,获知用户的当前手势动作;
从保存的使用场景与手势动作的对应关系中,查找与所述当前手势动作匹配的使用场景;
提供查找到的使用场景对应的服务。
2.根据权利要求1所述的人机交互方法,其特征在于,还包括:
在保存的使用场景与手势动作的对应关系中未查找到与所述当前手势动作匹配的使用场景时,记录用户在所述当前手势动作下主动启用的使用场景;
将所述主动启用的使用场景与所述当前手势动作绑定为一组对应关系,添加到所述使用场景与手势动作的对应关系中。
3.根据权利要求1所述的人机交互方法,其特征在于,所述感应信息包括转动角速度信息、距离信息、指纹信息中的任意一种或多种,所述触摸感应信息包括手指坐标信息和/或压力信息。
4.根据权利要求1所述的人机交互方法,其特征在于,所述移动设备为手机。
5.一种人机交互装置,其特征在于,包括:
接收模块,用于接收移动设备对用户动作的感应信息,所述感应信息包括位于所述移动设备边框的触摸传感器生成的触摸感应信息;
分析模块,用于分析所述接收模块接收的感应信息,获知用户的当前手势动作;
匹配模块,用于从保存的使用场景与手势动作的对应关系中,查找与所述分析模块获知的当前手势动作匹配的使用场景;
服务模块,用于提供所述匹配模块查找到的使用场景对应的服务。
6.根据权利要求5所述的人机交互装置,其特征在于,还包括:
记录模块,用于在保存的使用场景与手势动作的对应关系中未查找到与所述当前手势动作匹配的使用场景时,记录用户在所述当前手势动作下主动启用的使用场景;
添加模块,用于将所述主动启用的使用场景与所述当前手势动作绑定为一组对应关系,添加到所述使用场景与手势动作的对应关系中。
7.根据权利要求5所述的人机交互装置,其特征在于,所述感应信息包括转动角速度信息、距离信息、指纹信息中的任意一种或多种,所述触摸感应信息包括手指坐标信息和/或压力信息。
8.根据权利要求5所述的人机交互装置,其特征在于,所述移动设备为手机。
9.一种移动设备,其特征在于,包括位于所述移动设备边框的触摸传感器和权利要求5至8任一项所述的人机交互装置,其中:
所述触摸传感器,用于感应用户的触摸,产生触摸感应信息,并将所述触摸感应信息发送给所述人机交互装置;
所述人机交互装置,用于接收移动设备对用户动作的感应信息,并根据所述感应信息提供相应的服务,所述感应信息包括所述触摸感应信息。
10.根据权利要求9所述的移动设备,其特征在于,所述移动设备为手机。
CN201510920862.0A 2015-12-11 2015-12-11 人机交互方法及装置、移动设备 Pending CN105892881A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510920862.0A CN105892881A (zh) 2015-12-11 2015-12-11 人机交互方法及装置、移动设备
PCT/CN2016/096771 WO2017096958A1 (zh) 2015-12-11 2016-08-25 人机交互方法及装置、移动设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510920862.0A CN105892881A (zh) 2015-12-11 2015-12-11 人机交互方法及装置、移动设备

Publications (1)

Publication Number Publication Date
CN105892881A true CN105892881A (zh) 2016-08-24

Family

ID=57002645

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510920862.0A Pending CN105892881A (zh) 2015-12-11 2015-12-11 人机交互方法及装置、移动设备

Country Status (2)

Country Link
CN (1) CN105892881A (zh)
WO (1) WO2017096958A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354415A (zh) * 2016-10-08 2017-01-25 努比亚技术有限公司 终端及其识别用户手势的方法
CN106484192A (zh) * 2016-11-30 2017-03-08 上海创功通讯技术有限公司 压感屏的控制方法及装置
CN106569714A (zh) * 2016-10-31 2017-04-19 努比亚技术有限公司 移动终端及触摸操作处理方法
WO2017096958A1 (zh) * 2015-12-11 2017-06-15 乐视控股(北京)有限公司 人机交互方法及装置、移动设备
CN107124509A (zh) * 2017-04-25 2017-09-01 重庆市创锦程科技有限公司 一种基于微型机器人的智能手机控制***及其控制方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112131173A (zh) * 2019-06-24 2020-12-25 北京迪文科技有限公司 一种提供多种人机交互开发模式的智能装置及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102810049A (zh) * 2012-07-17 2012-12-05 华为终端有限公司 一种应用程序切换方法、装置及触摸屏电子设备
CN104238916A (zh) * 2014-09-16 2014-12-24 广东欧珀移动通信有限公司 一种移动终端启动应用或应用功能的方法及移动终端
US9082117B2 (en) * 2008-05-17 2015-07-14 David H. Chin Gesture based authentication for wireless payment by a mobile electronic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354271A (zh) * 2011-09-16 2012-02-15 华为终端有限公司 手势输入方法及移动终端、主机
CN104866352A (zh) * 2015-05-27 2015-08-26 努比亚技术有限公司 一种启动应用程序的方法及移动终端
CN105892881A (zh) * 2015-12-11 2016-08-24 乐视移动智能信息技术(北京)有限公司 人机交互方法及装置、移动设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082117B2 (en) * 2008-05-17 2015-07-14 David H. Chin Gesture based authentication for wireless payment by a mobile electronic device
CN102810049A (zh) * 2012-07-17 2012-12-05 华为终端有限公司 一种应用程序切换方法、装置及触摸屏电子设备
CN104238916A (zh) * 2014-09-16 2014-12-24 广东欧珀移动通信有限公司 一种移动终端启动应用或应用功能的方法及移动终端

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017096958A1 (zh) * 2015-12-11 2017-06-15 乐视控股(北京)有限公司 人机交互方法及装置、移动设备
CN106354415A (zh) * 2016-10-08 2017-01-25 努比亚技术有限公司 终端及其识别用户手势的方法
CN106354415B (zh) * 2016-10-08 2020-05-26 瑞安市辉煌网络科技有限公司 终端及其识别用户手势的方法
CN106569714A (zh) * 2016-10-31 2017-04-19 努比亚技术有限公司 移动终端及触摸操作处理方法
CN106484192A (zh) * 2016-11-30 2017-03-08 上海创功通讯技术有限公司 压感屏的控制方法及装置
CN106484192B (zh) * 2016-11-30 2019-08-06 上海创功通讯技术有限公司 压感屏的控制方法及装置
CN107124509A (zh) * 2017-04-25 2017-09-01 重庆市创锦程科技有限公司 一种基于微型机器人的智能手机控制***及其控制方法

Also Published As

Publication number Publication date
WO2017096958A1 (zh) 2017-06-15

Similar Documents

Publication Publication Date Title
CN113132618B (zh) 辅助拍照方法、装置、终端设备及存储介质
CN105892881A (zh) 人机交互方法及装置、移动设备
CN104423581B (zh) 移动终端及其控制方法
CN105425941B (zh) 一种防止误启动移动终端中应用程序的方法及装置
CN104536684B (zh) 界面显示方法及装置
CN105517112A (zh) 显示WiFi网络信息的方法和装置
CN104090721A (zh) 终端控制方法和装置
CN108415643B (zh) 一种图标显示方法及终端
CN107688385A (zh) 一种控制方法及装置
CN107422977A (zh) 触发操作处理方法、装置以及计算机可读存储介质
CN110795007A (zh) 一种获取截图信息的方法及装置
CN104036240A (zh) 人脸特征点的定位方法和装置
CN109544445B (zh) 一种图像处理方法、装置及移动终端
CN105872360A (zh) 一种照相机控制方法、装置及移动设备
CN107704190A (zh) 手势识别方法、装置、终端及存储介质
CN106168877A (zh) 进入单手模式的方法及装置
WO2023016372A1 (zh) 控制方法、装置、电子设备和存储介质
CN109947243B (zh) 基于触摸手检测的智能电子设备手势捕获与识别技术
CN105513098B (zh) 一种图像处理的方法和装置
CN103543825A (zh) 摄像机光标***
KR101537624B1 (ko) 이동단말기 및 그 제어방법
CN109284060A (zh) 显示控制方法及相关装置
CN110519517B (zh) 临摹引导方法、电子设备及计算机可读存储介质
CN109993059B (zh) 智能电子设备上基于单摄像头的双目视觉与物体识别技术
CN109960406B (zh) 基于双手手指之间动作的智能电子设备手势捕获与识别技术

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160824