CN105843404A - 基于读屏应用指令输入方法及装置 - Google Patents

基于读屏应用指令输入方法及装置 Download PDF

Info

Publication number
CN105843404A
CN105843404A CN201610321272.0A CN201610321272A CN105843404A CN 105843404 A CN105843404 A CN 105843404A CN 201610321272 A CN201610321272 A CN 201610321272A CN 105843404 A CN105843404 A CN 105843404A
Authority
CN
China
Prior art keywords
gesture
reading
user
reading screen
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610321272.0A
Other languages
English (en)
Inventor
梁振宇
张昆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Liandi Information Accessibility Co Ltd
Original Assignee
Shenzhen Liandi Information Accessibility Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Liandi Information Accessibility Co Ltd filed Critical Shenzhen Liandi Information Accessibility Co Ltd
Priority to CN201610321272.0A priority Critical patent/CN105843404A/zh
Publication of CN105843404A publication Critical patent/CN105843404A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种读屏应用指令输入方法,包括:获取用户输入的感应操作,获取所述感应操作的特征数据;在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势;确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。另外,本发明实施例还公开了一种读屏应用指令输入装置。采用本发明,可提高读屏应用的指令输入的操作便利性。

Description

基于读屏应用指令输入方法及装置
技术领域
本发明涉及人机交互技术领域,尤其涉及一种读屏应用指令输入方法及装置。
背景技术
随着智能手机、个人电脑等计算机设备的快速普及,各种移动互联网应用也层出不穷,越来越多的用户能够真实感受到移动互联技术带来的生活便利和无线乐趣;但是,社会中还有一部分特殊群体也需要使用智能手机等计算机设备,那就是有一定功能障碍的人群,例如视障人群,尤其是全盲的视障群体,完全是靠耳朵听取声音来操作计算机。
在使用智能手机、平板电脑、个人电脑等终端设备的辅助操作功能(包括但不限于Voiceover、Talkback等读屏软件和其他类似功能的应用)时,用户界面元素及其功能会被提取出来并通过TTS(Text to Speech,文字转语音技术)把所选择的文字用语音播放出来,以帮助用户了解手机屏幕当前显示的内容;并且,用户可以通过在触摸屏上进行点击、滑动等操作,对终端进行操作,给用户带来了更全面更丰富的使用体验,尤其是使得存在一定功能障碍的人群(例如视觉障碍的残障人员、老年人等特殊群体)能够无障碍的使用智能手机等终端设备。
也就是说,用户必须手持智能手机、鼠标等输入设备才能对终端进行操作。以智能手机为例,对于用户来讲,就算有语音的辅助,也需要用户用手指在显示界面上进行多次点击或者滑动操作。另外,若手机不在身边,则无法进行操作,使得用户使用智能手机等终端设备的使用体验不佳。进一步地,对于存在一定功能障碍的人群(例如视觉障碍的残障人员、老年人等特殊群体)来讲,要准确快速的寻找手机也存在一定的问题,这就造成了存在一定功能障碍的人群(例如视觉障碍的残障人员、老年人等特殊群体)在使用手机时操作的便利性不足。
发明内容
基于此,为解决传统技术中的智能手机等终端设备的操作方式存在操作的便利性不足的技术问题,特提出了一种基于读屏应用指令输入方法。
一种基于读屏应用指令输入方法,包括:
获取用户输入的感应操作,获取所述感应操作的特征数据;
在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势;
确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
可选的,在其中一个实施例中,所述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
可选的,在其中一个实施例中,所述执行所述读屏功能操作的步骤之后还包括:
获取所述读屏功能操作的执行结果;
在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;
播放所述语音提示消息。
可选的,在其中一个实施例中,所述在预设的手势数据库中查找与所述特征数据匹配的目标动作/手势的步骤之后还包括:
获取终端的当前显示界面,获取所述当前显示界面的读屏功能选中框;
所述确定与所述目标动作/手势对应的读屏功能操作的步骤具体为:
根据所述当前显示界面的读屏功能选中框确定与所述目标动作/手势对应的读屏功能操作。
可选的,在其中一个实施例中,所述读屏功能操作为音频应用开启操作;
所述执行所述读屏功能操作的步骤具体为:
根据所述音频应用开启操作启动与所述音频应用开启操作对应的音频应用。
可选的,在其中一个实施例中,所述确定与所述目标动作/手势对应的读屏功能操作的步骤具体为:
将所述目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
可选的,在其中一个实施例中,所述获取用户输入的感应操作的步骤之前还包括:
接收用户输入的读屏应用开启指令,所述读屏应用开启指令与所述读屏应用对应,根据所述读屏应用开启指令启动所述读屏应用。
可选的,在其中一个实施例中,所述在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势的步骤之后还包括:
获取用户输入的针对所述目标动作/手势的反馈信息;
获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;
所述方法还包括:
根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;
根据所述更新数据刷新所述预设的动作/手势数据库。
此外,为解决传统技术中的智能手机等终端设备的操作方式存在操作的便利性不足的技术问题,还提出了一种读屏应用指令输入装置。
一种读屏应用指令输入装置,包括:
动作获取模块,用于获取用户输入的感应操作,获取所述感应操作的特征数据;
目标动作/手势查找模块,用于在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势;
操作确定执行模块,确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
可选的,在其中一个实施例中,所述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
可选的,在其中一个实施例中,所述装置还包括语音提示消息播放模块,用于:
获取所述读屏功能操作的执行结果;
在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;
播放所述语音提示消息。
可选的,在其中一个实施例中,所述装置还包括显示界面获取模块,用于获取终端的当前显示界面,获取所述当前显示界面的读屏功能选中框;
所述操作确定执行模块还用于根据所述当前显示界面的读屏功能选中框确定与所述目标动作/手势对应的读屏功能操作。
可选的,在其中一个实施例中,所述读屏功能操作为音频应用开启操作;
所述操作确定执行模块还用于:根据所述音频应用开启操作启动与所述音频应用开启操作对应的音频应用。
可选的,在其中一个实施例中,所述操作确定执行模块还用于:将所述目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
可选的,在其中一个实施例中,所述装置还包括读屏应用开启模块,用于接收用户输入的读屏应用开启指令,所述读屏应用开启指令与所述读屏应用对应,根据所述读屏应用开启指令启动所述读屏应用。
可选的,在其中一个实施例中,所述装置还包括反馈信息获取模块和数据库更新模块,其中:
所述反馈信息获取模块用于:
获取用户输入的针对所述目标动作/手势的反馈信息;
获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;
所述数据库更新模块用于:
根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;
根据所述更新数据刷新所述预设的动作/手势数据库。
实施本发明实施例,将具有如下有益效果:
采用了上述读屏应用指令输入方法及装置之后,用户可以通过对终端输入终端或者与终端连接的其他设备可识别的感应操作对终端进行控制,具体的,根据获取到的用户输入的感应操作确定对应的读屏软件的目标动作/手势,从而确定对应的用户需要输入的操作指令,也就是说,终端根据接收到的数据确定用户需要输入的与读屏应用对应的操作指令完成读屏应用的指令的输入,并由读屏软件将相应的操作指令发送给计算机对应的装置进行执行,实现了通过感应操作向终端的读屏应用输入指令和读屏软件将操作指令的输出,相较于传统技术中用户必须通过终端的实体按键或触控屏输入指令的方案来讲,可提高指令输入的操作便利性;进一步地,上述方案还实现了在用户不手持终端的情况下也可操作终端,对读屏应用发送指令进行相关操作,进一步的提高了用户使用读屏应用的操作便利性;尤其是针对存在一定功能障碍的人群(例如视觉障碍的残障人员、老年人等特殊群体)来讲,其操作便利性的提高尤为明显。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中一种读屏应用指令输入方法的流程示意图;
图2为一个实施例中一种读屏应用指令输入方法的流程示意图;
图3为一个实施例中动作/手势数据库的反馈更新方法的流程示意图;
图4为一个实施例中一种读屏应用指令输入装置的结构示意图;
图5为一个实施例中运行前述读屏应用指令输入方法的计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为解决传统技术中的智能手机等终端设备的操作方式存在操作的便利性不足的技术问题,在本实施例中,特提出了一种读屏应用指令输入方法,该方法的实现可依赖于计算机程序,该计算机程序可运行于基于冯诺依曼体系的计算机***之上,该计算机程序可以是读屏应用程序或屏幕阅读应用程序、与读屏应用或屏幕阅读应用程序关联的与感应操作数据采集的应用程序。该计算机***可以是智能手机、平板电脑、掌上电脑、笔记本电脑或个人电脑等计算机设备。
具体的,终端的读屏应用,有些是用户安装的,有些也可能是原先就内置的:例如基于IOS***的voiceover就是内置的,基于windows***的NVDA就是用户安装的第三方软件。
具体的,如图1所示,上述读屏应用指令输入方法包括如下步骤:
步骤S101:获取用户输入的感应操作,获取所述感应操作的特征数据。
感应操作为用户不直接在终端上进行的操作,该操作可以被终端或者与终端相连的其他感应设备获取,例如可以通过传感器或者其他感应设备获取到的用户动作、声音和/或脑波信号等操作。具体的,在本实施例中,上述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
在一个实施例中,用户可以通过与终端建立了通信连接的可穿戴设备(例如智能手环)输入运动轨迹等运动操作。
本发明实施例中所描述的可穿戴设备可为智能手表、智能手环、智能耳机等便于用户佩戴的设备,在此不做限制。需要说明的是,在本实施例中,可穿戴设备与终端之间可以通过蓝牙、WIFI、有线等方式进行连接并建立通信关系,也就是说,在可穿戴设备与终端之间建立通信连接关系之后,终端与可穿戴设备之间可实现数据的发送和接收。
在该可穿戴设备上安装了运动传感器,用于检测和获取该可穿戴设备的运动操作,例如,运动传感器可谓加速度传感器和/或陀螺仪,加速度传感器可以检测轴向的线性动作,陀螺仪可以检测偏转、倾斜时的转动角速度。例如,可通过三轴加速度传感器检测可穿戴设备在X、Y、Z三个方向上的加速度数据,并通过积分将X、Y、Z三个方向上的加速度数据转换成即时速度,并将即时速度在时间轴上的积分作X、Y、Z上的运动轨迹,然后将三个方向上的运动轨迹叠加在一起,得到可穿戴设备的运动轨迹图。
也就是说,用户可以通过可穿戴设备输入运动操作,并获取该运动操作的运动轨迹数据,通过与终端之间的通信连接关系将相应的运动操作的运动轨迹数据发送给终端。需要说明的是,在本实施例中,用户通过可穿戴设备输入的运动操作包括单不限于晃动、曲线、滑动等操作。
在其他实施例中,用户可以通过与终端建立了通信连接的摄像头输入运动操作。
本实施例所提及的摄像头指的是与终端相连的外部摄像头,例如固定安装在房间某处的摄像头,并且,该摄像头中包含了通讯模块,并且通过该通讯模块与终端之间建立无线通信连接(例如WIFI连接、蓝牙连接以及其他无线通讯连接方式)或者有线通信连接,并通过该通讯连接将采集到的视频数据发送给终端。进一步地,上述摄像头可为单目摄像头,也可为多摄像头,例如,可使用多个摄像头从不同角度采集的视频图像获取对应的深度图、或者获取对应的三维图像。在本步骤中,终端通过摄像头采集到的视频图像之后,对该视频图像进行图像处理,获取该视频图像中的运动操作数据,获取运动操作数据的过程即为图像识别的过程。上述运动操作数据可以是用户的手部动作信息(即手势操作),也可以是用户的肢体动作信息(即动作操作),运动操作数据还可以是其他可以表示与用户对应的运动操作对应的数据或信息。
在一个实施例中,上述图像识别获取运动操作数据的过程可以是:根据视频图像的每一个图像帧,获取每个图像帧中的手部区域或人像区域以及与该区域对应的外部轮廓,通过帧间编码获取手部区域或人像区域以及与该区域对应的外部轮廓在每个图像帧之间的变化,从而获取用户手部的运动轨迹或者肢体动作。在另一个实施例中,上述图像识别获取运动操作数据的过程还可以是,获取视频图像的每一个图像帧,根据预设的手部结构样本,在每个图像帧中确定手部的待测特征点,并根据视频图像中的每个图像帧的手部待测特征点,确定用户双手的动作轨迹/动作名称和/或位置。
在其他实施例中,上述感应操作可以是用户通过红外传感器输入的运动操作。
红外传感器可以是终端内置的装置,也可以是与终端相连的外设的红外传感器。具体的,上述红外传感器包括了红外线信号输出模块和红外图像采集模块,且红外线信号输出模块用于向外发射红外线信号,例如,红外线信号输出模块可以由一个或者多个红外二极管构成;另外,红外图像采集模块用于采集红外视频图像。例如,若红外传感器是与终端相连的外设红外传感器时,该红外传感器包括了通信模块,红外传感器通过通信模块与终端通过WIFI或蓝牙等无线通信方式连接或者有线连接,并且通过上述连接传输数据,例如红外传感器通过上述通信连接向终端发送获取到的红外视频图像。在本步骤中,终端采集到的红外视频图像之后,对该红外视频图像进行图像处理,获取该红外视频图像中的人体动作数据,获取人体动作数据的过程即为图像识别的过程。
具体的,在本实施例中,上述人体动作数据可以是用户的手部动作信息(即手势操作),也可以是用户的肢体动作信息(即动作操作),在其他实施例中,人体动作数据还可以是其他可以表示与用户对应的人体动作对应的数据或信息。
在一个实施例中,上述人体动作数据获取的过程可以是:根据红外视频图像的每一个图像帧,获取每个图像帧中的手部区域或人像区域以及与该区域对应的外部轮廓,该外部轮廓可以根据红外视频图像的图像中的热成像获取,通过帧间编码获取手部区域或人像区域以及与该区域对应的外部轮廓在每个图像帧之间的变化,从而获取用户手部的运动轨迹或者肢体动作。在另一个实施例中,上述人体动作数据获取的过程还可以是,获取红外视频图像的每一个图像帧,根据预设的手部结构样本,在每个图像帧中确定手部的待测特征点,并根据红外视频图像中的每个图像帧的手部待测特征点,确定用户双手的动作轨迹/动作名称和/或位置。
在其他实施例中,上述感应操作可以是用户通过麦克风输入的声音控制操作。
在本实施例中,音频数据的采集可以是通过麦克风实现的,也可以通过其他声音采集装置实现的,并且,上述麦克风等声音采集装置可以是终端内置的,也可以外设的与终端之间相连的外部设备,并且可以与终端之间进行通信数据的传输,例如,该外部设备可以向终端发送采集到的音频数据。
需要说明的是,在本实施例中,上述麦克凤或者其他声音采集装置可以是安装在终端上的(例如终端内置的麦克风),也可以是与终端通过无线或者有线方式连接的麦克风或者其他声音采集装置,例如,可以是与终端通过WiFi、蓝牙或者其他无线通信连接方式连接的麦克风,并且,该麦克风可以将采集到的音频数据发送给终端,以使终端接收到该麦克风发送的音频数据。
在其他实施例中,上述感应操作还可以是通过脑电波传感器输入的脑电波信号操作
本实施例所提及的脑电波传感器指的是与终端相连的外部脑电波传感器,例如可穿戴的脑电波传感器,并且,在该脑电波传感器中包含了通信模块,并且通过该通信模块与终端之间建立通信连接。具体的,在该脑电波传感器与终端之间是通过无线通信的方式进行连接的情况下,脑电波传感器包含的通信模块为无线通信模块,并且通过该无线通讯模块与终端之间建立无线通信连接(例如WIFI连接、蓝牙连接以及其他无线通讯连接方式),并通过该无线通讯连接将采集到的脑波信号数据发送给终端。在上述脑电波传感器与终端之间是通过有线通信的方式连接的情况下,脑电波传感器包含的通信模块为有线通信模块,并且通过该有线通讯模块与终端之间建立有线通信连接,并通过该有线通讯连接将采集到的脑波信号数据发送给终端。
一般来讲,脑电波传感器可以是可穿戴的头盔、头箍等形式的智能可穿戴设备,其脑波信号采集的感应区域为大脑前额皮质区。针对用户的脑波信号,脑电波传感器将感应到的脑波信号通过预设的途径发送给终端,在本实施例中,终端即为与该脑电波传感器建立了通信连接的终端设备。
在其他实施例中,上述感应操作还可以是通过声呐装置输入的运动操作。
声呐,即Sound Navigation And Ranging(SONAR),声音导航与测距,是一种利用声波的传播特性,通过电声转换和信息处理,完成探测和通讯任务的电子设备。它有主动式和被动式两种类型,属于声学定位的范畴。
在本实施例中所提及的声呐装置可以是终端内置的声呐装置,该声呐装置包括了麦克风和扬声器,扬声器用于向外发送超声波,麦克风用于接收声波。在其他实施例中,上述声呐装置还可以是外设的声呐装置,例如,安装在房间某处的声呐装置,该声呐装置通过有线或者WiFi、蓝牙等无线连接方式与终端相连,并可以通过上述连接实现与终端之间的通信,也就是说,声呐装置和终端之间能相互传输数据。
声呐装置在采集到距离信息和位置信息之后,根据采集到的距离信息和位置信息,确定对应的用户输入的感应操作。具体的,在任意时刻,根据声呐装置采集到的距离信息和位置信息,可以确定在预设区域或者预设平面上的物体的分布信息,然后根据声呐装置持续采集的位置信息和距离信息,就可以确定在一段时间内预设区域或者预设平面上的物体变化的信息。例如,在声呐装置采集的为某个特定平面上的距离和位置信息时,可以确定在该平面区域上的物体变化的轨迹,例如,可以确定用户在该平面上输入的滑动轨迹。再例如,在声呐装置采集的其覆盖范围之内的空间之内的位置信息和距离信息时,可以确定在该控件区域内的人体运动信息。上述用户在该平面上输入的滑动轨迹以及在该控件区域内的人体运动信息即为用户输入的运动操作。
在获取到用户输入的感应操作之后,需要对获取到的感应操作进行特征提取,即,获取所述感应操作的特征数据。在本实施例中,不同的感应操作,其对应的特征数据不同。例如,在感应操作为运动操作时,获取的特征数据可以是但不限于该感应操作运动轨迹、运动时长、轨迹长度、敲击频率、和/或动作幅度等;在例如,在感应操作为脑电波信号操作时,获取的特征数据可以是脑电波信号的脑波类型、频率、电位等等特征数据。也就是说,可以根据感应操作的具体类型和用户的需求进行设置,设定在本步骤中需要进行提取的感应操作的特征数据。
步骤S102:在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势。
在本实施例中,读屏应用可识别的动作/手势包括但不限于左划、右划、上下滑动、双击、单击等,用户可根据需要设置多个动作/手势,例如双指缩放。
动作/手势数据库是读屏应用中预设的操作动作/手势,也就是说,当检测到与动作/手势数据库中的操作动作/手势匹配的操作动作/手势时,即可将该操作动作/手势判定为有效动作/手势,否则判定为无效操作动作/手势。
在本实施例中,需预先设定动作/手势数据库中的动作/手势与输入的感应操作之间的对应关系,也即设定动作/手势数据库中的动作/手势与通过可穿戴设备输入的感应操作的特征数据之间的对应关系。在上述对应关系建立之后,可通过该对应关系在预设的动作/手势数据库中查找与特征数据对应的目标动作/手势,即与用户输入的感应操作对应的目标动作/手势。
需要说明的是,在本实施例中,在目标动作/手势与特征数据的匹配关系是根据特征数据确定的,例如,在特征数据是特征点信息时,上述匹配关系可以是与目标动作/手势对应的预设轨迹上的特征点与运动轨迹数据上的特征点的匹配度超过预设值,在其他实施例中,在特征数据是运动轨迹的幅度、长度、时长等信息时,上述匹配关系还可以是运动轨迹的幅度、长度、时长等参数满足与目标动作/手势对应的预设值。
步骤S103:确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
具体实现中,在读屏应用中,每一个动作/手势均对应了一个具体的操作指令,例如,可以设置“单击”对应的选中触摸点所在的按钮/区域并播放与该按钮/区域对应的语音消息,还可以设置“双击”对应打开当前选中框对应的链接/页面。
在本实施例中,目标动作/手势对应的读屏功能操作包括但不限于打开读屏应用、打开某个页面、改变读屏选中框的位置等。并且,目标动作/手势对应的读屏功能操作可以根据预设的对应关系进行确定,例如,当步骤S101中输入的感应操作为晃动两下时,对应的目标动作/手势可以为轻点两下,对应的读屏功能操作为打开当前读屏选中框对应的页面/链接。
可选的,在一个实施例中,在步骤S103之后,针对读屏功能操作的执行结果,用户还可以通过语音播放的形式获知相关的指令执行结果,以便用户在不用查看终端的显示屏幕上的相关内容的情况下,通过声音获知相关的读屏功能操作的执行情况。
具体的,如图2所示,在步骤S103:执行所述读屏功能操作之后,上述方法还包括如下步骤:
步骤S104:获取所述读屏功能操作的执行结果;
步骤S105:在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;
步骤S106:播放所述语音提示消息。
读屏功能操作的执行结果包括了执行成功、执行失败,并且执行成功还包括了该读屏功能指令的具体指令结果,例如,选中了当前显示界面的某个空间或者图片等信息,还例如,移动了当前显示界面上的选中框所在的位置,再例如,打开了一个新的操作页面等。
例如,当读屏功能操作打开了QQ音乐的操作页面时,语音提示消息可以是:QQ音乐已被打开。再例如,当读屏功能操作的执行结果对应的是选中了当前显示界面中的“删除”按钮,则语音提示消息可以是:选中按钮“返回”。
在一个实施例中,可以根据终端的显示界面上的具体内容确定步骤S103中所执行的读屏功能操作的具体内容。
具体的,上述步骤S102:在预设的手势数据库中查找与特征数据匹配的目标动作/手势的步骤之后还包括:获取终端的当前显示界面,获取当前显示界面的读屏功能选中框;并且,步骤S103:确定与目标动作/手势对应的读屏功能操作的步骤具体为:根据当前显示界面的读屏功能选中框确定与目标动作/手势对应的读屏功能操作。
终端的当前显示界面即在终端的显示界面展示的相关内容。读屏功能选中框为显示界面上与读屏应用对应的选中框,一般来讲,在终端的显示界面上的读屏功能选中框的数量为一个,读屏功能选中框可以对应一个按钮,也可以对应一个图标、或者一个控件、或者一段文字、或者一个链接等。
需要说明的是,在本实施例中,若读屏功能选中框对应的是一个可操作的按钮,则针对该读屏功能选中框的操作包括但不限于点击进去、移动选中框、返回上一级目录等;若读屏功能选中框对应的是一段不可操作的文字,则针对该读屏功能选中框的操作可以是移动选中框,却不能是点击进入等操作。因此,针对读屏功能选中框对应的具体内容不同,目标动作/手势对应的操作指令也会随之发生改变。
具体的,根据当前显示界面的读屏功能选中框,确定与目标动作/手势对应的读屏功能操作,并在步骤S103中执行该读屏功能操作。
在另一个实施例中,上述读屏功能操作的具体内容由读屏应用来确定。具体的,上述步骤S103:确定与所述目标动作/手势对应的读屏功能操作具体为:将目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
也就是说,在步骤S102中查找到目标动作/手势之后,将该目标动作/手势发送给读屏应用,读屏应用在接收到该目标动作/手势之后,根据该目标动作/手势在读屏应用的读屏功能操作数据库中,根据操作手势与读屏功能操作之间的对应关系,查找与目标动作/手势对应的读屏功能操作。主要说明的是,在本实施例中,目标动作/手势对应的读屏功能操作是唯一的,且若没有查找到对应的读屏功能操作,则将对应的目标动作/手势判定为无效操作手势。即对于读屏应用来讲,本实施例所公开的内容并不需要改变读屏应用本身的结果,只需要一个对应的目标动作/手势接收的接口即可,通过可穿戴设备输入的相关数据的接收和提取均可由其他应用完成。
在一个实施例中,读屏功能操作为音频应用开启指令;上述步骤S103:执行读屏功能操作的步骤具体为:根据音频应用开启指令启动与音频应用开启指令对应的音频应用。
也就是说,用户可以预先设置音频应用的开启条件,即与音频应用开启指令对应的目标动作/手势以及与目标动作/手势对应的感应操作的特征数据应该满足的要求,或者与音频应用开启指令对应的目标动作/手势与感应操作的特征数据之间的对应关系;从而使得用户可以在任意界面均可以直接开启音频应用,这对于视觉障碍的残障人员来讲,可以更便捷地开启使用频率最高的音频应用,提高了操作的便利性。
在本实施例中,如图2所示,可选的步骤还包括:在步骤S101之前,上述方法还包括步骤S100:接收用户输入的读屏应用开启指令,读屏应用开启指令与读屏应用对应,根据读屏应用开启指令启动读屏应用。
读屏应用开启指令即为与终端中安装的读屏应用对应的应用开启指令,对于视觉障碍的残障人员来讲,使用手机的第一步就需要开启读屏应用,将手机设置了读屏模式以方便使用。用户可预先设置读屏应用开启指令的具体操作或者***也可以进行相关的设定,例如,连续点击Home键3次,当终端检测到用户输入的读屏应用开启指令时,根据检测到的读屏应用开启指令启动读屏应用,将终端设置为读屏模式。
可选的,在一个实施例中,还可以根据用户每次输入的感应操作对数据库进行矫正,也就是说,根据用户每次输入的感应操作和用户的输入习惯,建立与用户对应的个性化动作/手势数据库,使得用户在下一次输入操作的过程中,与样本数据库的比对更为快速和精准。
具体的,如图3所示,所述在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势的步骤之后,上述方法还包括如下步骤:
步骤S2011:获取用户输入的针对所述目标动作/手势的反馈信息;
步骤S2012:获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;
步骤S202:根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;
步骤S203:根据所述更新数据刷新所述预设的动作/手势数据库。
反馈信息包括了目标动作/手势的查找结果不符合用户预期时用户在相应的反馈页面输入的反馈信息,还包括了用户输入的运动操作的具体的操作参数与预设的动作/手势数据库中的样本参数之间的匹配程度确定的用户输入习惯的反馈信息,也就是说,反馈信息可以是用户手动反馈的,也可以终端根据用户的操作习惯确定的。
在反馈信息获取到之后,根据反馈信息的具体内容,对预设的动作/手势数据库中的样本参数、以及样本参数与操作参数之间的对应关系进行修正,然后更新动作/手势数据库,以便下一次用户输入相应操作时使用的动作/手势数据库为更新后的数据库。
此外,为解决传统技术中的智能手机等终端设备的操作方式对于视觉障碍的残障人士来讲存在操作的便利性不足的技术问题,在一个实施例中,还提出了一种读屏应用指令输入装置,如图4所示,上述装置包括动作获取模块101、目标动作/手势查找模块102、操作确定执行模块103;其中:
动作获取模块101,用于获取用户输入的感应操作,获取所述感应操作的特征数据。
感应操作为用户不直接在终端上进行的操作,该操作可以被终端或者与终端相连的其他感应设备获取,例如可以通过传感器或者其他感应设备获取到的用户动作、声音和/或脑波信号等操作。具体的,在本实施例中,上述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
在一个实施例中,用户可以通过与终端建立了通信连接的可穿戴设备(例如智能手环)输入运动轨迹等运动操作。
本发明实施例中所描述的可穿戴设备可为智能手表、智能手环、智能耳机等便于用户佩戴的设备,在此不做限制。需要说明的是,在本实施例中,可穿戴设备与终端之间可以通过蓝牙、WIFI、有线等方式进行连接并建立通信关系,也就是说,在可穿戴设备与终端之间建立通信连接关系之后,终端与可穿戴设备之间可实现数据的发送和接收。
在该可穿戴设备上安装了运动传感器,用于检测和获取该可穿戴设备的运动操作,例如,运动传感器可谓加速度传感器和/或陀螺仪,加速度传感器可以检测轴向的线性动作,陀螺仪可以检测偏转、倾斜时的转动角速度。例如,可通过三轴加速度传感器检测可穿戴设备在X、Y、Z三个方向上的加速度数据,并通过积分将X、Y、Z三个方向上的加速度数据转换成即时速度,并将即时速度在时间轴上的积分作X、Y、Z上的运动轨迹,然后将三个方向上的运动轨迹叠加在一起,得到可穿戴设备的运动轨迹图。
也就是说,用户可以通过可穿戴设备输入运动操作,动作获取模块101获取该运动操作的运动轨迹数据,通过与终端之间的通信连接关系将相应的运动操作的运动轨迹数据发送给终端。需要说明的是,在本实施例中,用户通过可穿戴设备输入的运动操作包括单不限于晃动、曲线、滑动等操作。
在其他实施例中,用户可以通过与终端建立了通信连接的摄像头输入运动操作。
本实施例所提及的摄像头指的是与终端相连的外部摄像头,例如固定安装在房间某处的摄像头,并且,该摄像头中包含了通讯模块,并且通过该通讯模块与终端之间建立无线通信连接(例如WIFI连接、蓝牙连接以及其他无线通讯连接方式)或者有线通信连接,并通过该通讯连接将采集到的视频数据发送给终端。进一步地,上述摄像头可为单目摄像头,也可为多摄像头,例如,可使用多个摄像头从不同角度采集的视频图像获取对应的深度图、或者获取对应的三维图像。在本步骤中,终端通过摄像头采集到的视频图像之后,对该视频图像进行图像处理,获取该视频图像中的运动操作数据,获取运动操作数据的过程即为图像识别的过程。上述运动操作数据可以是用户的手部动作信息(即手势操作),也可以是用户的肢体动作信息(即动作操作),运动操作数据还可以是其他可以表示与用户对应的运动操作对应的数据或信息。
在一个实施例中,上述图像识别获取运动操作数据的过程可以是:根据视频图像的每一个图像帧,获取每个图像帧中的手部区域或人像区域以及与该区域对应的外部轮廓,通过帧间编码获取手部区域或人像区域以及与该区域对应的外部轮廓在每个图像帧之间的变化,从而获取用户手部的运动轨迹或者肢体动作。在另一个实施例中,上述图像识别获取运动操作数据的过程还可以是,获取视频图像的每一个图像帧,根据预设的手部结构样本,在每个图像帧中确定手部的待测特征点,并根据视频图像中的每个图像帧的手部待测特征点,确定用户双手的动作轨迹/动作名称和/或位置。
在其他实施例中,上述感应操作可以是用户通过红外传感器输入的运动操作。
红外传感器可以是终端内置的装置,也可以是与终端相连的外设的红外传感器。具体的,上述红外传感器包括了红外线信号输出模块和红外图像采集模块,且红外线信号输出模块用于向外发射红外线信号,例如,红外线信号输出模块可以由一个或者多个红外二极管构成;另外,红外图像采集模块用于采集红外视频图像。例如,若红外传感器是与终端相连的外设红外传感器时,该红外传感器包括了通信模块,红外传感器通过通信模块与终端通过WIFI或蓝牙等无线通信方式连接或者有线连接,并且通过上述连接传输数据,例如红外传感器通过上述通信连接向终端发送获取到的红外视频图像。在本步骤中,终端采集到的红外视频图像之后,对该红外视频图像进行图像处理,获取该红外视频图像中的人体动作数据,获取人体动作数据的过程即为图像识别的过程。
具体的,在本实施例中,上述人体动作数据可以是用户的手部动作信息(即手势操作),也可以是用户的肢体动作信息(即动作操作),在其他实施例中,人体动作数据还可以是其他可以表示与用户对应的人体动作对应的数据或信息。
在一个实施例中,上述人体动作数据获取的过程可以是:根据红外视频图像的每一个图像帧,获取每个图像帧中的手部区域或人像区域以及与该区域对应的外部轮廓,该外部轮廓可以根据红外视频图像的图像中的热成像获取,通过帧间编码获取手部区域或人像区域以及与该区域对应的外部轮廓在每个图像帧之间的变化,从而获取用户手部的运动轨迹或者肢体动作。在另一个实施例中,上述人体动作数据获取的过程还可以是,获取红外视频图像的每一个图像帧,根据预设的手部结构样本,在每个图像帧中确定手部的待测特征点,并根据红外视频图像中的每个图像帧的手部待测特征点,确定用户双手的动作轨迹/动作名称和/或位置。
在其他实施例中,上述感应操作可以是用户通过麦克风输入的声音控制操作。
在本实施例中,音频数据的采集可以是通过麦克风实现的,也可以通过其他声音采集装置实现的,并且,上述麦克风等声音采集装置可以是终端内置的,也可以外设的与终端之间相连的外部设备,并且可以与终端之间进行通信数据的传输,例如,该外部设备可以向终端发送采集到的音频数据。
需要说明的是,在本实施例中,上述麦克凤或者其他声音采集装置可以是安装在终端上的(例如终端内置的麦克风),也可以是与终端通过无线或者有线方式连接的麦克风或者其他声音采集装置,例如,可以是与终端通过WiFi、蓝牙或者其他无线通信连接方式连接的麦克风,并且,该麦克风可以将采集到的音频数据发送给终端,以使终端接收到该麦克风发送的音频数据。
在其他实施例中,上述感应操作还可以是通过脑电波传感器输入的脑电波信号操作
本实施例所提及的脑电波传感器指的是与终端相连的外部脑电波传感器,例如可穿戴的脑电波传感器,并且,在该脑电波传感器中包含了通信模块,并且通过该通信模块与终端之间建立通信连接。具体的,在该脑电波传感器与终端之间是通过无线通信的方式进行连接的情况下,脑电波传感器包含的通信模块为无线通信模块,并且通过该无线通讯模块与终端之间建立无线通信连接(例如WIFI连接、蓝牙连接以及其他无线通讯连接方式),并通过该无线通讯连接将采集到的脑波信号数据发送给终端。在上述脑电波传感器与终端之间是通过有线通信的方式连接的情况下,脑电波传感器包含的通信模块为有线通信模块,并且通过该有线通讯模块与终端之间建立有线通信连接,并通过该有线通讯连接将采集到的脑波信号数据发送给终端。
一般来讲,脑电波传感器可以是可穿戴的头盔、头箍等形式的智能可穿戴设备,其脑波信号采集的感应区域为大脑前额皮质区。针对用户的脑波信号,脑电波传感器将感应到的脑波信号通过预设的途径发送给终端,在本实施例中,终端即为与该脑电波传感器建立了通信连接的终端设备。
在其他实施例中,上述感应操作还可以是通过声呐装置输入的运动操作。
声呐,即Sound Navigation And Ranging(SONAR),声音导航与测距,是一种利用声波的传播特性,通过电声转换和信息处理,完成探测和通讯任务的电子设备。它有主动式和被动式两种类型,属于声学定位的范畴。
在本实施例中所提及的声呐装置可以是终端内置的声呐装置,该声呐装置包括了麦克风和扬声器,扬声器用于向外发送超声波,麦克风用于接收声波。在其他实施例中,上述声呐装置还可以是外设的声呐装置,例如,安装在房间某处的声呐装置,该声呐装置通过有线或者WiFi、蓝牙等无线连接方式与终端相连,并可以通过上述连接实现与终端之间的通信,也就是说,声呐装置和终端之间能相互传输数据。
声呐装置在采集到距离信息和位置信息之后,根据采集到的距离信息和位置信息,确定对应的用户输入的感应操作。具体的,在任意时刻,根据声呐装置采集到的距离信息和位置信息,可以确定在预设区域或者预设平面上的物体的分布信息,然后根据声呐装置持续采集的位置信息和距离信息,就可以确定在一段时间内预设区域或者预设平面上的物体变化的信息。例如,在声呐装置采集的为某个特定平面上的距离和位置信息时,可以确定在该平面区域上的物体变化的轨迹,例如,可以确定用户在该平面上输入的滑动轨迹。再例如,在声呐装置采集的其覆盖范围之内的空间之内的位置信息和距离信息时,可以确定在该控件区域内的人体运动信息。上述用户在该平面上输入的滑动轨迹以及在该控件区域内的人体运动信息即为用户输入的运动操作。
在动作获取模块101获取到用户输入的感应操作之后,需要对获取到的感应操作进行特征提取,即,获取所述感应操作的特征数据。在本实施例中,不同的感应操作,其对应的特征数据不同。例如,在感应操作为运动操作时,动作获取模块101获取的特征数据可以是但不限于该感应操作运动轨迹、运动时长、轨迹长度、敲击频率、和/或动作幅度等;在例如,在感应操作为脑电波信号操作时,获取的特征数据可以是脑电波信号的脑波类型、频率、电位等等特征数据。也就是说,可以根据感应操作的具体类型和用户的需求进行设置,设定在本步骤中需要进行提取的感应操作的特征数据。
目标动作/手势查找模块102,用于在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势。
在本实施例中,读屏应用可识别的动作/手势包括但不限于左划、右划、上下滑动、双击、单击等,用户可根据需要设置多个动作/手势,例如双指缩放。
动作/手势数据库是读屏应用中预设的操作动作/手势,也就是说,当检测到与动作/手势数据库中的操作动作/手势匹配的操作动作/手势时,即可将该操作动作/手势判定为有效动作/手势,否则判定为无效操作动作/手势。
在本实施例中,需预先设定动作/手势数据库中的动作/手势与输入的感应操作之间的对应关系,也即设定动作/手势数据库中的动作/手势与通过可穿戴设备输入的感应操作的特征数据之间的对应关系。在上述对应关系建立之后,可通过该对应关系在预设的动作/手势数据库中查找与特征数据对应的目标动作/手势,即与用户输入的感应操作对应的目标动作/手势。
需要说明的是,在本实施例中,在目标动作/手势与特征数据的匹配关系是根据特征数据确定的,例如,在特征数据是特征点信息时,上述匹配关系可以是与目标动作/手势对应的预设轨迹上的特征点与运动轨迹数据上的特征点的匹配度超过预设值,在其他实施例中,在特征数据是运动轨迹的幅度、长度、时长等信息时,上述匹配关系还可以是运动轨迹的幅度、长度、时长等参数满足与目标动作/手势对应的预设值。
操作确定执行模块103,确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
具体实现中,在读屏应用中,每一个动作/手势均对应了一个具体的操作指令,例如,可以设置“单击”对应的选中触摸点所在的按钮/区域并播放与该按钮/区域对应的语音消息,还可以设置“双击”对应打开当前选中框对应的链接/页面。
在本实施例中,目标动作/手势对应的读屏功能操作包括但不限于打开读屏应用、打开某个页面、改变读屏选中框的位置等。并且,目标动作/手势对应的读屏功能操作可以根据预设的对应关系进行确定,例如,当动作获取模块101获取的感应操作为晃动两下时,对应的目标动作/手势可以为轻点两下,对应的读屏功能操作为打开当前读屏选中框对应的页面/链接。
可选的,在一个实施例中,在操作确定执行模块103执行所述读屏功能操作之后,针对读屏功能操作的执行结果,用户还可以通过语音播放的形式获知相关的指令执行结果,以便用户在不用查看终端的显示屏幕上的相关内容的情况下,通过声音获知相关的读屏功能操作的执行情况。
具体的,如图4所示,所述终端还包括语音提示消息播放模块104,用于:获取所述读屏功能操作的执行结果;在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;播放所述语音提示消息。
读屏功能操作的执行结果包括了执行成功、执行失败,并且执行成功还包括了该读屏功能指令的具体指令结果,例如,选中了当前显示界面的某个空间或者图片等信息,还例如,移动了当前显示界面上的徐中框所在的位置,再例如,打开了一个新的操作页面等。
例如,当读屏功能操作打开了QQ音乐的操作页面时,语音提示消息播放模块104播放的语音提示消息可以是:QQ音乐已被打开。再例如,当读屏功能操作的执行结果对应的是选中了当前显示界面中的“删除”按钮,语音提示消息播放模块104播放的语音提示消息可以是:选中按钮“返回”。
可选的,在一个实施例中,如图4所示,上述终端还包括了显示界面获取模块105,用于获取终端的当前显示界面,获取所述当前显示界面的读屏功能选中框;操作确定执行模块103还用于根据所述当前显示界面的读屏功能选中框确定与所述目标动作/手势对应的读屏功能操作。
终端的当前显示界面即在终端的显示界面展示的相关内容。读屏功能选中框为显示界面上与读屏应用对应的选中框,一般来讲,在终端的显示界面上的读屏功能选中框的数量为一个,读屏功能选中框可以对应一个按钮,也可以对应一个图标、或者一个控件、或者一段文字、或者一个链接等。
需要说明的是,在本实施例中,若读屏功能选中框对应的是一个可操作的按钮,则针对该读屏功能选中框的操作包括但不限于点击进去、移动选中框、返回上一级目录等;若读屏功能选中框对应的是一段不可操作的文字,则针对该读屏功能选中框的操作可以是移动选中框,却不能是点击进入等操作。因此,针对读屏功能选中框对应的具体内容不同,目标动作/手势对应的操作指令也会随之发生改变。
具体的,根据当前显示界面的读屏功能选中框,操作确定执行模块103确定与目标动作/手势对应的读屏功能操作,并执行该读屏功能操作。
可选的,在一个实施例中,上述读屏功能操作为音频应用开启操作;操作确定执行模块103还用于:根据所述音频应用开启操作启动与所述音频应用开启操作对应的音频应用。
也就是说,用户可以预先设置音频应用的开启条件,即与音频应用开启操作对应的目标动作/手势以及与目标动作/手势对应的运动操作的特征数据应该满足的要求,或者与音频应用开启操作对应的目标动作/手势与运动操作的特征数据之间的对应关系;从而使得用户可以在任意界面均可以直接开启音频应用,这对于视觉障碍的残障人员来讲,可以更便捷地开启使用频率最高的音频应用,提高了操作的便利性。
可选的,在一个实施例中,如图4所示,上述终端还包括读屏应用开启模块106,用于接收用户输入的读屏应用开启指令,所述读屏应用开启指令与所述读屏应用对应,根据所述读屏应用开启指令启动所述读屏应用。
读屏应用开启指令即为与终端中安装的读屏应用对应的应用开启指令,对于视觉障碍的残障人员来讲,使用手机的第一步就需要开启读屏应用,将手机设置了读屏模式以方便使用。用户可预先设置读屏应用开启指令的具体操作或者***也可以进行相关的设定,例如,连续点击Home键3次,当读屏应用开启模块106检测到用户输入的读屏应用开启指令时,根据检测到的读屏应用开启指令启动读屏应用,读屏应用开启模块106将终端设置为读屏模式。
在另一个实施例中,上述读屏功能操作的具体内容由读屏应用来确定。具体的,所述操作确定执行模块103还用于:将所述目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
也就是说,在目标动作/手势查找模块102查找到目标动作/手势之后,操作确定执行模块103将该目标动作/手势发送给读屏应用,读屏应用在接收到该目标动作/手势之后,根据该目标动作/手势在读屏应用的读屏功能操作数据库中,根据操作手势与读屏功能操作之间的对应关系,查找与目标动作/手势对应的读屏功能操作。需要说明的是,在本实施例中,目标动作/手势对应的读屏功能操作是唯一的,且若操作确定执行模块103没有查找到对应的读屏功能操作,则将对应的目标动作/手势判定为无效操作手势。即对于读屏应用来讲,本实施例所公开的内容并不需要改变读屏应用本身的结果,只需要一个对应的目标动作/手势接收的接口即可,通过可穿戴设备输入的相关数据的接收和提取均可由其他应用完成。
可选的,在一个实施例中,还可以根据用户每次输入的运动操作对数据库进行矫正,也就是说,根据用户每次输入的运动操作和用户的输入习惯,建立与用户对应的个性化动作/手势数据库,使得用户在下一次输入操作的过程中,与样本数据库的比对更为快速和精准。
具体的,如图4所示,所述终端还包括反馈信息获取模块107和数据库更新模块108,其中:所述反馈信息获取模块107用于:获取用户输入的针对所述目标动作/手势的反馈信息;或获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;所述数据库更新模块108用于:根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;根据所述更新数据刷新所述预设的动作/手势数据库。
反馈信息包括了目标动作/手势的查找结果不符合用户预期时,反馈信息获取模块107获取的用户在相应的反馈页面输入的反馈信息,还包括了反馈信息获取模块107获取的用户输入的运动操作的具体的操作参数与预设的动作/手势数据库中的样本参数之间的匹配程度确定的用户输入习惯的反馈信息,也就是说,反馈信息获取模块107获取的反馈信息可以是用户手动反馈的,也可以终端根据用户的操作习惯确定的。
在反馈信息获取模块107获取到反馈信息之后,根据反馈信息的具体内容,数据库更新模块108对预设的动作/手势数据库中的样本参数、以及样本参数与操作参数之间的对应关系进行修正,然后更新动作/手势数据库,以便下一次用户输入相应操作时使用的动作/手势数据库为更新后的数据库。
实施本发明实施例,将具有如下有益效果:
采用了上述读屏应用指令输入方法及装置之后,用户可以通过对终端输入终端或者与终端连接的其他设备可识别的感应操作对终端进行控制,具体的,根据获取到的用户输入的感应操作确定对应的读屏软件的目标动作/手势,从而确定对应的用户需要输入的操作指令,也就是说,终端根据接收到的数据确定用户需要输入的与读屏应用对应的操作指令完成读屏应用的指令的输入,并由读屏软件将相应的操作指令发送给计算机对应的装置进行执行,实现了通过感应操作向终端的读屏应用输入指令和读屏软件将操作指令的输出,相较于传统技术中用户必须通过终端的实体按键或触控屏输入指令的方案来讲,可提高指令输入的操作便利性;进一步地,上述方案还实现了在用户不手持终端的情况下也可操作终端,对读屏应用发送指令进行相关操作,进一步的提高了用户使用读屏应用的操作便利性;尤其是针对存在一定功能障碍的人群(例如视觉障碍的残障人员、老年人等特殊群体)来讲,其操作便利性的提高尤为明显。
在一个实施例中,如图5所示,图5展示了一种运行上述读屏应用指令输入方法的基于冯诺依曼体系的计算机***的终端。该计算机***可以是与可穿戴设备连接的智能手机、平板电脑、掌上电脑,笔记本电脑或个人电脑等终端设备。具体的,可包括通过***总线连接的外部输入接口1001、处理器1002、存储器1003和输出接口1004。其中,外部输入接口1001可选的可至少包括网络接口10012。存储器1003可包括外存储器10032(例如硬盘、光盘或软盘等)和内存储器10034。输出接口1004可至少包括显示屏10042等设备。
在本实施例中,本方法的运行基于计算机程序,该计算机程序的程序文件存储于前述基于冯诺依曼体系的计算机***的外存储器10032中,在运行时被加载到内存储器10034中,然后被编译为机器码之后传递至处理器1002中执行,从而使得基于冯诺依曼体系的计算机***中形成逻辑上的动作获取模块101、目标动作/手势查找模块102、操作确定执行模块103、语音提示消息播放模块104、显示界面获取模块105、读屏应用开启模块106、反馈信息获取模块107以及数据库更新模块108。且在上述读屏应用指令输入方法执行过程中,输入的参数均通过外部输入接口1001接收,并传递至存储器1003中缓存,然后输入到处理器1002中进行处理,处理的结果数据或缓存于存储器1003中进行后续地处理,或被传递至输出接口1004进行输出。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (16)

1.一种读屏应用指令输入方法,其特征在于,包括:
获取用户输入的感应操作,获取所述感应操作的特征数据;
在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势;
确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
2.根据权利要求1所述的方法,其特征在于,所述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
3.根据权利要求1所述的方法,其特征在于,所述执行所述读屏功能操作的步骤之后还包括:
获取所述读屏功能操作的执行结果;
在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;
播放所述语音提示消息。
4.根据权利要求1所述的方法,其特征在于,所述在预设的手势数据库中查找与所述特征数据匹配的目标动作/手势的步骤之后还包括:
获取终端的当前显示界面,获取所述当前显示界面的读屏功能选中框;
所述确定与所述目标动作/手势对应的读屏功能操作的步骤具体为:
根据所述当前显示界面的读屏功能选中框确定与所述目标动作/手势对应的读屏功能操作。
5.根据权利要求1所述的方法,其特征在于,所述读屏功能操作为音频应用开启操作;
所述执行所述读屏功能操作的步骤具体为:
根据所述音频应用开启操作启动与所述音频应用开启操作对应的音频应用。
6.根据权利要求1所述的方法,其特征在于,所述确定与所述目标动作/手势对应的读屏功能操作的步骤具体为:
将所述目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
7.根据权利要求6所述的方法,其特征在于,所述获取用户输入的感应操作的步骤之前还包括:
接收用户输入的读屏应用开启指令,所述读屏应用开启指令与所述读屏应用对应,根据所述读屏应用开启指令启动所述读屏应用。
8.根据权利要求1至7任一所述的方法,其特征在于,所述在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势的步骤之后还包括:
获取用户输入的针对所述目标动作/手势的反馈信息;
获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;
所述方法还包括:
根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;
根据所述更新数据刷新所述预设的动作/手势数据库。
9.一种读屏应用指令输入装置,其特征在于,包括:
动作获取模块,用于获取用户输入的感应操作,获取所述感应操作的特征数据;
目标动作/手势查找模块,用于在预设的动作/手势数据库中查找与所述特征数据匹配的目标动作/手势;
操作确定执行模块,确定与所述目标动作/手势对应的读屏功能操作,执行所述读屏功能操作。
10.根据权利要求9所述的装置,其特征在于,所述用户输入的感应操作包括通过已连接的可穿戴设备输入的运动操作、通过已连接的摄像头输入的运动操作、通过红外传感器输入的运动操作、通过麦克风输入的声音控制操作、通过脑电波传感器输入的脑电波信号操作和/或通过声呐装置输入的运动操作中的至少一个。
11.根据权利要求9所述的装置,其特征在于,所述装置还包括语音提示消息播放模块,用于:
获取所述读屏功能操作的执行结果;
在所述预设的语音数据库中查找与所述读屏功能操作的执行结果对应的语音提示消息;
播放所述语音提示消息。
12.根据权利要求9所述的装置,其特征在于,所述装置还包括显示界面获取模块,用于获取终端的当前显示界面,获取所述当前显示界面的读屏功能选中框;
所述操作确定执行模块还用于根据所述当前显示界面的读屏功能选中框确定与所述目标动作/手势对应的读屏功能操作。
13.根据权利要求9所述的装置,其特征在于,所述读屏功能操作为音频应用开启操作;
所述操作确定执行模块还用于:根据所述音频应用开启操作启动与所述音频应用开启操作对应的音频应用。
14.根据权利要求9所述的装置,其特征在于,所述操作确定执行模块还用于:将所述目标动作/手势发送给读屏应用,所述读屏应用用于根据所述目标动作/手势在所述预设的读屏功能操作数据库中查找与所述目标动作/手势匹配的读屏功能操作。
15.根据权利要求9所述的装置,其特征在于,所述装置还包括读屏应用开启模块,用于接收用户输入的读屏应用开启指令,所述读屏应用开启指令与所述读屏应用对应,根据所述读屏应用开启指令启动所述读屏应用。
16.根据权利要求9至15任一所述的装置,其特征在于,所述装置还包括反馈信息获取模块和数据库更新模块,其中:
所述反馈信息获取模块用于:
获取用户输入的针对所述目标动作/手势的反馈信息;
获取所述特征数据与所述目标动作/手势的匹配参考值,根据所述匹配参考值生成针对所述目标动作/手势的反馈信息;
所述数据库更新模块用于:
根据所述反馈信息确定所述预设的动作/手势数据库的更新数据;
根据所述更新数据刷新所述预设的动作/手势数据库。
CN201610321272.0A 2016-05-12 2016-05-12 基于读屏应用指令输入方法及装置 Pending CN105843404A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610321272.0A CN105843404A (zh) 2016-05-12 2016-05-12 基于读屏应用指令输入方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610321272.0A CN105843404A (zh) 2016-05-12 2016-05-12 基于读屏应用指令输入方法及装置

Publications (1)

Publication Number Publication Date
CN105843404A true CN105843404A (zh) 2016-08-10

Family

ID=56593512

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610321272.0A Pending CN105843404A (zh) 2016-05-12 2016-05-12 基于读屏应用指令输入方法及装置

Country Status (1)

Country Link
CN (1) CN105843404A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108269460A (zh) * 2018-01-04 2018-07-10 高大山 一种电子屏幕的阅读方法、***及终端设备
CN108354587A (zh) * 2016-05-24 2018-08-03 丽宝大数据股份有限公司 个性化皮肤诊断和皮肤护理

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741952A (zh) * 2009-12-10 2010-06-16 中国科学技术大学 盲人用移动电话交互***及其装置
CN102810023A (zh) * 2011-06-03 2012-12-05 联想(北京)有限公司 识别手势动作的方法及终端设备
CN103092517A (zh) * 2013-01-22 2013-05-08 广东欧珀移动通信有限公司 一种实现通过手势操作快捷打开预设程序的方法和装置
CN103226386A (zh) * 2013-03-13 2013-07-31 广东欧珀移动通信有限公司 一种基于移动终端的手势识别方法及***
CN103593056A (zh) * 2013-11-26 2014-02-19 青岛海信电器股份有限公司 手势数据识别和处理方法、电视机和手势输入设备
CN103809735A (zh) * 2012-11-12 2014-05-21 腾讯科技(深圳)有限公司 一种手势识别的方法及装置
US20150020035A1 (en) * 2012-04-06 2015-01-15 Uc Mobile Limited Method, apparatus and mobile terminal for controlling an application interface by means of a gesture
CN104360738A (zh) * 2014-11-06 2015-02-18 苏州触达信息技术有限公司 图形用户界面的空间手势控制方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101741952A (zh) * 2009-12-10 2010-06-16 中国科学技术大学 盲人用移动电话交互***及其装置
CN102810023A (zh) * 2011-06-03 2012-12-05 联想(北京)有限公司 识别手势动作的方法及终端设备
US20150020035A1 (en) * 2012-04-06 2015-01-15 Uc Mobile Limited Method, apparatus and mobile terminal for controlling an application interface by means of a gesture
CN103809735A (zh) * 2012-11-12 2014-05-21 腾讯科技(深圳)有限公司 一种手势识别的方法及装置
CN103092517A (zh) * 2013-01-22 2013-05-08 广东欧珀移动通信有限公司 一种实现通过手势操作快捷打开预设程序的方法和装置
CN103226386A (zh) * 2013-03-13 2013-07-31 广东欧珀移动通信有限公司 一种基于移动终端的手势识别方法及***
CN103593056A (zh) * 2013-11-26 2014-02-19 青岛海信电器股份有限公司 手势数据识别和处理方法、电视机和手势输入设备
CN104360738A (zh) * 2014-11-06 2015-02-18 苏州触达信息技术有限公司 图形用户界面的空间手势控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108354587A (zh) * 2016-05-24 2018-08-03 丽宝大数据股份有限公司 个性化皮肤诊断和皮肤护理
CN108269460A (zh) * 2018-01-04 2018-07-10 高大山 一种电子屏幕的阅读方法、***及终端设备

Similar Documents

Publication Publication Date Title
CN102789313B (zh) 一种用户交互***和方法
US20190082996A1 (en) Detecting and Using Body Tissue Electrical Signals
CN105159539B (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
CN104717360B (zh) 一种通话录音方法及终端
CN106164808A (zh) 用于戒指计算设备的设备和方法
JP2002358149A (ja) ユーザ入力装置
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
CN104238726B (zh) 智能眼镜控制方法、装置及一种智能眼镜
CN106020671A (zh) 指纹传感器响应灵敏度的调节方法和装置
KR20150123254A (ko) 제스처-기반 제어를 위해 근활성도 센서 신호와 관성 센서 신호를 결합하는 방법 및 기기
CN103442129A (zh) 智能手表与移动终端的交互方法及***
CN106471860A (zh) 移动终端和用于控制其的方法
US20240004480A1 (en) Gesture control systems with logical states
US10182756B2 (en) Mobile terminal and control method therefor
CN105867641A (zh) 基于脑波的读屏应用指令输入方法及装置
CN105005386B (zh) 一种调整屏幕显示方向的方法及终端
CN108762708A (zh) 一种显示控制方法及终端
CN114167984B (zh) 设备控制方法、装置、存储介质及电子设备
CN106878390A (zh) 电子宠物互动控制方法、装置及可穿戴设备
CN107688385A (zh) 一种控制方法及装置
CN105788597A (zh) 基于声音识别的读屏应用指令输入方法及装置
CN106705989A (zh) 记步方法、设备及终端
CN106662898A (zh) 利用超声的模式身体触摸
CN105843402A (zh) 基于可穿戴设备的读屏应用指令输入方法及装置
CN105843401A (zh) 基于摄像头的读屏应用指令输入方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160810

RJ01 Rejection of invention patent application after publication