CN107066085B - 一种基于眼球追踪控制终端的方法及装置 - Google Patents

一种基于眼球追踪控制终端的方法及装置 Download PDF

Info

Publication number
CN107066085B
CN107066085B CN201710023355.6A CN201710023355A CN107066085B CN 107066085 B CN107066085 B CN 107066085B CN 201710023355 A CN201710023355 A CN 201710023355A CN 107066085 B CN107066085 B CN 107066085B
Authority
CN
China
Prior art keywords
eyeball
user
state information
instruction
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710023355.6A
Other languages
English (en)
Other versions
CN107066085A (zh
Inventor
陈喜玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huizhou TCL Mobile Communication Co Ltd
Original Assignee
Huizhou TCL Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huizhou TCL Mobile Communication Co Ltd filed Critical Huizhou TCL Mobile Communication Co Ltd
Priority to CN201710023355.6A priority Critical patent/CN107066085B/zh
Publication of CN107066085A publication Critical patent/CN107066085A/zh
Application granted granted Critical
Publication of CN107066085B publication Critical patent/CN107066085B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于眼球追踪控制终端的方法及装置。其中,所述方式包括:启动终端内的应用;启动眼球追踪***;通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标;接收用户指令;响应用户指令,并根据眼球状态信息而对应执行用户指令。通过上述方式,本发明能够使得用户仅需要转动眼球即可实现对终端设备的操控。

Description

一种基于眼球追踪控制终端的方法及装置
技术领域
本发明涉及移动设备通信应用领域,特别是涉及一种基于眼球追踪控制终端的方法及装置。
背景技术
现有的用户与智能移动终端设备进行交互的方式,基本都是通过用户主动地触摸屏幕或者键盘输出以控制智能移动终端。也就是说,操控智能移动终端设备时,一般都需要用户手动地配合,例如按键点击和触摸屏幕等等。这种交互方式一方面比较费力,另一方面,在用户双手不方便的情况下,便不能对设备进行操控。
发明内容
本发明主要解决的技术问题是提供一种基于眼球追踪控制终端的方法及装置,能够使得用户仅需要转动眼球即可实现对终端设备的操控,其提高了对终端操作效率,也进一步提升设备的智能化水平,带来一种全新的交互体验。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种基于眼球追踪控制终端的方法,所述方法包括:启动终端内的应用;启动眼球追踪***;通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标;接收用户指令;响应用户指令,并根据眼球状态信息而对应执行用户指令。
其中,应用为电子书应用。
其中,用户指令为语音指令或者动作指令。
其中,用户指令包括添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体的指令。
其中,响应用户指令并根据眼球状态信息而对应执行用户指令的步骤,包括:当用户指令为语音指令且语音指令为添加备注时,在用户眼球凝视屏幕的凝视坐标位置处弹出添加备注的提示框;在提示框内根据语音指令而添加备注内容。
其中,响应用户指令并根据眼球状态信息而对应执行用户指令的步骤,包括:当用户指令为语音指令且语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标;根据文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标而获取从起始位置至终止位置内的文字;根据语音指令而对选定的文字执行相应的操作。
其中,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标的步骤,包括:发出确认起始位置的语音提示,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;保存第一眼球状态信息;发出确认终止位置的语音提示,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括终止位置处所对应的眼球凝视屏幕的凝视坐标;保存第二眼球状态信息;或者,检测用户眼睛盯着起始位置处的时间是否大于第一时间阈值,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第一时间阈值,保存第一眼球状态信息;检测用户眼睛盯着终止位置处的时间是否大于第二时间阈值,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第二时间阈值,保存第二眼球状态信息。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种基于眼球追踪控制终端的装置,包括:应用启动模块,用于启动终端内的应用;眼球追踪启动模块,用于启动眼球追踪***;采集模块,用于通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标;指令接收模块,用于接收用户指令;指令响应模块,用于响应用户指令,并根据眼球状态信息而对应执行用户指令。
其中,应用启动模块所启动的应用为电子书应用。
其中,指令接收模块所接收的用户指令为语音指令或者动作指令。
以上方案,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
附图说明
图1是本发明基于眼球追踪控制终端的方法一实施方式的流程示意图;
图2是本发明基于眼球追踪控制终端的方法另一实施方式的流程示意图;
图3是本发明基于眼球追踪控制终端的方法又一实施方式的流程示意图;
图4是本发明基于眼球追踪控制终端的装置一实施方式的结构示意图;
图5是本发明基于眼球追踪控制终端的装置另一实施方式的结构示意图。
具体实施方式
下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅是本发明的一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
请参阅图1,图1是本发明基于眼球追踪控制终端的方法一实施方式的流程示意图。需注意的是,本发明的方法并不仅仅局限于图1所示的流程顺序。如图1所示,该方法包括如下步骤:
S101:启动终端内的应用。
其中,终端可以是智能手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(MID,Mobile Internet Device)、电子书(Electronic Book,E-book)、可穿戴设备(例如智能手表、智能手环)等智能移动终端。
其中,所启动的应用为可以选定和/或编辑文字的应用,可以为电子书应用,也可以为消息推送应用,比如微博、朋友圈、电子邮箱、新闻头条等,还可以为WPS、PDF等。
S102:启动眼球追踪***。
其中,眼球追踪***所采用的眼球追踪技术的原理是,当人的眼睛看向不同方向时,眼部会有细微的变化,这些变化会产生可以提取的特征,计算机可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化,预测用户的状态和需求,并进行响应,达到用眼睛控制设备的目的。也即是,眼球追踪技术主要是研究眼球运动信息的获取、建模和模拟。
眼球追踪技术具体可以用三种追踪方向,一是根据眼球和眼球周边的特征变化进行跟踪,二是根据虹膜角度变化进行跟踪,三是主动投射红外线等光束到虹膜来提取特征。在本实施方式中的追踪方向就是通过终端设备上的图像采集设备捕捉并跟踪用户眼球和眼球周边的状态及变化(如眼球的“闪烁”以及眼网膜的反射等),进而解析出用户当前凝视的屏幕位置,最终通过跟踪用户眼球的活动来实现对终端设备进行控制的目的。其中,图像采集设备可以是终端设备上的摄像头。
此外,在另外一些实施方式中,眼球追踪技术的主要设备还包括红外设备。其中,红外设备的投射方式能在30英寸左右的屏幕上精确到1厘米以内,辅以眨眼识别、注视识别等技术,可以在一定程度上替代鼠标、触摸板。
S103:通过眼球追踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标。
其中,在眼球跟踪技术中,采集眼球凝视屏幕的凝视坐标的过程是,先固定摄像机的位置、屏幕和/或光源的位置、眼球中心位置不变(假设眼球为球状,且头部不动),普尔钦斑的绝对位置不随眼球的转动而变化。但普尔钦斑相对于瞳孔和眼球的位置则是在不断变化的,比如,当眼睛盯着摄像头时,普尔钦斑就在瞳孔之间;而当抬起头时,普尔钦斑就在瞳孔下方。此时,只要实时定位眼睛图像上的瞳孔、和普尔钦斑的位置,计算出角膜反射向量,便能利用几何模型,估算得到用户的视线方向。再基于前期定标过程,让用户注视屏幕上特定的点的过程中所建立的用户眼睛特征与屏幕呈现内容之间的关系,终端设备即可以计算出眼球凝视屏幕的凝视坐标。其中,普尔钦斑(Purkinje Image)是眼球角膜上的一个亮光点,由进入瞳孔的光线在角膜外表面上反射(Corneal Reflection)而产生。
S104:接收用户指令。
其中,用户的指令可以是语音指令,也可以是动作指令。具体地,语音指令和动作指令均可以是添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体等指令。
进一步地,用户可以自己设置是通过语音指令,还是通过动作指令来对终端设备进行操控。其中,用户还可以设置一部分指令通过语音指令发送,一部分指令通过动作指令发送。例如,添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字等指令通过语音指令来发送,而翻页、改变阅读页面的颜色和字体等指令通过动作指令来发送。具体地,用户的动作指令可以通过在映射表中查找用户动作所对应的指令内容而得到的。其中,映射表预设各个用户动作与指令内容的映射关系。例如,用户眨一下眼睛,终端设备可以执行翻页的指令。
S105:响应用户指令,并根据眼球状态信息而对应执行用户指令。
其中,终端设备所响应和执行的用户指令包括添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体等指令。
另外,当终端设备检测到用户的眼睛盯着屏幕看时,终端设备不会黑屏,且终端设备的屏幕亮度可以根据周围环境的变化而进行调整。
本实施方式中,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
请参阅图2,图2是本发明基于眼球追踪控制终端的方法另一实施方式的流程示意图。本实施方式是响应用户指令并根据用户的眼球状态信息而对应执行用户指令的其中一个具体的实现方式,该方法包括以下步骤:
S201:当用户指令为语音指令且语音指令为添加备注时,在用户眼球凝视屏幕的凝视坐标位置处弹出添加备注的提示框。
S202:在提示框内根据语音指令而添加备注内容。
其中,用户可以设置,当终端设备收到用户的语音指令,比如“添加备注”时,屏幕可以弹出添加备注的提示框。用户可以语音输入需要输入的备注内容,还可以手动输入需要输入的备注内容。当终端设备收到用户的语音指令,比如“结束添加备注”或者“结束”时,屏幕可以弹出一个是否保存该备注的提示框。用户可以通过语音指令,比如“保存”、“不保存”等,来保存或者不保存该备注。用户还可以通过动作指令来选择保存或不保存该备注。例如,用户可以手动选择屏幕上弹出的是否保存该备注的提示框的某一选项,或者,用户可以盯着屏幕上弹出的是否保存该备注的提示框的某一选项,终端设备通过采集用户眼球凝视屏幕的凝视坐标判断出用户的选择进而响应和执行用户指令。
具体地,用户的语音指令还可以根据自己的需要、习惯和/或喜好等随意设置。例如,添加备注的语音指令还可以为“需要添加备注”、“此处添加备注”等;结束该备注的语音指令还可以为“Over”、“以上”、“OK”等;保存备注的语音指令还可以为“Save”、“可以”、“好”等;不保存备注的语音指令还可以为“No”、“不”、“不好”、“不可以”等。
另外,终端设备还可以记录用户的声纹特征。当发出语音指令的人的声音的声纹特征和终端设备记录的声音的声纹特征的匹配度大于等于匹配阈值时,终端设备才会响应该语音指令,否则,终端设备不响应该语音指令。其中,由于每个人的语音声学特征既有相对稳定性,又有变异性,不是绝对的、一成不变的。这种变异可来自生理、病理、心理、模拟、伪装,也与环境干扰有关。例如,不同的麦克风和信道、环境噪音、混合说话人的情形等等,均会对人的声纹特征提取进行一定程度的干扰。因此,终端设备记录的声音的声纹特征与用户的声音的声纹特征的匹配度有可能达不到100%,所以终端设备会预设一个声纹特征匹配阈值。
另外,终端设备还可以记录用户的人脸特征。当发出语音指令的人的人脸特征与终端设备记录的人脸特征匹配时,终端设备才会响应该语音指令,否则,终端设备不响应该语音指令。其中,人脸的特征可以是眼虹膜、鼻翼、嘴角等面像五官轮廓的大小、位置、距离等特征,进一步计算其几何特征量。也可以是,人脸的几何特征量与数据库中标准面部模板或面部器官的模板的几何特征量的差异。另外,进行人脸特征对比的方法有Adaboost法(实质是一种迭代算法)、特征向量法和面纹模板法等。其中,特征向量法是先确定眼虹膜、鼻翼、嘴角等面像五官轮廓的大小、位置、距离等特征,再计算出它们的几何特征量,这些几何特征量的集合即组成描述脸部特征的几何特征向量。面纹模板法是在数据库中存放一些标准面部模板或面部器官的模板,采集待测面部图片的特征向量集等与模板的数据进行对比。
可选地,当发出语音指令的人的声音的声纹特征和人脸特征数据均与终端设备记录的特征数据相匹配时,终端设备才会响应该语音指令;也可以是,当两者中的一个特征数据与终端设备记录的特征数据相匹配时,终端设备会响应该语音指令,此处不做限制。
本实施方式中,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
请参阅图3,图3是本发明基于眼球追踪控制终端的方法又一实施方式的流程示意图。本实施方式是响应用户指令并根据用户的眼球状态信息而对应执行用户指令的另一个具体的实施方式,该方法包括以下步骤:
S301:当用户指令为语音指令且语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标。
其中,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标的其中一个具体的实施方式为:发出确认起始位置的语音提示,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标。保存第一眼球状态信息。发出确认终止位置的语音提示,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括终止位置处所对应的眼球凝视屏幕的凝视坐标。保存第二眼球状态信息。
具体地,当用户发出语音指令,比如“确认起始位置后”,终端设备会采集并保存起始位置处所对应的眼球凝视屏幕的凝视坐标。然后终端设备提示用户看向标记的终止位置,用户看向需要标记的文字终止位置。当用户发出语音指令,比如“确认终止位置后”,终端设备会采集并保存终止位置处所对应的眼球凝视屏幕的凝视坐标。接着,屏幕会弹出一个是否选中某段文字的提示框。用户可以通过语音指令,比如“选中”、“不选中”等,来选中或者不选中该某段文字,用户也可以手动选择屏幕的提示操作。另外,用户的语音指令还可以根据自己的需要、习惯和/或喜好等随意设置。
可选地,当用户发出语音指令,比如“确认起始位置后”,终端设备会采集并保存起始位置处所对应的眼球凝视屏幕的凝视坐标,并选中该起始位置的凝视坐标处的文字。然后终端设备提示用户看向标记的终止位置,用户看向需要标记的文字终止位置。当用户发出语音指令,比如“确认终止位置后”,终端设备会采集并保存终止位置处所对应的眼球凝视屏幕的凝视坐标,并选中该终止位置的凝视坐标处的文字。接着,屏幕会弹出一个是否选中某段文字的提示框。
可选地,当用户发出语音指令,比如“确认起始位置后”,终端设备会采集并保存起始位置处所对应的眼球凝视屏幕的凝视坐标,并选中该起始位置的凝视坐标处的文字。然后屏幕上的光标会跟着眼睛的移动方向,选中眼睛扫过的文字。直到眼睛盯着某处并发出语音指令,比如“确认终止位置后”。然后,屏幕可以弹出一个是否选中某段文字的提示框,或者,不弹出该提示框。用户可以根据自己的需要、习惯和/或喜好等随意设置。
可选地,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标的另外一个具体的实施方式为:检测用户眼睛盯着起始位置处的时间是否大于第一时间阈值,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第一时间阈值,保存第一眼球状态信息;检测用户眼睛盯着终止位置处的时间是否大于第二时间阈值,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第二时间阈值,保存第二眼球状态信息。其中,第一时间阈值和第二时间阈值的范围可以一样,也可以不一样。第一时间阈值和第二时间阈值的范围可以是用户设置的,也是可以是终端设备的初始数据。
具体地,当用户的眼睛盯着屏幕上的起始位置处的时间大于第一时间阈值时,终端设备会采集并保存该处所对应的眼球凝视屏幕的凝视坐标,并选中该起始位置的凝视坐标处的文字。然后屏幕上的光标会跟着眼睛的移动方向,选中眼睛扫过的文字。直到用户眼睛盯着终止位置处的时间大于第二时间阈值时,终端设备会采集并保存该处所对应的眼球凝视屏幕的凝视坐标。然后,屏幕可以弹出一个是否选中某段文字的提示框,或者,不弹出该提示框。用户可以根据自己的需要、习惯和/或喜好等随意设置。
S302:根据文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标而获取从起始位置至终止位置内的文字。
S303:根据语音指令而对选定的文字执行相应的操作。
其中,当某段文字被选定后,用户可以设置,当终端设备收到用户的语音指令,比如“添加背景颜色”时,终端设备会改变该某段文字的背景颜色。若是用户不满意该背景颜色,继续发出语音指令“添加背景颜色”,则终端设备会按某种颜色顺序改变该某段文字的背景颜色。其中,颜色顺序可以是用户设置的,也可以是终端设备***内自带的,还可以随机的。另外,当终端设备收到用户的语音指令,比如“添加红色背景”时,终端设备会把该某段文字的背景变为红色。
具体地,用户的语音指令还可以根据自己的需要、习惯和/或喜好等随意设置。例如,为该被选中的某段文字添加背景颜色的语音指令还可以为“需要添加背景颜色”、“此处添加背景颜色”等;保存该添加的背景颜色的语音指令还可以为“Save”、“可以”、“好”等;不保存该添加的背景颜色的语音指令还可以为“No”、“不”、“不好”、“不可以”等。进一步地,用户还可以设置屏幕弹出一个是否保存该背景颜色的提示框。其中,用户可以手动选择屏幕上弹出的是否保存该背景颜色的提示框的某一选项,或者,用户可以盯着屏幕上弹出的是否保存该背景颜色的提示框的某一选项,终端设备通过采集用户眼球凝视屏幕的凝视坐标判断出用户的选择进而响应和执行用户指令。
可选地,还可以改变该被选定的某段文字的字体、字号、翻译为某种语音、标记文字颜色以及复制和剪贴等。用户也可以根据自己的需要、习惯和/或喜好等随意设置语音指令。
另外,终端设备还可以记录用户的声纹特征和人脸特征,具体过程如上一实施方式所述,在此不做赘叙。
本实施方式中,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
请参阅图4,图4是本发明基于眼球追踪控制终端的装置一实施方式的结构示意图。需要说明的是,本实施方式的装置可以执行上述方法中的步骤,相关内容的详细说明请参见上述方法部分,在此不再赘叙。
本实施方式中,该装置40是上述实施方式中的装置,该装置40包括:应用启动模块41、眼球追踪启动模块42、采集模块43、指令接收模块44、指令响应模块44。
应用启动模块41用于启动终端内的应用。
眼球追踪启动模块42用于启动眼球追踪***。
采集模块43用于通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标。
指令接收模块44用于接收用户指令。
指令响应模块44用于响应用户指令,并根据眼球状态信息而对应执行用户指令。
其中,应用启动模块41所启动的应用为可以选定和/或编辑文字的应用,可以是电子书应用,也可以为消息推送应用,比如微博、朋友圈、电子邮箱、新闻头条等,还可以为WPS、PDF等。
其中,需要说明的是,要先启动应用启动模块41后,才可以进一步开启后面的模块。
其中,接收指令模块44所接收的用户指令可以是语音指令,也可以是动作指令。其中,语音指令和动作指令均可以包括但不限于添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体等指令。
其中,响应指令模块44具体包括:当用户指令为语音指令且语音指令为添加备注时,在用户眼球凝视屏幕的凝视坐标位置处弹出添加备注的提示框;在提示框内根据语音指令而添加备注内容。
其中,响应指令模块45还包括:当用户指令为语音指令且语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标;根据文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标而获取从起始位置至终止位置内的文字;根据语音指令而对选定的文字执行相应的操作。
其中,响应指令模块45还包括:发出确认起始位置的语音提示,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;保存第一眼球状态信息;发出确认终止位置的语音提示,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括终止位置处所对应的眼球凝视屏幕的凝视坐标;保存第二眼球状态信息。
可选地,响应指令模块45还包括:检测用户眼睛盯着起始位置处的时间是否大于第一时间阈值,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第一时间阈值,保存第一眼球状态信息;检测用户眼睛盯着终止位置处的时间是否大于第二时间阈值,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第二时间阈值,保存第二眼球状态信息。
本实施方式中,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
请参阅图5,图5是本发明基于眼球追踪控制终端的装置另一实施方式的结构示意图。该装置可以执行上述方法中的装置执行的步骤。相关内容请参见上述方法中的详细说明,在此不再赘叙。
本实施方式中,该处理装置包括:处理器51、存储器52以及接收器53。
存储器52用于存储操作***、处理器51执行的指令以及接收到的消息等。
接收器53用于接收用户的指令。
处理器51用于启动终端内的应用;启动眼球追踪***;通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标;响应用户指令,并根据眼球状态信息而对应执行用户指令。
具体地,处理器51还用于当用户指令为语音指令且语音指令为添加备注时,在用户眼球凝视屏幕的凝视坐标位置处弹出添加备注的提示框;在提示框内根据语音指令而添加备注内容。
具体地,处理器51还用于当用户指令为语音指令且语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取某段文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标;根据文字的起始位置和终止位置处的用户的眼球凝视屏幕的凝视坐标而获取从起始位置至终止位置内的文字;根据语音指令而对选定的文字执行相应的操作。
具体地,处理器51还用于发出确认起始位置的语音提示,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;保存第一眼球状态信息;发出确认终止位置的语音提示,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括终止位置处所对应的眼球凝视屏幕的凝视坐标;保存第二眼球状态信息。
可选地,处理器51还用于检测用户眼睛盯着起始位置处的时间是否大于第一时间阈值,并采集获取用户的第一眼球状态信息,其中,第一眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第一时间阈值,保存第一眼球状态信息;检测用户眼睛盯着终止位置处的时间是否大于第二时间阈值,并采集获取用户的第二眼球状态信息,其中,第二眼球状态信息包括起始位置处所对应的眼球凝视屏幕的凝视坐标;若大于第二时间阈值,保存第二眼球状态信息。
其中,处理器51所启动的应用为可以选定和/或编辑文字的应用,可以是电子书应用,也可以为消息推送应用,比如微博、朋友圈、电子邮箱、新闻头条等,还可以为WPS、PDF等。
其中,接收器53所接收的用户指令可以为语音指令,也可以为动作指令。其中,语音指令和动作指令具体包括但不限于添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体等指令。
本实施方式中,利用眼球跟踪技术,采集用户在操控终端时的眼球运动状态以获取眼球状态信息,其中,眼球状态信息包括眼球凝视屏幕的凝视坐标,进而根据眼球状态信息响应和执行用户的指令,能够使得用户仅需要转动眼球即可实现对终端设备的操控,提高了对终端操作效率,进一步提升设备的智能化水平,带来一种全新的交互体验。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种基于眼球追踪控制终端的方法,其特征在于,包括:
启动所述终端内的应用;
启动眼球追踪***;
通过所述眼球追踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,所述眼球状态信息包括眼球凝视屏幕的凝视坐标;
接收用户指令;所述用户指令为获取所述眼球状态信息后输入的语音指令或者动作指令;所述用户指令包括添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体的指令;
响应所述用户指令,并根据所述眼球状态信息而对应执行所述用户指令;
其中,所述响应所述用户指令,并根据所述眼球状态信息而对应执行所述用户指令的步骤,包括:
当所述用户指令为语音指令且所述语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取所述某段文字的起始位置和终止位置处的所述用户的眼球凝视屏幕的凝视坐标;
根据所述文字的起始位置和终止位置处的所述用户的眼球凝视屏幕的凝视坐标而获取从所述起始位置至所述终止位置内的所述文字;
根据所述语音指令而对选定的所述文字执行相应的操作。
2.根据权利要求1所述的方法,其特征在于,
所述应用为电子书应用。
3.根据权利要求1所述的方法,其特征在于,
响应所述用户指令并根据所述眼球状态信息而对应执行所述用户指令的步骤,包括:
当所述用户指令为语音指令且所述语音指令为添加备注时,在所述用户眼球凝视屏幕的凝视坐标位置处弹出添加备注的提示框;
在所述提示框内根据所述语音指令而添加备注内容。
4.根据权利要求1所述的方法,其特征在于,
获取所述某段文字的起始位置和终止位置处的所述用户的眼球凝视屏幕的凝视坐标的步骤,包括:
发出确认起始位置的语音提示,并采集获取用户的第一眼球状态信息,其中,所述第一眼球状态信息包括所述起始位置处所对应的眼球凝视屏幕的凝视坐标;
保存所述第一眼球状态信息;
发出确认终止位置的语音提示,并采集获取用户的第二眼球状态信息,其中,所述第二眼球状态信息包括所述终止位置处所对应的眼球凝视屏幕的凝视坐标;
保存所述第二眼球状态信息;
或者,
检测用户眼睛盯着起始位置处的时间是否大于第一时间阈值,并采集获取用户的第一眼球状态信息,其中,所述第一眼球状态信息包括所述起始位置处所对应的眼球凝视屏幕的凝视坐标;
若大于所述第一时间阈值,保存所述第一眼球状态信息;
检测所述用户眼睛盯着终止位置处的时间是否大于第二时间阈值,并采集获取用户的第二眼球状态信息,其中,所述第二眼球状态信息包括所述起始位置处所对应的眼球凝视屏幕的凝视坐标;
若大于所述第二时间阈值,保存所述第二眼球状态信息。
5.一种基于眼球追踪控制终端的装置,其特征在于,包括:
应用启动模块,用于启动所述终端内的应用;
眼球追踪启动模块,用于启动眼球追踪***;
采集模块,用于通过眼球跟踪***而采集用户的眼球运动状态以获取眼球状态信息,其中,所述眼球状态信息包括眼球凝视屏幕的凝视坐标;
指令接收模块,用于接收用户指令;所述指令接收模块所接收的所述用户指令为采集模块获取所述眼球状态信息后输入的语音指令或者动作指令;所述用户指令包括添加备注、选定某段文字、标记某段文字颜色、复制和剪贴某段文字、翻页、改变阅读页面的颜色和字体的指令;
指令响应模块,用于响应所述用户指令,并根据所述眼球状态信息而对应执行所述用户指令;
其中,所述响应所述用户指令,并根据所述眼球状态信息而对应执行所述用户指令的步骤,包括:
当所述用户指令为语音指令且所述语音指令为选定某段文字、标记某段文字颜色、复制和剪贴某段文字时,获取所述某段文字的起始位置和终止位置处的所述用户的眼球凝视屏幕的凝视坐标;
根据所述文字的起始位置和终止位置处的所述用户的眼球凝视屏幕的凝视坐标而获取从所述起始位置至所述终止位置内的所述文字;
根据所述语音指令而对选定的所述文字执行相应的操作。
6.根据权利要求5所述的装置,其特征在于,
所述应用启动模块所启动的所述应用为电子书应用。
CN201710023355.6A 2017-01-12 2017-01-12 一种基于眼球追踪控制终端的方法及装置 Active CN107066085B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710023355.6A CN107066085B (zh) 2017-01-12 2017-01-12 一种基于眼球追踪控制终端的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710023355.6A CN107066085B (zh) 2017-01-12 2017-01-12 一种基于眼球追踪控制终端的方法及装置

Publications (2)

Publication Number Publication Date
CN107066085A CN107066085A (zh) 2017-08-18
CN107066085B true CN107066085B (zh) 2020-07-10

Family

ID=59598723

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710023355.6A Active CN107066085B (zh) 2017-01-12 2017-01-12 一种基于眼球追踪控制终端的方法及装置

Country Status (1)

Country Link
CN (1) CN107066085B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107885124B (zh) * 2017-11-21 2020-03-24 中国运载火箭技术研究院 一种增强现实环境中的脑眼协同控制方法及***
CN108510542B (zh) * 2018-02-12 2020-09-11 北京七鑫易维信息技术有限公司 匹配光源与光斑的方法和装置
CN110764608B (zh) * 2018-07-26 2023-01-03 中兴通讯股份有限公司 一种调整多媒体信息的输出参数的方法、终端和存储介质
CN110209269A (zh) * 2019-05-07 2019-09-06 谷东科技有限公司 基于ar技术的线下购物方法、装置、存储介质及终端设备
CN111632367A (zh) * 2020-05-18 2020-09-08 歌尔科技有限公司 基于视觉引导的手游***及手游响应方法
CN111694434B (zh) * 2020-06-15 2023-06-30 掌阅科技股份有限公司 电子书评论信息的交互展示方法、电子设备及存储介质
CN111914173B (zh) * 2020-08-06 2024-02-23 北京百度网讯科技有限公司 内容处理方法、装置、计算机***和存储介质
CN114115512B (zh) * 2020-08-25 2022-12-16 荣耀终端有限公司 信息显示方法、终端设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102292690A (zh) * 2009-01-22 2011-12-21 阿尔卡特朗讯美国公司 电子数据输入***
CN102906676A (zh) * 2010-03-22 2013-01-30 美泰有限公司 电子装置及数据的输入和输出
CN105759959A (zh) * 2016-01-29 2016-07-13 广东欧珀移动通信有限公司 一种用户终端的控制方法及用户终端

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160103655A1 (en) * 2014-10-08 2016-04-14 Microsoft Corporation Co-Verbal Interactions With Speech Reference Point

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102292690A (zh) * 2009-01-22 2011-12-21 阿尔卡特朗讯美国公司 电子数据输入***
CN102906676A (zh) * 2010-03-22 2013-01-30 美泰有限公司 电子装置及数据的输入和输出
CN105759959A (zh) * 2016-01-29 2016-07-13 广东欧珀移动通信有限公司 一种用户终端的控制方法及用户终端

Also Published As

Publication number Publication date
CN107066085A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
CN107066085B (zh) 一种基于眼球追踪控制终端的方法及装置
US20230333377A1 (en) Display System
CN114341779B (zh) 用于基于神经肌肉控制执行输入的***、方法和界面
CN112352209B (zh) 用于与人工智能***互动和界面交互的***和方法
KR102559028B1 (ko) 핸드라이팅 인식 방법 및 장치
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
CN110968189B (zh) 作为认知控制信号的瞳孔调制
KR20240063071A (ko) 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
EP3845282A1 (en) Interaction method of application scenario, and mobile terminal and storage medium
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
CN108681399B (zh) 一种设备控制方法、装置、控制设备及存储介质
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
KR102636243B1 (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
US20160202766A1 (en) Gesture recognition method, gesture recognition system, terminal device and wearable device
US11216067B2 (en) Method for eye-tracking and terminal for executing the same
CN113383295A (zh) 调节数字内容以激发更大的瞳孔半径响应的生物反馈方法
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
CN105068646A (zh) 终端的控制方法和***
CN108829239A (zh) 终端的控制方法、装置及终端
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
KR101728707B1 (ko) 글라스형 웨어러블 디바이스를 이용한 실내 전자기기 제어방법 및 제어프로그램
WO2021115097A1 (zh) 瞳孔检测方法及相关产品
CN111402271A (zh) 一种图像处理方法及电子设备
CN114724232A (zh) 姿态识别和矫正方法、装置、***以及电子设备
CN112445328A (zh) 映射控制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant