CN108334191A - 基于眼动分析设备的确定注视点的方法和装置 - Google Patents

基于眼动分析设备的确定注视点的方法和装置 Download PDF

Info

Publication number
CN108334191A
CN108334191A CN201711499453.3A CN201711499453A CN108334191A CN 108334191 A CN108334191 A CN 108334191A CN 201711499453 A CN201711499453 A CN 201711499453A CN 108334191 A CN108334191 A CN 108334191A
Authority
CN
China
Prior art keywords
area
blinkpunkt
information
data
default
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711499453.3A
Other languages
English (en)
Other versions
CN108334191B (zh
Inventor
王云飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing 7Invensun Technology Co Ltd
Beijing Qixin Yiwei Information Technology Co Ltd
Original Assignee
Beijing Qixin Yiwei Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qixin Yiwei Information Technology Co Ltd filed Critical Beijing Qixin Yiwei Information Technology Co Ltd
Priority to CN201711499453.3A priority Critical patent/CN108334191B/zh
Publication of CN108334191A publication Critical patent/CN108334191A/zh
Priority to PCT/CN2018/119881 priority patent/WO2019128677A1/zh
Priority to US16/349,817 priority patent/US20200272230A1/en
Priority to TW107147766A priority patent/TW201929766A/zh
Application granted granted Critical
Publication of CN108334191B publication Critical patent/CN108334191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种基于眼动分析设备的确定注视点的方法和装置。其中,该方法包括:获取眼部的第一区域和第二区域的数据信息;根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;发送注视点数据至终端;终端接收注视点数据以及根据注视点数据确定预设注视点在显示屏上的位置信息。本发明解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。

Description

基于眼动分析设备的确定注视点的方法和装置
技术领域
本发明涉及视线追踪领域,具体而言,涉及一种基于眼动分析设备的确定注视点的方法和装置。
背景技术
随着科学技术的快速发展,VR(Virtual Reality,虚拟现实)技术在各行各业中都得到了广泛的发展,例如,3D电影、3D游戏的普及,由此,视线追踪技术也得到了进一步的发展。
人们在观看3D电影或者玩3D游戏时,需要佩戴3D眼镜或者其他设备。然而,当佩戴3D眼镜的用户在注视某处时,由于双眼存在视差,尤其是在双眼视差比较大时,用户无法看清现实在屏幕上的图形或图像。可能因为调焦冲突或双眼视力不同等原因,用户双眼视线并不交于一点。
为解决上述问题,现有技术通常使用注视点接口来准确确定双眼的注视点,进而使用户可以得到清晰的图像。然而,现有的注视点接口仅给出了一只眼睛的注视点数据或分别给出两只眼的注视点数据,但是在双眼视线不相交时,无法准确确定注视点在屏幕上的位置,用户的体验效果差。
针对上述当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种基于眼动分析设备的确定注视点的方法和装置,以至少解决当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
根据本发明实施例的一个方面,提供了一种基于眼动分析设备的确定注视点的方法,包括:获取眼部的第一区域和第二区域的数据信息;根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;发送注视点数据至终端;终端接收注视点数据以及根据注视点数据确定预设注视点在显示屏上的位置信息。
根据本发明实施例的一个方面,提供了一种基于眼动分析设备的确定注视点的方法,包括:获取眼部的第一区域和第二区域的数据信息;根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;发送注视点数据至终端。
根据本发明实施例的一个方面,提供了一种基于眼动分析设备的确定注视点的方法,包括:终端接收注视点数据,其中,注视点数据包括:眼部的第一区域所对应的注视点信息、眼部的第二区域所对应的注视点信息以及预设注视点;以及根据注视点数据确定预设注视点在显示屏上的位置信息。
根据本发明实施例的一个方面,提供了一种眼动分析设备,包括:采集单元,用于获取眼部的第一区域和第二区域的数据信息;根据第一区域和第二区域的数据信息确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;以及发送注视点数据;处理单元,与采集单元连接,用于接收注视点数据;以及根据注视点数据确定预设注视点在显示屏上的位置信息,包括:获取注视点数据中的预设注视点、以及获取与预设注视点对应的眼睛的注视点信息、并确定在显示屏上与注视点信息相匹配的位置信息。
根据本发明实施例的另一方面,还提供了一种基于眼动分析设备的确定注视点的装置,包括:第一获取模块,用于获取眼部的第一区域和第二区域的数据信息;第二获取模块,用于根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;发送模块,用于发送注视点数据至终端。
根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,程序执行基于眼动分析设备的确定注视点的方法。
根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行基于眼动分析设备的确定注视点的方法。
在本发明实施例中,采用注视点接口传输数据的方式,通过获取眼部的第一区域和第二区域的数据信息,然后根据第一区域和第二区域的数据信息确定注视点数据,并发送注视点数据至终端,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点,达到了在双眼视差较大时仍能够准确确定注视点在屏幕上的位置的目的,从而实现了保证注视点在屏幕上的位置的准确性的技术效果,进而解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种基于眼动分析设备的确定注视点的方法流程图;
图2是根据本发明实施例的一种可选的基于眼动分析设备的确定注视点的方法流程图;
图3是根据本发明实施例的一种可选的基于眼动分析设备的确定注视点的方法的流程图;
图4是根据本发明实施例的一种眼动分析设备的结构示意图;
图5是根据本发明实施例的一种基于眼动分析设备的确定注视点的装置结构示意图;
图6是根据本发明实施例的一种基于眼动分析设备的确定注视点的方法流程图;以及
图7是根据本发明实施例的一种基于眼动分析设备的确定注视点的方法流程图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种基于眼动分析设备的确定注视点的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的基于眼动分析设备的确定注视点的方法流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取眼部的第一区域和第二区域的数据信息。
需要说明的是,本申请中的眼动分析设备包括但不限于VR(Virtual Reality,虚拟现实)设备、AR(Augmented Reality,即增强现实)设备、MR(Magic Leap,混合现实)设备、可以进行视线追踪的智能终端,例如,手机、电脑、可穿戴设备(例如,3D眼镜)等。上述眼部的第一区域可以为左眼或右眼,第二区域可以为右眼或左眼,其中,在第一区域为左眼的情况下,第二区域为右眼。
另外,第一区域的数据信息包括如下至少之一:第一区域的图像数据、与第一区域相对应的传感器的采集数据以及对第一区域进行光栅扫描的扫描结果,第二区域的数据信息包括如下至少之一:第二区域的图像数据、与第二区域相对应的传感器的采集数据以及对第二区域进行光栅扫描的扫描结果。其中,传感器的采集数据包括但不限于应力数据、电容值或电容变化值、电压值或电容变化值以及热量等。
此外,还需要说明的是,以下以第一区域为左眼,第二区域为右眼对基于眼动分析设备的中确定注视点的方法进行说明。
在一种可选的实施例中,在眼动分析设备中左眼和右眼所对应的区域分别设置一个相机,即左相机和右相机,其中,左相机可获取到左眼的图像,右相机可获取到右眼的图像,从而得到左眼的图像数据和右眼的图像数据。其中,左眼的图像数据和右眼的图像数据可以包括但不限于瞳孔的中心位置、瞳孔的大小、瞳孔形状以及投射到眼睛上的光斑的位置。
在另一种可选的实施例中,在眼动分析设备中左眼和右眼所对应的区域分别设置一个或多个电容元件,眼动分析设备可采集电容元件的电容的变化值,并根据电容的变化值分别得到左眼和右眼的数据信息,例如,左眼所对应的电容元件的电容值变大,并且电容值的变化值超过预设阈值,则说明瞳孔变大或缩小。因为眼睛转动时会导致电容值发生变化,所以可以根据电容值确定眼睛的转动状态。
此外,还需要说明的是,眼动分析设备还可根据光栅扫描的扫描结果和/或磁场的变化来确定左眼或右眼的数据信息。另外,眼动分析设备可将上述获取双眼数据信息的方法进行多种组合以获取双眼的数据信息。
步骤S104,根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点。
需要说明的是,在第一区域为左眼,第二区域为右眼的情况下,左眼的注视点信息可以为但不限于左眼的注视点的坐标、左眼的视线方向以及左眼的视线与参照轴的角度等,同样,右眼的注视点信息可以为但不限于右眼的注视点的坐标、右眼的视线方向以及右眼的视线与参照轴的角度等。上述预设注视点为推荐使用的注视点,例如,在预设注视点为左眼所对应的注视点的情况下,终端使用左眼所对应的注视点信息来确定注视点在屏幕上的位置。其中,上述终端可以为但不限于用于数据传输的设备、用于数据处理的设备以及用于显示的客户端。
此外,还需要说明的是,由于预设注视点是在通过比较左眼所对应的注视点信息和右眼所对应的注视点信息所得到的最佳的注视点,因此,采用最佳的注视点来得到注视点在屏幕上的位置较为准确。
步骤S106,发送注视点数据至终端。
需要说明的是,对眼部的第一区域和第二区域的数据信息进行处理的是眼动分析设备的底层处理器,在底层处理器完成对眼部的第一区域和第二区域的数据信息的处理之后,将注视点数据通过函数调用、函数回调、TCP/UDP通信、管道、内存处理以及文件处理等方式发送给终端。终端在接收到注视点数据之后,根据注视点数据进行处理,从而精确确定注视点在终端的显示屏或显示界面上的位置信息。其中,上述位置信息可以为但不限于预设注视点在显示屏上的坐标、角度以及向量、虚拟空间或实际空间中的坐标、角度以及向量。
步骤S108,终端接收注视点数据以及根据注视点数据确定预设注视点在显示屏上的位置信息。
基于上述步骤S102至步骤S108所限定的方案,可以获知,通过获取眼部的第一区域和第二区域的数据信息,然后根据第一区域和第二区域的数据信息确定注视点数据,并发送注视点数据至终端,终端接收注视点数据以及根据注视点数据确定预设注视点在显示屏上的位置信息,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点。
容易注意到的是,第一区域的注视点信息以及第一区域的注视点信息均存储在注视点数据中,并且底层的程序将注视点数据发送给应用程序,即应用程序可获取到两只眼睛的注视点信息,相比于现有技术中仅能给出一只眼睛的注视点信息,本申请可根据两只眼睛的注视点信息准确确定注视点在屏幕上的位置。此外,根据预设注视点可确定推荐使用的眼睛的注视点,由于根据推荐使用的注视点可得到眼睛的注视点在屏幕上较为准确的位置,由此,可进一步保证了注视点在屏幕上位置的准确性。
由上述内容可知,本申请的可以达到在双眼视差较大时仍能够准确确定注视点在屏幕上的位置的目的,从而实现了保证注视点在屏幕上的位置的准确性的技术效果,进而解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
在一种可选的实施例中,图2示出了一种可选的基于眼动分析设备的确定注视点的方法流程图,如图2所示,根据第一区域和第二区域的数据信息,确定注视点数据,具体包括如下步骤:
步骤S202,对第一区域和第二区域的数据信息进行处理,得到第一区域的注视点信息以及第二区域的注视点信息;
步骤S204,根据第一区域的注视点信息和第二区域的注视点信息确定预设参数的参数值,其中,预设参数至少包括如下之一:第一区域与第二区域的主辅关系、第一区域的图像数据与预设人眼模型的图像数据的匹配度、第二区域的图像数据与预设人眼模型的图像数据的匹配度、基于第一区域的置信度以及基于第二区域的置信度;
步骤S206,根据预设参数的参数值确定预设注视点。
在一种可选的实施例中,如果确定第一区域为主要确定注视点信息的区域,则第二区域为辅助确定注视点信息的区域,例如,在进行视线追踪时左眼为主要使用的眼睛,则右眼为辅助使用的眼睛。其中,可通过用户指定或者打分机制来确定视线追踪所主要使用的眼睛。另外,主要使用的眼睛并不一定是预设注视点所对应的眼睛。
在另一种可选的实施例中,眼动分析设备中存储有预设人眼模型的图像数据,其中,该预设人眼模型的图像数据可以为但不限于预设人眼模型的瞳孔大小、瞳孔中心的位置以及注视点的信息,其中,注视点的信息可以包括但不限于预设人眼模型的注视点的坐标、视线方向以及视线与参照轴的角度等。具体的,如果左眼的图像数据与预设人眼模型的图像数据的匹配度大于预设阈值,则确定左眼所对应的注视点信息与预设人眼模型的左眼所对应的注视点信息相同。同样,可以采用上述方法得到对于右眼的注视点信息。
还存在一种可选的实施例,还可以根据对第一区域的图像数据进行处理得到的置信度以及对第二区域的图像数据进行处理得到的置信度来确定预设注视点,例如,取置信度最高的图像所对应的眼睛的注视点作为预设注视点。
需要说明的是,注视点数据的格式可以为但不限于(leftx,lefty,rightx,righty,recommendedleftorright),其中,leftx和lefty表示左眼的注视点所对应的坐标,rightx和righty表示右眼的注视点所对应的坐标,recommendedleftorright表示推荐使用的注视点,即预设注视点,例如,recommendedleftorright为01,表示使用右眼随对应的注视点作为预设注视点,recommendedleftorright为10,表示使用左眼随对应的注视点作为预设注视点。
此外,还需要说明的是,在通过上述方法得到预设参数的参数值之后,对预设参数值进行处理,即可得到预设注视点。在确定预设注视点之后,位于底层的处理器将确定好的注视点信息发送至上层的终端中,由终端确定预设注视点在显示屏上的位置信息,其中,图3示出了一种可选的基于眼动分析设备的确定注视点的方法的流程图,如图3所示,终端根据注视点数据确定预设注视点在显示屏上的位置信息,具体包括如下步骤:
步骤S302,终端获取注视点数据中的预设注视点;
步骤S304,终端获取与预设注视点对应的眼睛的注视点信息;
步骤S306,终端确定在显示屏上与注视点信息相匹配的位置信息。
需要说明的是,上述终端可以为但不限于眼动分析设备上的应用程序、眼动分析设备上的网页页面。
具体的,终端在得到注视点数据之后,终端首先对接收到的注视点数据进行解析,得到终端所能识别以及处理的数据,然后从解析得到的数据中确定作为预设注视点的眼睛,并根据确定的眼睛的注视点信息确定注视点在显示屏上的位置信息,例如,确定预设注视点所对应的眼睛为左眼,则参数recommendedleftorright=10,并根据recommendedleftorright提取出左眼所对应的注视点信息,包括但不限于左眼的注视点的向量、坐标以及角度等。在确定了注视点信息之后,根据注视点信息可确定与该注视点对应的眼睛中物体。
在一种可选的实施例中,在确定预设注视点在显示屏上的位置信息之后,终端还可根据预设注视点确定另一只眼睛的注视点在显示屏上的位置信息,具体方法如下:
步骤S208a,在预设注视点与第一区域相匹配的情况下,获取与第一区域相匹配的第一图像;
步骤S210a,根据第一图像得到与第一图像相匹配的物体的第一位置信息,其中,第一位置信息为物体在第一空间中的位置信息;
步骤S212a,根据第一图像以及物体的第一位置信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
具体的,预设注视点为左眼所对应的注视点,则终端根据获取到的注视点数据可得到左眼的注视点在显示屏上的位置信息和/或左眼视图中的注视物体,即上述与第一区域相匹配的第一图像。同时,终端还可达到左眼视图中的注视物体在第一空间(即实际场景)中的位置信息(该位置信息可以为但不限于坐标、向量以及角度),即第一位置信息,终端根据上述第一图像以及物体的第一位置信息可推算得到第二区域(即右眼)的注视点在显示屏上的位置信息。
在另一种可选的实施例中,第二区域的注视点在显示屏上的位置信息还可通过注视点数据中的第二区域所对应的注视点信息得到,具体方法如下:
步骤S208b,在预设注视点与第一区域相匹配的情况下,终端获取注视点数据中的第二区域的注视点信息;
步骤S210b,终端根据第二区域的注视点信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
需要说明的是,在第一区域为左眼,第二区域为右眼的情况下,在确定预设注视点为与左眼相对应的注视点之后,终端可通过与得到左眼的注视点在显示屏上的位置信息的方法,来得到右眼的注视点在显示屏上的位置信息,具体方法与得到左眼的注视点在显示屏上的位置信息的方法相同,在此不再赘述。
实施例2
根据本发明实施例,还提供了一种基于眼动分析设备的确定注视点的方法实施例,其中,图6是根据本发明实施例的基于眼动分析设备的确定注视点的方法流程图,如图6所示,该方法包括如下步骤:
步骤S602,获取眼部的第一区域和第二区域的数据信息。
需要说明的是,本申请中的眼动分析设备包括但不限于VR(Virtual Reality,虚拟现实)设备、AR(Augmented Reality,即增强现实)设备、MR(Magic Leap,混合现实)设备、可以进行视线追踪的智能终端,例如,手机、电脑、可穿戴设备(例如,3D眼镜)等。上述眼部的第一区域可以为左眼或右眼,第二区域可以为右眼或左眼,其中,在第一区域为左眼的情况下,第二区域为右眼。
另外,第一区域的数据信息包括如下至少之一:第一区域的图像数据、与第一区域相对应的传感器的采集数据以及对第一区域进行光栅扫描的扫描结果,第二区域的数据信息包括如下至少之一:第二区域的图像数据、与第二区域相对应的传感器的采集数据以及对第二区域进行光栅扫描的扫描结果。其中,传感器的采集数据包括但不限于应力数据、电容值或电容变化值、电压值或电容变化值以及热量等。
此外,还需要说明的是,以下以第一区域为左眼,第二区域为右眼对基于眼动分析设备的中确定注视点的方法进行说明。
在一种可选的实施例中,在眼动分析设备中左眼和右眼所对应的区域分别设置一个相机,即左相机和右相机,其中,左相机可获取到左眼的图像,右相机可获取到右眼的图像,从而得到左眼的图像数据和右眼的图像数据。其中,左眼的图像数据和右眼的图像数据可以包括但不限于瞳孔的中心位置、瞳孔的大小、瞳孔形状以及投射到眼睛上的光斑的位置。
在另一种可选的实施例中,在眼动分析设备中左眼和右眼所对应的区域分别设置一个或多个电容元件,眼动分析设备可采集电容元件的电容的变化值,并根据电容的变化值分别得到左眼和右眼的数据信息,例如,左眼所对应的电容元件的电容值变大,并且电容值的变化值超过预设阈值,则说明瞳孔变大或缩小。因为眼睛转动时会导致电容值发生变化,所以可以根据电容值确定眼睛的转动状态。
此外,还需要说明的是,眼动分析设备还可根据光栅扫描的扫描结果和/或磁场的变化来确定左眼或右眼的数据信息。另外,眼动分析设备可将上述获取双眼数据信息的方法进行多种组合以获取双眼的数据信息。
步骤S604,根据第一区域和第二区域的数据信息,确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点。
需要说明的是,在第一区域为左眼,第二区域为右眼的情况下,左眼的注视点信息可以为但不限于左眼的注视点的坐标、左眼的视线方向以及左眼的视线与参照轴的角度等,同样,右眼的注视点信息可以为但不限于右眼的注视点的坐标、右眼的视线方向以及右眼的视线与参照轴的角度等。上述预设注视点为推荐使用的注视点,例如,在预设注视点为左眼所对应的注视点的情况下,终端使用左眼所对应的注视点信息来确定注视点在屏幕上的位置。其中,上述终端可以为但不限于用于数据传输的设备、用于数据处理的设备以及用于显示的客户端。
此外,还需要说明的是,由于预设注视点是在通过比较左眼所对应的注视点信息和右眼所对应的注视点信息所得到的最佳的注视点,因此,采用最佳的注视点来得到注视点在屏幕上的位置较为准确。
步骤S606,发送注视点数据至终端。
需要说明的是,对眼部的第一区域和第二区域的数据信息进行处理的是眼动分析设备的底层处理器,在底层处理器完成对眼部的第一区域和第二区域的数据信息的处理之后,将注视点数据通过函数调用、函数回调、TCP/UDP通信、管道、内存处理以及文件处理等方式发送给终端。终端在接收到注视点数据之后,根据注视点数据进行处理,从而精确确定注视点在终端的显示屏或显示界面上的位置信息。其中,上述位置信息可以为但不限于预设注视点在显示屏上的坐标、角度以及向量、虚拟空间或实际空间中的坐标、角度以及向量。
基于上述步骤S602至步骤S606所限定的方案,可以获知,通过获取眼部的第一区域和第二区域的数据信息,然后根据第一区域和第二区域的数据信息确定注视点数据,并发送注视点数据至终端,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点。
容易注意到的是,第一区域的注视点信息以及第一区域的注视点信息均存储在注视点数据中,并且底层的程序将注视点数据发送给应用程序,即应用程序可获取到两只眼睛的注视点信息,相比于现有技术中仅能给出一只眼睛的注视点信息,本申请可根据两只眼睛的注视点信息准确确定注视点在屏幕上的位置。此外,根据预设注视点可确定推荐使用的眼睛的注视点,由于根据推荐使用的注视点可得到眼睛的注视点在屏幕上较为准确的位置,由此,可进一步保证了注视点在屏幕上位置的准确性。
由上述内容可知,本申请的可以达到在双眼视差较大时仍能够准确确定注视点在屏幕上的位置的目的,从而实现了保证注视点在屏幕上的位置的准确性的技术效果,进而解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
在一种可选的实施例中,根据第一区域和第二区域的数据信息,确定注视点数据,具体包括如下步骤:
步骤S60,对第一区域和第二区域的数据信息进行处理,得到第一区域的注视点信息以及第二区域的注视点信息;
步骤S62,根据第一区域的注视点信息和第二区域的注视点信息确定预设参数的参数值,其中,预设参数至少包括如下之一:第一区域与第二区域的主辅关系、第一区域的图像数据与预设人眼模型的图像数据的匹配度、第二区域的图像数据与预设人眼模型的图像数据的匹配度、基于第一区域的置信度以及基于第二区域的置信度;
步骤S64,根据预设参数的参数值确定预设注视点。
在一种可选的实施例中,如果确定第一区域为主要确定注视点信息的区域,则第二区域为辅助确定注视点信息的区域,例如,在进行视线追踪时左眼为主要使用的眼睛,则右眼为辅助使用的眼睛。其中,可通过用户指定或者打分机制来确定视线追踪所主要使用的眼睛。另外,主要使用的眼睛并不一定是预设注视点所对应的眼睛。
在另一种可选的实施例中,眼动分析设备中存储有预设人眼模型的图像数据,其中,该预设人眼模型的图像数据可以为但不限于预设人眼模型的瞳孔大小、瞳孔中心的位置以及注视点的信息,其中,注视点的信息可以包括但不限于预设人眼模型的注视点的坐标、视线方向以及视线与参照轴的角度等。具体的,如果左眼的图像数据与预设人眼模型的图像数据的匹配度大于预设阈值,则确定左眼所对应的注视点信息与预设人眼模型的左眼所对应的注视点信息相同。同样,可以采用上述方法得到对于右眼的注视点信息。
还存在一种可选的实施例,还可以根据对第一区域的图像数据进行处理得到的置信度以及对第二区域的图像数据进行处理得到的置信度来确定预设注视点,例如,取置信度最高的图像所对应的眼睛的注视点作为预设注视点。
需要说明的是,注视点数据的格式可以为但不限于(leftx,lefty,rightx,righty,recommendedleftorright),其中,leftx和lefty表示左眼的注视点所对应的坐标,rightx和righty表示右眼的注视点所对应的坐标,recommendedleftorright表示推荐使用的注视点,即预设注视点,例如,recommendedleftorright为01,表示使用右眼随对应的注视点作为预设注视点,recommendedleftorright为10,表示使用左眼随对应的注视点作为预设注视点。
实施例3
根据本发明实施例,还提供了一种基于眼动分析设备的确定注视点的方法实施例,其中,图7是根据本发明实施例的基于眼动分析设备的确定注视点的方法流程图,如图7所示,该方法包括如下步骤:
步骤S702,接收注视点数据,其中,注视点数据包括:眼部的第一区域所对应的注视点信息、眼部的第二区域所对应的注视点信息以及预设注视点;
步骤S704,根据注视点数据确定预设注视点在显示屏上的位置信息。
需要说明的是,终端可执行步骤S702和步骤S704,其中,终端可以为但不限于眼动分析设备上的应用程序、眼动分析设备上的网页页面。
需要说明的是,上述第一区域的数据信息包括如下至少之一:第一区域的图像数据、与第一区域相对应的传感器的采集数据以及对第一区域进行光栅扫描的扫描结果,第二区域的数据信息包括如下至少之一:第二区域的图像数据、与第二区域相对应的传感器的采集数据以及对第二区域进行光栅扫描的扫描结果。
由上可知,通过接收注视点数据,并根据注视点数据确定预设注视点在显示屏上的位置信息。其中,注视点数据包括:眼部的第一区域所对应的注视点信息、眼部的第二区域所对应的注视点信息以及预设注视点。
容易注意到的是,第一区域的注视点信息以及第一区域的注视点信息均存储在注视点数据中,并且底层的程序将注视点数据发送给应用程序,即应用程序可获取到两只眼睛的注视点信息,相比于现有技术中仅能给出一只眼睛的注视点信息,本申请可根据两只眼睛的注视点信息准确确定注视点在屏幕上的位置。此外,根据预设注视点可确定推荐使用的眼睛的注视点,由于根据推荐使用的注视点可得到眼睛的注视点在屏幕上较为准确的位置,由此,可进一步保证了注视点在屏幕上位置的准确性。
由上述内容可知,本申请的可以达到在双眼视差较大时仍能够准确确定注视点在屏幕上的位置的目的,从而实现了保证注视点在屏幕上的位置的准确性的技术效果,进而解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
在一种可选的实施例中,根据注视点数据确定预设注视点在显示屏上的位置信息具体包括如下步骤:
步骤S7040,获取注视点数据中的预设注视点;
步骤S7042,获取与预设注视点对应的眼睛的注视点信息;
步骤S7044,确定在显示屏上与注视点信息相匹配的位置信息。
具体的,终端在得到注视点数据之后,终端首先对接收到的注视点数据进行解析,得到终端所能识别以及处理的数据,然后从解析得到的数据中确定作为预设注视点的眼睛,并根据确定的眼睛的注视点信息确定注视点在显示屏上的位置信息,例如,确定预设注视点所对应的眼睛为左眼,则参数recommendedleftorright=10,并根据recommendedleftorright提取出左眼所对应的注视点信息,包括但不限于左眼的注视点的向量、坐标以及角度等。在确定了注视点信息之后,根据注视点信息可确定与该注视点对应的眼睛中物体。
在一种可选的实施例中,在确定在显示屏上与注视点信息相匹配的位置信息之后,确定注视点的方法还包括:
步骤S80,在预设注视点与第一区域相匹配的情况下,获取与第一区域相匹配的第一图像;
步骤S82,根据第一图像得到与第一图像相匹配的物体的第一位置信息,其中,第一位置信息为物体在第一空间中的位置信息;
步骤S84,根据第一图像以及物体的第一位置信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
具体的,预设注视点为左眼所对应的注视点,则终端根据获取到的注视点数据可得到左眼的注视点在显示屏上的位置信息和/或左眼视图中的注视物体,即上述与第一区域相匹配的第一图像。同时,终端还可达到左眼视图中的注视物体在第一空间(即实际场景)中的位置信息(该位置信息可以为但不限于坐标、向量以及角度),即第一位置信息,终端根据上述第一图像以及物体的第一位置信息可推算得到第二区域(即右眼)的注视点在显示屏上的位置信息。
在另一种可选的实施例中,第二区域的注视点在显示屏上的位置信息还可通过注视点数据中的第二区域所对应的注视点信息得到,具体方法如下:
步骤S90,在预设注视点与第一区域相匹配的情况下,终端获取注视点数据中的第二区域的注视点信息;
步骤S92,终端根据第二区域的注视点信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
需要说明的是,在第一区域为左眼,第二区域为右眼的情况下,在确定预设注视点为与左眼相对应的注视点之后,终端可通过与得到左眼的注视点在显示屏上的位置信息的方法,来得到右眼的注视点在显示屏上的位置信息,具体方法与得到左眼的注视点在显示屏上的位置信息的方法相同,在此不再赘述。
实施例4
根据本发明实施例,还提供了一种用于执行实施例1中的基于眼动分析设备的确定注视点的方法的眼动分析设备,其中,图4示出了一种眼动分析设备的结构示意图,如图4所示,该眼动分析设备包括:采集单元401和处理单元403。
其中,采集单元401,用于获取眼部的第一区域和第二区域的数据信息;根据第一区域和第二区域的数据信息确定注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;以及发送注视点数据;处理单元403,与采集单元连接,用于接收注视点数据;以及根据注视点数据确定预设注视点在显示屏上的位置信息,包括:获取注视点数据中的预设注视点、以及获取与预设注视点对应的眼睛的注视点信息、并确定在显示屏上与注视点信息相匹配的位置信息。
需要说明的是,上述采集单元为对数据进行采集的设备,可以为但不限于相机、手机、电脑、可穿戴设备等;上述处理单元为可对数据进行处理的设备,可以为但不限于用于数据传输的设备、用于数据处理的设备以及用于显示的客户端。另外,上述第一区域的数据信息包括如下至少之一:第一区域的图像数据、与第一区域相对应的传感器的采集数据以及对第一区域进行光栅扫描的扫描结果,第二区域的数据信息包括如下至少之一:第二区域的图像数据、与第二区域相对应的传感器的采集数据以及对第二区域进行光栅扫描的扫描结果。
由上可知,通过采集单元获取眼部的第一区域和第二区域的数据信息,并根据第一区域和第二区域的数据信息确定注视点数据,与采集单元连接的处理单元接收注视点数据,以及根据注视点数据确定预设注视点在显示屏上的位置信息,包括:获取注视点数据中的预设注视点、以及获取与预设注视点对应的眼睛的注视点信息、并确定在显示屏上与注视点信息相匹配的位置信息,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;以及发送注视点数据。
容易注意到的是,第一区域的注视点信息以及第一区域的注视点信息均存储在注视点数据中,并且底层的程序将注视点数据发送给应用程序,即应用程序可获取到两只眼睛的注视点信息,相比于现有技术中仅能给出一只眼睛的注视点信息,本申请可根据两只眼睛的注视点信息准确确定注视点在屏幕上的位置。此外,根据预设注视点可确定推荐使用的眼睛的注视点,由于根据推荐使用的注视点可得到眼睛的注视点在屏幕上较为准确的位置,由此,可进一步保证了注视点在屏幕上位置的准确性。
由上述内容可知,本申请的可以达到在双眼视差较大时仍能够准确确定注视点在屏幕上的位置的目的,从而实现了保证注视点在屏幕上的位置的准确性的技术效果,进而解决了当双眼的视差较大时,眼动分析设备无法准确获取注视点在屏幕上的位置的技术问题。
在一种可选的实施例中,采集单元还用于对第一区域和第二区域的数据信息进行处理,得到第一区域的注视点信息以及第二区域的注视点信息;根据第一区域的注视点信息和第二区域的注视点信息确定预设参数的参数值,其中,预设参数至少包括如下之一:第一区域与第二区域的主辅关系、第一区域的图像数据与预设人眼模型的图像数据的匹配度、第二区域的图像数据与预设人眼模型的图像数据的匹配度、基于第一区域的置信度以及基于第二区域的置信度;根据预设参数的参数值确定预设注视点。
在一种可选的实施例中,处理单元还用于在预设注视点与第一区域相匹配的情况下,获取与第一区域相匹配的第一图像;根据第一图像得到与第一图像相匹配的物体的第一位置信息,其中,第一位置信息为物体在第一空间中的位置信息;根据第一图像以及物体的第一位置信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
实施例5
根据本发明实施例,提供了一种基于眼动分析设备的确定注视点的装置实施例。其中,图5是根据本发明实施例的基于眼动分析设备的确定注视点的装置结构示意图,如图5所示,该装置包括:第一获取模块501、第二获取模块503、发送模块505以及确定模块507。
其中,第一获取模块501,用于获取眼部的第一区域和第二区域的数据信息;第二获取模块503,用于根据第一区域和第二区域的数据信息,获取注视点数据,其中,注视点数据包括:第一区域所对应的注视点信息、第二区域所对应的注视点信息以及预设注视点;发送模块505,用于发送注视点数据至终端;确定模块507,用于终端接收注视点数据以及根据注视点数据确定预设注视点在显示屏上的位置信息。
需要说明的是,第一区域的数据信息包括如下至少之一:第一区域的图像数据、与第一区域相对应的传感器的采集数据以及对第一区域进行光栅扫描的扫描结果,第二区域的数据信息包括如下至少之一:第二区域的图像数据、与第二区域相对应的传感器的采集数据以及对第二区域进行光栅扫描的扫描结果。
此外,还需要说明的是,上述第一获取模块501、第二获取模块503、发送模块505以及确定模块507对应于实施例1中的步骤S102至步骤S108,四个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,第二获取模块包括:第五获取模块、第一确定模块以及第二确定模块。其中,第五获取模块,用于对第一区域和第二区域的数据信息进行处理,得到第一区域的注视点信息以及第二区域的注视点信息;第一确定模块,用于根据第一区域的注视点信息和第二区域的注视点信息确定预设参数的参数值,其中,预设参数至少包括如下之一:第一区域与第二区域的主辅关系、第一区域的图像数据与预设人眼模型的图像数据的匹配度、第二区域的图像数据与预设人眼模型的图像数据的匹配度、基于第一区域的置信度以及基于第二区域的置信度;第二确定模块,用于根据预设参数的参数值确定预设注视点。
需要说明的是,上述第五获取模块、第一确定模块以及第二确定模块对应于实施例1中的步骤S202至步骤S206,三个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,确定模块包括:第三获取模块、第四获取模块以及显示模块。其中,第三获取模块,用于终端获取注视点数据中的预设注视点;第四获取模块,用于终端获取与预设注视点对应的眼睛的注视点信息;显示模块,用于终端确定在显示屏上与注视点信息相匹配的位置信息。
需要说明的是,上述第三获取模块、第四获取模块以及显示模块对应于实施例1中的步骤S302至步骤S306,三个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,基于眼动分析设备的确定注视点的装置还包括:第六获取模块、第七获取模块以及第三确定模块。其中,第六获取模块,用于在预设注视点与第一区域相匹配的情况下,终端获取与第一区域相匹配的第一图像;第七获取模块,用于终端根据第一图像得到与第一图像相匹配的物体的第一位置信息,其中,第一位置信息为物体在第一空间中的位置信息;第三确定模块,用于终端根据第一图像以及物体的第一位置信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
需要说明的是,上述第六获取模块、第七获取模块以及第三确定模块对应于实施例1中的步骤S208a至步骤S212a,三个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
在一种可选的实施例中,基于眼动分析设备的确定注视点的装置还包括:第八获取模块以及第四确定模块。其中,第八获取模块,用于在预设注视点与第一区域相匹配的情况下,终端获取注视点数据中的第二区域的注视点信息;第四确定模块,用于终端根据第二区域的注视点信息确定在显示屏上与第二区域的注视点信息相匹配的位置信息。
需要说明的是,上述第八获取模块以及第四确定模块对应于实施例1中的步骤S208b至步骤S210b,两个模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。
实施例6
根据本发明实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,其中,程序执行实施例1中的基于眼动分析设备的确定注视点的方法。
实施例7
根据本发明实施例的另一方面,还提供了一种处理器,该处理器用于运行程序,其中,程序运行时执行实施例1中的基于眼动分析设备的确定注视点的方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (19)

1.一种基于眼动分析设备的确定注视点的方法,其特征在于,包括:
获取眼部的第一区域和第二区域的数据信息;
根据所述第一区域和第二区域的数据信息,确定注视点数据,其中,所述注视点数据包括:所述第一区域所对应的注视点信息、所述第二区域所对应的注视点信息以及预设注视点;
发送所述注视点数据至终端;
所述终端接收所述注视点数据以及根据所述注视点数据确定所述预设注视点在显示屏上的位置信息。
2.根据权利要求1所述的方法,其特征在于,所述第一区域的数据信息包括如下至少之一:所述第一区域的图像数据、与所述第一区域相对应的传感器的采集数据以及对所述第一区域进行光栅扫描的扫描结果,所述第二区域的数据信息包括如下至少之一:所述第二区域的图像数据、与所述第二区域相对应的传感器的采集数据以及对所述第二区域进行光栅扫描的扫描结果。
3.根据权利要求2所述的方法,其特征在于,根据所述第一区域和第二区域的数据信息,确定注视点数据,包括:
对所述第一区域和所述第二区域的数据信息进行处理,得到所述第一区域的注视点信息以及所述第二区域的注视点信息;
根据所述第一区域的注视点信息和所述第二区域的注视点信息确定预设参数的参数值,其中,所述预设参数至少包括如下之一:所述第一区域与所述第二区域的主辅关系、所述第一区域的图像数据与预设人眼模型的图像数据的匹配度、所述第二区域的图像数据与所述预设人眼模型的图像数据的匹配度、基于所述第一区域的置信度以及基于所述第二区域的置信度;
根据所述预设参数的参数值确定所述预设注视点。
4.根据权利要求1所述的方法,其特征在于,所述终端根据所述注视点数据确定所述预设注视点在显示屏上的位置信息,包括:
所述终端获取所述注视点数据中的预设注视点;
所述终端获取与所述预设注视点对应的眼睛的注视点信息;
所述终端确定在所述显示屏上与所述注视点信息相匹配的位置信息。
5.根据权利要求4所述的方法,其特征在于,在所述终端根据所述注视点数据确定所述预设注视点在显示屏上的位置信息之后,所述方法还包括:
在所述预设注视点与所述第一区域相匹配的情况下,所述终端获取与所述第一区域相匹配的第一图像;
所述终端根据所述第一图像得到与所述第一图像相匹配的物体的第一位置信息,其中,所述第一位置信息为所述物体在第一空间中的位置信息;
所述终端根据所述第一图像以及所述物体的第一位置信息确定在所述显示屏上与所述第二区域的注视点信息相匹配的位置信息。
6.一种基于眼动分析设备的确定注视点的方法,其特征在于,包括:
获取眼部的第一区域和第二区域的数据信息;
根据所述第一区域和第二区域的数据信息,确定注视点数据,其中,所述注视点数据包括:所述第一区域所对应的注视点信息、所述第二区域所对应的注视点信息以及预设注视点;
发送所述注视点数据至终端。
7.根据权利要求6所述的方法,其特征在于,所述第一区域的数据信息包括如下至少之一:所述第一区域的图像数据、与所述第一区域相对应的传感器的采集数据以及对所述第一区域进行光栅扫描的扫描结果,所述第二区域的数据信息包括如下至少之一:所述第二区域的图像数据、与所述第二区域相对应的传感器的采集数据以及对所述第二区域进行光栅扫描的扫描结果。
8.根据权利要求7所述的方法,其特征在于,根据所述第一区域和第二区域的数据信息,确定注视点数据,包括:
对所述第一区域和所述第二区域的数据信息进行处理,得到所述第一区域的注视点信息以及所述第二区域的注视点信息;
根据所述第一区域的注视点信息和所述第二区域的注视点信息确定预设参数的参数值,其中,所述预设参数至少包括如下之一:所述第一区域与所述第二区域的主辅关系、所述第一区域的图像数据与预设人眼模型的图像数据的匹配度、所述第二区域的图像数据与所述预设人眼模型的图像数据的匹配度、基于所述第一区域的置信度以及基于所述第二区域的置信度;
根据所述预设参数的参数值确定所述预设注视点。
9.一种基于眼动分析设备的确定注视点的方法,其特征在于,包括:
终端接收注视点数据,其中,所述注视点数据包括:眼部的第一区域所对应的注视点信息、眼部的第二区域所对应的注视点信息以及预设注视点;以及
所述终端根据所述注视点数据确定所述预设注视点在显示屏上的位置信息。
10.根据权利要求9所述的方法,其特征在于,根据所述注视点数据确定所述预设注视点在显示屏上的位置信息,包括:
获取所述注视点数据中的预设注视点;
获取与所述预设注视点对应的眼睛的注视点信息;
确定在所述显示屏上与所述注视点信息相匹配的位置信息。
11.根据权利要求10所述的方法,其特征在于,在确定在显示屏上与所述注视点信息相匹配的位置信息之后,所述方法还包括:
在所述预设注视点与所述第一区域相匹配的情况下,获取与所述第一区域相匹配的第一图像;
根据所述第一图像得到与所述第一图像相匹配的物体的第一位置信息,其中,所述第一位置信息为所述物体在第一空间中的位置信息;
根据所述第一图像以及所述物体的第一位置信息确定在所述显示屏上与所述第二区域的注视点信息相匹配的位置信息。
12.一种眼动分析设备,其特征在于,包括:
采集单元,用于获取眼部的第一区域和第二区域的数据信息;根据所述第一区域和第二区域的数据信息确定注视点数据,其中,所述注视点数据包括:所述第一区域所对应的注视点信息、所述第二区域所对应的注视点信息以及预设注视点;以及发送所述注视点数据;
处理单元,与所述采集单元连接,用于接收所述注视点数据;以及根据所述注视点数据确定所述预设注视点在显示屏上的位置信息,包括:获取所述注视点数据中的预设注视点、以及获取与所述预设注视点对应的眼睛的注视点信息、并确定在所述显示屏上与所述注视点信息相匹配的位置信息。
13.一种基于眼动分析设备的确定注视点的装置,其特征在于,包括:
第一获取模块,用于获取眼部的第一区域和第二区域的数据信息;
第二获取模块,用于根据所述第一区域和第二区域的数据信息,确定注视点数据,其中,所述注视点数据包括:所述第一区域所对应的注视点信息、所述第二区域所对应的注视点信息以及预设注视点;
发送模块,用于发送所述注视点数据至终端;
确定模块,用于所述终端接收所述注视点数据以及根据所述注视点数据确定所述预设注视点在显示屏上的位置信息。
14.根据权利要求13所述的装置,其特征在于,所述第一区域的数据信息包括如下至少之一:所述第一区域的图像数据、与所述第一区域相对应的传感器的采集数据以及对所述第一区域进行光栅扫描的扫描结果,所述第二区域的数据信息包括如下至少之一:所述第二区域的图像数据、与所述第二区域相对应的传感器的采集数据以及对所述第二区域进行光栅扫描的扫描结果。
15.根据权利要求14所述的装置,其特征在于,所述第二获取模块包括:
第五获取模块,用于对所述第一区域和所述第二区域的数据信息进行处理,得到所述第一区域的注视点信息以及所述第二区域的注视点信息;
第一确定模块,用于根据所述第一区域的注视点信息和所述第二区域的注视点信息确定预设参数的参数值,其中,所述预设参数至少包括如下之一:所述第一区域与所述第二区域的主辅关系、所述第一区域的图像数据与预设人眼模型的图像数据的匹配度、所述第二区域的图像数据与所述预设人眼模型的图像数据的匹配度、基于所述第一区域的置信度以及基于所述第二区域的置信度;
第二确定模块,用于根据所述预设参数的参数值确定所述预设注视点。
16.根据权利要求13所述的装置,其特征在于,所述确定模块包括:
第三获取模块,用于所述终端获取注视点数据中的预设注视点;
第四获取模块,用于所述终端获取与所述预设注视点对应的眼睛的注视点信息;
显示模块,用于所述终端确定在所述显示屏与所述注视点信息相匹配的位置信息。
17.根据权利要求16所述的装置,其特征在于,所述装置还包括:
第六获取模块,用于在所述预设注视点与所述第一区域相匹配的情况下,所述终端获取与所述第一区域相匹配的第一图像;
第七获取模块,用于所述终端根据所述第一图像得到与所述第一图像相匹配的物体的第一位置信息,其中,所述第一位置信息为所述物体在第一空间中的位置信息;
第三确定模块,用于所述终端根据所述第一图像以及所述物体的第一位置信息确定在所述显示屏上与所述第二区域的注视点信息相匹配的位置信息。
18.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序执行权利要求1至11中任意一项所述的基于眼动分析设备的确定注视点的方法。
19.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至11中任意一项所述的基于眼动分析设备的确定注视点的方法。
CN201711499453.3A 2017-12-29 2017-12-29 基于眼动分析设备的确定注视点的方法和装置 Active CN108334191B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201711499453.3A CN108334191B (zh) 2017-12-29 2017-12-29 基于眼动分析设备的确定注视点的方法和装置
PCT/CN2018/119881 WO2019128677A1 (zh) 2017-12-29 2018-12-07 基于眼动分析设备的确定注视点的方法和装置
US16/349,817 US20200272230A1 (en) 2017-12-29 2018-12-07 Method and device for determining gaze point based on eye movement analysis device
TW107147766A TW201929766A (zh) 2017-12-29 2018-12-28 基於眼動分析設備的確定注視點的方法和裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711499453.3A CN108334191B (zh) 2017-12-29 2017-12-29 基于眼动分析设备的确定注视点的方法和装置

Publications (2)

Publication Number Publication Date
CN108334191A true CN108334191A (zh) 2018-07-27
CN108334191B CN108334191B (zh) 2021-03-23

Family

ID=62924879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711499453.3A Active CN108334191B (zh) 2017-12-29 2017-12-29 基于眼动分析设备的确定注视点的方法和装置

Country Status (4)

Country Link
US (1) US20200272230A1 (zh)
CN (1) CN108334191B (zh)
TW (1) TW201929766A (zh)
WO (1) WO2019128677A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034108A (zh) * 2018-08-16 2018-12-18 北京七鑫易维信息技术有限公司 一种视线估计的方法、装置和***
CN109917923A (zh) * 2019-03-22 2019-06-21 北京七鑫易维信息技术有限公司 基于***调整注视区域的方法以及终端设备
WO2019128677A1 (zh) * 2017-12-29 2019-07-04 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置
CN112215120A (zh) * 2020-09-30 2021-01-12 山东理工大学 视觉搜索区域的确定方法、装置及驾驶模拟器
CN112288855A (zh) * 2020-10-29 2021-01-29 张也弛 一种操作者眼睛注视模型的建立方法及装置
CN116052235A (zh) * 2022-05-31 2023-05-02 荣耀终端有限公司 注视点估计方法及电子设备
CN116824683A (zh) * 2023-02-20 2023-09-29 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及***

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110879976B (zh) * 2019-12-20 2023-04-21 陕西百乘网络科技有限公司 自适应智能眼动数据处理***及其使用方法
CN113255431B (zh) * 2021-04-02 2023-04-07 青岛小鸟看看科技有限公司 用于远程教学的提醒方法、装置及头戴显示设备
CN113992885B (zh) * 2021-09-22 2023-03-21 联想(北京)有限公司 一种数据同步方法及装置
US20230109171A1 (en) * 2021-09-28 2023-04-06 Honda Motor Co., Ltd. Operator take-over prediction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104113680A (zh) * 2013-04-19 2014-10-22 北京三星通信技术研究有限公司 视线跟踪***及方法
CN104285243A (zh) * 2012-05-09 2015-01-14 Nec卡西欧移动通信株式会社 三维图像显示设备及其光标显示方法和计算机程序
CN104834381A (zh) * 2015-05-15 2015-08-12 中国科学院深圳先进技术研究院 用于视线焦点定位的可穿戴设备及视线焦点定位方法
CN106325510A (zh) * 2016-08-19 2017-01-11 联想(北京)有限公司 信息处理方法及电子设备
CN106896952A (zh) * 2011-03-31 2017-06-27 富士胶片株式会社 立体显示设备和接受指令的方法
CN107014378A (zh) * 2017-05-22 2017-08-04 中国科学技术大学 一种视线跟踪瞄准操控***及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106066696B (zh) * 2016-06-08 2019-05-14 华南理工大学 自然光下基于投影映射校正和注视点补偿的视线跟踪方法
CN106778687B (zh) * 2017-01-16 2019-12-17 大连理工大学 基于局部评估和全局优化的注视点检测方法
CN108334191B (zh) * 2017-12-29 2021-03-23 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106896952A (zh) * 2011-03-31 2017-06-27 富士胶片株式会社 立体显示设备和接受指令的方法
CN104285243A (zh) * 2012-05-09 2015-01-14 Nec卡西欧移动通信株式会社 三维图像显示设备及其光标显示方法和计算机程序
CN104113680A (zh) * 2013-04-19 2014-10-22 北京三星通信技术研究有限公司 视线跟踪***及方法
CN104834381A (zh) * 2015-05-15 2015-08-12 中国科学院深圳先进技术研究院 用于视线焦点定位的可穿戴设备及视线焦点定位方法
CN106325510A (zh) * 2016-08-19 2017-01-11 联想(北京)有限公司 信息处理方法及电子设备
CN107014378A (zh) * 2017-05-22 2017-08-04 中国科学技术大学 一种视线跟踪瞄准操控***及方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019128677A1 (zh) * 2017-12-29 2019-07-04 北京七鑫易维信息技术有限公司 基于眼动分析设备的确定注视点的方法和装置
CN109034108A (zh) * 2018-08-16 2018-12-18 北京七鑫易维信息技术有限公司 一种视线估计的方法、装置和***
CN109034108B (zh) * 2018-08-16 2020-09-22 北京七鑫易维信息技术有限公司 一种视线估计的方法、装置和***
CN109917923A (zh) * 2019-03-22 2019-06-21 北京七鑫易维信息技术有限公司 基于***调整注视区域的方法以及终端设备
CN109917923B (zh) * 2019-03-22 2022-04-12 北京七鑫易维信息技术有限公司 基于***调整注视区域的方法以及终端设备
CN112215120A (zh) * 2020-09-30 2021-01-12 山东理工大学 视觉搜索区域的确定方法、装置及驾驶模拟器
CN112288855A (zh) * 2020-10-29 2021-01-29 张也弛 一种操作者眼睛注视模型的建立方法及装置
CN116052235A (zh) * 2022-05-31 2023-05-02 荣耀终端有限公司 注视点估计方法及电子设备
CN116052235B (zh) * 2022-05-31 2023-10-20 荣耀终端有限公司 注视点估计方法及电子设备
CN116824683A (zh) * 2023-02-20 2023-09-29 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及***
CN116824683B (zh) * 2023-02-20 2023-12-12 广州视景医疗软件有限公司 一种基于移动设备的眼动数据采集方法及***

Also Published As

Publication number Publication date
TW201929766A (zh) 2019-08-01
US20200272230A1 (en) 2020-08-27
WO2019128677A1 (zh) 2019-07-04
CN108334191B (zh) 2021-03-23

Similar Documents

Publication Publication Date Title
CN108334191A (zh) 基于眼动分析设备的确定注视点的方法和装置
CN108830894A (zh) 基于增强现实的远程指导方法、装置、终端和存储介质
CN111984114B (zh) 基于虚拟空间的多人交互***及其多人交互方法
US9420263B2 (en) Information processor and information processing method
US9456205B2 (en) Mobile terminal and method of controlling the operation of the mobile terminal
CN106060520A (zh) 一种显示模式切换方法及其装置、智能终端
CN104536579A (zh) 交互式三维实景与数字图像高速融合处理***及处理方法
CN110378914A (zh) 基于注视点信息的渲染方法及装置、***、显示设备
CN109901710A (zh) 媒体文件的处理方法和装置、存储介质及终端
CN110009750B (zh) 一种基于三维模型的房间图像显示方法及装置
CN109640070A (zh) 一种立体显示方法、装置、设备及存储介质
CN106302427A (zh) 在虚拟现实环境中的分享方法及装置
CN109521871B (zh) 一种融合功能的训练方法、装置、设备及存储介质
CN106598250B (zh) 一种vr显示方法、装置和电子设备
CN113467619A (zh) 画面显示方法、装置和存储介质及电子设备
US10482671B2 (en) System and method of providing a virtual environment
CN113438465A (zh) 一种显示调节方法、装置、设备及介质
CN107592520A (zh) Ar设备的成像装置及成像方法
CN109842791B (zh) 一种图像处理方法及装置
CN112929638A (zh) 眼部定位方法、装置及多视点裸眼3d显示方法、设备
CN115268650A (zh) 画面截屏方法、装置、头戴式虚拟现实设备和存储介质
CN112532964B (zh) 图像处理方法、设备、装置及可读存储介质
CN111405262B (zh) 一种视点信息生成方法、装置、***、设备和介质
CN114518825A (zh) 一种基于xr技术的人机交互方法及***
CN113946221A (zh) 眼部驱动控制方法和装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant