CN110171427B - 视线追踪的方法、装置及*** - Google Patents
视线追踪的方法、装置及*** Download PDFInfo
- Publication number
- CN110171427B CN110171427B CN201910461505.0A CN201910461505A CN110171427B CN 110171427 B CN110171427 B CN 110171427B CN 201910461505 A CN201910461505 A CN 201910461505A CN 110171427 B CN110171427 B CN 110171427B
- Authority
- CN
- China
- Prior art keywords
- equipment
- type
- user
- tracking
- sight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
本发明提供了一种视线追踪的方法,包括:获取第一类设备追踪到的用户的视线信息,并判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;若判断出无法获取到第二类设备追踪到的用户的视线信息,则输出第一类设备追踪到的用户的视线信息;若判断出能获取到第二类设备追踪到的用户的视线信息,则获取第二类设备追踪到的用户的视线信息,并输出所述第二类设备追踪到的用户的视线信息。通过第一类设备与第二类设备的相互协作,弥补两类设备的不足,从而既能进行大范围的视线追踪,又能在需要的位置得到精确的用户的视线信息。
Description
技术领域
本发明涉及视线追踪技术领域,特别涉及一种视线追踪的方法、装置及***。
背景技术
随着人机交互技术的发展,视线追踪技术得到了广泛的关注。视线追踪技术是一种利用眼动测量设备以毫秒级捕捉使用者眼睛图像,通过分析瞳孔轮廓、虹膜轮廓、瞳孔中心、虹膜中心及外界光源在角膜上的反射点等特征的相对位置,估计用户的视线方向或者视线落点的技术。
现今,人们已经开始尝试在车上应用视线追踪技术来辅助驾驶,例如,对驾驶员的驾驶状态的监控、通过视线控制中控屏等。由于驾驶员的视线范围是从左后视镜到右后视镜,所以需要进行视线追踪的范围比较大。现有技术中,主要采用两类设备进行视线追踪。一种是基于人脸外观进行视线追踪的设备,这种设备的可追踪范围比较大,能覆盖驾驶员的整个视线范围,但是精度较低,所以通过这种设备对仪表盘或中控屏等设备进行控制,安全性比较低。另一种是基于人眼的瞳孔和光斑进行视线追踪的设备,这种设备虽然精度高,但是可追踪范围小,无法对驾驶员的整个视线范围进行追踪。并且,同一类设备同时工作,会互相的干扰,造成追踪结果的不准确。所以,如何在满足较大的视线追踪范围的情况下,又能在需要的范围内获得驾驶员的精确视线,显得尤为重要。
发明内容
基于上述现有技术的不足,本发明提出一种视线追踪的方法、装置及***,以解决无法在满足大范围的视线追踪的同时,得到用户的精确视线信息的问题。
为了实现上述目的,本发明提供了以下技术方案:
本发明第一方面提供了一种视线追踪的方法,包括:
获取第一类设备追踪到的用户的视线信息,并判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
若判断出无法获取到第二类设备追踪到的用户的视线信息,则输出所述第一类设备追踪到的用户的视线信息;
若判断出能获取到第二类设备追踪到的用户的视线信息,则获取所述第二类设备追踪到的用户的视线信息,并输出所述第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪的方法中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不同,包括:
所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
可选地,在上述的视线追踪的方法中,所述判断是否能获取到第二类设备追踪到的用户的视线信息,包括:
判断所述第一类设备追踪到的用户的视线信息是否落入所述第二类设备的追踪范围;
其中,若判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围,则判断出无法获取到第二类设备追踪到的用户的视线信息;若判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围,则判断出能获取到第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪的方法中,所述获取所述第二类设备追踪到的用户的视线信息,包括:
控制所述第一类设备追踪到的用户的视线信息落入的追踪范围对应的第二类设备,对用户进行视线追踪,得到用户的视线信息;
获取所述第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪的方法中,所述获取所述第二类设备追踪到的用户的视线信息之前,还包括:
获取所述第一类设备获取的用户的姿态信息;
将所述姿态信息发送给能追踪到用户的视线信息的第二类设备;其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
可选地,在上述的视线追踪的方法中,所述获取所述第二类设备追踪到的用户的视线信息之后,还包括:
判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围;
若判断所述第一类设备实时追踪的用户的视线信息超出了所述第二类设备的追踪范围,则关闭所述第二类设备。
本发明第二方面提供了一种视线追踪装置,包括:
第一获取单元,用于获取第一类设备追踪到的用户的视线信息;
第一判断单元,用于判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
第一输出单元,用于在所述第一判断单元判断出无法获取到第二类设备追踪到的用户的视线信息时,输出所述第一类设备追踪到的用户的视线信息;
第二获取单元,用于在所述第一判断单元判断出能获取到第二类设备追踪到的用户的视线信息时,获取所述第二类设备追踪到的用户的视线信息;
第二输出单元,用于输出所述第二获取单元获取的所述第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪装置中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不同,包括:
所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
可选地,在上述的视线追踪装置中,所述第一判断单元,包括:
第一判断子单元,用于判断所述第一类设备追踪到的用户的视线信息是否落入所述第二类设备的追踪范围;
其中,若判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围,则判断出无法获取到第二类设备追踪到的用户的视线信息;若判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围,则判断出能获取到第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪装置中所述第二获取单元,包括:
控制单元,用于控制所述第一类设备追踪到的用户的视线信息落入的追踪范围所对应的第二类设备,对用户进行视线追踪,得到用户的视线信息;
第二获取子单元,获取所述第二类设备追踪到的用户的视线信息。
可选地,在上述的视线追踪装置中,还包括:
第三获取单元,用于获取所述第一类设备获取的用户的姿态信息;
发送单元,将所述姿态信息发送给能追踪到用户的视线信息的第二类设备;其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
可选地,在上述的视线追踪装置中,还包括:
第二判断单元,用于判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围;
关闭单元,用于在所述第二判断单元判断出所述第一类设备实时追踪的用户的视线信息超出了所述第二类设备的追踪范围,关闭所述第二类设备。
本发明第三方面提供了一种视线追踪***,包括:
第一类设备、第二类设备和视线追踪装置;
所述第一类设备和第二类设备,用于追踪用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
所述视线追踪装置,用于执行上述的视线追踪的方法。
可选地,在上述的视线追踪***中,其特征在于,所述视线追踪装置设置于所述第一类设备中,或者设置于所述第二类设备中。
可选地,在上述的视线追踪***中,其特征在于,所述第一类设备为采用基于人脸外观的方法进行视线追踪的设备。
可选地,在上述的视线追踪***中,其特征在于,所述第二类设备为采用基于眼部特征的方法进行视线追踪的设备。
可选地,在上述的视线追踪***中,其特征在于,所述第一类设备和第二类设备分别采用不同的工作波长。
本发明提供的视线追踪的方法、装置及***,通过视线追踪范围和/或视线追踪精度不相同的第一类设备和第二类设备相结合。先通过第一类设备对用户的视线追踪,可以得到用户在第一类设备的视线追踪范围内的视线信息,然后在能获取到第二类设备追踪到的用户的视线信息时,输出第二类设备追踪到的用户的视线信息,在无法获取到第二类设备追踪到的用户的视线信息,则输出第一类设备追踪到的用户的视线信息。通过第一类设备和第二类设备的结合的方式,弥补两类设备在视线追踪范围和视线追踪精度上的不足,从而既能保证在大范围内得到用户的视线信息,又能在需要的范围内获得用户的精确的视线信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种视线追踪***的结构示意图;
图2为汽车中驾驶员的视线范围的示意图;
图3为本发明另一实施例提供的一种视线追踪的方法的流程图;
图4为本发明另一实施例提供的一种视线追踪的方法的流程图;
图5为本发明另一实施例提供的一种视线追踪的方法的流程图;
图6为本发明另一实施例提供的一种视线追踪的方法的流程图;
图7为本发明另一实施例提供的一种视线追踪装置的结构示意图;
图8为本发明另一实施例提供的一种第二获取单元的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种视线追踪***,如图1所示,包括:
第一类设备101、第二类设备102和视线追踪装置103。
其中,第一类设备101和第二类设备102,用于追踪用户的视线信息;其中,其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同。具体的,可以是所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。其中,所述用户的视线信息可以包括用户的视线方向以及注视点等。
可选地,第一类设备101为采用基于人脸外观的方法进行视线追踪的设备。其中,所述采用基于人脸外观的方法进行视线追踪的设备,可以简单理解为通过人脸外观来得到用户的视线信息的设备。例如,利用神经网络模型进行视线追踪的设备,通过使用大量的样本训练神经网络模型,使得训练完后的神经网络模型,能根据输入的用户的人脸图像,直接得到用户的视线信息。因为仅是通过人脸外观,就得到用户的视线信息,所以第一类设备101的视线追踪精度相对较低。但是,同样由于第一类设备101通过人脸外观,就能得到的用户的视线信息。所以,即使用户的眼睛转角比较大,或者用户的头部转动的范围比较大,依旧能获得用户的脸部外观,从而得到用户的视线信息。因此,第一类设备101拥有比较大的追踪范围,通常将一个第一类设备101安装于用户的视线范围的中心位置,就可以在用户的整个视线范围内,都能对用户进行视线追踪。
由于追踪范围大,精度低的特点,因此第一类设备通常只用于,需要大范围进行视线追踪,但对精度要求不高的应用场景中。例如,用于对车辆驾驶员的驾驶状态进行监控。由于,驾驶员在驾驶过程中,驾驶员的视线范围是从左后视镜到右后视镜,如图2所示,驾驶员的视线范围通常都超过了90度。所以,需要进行视线追踪的范围比较大。但是,由于根据驾驶员的大致的视线信息就可以知道驾驶员的驾驶状态,例如疲劳驾驶等。但是,对于精度要求比较高的功能,通过第一类设备是无法实现的,或者是存在着安全性低的问题。例如,通过第一类设备实现对车上的中控屏的视线控制,就非常的不安全。
可选地,第二类设备102为采用基于眼部特征的方法进行视线追踪的设备。具体的,所述眼部特征可以包括:瞳孔位置、光斑位置、瞳孔形状、虹膜形状等。需要说明的是,第二类设备102需要根据用户的眼部特征,来得到用户的视线信息。所以,第二类设备102所追踪到的用户的视线信息,要比第一类设备101追踪到的用户的视线信息更加的精确。因为,第二类设备102能达到图标级的检测,所以通常用于实现对其他设备的视线控制。例如,用于实现对车上的中控屏视线控制,即通过驾驶员的视线信息,就可以对中控屏进行操作。
但是,由于当用户的眼睛的转角太大或者头部转动的幅度过大时,就无法获得用户的眼部特征,也就无法进行眼部跟踪。因此,第二类设备102的追踪范围相对第一类设备101来说比较小,一般只有30度。所以,一般在每一个需要利用到用户的精确的视线信息的设备处,都需要相应设置一个第二类设备。例如,对于车上的中控屏以及仪表盘都要进行视线控制,就需要在中控屏处相应地配置有一个第二类设备,在仪表盘处也要相应地配置有一个第二类设备。
视线追踪装置103主要用于,获取第一类设备追踪到的用户的视线信息,并判断是否能获取第二类设备追踪到的用户的视线信息;若能获取第二类设备追踪到的用户的视线信息,则获取第二类设备追踪到的用户的视线信息,并输出第二类设备追踪到的用户的视线信息;若无法获取到第二类设备追踪到的用户的视线信息,则输出第一类设备追踪到的用户的视线信息。
可选地,视线追踪装置103可以是一个完全独立的个体,也可以设置于第一类设备中,或者,设置于第二类设备102中。
可选地,第一类设备101和第二类设备102分别采用不同的工作波长。从而能有效的避免两类设备采用同一工作波长,而相互干扰,从而导致追踪到的用户的视线信息不精确的问题。
具体地,第一类设备101采用可见光进行工作,第二类设备102采用红外光进行工作。
基于上述视线追踪***,本发明的另一实施例提供了一种视线追踪的方法,所述方法由视线追踪装置来执行,如图3所示,所述方法包括:
S301、获取第一类设备追踪到的用户的视线信息。
其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同。
可选地,本实施例中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同,具体为:所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
需要说明的是,所述第一类设备通常为一个,并且能实时对用户的整个视线范围进行视线追踪,所以可以实时获取的第一类设备追踪到的用户的视线信息。
S302、判断是否能获取到第二类设备追踪到的用户的视线信息。
其中,所述第二类设备可以是一个,也可以是多个。
需要说明的是,正常情况下,只要第二类设备能追踪到用户的视线信息,就能获取到第二类设备追踪到的用户的视线信息,即就可以判断出能获取到第二类设备追踪到的用户的视线信息。
可选地,本发明的另一实施例中,所述步骤S302的一种具体实施方式,包括:
判断所述第一类追踪到的用户的视线信息是否落入所述第二类设备的追踪范围内。
其中,若判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围内,则判断出无法获取到第二类设备追踪到的用户的视线信息。由于,第二类设备的追踪范围比较小,所以只有用户的视线信息落入第二类设备的追踪范围内,第二类设备才能对用户追踪到用户的视线信息,也才能获取到第二类设备追踪到的用户的视线信息。所以,当判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围内,则相当于判断出无法获取到第二类设备追踪到的用户的视线信息。
在第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围内,说明用户未想使用,基于第二类设备追踪到的用户的视线信息来实现的功能。
同理,若判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围内,则判断出能获取到第二类设备追踪到的用户的视线信息。
可选地,可以通过第一类设备的追踪范围、第二类设备的追踪范围在第一类设备追踪范围中的位置以及第一类设备追踪到的用户的视线信息,判断所述第一类设备追踪到的用户的视线信息是否落入第二类设备的追踪范围内。例如,第一类设备的追踪范围为0度至100度的范围,第二类设备的追踪范围为30度的范围,并且第二类设备的追踪范围刚好为第一类设备的追踪范围的第30度至60度的范围。所以,只要判断第一类设备追踪到的用户的视线信息是否落入第一类设备的追踪范围的30度至60度的范围内,就可以判断出用户的视线信息是否落入该第二类设备的追踪范围内。当然,只是其中一种判断的方式,其他同样能判断出,所述用户的视线信息是否落入第二类设备的追踪范围内的方式,都属于本发明的保护范畴。
还需要说明的是,若执行步骤S302,判断出无法获取到第二类设备追踪到的用户的视线信息,则执行步骤S303;若执行步骤S302,判断出能获取到第二类设备追踪到的用户的视线信息,则执行步骤S304。
S303、输出所述第一类设备的追踪到的用户的视线信息。
需要说明的,虽然第一类设备追踪到的用户的视线信息,相对于第二类追踪到的用户的视线信息精度较低,但是通过第一类设备追踪到的用户的大致的视线信息,同样能实现一些对视线信息精度要求不高的功能,例如对驾驶员的驾驶状态的监控。所以,此时输出所述第一类设备追踪到的用户的视线信息,给其他设备用于实现相应的功能。
S304、获取第二类设备追踪到的用户的视线信息。
第二类设备同样可以在其追踪范围内,实时对用户进行视线追踪,所以可以实时获取第二类设备追踪到的用户的视线信息。
可选地,本发明另一实施例中,所述步骤S304的一种实施方式,如图4所示,包括:
S401、控制所述第一类设备追踪到的用户的视线信息落入的追踪范围对应的所述第二类设备,对所述用户进行视线追踪,得到用户的视线信息。
具体的,所述控制所述第一类设备追踪到的用户的视线信息落入的追踪范围对应的所述第二类设备,对所述用户进行视线追踪,得到用户的视线信息,可以是:启动或激活所述控制所述第一类设备追踪到的用户的视线信息落入的追踪范围对应的所述第二类设备,对所述用户进行视线追踪,得到用户的视线信息。
也就是说,第二类设备可以包括多个,并且所有的第二类设备的初始状态都可以处于关闭和/或待机状态,当用户的视线信息落入哪一个第二类设备的追踪范围,则启动用户的视线信息落入的追踪范围对应的第二类设备,对用户进行视线追踪。而其他设备仍然处于关闭和/或待机状态。
需要说明的是,第二类设备是采用基于眼部特征的方法进行视线追踪的设备,所以第二类设备通常都采用的工作波长为红外光。具体的,第二类设备通过红外灯,向用户发射红外光,然后由红外传感器或红外相机获取用户的红外影像,基于用户的红外影像得到用户的眼部特征,最终基于用户的眼部特征得到用户的视线信息。所以,多个第二类设备采用同一的工作波长同时工作,容易彼此干扰,从而使得追踪到的用户的视线信息不准确。因此,在同一时刻内只能有一个第二类设备进行工作。这也是为什么,在存在多个第二类设备时,第二类设备的初始状态都处于关闭和/或待机状态的主要原因,也是为什么不能使用多台第二类设备相结合,来弥补其追踪范围小的缺点的其中一个原因。
而第一类设备仅是基于人脸外观进行视线追踪,所以第一类设备通常采用的工作波长为可见光。因为,第一类设备和第二类设备的工作波长不同,所以第一类设备和第二类设备可以同时工作。而第一类设备的追踪范围比较大,无需配置多个。而通过结合第二类设备,则可以弥补第一类设备精度低的缺点。
所以,在存在多个第二类设备时,所有的第二类设备的初始状态都处于关闭和/或待机状态。当用户的视线信息落入哪一个第二类设备的追踪范围,则启动或激活相应的第二类设备,来对用户进行视线追踪。
S402、获取第二类设备追踪到的用户的视线信息。
需要说明是,所述得到用户的视线信息为,第二类设备追踪到的用户的视线信息,区别于所述第一类设备追踪到的用户信息。第二类设备由于是采用基于眼部特征进行视线追踪的设备,具体要分析人眼的特征,才能得到用户的视线信息,所以第二类设备追踪到的用户的视线信息更加的精确。具体的,可以通过第二类设备追踪到的用户的视线信息,来实现对其他电子设备的视线控制。例如,通过获取驾驶员的精确的视线信息,来实现驾驶员通过视线控制中控屏的功能。
可选地,本发明的另一实施例中,在执行步骤S304之前,如图5所示,还可以进一步包括:
S501、获取所述第一类设备获取的用户的姿态信息。
其中,所述用户的姿态信息可以是用户的头部位置等。也就是说,第一类设备除了能追踪到用户的视线信息外,还可以获取到用户的姿态信息。
S502、将所述姿态信息发送给能追踪到用户的视线信息的第二类设备。
其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
具体的,所述能追踪到用户的视线信息的第二类设备,通常指的就是用户的视线信息落入的追踪范围所对应第二类设备。
需要说明的是,所述第二类设备相应的调整工作状态,可以是调整自身的位置和朝向,具体为调整红外灯以及红外相机的位置和朝向,以更好的对用户进行视线追踪,得到用户的视线信息。
可选地,本发明的另一实施例中,在执行步骤S304后,还包括一种避免第二类设备同时工作的实施方式,如图6所示,所述方式具体包括:
S601、判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围。
需要说明的是,用户的视线信息若超出所述第二类设备的追踪范围,则说明第二类设备已经无法追踪到用户的视线信息。此后,用户的视线信息可能会落入其他第二类设备的追踪范围中,所以为了避免多个第二类设备同时工作,互相干扰,需要在用户的视线超出所述第二类设备的追踪范围时,及时的关闭所述第二类设备。
因为,可以通过第一类设备追踪到的用户的视线信息,判断出用户的视线信息是否落入第二类设备的范围。那么。同理可以通过第一类设备实时追踪到的用户的视线信息,视线追踪装置实时接收第一类设备追踪的用户的视线信息,并对接收到的用户的视线信息进行判断,判断用户的视线信息是否超出第二类设备的追踪范围。例如,同步骤S302中所举的例子,第一类设备的追踪范围为0度至100度的范围,第二类设备的追踪范围为30度的范围,并且刚好为第一类设备的追踪范围的第30度至第60度的范围。那么当判断用户的视线信息不落在第一类设备的追踪范围中的第30度至第60度的范围中,则说明用户的视线信息超出了第二类设备的追踪范围。
也就是说,在第二类设备追踪用户的视线信息同时,第一类设备可处于正常工作状态,实时追踪用户的视线信息。
当然,可以通过判断所述第二类设备是否追踪到所述用户的视线信息,来判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围。若判断出第二类设备无法追踪到的用户的视线信息,则判断出所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围。若判断出第二类设备能追踪到的用户的视线信息,则判断出所述第一类设备实时追踪到的用户的视线信息没有超出所述第二类设备的追踪范围。
因为,当第二类设备不再能追踪到用户的视线信息时,说明用户的视线信息已经超出了所述第二类设备的追踪范围了。当第二类设备能追踪到用户的视线信息,说明用户的视线信息还落在第二类设备的追踪范围内。所以,除了直接通过第一类设备追踪到的视线信息来,判断用户的视线信息是否超出第二类设备的追踪范围外,还可以通过第二类设备是否能追踪到用户的视线信息,来判断用户的视线信息是否超出第二类设备的追踪范围外。
还需要说明的是,当用户的视线信息落入第二类设备的追踪范围时,能通过第二类设备追踪到的用户的视线信息,可以不需要第一类设备追踪到的用户的视线信息,并且在判断用户的视线信息是否超出第二类设备的追踪时,也没有用到第一类设备。所以,可选地,在用户的视线信息落入第二类设备的追踪范围时,开启第二类设备的同时,关闭第一类设备,从而达到节能的目的。当关闭第二类设备时,再开启第一类设备。此时,对于基于第一类设备追踪到的用户的视线信息来实现的功能,可以利用第二类设备追踪到的用户的视线信息去实现。例如,对驾驶员的驾驶状态的监控。
当然,这只是一种可选的方式。通常为了避免第二类设备出现问题时,影响基于第二类设备实现的功能的同时,也影响到基于第一类设备实现的功能。所以,一般都不选择关闭第一类设备。
还需要说明的是,若执行S601判断出第一类设备实时追踪到的用户的视线信息超出了所述第二类设备的追踪范围,则执行步骤S602。
S602、关闭所述第二类设备。
其中,所述第二类设备指的是,所述用户的视线信息超出的追踪范围所对应的第二类设备。
还需要说明的是,在执行步骤S304获取到第二类设备追踪到的用户的视线信息后,执行步骤S305。
S305、输出第二类设备追踪到的用户的视线信息。
需要说明的是,当获取到第二类设备追踪到的用户的视线信息时,可以通过第二类设备追踪到的用户的精确视线信息,去实现对其他电子设备进行视线控制等功能。而通过第一类设备追踪到的用户的大致的视线信息,是无法实现对电子设备的视线控制等功能,或者不能很好的实现对电子设备的视线控制等功能。所以,此时必须要输出第二类设备追踪到的用户的视线信息。
由于,第二类设备的视线追踪精度高于第一类设备的视线追踪精度,所以通过第二类设备追踪到的用户的视线信息,能更好的实现基于第一类设备追踪到的用户的视线来实现的功能。所以,此时可以不用输出第一类设备的追踪到的视线信息。
本发明实施例提供的视线追踪的方法,通过视线追踪范围和/或视线追踪精度不相同的第一类设备和第二类设备共同协作。通过第一类设备对用户的视线追踪,可以得到用户的大范围内的视线信息,而通过第二类设备,可以在需要的范围内获取到相对精确的用户的视线信息。在能获取到第二类设备追踪到的用户的视线信息时,输出第二类设备追踪到的用户的视线信息,在无法获取到第二类设备追踪到的用户的视线信息,则输出第一类设备追踪到的用户的视线信息。通过第一类设备和第二类设备的结合的方式,弥补两类设备在视线追踪范围和视线追踪精度上的不足,既能保证在大范围内得到用户的视线信息,又能在需要的范围内获得用户的精确的视线信息。并且,能很好的避免出现多个第二类设备同时工作,互相干扰的,导致视线信息精度降低的问题。
本发明的另一实施例提供了一种视线追踪装置,如图7所示,包括:
第一获取单元701,用于获取第一类设备追踪到的用户的视线信息。
需要说明的是,第一获取单元701的具体工作过程,可参见上述方法实施例中步骤S301,此处不再赘述。
第一判断单元702,用于判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同。
需要说明的是,第一判断单元702的具体工作过程,可参见上述方法实施例中步骤S302,此处不再赘述。
第一输出单元703,用于在所述第一判断单元判断出无法获取到第二类设备追踪到的用户的视线信息时,输出所述第一类设备追踪到的用户的视线信息。
需要说明的是,第一输出单元703的具体工作过程,可参见上述方法实施例中步骤S303,此处不再赘述。
第二获取单元704,用于在所述第一判断单元判断出能获取到第二类设备追踪到的用户的视线信息时,获取所述第二类设备追踪到的用户的视线信息。
需要说明的是,第二获取单元704的具体工作过程,可参见上述方法实施例中步骤S304,此处不再赘述。
第二输出单元705,用于输出所述第二获取单元获取的所述第二类设备追踪到的用户的视线信息。
需要说明的是,第二判断单元705的具体工作过程,可参见上述方法实施例中步骤S305,此处不再赘述。
可选的,本发明另一实施例中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同,具体为:
所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
可选地,本发明另一实施例中,第一判断单元702,包括:
第一判断子单元,用于判断所述第一类设备追踪到的用户的视线信息是否落入所述第二类设备的追踪范围。
其中,若判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围,则判断出无法获取到第二类设备追踪到的用户的视线信息;若判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围,则判断出能获取到第二类设备追踪到的用户的视线信息。
需要说明的是,第一判断子单元的具体工作过程,可参见上述方法实施例中步骤S302的一种实施方案,此处不再赘述。
可选地,本发明另一实施例中,如图8所示,第二获取单元,包括:
控制单元801,用于控制所述第一类设备追踪到的用户的视线信息落入的追踪范围所对应的第二类设备,对用户进行视线追踪,得到用户的视线信息。
需要说明的是,控制单元801的具体工作过程,可参见上述方法实施例中步骤401,此处不再赘述。
第二获取子单元802,获取所述第二类设备追踪到的用户的视线信息。
需要说明的是,第二获取子单元的具体工作过程,可参见上述方法实施例中步骤S402,此处不再赘述。
可选地,本发明另一实施例中,所述视线追踪装置,还包括:
第三获取单元,用于获取所述第一类设备获取的用户的姿态信息。
需要说明的是,第三获取单元的具体工作过程,可参见上述方法实施例中步骤S501,此处不再赘述。
发送单元,将所述姿态信息发送给能追踪到用户的视线信息的第二类设备。
其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
需要说明的是,发送单元的具体工作过程,可参见上述方法实施例中步骤S502,此处不再赘述。
第二判断单元,用于判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围。
需要说明的是,第二判断单元的具体工作过程,可参见上述方法实施例中步骤S601,此处不再赘述。
关闭单元,用于在所述第二判断单元判断出所述第一类设备实时追踪的用户的视线信息超出了所述第二类设备的追踪范围,关闭所述第二类设备。
需要说明的是,关闭单元的具体工作过程,可参见上述方法实施例中步骤S602,此处不再赘述。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。
Claims (13)
1.一种视线追踪的方法,其特征在于,包括:
获取第一类设备追踪到的用户的视线信息,并判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
若判断出无法获取到第二类设备追踪到的用户的视线信息,则输出所述第一类设备追踪到的用户的视线信息;
若判断出能获取到第二类设备追踪到的用户的视线信息,则获取所述第二类设备追踪到的用户的视线信息,并输出所述第二类设备追踪到的用户的视线信息;
其中,所述判断是否能获取到第二类设备追踪到的用户的视线信息,包括:
判断所述第一类设备追踪到的用户的视线信息是否落入所述第二类设备的追踪范围内;
其中,若判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围内,则判断出无法获取到第二类设备追踪到的用户的视线信息;若判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围内,则判断出能获取到第二类设备追踪到的用户的视线信息。
2.根据权利要求1所述的方法,其特征在于,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不同,包括:
所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
3.根据权利要求1所述的方法,其特征在于,所述获取所述第二类设备追踪到的用户的视线信息,包括:
控制所述第一类设备追踪到的用户的视线信息落入的追踪范围对应的第二类设备,对用户进行视线追踪,得到用户的视线信息;
获取所述第二类设备追踪到的用户的视线信息。
4.根据权利要求1或2所述的方法,其特征在于,所述获取所述第二类设备追踪到的用户的视线信息之前,还包括:
获取所述第一类设备获取的用户的姿态信息;
将所述姿态信息发送给能追踪到用户的视线信息的第二类设备;其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
5.根据权利要求1或2所述的方法,其特征在于,所述获取所述第二类设备追踪到的用户的视线信息之后,还包括:
判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围;
若判断所述第一类设备实时追踪的用户的视线信息超出了所述第二类设备的追踪范围,则关闭所述第二类设备。
6.一种视线追踪装置,其特征在于,包括:
第一获取单元,用于获取第一类设备追踪到的用户的视线信息;
第一判断单元,用于判断是否能获取到第二类设备追踪到的用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
第一输出单元,用于在所述第一判断单元判断出无法获取到第二类设备追踪到的用户的视线信息时,输出所述第一类设备追踪到的用户的视线信息;
第二获取单元,用于在所述第一判断单元判断出能获取到第二类设备追踪到的用户的视线信息时,获取所述第二类设备追踪到的用户的视线信息;
第二输出单元,用于输出所述第二获取单元获取的所述第二类设备追踪到的用户的视线信息;
其中,所述第一判断单元,包括:
第一判断子单元,用于判断所述第一类设备追踪到的用户的视线信息是否落入所述第二类设备的追踪范围;
其中,若所述第一判断子单元判断出所述第一类设备追踪到的用户的视线信息未落入所述第二类设备的追踪范围,则所述第一判断单元判断出无法获取到第二类设备追踪到的用户的视线信息;若所述第一判断子单元判断出所述第一类设备追踪到的用户的视线信息落入所述第二类设备的追踪范围,则所述第一判断单元判断出能获取到第二类设备追踪到的用户的视线信息。
7.根据权利要求6所述的视线追踪装置,其特征在于,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同,包括:
所述第一类设备的视线追踪范围大于所述第二类设备的视线追踪范围,所述第二类设备的视线追踪精度高于所述第一类设备的视线追踪精度。
8.根据权利要求6所述的视线追踪装置,其特征在于,所述第二获取单元,包括:
控制单元,用于控制所述第一类设备追踪到的用户的视线信息落入的追踪范围所对应的第二类设备,对用户进行视线追踪,得到用户的视线信息;
第二获取子单元,用于获取所述第二类设备追踪到的用户的视线信息。
9.根据权利要求6或7所述的视线追踪装置,其特征在于,还包括:
第三获取单元,用于获取所述第一类设备获取的用户的姿态信息;
发送单元,将所述姿态信息发送给能追踪到用户的视线信息的第二类设备;其中,所述用户的姿态信息用于:控制所述能追踪到用户的视线信息的第二类设备调整工作状态。
10.根据权利要求6或7所述的视线追踪装置,其特征在于,还包括:
第二判断单元,用于判断所述第一类设备实时追踪到的用户的视线信息是否超出所述第二类设备的追踪范围;
关闭单元,用于在所述第二判断单元判断出所述第一类设备实时追踪的用户的视线信息超出了所述第二类设备的追踪范围,关闭所述第二类设备。
11.一种视线追踪***,其特征在于,包括:
第一类设备、第二类设备和视线追踪装置;
所述第一类设备和第二类设备,用于追踪用户的视线信息;其中,所述第一类设备与所述第二类设备的视线追踪范围和/或视线追踪精度不相同;
所述视线追踪装置,用于执行权利要求1至5任意一项所述的视线追踪的方法。
12.根据权利要求11所述的视线追踪***,其特征在于,所述第一类设备为采用基于人脸外观的方法进行视线追踪的设备。
13.根据权利要求11所述的视线追踪***,其特征在于,所述第二类设备为采用基于眼部特征的方法进行视线追踪的设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910461505.0A CN110171427B (zh) | 2019-05-30 | 2019-05-30 | 视线追踪的方法、装置及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910461505.0A CN110171427B (zh) | 2019-05-30 | 2019-05-30 | 视线追踪的方法、装置及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110171427A CN110171427A (zh) | 2019-08-27 |
CN110171427B true CN110171427B (zh) | 2020-10-27 |
Family
ID=67696696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910461505.0A Active CN110171427B (zh) | 2019-05-30 | 2019-05-30 | 视线追踪的方法、装置及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110171427B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8077915B2 (en) * | 2007-10-12 | 2011-12-13 | Sony Ericsson Mobile Communications Ab | Obtaining information by tracking a user |
TWI532377B (zh) * | 2013-10-18 | 2016-05-01 | 原相科技股份有限公司 | 影像感測系統、影像感測方法以及眼球追蹤系統、眼球追蹤方法 |
KR102212209B1 (ko) * | 2014-04-10 | 2021-02-05 | 삼성전자주식회사 | 시선 추적 방법, 장치 및 컴퓨터 판독가능한 기록 매체 |
US20150346814A1 (en) * | 2014-05-30 | 2015-12-03 | Vaibhav Thukral | Gaze tracking for one or more users |
US10757328B2 (en) * | 2016-12-23 | 2020-08-25 | Microsoft Technology Licensing, Llc | Eye tracking using video information and electrooculography information |
CN107102738B (zh) * | 2017-05-03 | 2024-04-05 | 中国人民解放军海军医学研究所 | 一种解决多台眼动仪红外干扰的装置及其控制方法 |
-
2019
- 2019-05-30 CN CN201910461505.0A patent/CN110171427B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110171427A (zh) | 2019-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10867195B2 (en) | Systems and methods for monitoring driver state | |
US6397137B1 (en) | System and method for selection of vehicular sideview mirrors via eye gaze | |
CN110167823B (zh) | 用于驾驶员监测的***和方法 | |
EP2288287B1 (en) | Driver imaging apparatus and driver imaging method | |
CN106056036B (zh) | 使用可见光成像的虹膜获取 | |
US9285872B1 (en) | Using head gesture and eye position to wake a head mounted device | |
US20150238087A1 (en) | Biological information measurement device and input device utilizing same | |
JP4497305B2 (ja) | 運転者状態判定装置 | |
US11112602B2 (en) | Method, apparatus and system for determining line of sight, and wearable eye movement device | |
CN108229345A (zh) | 一种驾驶员检测*** | |
CN104461005A (zh) | 一种车载屏幕开关控制方法 | |
WO2017090319A1 (ja) | 視線方向検出装置、及び視線方向検出システム | |
JP2013045317A (ja) | 顔画像検出装置 | |
CN110481419A (zh) | 一种人车交互方法、***、车辆及存储介质 | |
CN110070058A (zh) | 一种车载手势识别装置及*** | |
WO2021087573A1 (en) | High performance bright pupil eye tracking | |
US9934583B2 (en) | Expectation maximization to determine position of ambient glints | |
CN110171427B (zh) | 视线追踪的方法、装置及*** | |
JP2020077271A (ja) | 表示装置、学習装置、及び、表示装置の制御方法 | |
US20220335648A1 (en) | Determination of Gaze Direction | |
US20230286379A1 (en) | Driver intoxication test system and method | |
US20220043509A1 (en) | Gaze tracking | |
CN113910872B (zh) | 车辆遮阳装置的控制方法、装置、车载终端及存储介质 | |
US20240073540A1 (en) | Illumination control for an imaging system | |
JP2018181025A (ja) | 視線検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |