CN107111355A - 用于校准眼睛跟踪***的方法和*** - Google Patents

用于校准眼睛跟踪***的方法和*** Download PDF

Info

Publication number
CN107111355A
CN107111355A CN201480082964.3A CN201480082964A CN107111355A CN 107111355 A CN107111355 A CN 107111355A CN 201480082964 A CN201480082964 A CN 201480082964A CN 107111355 A CN107111355 A CN 107111355A
Authority
CN
China
Prior art keywords
blinkpunkt
area
skew
measured
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480082964.3A
Other languages
English (en)
Other versions
CN107111355B (zh
Inventor
M·布赖辛格
M·埃尔曼
P·苏森古特
F·施瓦茨
J·艾希豪恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of CN107111355A publication Critical patent/CN107111355A/zh
Application granted granted Critical
Publication of CN107111355B publication Critical patent/CN107111355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

说明了一种用于从包括多个可选区域(111)的视区(110)中选择第一区域(111)的方法(200)。所述方法(200)包括测量(201)用户在视区(110)上的注视点,从而提供所测量的注视点。此外,所述方法(200)包括基于所测量的注视点来确定(202)所估计的注视点并且包括在视区(110)上显示(203)与所估计的注视点相关的信息(121)。所述方法(200)还包括采集(204)用于使在视区(110)上所显示的信息(121)移动的位移信息。基于所测量的注视点并且基于所采集的位移信息来确定(205)实际注视点。此外,从所述多个可选区域(111)中选择(206)与实际注视点对应的第一区域(111)。

Description

用于校准眼睛跟踪***的方法和***
技术领域
本发明涉及使用眼睛跟踪机制来控制的***。特别地,本发明涉及基于眼睛跟踪的用户界面***的校准。
背景技术
眼睛跟踪可以用于例如在车辆、如汽车内提供快速且直观的用户界面。利用相机可以测量用户的注视点。注视点可以与多个可选区域的特定区域对应。在检测到用户看向该特定区域的情况下,可以执行与该特定区域相关联的动作或功能。通过这种方式,与不同的可选区域相关联的不同的动作或功能可以由用户简单地通过看向不同的可选区域来启动。
为了提供可靠的用户界面,通常需要对基于眼睛跟踪的用户界面***进行校准。否则,所测量的注视点可能与用户的实际注视点不同。换句话说,缺少校准可能导致所测量的注视点与实际注视点之间的偏移。这种偏移可能与视线的方向有关并且特别地可能与用户到可选区域上的视角有关。
所测量的注视点与实际注视点之间的偏移可能导致被检测到的区域与用户想要选择的区域不同的情况。因此,基于眼睛跟踪的用户界面***的可靠性和用户接受度可能相对较低。
此外,眼睛跟踪的性能可能与使用基于眼睛跟踪的用户界面的用户、当前的光线条件等有关。因此,可能需要频繁地重复校准,这对于用户来说通常是不可接受的。
本发明说明了提供可靠且灵活的基于眼睛跟踪的用户界面的方法和***。
发明内容
根据一方面,说明了一种用于从包括多个可选区域的视区中选择第一区域的方法。所述方法包括测量用户在视区上的注视点,从而提供所测量的注视点。此外,所述方法包括基于所测量的注视点来确定所估计的注视点并且包括在视区上显示与所估计的注视点相关的信息。此外,所述方法包括采集用于使在视区上所显示的信息移动的位移信息。此外,所述方法包括基于所测量的注视点并且基于所采集的位移信息来确定实际注视点。此外,所述方法包括从所述多个可选区域中选择与实际注视点对应的第一区域。
根据另一方面,说明了一种用于基于眼睛跟踪的用户界面***的控制单元。该控制单元设置用于确定用户在基于眼睛跟踪的用户界面***的视区上的所测量的注视点,其中,所述视区包括多个可选区域。此外,控制单元设置用于基于所测量的注视点来确定所估计的注视点并且用于使得在视区上输出与所估计的注视点相关的信息。此外,控制单元设置用于确定用于使在视区上所显示的信息移动的位移信息并且用于基于所测量的注视点且基于所采集的位移信息来确定实际注视点。此外,该控制单元设置用于从所述多个可选区域中选择与实际注视点对应的第一区域。
根据另一方面,说明了一种基于眼睛跟踪的用户界面***,所述基于眼睛跟踪的用户界面***包括图像传感器,该图像传感器设置用于采集与基于眼睛跟踪的用户界面***的用户的注视点相关的图像数据。此外,基于眼睛跟踪的用户界面***包括视区,所示视区设置用于提供具有视觉上不同的可选区域的多个可选区域。该视区设置用于提供与用户在视区上的所估计的注视点相关的可视信息。此外,基于眼睛跟踪的用户界面***包括触觉输入装置,该触觉输入装置设置用于采集由用户输入的用于使与所估计的注视点相关的信息移动的位移信息。此外,基于眼睛跟踪的用户界面***包括如在本发明中所述的控制单元。
根据另一方面,说明了一种车辆(例如汽车、摩托车或卡车),所述车辆包括如在本发明中所述的控制单元和/或基于眼睛跟踪的用户界面。
根据另一方面,说明了一种软件程序。该软件程序可以适合用于在处理器上执行,并且当该软件程序在处理器上执行时,该软件程序可以适合用于执行在本发明中所概述的方法步骤。
根据另一方面,说明了一种存储介质。该存储介质可以包括适合用于在处理器上执行的并且当在处理器上执行时适合用于执行在本发明中所概述的方法步骤的软件程序。
根据另一方面,说明了一种计算机程序产品。该计算机程序产品可以包括可执行的指令,所述指令用于当在计算机上执行时执行在本发明中所概述的方法步骤。
应当注意,如在本发明中所概述的方法和***以及其优选的实施例可以单独使用或与本发明中公开的其它方法和***组合使用。此外,在上下文中所概述的***的特征也适用于对应的方法(反之亦然)。此外,在本发明中所概述的方法和***的所有方面可以任意组合。特别地,权利要求的特征能以任意方式相互组合。
附图说明
以下参考附图以示例性的方式阐述本发明,其中:
图1示出一种示例性的基于眼睛跟踪的用户界面***的框图;以及
图2示出一种示例性的用于确定在基于眼睛跟踪的用户界面***上的输入的方法的流程图。
具体实施方式
图1示出一种示例性的用于提供基于眼睛跟踪的用户界面的***100。基于眼睛跟踪的用户界面***100包括具有多个可选区域111的视区110。对于***100的用户来说,各可选区域111通常是视觉上不同的。用户可以看向所述多个可选区域111中的任何一个区域,以便启动与视区110的不同可选区域相关联的不同的动作或功能。
相机120用于采集用户的一个或两个眼睛的图像数据。所述图像数据可以被转发给控制单元101,控制单元设置用于分析图像数据并且设置用于基于图像数据来测量用户的注视点。所测量的注视点可能位于视区110内(如图1所示)。与所测量的注视点相关的信息121可以在视区110上显示。例如,可以在视区110上显示表示所测量的注视点的图标121。备选地或附加地,与所测量的注视点对应的可选区域111(例如包括所测量的注视点的可选区域111)可以被突出显示。
可以基于所测量的注视点来确定所估计的注视点。如下面将概述的那样,与所测量的注视点相关的偏移信息可以由控制单元101确定。可以基于所测量的注视点并且基于偏移信息来确定所估计的注视点。备选地或附加于显示与所测量的注视点相关的信息121,可以在视区110内显示与所估计的注视点相关的信息121。在下文中,所显示的信息121可以涉及与所测量的注视点相关的信息和/或与所估计的注视点相关的信息。
控制单元101可以设置用于基于用户在可以被称为视觉输入时刻的特定时间点上的注视点来确定所测量的和/或所估计的注视点。可以利用在视觉输入时刻所测量的和/或所估计的注视点来确定所显示的信息121。用户眼睛在视觉输入时刻之后的眼睛运动可以被忽略(至少在一定时间段内)。视觉输入时刻可以由特定的用户输入来触发(例如通过用户眨眼)。由此,视觉输入时刻可以被认为是用于确定所测量的和/或所估计的注视点的“冻结”点。
基于眼睛跟踪的用户界面***100可以包括触觉输入装置130(例如触摸板),触觉输入装置设置用于采集由用户在触觉输入装置130上输入的位移信息。位移信息可以用于使所显示的信息121移位或偏移。特别地,触觉输入装置130可以允许用户将所测量的注视点的显示图标移位到视区110上的不同位置,使得图标的位置对应于用户的实际注视点。
在阐述的示例中,触觉输入装置130被安置在车辆的方向盘131处。由此,车辆的驾驶员能够以舒适的方式使所测量的和/或所估计的注视点(即,表示所测量的和/或所估计的注视点的所显示的信息121)移位,同时他/她的手保持在车辆的方向盘131上。
可以在视觉输入时刻之后的位移输入时刻采集位移信息。位移输入时刻可以由特定的用户输入来触发(例如通过用户按压到触觉输入装置130上)。作为示例,用户可以使所显示的信息121移位,直到视觉输入时刻(例如当用户用手指按压触觉输入装置130时),并且可以在视觉输入时刻采集位移信息。
经由触觉输入装置130采集的位移信息可以用于确定所测量的注视点与用户的实际注视点之间的偏移。所确定的偏移可以存储在存储单元102内并且可以用于校准基于眼睛跟踪的用户界面***100。
作为示例,可以为视区110的每个可选区域111确定和存储偏移信息。表1示出示例性的用于视区110的偏移阵列(也称为偏移文件)。该阵列包括用于视区110的每个可选区域111的偏移数据。在基于眼睛跟踪的用户界面***100启动时,偏移数据可以被初始化为零偏移,如表1所示。
X=0;Y=0 X=0;Y=0 X=0;Y=0 X=0;Y=0
X=0;Y=0 X=0;Y=0 X=0;Y=0 X=0;Y=0
X=0;Y=0 X=0;Y=0 X=0;Y=0 X=0;Y=0
X=0;Y=0 X=0;Y=0 X=0;Y=0 X=0;Y=0
表1
在使用基于眼睛跟踪的用户界面***100期间,可以利用由触觉输入装置130采集的位移信息来确定偏移数据。该偏移数据可以用于更新存储在偏移阵列中的偏移数据。作为示例,所确定的用于特定的可选区域111的偏移数据可以用于覆盖为该特定的可选区域111存储的偏移数据。备选地,可以计算所确定的偏移数据与存储的偏移数据之间的加权平均值并将该加权平均值存储为更新的偏移数据。
此外,所确定的用于特定的可选区域111的偏移数据可以用于更新在该特定的可选区域111附近的区域111的偏移数据。作为示例,所确定的用于所述特定的可选区域111的偏移数据也可以用作用于相邻区域111的偏移数据。备选地或附加地,不同区域111的偏移数据可以进行内插。
由此可以连续地更新偏移数据阵列或偏移文件,从而允许基于眼睛的用户界面***100自动适配于不同的光线条件和/或可能的不同用户。备选地或附加地,不同的偏移数据阵列可以被存储为用于不同用户的档案,以便高效地使基于眼睛跟踪的用户界面***100适配于不同用户。
控制单元101可以设置用于在考虑偏移阵列的情况下确定实际注视点的估计。特别地,控制单元101可以设置用于基于由相机120提供的图像数据来确定所测量的注视点。此外,控制单元101可以设置用于利用包含在偏移阵列中的偏移数据来使所测量的注视点偏移。特别地,控制单元101可以确定与所测量的注视点对应的区域111。此外,与该区域111对应的偏移数据可以从偏移阵列获得。实际注视点的估计(也称为所估计的注视点)可以对应于利用从偏移阵列获得的偏移数据而偏移的所测量的注视点。
然后,控制单元101可以确定与所估计的注视点对应的区域111。此外,与所估计的注视点相关的信息121可以在视区110内显示(例如通过显示图标或通过突出显示与所估计的注视点对应的区域111)。
此外,所显示的信息121可以用于进一步校准基于眼睛跟踪的用户界面(如上所概述)。出于这个目的,可以采集与所显示的信息121的移位相关的位移信息。作为示例,控制单元101可以设置用于确定位移信息是否在视觉输入时刻之后的预定的时间间隔内经由输入装置130输入。如果输入这种位移信息,那么采集该位移信息并且将其用于确定实际注视点的改进的估计(如上所概述)。否则认为所显示的信息121表示实际注视点的正确估计。因此,要么在位移输入时刻之后、要么在预定的时间间隔之后可以确定出“实际注视点”。控制单元101可以基于该“实际注视点”来确定所述多个可选区域111中的一个可选区域。
控制单元101还可以设置用于启动与所确定的区域111对应的动作或功能。出于这个目的,控制单元101可以设置用于访问存储单元102以查阅可选区域111和与该可选区域111相关联的动作或功能之间的预定映射。
由此,触觉输入装置130为基于眼睛跟踪的用户界面***100的用户提供用于修改基于眼睛跟踪的用户界面的焦点、即用于隐含地校准和适配基于眼睛跟踪的用户界面的高效且直观的方式。触觉输入装置130允许用户启动与基于眼睛跟踪的用户界面相同的动作,例如当基于眼睛跟踪的用户界面不能正确地工作时。特别地,在错误校准基于眼睛跟踪的用户界面的情况下,用户将可能通过经由触觉输入装置130提供位移信息来校正由基于眼睛跟踪的用户界面确定的所估计的注视点。特别地,在由触觉输入装置130触发的位移较小(例如,用于将所估计的注视点移动到相邻区域111)的情况下,所采集的位移信息可以由控制单元101解释为所估计的注视点的校正、即解释为所估计的注视点的偏移,该偏移将被应用于使所测量的注视点与实际注视点匹配。
在经由触觉输入装置130采集多个校正的情况下、即在确定多个偏移的情况下,可以对所述多个偏移进行内插,以便为整个视区110提供可靠的偏移数据。
图2示出一种示例性的用于从包括多个可选区域111的视区110中选择第一区域111的方法200的流程图。所述多个可选区域111中的可选区域111对于用户来说通常是视觉上不同的。此外,所述多个可选区域111中的区域111通常彼此相邻。作为示例,可选区域111可以对应于在视区110内的物理或虚拟按钮。视区110可以安置在车辆的仪表盘上。
所述方法200包括测量201用户在视区110上的注视点,从而提供所测量的注视点。用户的注视点可以利用由图像传感器120(例如相机)采集的图像数据来确定。相机可以指向用户。由此,图像数据可以包括与用户的至少一只眼睛的瞳孔相关的信息。所测量的注视点可以利用应用于由图像传感器120采集的图像数据的图像处理算法来确定。
此外,所述方法200包括基于所测量的注视点来确定202所估计的注视点。在一个示例中,所估计的注视点对应于或等同于所测量的注视点。备选地或附加地,所估计的注视点可以利用可存储在偏移文件中(例如偏移阵列中)的偏移数据来确定。特别地,用于所测量的注视点的第一偏移可以从偏移文件中确定。作为示例,可以确定与所测量的注视点对应的可选区域111。第一偏移可以对应于在偏移文件中为该可选区域111存储的偏移。所估计的注视点可以通过利用第一偏移使所测量的注视点偏移来确定。
所述方法200还包括在视区110上显示203与所估计的注视点相关的信息121。作为示例,可以在所估计的注视点在视区110上的位置处显示可视的图标或点。备选地或附加地,所估计的注视点所对应的所述多个可选区域111中的可选区域111可以被突出显示。作为示例,视区110可以包括显示器,并且所述多个区域111可以(例如以块的形式)显示在该显示器上。可选区域111可以通过改变所显示的区域111的颜色或亮度来突出显示。
此外,所述方法200包括采集204用于使所显示的信息121在视区110上移位的位移信息。位移信息可以利用触觉输入装置130(例如触摸板)来采集。触觉输入装置130可以位于车辆的转向装置131(例如方向盘)处。
此外,所述方法200包括基于所测量的注视点并且基于所采集的位移信息来确定205实际注视点。也可以考虑偏移文件中的第一偏移用于确定实际注视点。特别地,可以利用所采集的位移信息并且可能利用第一偏移来使所测量的注视点偏移,以便确定实际注视点。
此外,所述方法200包括从所述多个可选区域111中选择206与实际注视点对应的第一区域111。实际注视点通常落在第一区域111内。换句话说,可以从所述多个区域111中选择第一区域111作为所确定的实际注视点所落入的区域111。所述多个可选区域111可以分别与多个功能相关联,并且所述方法200还可以包括启动所述多个功能中的与第一区域111对应的第一功能。
由此,所述方法200提供可靠且自适配的方式用于利用眼睛跟踪执行输入和/或用于隐含地校准基于眼睛跟踪的用户界面***100。特别地,采集与所显示的信息121相关的位移信息使得用户能够直观地校准基于眼睛跟踪的用户界面***100,所显示的信息表示所估计的注视点。
所述方法200还可以包括用于基于所采集的位移信息来确定和存储校准信息的步骤。特别地,该方法可以包括从所述多个可选区域111中确定与所测量的注视点对应的第二区域111。用于使所测量的注视点偏移的(可能)更新的偏移可以基于所采集的位移信息来确定。此外,更新的偏移可以基于已经存储在偏移文件中的一个或多个偏移(例如基于已经与第二区域111相关联地存储在偏移文件中的偏移)来确定。特别地,确定更新的偏移可以包括确定已经与第二区域111相关联地存储在偏移文件中的所存储的偏移,并且可以包括基于所存储的偏移和基于所采集的位移信息来确定更新的偏移。作为示例,可以基于一个或多个所存储的偏移并且基于所采集的位移信息来确定(可能加权的)平均值。然后,更新的偏移可以与第二区域111相关联地存储在偏移文件中。通过这种方式能够自动改进和适配基于眼睛跟踪的用户界面***100的校准。
所述方法还可以包括确定与至少两个对应的可选区域111相关联地存储在偏移文件中的至少两个偏移。用于第三可选区域111的第三偏移可以通过内插所述至少两个偏移来确定。然后,第三偏移可以与第三区域111相关联地存储在偏移文件中。通过这种方式能够仅利用有限数量的先前确定的偏移来校准整个视区110、即所有所述多个区域111。由此能够简化校准。
在本发明中已经说明一种能够利用眼睛跟踪实现精确且可靠的用户输入的基于眼睛跟踪的用户界面***100。能够在不使用显性校准程序的情况下提供用户界面。通过使用与基于眼睛跟踪的输入装置不同的输入装置采集位移信息,能够以隐性的方式提供基于眼睛跟踪的用户界面的校准,有可能在没有***用户的情况下实现这种校准的进行。
应当注意,说明书和附图仅仅阐述所提出的方法和***的原理。本领域技术人员将能够实施虽然在此未明确说明或示出的但体现本发明的原理并被包括在本发明的构思和范围内的各种设计方案。此外,在本发明中所概述的所有示例和实施例原则上明确旨在仅用于解释性目的,以便帮助读者理解所提出的方法和***的原理。此外,在此提供本发明的原理、方面和实施例的所有陈述以及其具体示例旨在涵盖其等同技术方案。

Claims (15)

1.一种用于从包括多个可选区域的视区中选择第一区域的方法,所述方法包括以下步骤:
测量用户在视区上的注视点,从而提供所测量的注视点;
基于所测量的注视点来确定所估计的注视点;
在视区上显示与所估计的注视点相关的信息;
采集用于使在视区上所显示的信息移动的位移信息;
基于所测量的注视点并且基于所采集的位移信息来确定实际注视点;以及
从所述多个可选区域中选择与实际注视点对应的第一区域。
2.如权利要求1所述的方法,其中,利用触觉输入装置来采集所述位移信息。
3.如权利要求1所述的方法,其中,确定所估计的注视点包括:
从偏移文件中确定用于所测量的注视点的第一偏移;以及
通过利用第一偏移使所测量的注视点偏移来确定所估计的注视点。
4.如权利要求3所述的方法,还包括:
从所述多个可选区域中确定与所测量的注视点对应的第二区域;
基于所采集的位移信息确定用于使所测量的注视点偏移的更新的偏移;以及
将更新的偏移与第二区域相关联地存储在偏移文件中。
5.如权利要求4所述的方法,其中,更新的偏移还基于已经存储在偏移文件中的一个或多个偏移来确定。
6.如权利要求5所述的方法,其中,确定更新的偏移包括:
确定已经与第二区域相关联地存储在偏移文件中的所存储的偏移;以及
基于所存储的偏移并且基于所采集的位移信息来确定更新的偏移。
7.如权利要求3所述的方法,还包括:
确定与至少两个对应的可选区域相关联地存储在偏移文件中的至少两个偏移;
通过对所述至少两个偏移进行内插来确定用于第三可选区域的第三偏移;以及
将第三偏移与第三区域相关联地存储在偏移文件中。
8.如权利要求1所述的方法,其中,所测量的注视点利用由图像传感器采集的图像数据来确定。
9.如权利要求1所述的方法,其中,所述多个可选区域中的各个区域彼此相邻。
10.如权利要求1所述的方法,其中,与在视区上的所估计的注视点相关的信息包括:
在视区上所显示的可见图标;和/或
所述多个可选区域中的与所估计的注视点对应的可选区域的突出显示。
11.如权利要求1所述的方法,其中:
所述多个可选区域分别与多个功能相关联;以及
所述方法还包括:启动所述多个功能中的与第一区域对应的第一功能。
12.如权利要求1所述的方法,其中,实际注视点落在第一区域内。
13.如权利要求2所述的方法,其中:
所述视区位于车辆的仪表盘上;以及
所述触觉输入装置位于车辆的转向装置上。
14.一种用于基于眼睛跟踪的用户界面***的控制单元,其中,所述控制单元设置用于:
确定用户在基于眼睛跟踪的用户界面***的视区上的所测量的注视点,其中,所述视区包括多个可选区域;
基于所测量的注视点确定所估计的注视点;
使得在视区上输出与所估计的注视点相关的信息;
确定用于使在视区上所显示的信息移动的位移信息;
基于所测量的注视点并且基于所采集的位移信息来确定实际注视点;以及
从所述多个可选区域中选择与实际注视点对应的第一区域。
15.一种基于眼睛跟踪的用户界面***,包括:
图像传感器,设置用于采集与基于眼睛跟踪的用户界面***的用户的注视点相关的图像数据;
视区,设置用于提供具有视觉上不同的可选区域的多个可选区域,并且设置用于在视区上提供与用户的所估计的注视点相关的可视信息;
触觉输入装置,设置用于采集由用户输入的用于使与所估计的注视点相关的信息移动的位移信息;以及
控制单元,设置用于:
确定用户在基于眼睛跟踪的用户界面***的视区上的所测量的注视点,其中,所述视区包括多个可选区域;
基于所测量的注视点确定所估计的注视点;
使得在视区上输出与所估计的注视点相关的信息;
确定用于使在视区上所显示信息移动的位移信息;
基于所测量的注视点并且基于所采集的位移信息来确定实际注视点;以及
从所述多个可选区域中选择与实际注视点对应的第一区域。
CN201480082964.3A 2014-11-03 2014-11-03 用于校准眼睛跟踪***的方法和*** Active CN107111355B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/063671 WO2016072965A1 (en) 2014-11-03 2014-11-03 Method and system for calibrating an eye tracking system

Publications (2)

Publication Number Publication Date
CN107111355A true CN107111355A (zh) 2017-08-29
CN107111355B CN107111355B (zh) 2021-03-12

Family

ID=55909527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480082964.3A Active CN107111355B (zh) 2014-11-03 2014-11-03 用于校准眼睛跟踪***的方法和***

Country Status (4)

Country Link
US (1) US20170235363A1 (zh)
CN (1) CN107111355B (zh)
DE (1) DE112014007127T5 (zh)
WO (1) WO2016072965A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108833880A (zh) * 2018-04-26 2018-11-16 北京大学 利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置
CN111753628A (zh) * 2019-03-29 2020-10-09 托比股份公司 训练眼睛跟踪模型
CN112148112A (zh) * 2019-06-27 2020-12-29 北京七鑫易维科技有限公司 校准方法及装置、非易失性存储介质和处理器

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
CA2983015A1 (en) * 2015-04-16 2016-10-20 Tobii Ab Identification and/or authentication of a user using gaze information
CN107103293B (zh) * 2017-04-13 2019-01-29 西安交通大学 一种基于相关熵的注视点估计方法
CN108968907B (zh) * 2018-07-05 2019-06-18 四川大学 眼动数据的校正方法及装置
TWI704501B (zh) * 2018-08-09 2020-09-11 宏碁股份有限公司 可由頭部操控的電子裝置與其操作方法
DE112020001907T5 (de) * 2019-04-13 2021-12-23 Karma Automotive Llc Bedingt transparente berührungsempfindliche bedienoberfläche

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090179853A1 (en) * 2006-09-27 2009-07-16 Marc Ivor John Beale Method of employing a gaze direction tracking system for control of a computer
CN101840265A (zh) * 2009-03-21 2010-09-22 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
CN102812419A (zh) * 2010-03-18 2012-12-05 富士胶片株式会社 立体图像显示设备及其控制方法
CN102834789A (zh) * 2010-04-16 2012-12-19 高通股份有限公司 用于使虚拟键盘尺寸与用户手指大小动态相关的设备和方法
US20130169560A1 (en) * 2012-01-04 2013-07-04 Tobii Technology Ab System for gaze interaction
US20140129987A1 (en) * 2012-11-07 2014-05-08 Steven Feit Eye Gaze Control System
US20140226131A1 (en) * 2013-02-14 2014-08-14 The Eye Tribe Aps Systems and methods of eye tracking calibration
WO2014155133A1 (en) * 2013-03-28 2014-10-02 Eye Tracking Analysts Ltd Eye tracking calibration
US20140320397A1 (en) * 2011-10-27 2014-10-30 Mirametrix Inc. System and Method For Calibrating Eye Gaze Data

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1691670B1 (en) * 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20110307216A1 (en) * 2010-06-10 2011-12-15 Optimetrics, Inc. Method for automated measurement of eye-tracking system random error
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US9025252B2 (en) * 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US10025381B2 (en) * 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US10540008B2 (en) * 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US20170235360A1 (en) * 2012-01-04 2017-08-17 Tobii Ab System for gaze interaction
US10488919B2 (en) * 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10394320B2 (en) * 2012-01-04 2019-08-27 Tobii Ab System for gaze interaction
US8970495B1 (en) * 2012-03-09 2015-03-03 Google Inc. Image stabilization for color-sequential displays
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US9147248B2 (en) * 2012-12-21 2015-09-29 Tobii Technology Ab Hardware calibration of eye tracker
KR20160005013A (ko) * 2013-03-01 2016-01-13 토비 에이비 지연 워프 시선 상호작용
EP2790126B1 (en) * 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
GB201322873D0 (en) * 2013-12-23 2014-02-12 Tobii Technology Ab Eye gaze determination
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
CN106028913B (zh) * 2014-02-19 2018-03-30 三菱电机株式会社 显示控制装置、显示控制装置的显示控制方法
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
US10067561B2 (en) * 2014-09-22 2018-09-04 Facebook, Inc. Display visibility based on eye convergence
WO2016065027A1 (en) * 2014-10-21 2016-04-28 Spirited Eagle Enterprises, LLC System and method for enhancing driver situation awareness
US9851791B2 (en) * 2014-11-14 2017-12-26 Facebook, Inc. Dynamic eye tracking calibration
EP3234737B1 (en) * 2014-12-16 2019-04-10 Koninklijke Philips N.V. Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090179853A1 (en) * 2006-09-27 2009-07-16 Marc Ivor John Beale Method of employing a gaze direction tracking system for control of a computer
CN101840265A (zh) * 2009-03-21 2010-09-22 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
CN102812419A (zh) * 2010-03-18 2012-12-05 富士胶片株式会社 立体图像显示设备及其控制方法
CN102834789A (zh) * 2010-04-16 2012-12-19 高通股份有限公司 用于使虚拟键盘尺寸与用户手指大小动态相关的设备和方法
US20140320397A1 (en) * 2011-10-27 2014-10-30 Mirametrix Inc. System and Method For Calibrating Eye Gaze Data
US20130169560A1 (en) * 2012-01-04 2013-07-04 Tobii Technology Ab System for gaze interaction
US20140129987A1 (en) * 2012-11-07 2014-05-08 Steven Feit Eye Gaze Control System
US20140226131A1 (en) * 2013-02-14 2014-08-14 The Eye Tribe Aps Systems and methods of eye tracking calibration
WO2014155133A1 (en) * 2013-03-28 2014-10-02 Eye Tracking Analysts Ltd Eye tracking calibration

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
于悦: "车载导航装置人机交互***研发", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108833880A (zh) * 2018-04-26 2018-11-16 北京大学 利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置
CN111753628A (zh) * 2019-03-29 2020-10-09 托比股份公司 训练眼睛跟踪模型
CN111753628B (zh) * 2019-03-29 2022-01-11 托比股份公司 训练眼睛跟踪模型
US11941172B2 (en) 2019-03-29 2024-03-26 Tobii Ab Training an eye tracking model
CN112148112A (zh) * 2019-06-27 2020-12-29 北京七鑫易维科技有限公司 校准方法及装置、非易失性存储介质和处理器
CN112148112B (zh) * 2019-06-27 2024-02-06 北京七鑫易维科技有限公司 校准方法及装置、非易失性存储介质和处理器

Also Published As

Publication number Publication date
WO2016072965A1 (en) 2016-05-12
DE112014007127T5 (de) 2017-09-21
CN107111355B (zh) 2021-03-12
US20170235363A1 (en) 2017-08-17

Similar Documents

Publication Publication Date Title
CN107111355A (zh) 用于校准眼睛跟踪***的方法和***
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US20200272234A1 (en) Method for controlling device on the basis of eyeball motion, and device therefor
JP6340503B2 (ja) 目追跡システム及び利き目を検出する方法
US9001006B2 (en) Optical-see-through head mounted display system and interactive operation
US20160029883A1 (en) Eye tracking calibration
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
KR20130010012A (ko) 사용자 손가락 사이즈에 대해 가상 키보드 치수들을 동적으로 상관시키는 장치 및 방법
US20120299848A1 (en) Information processing device, display control method, and program
US20160216837A1 (en) Method and device for providing a touch-based user interface
WO2022258348A1 (en) Method, system, and computer program for touch stabilization
JP6691847B2 (ja) 表示制御方法
KR101458295B1 (ko) 눈추적 기술을 이용한 키보드 입력 장치 및 그 입력 방법
JP7253716B2 (ja) 人状態推定モジュール、温冷感推定モジュール、ユーザインタフェース装置、機器制御システム
KR20160035419A (ko) 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법
JP6911809B2 (ja) 推定方法、推定プログラム及び推定装置
US20220176817A1 (en) A system for man-machine interaction in vehicles
JP2570966B2 (ja) ポイントデバイス装置
CN115803786A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant