CN105934764A - 用于功率高效的虹膜识别的方法和装置 - Google Patents

用于功率高效的虹膜识别的方法和装置 Download PDF

Info

Publication number
CN105934764A
CN105934764A CN201480074193.3A CN201480074193A CN105934764A CN 105934764 A CN105934764 A CN 105934764A CN 201480074193 A CN201480074193 A CN 201480074193A CN 105934764 A CN105934764 A CN 105934764A
Authority
CN
China
Prior art keywords
sensor
iris
image
user
power
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480074193.3A
Other languages
English (en)
Inventor
K·J·哈纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EyeLock Inc
EyeLock LLC
Original Assignee
EyeLock Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EyeLock Inc filed Critical EyeLock Inc
Publication of CN105934764A publication Critical patent/CN105934764A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

本文公开了***和方法,其中个人的虹膜生物认定是利用移动或静态设备获取的。作为示例,这种获取可以涉及有源照明的使用以及相机和处理器的重复使用。但是,这些模块消耗相当大的功率,并且这会显著降低电池寿命。因此需要功率高效的虹膜识别***。

Description

用于功率高效的虹膜识别的方法和装置
相关专利申请的交叉引用
本申请依据35U.S.C.§119(e)要求于2013年12月23日提交且标题为“Methods and Systems for Power-Efficient Iris Recognition”的美国申请No.61/920,215、于2014年1月27日提交且标题为“Methods and Apparatus for a Compact Awareness Sensor andController”的美国申请No.61/931,809、以及于2014年2月28日提交且标题为“Efficient Illumination Control for Iris Recognition”的美国申请No.61/945,961的优先权,因此通过引用将这些申请的全部内容结合于此。
背景技术
虹膜识别***通常至少包括传感器和照明器并且这些部件消耗显著的功率。因此,有必要以特定的方式控制这些部件,使得虹膜识别被启用,同时减少被部件消耗的平均功率。
发明内容
本发明的实施例包括用于功率高效的虹膜识别的***和方法。在一个示例中,该***可以包括确定***的操作模式的虹膜获取模式确定模块。操作模式可以包括i)其中确定虹膜识别是不可能的模式,ii)其中确定虹膜识别有可能但不是优选的模式,和iii)其中确定虹膜识别有可能并且是优选的模式。模式的确定可以基于由***感测到的与虹膜识别相关的属性,这些属性可以包括检测到的眼睛的位置、检测到的用户的速度、检测到的图像的亮度、检测到的图像随着时间的变化、或者检测到的***的物理加速度。该***还可以包括以下至少一个:传感器功率模式控制器、感兴趣的传感器区域控制器、照明功率模式控制器、感兴趣的照明区域控制器、以及注视运动确定模块,响应于模式确定,注视运动确定模块以启用虹膜识别***的功能的特定方式控制或利用传感器和照明器,同时减少随着时间由***消耗的平均功率。
该***可以通过将虹膜识别***分解成不同的操作模式来起作用,包括上面刚刚公开的那些操作模式。该***被设计为使得,在每种操作模式中,传感器和照明器被控制,使得其刚好足够的功能被启用,使得***能够从传感器获取足够的数据,以便确定切换到虹膜识别***的不同操作模式是优选的。该***被设计为使得虹膜识别***的整体功能仍然被启用,而不管不同操作模式之间的切换。该***被设计为使得传感器和照明器在每种模式下消耗基本不同的功率水平,使得***随着时间关于功率使用是非常高效的。在一些实施例中,这些功率水平可以是与其中确定虹膜识别不可能的模式对应的超低功率水平、与其中确定虹膜识别有可能但不是优选的模式对应的低功率水平和与其中确定虹膜识别有可能并且是优选的模式对应的标准功率水平。
在一些实施例中,***通过随着时间调整传感器启用之间的时间段来调整由传感器消耗的功率。例如,如果传感器仅每10秒被启用,那么与如果传感器每1秒被启用所消耗的功率相比,整体消耗更少的功率。
在一些其它实施例中,即使启用之间的时间是恒定的,***也通过调整其中感兴趣的传感器区域是活动的空间窗口来调整由传感器消耗的功率。像素从传感器计时输出(clocked out of)的速率通常是固定的,使得减小传感器的活动空间窗口的尺寸减少了传感器被启用期间的时间,并因此减少了由传感器消耗的平均功率。
不同模式下传感器启用的速率以及其中传感器区域是活动的空间窗口的尺寸被设计为使得虹膜识别***的性能得以维持。
在一些其它实施例中,***通过在处于每种模式时调整照明器的功率来调整照明消耗的功率。该***被设计为使得在一些操作模式下比在其它模式下需要更少的照明功率。该***还被设计为使得照明在传感器的不同活动空间窗口期间可以被控制为处于不同的亮度水平。
在一些其它实施例中,注视运动测量模块利用虹膜识别***中的传感器和照明器。这避免了对将消耗额外功率的单独注视运动测量模块的需求。此外,与其中需要病态三角测量和校准方法的用户的绝对注视方向相反,注视运动测量模块直接计算用户的注视的运动,并且该结果是稳健的无噪声注视运动测量,其利用(leverage)用于虹膜识别的相同的传感器和照明器。
综上所述,在一些实施例中,该***可以包括用于虹膜获取模式确定和虹膜识别的至少一个传感器、控制传感器功率控制模块的虹膜获取模式检测模块、照明功率控制模块或感兴趣的照明区域控制模块当中至少一个以及虹膜识别模块,其中虹膜获取模式确定模块确定如下条件中的至少一个:虹膜识别是不可能的、虹膜识别是有可能的但不是优选的、虹膜识别是有可能的并且是优选的,其中所确定的虹膜获取模式控制传感器功率控制模块以调整传感器的启用之间的时间。
在一些其它实施例中,该***可以包括用于虹膜获取模式确定和虹膜识别的至少一个传感器、控制感兴趣的传感器区域控制模块的虹膜获取模式检测模块、照明功率控制模块或感兴趣的照明区域控制模块当中至少一个以及虹膜识别模块,其中虹膜获取模式确定模块确定如下条件中的至少一个:虹膜识别是不可能的、虹膜识别是有可能的但不是优选的、虹膜识别是有可能的并且是优选的,其中所确定的虹膜获取模式控制感兴趣的传感器区域控制模块以调整传感器的感兴趣的有源像素区域。
在一些实施例中,***可以通过做出如下确定来操作:用户的一只或两只眼睛被检测到在与用于虹膜识别的照明的视场对应的图像区域内的确定;用户被检测到在虹膜识别***的景深之内的确定;用户被检测到正以低于速度阈值的速度移动的确定;所获取的图像的亮度水平低于阈值的确定;在两个或更多个不同时间获取的图像之间检测到的变化低于阈值的确定;来自加速度计的设备的加速度的测量值低于阈值的确定。
在一些实施例中,上面提到的速度阈值是13.75厘米/秒。
在一些实施例中,其中,当虹膜获取模式确定模块已确定模式是虹膜识别是不可能的时,则传感器启用之间的时间段小于20秒。
在一些实施例中,其中,当虹膜获取模式模块已确定模式是以下之一时:虹膜识别是有可能的并且条件是使得可以获取优选的虹膜图像,或者虹膜识别是有可能的并且条件是使得可以获取非优选的虹膜图像,则传感器启用之间的时间段小于5.5秒。
在一些实施例中,其中,当虹膜获取模式模块已确定模式是虹膜识别是不可能的时,传感器的感兴趣的有源像素区域被调整为小于传感器的感兴趣的区域。
在一些实施例中,其中感兴趣的活动传感器区域被调整,使得活动垂直窗口与虹膜直径之比等于或大于3.12。
在一些实施例中,其中感兴趣的照明区域控制模块配置照明来利用第一照明功率照明图像的一个区域并且利用第二照明功率照明图像的其它区域,以产生结果的亮和暗条带的图像。
在一些实施例中,上述亮和暗条带的图像通过归一化与第一照明功率对应的感兴趣的图像区域和与第二照明功率对应的感兴趣的图像区域内的强度而被处理。
在一些实施例中,感兴趣的活动传感器区域随着时间被移动,使得,随着时间组合累计的感兴趣的活动传感器区域覆盖与感兴趣的区域面积相比而言传感器区域的更大面积。
在一些实施例中,第一传感器配置用于虹膜获取模式确定并且第二传感器配置用于虹膜识别。
在包括注视运动检测模块的一些实施例中,该***可以包括用于虹膜获取模式确定和虹膜识别的至少一个传感器、控制传感器功率控制模块的虹膜获取模式检测模块、照明功率控制模块或感兴趣的照明区域控制模块当中至少一个、虹膜识别模块、注视运动确定模块,其中虹膜获取模式确定模块确定如下条件中的至少一个:虹膜识别是不可能的、虹膜识别是有可能的但不是优选的、虹膜识别是有可能的并且是优选的;其中所确定的虹膜获取模式控制传感器功率控制模块以调整传感器的启用之间的时间;其中注视运动确定模块包括确定随着时间获取的眼睛的两个或更多个图像之间的至少一个共同特征并将图像与那个特征对准的对准模块,以及计算眼睛中一个或多个剩余特征的运动的运动检测模块。
在也包括注视运动检测模块的一些其它实施例中,该***可以包括用于虹膜获取模式确定和虹膜识别的至少一个传感器、控制感兴趣的传感器区域控制模块的虹膜获取模式检测模块、照明功率控制模块或感兴趣的照明区域控制模块当中至少一个、虹膜识别模块、注视运动确定模块,其中虹膜获取模式确定模块确定如下条件中的至少一个:虹膜识别是不可能的、虹膜识别是有可能的但不是优选的、虹膜识别是有可能的并且是优选的;其中所确定的虹膜获取模式控制感兴趣的传感器区域控制模块以调整传感器的感兴趣的有源像素区域;其中注视运动确定模块包括确定随着时间获取的眼睛的两个或更多个图像之间的至少一个共同特征并将图像与那个特征对准的对准模块,以及计算眼睛中一个或多个剩余特征的运动的运动检测模块。
应当认识到,在下面更详细讨论的附加概念和前述概念的所有组合(只要这些概念不互相矛盾)被预期是本文所公开的发明性主题的一部分。特别地,出现在本公开内容的末尾的要求保护的主题的所有组合被预期是本文所公开的发明性主题的一部分。还应当认识到,也可以出现在通过引用被结合的任何公开内容中的本文明确采用的术语应当符合与本文所公开的特定概念最一致的含义。
附图说明
技术人员将理解,附图主要是为了说明性的目的而并非意在限制本文描述的发明性主题的范围。附图不一定是按比例绘制的;在一些情况下,本文所公开的发明性主题的各个方面可以在附图中被夸大或放大,以促进对不同特征的理解。在附图中,相同的标号一般指相同的特征(例如,功能上相似和/或结构上相似的元件)。
图1示出了根据一些实施例的功率高效的虹膜识别***的框图。
图2示出了根据一些实施例的功率高效的虹膜识别***的物理实现。
图3示出了根据一些实施例的以对于虹膜识别是非优选的位置定位在传感器前方的用户。
图4示出了根据一些实施例的以对于虹膜识别是非优选的另一个位置定位在传感器前方的用户。
图5示出了根据一些实施例的以对于虹膜识别是优选的另一个位置定位在传感器前方的用户。
图6示出了根据一些实施例的对于不同的所确定的虹膜获取操作模式而言随着时间的传感器启用,以及由传感器消耗的平均功率。
图7示出了根据一些实施例的对于不同的所确定的虹膜获取操作模式而言随着时间的传感器的窗口的感兴趣的活动区域,以及由传感器消耗的平均功率。
图8示出了根据一些实施例的在传感器前方使得眼睛在传感器的窗口的感兴趣的活动区域内的用户位置。
图9示出了根据一些实施例的定位在传感器前方使得照明的窗口的感兴趣的活动区域随着传感器的感兴趣的活动区域而变化,使得传感器的感兴趣的活动区域的一部分以与传感器的感兴趣的活动区域的其它部分相比而言不同的亮度水平被照明的用户。
图10示出了根据一些实施例的在传感器前方使得传感器的窗口的感兴趣的活动区域随着时间段变化的用户位置。
图11示出了根据一些实施例的在移动电话上的***的实现。
图12示出了根据一些实施例的使得一个传感器被用来确定虹膜获取操作模式,并且第二传感器被用来执行虹膜识别的***的框图。
图13示出了根据一些实施例的图12中的***的实现。
图14根据一些实施例在左边示出了由传感器获取的用户在两个不同时间段之间改变其注视的图像,并且在右边示出了用户的右眼在两个不同时间段的放大图像。
图15示出了根据一些实施例的注视运动测量模块的另一个实施例的框图。
图16示出了根据一些实施例的图15中的注视检测模块的实现。
具体实施方式
图1示出了***的实施例。用户100面对由传感器功率模式控制器104和感兴趣的传感器区域控制器105控制的传感器101。传感器功率模式控制器能够将传感器置于至少两种模式:低功率和标准功率模式。在低功率模式下,传感器可能无法获取适于虹膜识别的图像,但传感器可以立即切换到图像可以立即被获取的标准功率模式。感兴趣的传感器区域控制器能够配置传感器,使得并非所有传感器像素都被启用并且仅感兴趣的窗口区域是活动的。像素的读出速率通常就每秒的像素而言是恒定的,并且因此减少被读出的像素的数目减少了传感器需要处于标准功率模式的持续时间,并且因此减少了由传感器使用的功率。
传感器101的输出被馈送到虹膜识别模块103。这种虹膜识别模块的示例是Daugman的美国专利No.5,291,560,通过引用将其整体结合于此。传感器100的输出也被馈送到虹膜获取模式确定模块102。优选的虹膜获取检测器模块处理图像,以控制传感器功率模式控制器模块104和感兴趣的传感器区域控制器105。虹膜获取模式确定模块102还控制照明功率模式控制模块107和感兴趣的照明区域控制模块106。照明功率模式控制模块能够控制照明驱动模块108,使得照明功率可以处于低功率和标准功率模式。在低功率模式下,被照明驱动模块108驱动的照明器109控制照明器109,使得其在有源传感器像素的积分时间期间产生与标准照明功率模式相比而言更少的光子,并且因此消耗较少的功率。感兴趣的照明区域控制模块106还能够控制照明驱动模块108,使得在一些实施例中,照明仅在传感器像素处于有源期间被启用。
虹膜获取模式确定模块102确定至少两种模式:对于虹膜图像获取是优选的条件,以及对于虹膜图像获取是非优选的条件。在一些实施例中,第三种模式是不存在虹膜图像获取的可能性的条件。
当条件被确定为对于虹膜图像获取是非优选时,则***控制传感器和照明器以及处理,使得最小的功率被消耗,但足够的数据被获取,以作出关于条件对于虹膜图像获取是优选还是非优选的确定。这意味着***可以快速控制传感器和照明器,使得获取用于虹膜识别的优选图像。
控制条件被确定为对于虹膜识别是优选还是非优选或者虹膜识别是否是不可能的因素可以是虹膜识别模块的细节的功能。
与面部的反照率相比,虹膜的反照率或反射率相对较低,并且因此显著的功率被照明消耗,以产生被虹膜反射并进入传感器以便产生具有用于稳健虹膜识别的足够的信噪比的图像的充足的光子。这可以意味着光子聚焦在相对窄的光束内,该光束可以是+/-10度到+/-30度。移动电话上或膝上型计算机或其它静态设备上的许多相机透镜的视场可以大得多,例如+/-45度至+/-60度。窄的照明束可以瞄准在或接近相机的视场的中心。在一些实施例中,控制条件对于虹膜图像获取是否优选的一个因素是用户的一只或两只眼睛被检测到在与照明的视场对应的图像区域内。
另一个因素涉及虹膜识别***的景深。由于虹膜的低反照率或反射率,并且由于其相对小的尺寸(例如,直径为大约10.5mm),因此用来在传感器上形成图像的透镜通常具有大光圈并且还具有大倍率,以便跨虹膜对足够数目的像素(通常是100-200个像素)进行成像以供识别。大光圈和大倍率通常对应于虹膜识别***的光学***的小景深,在一些实施例中其可以是1”-5”。因此,在一些实施例中,控制条件对于虹膜图像获取是否优选的一个因素是用户被检测到在虹膜识别***的景深内。
另一个因素涉及图像的运动模糊。由于虹膜的低反照率和反射率,传感器上像素的曝光时间可以大,使得在曝光时间期间眼睛的任何显著运动都导致对于虹膜识别是非优选的虹膜的模糊图像。曝光时间可以是大约4毫秒并且虹膜可以被获取,使得其直径为100个像素。在一些实施例中,虹膜的5个像素的运动模糊可以是对成功的虹膜识别的限制。于是,这对应于经4毫秒5个像素的用户的横向运动。对于1.1厘米的标称光圈直径,5个像素对应于5/100*1.1厘米/4毫秒=13.75厘米/秒的横向用户运动。因此,在一些实施例中,控制条件对于虹膜图像获取是否优选的一个因素是用户被检测到以小于特定的速度移动。在一些实施例中,针对特定速度的优选阈值是13.75厘米/秒。当曝光时间增加时,优选阈值成比例地减小。例如,对于8毫秒的曝光时间,优选阈值是6.875厘米/秒。对于16毫秒的曝光时间,优选阈值是3.4375厘米/秒。因此,在一些实施例中,控制条件对于虹膜图像获取是否优选的一个因素是用户被检测到以小于13.75厘米/秒的速度移动。在一些其它实施例中,控制条件对于虹膜图像获取是否优选的因素是用户被检测到以小于6.875厘米/秒的速度移动。在一些其它实施例中,控制条件对于虹膜图像获取是否优选的因素是用户被检测到以小于3.4375厘米/秒的速度移动。
另一个因素涉及确定是否不存在执行虹膜识别的可能性,通常是因为设备未被使用。如果***作出这种确定,则***可以启用比上述低功率模式消耗更少功率的超低功率模式,但使得在超低功率模式到标准功率模式之间进行切换的时间长于在低功率到标准功率模式之间切换所花费的时间。与从低功率模式到标准模式相比从超低功率模式到标准模式的这种更长的时间在虹膜识别***中是可接受的,因为用户坐下或拿起以便使用设备和为了登录或其它认证虹膜识别所需要的时间之间的时间与用户已经使用***以及用户发起事务和需要执行虹膜识别之间的时间相比而言通常更长。
在一些实施例中,***基于图像中黑暗的测量值确定是否不存在执行虹膜识别的可能性。在屏幕上安装有相机的膝上型计算机的情况下,如果膝上型计算机的屏幕闭合,则虹膜识别是不可能的,因为不存在相机面向用户的可能性。或者可见光或红外相机将几乎与膝上型计算机的键盘或底部接触并且因此将获取暗的图像。但是,如果膝上型计算机打开,则由于环境中的环境照明,或由于来自设备的有源照明从设备前方的物体的反射,相机可以观察到一些亮度。
在一些其它实施例中,***基于图像中变化的测量值确定是否存在执行虹膜识别的可能性。在屏幕上安装有相机的膝上型计算机的情况下,如果膝上型计算机屏幕打开,则或者可见光或者红外相机将观察到场景。在设备的非常附近(far vicinity)的用户移动会导致指示存在虹膜识别可能被迫切需要的可能性的所获取图像随着时间的变化。此外,从移动电话获取的所获取的图像随着时间的变化指示设备正在移动并且因此有可能被用户持有,指示存在虹膜识别可能被迫切需要的可能性,这与移动设备留在桌子上相反,在这种情况下,所获取的图像不会随着时间变化。来自设备上的加速度计的测量值也可以指示设备正在移动。
因此,在一些其它实施例中,控制条件是否使得不存在虹膜识别的可能性的因素是所获取的图像的亮度水平低于阈值。在一些其它实施例中,控制条件是否使得不存在虹膜识别的可能性的因素是在随着时间获取的图像之间检测到的变化低于阈值。在一些其它实施例中,控制条件是否使得不存在虹膜识别的可能性的因素是安装在设备上的加速度计的测量值低于阈值。
在一些实施例中,虹膜获取模式确定模块102利用多种方法来确定上述因素。如前所述,在一些实施例中,控制条件对于虹膜图像获取是否优选的一个因素是用户的一只或两只眼睛被检测到在与照明的视场对应的图像区域内。这可以通过检测图像中面部的位置来执行。用于检测面部的方法例如在M.Turk,A.Pentland,“Eigenfaces forRecognition”,Journal of Cognitive Neuroscience,Vol.3,No.1,1991,pp.71-86中描述,通过引用将其结合于此。这恢复眼睛在图像中的位置。在图3、4和5中,相机视场内的虚线区域是对于虹膜获取是优选的区域,因为它被如先前所述地那样被照亮。在图3和4中,眼睛在感兴趣的优选区域之外。在图5中,眼睛在感兴趣的优选区域内部。在图2中,图像是利用相机和传感器200获取的,并且然后在处理器201上执行面部检测处理。所恢复的眼睛位置与用于虹膜识别的预定感兴趣的优选区域的比较也在处理器201上执行。
也如前所述,控制条件对于虹膜图像获取是否优选的一个因素是用户被检测到在虹膜识别***的景深内。这可以通过取得面部检测器模块的输出并通过基于例如恢复的眼睛的像素分离确定面部按像素的比例。眼睛、鼻子和嘴巴的分离跨人口是相对固定的,并且在一些实施例中在这种虹膜识别***中使用的透镜也具有固定的焦距。这意味着眼睛的分离,例如,可被用来利用存储在处理器201上的预校准的查找表确定用户离设备的范围或距离,其中预校准的查找表将眼睛像素分离关联到按英寸的用户范围。***的景深和标称操作范围是从虹膜识别***的光学配置事先得知的并且这给出了在其内可以获取对于虹膜识别是优选的图像的最小和最大距离。因此,预校准的查找表可被用来确定面部的比例,例如按像素的眼睛分离,以确定用户是否在离设备的最小和最大距离之间,使得对于虹膜识别是优选的图像可以被获取或者位于范围之外。
也如前面所述,控制条件对于虹膜图像获取是否优选的一个因素是用户被检测到以小于13.75厘米/秒或小于6.875厘米/秒、或小于3.4375厘米/秒的速度移动,这依赖于曝光时间。这个速度可以通过利用上述方法在经已知时间间隔获取的***的连续帧上检测面部的位置来计算。透镜的焦距是固定的和已知的,传感器参数是已知的,并且用户的范围可以从如上所述面部的比例来估计,并且这允许从图像中眼睛的像素位置的变化来计算用户的运动。例如,如果左眼的位置被检测到经0.1秒改变50个像素,并且虹膜的标称直径是对应于1.1厘米的100个像素,则用户以50/100*1.1厘米/0.1秒=5.5厘米/秒移动。
也如前所述,控制条件是否是使得不存在虹膜识别的可能性的因素是所获取的图像的亮度水平低于阈值。这可以通过从相机200获取图像并在处理器201上计算该图像的平均亮度来确定。如果平均亮度低于阈值,则在处理器201上实现的虹膜获取模式确定模块102可以确定不存在虹膜识别的可能性。
也如前所述,控制条件是否是使得不存在虹膜识别的可能性的因素是在随着时间获取的图像之间检测到的变化低于阈值。这可以通过在不同的时间段从照相机200获取至少两个图像、通过在处理器201上计算每个像素处至少两个图像的差值、通过计算每个像素处至少两个图像的差值的平方以及通过平均得出的平方差异图像来确定。如果平均变化或差值低于阈值,则在处理器201上实现的虹膜获取模式确定模块102可以确定不存在虹膜识别的可能性。
也如前面所述,控制条件是否是使得不存在虹膜识别的可能性的因素是安装在设备上的加速度计的测量值低于阈值。加速度计204连接到处理器201。如果加速度计读数被处理器201确定为低于阈值,则***可以确定不存在虹膜识别的可能性。
返回到图1,虹膜获取模式确定模块102向感兴趣的传感器区域控制模块105、传感器功率模式控制模块104、感兴趣的照明区域控制模块106以及照明功率模式控制模块107发送模式确定。这些模块配置传感器并控制照明器,以便启用不同的功率模式。如前面所讨论的,所确定的模式可以包括虹膜识别不可能的确定、用于虹膜识别的条件有可能但不是优选的确定、以及用于虹膜识别的条件有可能并且是优选的确定。这三种模式可以分别对应于与超低功率、低功率和标准功率对应的三种电源配置。传感器和照明功率控制模块105、104、106、107接收模式确定并且配置传感器和照明以实现各个功率水平。
如前面所讨论的,在一些实施例中,***已被设计为使得,在超低功率模式下,与低功率模式相比,消耗较少的功率,但是使得在超低功率模式到标准功率模式之间切换的时间长于在从低功率模式到标准功率模式之间切换所花费的时间。与从低功率模式到标准模式相比从超低功率模式到标准模式的这种更长的时间在虹膜识别***中是可接受的,因为用户坐下或拿起以便使用设备和为了登录或其它认证虹膜识别所需要的时间之间的时间与用户已经使用***并且用户发起事务和需要执行虹膜识别之间的时间相比而言通常更长。
现在更详细地描述感兴趣的传感器区域控制模块105、传感器功率模式控制模块104、感兴趣的照明区域控制模块106以及照明功率模式控制模块107。这些模块是在处理器202上实现的,处理器202将得到的控制信号输出给相机传感器200和照明驱动器203,其可以包括将照明控制信号转换成反过来驱动照明器109的电流的场效应晶体管(FET)。
图6示出了传感器功率模式控制模块104的操作。在上部图中的实线示出了来自控制模块的启用传感器的信号。下部图示出了虹膜模式确定模块的输出。在这种情况下的模式1(602)和2(603)可以分别对应于超低功率和低功率,或者可以分别对应于超低功率和标准功率,或者可以分别对应于低功率和标准功率。传感器功率模式控制模块104周期性地启用传感器。在虹膜获取模式1下,传感器启用之间的时间段是T1(600)。在虹膜获取模式2下,传感器启用之间的时间段是T2(601),使得T2小于T1。传感器启用之间的时间越长,则传感器消耗的平均功率604越低。
在一些实施例中,在超低功率模式下,启用之间的时间段TU可以小于20秒。这个时间段通常提供用户坐下或拿起以便使用设备和为了例如登录虹膜识别所需要的时间之间足够的时间。在低功率模式下,启用之间的时间段可以通过计算***将错过检测到用于获取虹膜图像的条件是优选的可能性来确定,因为,例如,用户可能已经在传感器启用之间移入或移出用于虹膜图像获取的优选条件。在一种实施例中,如果为了虹膜识别而被照明器充分照明的传感器的部分的宽度是500像素,则在传感器启用之间以500像素的用户横向运动速度,***将无法检测到用户实际上处于对于虹膜图像获取是优选的条件,因为眼睛将在优选区域外部的一侧上被检测到,并且然后在优选区域外部的另一侧上被检测到,并且从未在优选区域内被检测到,即使用户目前在那里。因此,在这种实施例中,优选的是在传感器启用之间选择低功率模式下小于500个像素的速度的时间间隔。如果设备前方的用户的预期横向运动是1厘米/秒,并且用户的虹膜的标称直径是1.1厘米,并且跨虹膜的像素的数目是100,则传感器启用之间的时间间隔是(500/100*1.1)/1=5.5秒。在一些应用中,尤其是如果用户坐在膝上型计算机旁边并且不持有移动设备,则用户的速度可以更大,从而需要在低功率模式下启用之间的时间段TL小于5.5秒。在一些实施例中,在标准模式下启用之间的时间段TS可以等于或小于在低功率模式下的时间段TL。
图7示出了感兴趣的传感器区域控制模块105的操作。为了清楚,传感器功率模式控制104的影响已经被从描述中去除,使得启用之间的时间T1(704)在任何功率模式下都是相同的。但是,应当理解,由于模块104、105、106、107中的每个而产生的功率效率的不同方法可以组合使用。
图7中的顶部图中的实线示出了假定如所讨论的传感器启用之间的固定时间T1(704)时,期间传感器被启用的时间,以及由传感器使用的平均功率。底部图示出了虹膜获取模式的确定。模式1(702)可以对应于任何功率模式,并且模式2(703)也可以对应于任何不同的功率模式。图7中的顶部图示出了,在模式1中,传感器已经被启用,使得传感器的窗口w1(700)内的像素被获取,并且在模式2中,传感器的窗口w2(701)内的像素被获取。传感器通常具有相同的计时输出频率,而与被成像的区域无关,并且因此,被获取的像素窗口越小,则传感器被接通的持续时间越短并且随着时间消耗的功率越少。在图7中的顶部图中的实线示出,与传感器的活动窗口w1(700)相比,传感器的活动窗口w2(701)在模式2中较小。因此,由虚线705指示的、由传感器随着时间消耗的平均功率在模式2中比模式1中更少。修改传感器在所获取的图像上的窗口的效果在图8中示出。图8示出了顶部扫描点(TP)(800)和底部扫描点(BP)(801)并且示出了仅传感器的视场的一部分被获取,如可能是示例中模式2中的情况。这可以与图5比较,图5中顶部扫描点(TP)(500)和底部扫描点(BP)(501)被配置为使得整个图像被获取。
在一些实施例中,并且参照图8,在超低功率模式下,感兴趣的传感器区域控制器105可以配置TP(800)和BP(801),使得仅该传感器的一小部分被获取。这是因为在前面为确定虹膜获取模式所描述的方法中,可能仅需要图像的更小的部分用于检测图像中的黑暗或者用于检测所获取的图像中的变化。如果图像传感器具有高分辨率并且具有许多像素,则这是显著的。在一些实施例中,在超低功率模式下,TP和BP之间的像素的数目可以小于1000000个像素。
在一些实施例中,TP和BP可被配置为依赖于已经由前面在虹膜获取模式检测器模块102中描述的方法计算出的用户的运动或位置。由TP和BP限定的活动传感器窗口可以由感兴趣的传感器区域模块105控制,使得恢复的眼睛的位置位于顶部扫描点TP和底部扫描点BP之间。因此,当用户移动时,TP和BP可以随着时间被模块105改变。由于图像获取之间的时间段,有可能用户会移动得如此之快,以至于到了第二获取的时候用户的眼睛不再位于顶部和底部扫描点之间。为了解决这个问题,TP和BP之间的差值被设置为使得传感器在主体上对应于特定视场的透镜的垂直覆盖d2(801)(相对于其行被水平扫描的传感器来限定)使得任何期望的用户的运动将导致眼睛仍然在由TP和BP限定的区域内。在一种实施例中,如果预期的用户的运动是3.4375厘米/秒,其中传感器启用之间有1秒的时间段并且虹膜直径是1.1厘米,如前面所讨论的,则TP和BP应当被配置为使得活动垂直窗口d2(801)与虹膜直径d1(802)之比等于或大于(3.4375/1)/1.1=3.12。
图9示出了感兴趣的照明区域控制模块的操作。它示出照明被控制为当图像传感器的扫描点在P1(902)和P2(903)之间时具有第二功率水平,并且否则具有第一功率水平。在一些实施例中,P1可以等于TP(900)并且P2可以等于BP(901),使得在活动窗口区域以外具有照明是没有目的的,因为在那段时间期间传感器不获取任何数据。在这种情况下,第一功率水平可以是零。在其它情况下,P1和P2可以被控制,使得P1和P2位于TP和BP内,使得对应于在P1和P2之间的传感器的感兴趣区域比传感器的其它部分被照明更多。这可以通过只足够良好地照明用于在模块103中执行的虹膜识别的虹膜区域,并且只足够良好地照明用于在模块102中执行的模式确定的面部区域的其余部分来减少由照明使用的功率。前面已经描述了用于检测模式的方法,并且在一些实施例中可以包括黑暗检测、变化检测和面部检测。
为了检测是否存在变化或黑暗(前面描述的由虹膜获取模式确定模块102确定的因素中的两个),算法需要相对少的照明并且照明可以被设置在低水平。类似地,脸部的特征在尺度上比虹膜的特征粗糙,使得面部特征会被空间模糊,以减少由于较低照明水平造成的图像噪声,但仍然可以执行如前所述的成功的面部检测。在虹膜图像被获取以用于由模块103进行的虹膜识别的区域中,照明可以被设置在更高水平。但是,结果的图像由于增加的照明而具有明亮的空间带,这可能降低诸如脸部检测器的模式检测算法中的一些的性能。这个明亮的空间带可以被在图像扫描期间输入对应于照明设置中的变化的边界位置P1和P2的归一化模块和跨边界执行图像强度的归一化的算法去除。归一化模块可以取得在边界的一侧上的扫描线的平均值和在边界的另一侧上的扫描线的平均值、取得平均值之比,并且然后利用计算出的比归一化强度,使得在边界任一侧上的归一化的扫描线的重新计算的平均值相同。
图10示出了随着时间调整感兴趣的传感器区域使得在一个时刻该区域由TP1(1000)和BP1(1001)限定,并且在第二时刻由TP2(1002)和BP2(1003)限定,使得随着时间获取组合的传感器区域TP1至BP2的传感器图像区域控制器的另一个示例。该过程可以被重复,使得感兴趣的活动窗口覆盖传感器视场的一些或全部。这允许,如果眼睛的位置移出对于虹膜图像获取是优选的条件之外,眼睛的位置被检测,以用于由虹膜识别模块103进行的虹膜识别或者用于虹膜获取模式检测模块102。
图12示出了其中虹膜识别和模式检测由两个不同的传感器执行的***的实施例。在这个实施例中,对环境照明敏感的第一传感器1200被用来执行虹膜获取模式检测102并且对红外照明敏感的第二传感器101被用来执行虹膜识别103。环境照明由1201指示,并且红外照明由109指示。这种方法可能有优势,因为环境照明不需要有源照明并且因此***消耗更少的功率,因为在操作模式(诸如模式:虹膜识别是不可能的)中的一些下,仅仅环境照明可能就足以执行黑暗检测或变化检测,以将***切换到虹膜识别会是可能的不同模式。第一和第二传感器可以在单个像素阵列中共同定位,使得一些像素对可见照明敏感,而一些像素对红外照明敏感。图13示出了该***的实现,由此两个传感器1300和200的输出分别被馈送到处理器模块201,处理器模块201确定虹膜获取模式并且还执行虹膜识别,并且还向第二处理器202发送执行详细的感兴趣的传感器区域控制、传感器功率启用控制、感兴趣的照明区域控制和照明亮度控制的控制信号。
在一些实施例中,该***还包括注视运动测量模块(图1中的111)。这涉及虹膜识别***中的功率效率,因为为了虹膜识别模块(103)和虹膜获取模式检测模块(102)的目的而获取的图像以及一些相同的处理步骤可以如现在所描述的那样被注视运动检测器模块(111)使用,使得不需要单独的注视运动检测器模块并且因此***的总功率减少。
图14在左侧示出了在时间T获取的用户面部的第一图像和在时间T+1获取的第二图像。用户的右眼分别由1401和1402指示,并且,为清楚起见,这些在图14的右侧被放大。用于虹膜获取模式检测和用于虹膜识别的照明器(109)可以在所获取的眼睛的图像中创建镜面反射(specularity)1403和1407。用于虹膜识别的处理可以计算瞳孔/虹膜边界1406、1404的位置和虹膜/巩膜边界1408、1409的位置。是用户的注视定向的运动可以被计算,而不是计算用户的绝对注视定向。在一些实施例中,运动可以通过对准镜面反射的像素位置并且通过计算瞳孔/虹膜边界位置的差值m(1405)来计算。通过在每种情况下与绝对注视方向相反而直接计算注视的运动,然后减去差值,则结果是更加稳定的估计过程,从而产生更平滑和更稳健的图形用户输入控制。
用于检测镜面反射1403、1407的位置的方法是为图像设定阈值,并且计算高于该阈值的像素的形心。用于检测瞳孔/虹膜边界1406、1404和虹膜/巩膜边界1408、1409的位置和参数的方法是执行霍夫变换(Hough transform),以检测图像中圆形形状的参数,如在美国专利No.3,069,654中所描述的,通过引用将其整体结合于此。
结论
虽然各种发明性实施例已经在本文中进行了描述和例示,但本领域技术人员将容易想到用于执行本文所述的功能和/或获得本文所述的结果和/或优点中的一个或多个的各种其它装置和/或结构,并且这些变化和/或修改当中每一个都被认为在本文所述的发明性实施例的范围内。更一般而言,本领域技术人员将容易认识到,本文所述的所有参数、维度、材料和配置都意在示例性的,并且实际的参数、维度、材料和配置将依赖于该发明性教导所用于的具体应用(一个或多个)。本领域技术人员将认识到,或者能够仅仅利用常规实验来确定,本文所描述的具体发明性实施例的许多等价物。因此,应当理解的是,前述实施例仅仅是作为示例给出的,并且,在随附权利要求及其等价物的范围之内,发明性实施例可以如不同于具体描述并要求保护的那样来实践。本公开内容的发明性实施例涉及本文所述的每个单独的特征、***、制品、材料、套件、和/或方法。此外,如果这种特征、***、制品、材料、套件、和/或方法不相互矛盾,则两个或更多个这种特征、***、制品、材料、套件、和/或方法的任意组合包括在本公开内容的发明性范围内。
上述实施例可以以多种方式中的任何一种来实现。例如,本文所公开的设计和制作耦接结构和衍射光学元件的实施例可以利用硬件、软件或其组合来实现。当在软件中实现时,软件代码可以在无论在单个计算机中提供或者在多个计算机之间分布的任何合适的处理器或处理器集合上执行。
另外,应该认识到的是,计算机可以以任意数量的形式体现,诸如机架安装式计算机、台式计算机、膝上型计算机或平板计算机。此外,计算机可被嵌在一般不被认为是计算机但具有合适的处理能力的设备中,所述设备包括个人数字助理(PDA)、智能电话或任何其它合适的便携式或固定电子设备。
此外,计算机可以具有一个或多个输入和输出设备。除其它事情之外,这些设备可以被用来呈现用户接口。可被用来提供用户接口的输出设备的示例包括用于输出的视觉呈现的打印机或显示屏以及用于输出的听觉呈现的扬声器或其它声音生成设备。可被用于用户接口的输入设备的示例包括键盘和定点设备,诸如鼠标、触摸板和数字化平板。作为另一个示例,计算机可以通过语音识别或以其它可听格式接收输入信息。
这种计算机可以由一个或多个网络以任意合适的形式互连,包括局域网或广域网,诸如企业网、智能网(IN)或互联网。这种网络可以基于任意合适的技术并且可以根据任意合适的协议操作并且可以包括无线网络、有线网络或光纤网络。
本文概述的(例如,设计和制作上面公开的耦接结构和衍射光学元件的)各种方法或过程可被编码为能够在采用各种操作***或平台当中任何一种的一个或多个处理器上执行的软件。此外,这种软件可以利用多个合适的编程语言和/或编程或脚本工具中的任意一种来编写,并且也可以被编译为在框架或虚拟机上执行的可执行机器语言代码或中间代码。
在这方面,各种发明性概念可被体现为利用一个或多个程序编码的计算机可读存储介质(或多个计算机可读存储介质)(例如,计算机存储器、一个或多个软盘、紧凑盘、光盘、磁带、闪速存储器、现场可编程门阵列或其它半导体器件中的电路构造、或者其它非临时性介质或有形计算机存储介质),当所述一个或多个程序被在一个或多个计算机或其它处理器上执行时,执行实现以上讨论的本发明的各种实施例的方法。计算机可读介质(一个或多个)可以是便携式的,使得存储在其上的程序(一个或多个)可被加载到一个或多个不同的计算机或其它处理器上,以实现如上讨论的本发明的各个方面。
本文使用的术语“程序”或“软件”在一般意义上指任何类型的计算机代码或处理器可执行指令集,该计算机代码或处理器可执行指令集可以用来对计算机或其它处理器编程以实现如上文讨论的实施例的各个方面。此外,应当认识到,根据一个方面,当被执行时执行本发明的方法的一个或多个计算机程序无需驻存在单个计算机或处理器上,而是可以以模块方式分布在多个不同的计算机或处理器之中以实现本发明的各个方面。
计算机可执行指令可以是许多形式,诸如由一个或多个计算机或其它设备执行的程序模块。一般而言,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。通常,在各种实施例中可以如所期望地组合或分布程序模块的功能。
此外,数据结构可以以任意适当形式存储在计算机可读存储介质中。为简化说明,可以将数据结构示为具有通过数据结构中的位置来相关的字段。这种关系同样可以通过将存储分配给具有传达字段之间关系的计算机可读介质中的位置的字段来实现。但是,可以使用任意适当的机制来在数据结构的字段中的信息之间建立关系,包括通过使用在数据元素之间建立关系的指针、标签或其它机制。
此外,各种发明性概念可以体现为一个或多个方法,已提供了这些方法的示例。作为方法的一部分执行的动作可以以任意适当的方式进行排序。因此,实施例可以被构造为其中动作是以不同于例示的次序执行的,其可以包括同时执行一些动作,尽管在说明性实施例中示为顺序的动作。
如本文所定义和使用的,所有的定义都应该被理解为优先于字典的定义控制通过引用被结合的文档中的定义和/或所定义术语的普通含义。
如本文在说明书和在权利要求中所使用的,除非明确地指示为相反,否则不定冠词“一”和“一个”应当被理解为意在“至少一个”。
如本文在说明书和在权利要求中所使用的,短语“和/或”应当被理解为意在如此连接的元素的“任何一个或两者”,即,在一些情况下结合存在并且在另一些情况下分离存在的元素。利用“和/或”列出的多个元素应该以同样的方式进行解释,即,如此结合的元素的“一个或多个”。除由“和/或”子句具体识别的元素之外,其它元素也可以可选地存在。因此,作为非限制性的示例,当结合诸如“包括”的开放式语言使用时,对“A和/或B”的引用可以,在一种实施例中,仅仅指A(可选地包括除B之外的元素);在另一种实施例中,仅仅指B(可选地包括除A之外的元素);在还有的另一种实施例中,指A和B两者(可选地包括其它元素);等等。
如本文在说明书和权利要求中所使用的,“或”应当被理解为具有与如上定义的“和/或”相同的含义。例如,当分隔列表中的项时,“或”或“和/或”应当被解释为包括性的,即,包括多个元素或元素列表当中至少一个,但也包括一个以上,以及可选地,附加的未列出的项目。只有明确地指示相反的术语,诸如“仅…之一”或者“确切地…之一”,或者当在权利要求中使用时的“由…组成”,将指包括多个元素或元素列表当中确切一个元素。一般而言,如本文所使用的,当前面有排他性术语(诸如“任意一个”、“…之一”、“仅…之一”或者“确切地…之一”)时,如本文中使用的术语“或”将只被解释为指示排他性的替代(即“一个或另一个但不是两者”)。当在权利要求书中使用时,“基本上由…组成”将具有其如在专利法领域中使用的普通含义。
如本文在说明书和权利要求中所使用的,短语“至少一个”在引用一个或多个元素的列表时应当理解为意味着从元素列表中的元素中的任何一个或多个元素中选择的至少一个元素,但是未必包括在元素列表内具体列举的每一个元素中的至少一个元素并且未排除元素列表中的元素的任意组合。这一定义也允许可以可选地存在除了在短语“至少一个”所引用的元素列表内具体识别的元素之外的、无论是与具体识别的那些元素有关还是无关的元素。因此,作为非限制性示例,“A和B中的至少一个”(或等价地,“A或B中的至少一个”,或等价地,“A和/或B中的至少一个”)可以,在一种实施例中,指至少一个,可选地包括多于一个A,其中不存在B(并且可选地包括除B之外的元素);在另一种实施例中,指至少一个,可选地包括多于一个B,其中不存在A(并且可选地包括除A之外的元素);在还有的另一种实施例中,指至少一个,可选地包括多于一个A,和至少一个,可选地包括多于一个B(并且可选地包括其它元素);等等。
在权利要求中,以及在上述说明书中,所有过渡短语(诸如“包含”、“包括”、“携带”、“具有”、“含有”、“涉及”、“持有”等)被理解为是开放式的,即,意味着包括但不限于。只有过渡短语“由…组成”和“基本上由…组成”才将分别是封闭或半封闭过渡短语,如在美国专利局专利审查程序手册2111.03节中所阐述的。

Claims (17)

1.一种用于功率高效的虹膜识别的***,所述***包括:
至少一个传感器,用于获取用户的虹膜的至少一个图像;
虹膜识别模块,能够操作地耦接到所述至少一个传感器,以基于用户的虹膜的所述至少一个图像执行用户的虹膜识别;
传感器功率控制模块,能够操作地耦接到所述至少一个传感器,以向所述至少一个传感器提供电功率;以及
虹膜获取模式检测模块,能够操作地耦接到所述至少一个传感器并耦接到所述传感器功率控制模块,以至少部分地基于来自所述至少一个传感器的输出来确定***的操作模式并基于所述操作模式调整所述至少一个传感器的连续启用之间的时间段,以便控制提供给所述至少一个传感器的电功率,
其中***的所述操作模式是虹膜识别不可能、虹膜识别有可能但不是优选或者虹膜识别有可能并且是优选的当中至少一个。
2.如权利要求1所述的***,其中虹膜获取模式检测模块被配置为响应于所述操作模式是虹膜识别不可能的确定而将所述至少一个传感器的连续启用之间的时间段设置为小于20秒。
3.如权利要求1所述的***,其中虹膜获取模式检测模块被配置为响应于所述操作模式是虹膜识别有可能但是优选或者虹膜识别有可能并且是优选的确定而将所述至少一个传感器的连续启用之间的时间段设置为小于5.5秒。
4.如权利要求1所述的***,其中虹膜获取模式检测模块被配置为基于以下中的至少一个确定所述操作模式:
用户的一只或两只眼睛被检测到在由用于虹膜识别的光源照明的区域内的确定;
用户被检测到在所述至少一个传感器的景深内的确定;
用户正在以小于速度阈值的速度移动的确定;
所述至少一个图像的亮度水平小于亮度阈值的确定;
由所述至少一个传感器获取的第一图像与第二图像之间的变化低于变化阈值的确定;以及
所述至少一个传感器的加速度低于加速度阈值的确定。
5.如权利要求4所述的***,其中所述速度阈值是13.75厘米/秒。
6.如权利要求1所述的***,其中所述至少一个传感器被配置为随着时间移动所述至少一个传感器的感兴趣的活动传感器区域,以便对比感兴趣的活动传感器区域更大的区域进行成像。
7.如权利要求1所述的***,其中所述至少一个传感器被配置为处于用于虹膜获取模式确定的第一传感器配置和处于用于虹膜识别的第二传感器配置。
8.如权利要求1所述的***,还包括:
对准模块,能够操作地耦接到所述至少一个传感器,以确定随着时间获取的用户的眼睛的至少两个图像之间的至少一个共同特征并且将所述至少两个图像与所述至少一个共同特征对准;以及
运动检测模块,能够操作地耦接到所述至少一个传感器,以估计眼睛的至少一个其它特征的运动。
9.一种用于功率高效的虹膜识别的***,所述***包括:
至少一个传感器,用于获取用户的虹膜的至少一个图像,所述至少一个传感器具有感兴趣的有源像素区域;
虹膜识别模块,能够操作地耦接到所述至少一个传感器,以基于用户的虹膜的所述至少一个图像执行用户的虹膜识别;
虹膜获取模式检测模块,能够操作地耦接到所述至少一个传感器并耦接到传感器功率控制模块,以至少部分地基于来自所述至少一个传感器的输出确定***的操作模式;以及
感兴趣的传感器区域控制模块,能够操作地耦接到所述至少一个传感器,以基于所述操作模式调整所述至少一个传感器的感兴趣的有源像素区域,
其中***的所述操作模式是虹膜识别不可能、虹膜识别有可能但不是优选或者虹膜识别有可能并且是优选的当中至少一个。
10.如权利要求9所述的***,其中虹膜获取模式检测模块被配置为基于以下中的至少一个确定所述操作模式:
用户的一只或两只眼睛被检测到在由用于虹膜识别的光源照明的区域内的确定;
用户被检测到在所述至少一个传感器的景深内的确定;
用户正在以小于速度阈值的速度移动的确定;
所述至少一个图像的亮度水平小于亮度阈值的确定;
由所述至少一个传感器获取的第一图像与第二图像之间的变化低于变化阈值的确定;以及
所述至少一个传感器的加速度低于加速度阈值的确定。
11.如权利要求10所述的***,其中所述速度阈值是13.75厘米/秒。
12.如权利要求9所述的***,其中感兴趣的传感器区域控制模块被配置为响应于所述操作模式是虹膜识别不可能的确定而将传感器的感兴趣的有源像素区域调整为小于传感器的感兴趣的区域。
13.如权利要求9所述的***,其中感兴趣的传感器区域控制模块被配置为调整传感器的感兴趣的有源像素区域,使得所述至少一个传感器的活动垂直窗口与虹膜的直径之比等于或大于3.12。
14.如权利要求9所述的***,还包括:
感兴趣的照明区域控制模块,被配置为利用第一照明功率照明图像的第一区域以及利用第二照明功率照明图像的第二区域,以便产生结果的亮和暗条带的图像。
15.如权利要求14所述的***,其中虹膜识别模块被配置为通过归一化与第一照明功率对应的图像和与第二照明功率对应的图像中的强度来处理亮和暗条带的图像。
16.如权利要求9所述的***,其中所述至少一个传感器被配置为处于用于虹膜获取模式确定的第一传感器配置和处于用于虹膜识别的第二传感器配置。
17.如权利要求9所述的***,还包括:
对准模块,能够操作地耦接到所述至少一个传感器,以确定随着时间获取的用户的眼睛的至少两个图像之间的至少一个共同特征并且将所述至少两个图像与所述至少一个共同特征对准;以及
运动检测模块,能够操作地耦接到所述至少一个传感器,以估计眼睛的至少一个其它特征的运动。
CN201480074193.3A 2013-12-23 2014-12-23 用于功率高效的虹膜识别的方法和装置 Pending CN105934764A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361920215P 2013-12-23 2013-12-23
US61/920,215 2013-12-23
US201461931809P 2014-01-27 2014-01-27
US61/931,809 2014-01-27
US201461945961P 2014-02-28 2014-02-28
US61/945,961 2014-02-28
PCT/US2014/072175 WO2015100335A1 (en) 2013-12-23 2014-12-23 Methods and apparatus for power-efficient iris recognition

Publications (1)

Publication Number Publication Date
CN105934764A true CN105934764A (zh) 2016-09-07

Family

ID=53479657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480074193.3A Pending CN105934764A (zh) 2013-12-23 2014-12-23 用于功率高效的虹膜识别的方法和装置

Country Status (5)

Country Link
US (2) US10032075B2 (zh)
EP (1) EP3087533A4 (zh)
CN (1) CN105934764A (zh)
BR (1) BR112016014692A2 (zh)
WO (1) WO2015100335A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341469A (zh) * 2017-06-30 2017-11-10 广东欧珀移动通信有限公司 控制方法、电子装置和计算机可读存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102230691B1 (ko) 2014-07-09 2021-03-23 삼성전자주식회사 생체정보를 인식하는 방법 및 장치
US20170132466A1 (en) 2014-09-30 2017-05-11 Qualcomm Incorporated Low-power iris scan initialization
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US20160350607A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Biometric authentication device
US10547829B2 (en) * 2016-06-16 2020-01-28 Samsung Electronics Co., Ltd. Image detecting device and image detecting method using the same
KR102553308B1 (ko) * 2016-06-16 2023-07-11 삼성전자주식회사 이미지 검출 장치 및 이를 이용한 이미지 검출 방법
US10880742B2 (en) * 2016-12-15 2020-12-29 Fotonation Limited Iris recognition workflow
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
CN110168565B (zh) * 2017-01-23 2024-01-05 高通股份有限公司 低功率虹膜扫描初始化
US10765237B2 (en) * 2017-03-02 2020-09-08 Signify Holding B.V. Lighting system and method
CN107403147B (zh) * 2017-07-14 2020-09-01 Oppo广东移动通信有限公司 虹膜活体检测方法及相关产品
US20190087830A1 (en) 2017-09-15 2019-03-21 Pearson Education, Inc. Generating digital credentials with associated sensor data in a sensor-monitored environment
CA3122544A1 (en) * 2018-12-12 2020-06-18 Tesseract Health, Inc. Biometric identification systems and associated devices
KR20200143964A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 차량용 사용자 인터페이스 시스템 및 방법
US11737665B2 (en) 2019-06-21 2023-08-29 Tesseract Health, Inc. Multi-modal eye imaging with shared optical path

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US20100205667A1 (en) * 2009-02-06 2010-08-12 Oculis Labs Video-Based Privacy Supporting System
CN101826154A (zh) * 2009-03-03 2010-09-08 株式会社日立制作所 关系分析方法、关系分析程序、以及关系分析装置
WO2013060826A1 (en) * 2011-10-27 2013-05-02 Tobii Technology Ab Intelligent user mode selection in an eye-tracking system
CN103135762A (zh) * 2011-11-29 2013-06-05 三星电子株式会社 用于基于眼睛跟踪操作用户功能的方法及其移动装置

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5488675A (en) 1994-03-31 1996-01-30 David Sarnoff Research Center, Inc. Stabilizing estimate of location of target region inferred from tracked multiple landmark regions of a video image
US5572596A (en) 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US6366682B1 (en) 1994-11-28 2002-04-02 Indivos Corporation Tokenless electronic transaction system
US7248719B2 (en) 1994-11-28 2007-07-24 Indivos Corporation Tokenless electronic transaction system
US5613012A (en) 1994-11-28 1997-03-18 Smarttouch, Llc. Tokenless identification system for authorization of electronic transactions and electronic transmissions
US6192142B1 (en) 1994-11-28 2001-02-20 Smarttouch, Inc. Tokenless biometric electronic stored value transactions
US5805719A (en) 1994-11-28 1998-09-08 Smarttouch Tokenless identification of individuals
US5615277A (en) 1994-11-28 1997-03-25 Hoffman; Ned Tokenless security system for authorizing access to a secured computer system
US5764789A (en) 1994-11-28 1998-06-09 Smarttouch, Llc Tokenless biometric ATM access system
US5802199A (en) 1994-11-28 1998-09-01 Smarttouch, Llc Use sensitive identification system
US7613659B1 (en) 1994-11-28 2009-11-03 Yt Acquisition Corporation System and method for processing tokenless biometric electronic transmissions using an electronic rule module clearinghouse
US5581629A (en) 1995-01-30 1996-12-03 David Sarnoff Research Center, Inc Method for estimating the location of an image target region from tracked multiple image landmark regions
JPH09212644A (ja) 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd 虹彩認識装置および虹彩認識方法
US5835083A (en) * 1996-05-30 1998-11-10 Sun Microsystems, Inc. Eyetrack-driven illumination and information display
US5737439A (en) 1996-10-29 1998-04-07 Smarttouch, Llc. Anti-fraud biometric scanner that accurately detects blood flow
US6144754A (en) 1997-03-28 2000-11-07 Oki Electric Industry Co., Ltd. Method and apparatus for identifying individuals
US6373968B2 (en) 1997-06-06 2002-04-16 Oki Electric Industry Co., Ltd. System for identifying individuals
US6069967A (en) 1997-11-04 2000-05-30 Sensar, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses
US6064752A (en) 1997-11-04 2000-05-16 Sensar, Inc. Method and apparatus for positioning subjects before a single camera
US6021210A (en) 1997-12-01 2000-02-01 Sensar, Inc. Image subtraction to remove ambient illumination
US6055322A (en) 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US6028949A (en) 1997-12-02 2000-02-22 Mckendall; Raymond A. Method of verifying the presence of an eye in a close-up image
US5953440A (en) 1997-12-02 1999-09-14 Sensar, Inc. Method of measuring the focus of close-up images of eyes
US6980670B1 (en) 1998-02-09 2005-12-27 Indivos Corporation Biometric tokenless electronic rewards system and method
US6850631B1 (en) 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
US5978494A (en) 1998-03-04 1999-11-02 Sensar, Inc. Method of selecting the best enroll image for personal identification
JP3271750B2 (ja) 1998-03-05 2002-04-08 沖電気工業株式会社 アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
US6381347B1 (en) 1998-11-12 2002-04-30 Secugen High contrast, low distortion optical acquistion system for image capturing
US6377699B1 (en) 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
US6424727B1 (en) 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
US6289113B1 (en) 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
KR100320465B1 (ko) 1999-01-11 2002-01-16 구자홍 홍채 인식 시스템
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
US6247813B1 (en) 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US6700998B1 (en) 1999-04-23 2004-03-02 Oki Electric Industry Co, Ltd. Iris registration unit
KR100649303B1 (ko) 2000-11-16 2006-11-24 엘지전자 주식회사 양쪽 눈의 홍채 이미지 집사 장치
FR2819327B1 (fr) 2001-01-10 2003-04-18 Sagem Dispositif d'identification optique
US7095901B2 (en) 2001-03-15 2006-08-22 Lg Electronics, Inc. Apparatus and method for adjusting focus position in iris recognition system
US8279042B2 (en) 2001-07-10 2012-10-02 Xatra Fund Mx, Llc Iris scan biometrics on a payment device
KR100854890B1 (ko) 2001-12-28 2008-08-28 엘지전자 주식회사 홍채 인식 시스템의 다중 조명을 이용한 홍채 등록 및인식방법
US7715595B2 (en) 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
KR20030062377A (ko) 2002-01-16 2003-07-25 아이리텍 잉크 스테레오 얼굴인식을 이용한 홍채인식시스템 및홍채인식방법
JP4062031B2 (ja) 2002-09-25 2008-03-19 セイコーエプソン株式会社 ガンマ補正方法、ガンマ補正装置及び画像読み取りシステム
US7385626B2 (en) 2002-10-21 2008-06-10 Sarnoff Corporation Method and system for performing surveillance
FR2851673B1 (fr) 2003-02-20 2005-10-14 Sagem Procede d'identification de personnes et systeme pour la mise en oeuvre du procede
US20050024516A1 (en) * 2003-07-31 2005-02-03 Robert Fish Digital camera
FR2860629B1 (fr) 2003-10-01 2005-12-02 Sagem Dispositif de positionnement d'un utilisateur par reperage sur les deux yeux
FR2864290B1 (fr) 2003-12-18 2006-05-26 Sagem Procede et dispositif de reconnaissance d'iris
US7542590B1 (en) 2004-05-07 2009-06-02 Yt Acquisition Corporation System and method for upgrading biometric data
FR2870948B1 (fr) 2004-05-25 2006-09-01 Sagem Dispositif de positionnement d'un utilisateur par affichage de son image en miroir, dispositif de capture d'images et procede de positionnement correspondants
FR2871910B1 (fr) 2004-06-22 2006-09-22 Sagem Procede de codage de donnees biometriques, procede de controle d'identite et dispositifs pour la mise en oeuvre des procedes
US7639840B2 (en) 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
US7558406B1 (en) 2004-08-03 2009-07-07 Yt Acquisition Corporation System and method for employing user information
US8190907B2 (en) 2004-08-11 2012-05-29 Sony Computer Entertainment Inc. Process and apparatus for automatically identifying user of consumer electronics
WO2006039003A2 (en) 2004-08-20 2006-04-13 Viisage Technology, Inc. Method and system to authenticate an object
US7616788B2 (en) 2004-11-12 2009-11-10 Cogent Systems, Inc. System and method for fast biometric pattern matching
KR100629550B1 (ko) 2004-11-22 2006-09-27 아이리텍 잉크 다중스케일 가변영역분할 홍채인식 방법 및 시스템
US7418115B2 (en) 2004-12-07 2008-08-26 Aoptix Technologies, Inc. Iris imaging using reflection from the eye
US7869627B2 (en) 2004-12-07 2011-01-11 Aoptix Technologies, Inc. Post processing of iris images to increase image quality
EP1820142A4 (en) 2004-12-07 2010-03-10 Aoptix Technologies IRISIZATION WITH THE HELP OF THE EYE REFLECTION
US7697786B2 (en) 2005-03-14 2010-04-13 Sarnoff Corporation Method and apparatus for detecting edges of an object
FR2884947B1 (fr) 2005-04-25 2007-10-12 Sagem Procede d'acquisition de la forme de l'iris d'un oeil
FR2896604B1 (fr) 2006-01-23 2008-12-26 Sagem Defense Securite Procedes de determination d'un identifiant et de verification biometrique et systemes associes
US20070211922A1 (en) 2006-03-10 2007-09-13 Crowley Christopher W Integrated verification and screening system
FR2899357B1 (fr) 2006-03-29 2008-06-20 Sagem Defense Securite Traitement de donnees biometriques dans un referentiel multi dimensionnel.
FR2900482B1 (fr) 2006-04-28 2008-06-20 Sagem Defense Securite Procede d'identification d'une personne par analyse des cara cteristiques de ses cils
FR2901898B1 (fr) 2006-06-06 2008-10-17 Sagem Defense Securite Procede d'identification et dispositif d'acquisition pour la mise en oeuvre dudit procede
FR2903513B1 (fr) 2006-07-10 2008-12-05 Sagem Defense Securite Procede d'identification d'un individu utilisant une fonctio n de transformation et dispositif d'identification associe
US7574021B2 (en) 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
JP4650386B2 (ja) 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
WO2008092156A1 (en) 2007-01-26 2008-07-31 Aoptix Technologies, Inc. Combined iris imager and wavefront sensor
US8092021B1 (en) 2007-01-26 2012-01-10 Aoptix Technologies, Inc. On-axis illumination for iris imaging
FR2912532B1 (fr) 2007-02-14 2009-04-03 Sagem Defense Securite Dispositif de capture biometrique securise
US20090074256A1 (en) 2007-03-05 2009-03-19 Solidus Networks, Inc. Apparatus and methods for testing biometric equipment
EP2198552A1 (en) * 2007-09-28 2010-06-23 Eye Controls, LLC. Systems and methods for biometric identification
FR2924247B1 (fr) 2007-11-22 2009-11-13 Sagem Securite Procede d'identification d'une personne par son iris.
FR2925732B1 (fr) 2007-12-21 2010-02-12 Sagem Securite Generation et utilisation d'une cle biometrique
US8243133B1 (en) 2008-06-28 2012-08-14 Aoptix Technologies, Inc. Scale-invariant, resolution-invariant iris imaging using reflection from the eye
US8132912B1 (en) 2008-06-29 2012-03-13 Aoptix Technologies, Inc. Iris imaging system using circular deformable mirror mounted by its circumference
FR2935508B1 (fr) 2008-09-01 2010-09-17 Sagem Securite Procede de determination d'une pseudo-identite a partir de caracteristiques de minuties et dispositif associe.
KR101030613B1 (ko) 2008-10-08 2011-04-20 아이리텍 잉크 아이이미지에서 관심영역정보 및 인식적 정보획득방법
US20100278394A1 (en) 2008-10-29 2010-11-04 Raguin Daniel H Apparatus for Iris Capture
US8317325B2 (en) 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
BRPI0924189A2 (pt) 2009-01-07 2016-02-10 L 1 Identity Solutions Ag dispositivo para o controle da passagem de pessoas
US9213895B2 (en) 2010-01-27 2015-12-15 Iris Id Iris scanning apparatus employing wide-angle camera, for identifying subject, and method thereof
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US9596084B2 (en) 2011-09-09 2017-03-14 Facebook, Inc. Initializing camera subsystem for face detection based on sensor inputs
US8976110B2 (en) * 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
US9082015B2 (en) * 2013-03-15 2015-07-14 State Farm Mutual Automobile Insurance Company Automatic building assessment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US20100205667A1 (en) * 2009-02-06 2010-08-12 Oculis Labs Video-Based Privacy Supporting System
CN101826154A (zh) * 2009-03-03 2010-09-08 株式会社日立制作所 关系分析方法、关系分析程序、以及关系分析装置
WO2013060826A1 (en) * 2011-10-27 2013-05-02 Tobii Technology Ab Intelligent user mode selection in an eye-tracking system
CN103135762A (zh) * 2011-11-29 2013-06-05 三星电子株式会社 用于基于眼睛跟踪操作用户功能的方法及其移动装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341469A (zh) * 2017-06-30 2017-11-10 广东欧珀移动通信有限公司 控制方法、电子装置和计算机可读存储介质

Also Published As

Publication number Publication date
US20160342836A1 (en) 2016-11-24
US10032075B2 (en) 2018-07-24
WO2015100335A1 (en) 2015-07-02
BR112016014692A2 (pt) 2017-08-08
US10956736B2 (en) 2021-03-23
EP3087533A1 (en) 2016-11-02
US20180330162A1 (en) 2018-11-15
EP3087533A4 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
CN105934764A (zh) 用于功率高效的虹膜识别的方法和装置
US11686945B2 (en) Methods of driving light sources in a near-eye display
US9131150B1 (en) Automatic exposure control and illumination for head tracking
US9507147B2 (en) Wearable display system with detached projector
CN108205374B (zh) 一种视频眼镜的眼球追踪模组及其方法、视频眼镜
US8686924B2 (en) Determining whether a wearable device is in use
US9171198B1 (en) Image capture technique
US9207760B1 (en) Input detection
US11379960B2 (en) Image processing method, image processing apparatus, and wearable device
RU2672502C1 (ru) Устройство и способ для формирования изображения роговицы
EP3804286B1 (en) Electronic device and operating method of controlling brightness of light source
US20170263192A1 (en) Automatic control of display brightness
CN108279496B (zh) 一种视频眼镜的眼球追踪模组及其方法、视频眼镜
EP4254319A1 (en) Image processing method and apparatus
US20230199328A1 (en) Method of removing interference and electronic device performing the method
US20220329726A1 (en) Wearable electronic device including cameras
US9934583B2 (en) Expectation maximization to determine position of ambient glints
US20230154368A1 (en) Method and device for controlling luminance of augmented reality (ar) image
BR102022014205A2 (pt) Dispositivos eletrônicos e métodos correspondentes para automaticamente realizar operações de login em ambientes de apresentação de conteúdo de múltiplas pessoas
EP2768224A1 (en) Wearable display system with detached projector
US20230252738A1 (en) Method and electronic device for displaying augmented reality content based on ambient illuminance
US20240169935A1 (en) Head-mounted electronic device and method for operating the same
KR20170072570A (ko) 영상 촬영 장치 및 그 동작 방법
KR20150074757A (ko) 전자 디바이스 및 그 제어방법
KR20230121516A (ko) 객체의 영상을 획득하는 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160907