CN110741378A - 蓝紫光照明下非接触式掌纹识别*** - Google Patents

蓝紫光照明下非接触式掌纹识别*** Download PDF

Info

Publication number
CN110741378A
CN110741378A CN201880037727.3A CN201880037727A CN110741378A CN 110741378 A CN110741378 A CN 110741378A CN 201880037727 A CN201880037727 A CN 201880037727A CN 110741378 A CN110741378 A CN 110741378A
Authority
CN
China
Prior art keywords
palm
palm print
camera
illumination
nanometers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880037727.3A
Other languages
English (en)
Inventor
来诺依德·康斯维奇
杨骅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Red Stone Biometric Technology Co Ltd
Original Assignee
Red Stone Biometric Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Red Stone Biometric Technology Co Ltd filed Critical Red Stone Biometric Technology Co Ltd
Publication of CN110741378A publication Critical patent/CN110741378A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Abstract

介绍了一种将掌纹数字表达与掌纹模板相匹配的计算平台。该平台包括用发射光谱包含小于485纳米的波长范围的照明源照射手掌;在照明期间用照相机采集一组掌纹图像;根据手掌表面皮肤反射光的局部强度和局部强度梯度处理该组图像以确定掌纹的一组识别特征;以及将该组识别特征与登记的掌纹进行比较以识别掌纹。

Description

蓝紫光照明下非接触式掌纹识别***
相关申请的交叉参考
本申请对2016年8月31日提交的美国临时申请号62/382,067的权益提出了要求,该申请题为“在VR/AR环境中定位掌纹指南”(备审号RERD 1002-1)。本临时申请现作为参考纳入本文。
背景
技术领域
所公开的技术通常涉及检测包括人手在内的控制对象的生物特征,更具体地说,涉及掌纹数字化在安全和认证技术中的应用。
背景技术
本节中讨论的主题不应仅仅因为在本节中提及而被认为是现有技术。类似地,在本部分中提到的或与作为背景提供的主题相关联的问题不应被假定为先前已在现有技术中公开。本部分中的主题仅为列举不同的方法,这些方法本身也可能为所要求保护技术的实现方式。
掌纹认证已经成为某些类型认证体系的发展主题。相关领域已经尝试了各种不同的方法。例如,一些方法使用手掌的几何形状来进行身份识别。另外一些方法利用手掌静脉图案。还有一些方法使用参数的组合。然而,这些实现方法没有达到广泛采用所需的标准。还有一些方法使用支架来固定手掌的位置和角度。
此外,一些用于手掌识别的技术提出使用在能凸显识别所依赖的特征的光照下拍摄手掌视频并使用视频中的一系列图像或帧。手掌识别的特征包括在可见光照射下可辨识的表面特征,以及在红外光照射下可见的诸如静脉图案的手掌内部特征。然而,对可见光照明的要求限制了掌纹认证的应用范围。此外,掌纹认证所需的可见光照明发出的光会打扰到旁边的人。
提供一种能够克服上面讨论的一些或全部问题掌纹认证技术是可取的。
发明内容
为了解决现有技术中存在的技术问题,本发明提出了一种用于非接触性的掌纹认证的设备,包括:
一包括照明源和照相机的计算设备或一能够与照明源和照相机通信的计算设备;所述计算设备包括执行操作序列的逻辑,所述操作序列包括:用发射光谱包括小于485纳米波长范围的照明源照射手掌;利用照明源,用照相机采集掌纹的一组图像;根据手掌表面皮肤反射光的局部强度和局部强度梯度,处理该组图像以确定掌纹的一组识别特征;和将所识别的特征集与登记的掌纹进行比较以识别掌纹。
该发明还公开了一种用于非接触性掌纹认证的方法,包括用发射光谱包括小于485纳米波长范围的照明源照射手掌;利用照明源,用照相机采集掌纹的一组图像;根据手掌表面皮肤反射光的局部强度和局部强度梯度,处理该组图像以确定掌纹的一组识别特征;和将所识别的特征集与登记的掌纹进行比较以识别掌纹。
该发明进一步公开了一种非暂时性计算机可读存储介质,其上刻录有计算机程序指令,以将掌纹数字表达与掌纹模板相匹配,这些指令在处理器上执行时实现一种方法,所述方法包括:用发射光谱包括小于485纳米波长范围的照明源照射手掌;照明中用照相机采集掌纹的一组图像;根据手掌表面皮肤反射光的局部强度和局部强度梯度,处理该组图像以确定掌纹的一组识别特征;和将所识别的特征集与登记的掌纹进行比较以识别掌纹。
附图说明
附图的所有不同视图中,相同的参考符号通常指代相同的部件。同样,附图不一定是按比例绘制的,而是将重点放在说明所公开技术的原理上。在以下描述中,参考以下附图描述了所公开的技术的各种实现方法,其中:
图1显示了具有显示器和图形用户界面的计算设备,该界面包括相机的取景器图像和如本文所述的照明图案。
图2显示了具有相机和照明设备的计算设备,该相机和照明设备指向远离所述显示表面的方向。
图3A是适用于可移动计算设备处理平台的简化框图,包括所述用于掌纹认证的资源。
图3B是适用于不带显示器计算设备的可选处理平台简化框图,包括所述用于掌纹认证的资源。
图4显示了手掌检测、预处理和匹配的实现示例。
图5显示了对准过程流程示例图。
图6显示了所述过程提取的掌纹特征。
图7A显示了一种虚拟现实头戴式显示器示例,及一种实现方法。
图7B显示了一种汽车示例,其中可实施多种实现方式。
图8显示了所示例相机的3个通道的光谱灵敏度曲线。
图9显示了另一示例相机的3个通道的光谱灵敏度曲线。
图10显示了光谱灵敏度曲线(细实线曲线),该曲线覆盖有明视觉(粗实线曲线)和暗视觉(虚线曲线)的光谱亮度曲线。
图11说明了人眼对光振荡的敏感度是时间频率(赫兹)的函数。
图12显示了一个实施例中使用的可行及可取的时间剖面。
图13显示了一个可实现登记和匹配流程的网络***示例。
具体实施方式
详细描述
下面参照附图进行详细描述。所述实现方法是为了说明所公开的技术,而不是限制其由权利要求定义的范围。本领域普通技术人员可能会对下文专利说明有各种等同变化的理解。
介绍了一种***及其各种实施方式,用蓝光,或者主要部分波长低于485纳米的光,包括蓝光、紫光和紫外光,照射用户手掌,对掌纹进行非接触或无接触性的生物识别,来实现计算高效的个人身份识别和认证。在可用于弱光条件的实施例中,使用发射光谱完全或基本低于485纳米的照明源。出于本申请的目的,当被典型的人类观察者感知为诸如深蓝色、深蓝色-紫色、深紫色或不可见的柔和颜色时,照明源的发射光谱基本低于485纳米。
图1显示了计算设备,在该示例中是移动电话50。在其他示例中,计算设备可是笔记本电脑、台式电脑、智能电视等。移动电话50包括正面(自拍)照相机的镜头51和显示屏52。在这个例子中,按钮55在移动电话50的表面上。照相机通过镜头观察的视场51位于显示屏52的上方区域。在本例中,照相机采集的取景器图像显示在显示屏52上。在一些实施例中,取景器图像限于一个区域,例如图中所示的圆形区域54。移动电话50包括能执行一系列操作以完成掌纹认证过程的逻辑。操作序列包括用具有发射光谱的照明源对手掌进行照明,该发射光谱包括在小于485纳米范围内、在蓝色/紫色或近紫外范围内的波长。此外,操作包括用照相机在照明视场中采集一组手掌图像。操作序列包括根据手掌表面反射光的强度梯度处理该组图像以确定一组掌纹的识别特征。此外,操作序列包括将所识别的特征集与登记的掌纹进行比较,以识别掌纹。
显示器52用条格表示显示器上存在照明图案53,照明图案53由计算设备产生的图像帧生成,颜色范围基本在485纳米以下。照明图案可是实心的,或者条格或图案化的,允许清晰地看到显示器的未遮蔽部分。在所示例子中,照明图案是部分透明的,允许在照明图案透明部分观看由照相机采集的图像。在其他实施例中,照明图案可包括区域54中的开口(例如,空白空间),例如显示图像中的感兴趣区域,且允许显示更清晰的视图为方便用户在屏幕上通过图像对准手掌的目的,。
由于用波长主要在低于485纳米范围内的照明图案,显示器52在认证过程中不太可能引起旁观者的注意。
此外,使用具有包括小于485纳米波长发射光谱的照明源有助于在小于485纳米波长光形成的图像中通过强度梯度提取大量可用于识别的掌纹特征,适用于认证过程。因此,在本技术的实施例中,只采用该波长范围内的照明。
此外,在本技术的实施例中,也可仅用在基本低于485纳米波长照明下拍摄的图像来提取掌纹特征。在一些实施例中,照明源的发射光谱可限制在485纳米以下的波长。
已经进行了实验来比较不同波长下掌纹特征在图像中的密度。下面是不同光谱下图像中角点特征的相对密度。
利用Matlab函数“detectFASTFeatures”提取角点特征,对比度阈值为0.01。数据已经正态化处理为在460纳米蓝光下可检测到的高密度特征。
Figure BDA0002305966900000041
Figure BDA0002305966900000051
从上表可见,蓝光和低于485纳米波长范围的光对于从掌纹图像中提取皮肤表面的特征非常有效。例如,示例包括能有效提取皮肤表面特征的波长在485至350纳米范围的照明。波长更短可能对眼睛和皮肤造成伤害。
图2显示了可选配置中的计算设备,在该示例中是移动电话60。在其他示例中,计算设备可是笔记本电脑、台式电脑、智能电视、虚拟现实或增强现实(VR/AR)头戴式显示器等。移动电话包括具有视场65的背面照相机的镜头(未显示)和显示屏62。照相机镜头的视场65位于显示屏62的下面或后面的区域。在移动电话60后侧或与照相机镜头的同侧有照明源,其照明视场66位于显示屏62下方或后面的区域。照明源可以是发光二极管或根据本文所述实施例的其他光源,其发射光谱主要在小于485纳米的波长范围内。照明源可以是目标波长范围内的窄带源,或者是带能将光谱限制到目标范围的滤光器的宽带源。
在本例中,照相机产生的取景器图像63显示在显示屏62上。在一些实施例中,如上所述,取景器图像可限于显示器的一部分。因为照明源具有主要波长为485纳米或更低的发射光谱,所以显示屏62的颜色同样以该低波长范围为主。因此,显示屏在认证过程中不太可能引起注意。
移动电话60是一种包括执行上述操作序列以实现掌纹认证逻辑的计算设备。在这个例子中,该操作序列不需要包括在显示器62上显示照明图案。在一些实施例中,可在显示屏上覆盖暗或亮度低的图案,使得显示屏在弱光条件下不太可能吸引注意力。
在执行操作序列时,从位于照明区域67中的视场65采集一张或一组手掌图像,其中照明源的在所述波长范围是主光源。
图3A是移动电话计算平台300的简化图,表述的是可用作本文所述掌纹认证的典型计算设备。如本文所述,配置用于掌纹认证的其他计算设备可具有类似的平台,包括可在各种设置中部署的模块化设备,以及用于与本地服务器通信的设备,以及经由互联网而非移动电话网络进行无线通信的设备。
在该示例中,计算平台300包括天线301和包括射频RF接收器/发射器302的无线电设备,根据多种协议中的一种或多种,计算平台300通过射频RF接收器/发射器302耦合到无线通信媒介。在所述例子中,射频接收器/发射器302可包括一个或多个无线电设备,以支持用于与移动电话网络的无线服务提供商通信的多协议/多频带通信,以及使用诸如蓝牙或WIFI协议建立无线本地无线电链路。接收器/发射器302耦合到基带电路和处理部分303中的数字处理器,在处理部分303中处理音频信号并管理呼叫信号。包括模数和数模变换器的编解码器304耦合到处理部分303。麦克风305和扬声器306耦合到编解码器304上。
存储器307可是非易失性只读存储器,存储用于认证算法的掌纹或掌纹集,以及由处理部分303执行的指令、参数和其他数据。此外,移动电话中的读/写存储器308存储用于掌纹认证过程的指令和参数以及由处理部分303使用的其他数据。在计算平台300上可有多种类型的读/写存储器,例如非易失性读/写存储器308(例如闪存或EEPROM)和易失性读/写存储器309(例如动态随机存取存储器DRAM或静态随机存取存储器SRAM)。其他实施例包括可移动存储模块,其中存储了供处理部分303使用的指令、参数和其他数据。
输入/输出控制器310耦合到触敏显示器311和用户输入设备312,例如照相机、功能键盘和照明源。相机可用于采集用于掌纹认证的图像,并且如上所述,照明源可在相机的视场中提供蓝色/紫色/紫外线范围内的照明。耦合到控制器310的一个或多个附件端口313用于连接其他类型的输入/输出设备,例如双耳和单耳耳机、到处理设备(例如掌纹电脑)或个人计算机的连接、诸如红外端口或通用串行总线USB端口的可选通信通道、便携式存储设备端口等。控制器310耦合到处理部分303。经由输入设备312并可选地经由附件接收关于呼叫建立和呼叫管理以及关于掌纹认证的使用、用户偏好和环境采光因素的用户输入。使用触摸显示器311和可选的其他附件,增强了用户交互,并且提示用户交互。输入也可通过支持语音识别程序的麦克风305接收,并且用户交互和提示可通过扬声器306进行并用于各种目的。
在所示实施例中,存储器308存储用于在显示器311上显示功能选择菜单用户界面的程序,使得用户可选择本文所述掌纹认证简档的生成期间要执行的功能。此外,可由处理部分303和/或控制器310执行的指令存储在诸如存储器307、308、309的非暂时性介质中,该非暂时性介质包括用于执行以上结合图1和2所述操作序列的逻辑。
通常,计算平台中逻辑所执行的操作顺序如下。当检测到用户手掌存在时,逻辑的检测模块评估其在每帧图像中的位置、大小和方向,并生成一个掌纹图像用于预处理。逻辑的预处理模块接收到掌纹图像,使用几何变换将其与模板掌纹图像对齐,并提取特征。存储在数据库或其他数据存储***中的掌纹模板由登记用户(例如,***通过采集该用户的生物特征而识别的用户)的掌纹图像和从掌纹图像中提取的特征组成。
可确定一组最佳参数,例如模板上的特征数量和匹配阀值,以满足为FAR(错误接受率)和FRR(错误拒绝率)指定的要求。
图3B是可选计算平台400的简化图,是可用作本文所述掌纹认证装置的计算设备。在该示例中,计算平台不包括显示器,而包括基于对准光束的对准***。如本文所述,用于掌纹认证的其他计算设备可具有类似的平台,包括可在各种装置中部署的模块化设备,以及配置上可用于与本地服务器通信的设备,以及用于经由互联网和/或移动电话网络进行无线通信的设备。在一些实施例中,计算平台与照相机或者照相机和照明源处于分开的模块中。例如,当部署在安装有照相机的汽车上用于安全和自动驾驶时,计算设备可与现有照相机和照明源进行有线或无线电通信,并利用现有照相机进行认证图像。
在该示例中,计算平台400包括天线401和包括射频RF接收器/发射器402的无线电设备,根据多种协议中的一种或多种,计算平台400通过射频RF接收器/发射器402耦合到无线通信媒介。在所述示例中,射频接收器/发射器402可包括一个或多个无线电设备,以支持多协议/多频带通信,用于使用诸如蓝牙协议或WIFI协议与无线本地无线电链路进行通信。接收器/发射器402耦合到基带电路和处理部分404中的数字处理器,在处理部分404中,使用存储在设备上的计算机程序来处理视频信号和执行其他逻辑功能。
存储器407可是非易失性只读存储器,存储用于认证算法的掌纹或掌纹集,以及由处理部分404执行的指令、参数和其他数据。此外,移动电话中的读/写存储器408存储用于掌纹认证过程的指令和参数以及由处理部分404使用的其他数据。在计算平台400上可有多种类型的读/写存储器,例如非易失性读/写存储器408(例如闪存或EEPROM)和易失性读/写存储器409(例如动态随机存取存储器DRAM或静态随机存取存储器SRAM)。其他实施例包括可移动存储模块,其中存储了供处理部分404使用的指令、参数和其他数据。
控制器410耦合到照相机416和诸如发光二极管阵列415的照明源,其发射光谱在485纳米以下的范围内。在其他实施例中,照明源可是宽带光,由其所带的滤光器将照明光谱基本限于低于485纳米的范围。相机可用于采集用于掌纹认证的图像,并且如上所述,照明源可在相机的视场中提供蓝色/紫色/紫外线范围内的照明。控制器410耦合到对准光束发生器417,例如激光器或与发光二极管阵列415结合使用的部件,以在发光二极管阵列415的照明场中提供对准指示光。
控制器410耦合到处理部分404。关于掌纹认证使用的用户输入可通过无线接收器提供。在一些实施例中,可通过开关或键盘来启动掌纹认证过程。输入也可通过支持语音识别程序的麦克风接收,并且用户交互和提示可通过扬声器实现并可用于各种目的。
在显示的实施例中,存储器408存储了所述掌纹认证简档生成所要执行功能的程序。此外,可由处理部分404和/或控制器410执行的指令存储在诸如存储器407、408、409的非暂时性介质中,该非暂时性介质包括用于执行以上结合图1和2概述的操作序列的逻辑。图3B所示的平台可部署在利用认证实现进一步操作的环境中,包括发信号通知机器开门、打开机器,并执行针对认证人员定制的操作。
所公开的技术可在任何计算机***环境中实现,包括内部联网***、云计算环境、混合方法等。此外,这种技术还可使用两个或多个独立且不同的计算机***来实现,这些***相互协作和通信。该技术可以多种方式实现,包括过程、方法、装置、***、设备、诸如存储计算机可读指令或计算机程序代码的计算机可读存储介质,或作为包括其中包含计算机可读程序代码的计算机可用介质的计算机程序产品来实现。
所公开的技术可在任何计算设备的环境中实现,包括移动电话或智能电话以及适合作为各种***上的子组件的处理模块。这种计算设备可包括或经由通信网络访问存储用于认证个人的生物特征信息的数据库***。可使用基于云的存储方法来存储和管理生物特征信息,关系数据库实现例如与OracleTM兼容的数据库实现、与IBM DB2企业服务器TM兼容的关系数据库实现、与MySQLTM或PostgreSQLTM兼容的关系数据库实现或者与MicrosoftSQL ServerTM兼容的关系数据库实现或者与NoSQL非关系数据库实现例如与VampireTM兼容的非关系数据库实现、与Apache CassandraTM兼容的非关系数据库实现、与BigTableTM兼容的非关系数据库实现或者与HBaseTM或DynamoDBTM兼容的非关系数据库实现。
此外,所公开的技术可使用不同的编程模型来实现,例如MapReduceTM、批量同步编程、MPI原语等,或者使用不同的流管理***来实现,例如Apache StormTM、Apache SparkTM、Apache KafkaTM、TruvisoTM、IBM Info-SphereTM、BorealisTM和Yahoo!S4TM
这里用实现掌纹识别的典型事例来描述所公开的技术。具体包括两条流程或工作流:识别和登记。首先,将参考示例过程描述识别流程。其次,将参考使用识别过程的子集的示例来描述登记流程。
识别
图4显示了手掌检测、预处理和匹配过程的实现示例。手掌检测操作1101包括目标波长范围内的照明1110、检测处理1111和手掌定位(包括位置、大小和方向)1112。通过手掌检测操作1101检测到手掌的图像被输入到预处理操作1102。预处理操作1102包括诸如对准处理1121、图像质量检测过程1122和特征增强过程1123。
1.检测
直接存于计算平台上的或可由计算平台访问的逻辑可以包括手掌检测操作1101。例如,在一些实施例中,人手的检测包括确定在视频图像的当前帧中是否存在适当形状、大小和方向的手掌。如果没有检测到合适的掌纹,则不对当前帧执行进一步的处理,并将当前帧丢弃。否则,***将定位兴趣区域(ROI)-包含至少一个手掌的矩形(或其他合适的形状)区域。接下来的处理包括提供视觉反馈,在一个实施例中,该视觉反馈包括在用户界面的指定区域内叠加显示来自相机视频流的取景器图像,并可选地叠加某种图案(例如矩形、椭圆形或圆形),以指示从视频流检测到包含手掌的兴趣区域(ROI)。接下来,图像帧与检测到的手掌区域信息一起被发送到后续的处理单元。
2.图像预处理(去噪/去模糊)
直接存于计算平台上的或可由计算平台访问的逻辑包括图像预处理操作1102。示例过程包括用相机采集由所述检测过程检测到手掌的的N个连续帧,且每一帧内的手掌ROI区域大体重合。这样的N个图像可通过对齐位于ROI区域内的一个或多个特征来对齐(1121)。对准后的图像可通过均化处理输出一个合成图像。该输出图像与原始输入图像相比,在掌纹ROI区域内噪点更低,纹理更清晰(ROI之外的背景实际上变得更模糊)。
上述预处理的一种实现方式是对对齐的图像作均化处理。在其他实现方式中,我们可用其他技术,比如使用一些权重函数来组合图像,其中权重函数具体取决于图像质量、时间、对准质量等。值得注意的是,当相机采集的图像质量较高,某些实现可直接使用单个图像帧,省略图像均化处理。
在另一实施方式中,***执行一个图像质量检测过程1122,并根据一个或多个图像质量的度量来输出图像。可计算图像质量度量的阈值并将其应用于输出图像。例如,如果输出图像太暗,或者不够清晰,输出图像将被丢弃,而不会传递到流程的其余部分。
在去噪和去模糊之后,可选的采取能够增强掌纹和其他结构特征1123的附加预处理。可能的增强技术包括但不限于:(1)基于傅立叶或小波的增强图像高频成分的方法,例如由Khatkar等人描述的,“使用小波的生物医学图像增强,国际计算机、通信及其结合会议期刊,2014年12月17-28日,Procedia计算机科学48期,第513-517页,(2)增强图像中特定结构(线、交叉点等)的结构滤波器,例如由Frangi等人描述的“多尺度血管增强滤波”,MICCAI98,v.1496,Springer Verlag,柏林,德国,1998年10月11日,第130-137页。
3.特征提取
存于计算平台上的或可由计算平台访问的逻辑包括特征提取操作1141,该操作是匹配逻辑套件1104中的一部分。该特征提取操作接受输入的预处理图像,然后在其具有独特的局部强度或局部强度梯度模式的位置提取出一组M个特征点,例如SIFT特征(Lowe,《基于局部尺度不变特征的物体识别》,第七届IEEE计算机视觉国际会议记录,Kerkyra,1999年9月20-27日,第1150-1157页第2卷)(见尺度不变特征变换,“https://en.wikipedia.orgv/wiki/Scale-invariant_feature_transform,2017年5月30日下载,18页),Harris特征(Harris,《一种结合角和边的检测》,第四届阿尔维视觉会议,1988年8月31日至9月2日,6页),角点特征,例如Fast特征算法(Rosten等人,《更快更好:角点检测的机器学习方法》,IEEE模式分析和机器智能,第32卷,第1期,第105-119页,2010年1月)。这些特征通常是在检测到的手掌RIO的中心区域提取的,以保证它们位于手掌掌纹内部而不会落入背景中。
4.实时图像和模板的对齐
存于计算平台上的或可由计算平台访问的逻辑包括作为匹配逻辑套件1104的一部分的实时图像和模板的对齐操作1142。该操作可通过一个对准模型来实现,该对准模型包含1)登记时采集的手掌模板图像,2)手掌RIO的矩形区域,以及3)从掌纹ROI内部提取的一组特征点。对齐可通过对齐模板和实时图像的两个ROI来实现。通过对齐内部掌纹线和/或外部掌轮廓,可实现进一步的细化。
图5显示了对齐过程实现流程图100。流程图100可由存于计算平台上的或由计算平台访问的逻辑实现。
在步骤102,接收的输入包括来自模板图像的模板曲线和来自实时图像的实时曲线。
在步骤104,对变换进行初步猜测。
在步骤106,将初始变换应用于模板曲线,以获得模板曲线的变换版本(变换曲线)。
在步骤108,计算测量变换曲线和实时曲线之间的总距离的目标函数。在一种实现方式中,计算目标函数包括:沿着变换曲线标记采样点,并为每个采样点找到实时曲线上最近的点;以及计算所有采样点和实时曲线上相应点之间距离的平方和。该距离平方和既为变换曲线和实时曲线之间的总距离。
在步骤110,采用牛顿方法对变换的初始猜测进行迭代细化以使经过细化变换后计算的目标函数最小化。例如
1.将变换中的一个参数增加一个选定量,例如步长(delta)。
2.带入新的变换参数,计算新的目标函数(例如,总距离)。
3.用新旧目标函数之差除以步长得到导数。
4.根据上一步的计算结果决定是继续沿着正方向继续增加参数,还是改变到负方向减小参数,以及下一次迭代的步长。
以上步骤可用其他参数迭代继续,直到总距离和/或总距离的变化小于特定阈值。
5.匹配特征
存于计算平台上的或可由计算平台访问的逻辑包括作为匹配逻辑套件1104的一部分的特征匹配1143。使用如上所述的初始对齐步骤,执行操作来迭代地细化两组特征之间的匹配,以最小化相应特征点之间的平方距离之和。两组特征之间的匹配由全局变换T定义。使用该T变换,位置为p的模板特征点被传播到位置为p’的实时图像中。然后,该操作在p’周围搜索最近的实时图像特征点q。在变换T下,p和q之间的距离是|p’-q|。
非线性优化可能收敛于局部最优,而不是全局最优。(见局部最优,https://en.wikipedia.orgwiki/Local_optimum,于2017年5月30日下载,共2页)。它也可能受到异常值存在的负面影响。为解决这些问题,可采用如RANSAC(随机抽样共识)等鲁棒统计方法(https://en.wikipedia.org/wiki/Random_sample_consensus,于2017年5月30日下载,共10页)。
6.匹配特征的统计分析
在一个实施方式中,存于计算平台上的或可由计算平台访问的逻辑可执行一个识别流程1145。该识别流程对上述匹配特征操作输出的匹配后的特征点进行统计分析,以确定确定手掌的实时图像是否与等级的模板相匹配。鲁棒统计方法1144包括例如避免局部最小值和处理异常值的技术。模板1103包括图4中的线和边1131以及特征1132。
迭代优化输出一个变换T,它定义了两组特征点之间的对应关系。对于一对模板特征p和实时图像特征q,当|p'-q|小于一个小阈值时,我们认为该对特征是匹配的。实时图像中的掌纹是否与模板匹配的最终决定可通过研究匹配的特征对占所有的特征对的百分比,以及匹配的特征对的空间分布,例如,在手掌不同部位都应该有匹配的特征对。
值得注意的是,前述方法仅仅是分析特征匹配的一种方式。在其他实现方法中,特征对的匹配也可以通过比较其特征向量的相似性来实现。
登记
为了将实时图像与登记的模板相匹配,首先需要为该用户登记模板。下面将参考实施例对登记流程进行介绍。登记流程可由包括计算机逻辑的***来执行,例如计算平台300或登记服务器。登记的模板可以被存储已备将来导出用于识别。
1.检测
存于***上的或可由***访问的登记逻辑包括检测操作。登记流程的检测处理基本上类似于上面讨论的识别流程的检测处理。在登记期间,登记者手掌的视频图像帧被采集和分析,包括(a)被采集的原始图像,和(b)手掌兴趣区域(ROI)。例如,手掌的检测包括确定在视频图像的当前帧中是否存在适当形状、大小和方向的手掌。如果没有检测到合适的掌纹,则不对当前帧执行进一步的处理,并将当前帧丢弃。否则,***会定位手掌(RIO)区域-一个包含检测到的掌纹的近似矩形的区域。在一个实施方式中,处理包括提供视觉反馈,例如在显示的视频流中叠加手掌ROI区域的矩形。视频图像与检测到手掌的ROI区域一起被发送到后续处理引擎,用于去噪和去模糊。一种登记过程的实现方式可包括在采集图像时提示用户以一定间隔改变正在扫描手的位置。在一些实施例中,可使用夹具或固定装置来固定手的位置,并且可控制照明以在不同的照明环境下采集不同的统计样本。这些差异可在对采集的图像的统计分析中被屏蔽,以获得更紧密的置信统计窗口。为了获取高质量的数据,登记流程对图像质量和对齐精度的要求可保持更高。高质量的模板图像可以提高识别的精度。
2.图像预处理(去噪、去模糊)
存于***上的或可由***访问的登记流程的逻辑包括图像预处理操作。登记的图像预处理基本上类似于上面讨论的识别流程的图像预处理。登记者手的视频图像帧经过基本上相同的图像预处理,并通过合成平均形成输出图像。该输出图像在ROI区域内比任何输入图像更清晰,且包含更少的噪点(背景实际上将变得更模糊)。
在一种实施方式中,登记期间的去噪和去模糊过程可通过使用夹具或固定装置将手保持在适当位置来简化。登记期间使用受控照明时,可能不需要均化处理和去噪。在某些实现方式中,使用高质量的照明可提高采集图像的质量,从而无需去噪或去模糊处理。为了获取高质量的数据,登记流程可以对图像质量和对准精度提出更高的要求。在识别过程中,高质量图像可保证更好的匹配。
3.特征提取
登记过程中的特征提取可以用与上述识别过程相同的方式执行。
4:提取掌轮廓线和掌内曲线
掌轮廓线和掌内曲线可从预处理后的图像中提取出来,使用一种松散地基于Canny边缘检测的技术。关于Canny方法的进一步描述,可参考“Canny边缘检测器”(Canny边缘检测器,http://en.Wikipedia.orgwiki/Canny_edge_detector,下载于2017年6月1日,6页),其在此引入作为参考目的。针对应用环境的具体变化,可以采用不同的方式提取轮廓和曲线。
在一个实施例中,可从图像中提取高对比度线,例如掌纹主线。掌纹主线包括当人手弯曲或折叠时形成的折痕,例如手相学家使用的折痕,例如生命线、爱情线等。掌纹主线的另一个例子选择了掌纹内最深的线。在一个实施方式中,提取的是角点、轮廓和内部曲线。在另一个实施例中,内部曲线或角点被专门采集。在其它实施例中,仅轮廓线被采集。
5.保存模板
用户手掌模板(模板1103,包括图4中的线条和边缘1131以及特征1132)包括多个单独的或组合的信息项,这些信息项可以包括:(1)用户手掌的高质量图像,(2)手掌的轮廓和掌内曲线,(3)掌纹RIO的矩形区域,以及(4)在低于485纳米的波长的光源照射下采集的图像中提取的一组掌纹特征。
完成后,登记过程的输出结果是一个掌纹模板,可用于匹配实时图像,用以识别用户。图6中显示了一个例子,其中掌纹模板1200包括手掌的轮廓1201和多个掌纹特征1202。
图7A显示了一个可选配置实施例,其中如上所述的计算模块被用于虚拟现实和增强现实功能的头戴式显示器702上。头戴式显示器702包括前向照相机703和护目镜内的显示屏,照相机703具有带视场761的镜头(未显示)。在本例中,相机的视场761位于头戴式显示器前方的区域。头戴式显示器702包括位于正面的照明源,照相机的镜头被配置成照亮包含区域767的区域765,头戴式显示器702的佩戴者可在该区域767中放置手掌。根据本文所述实施例的照明源的发射光谱基本小于485纳米的波长。
在本例中,由照相机产生的取景器图像显示在头戴式显示器702的显示屏上。
头戴式显示器本身包含计算设备或者连接到计算设备,该计算设备包括如上所述的逻辑用以执行掌纹认证。当认证通过时,生成信号以授权在虚拟现实或增强现实头戴式显示器上进行进一步的操作。
所述计算平台也可部署在汽车或其他机器上,并用于用户认证,以授权在该机器上进行进一步的操作。图7B显示了所述汽车,其中计算设备的各种配置可用于实现如本文所述的掌纹认证。汽车1400具有与计算设备连接的多个照相机,这些相机可能设置在例如发动机舱1405a、后视镜壳体1405b、靠近驾驶员1405c的乘客舱内部、汽车1405d侧部、汽车1405e后部或车顶上的传感器舱1405f中。计算设备可专用于单个照相机或者连接到多个照相机。由计算设备控制的子***可包括解锁或打开驾驶员或乘客外门(1401a、1401b)的子***。此外,这种子***可包括解锁或打开行李箱盖或后舱门1402的子***。此外,这样的子***可包括子***1403以启动发动机或解锁启动发动机的操作。子***1404部署在汽车内部或外部,用于诸如座椅调节、气候控制设置、娱乐***定制、到云账户信息的通信链接或其他个性化的功能。
由计算平台产生的匹配成功的指示信号可用于启动汽车子***的操作,包括打开驾驶员侧车门或乘客侧车门、打开行李箱盖、启动发动机、使机器实现座位个性化、使娱乐***设置个性化以及使空调***设置个性化的子***。
计算设备可配置为利用车上现有的照相机,尤其是在自动驾驶汽车中。此外,计算设备可包括专用相机。计算设备在认证过程中使用的照相机可放置在车内,例如靠近控制面板,或者放置在车外,例如在侧后视镜中,或者放置在车的前部、后部、侧面或顶部。
照明光源
所描述的非接触式掌纹生物识别***使用通过相机采集手掌表面皮肤反射的光,从而生成手掌图像。因此,在黑暗环境中,可使用额外的光源来提供足够的照明。在黑暗中使用光源可能带来一个问题,因为它会引起周围其他人的注意,并招致反感。
在一个实施例中,引入了一种***,其中手掌被可见的紫蓝色光(380-485纳米)照亮,并且手掌图像被RGB照相机采集。
大多数现代RGB相机都使用CMOS技术。这种相机中的蓝色通道在400纳米处保持高效率(大约为最大效率的50%),这使得该种相机适合捕捉紫色和蓝色光。图8显示了照相机的三(3)个通道的光谱灵敏度曲线1400。旧的CCD技术在紫蓝色范围内的灵敏度较小,但仍可接受,如图9中的曲线1500所示。
该实现的一个优点是蓝紫色光的时间和空间变化对于人眼来说实际上是不明显的,因为眼睛主要对感知亮度(称为光度)的变化做出响应,而蓝紫色光对感知亮度的贡献非常小,且感知上非常暗。因此,在黑暗的环境中深蓝色-紫色光不会引起太多的注意。
蓝紫色光对亮度的贡献非常低的一个证据来自于将彩色图像变换成灰度的公式;具体如下L=0.299*R+0.587*G+0.114*B
B的系数是三个系数R,G和B中最小的,这意味着蓝光对感知亮度的贡献比其他色调小。
图10提供了另一种观察蓝紫色光和感知亮度之间相互作用的方法,它说明了光谱灵敏度曲线(细实线曲线)与明视觉(粗实线曲线)和暗视觉(虚线曲线)的光谱亮度曲线重叠。黑暗环境的亮度曲线位于暗视和明视亮度曲线之间;环境越暗,亮度曲线越接近暗视觉曲线。将蓝紫色光限制在430纳米以下的范围内(假设有一个平坦的高通滤波器),,最多产生在使用相同功率谱密度的白光照明下2.5%的感知亮度。光限制在430纳米以下的范围内,照明光斑实际上是很不明显的。
最后,还有一个问题是如何沿着时间轴呈现蓝光。图11显示了人眼对光振荡的灵敏度和时间频率的函数关系。光振荡的灵敏度峰值在接近6Hz的点取得,这对应于大约100毫秒的时间。任何比这更长的点亮/关闭的变换对人眼来说感觉都会不太明显。持续时间出于实用性的考虑;300-500毫秒就足以保证采集图像完成身份验证,同时又足够短,让人感觉不到明显的等待。
图12显示了一个实施例中使用的可能的时间分布。低时间频率下的灵敏度下降仅发生在低空间频率下(大约0.5个周期/度或更低)。因此,蓝色光源产生的光斑不应有尖锐的外边缘。光点越软越好。
在一个实施方式中,作为示例,提供了一种使用主要波长低于485纳米的光照***照射手掌,并采集手掌图像的***。一些实现方式具有特定的优势,例如:(I)掌纹图像对比度高;(ii)在黑暗的环境中不会引起他人的注意。本文略过其他优点。
在一个实施例中,建议光源的点亮/关闭的过渡相对较慢(300+ms),在一些实施例中,在空间上,聚光灯不应具有尖锐的外边缘。
蓝-紫色光范围可被推向不可见的近紫外(近UV,320-400纳米),特别是对于在较短波长下表现出良好灵敏度的CMOS相机。在这种情况下,不需要考虑照明光的时间和空间特性。使用380-400纳米范围内的光是有利的,因为该范围在CMOS照相机的灵敏度范围内,并且对人眼没有损害作用,该损害从低于320纳米波长的光开始.
图13显示了一个网络***示例。图13显示了一种集成了生物特征登记和认证的网络环境1300的实现方式。图13显示了环境1300可包括授权用户数据存储1312、生平数据存储1314、访问受控的应用服务器1315、登记流程软件和/或服务器1316、匹配流程软件和/或服务器1318以及网络1325。定制环境1300还包括社交媒体访问模块1352、候选数据收集模块1355、图像采集模块1336和计算设备1358。在其他实施方式中,定制环境1300可具有与上面列出的不相同的要素,和/或可具有其他/不同的要素来代替或补充上面列出的那些要素。
授权用户数据存储1312可包括候选人标识和生物识别信息。在授权用户数据存储1312中,被批准或授权个人的生物特征数据可被识别为对应于由匹配和验证流程和/或服务器1318提供的授权用户的生物特征数据。授权用户数据存储1312中的生物特征数据可包括不同的数据类型,例如自由格式文本、结构化文本和/或非结构化文本。
匹配流程软件和/或服务器1318可在云计算环境、内部安装或其混合环境中提供所述生物识别和验证功能,这些功能可按订阅交付。在一些实施方式中,匹配流程软件和/或服务器1318是按需定制的软件,用户站点通过小型客户端经由网络浏览器或移动应用程序访问该软件。在许多实现方式中,匹配的流程软件和/或服务器1318支持定制,其中配置选项可被改变以适合特定的安装,从而影响软件的外观以及功能。例如,为了支持客户改变应用程序外观的需求,使应用程序看起来具有客户的品牌,产品可显示客户的徽标和定制的颜色。
一些实现方式包括生平数据存储1314,该数据可包含授权用户的生平和行为数据。生平信息可以用于标识验证候选人的身份和/或该候选人的公司。可标识信息可包括业务部门和工作角色数据,如公司名称、运营部门、地点、职称、正常工作职责、过去的工作、教育和附属机构。行为数据可包括通过授权(和非授权)方式经由环境1300尝试进入一个访问受控的场所。行为数据还可包括诸如浏览历史或从浏览历史提取的标准化数据,以及社交媒体交互,诸如最近的商业联系方式、联系人、事务、订阅和指示,或允许候选人对某些组织具有某些访问权限的其他数据。
生平数据存储1314包括不同的数据类型,例如自由格式文本、结构化文本和/或非结构化文本。在一些实现方式中,生平数据存储1314可包括网址URL和网页内容,例如博客帖子,以及浏览视频、音乐和商业联系人的历史。
访问受控的应用服务器1315可访问生平数据存储1314的数据,以将用户生平数据匹配到其身份被验证的候选人。访问受控的应用服务器1315可包括规则或分类器,用于将识别的候选人的属性映射到候选人通过身份验证后所允许访问的应用上,例如公司(或组织)信息技术IT资产。所公开的技术根据生平数据存储1314中的生平数据自动授权经身份验证的候选人,以访问各种场所、***或空间。可实施鼓励信任的安全流程和保障措施,以保持候选人对于其个人数据的信心,即其个人数据被适当地用于有限的目的,且最好是在候选人知情和同意的情况下。
访问受控的应用服务器1315包括用于组织生平数据存储1314中信息的模板,以及用于将候选人的行业部门、工作角色和其他属性映射到候选人被访问控制应用服务器1315确定有权访问的可用***、场所或人员的选定子集的规则或分类器。在一些实现方式中,生平数据存储1314包括通过使用来自演示试验结果的数据运行机器学习培训课程而获得的结果。
在一个实现方式中,候选数据收集模块1355收集所观察到的特定候选人的行为,以添加到生平数据存储1314中。也就是说,访问受控的应用服务器1315可基于为候选人收集的行为信息随着时间改变候选人的权限。访问受控的应用服务器1315可包括基于规则或分类器的算法,用于将候选电子邮件和浏览历史以及候选社交媒体兴趣映射到对人、场所和/或***的潜在授权。
社交媒体访问模块1352可包括但不限于访问脸书、微软、谷歌、Mozilla、亚马逊、eBbay、LogMeln等。
候选人数据收集模块1355收集和管理授权用户生平数据存储1314的数据,包括受验证的候选人的兴趣,即授权用户数据存储1312,典型地通过选择加入并给予他们使用来自商业网站的浏览信息的许可。例如,该数据可包括通过候选人的浏览器访问了哪些产品的列表。候选数据收集模块1355可监控浏览器上的小型文本文件cookie,以及包括X-UIDH报头的超级cookie。该数据还可包括从候选人的社交媒体使用中收集的主题兴趣信息。其他实现方式可基于选择退出。有时,行为监视是在没有通知或用户可能错过的情况下实现的,这并非首选方法。
在一些实现方式中,环境1300的模块可是不同类型的,包括工作站、服务器、计算集群、刀片服务器、服务器群或任何其他数据处理***或计算设备。模块可通过不同的网络连接以可通信地方式耦合到数据存储。例如,访问受控的应用服务器1315和登记流程软件和/或服务器1316可经由网络1325(例如,因特网)耦合,并且候选数据收集模块1355可耦合到直接网络链路。在一些实施方式中,社交媒体访问模块1352可通过WiFi热点连接。在一些实现方式中,图像采集模块1346可通过网络1325连接到计算设备1358。图像采集模块1346也可使用蓝牙或其他流行的通信媒介直接连接到计算设备1358上。
在一些实施方式中,网络1325可是局域网(LAN)、广域网(WAN)、WiFi、WiMAX、电话网络、无线网络、点对点网络、星形网络、令牌环网、集线器网络、诸如蓝牙、近场通信(NFC)、Z波、ZigBee的对等连接中的任意一个或任意组合,或者包括互联网在内的数据网络的其他适当配置。
计算设备1358包括网络浏览器1378和/或移动应用程序1388、蓝色/紫色/紫外线照明模块1366和候选成像获取模块1368,其提供提示和界面以捕捉待验证候选的图像。候选成像获取模块1368可与图像采集模块1346结合工作,以获取用于验证目的的图像。在一些实现方式中,计算设备1358可是个人计算机、笔记本电脑、平板计算机、智能手机、个人数字助手(PDA)、数字图像捕捉设备等。
在一些实现方式中,数据存储可将来自一个或多个租户的信息存储到公共数据库映像的表中,以形成按需数据库服务(ODDS),该服务可以多种方式实现,例如多租户数据库***(MTDS)。数据库映像可包括一个或多个数据库对象。在其他实现方式中,数据库可是关系数据库管理***、面向对象数据库管理***、分布式文件***、无模式数据库或任何其他数据存储***或计算设备。
特定实施方式
在一个实现方式中,描述了一种将掌纹数字表达与掌纹模板匹配的方法。该方法可用于在不与其他物体表面发生事实接触(例如,“无接触”)的情况下采集目标个体的掌纹或其他身体部分的图像来认证目标个体。除了专用设备(例如,智能手机、平板电脑、笔、手表等)之外,该技术可集成到独立***、可穿戴***中,或者可通过局域网、广域网或实现云或其他架构的互联网络获得。该方法包括通过平移、旋转和缩放来执行掌纹数字表达与掌纹模板对准,并在数字表达和模板之间进行特征匹配。
一些实施方式还包括从检测到的边缘中选择不重叠的掌纹特征。
一些实施方式还包括从检测到的轮廓中选择不重叠的掌纹特征。
一些实现还包括通过采集一个或者多个包含手掌的图像来生成手掌的掌纹模板;基于采集的图像创建合成;以及将该合成图像存储为手掌的掌纹数字表达。
一些实施方式还包括通过根据特定的能量分布可控地激励一个或多个照明源来照明手掌,并采集一个或者多个包含手掌的图像;从而获得比在不受控制的光照下采集的图像更高的手掌部分纹理和特征的对比度。
在一些实施方式中,根据特定的坡度轨道可控地激励一个或多个照明源。
在一些实施方式中,一个或多个照明源被可控地激励到超过300毫秒的过渡时间。
在一些实施方式中,一个或多个照明源被可控地激励以提供低于460纳米的照明波长。
在一些实施方式中,一个或多个照明源被可控地激励以提供320纳米以上的照明波长。
在一些实施方式中,一个或多个照明源被可控地激励以提供380-400纳米范围内的照明波长。
其他实现方式可包括执行上述任何方法的计算机实现的***,该***包括处理器、耦合到处理器的存储器以及加载到存储器中的计算机指令。又一实施方式可包括用计算机程序指令刻录的有形计算机可读存储介质;当指令在处理器上执行时,可使计算机实现上述任何方法。
这里使用的术语和表达用作本专利说明书的术语和表达,而非限制,且在使用这些术语和表达时,无意排除所显示和描述的特征或其部分的任何等同物。此外,已经描述了所公开的技术的某些实现方式,对于本领域普通技术人员来说显而易见的是,在不脱离所公开的技术的精神和范围的情况下,可使用包含本文公开的概念的其他实现方式。因此,所描述的实现方法在所有方面都应被认为仅仅是说明性的,而非限制性的。

Claims (23)

1.一种包括掌纹认证的设备,其特征在于,包括:
一包括照明源和照相机的计算设备或一能够与照明源和照相机通信的计算设备;
所述计算设备包括执行操作序列的逻辑,所述操作序列包括:
用发射光谱包括小于485纳米波长范围的照明源照射手掌;
利用照明源,用照相机采集掌纹的一张或一组图像;
处理该组图像,根据手掌表面皮肤反射光的局部强度和局部强度梯度,确定掌纹的一组识别特征;和
将该组局部识别特征与之前录入的掌纹进行比较以识别掌纹。
2.根据权利要求1所述的设备,其特征在于,所述照明包括使用波长范围小于485纳米的颜色在显示屏上显示照明图案,所述照明图案充当照明源。
3.根据权利要求2所述的设备,其特征在于,所述操作序列包括在显示照明图案的同时显示由照相机采集的取景器图像。
4.根据权利要求2所述的设备,其特征在于,所述操作序列包括在显示照明图案的同时显示由照相机采集的取景器图像,其中,照明图案是半透明的或者包含透明窗口用以显示取景器图像。
5.根据权利要求1所述的设备,其特征在于,所述采集一组图像的操作包括处理来自照相机的图像数据帧,以检测照相机视场内是否有手掌,并作为对检测的响应,将一组包含手掌的图像帧保存为该组图像。
6.根据权利要求1所述的设备,其特征在于,所述处理包括,对在发射光谱包括小于485纳米波长范围的照明源照射下的手掌图像进行分析,进而提取局部的识别特征。
7.根据权利要求1所述的设备,其特征在于,所述操作序列包括,在识别掌纹通过后生成信号以授权进一步的处理。
8.根据权利要求1所述的设备,其特征在于,所述发射光谱包括350纳米到485纳米范围内的波长。
9.根据权利要求1所述的设备,其特征在于,所述发射光谱包括小于485纳米的范围内的波长。
10.根据权利要求1所述的设备,其特征在于,所述操作序列包括,在识别掌纹通过后,生成信号以授权对于汽车子***的操作。
11.根据权利要求1所述的设备,其特征在于,所述操作序列包括,在识别掌纹通过后,生成信号以授权对于虚拟现实或增强现实头戴式显示器的操作。
12.一种用于掌纹认证的方法,其特征在于,包括
用发射光谱包括小于485纳米波长范围的照明源照射手掌;
利用照明源,用照相机采集掌纹的一张或一组图像;
处理该组图像,根据手掌表面皮肤反射光的局部强度或局部强度梯度,确定掌纹的一组识别特征;和
将该组局部识别特征与之前录入的掌纹进行比较以识别掌纹。
13.根据权利要求12所述的方法,其特征在于,所述照明包括使用波长范围小于485纳米的颜色在显示器上显示照明图案。
14.根据权利要求13所述的方法,其特征在于,包括在显示照明图案的同时显示由照相机采集的取景器图像。
15.根据权利要求13所述的方法,其特征在于,包括显示照明图案时显示由照相机采集的取景器图像,其中照明图案是半透明的或者包含透明窗口用以显示取景器图像。
16.根据权利要求12所述的方法,其特征在于,所述采集一组图像的操作包括处理来自照相机的图像数据帧,以检测照相机视场内是否有掌纹,并作为对检测的响应,将一组包含手掌的图像帧保存为该组图像。
17.根据权利要求12所述的方法,其特征在于,对在发射光谱包括小于485纳米波长范围的照明源照射下的手掌图像进行分析进而提取局部的识别特征。
18.根据权利要求12所述的方法,其特征在于,包括在识别掌纹通过后生成信号以授权进一步的处理。
19.根据权利要求12所述的方法,其特征在于,所述发射光谱包括350纳米到485纳米范围内的波长。
20.根据权利要求12所述的方法,其特征在于,所述发射光谱包括小于485纳米范围内的波长。
21.根据权利要求12所述的方法,其特征在于,在识别掌纹通过后,生成信号以授权对于汽车子***的操作。
22.根据权利要求12所述的方法,其特征在于,在识别掌纹通过后,生成信号以授权对于虚拟现实或增强现实头戴式显示器的操作。
23.一种非暂时性计算机可读存储介质,其特征在于,其上刻录有计算机程序指令,用以将掌纹数字表达与掌纹模板相匹配,这些指令在处理器上执行时实现一种方法,所述方法包括:
用发射光谱包括小于485纳米波长范围的照明源照射手掌;
用照相机采集在该照明下的掌纹的一组图像;
处理该组图像,根据手掌表面皮肤反射光的局部强度或局部强度梯度确定掌纹的一组识别特征;和
将该组局部识别特征与之前录入的掌纹进行比较以识别掌纹。
CN201880037727.3A 2016-08-31 2018-01-19 蓝紫光照明下非接触式掌纹识别*** Pending CN110741378A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662382067P 2016-08-31 2016-08-31
US15/615683 2017-06-06
US15/615,683 US10303865B2 (en) 2016-08-31 2017-06-06 Blue/violet light touchless palm print identification
PCT/CN2018/073331 WO2018223708A1 (en) 2016-08-31 2018-01-19 Blue/violet light touchless palm print identification

Publications (1)

Publication Number Publication Date
CN110741378A true CN110741378A (zh) 2020-01-31

Family

ID=61240595

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201880037727.3A Pending CN110741378A (zh) 2016-08-31 2018-01-19 蓝紫光照明下非接触式掌纹识别***
CN201880065085.8A Pending CN111226212A (zh) 2016-08-31 2018-01-19 增强现实虚拟现实非接触掌纹识别

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201880065085.8A Pending CN111226212A (zh) 2016-08-31 2018-01-19 增强现实虚拟现实非接触掌纹识别

Country Status (3)

Country Link
US (2) US10303865B2 (zh)
CN (2) CN110741378A (zh)
WO (2) WO2019068239A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416338B (zh) * 2018-04-28 2021-12-14 深圳信息职业技术学院 一种非接触掌纹身份认证方法
US11353967B2 (en) 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US11050752B2 (en) * 2018-06-07 2021-06-29 Ebay Inc. Virtual reality authentication
CN110850975B (zh) * 2018-11-08 2024-03-19 英属开曼群岛商麦迪创科技股份有限公司 具有手掌辨识的电子***、车辆及其操作方法
KR20210136043A (ko) 2019-02-18 2021-11-16 에이알케이에이치 리쏘 홀딩스, 엘엘씨 포인팅 제어기를 사용하는 스마트 디바이스와의 상호작용
US10832485B1 (en) * 2019-06-24 2020-11-10 Verizon Patent And Licensing Inc. CAPTCHA authentication via augmented reality
JP2022550106A (ja) 2019-09-24 2022-11-30 アーク, インコーポレイテッド スマートリング
EP3832407B1 (fr) * 2019-12-06 2024-03-27 Tissot S.A. Procédé de connexion sécurisée d'une montre à un serveur distant
WO2021117917A1 (ko) * 2019-12-09 2021-06-17 엘지전자 주식회사 발광소자를 이용하여 가이드를 제공하는 전자 장치 및 그 제어 방법
CN111177696A (zh) * 2019-12-28 2020-05-19 北京太坦科技有限公司 智能终端开机认证方法
CN111222116A (zh) * 2019-12-28 2020-06-02 北京太坦科技有限公司 一种智能终端
US11755111B2 (en) 2020-03-16 2023-09-12 Arkh, Inc. Spatially aware computing hub and environment
USD1009861S1 (en) 2020-09-25 2024-01-02 Arkh, Inc. Smart ring
CN112668540B (zh) * 2021-01-06 2023-07-18 安徽省东超科技有限公司 生物特征采集识别***及方法、终端设备和存储介质
US11615639B1 (en) * 2021-01-27 2023-03-28 Jackson Klein Palm vein identification apparatus and method of use
US11354924B1 (en) * 2021-05-17 2022-06-07 Vr Media Technology, Inc. Hand recognition system that compares narrow band ultraviolet-absorbing skin chromophores
CN113673477B (zh) * 2021-09-02 2024-07-16 青岛奥美克生物信息科技有限公司 掌静脉非接触式三维建模方法、装置及认证方法
TW202332267A (zh) * 2022-01-26 2023-08-01 美商元平台技術有限公司 具有基於機器學習的寬視野立體視圖合成的顯示系統
US20240123942A1 (en) * 2022-10-13 2024-04-18 Ford Global Technologies, Llc Vehicle access
US11972526B1 (en) 2023-03-31 2024-04-30 Apple Inc. Rendering of enrolled user's face for external display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103269481A (zh) * 2013-05-13 2013-08-28 广东欧珀移动通信有限公司 对便携式电子设备的程序或文件加密保护的方法及***
US20150020181A1 (en) * 2012-03-16 2015-01-15 Universal Robot Kabushiki Kaisha Personal authentication method and personal authentication device
US20150356362A1 (en) * 2014-06-09 2015-12-10 Lawrence Livermore National Security, Llc Personal electronic device for performing multimodal imaging for non-contact identification of multiple biometric traits
US20160019423A1 (en) * 2014-07-15 2016-01-21 Luis M. Ortiz Methods and systems for wearable computing device
CN106250823A (zh) * 2016-07-21 2016-12-21 同济大学 一种掌纹掌脉识别方法及掌纹掌脉图像采集仪

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU8516382A (en) 1981-09-21 1983-03-31 Stellar Systems, Inc. Personnel identification by finger characteristics
US7496214B2 (en) 2002-09-25 2009-02-24 The Hong Kong Polytechnic University Method of palm print identification
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US8787630B2 (en) * 2004-08-11 2014-07-22 Lumidigm, Inc. Multispectral barcode imaging
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
WO2009101702A1 (ja) 2008-02-15 2009-08-20 Fujitsu Limited 生体認証用の撮影装置及び生体認証装置
US8229178B2 (en) 2008-08-19 2012-07-24 The Hong Kong Polytechnic University Method and apparatus for personal identification using palmprint and palm vein
KR20110038563A (ko) 2009-10-08 2011-04-14 최운호 운전자 인증을 통한 차량 제어 방법, 차량 단말기, 생체인식 카드 및 시스템과, 생체인식 카드와 단말기를 이용한 탑승자 보호 추적 기능을 제공하는 방법
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9285589B2 (en) * 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20140063055A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
US8526682B2 (en) 2011-01-20 2013-09-03 Daon Holdings Limited Methods and systems of authentication
US8692738B2 (en) * 2011-06-10 2014-04-08 Disney Enterprises, Inc. Advanced Pepper's ghost projection system with a multiview and multiplanar display
KR101938033B1 (ko) 2012-09-05 2019-01-11 엘리먼트, 인크. 카메라 장착 디바이스들과 관련된 생체인식 인증
US20160140766A1 (en) * 2012-12-12 2016-05-19 Sulon Technologies Inc. Surface projection system and method for augmented reality
US9791699B2 (en) * 2013-03-13 2017-10-17 Advanced Eye Protection IP Holding Optical positioning aiming system
US10152135B2 (en) 2013-03-15 2018-12-11 Intel Corporation User interface responsive to operator position and gestures
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
CN105980853B (zh) * 2013-10-11 2018-07-06 Hid环球公司 小型化光学生物测定感测
US20150186708A1 (en) 2013-12-31 2015-07-02 Sagi Katz Biometric identification system
US20150205992A1 (en) * 2014-01-21 2015-07-23 Lumidigm, Inc. Multispectral imaging biometrics
US9723300B2 (en) * 2014-03-17 2017-08-01 Spatial Intelligence Llc Stereoscopic display
US9659205B2 (en) 2014-06-09 2017-05-23 Lawrence Livermore National Security, Llc Multimodal imaging system and method for non-contact identification of multiple biometric traits
WO2016017101A1 (ja) * 2014-07-30 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20160092726A1 (en) * 2014-09-30 2016-03-31 Xerox Corporation Using gestures to train hand detection in ego-centric video
US9778750B2 (en) * 2014-09-30 2017-10-03 Xerox Corporation Hand-gesture-based region of interest localization
US20160116740A1 (en) * 2014-10-24 2016-04-28 Seiko Epson Corporation Display device, control method for display device, display system, and computer program
US20160224123A1 (en) * 2015-02-02 2016-08-04 Augumenta Ltd Method and system to control electronic devices through gestures
US10164971B2 (en) * 2015-10-22 2018-12-25 Oracle International Corporation End user initiated access server authenticity check
CN105912110B (zh) * 2016-04-06 2019-09-06 北京锤子数码科技有限公司 一种在虚拟现实空间中进行目标选择的方法、装置及***
CN106529249A (zh) * 2016-10-31 2017-03-22 宇龙计算机通信科技(深圳)有限公司 一种信息交互的方法及虚拟现实眼镜
CN106355972B (zh) * 2016-11-30 2018-10-09 西安科技大学 一种悬臂式掘进机虚拟培训***的培训方法
CN106980983A (zh) * 2017-02-23 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务认证方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150020181A1 (en) * 2012-03-16 2015-01-15 Universal Robot Kabushiki Kaisha Personal authentication method and personal authentication device
CN103269481A (zh) * 2013-05-13 2013-08-28 广东欧珀移动通信有限公司 对便携式电子设备的程序或文件加密保护的方法及***
US20150356362A1 (en) * 2014-06-09 2015-12-10 Lawrence Livermore National Security, Llc Personal electronic device for performing multimodal imaging for non-contact identification of multiple biometric traits
US20160019423A1 (en) * 2014-07-15 2016-01-21 Luis M. Ortiz Methods and systems for wearable computing device
CN106250823A (zh) * 2016-07-21 2016-12-21 同济大学 一种掌纹掌脉识别方法及掌纹掌脉图像采集仪

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵志刚等: "融合水平梯度与局部信息强度的掌纹识别算法", 《计算机科学》, pages 317 - 320 *

Also Published As

Publication number Publication date
US20180060554A1 (en) 2018-03-01
WO2019068239A1 (en) 2019-04-11
CN111226212A (zh) 2020-06-02
WO2018223708A1 (en) 2018-12-13
US20180060683A1 (en) 2018-03-01
US11151234B2 (en) 2021-10-19
US10303865B2 (en) 2019-05-28

Similar Documents

Publication Publication Date Title
CN110741378A (zh) 蓝紫光照明下非接触式掌纹识别***
US10095927B2 (en) Quality metrics for biometric authentication
US10691939B2 (en) Systems and methods for performing iris identification and verification using mobile devices
KR101309889B1 (ko) 바이오메트릭 인증을 위한 텍스처 특징
US10769435B2 (en) Method of avoiding biometrically identifying a subject within an image
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
US11557153B2 (en) Spoof detection using iris images
Thavalengal et al. Iris liveness detection for next generation smartphones
Li et al. An accurate and efficient user authentication mechanism on smart glasses based on iris recognition
FR3100074A1 (fr) Procédé d'analyse d'une caractéristique faciale d'un visage
Reddy et al. A robust scheme for iris segmentation in mobile environment
CN108875472B (zh) 图像采集装置及基于该图像采集装置的人脸身份验证方法
Hongo et al. Personal authentication with an iris image captured under visible-light condition
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
CN110891049A (zh) 基于视频的账户登录方法、装置、介质、电子设备
CN113228037A (zh) 创建虹膜标识以减少生物特征识别***的搜索空间
Prajapati et al. Noise removal for unconstrained iris recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200131