CN116529789A - 使用用户触摸与指纹传感器的搭配进行指纹注册 - Google Patents

使用用户触摸与指纹传感器的搭配进行指纹注册 Download PDF

Info

Publication number
CN116529789A
CN116529789A CN202180073164.5A CN202180073164A CN116529789A CN 116529789 A CN116529789 A CN 116529789A CN 202180073164 A CN202180073164 A CN 202180073164A CN 116529789 A CN116529789 A CN 116529789A
Authority
CN
China
Prior art keywords
user
touch
udfps
fingerprint
user touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180073164.5A
Other languages
English (en)
Inventor
费拉斯·赛莫拉
让-马里·比萨特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN116529789A publication Critical patent/CN116529789A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本公开描述了用于使得用户能够通过使用生物识别数据(502、610)保护具有指纹识别***(108)的计算设备(100)的装置、方法和技术。指纹识别***(108)包括在用户的生物识别数据(502、610)的注册过程期间使用的指纹传感器(112)。生物识别数据(502、610)可以包括来自用户的拇指、手指、多个手指、手掌等的指纹数据。计算设备(100)使用用户触摸(202),例如拇指敲击,和指纹传感器(112)的位置的搭配来引导用户轻松地并且用更少的拇指敲击来完成完整指纹的注册过程。因此,这些技术通过具有良好用户体验的注册过程实现生物识别安全性。

Description

使用用户触摸与指纹传感器的搭配进行指纹注册
相关申请的交叉引用
本申请要求于2020年10月30日提交的美国临时专利申请63/108,113的优先权,通过引用将其整体并入本文。
背景技术
计算设备(例如,智能电话)通常包括指纹识别***。这些指纹识别***使得用户能够使用用户的手指、拇指、手掌等的生物识别数据(例如,指纹)来保护他们的智能电话、应用、功能或***设备。这些指纹识别***可以包括嵌入在智能电话的显示屏下方的显示下指纹传感器(UDFPS)。在指纹的注册过程期间,智能电话可以利用显示屏来指导用户在UDFPS之上敲击他们的拇指、手指或手掌。包含生物识别数据的用户拇指的区域(例如,拇指垫)可以是十八毫米乘二十五毫米,并且UDFPS可以是六毫米乘六毫米。在这种情况下,智能电话可以指导用户在UDFPS之上敲击他们的拇指六到三十次,以捕获用户拇指的完整图像。智能电话还可以指导用户在UDFPS之上的各种位置上敲击他们的拇指。
然而,许多智能电话可能无法正确地引导或指导用户如何敲击他们的拇指来捕获用户拇指的完整图像。用户可能敲击他们的拇指若干次,但仍然无法将他们的拇指的不同部分呈现给UDFPS。因此,智能电话可能在未捕获用户拇指的完整图像的情况下完成指纹的注册过程,从而导致生物识别安全性差(高误接受率)和/或不恰当地拒绝用户访问(高误拒绝率)。因此,希望具有一种技术解决方案,其使得用户能够轻松地并且用更少的拇指敲击来完成指纹的注册过程,并且使智能电话通过具有良好用户体验的注册过程提供生物识别安全性。
发明内容
本公开描述了用于使得用户能够通过使用生物识别数据来保护具有指纹识别***的计算设备的装置、方法和技术。该指纹识别***包括在用户的生物识别数据的注册过程期间使用的指纹传感器。该生物识别数据可以包括来自用户的拇指、手指、多个手指、手掌等的指纹数据。该计算设备使用用户触摸,例如拇指敲击,和指纹传感器的位置的搭配来引导用户轻松地并且用更少的拇指敲击来完成完整指纹的注册过程。因此,这些技术通过具有良好用户体验的注册过程实现生物识别安全性。
在一个方面中,一种计算机实现的方法在计算设备的显示屏上创建用户触摸的用户触摸图,该用户触摸使得能够感测用户皮肤的生物识别数据。该计算机实现的方法然后确定用户触摸的近似质心,其中该近似质心是用户触摸的算术平均位置。该计算机实现的方法将用户触摸的近似质心与计算设备的至少一个指纹传感器的位置相关。响应于用户触摸的质心与指纹传感器的位置的相关,该计算机实现的方法将用户触摸与至少一个指纹传感器的位置搭配。用户触摸与指纹传感器的位置的搭配使得该计算机实现的方法能够在生物识别数据的注册过程期间引导用户。
在另一方面中,一种计算设备包括至少一个指纹传感器、至少一个显示屏、至少一个处理器和至少一个计算机可读介质。计算机可读介质能够使用至少一个处理器来执行指令(例如,代码)。该指令被配置为在至少一个显示屏上创建用户触摸的用户触摸图,其中该用户触摸使得能够感测用户的皮肤的生物识别数据。该指令还被配置为确定用户触摸的近似质心,其中该近似质心是用户触摸的算术平均位置。此外,可选地,该指令还可以被配置为将用户触摸的质心与至少一个指纹传感器的位置相关。将用户触摸的质心与至少一个指纹传感器的位置相关使得计算设备能够将用户触摸与至少一个指纹传感器的位置搭配。最后,计算设备可以在生物识别数据的注册过程期间可选地引导用户。
本公开描述了其中计算设备(例如,用户设备、智能电话)分析与用户或计算设备相关联的信息(例如,指纹图像)的示例。计算设备在计算设备从用户接收到收集、存储或分析用户的信息的明确许可之后使用该信息。例如,在下面讨论的其中计算设备基于指纹来认证用户的情况下,将向用户提供控制计算设备或远程***的程序或特征是否能够收集和利用指纹以用于当前或后续认证流程的机会。因此,个体用户可以控制计算设备能够或不能够对指纹图像和与用户相关联的其他信息做什么。与用户相关联的信息(例如,注册图像)如果曾经被存储过,将以一种或多种方式被预处理,使得在传输、存储或以其他方式使用之前移除个人身份信息。例如,在计算设备存储注册图像(也称为“注册模板”)之前,计算设备可以加密该注册图像。以这种方式预处理数据确保信息无法被追溯到用户,从而移除可能能够从注册图像中推断出的任何个人身份信息。因此,用户可以控制关于用户的信息是否被收集,以及如果被收集,计算设备可以如何使用这样的信息。
本发明内容介绍了用于捕获指纹的注册图像的简化概念,在具体实施方式和附图中进一步描述。为了便于描述和清楚起见,本公开集中于使用具有嵌入在智能电话的显示屏下方的显示下指纹传感器(UDFPS)的智能电话来捕获注册图像。然而,这些技术并不限于使用UDFPS来捕获注册图像。这些技术可以与能够推断用户触摸与指纹传感器之间的搭配的任何指纹识别***一起使用。此外,这些技术不限于用户的拇指的指纹数据;这些技术还应用于其他形式的生物识别数据,包括从用户的手指、多个手指、手掌等导出的生物识别数据。应当理解,术语“指纹数据”可以被用于指代从用户的拇指、手指、多个手指、手掌等导出的生物识别数据,并且不限于仅从手指导出的数据。类似地,术语“拇指敲击”不限于用户的拇指的触摸,并且可以被用于指代用户的拇指、用户的手指中的多个中的一个和/或用户的手掌在显示屏上的触摸。本发明内容不旨在识别要求保护的主题的基本特征,其也不旨在用于确定要求保护的主题的范围。
附图说明
公开了具有利用注册模板的指纹识别***的计算设备的一个或多个方面的细节。在整个附图中使用相同的附图标记指代相同的特征和组件。
图1图示了具有含有至少一个指纹传感器的指纹识别***以利用包含生物识别数据的注册图像来认证用户的示例计算设备。
图2-1图示了其中计算设备是智能电话的示例环境;该智能电话在生物识别数据的注册过程期间使用用户触摸与至少一个指纹传感器的搭配。
图2-2图示了智能电话通过利用用户触摸与至少一个指纹传感器的搭配在生物识别数据的注册过程期间引导用户的示例环境。
图2-3图示了智能电话在生物识别数据的注册过程期间利用显示屏的用户触摸热图的示例环境。
图3-1图示了智能电话在生物识别数据的注册过程期间利用视觉触摸指令的示例环境。
图3-2图示了智能电话在生物识别数据的注册过程期间利用视觉触摸复制本和视觉触摸指令的示例环境。
图4图示了智能电话具有至少一个指纹传感器的活动区域的示例环境,该至少一个指纹传感器的活动区域大于用户触摸。
图5图示了智能电话使用指纹脊的图案来确定用户触摸与至少一个指纹传感器的搭配的示例环境。
图6图示了在生物识别数据的注册过程期间可以使用的指纹脊的细节的示例。
图7图示了使得用户能够完成生物识别数据的注册过程的计算机实现的方法。
具体实施方式
概述
本文件描述了用于计算设备(例如,智能电话)的指纹识别***的装置、方法和技术,其使得用户能够在注册过程期间捕获指纹的注册图像。在注册过程期间,智能电话可以利用显示屏来指导用户在指纹传感器(例如,显示下指纹传感器,UDFPS)之上敲击他们的拇指、手指或手掌若干次以捕获拇指的完整图像。然而,当前的智能电话并未配置为在注册过程期间破译拇指的哪个部分已经被捕获以及拇指的哪个部分仍然需要被捕获,因为当前的智能电话可能没有将在显示屏上的用户触摸的位置与嵌入在显示屏下方的UDFPS的位置相关。因此,当前的智能电话可能仅捕获部分指纹的注册图像,从而导致生物识别安全性不足和/或用户体验差。
相反,本文中描述的计算设备(例如,智能电话)使用在显示屏上的用户触摸和/或UDFPS的搭配,保持跟踪由UDFPS捕获的拇指的部分。在一个方面中,智能电话保持跟踪用户触摸的质心。通过这样做,当用户在第一次拇指敲击中将他们的拇指的一部分呈现给UDFPS时,智能电话可以在下一次拇指敲击之前向用户显示详细指令。智能电话可以显示诸如“向右敲击”、“向左敲击”、“向上敲击”、“向下敲击”等消息。例如,当用户触摸的质心位于UDFPS的左侧时,智能电话可以显示消息“向右敲击”,当用户触摸的质心位于UDFPS的右侧时,显示“向左敲击”,当用户触摸的质心位于UDFPS下方时,显示“向上敲击”,并且当用户触摸的质心位于UDFPS上方时,显示“向下敲击”。因此,用户能够轻松地并且用更少的拇指敲击完成注册过程,从而使得智能电话能够通过具有良好用户体验的注册过程提供生物识别安全性。
贯穿本公开,“验证图像”是在指纹的验证过程(验证过程)期间用于认证的指纹图像。另一方面,“注册图像”是智能电话在注册过程期间(例如,当用户首次设置智能电话或应用时)捕获的图像。注册图像也可以当用户使用智能电话时在验证过程期间被更新。此外,如本文中所描述的,“注册模板”可以是注册图像的数学表示。该注册模板可以是注册图像的向量化表示,其可以在计算设备上占用更少的存储器空间。虽然在某些方面是有益的,但在注册过程期间或在验证过程期间不需要使用注册模板的向量化表示。所描述的装置、方法和技术能够执行图像到图像(而不是向量到向量)比较,以及其他表示,以比较注册图像或注册模板的图像。
虽然所描述的用于计算设备的指纹识别***的装置、方法和技术的特征和概念能够在任何数量的不同环境、***、设备和/或各种配置中实现,但在以下示例设备、***、方法和/或配置的场境中描述了使得具有一个或多个指纹传感器的指纹识别***能够捕获指纹(例如,注册图像)的各方面。
示例环境
图1图示了具有含有至少一个指纹传感器112的指纹识别***108的示例计算设备100,其被用于利用用户的拇指、指尖或多个指尖的注册模板116来认证用户。计算设备100可以包括比图1中图示的组件更多或更少的组件。图1将计算设备100图示为各种示例计算设备,包括智能电话100-1、平板电脑100-2、膝上型电脑100-3、台式计算机100-4、计算手表100-5、计算眼镜100-6、游戏***或控制器100-7、智能扬声器***100-8和电器100-9。计算设备100还能够包括其他设备,例如电视、娱乐***、汽车、无人驾驶交通工具(空中、地上或可潜水“无人机”)、触控板、绘图板、上网本、电子阅读器、家庭安全***、门铃和其他具有指纹识别***的设备。
计算设备100包括至少一个应用处理器104和至少一个计算机可读存储介质(CRM106)。应用处理器104可以包括一个或多个控制器、微控制器、处理器、微处理器、硬件处理器、硬件处理单元、数字信号处理器、图形处理器、图形处理单元以及类似物的任何组合。应用处理器104处理由CRM 106存储的计算机可执行指令(例如,代码)。CRM 106可以包括任何合适的存储器介质和存储介质,例如,易失性存储器(例如,随机存取存储器(RAM))、非易失性存储器(例如,闪存)、光介质、磁介质(例如,磁盘或磁带),等等。此外,CRM 106可以存储指令、数据(例如,生物识别数据)和/或其他信息,并且CRM 106不包括传播信号。
计算设备100还可以包括应用102。应用102可以是软件、小程序、***设备或需要或支持对用户的认证的其他实体。例如,应用102可以是计算设备100的安全组件或用于确保可从计算设备100访问的信息安全的访问实体。应用102可以是在登录账户之前需要指纹认证的网上银行应用软件或网页。此外,应用102可以是(通常)阻止访问计算设备100直到用户的指纹被认证的操作***(OS)的一部分。用户可以部分或全部在计算设备100上或在“云”中(例如,在通过互联网访问的远程设备上)执行应用102。例如,应用102可以使用互联网浏览器和/或应用编程接口(API)来提供到线上账户的接口。
指纹传感器112可以是嵌入在显示屏110下方的显示下指纹传感器112-1(UDFPS112-1)、嵌入在计算设备100(例如,智能电话100-1)的侧面上的侧面指纹传感器112-2,等等。
显示屏110可以显示由计算设备100提供的图形图像和/或指令,并且可以帮助用户与计算设备100交互。显示屏110可以是触敏显示器,通常称为触摸屏。显示屏110可以包括多个像素,其中每个像素被配置为当用户触摸显示屏时生成输出(本文中称为触摸信号)。像素可以被布置成阵列,诸如在平行于显示屏的平面的平面中沿着两个正交轴的正方形或矩形阵列,并且每个像素在阵列中可以具有相应的坐标方位(例如,x-y坐标对)。由于用户触摸的区域(例如,用户的指尖、拇指或手掌的区域)通常将大于显示屏110的单个像素的区域,因此用户触摸将使多个像素中的每一个生成相应的触摸信号。因此,显示屏110可以被配置为创建或生成指示哪些像素已经生成触摸信号的输出(本文中称为用户触摸图)。例如,用户触摸图可以是具有多个元素的阵列,每个元素对应于显示屏的相应像素,其中,每个元素具有指示显示屏110的对应像素是否已经响应于用户触摸而生成了触摸信号的值(例如,二元值)。显示屏110可以与指纹识别***108分离(未如此图示)或者可以是指纹识别***108的一部分(如图1中所图示)。
注册过程
图2-1图示了作为智能电话100-1的计算设备100的示例环境200-1。假设智能电话100-1包括嵌入在显示屏110下方的UDFPS 112-1。当用户使用他们的拇指、手指或手掌触摸或按压显示屏110时,显示屏110能够感测用户触摸202。在注册过程期间,当用户在显示屏110上在区域204内部敲击或按压他们的拇指时,UDFPS 112-1的UDFPS活动区域206能够捕获用户触摸202的注册图像。然而,因为用户触摸202可能大于UDFPS活动区域206,用户触摸202可能偏离UDFPS活动区域206的中心,或者它们的任何组合,所以UDFPS活动区域206可能仅捕获用户触摸202的一部分。因此,所捕获的注册图像可能不足以创建注册模板116。因此,智能电话100-1可以指导用户在UDFPS活动区域206之上多次敲击他们的拇指。然而,用户无法看到或感觉到UDFPS活动区域206,并且用户无法确定他们是否将他们拇指的(多个)适当部分呈现给UDFPS活动区域206。为此,在注册过程期间,智能电话100-1使用扬声器208、显示消息210、智能电话100-1的***设备(例如,无线耳机)或它们的组合来指导用户如何敲击他们的拇指。
为了在注册过程期间帮助用户,智能电话100-1通过在显示屏110上区分具有触摸信号的像素214与不具有触摸信号的像素216来创建用户触摸202的用户触摸图212,如图2-1中所图示。应当理解,图2-1的图示不是按比例的,并且显示屏110的像素比与显示屏110、用户触摸202和UDFPS活动区域206成比例图示的更小。因此,用户触摸图212与用户触摸202大致相同。基于用户触摸图212,智能电话100-1确定近似的用户触摸质心218。用户触摸质心218是用户触摸图212以及随后的用户触摸202的算术平均位置。例如,用户触摸质心218可以是触摸图212的中心的坐标方位(换句话说,用户触摸图212中具有触摸信号的所有像素214的算术平均位置的坐标方位)。
然后,智能电话100-1能够将用户触摸质心218与UDFPS活动区域206相关。例如,将用户触摸质心218与UDFPS活动区域206相关可以包括确定用户触摸质心218与UDFPS活动区域206(并且特别是UDFPS活动区域206的中心)之间的差异。例如,用户触摸质心218可以通过从UDFPS活动区域206的中心的坐标方位减去触摸图212的中心的坐标方位(反之亦然)来与UDFPS活动区域206相关。作为响应,智能电话100-1能够将用户触摸202与指纹传感器112(例如,UDFPS 112-1、UDFPS活动区域206)搭配。例如,将用户触摸202与指纹传感器112的位置搭配可以包括确定导致用户触摸质心218与UDFPS活动区域206重合的几何平移的角度和/或距离。能够使用用户触摸图212的中心的坐标方位与UDFPS活动区域206的中心的坐标方位之间的差来计算该几何平移。将用户触摸202与UDFPS活动区域206搭配使得智能电话能够在注册过程期间引导用户,如下面进一步描述的。
图2-2图示了智能电话100-1通过利用用户触摸(例如,202、202-1、202-2、202-3、202-4)和指纹传感器112(例如UDFPS 112-1、UDFPS活动区域206)的搭配在生物识别数据的注册过程期间引导用户的示例环境200-2。图2-2是在图1和图2-1的计算设备100(例如,智能电话100-1)、指纹识别***108、显示屏110、图2-1的区域204、以及指纹传感器112(例如,UDFPS 112-1、UDFPS活动区域206)的场境中描述的。图2-2图示了与图2-1相比未改变的区域204和UDFPS活动区域206,因为这些区域(204、206)不会随着用户将他们的拇指在显示屏110上敲击而改变。
图2-2图示了偏离UDFPS活动区域206的中心的四个用户触摸202-1、202-2、202-3和202-4。基于用户触摸202-1、202-2、202-3和202-4,智能电话100-1在显示屏110上分别创建用户触摸图212-1、212-2、212-3和212-4。基于用户触摸图212-1、212-2、212-3和212-4,智能电话100-1分别确定用户触摸质心218-1、218-2、218-3和218-4。如图2-2中所图示,用户触摸质心218-1到218-4偏离UDFPS活动区域206的中心。然而,智能电话100-1将用户触摸质心218-1到218-4与UDFPS活动区域206相关,并且能够保持跟踪用户的拇指的哪个部分被呈现给UDFPS活动区域206。作为响应,智能电话100-1能够将用户触摸202-1到202-4与UDFPS活动区域206搭配。将用户触摸202-1到202-4与UDFPS活动区域206搭配使得智能电话100-1能够在注册过程期间引导用户。
当用户类似于用户触摸202-1敲击他们的拇指时,其中用户触摸质心218-1在UDFPS活动区域206的中心右侧,智能电话100-1可以将陈述例如“向左敲击”的显示消息210示出给用户。当用户类似于用户触摸202-2敲击他们的拇指时,其中用户触摸质心218-2在UDFPS活动区域206的中心左侧,智能电话100-1可以将陈述“向右敲击”的显示消息210示出给用户。当用户类似于用户触摸202-3敲击他们的拇指时,其中用户触摸质心218-3在UDFPS活动区域206的中心上方,智能电话100-1可以将陈述“向下敲击”的显示消息210示出给用户。最后,当用户类似于用户触摸202-4敲击他们的拇指时,其中用户触摸质心218-4在UDFPS活动区域206的中心下方,智能电话100-1可以将陈述“向上敲击”的显示消息210示出给用户。因此,如图2-2中所图示,与可能用从一个拇指敲击到下一个拇指敲击的含糊不清的指令来指导用户的现有的解决方案不同,智能电话100-1的指令使得用户能够轻松地并且用更少的拇指敲击来完成注册过程。
图2-3图示了智能电话100-1在注册过程期间利用显示屏110上的用户触摸热图212-5的示例环境200-3。图2-3是在图1至图2-2的计算设备100(例如,智能电话100-1)、指纹识别***108、显示屏110、区域204和指纹传感器112(例如,UDFPS 112-1、UDFPS活动区域206)的场境中描述的。图2-3图示了与图2-1和图2-2相比未改变的区域204和UDFPS活动区域206,因为这些区域(204、206)不随着用户将他们的拇指在显示屏110上敲击而改变。
智能电话100-1通过在注册过程期间聚集用户触摸(例如,202至202-4)来创建用户触摸热图212-5。这样,用户触摸热图212-5大于个体用户触摸(例如,212、212-1到212-4)。图2-3将用户触摸热图212-5图示为单色标度,包括白色像素(例如,216)、深灰色像素(例如,214-1)和具有比深灰色像素浅或比白色像素暗的灰色阴影的像素。具体地,白色像素表示不具有来自所有用户触摸(例如,212、212-1至212-4)的触摸信号的像素(例如,216);深灰色像素(例如,214-1)表示具有来自大多数或所有用户触摸的触摸信号的像素;并且浅灰色像素表示具有来自一些用户触摸的触摸信号的像素(例如,214-2)。智能电话100-1利用用户触摸热图212-5来引导用户用更少的拇指敲击来完成完整指纹注册过程。因此,智能电话100-1通过用更少的拇指敲击创建完整指纹的良好注册模板116来提供足够的生物识别安全性和令人愉悦的用户认证体验。
图3-1图示了智能电话100-1在注册过程期间利用视觉触摸指令310的示例环境300-1。图3在图1至2-3的计算设备100(例如,智能电话100-1)、指纹识别***108、显示屏110、区域204和指纹传感器112(例如,UDFPS 112-1,UDFPS活动区域206)的场境中描述。在注册过程期间,智能电话100-1可以使用扬声器208、显示消息210、智能电话100-1的***设备(例如,无线耳机)、视觉触摸指令310或其组合来指导用户如何敲击他们的拇指。虽然视觉触控指令310是以虚线方块图示的,但智能电话100-1可以使用任何平面形状来显示视觉触摸指令,这些平面形状如正方形、矩形、圆点、圆形、椭圆形、菱形、五边形、六边形、七边形、八边形、靶形、十字形或它们的组合。
如图2-1至2-3,当用户在显示屏110上在UDFPS活动区域206(图3中未图示)之上敲击他们的拇指时,智能电话100-1通过在显示屏110上区分具有触摸信号的像素(例如,214)和不具有触摸信号的像素(例如,216)来创建用户触摸302的用户触摸图312。为了便于描述和清楚起见,图3图示了单个用户触摸(例如,302)和相关联的用户触摸图(例如,312)。然而,应当理解,智能电话100-1在用户敲击他们的拇指时为每个用户触摸创建用户触摸图。假设用户在第一次拇指敲击期间敲击了他们的拇指;智能电话100-1利用UDFPS活动区域206来创建第一注册图像316-1。智能电话100-1可以使用上述任何形式的指令来指导用户第二次敲击他们的拇指。然后,智能电话100-1利用UDFPS活动区域206来创建第二注册图像316-2。在捕获第一注册图像316-1和第二注册图像316-2之后,智能电话100-1使用指纹拼接算法来“拼接”第一注册图像316-1和第二注册图像316-2以在用户触摸302的场境中创建完整指纹的“拼接的注册图像”。
指纹拼接算法可以将每个注册图像(例如,316-1、316-2)划分成“M”个块,其中滑动距离为一(1)个像素,其中每个块是“NxN”像素,其中“N”是大于(1)的整数。然后,指纹拼接算法通过包括以下内容从每个块中提取向量:
·每个块的旋转不变绝对值快速傅立叶变换(AFFT);
·块的x方位和y方位,或块的笛卡尔坐标;
·块的笛卡尔坐标的极坐标表示;以及
·在theta(θ)方向上具有高分辨率的极坐标表示的块的快速傅里叶变换(FFT)。
在笛卡尔坐标中的块、块的极坐标表示和块在极坐标中的AFFT之间存在关系。具体地,在笛卡尔坐标系中围绕中心点的角度旋转变换为极坐标表示中沿theta(θ)方向的平移——这称为“相移”。FFT假设周期性边界条件。因此,以极坐标表示的“NxN”块的AFFT是旋转不变的,并且旋转角度是在以极坐标表示的两(2)个块的FFT之间出现最大相关性的位置。指纹拼接算法使用旋转和平移矩阵,其中两(2)个图像(本文称为“第一注册图像316-1”和“第二注册图像316-2”)之间的旋转和平移矩阵能够被定义为:
其中表示两(2)个注册图像(例如316-1、316-2)之间的角度,“Tx”表示两(2)个注册图像之间沿x轴的平移,并且“Ty”表示两(2)个注册图像之间沿y轴的平移。
可以使用等式1将第二注册图像316-2的x坐标和y坐标变换到第一注册图像316-1的坐标系中。
此外,第一注册图像316-1与第二注册图像316-2之间的旋转矩阵(本文中标记为“RM12”)是第二注册图像316-2与第一注册图像316-1之间的旋转矩阵(本文中标记为“RM21”)的逆,如等式2中所图示。
RM12=(RM21)-1 等式2
考虑旋转矩阵的另一个性质,通过使用第一注册图像316-1和第二注册图像316-2,能够根据第三注册图像(图3中未图示)的旋转来确定“RM12”,如等式3所图示。
RM12=RM32*RM13 等式3
其中“RM12”表示第一注册图像316-1与第二注册图像316-2之间的旋转矩阵,“RM32”表示第三注册图像与第二注册图像316-2之间的旋转矩阵,“RM13”表示第一注册图像316-1与第三注册图像之间的旋转矩阵,并且*表示“RM32”与“RM13”之间的卷积的数学运算。
然后,旋转矩阵能够被用于“拼接”注册图像(例如,316-1、316-2)。如图3中所图示,智能电话100-1通过执行以下计算来生成第一注册图像316-1和第二注册图像316-2的“拼接的注册图像”:
·计算旋转矩阵RM12和RM21
·形成第一注册图像316-1和第二图像注册图像316-2的x向量、y向量和z向量;
·将第二注册图像316-2的x坐标、y坐标和z坐标变换为第一注册图像316-1的坐标;
·串联第一注册图像316-1和变换后的第二注册图像316-2的x向量、y向量和z向量;
·定义新的网状网格,其受第一注册图像316-1和变换后的第二注册图像316-2的最大值和最小值限制;
·在新的网状网格上插值z向量;以及
·生成拼接的注册图像,如图3中所图示。
当用户在UDFPS活动区域206上敲击他们的拇指时,智能电话100-1可以显示与用户触摸相关的拼接的注册图像(例如,302)。另外,智能电话100-1可以显示视觉触摸指令310以在注册过程期间在下一次拇指敲击之前引导用户。因此,用户可以可视化他们的拇指的哪个部分已经被成功注册以及他们的拇指的哪个部分需要被注册,从而使得他们能够轻松地并且用更少的拇指敲击来完成指纹注册过程。
图3-2图示了智能电话100-1在注册过程期间利用视觉触摸复制本316-3(图示为实心黑色区域)和视觉触摸指令(例如,310)的示例环境300-2。视觉触摸复制本可以是两个或更多个注册图像共有的拇指、手指或手掌的一部分的图像。与图3-1一样,当用户在显示屏110上在UDFPS活动区域206(图3中未图示)之上敲击他们的拇指时,图3的智能电话100-1通过区分显示屏110的具有触摸信号的像素(例如,214)与不具有触摸信号的像素(例如,216)来创建用户触摸302的用户触摸图312。智能电话100-1利用第一注册图像316-1和第二注册图像316-2来创建拼接的注册图像。智能电话100-1可以显示视觉触摸复制本316-3以更好地引导用户在注册过程期间使用更少的拇指敲击。注意,在注册过程期间,重复触摸与拇指敲击次数之间存在正相关关系。另外,如图3-1中一样,智能电话100-1可以使用扬声器208、显示消息210、智能电话100-1的***设备(例如,无线耳机)、视觉触摸指令310或其组合来指导用户如何敲击他们的拇指。
图4图示了具有大于用户触摸402的UDFPS活动区域406的智能电话100-1的示例环境400。类似于图2-1到图3-2,智能电话100-1通过区分显示屏110的具有触摸信号的像素(例如,414)与没有触摸信号的像素(例如,416)来创建用户触摸402的用户触摸图412。基于用户触摸图412,智能电话100-1确定用户触摸质心418。然后智能电话100-1能够将用户触摸质心418与UDFPS活动区域406相关。作为响应,智能电话100-1能够将用户触摸402与指纹传感器112(例如,UDFPS活动区域406)搭配。
智能电话100-1还可以使用扬声器208、显示消息210、智能电话100-1的***设备(例如,无线耳机)或其组合来指导用户按压并保持住他们的拇指。智能电话100-1可以将用户触摸图412划分为“M”个块,其中滑动距离为一(1)个像素。“M”个块中的每一个可以是“NxN”像素(例如,NxN块420)和/或“NxP”像素,其中“N”和“P”是不同的整数并且大于一(1)。为简单起见,图4图示了六(6)个具有“NxN”像素的等同块,其中M=6。然而,“M”能够是大于一(1)的任何整数并且块可以具有不同大小(例如,“NxN”像素和/或“NxP”像素)。鉴于UDFPS活动区域406大于用户触摸402,智能电话100-1可以在单个用户触摸(例如,402)之后通过捕获和注册“M”个块中的每一个来完成注册过程。
图5图示了智能电话100-1使用指纹脊的图案来确定用户触摸与至少一个指纹传感器112的搭配的示例环境500。指纹脊能够基于五(5)个主要图案被分类:左箕形502、右箕形504、斗形506、弓形508和帐篷弓形510。左箕形502是这样的指纹脊,其从手指的左侧进入,形成曲线,并且然后从手指的左侧退出。类似地,右箕形504是这样的指纹脊,其从手指的右侧进入,形成曲线,并且然后在手指的右侧退出。斗形506是围绕中心点呈圆形的指纹脊。弓形508是这样的指纹脊,其从手指的一侧进入,在中心上升,形成弧形,并且然后从手指的另一侧退出。帐篷弓形510指纹脊类似于弓形508指纹脊,其中指纹的至少一个脊具有高曲率,形成帐篷状形状。应当理解,指纹脊也包含细节,如图6中所图示,并且智能电话100-1也可以在注册过程期间在一些方面中使用该细节。
假设指纹传感器112是侧面指纹传感器112-2(未图示)。智能电话100-1指导用户在注册过程期间使用侧面指纹传感器112-2来敲击他们的拇指。当在注册过程期间使用侧面指纹传感器112-2时,智能电话100-1不能利用显示屏110来创建用户触摸图或用户触摸热图。在没有用户触摸图或用户触摸热图的情况下,智能电话100-1无法确定用户触摸的质心。为此,智能电话100-1确定用户的拇指是否包括左箕形502、右箕形504、斗形506、弓形508或帐篷弓形510。代替左箕形502、右箕形504、斗形506、弓形508或帐篷弓形510的质心,智能电话100-1分别使用区别特征502-1、504-1、506-1、508-1和510-1。如图5中所图示,左箕形502、右箕形504、斗形506、弓形508或帐篷弓形510分别围绕区别特征502-1、504-1、506-1、508-1和510-1布置。在不确定用户触摸的质心的情况下,智能电话100-1可以使用区别特征502-1、504-1、506-1、508-1和510-1来在注册过程期间引导用户。
例如,假设用户的拇指包括斗形506。当用户最初注册他们的指纹的一部分506-2时,智能电话100-1可能无法确定用户的拇指是否包括斗形506-2、右箕形504-2或左箕形502-2,因为部分502-2、504-2和506-2可能看起来是左箕形502、右箕形504或斗形506的一部分。在图5中,注意到部分502-2、504-2和506-2具有相似的指纹脊的取向。然而,当用户在第二次拇指敲击之后注册了他们的拇指的不同部分时,智能电话100-1能够更有把握地确定用户的拇指是否包括斗形506。此外,智能电话100-1可以利用机器学习模型来确定用户的指纹的图案。机器学习模型可以是支持向量机、递归神经网络、卷积神经网络、反卷积神经网络、密集神经网络、生成对抗网络、启发式或其组合。机器学习模型的输入是由指纹传感器112(例如,侧面指纹传感器112-2)捕获的用户的注册的指纹图像。机器学习模型的输出是将指纹脊分类为左箕形502、右箕形504、斗形506、弓形508或帐篷弓形510。鉴于机器学习能够用于训练模型的相当大的计算能力,模型训练能够在云、服务器或其他有能力的计算设备或***上执行。能够将周期性模型更新发送到计算设备100(例如,智能电话100-1),从而即使计算设备100本身不具有更新模型的资源,也允许计算设备100执行机器学习模型。
图6图示了可以在注册过程期间使用的细节610至630的示例。细节610到630是指纹脊的小(小于图案的)特征。细节的示例是脊末端610、分叉612、短脊614、点616、桥618、断裂620、支线622、岛624、双分叉626、三角点628、三分叉630、湖或脊围护结构(未图示)、核心(未图示)等。除了图5的图案之外,计算设备100还使用细节(例如,610到630),从而使得计算设备100能够进一步细化和确定图案(例如,502、504、506、506、508和510)的区别特征(例如,502-1、504-1、506-1、508-1、和510-1)。
示例方法
图7图示了使得用户能够完成生物识别数据注册过程的计算机实现的方法700。该计算机实现的方法700在阶段702到710中被组织并且利用图1到图6中描述的装置、方法和技术。阶段702到710可以以不同的顺序或在各种时间处执行,这取决于生物识别数据(例如,图案、细节)的注册过程的确切实施方式。
在阶段702处,计算设备100(例如,智能电话100-1)在计算设备100(例如,智能电话100-1)的显示屏(例如,110)上创建用户触摸(例如,202)的用户触摸图(例如,212)。该用户触摸使得能够感测用户皮肤(例如,拇指、手指、手掌)的生物识别数据(例如,指纹)。智能电话100-1可以通过在显示屏(例如,110)上区分具有触摸信号的像素(例如,214)与不具有触摸信号的像素(例如,216)来创建用户触摸图。
在阶段704处,计算设备100确定用户触摸的近似质心(例如,218)。用户触摸的近似质心是用户触摸的算术平均位置。例如,在智能电话100-1创建用户触摸图之后,智能电话可以使用算法来确定用户触摸图的近似质心。作为用户触摸的近似质心的替代方案或附加方案,智能电话100-1可以使用指纹脊的图案(例如,左箕形502、右箕形504、斗形506、弓形508和帐篷弓形510)的区别特征(例如,502-1、504-1、506-1、508-1和510-1)。
在阶段706处,计算设备100将用户触摸的近似质心与计算设备100的指纹传感器112(例如UDFPS 112-1、侧面指纹传感器112-2)的位置相关。应当理解,指纹传感器112相对于计算设备100是固定的。因此,在阶段708处,计算设备100将用户触摸(例如,218)与指纹传感器112的位置搭配,从而使得计算设备100能够保持跟踪与完整指纹相关的指纹的一部分。
因此,在阶段710处,计算设备100能够在指纹注册过程期间引导用户。例如,计算设备100可以使用扬声器208、显示消息210、计算设备100的***设备(例如,无线耳机)、视觉触摸指令310或它们的组合来指导用户如何敲击他们的拇指。计算设备100的指令可以包括诸如“向右敲击”、“向左敲击”、“向上敲击”、“向下敲击”等消息。计算设备100使得用户能够轻松地并且用更少的拇指敲击来完成注册过程。因此,计算机实现的方法700通过具有良好用户体验的注册过程实现生物识别安全性。
以下是所描述的使得用户能够完成生物识别数据的注册过程的装置、方法和技术的附加示例。
示例1:一种计算机实现的方法(700),包括:在计算设备(100)的显示屏(110)上创建用户触摸(202)的用户触摸图(212),该用户触摸(202)使得能够感测用户的皮肤的生物识别数据(502、610);确定用户触摸(202)的近似质心(218),该近似质心(218)包括用户触摸(202)的算术平均位置;将用户触摸(202)的质心(218)与计算设备(100)的至少一个指纹传感器(112)的位置相关;响应于该相关,将用户触摸(202)与至少一个指纹传感器(112)的位置搭配;以及响应于该搭配,在生物识别数据(502、610)的注册过程期间引导用户。
示例2:根据示例1的计算机实现的方法,其中:生物识别数据包括用户的皮肤的指纹数据,该指纹数据从相同指尖、拇指或手掌导出;并且该指纹数据包括:至少一个图案,其中该至少一个图案是左箕形、右箕形、斗形、弓形和帐篷弓形;以及至少一个细节,其中该至少一个细节是脊末端、分叉、短脊、点、桥、断裂、支线、岛、双分叉、三角点、三分叉、湖、脊或核心。
示例3:根据示例1或2的计算机实现的方法,其中:指纹传感器是光学显示下指纹传感器UDFPS;并且该UDFPS被嵌入显示屏下方。
示例4:根据前述示例中任一项的计算机实现的方法,其中:用户触摸大于UDFPS的活动区域,该UDFPS的活动区域捕获生物识别数据的注册图像,该注册图像包括:在第一次触摸之后捕获的第一注册图像;以及在第二次触摸之后捕获的第二注册图像。
示例5:根据前述示例中任一项的计算机实现的方法,其中,引导包括通过将显示消息显示在显示屏上来指导用户在UDFPS之上敲击他们的拇指、手指或手掌。
示例6:根据前述示例中任一项的计算机实现的方法,其中,引导包括通过将视觉元素显示在显示屏上来指导用户在UDFPS之上敲击他们的拇指、手指或手掌,该视觉元素包括正方形、矩形、圆形、椭圆形、菱形、五边形、六边形、七边形、八边形、靶形、十字形或其组合。
示例7:根据前述示例中任一项的计算机实现的方法,其中,引导包括在显示屏上显示:第一注册图像;第二注册图像;以及第一注册图像和第二注册图像的拼接。
示例8:根据前述示例中任一项的计算机实现的方法,其中,引导包括在显示屏上显示视觉触摸复制本,该视觉触摸复制本表示第一注册图像与第二注册图像之间的相同生物识别数据。
示例9:根据前述示例中任一项的计算机实现的方法,其中,引导包括通过使用计算设备的扬声器或计算设备的***设备发送声学消息来指导用户在UDFPS之上敲击他们的拇指、手指或手掌。
示例10:根据示例1至3的计算机实现的方法,其中,UDFPS的活动区域大于用户触摸,并且,响应于UDFPS的活动区域大于用户触摸,在单次用户触摸之后完成生物识别数据的注册过程,该完成通过将用户触摸图划分为至少两个块,该至少两个块中的每一个具有一个像素的滑动距离并且包括至少四个像素。
示例11:根据前述示例中任一项的计算机实现的方法,其中搭配使用至少一个图案的区别特征,并且该至少一个图案围绕区别特征布置。
示例12:一种计算设备(100),包括:至少一个指纹传感器(112);至少一个显示屏(110);至少一个处理器(104);以及至少一个计算机可读介质(106),在至少一个计算机可读介质上具有指令,该指令响应于由至少一个处理器执行,被配置为:在至少一个显示屏(110)上创建用户触摸(202)的用户触摸图(212),该用户触摸(202)使得能够感测用户的皮肤的生物识别数据(502、610);并且确定用户触摸(202)的近似质心(218),其中,该近似质心(218)包括用户触摸(202)的算术平均位置。
示例13:根据示例12的计算设备,其中,该指令还被配置为:将用户触摸(202)的质心(218)与至少一个指纹传感器(112)的位置相关;响应于用户触摸(202)的质心(218)与至少一个指纹传感器(112)的位置的相关,将用户触摸(202)与至少一个指纹传感器(112)的位置搭配;以及响应于用户触摸(202)与至少一个指纹传感器(112)的位置的搭配,在注册过程期间引导用户。
示例14:根据示例12或13的计算设备,其中:至少一个指纹传感器是光学显示下指纹传感器UDFPS;UDFPS被嵌入在至少一个显示屏下方;并且UDFPS包括被配置为捕获生物识别数据的注册图像的活动区域,该注册图像包括:在第一次触摸之后捕获的第一注册图像;以及在第二次触摸之后捕获的第二注册图像。
示例15:根据示例12、13或14的计算设备,其中,所述指令还被配置为在注册过程期间通过在显示屏上显示以下项来引导用户:显示消息;视觉元素,该视觉元素包括正方形、矩形、圆形、椭圆形、菱形、五边形、六边形、七边形、八边形、靶形、十字形或其组合;第一注册图像;第二注册图像;第一注册图像和第二注册图像的拼接;或者视觉触摸复制本,该视觉触摸复制本表示第一注册图像与第二注册图像之间的相同生物识别数据。
示例16:一种计算机可读介质,包括指令,该指令当由计算设备的处理器执行时,使处理设备执行示例1至11中任一项的方法。
结论
虽然在前面的描述中描述并且在附图中图示本公开的各个方面,但是应当理解,本公开不限于此,而是可以在所附权利要求的范围内以各种方式体现以实践。从前面的描述中,将显而易见的是,在不脱离由所附权利要求限定的本公开的精神和范围的情况下,可以进行各种改变。

Claims (15)

1.一种计算机实现的方法(700),包括:
在计算设备(100)的显示屏(110)上创建用户触摸(202)的用户触摸图(212),所述用户触摸(202)使得能够感测用户的皮肤的生物识别数据(502、610);
确定所述用户触摸(202)的近似质心(218),所述近似质心(218)包括所述用户触摸(202)的算术平均位置;
将所述用户触摸(202)的质心(218)与所述计算设备(100)的至少一个指纹传感器(112)的位置相关;
响应于所述相关,将所述用户触摸(202)与所述至少一个指纹传感器(112)的所述位置搭配;以及
响应于所述搭配,在所述生物识别数据(502、610)的注册过程期间引导所述用户。
2.根据权利要求1所述的计算机实现的方法,其中:
所述生物识别数据包括所述用户的皮肤的指纹数据,所述指纹数据从相同指尖、拇指或手掌导出;以及
所述指纹数据包括:
至少一个图案,其中所述至少一个图案是左箕形、右箕形、斗形、弓形或帐篷弓形;以及
至少一个细节,其中所述至少一个细节是脊末端、分叉、短脊、点、桥、断裂、支线、岛、双分叉、三角点、三分叉、湖、脊或核心。
3.根据权利要求1或2所述的计算机实现的方法,其中:
所述指纹传感器是光学显示下指纹传感器UDFPS;以及
所述UDFPS被嵌入所述显示屏下方。
4.根据前述权利要求中的任一项所述的计算机实现的方法,其中:
所述用户触摸大于所述UDFPS的活动区域,所述UDFPS的所述活动区域捕获所述生物识别数据的注册图像,所述注册图像包括:
在第一次触摸之后捕获的第一注册图像;以及
在第二次触摸之后捕获的第二注册图像。
5.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述引导包括通过将显示消息显示在所述显示屏上来指导所述用户在所述UDFPS之上敲击他们的拇指、手指或手掌。
6.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述引导包括通过将视觉元素显示在所述显示屏上来指导所述用户在所述UDFPS之上敲击他们的拇指、手指或手掌,所述视觉元素包括正方形、矩形、圆形、椭圆形、菱形、五边形、六边形、七边形、八边形、靶形、十字形或其组合。
7.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述引导包括在所述显示屏上显示:
第一注册图像;
第二注册图像;以及
所述第一注册图像和所述第二注册图像的拼接。
8.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述引导包括在所述显示屏上显示视觉触摸复制本,所述视觉触摸复制本表示第一注册图像与第二注册图像之间的相同生物识别数据。
9.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述引导包括通过使用所述计算设备的扬声器或所述计算设备的***设备发送声学消息来指导所述用户在所述UDFPS之上敲击他们的拇指、手指或手掌。
10.根据权利要求1至3所述的计算机实现的方法,其中,所述UDFPS的活动区域大于所述用户触摸,并且响应于所述UDFPS的所述活动区域大于所述用户触摸,在单次用户触摸之后完成所述生物识别数据的所述注册过程,所述完成通过将所述用户触摸图划分为至少两个块,所述至少两个块中的每一个具有一个像素的滑动距离并且包括至少四个像素。
11.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述搭配使用至少一个图案的区别特征,并且所述至少一个图案围绕所述区别特征布置。
12.一种计算设备(100),包括:
至少一个指纹传感器(112);
至少一个显示屏(110);
至少一个处理器(104);以及
至少一个计算机可读介质(106),在所述至少一个计算机可读介质上具有指令,所述指令响应于由所述至少一个处理器执行而被配置为:
在所述至少一个显示屏(110)上创建用户触摸(202)的用户触摸图(212),所述用户触摸(202)使得能够感测用户的皮肤的生物识别数据(502、610);以及
确定所述用户触摸(202)的近似质心(218),其中,所述近似质心(218)包括所述用户触摸(202)的算术平均位置。
13.根据权利要求12所述的计算设备,其中,所述指令还被配置为:
将所述用户触摸(202)的质心(218)与所述至少一个指纹传感器(112)的位置相关;
响应于所述用户触摸(202)的质心(218)与所述至少一个指纹传感器(112)的所述位置的相关,将所述用户触摸(202)与所述至少一个指纹传感器(112)的所述位置搭配;以及
响应于所述用户触摸(202)与所述至少一个指纹传感器(112)的所述位置的所述搭配,在注册过程期间引导所述用户。
14.根据权利要求12或13所述的计算设备,其中:
所述至少一个指纹传感器是光学显示下指纹传感器UDFPS;
所述UDFPS被嵌入在所述至少一个显示屏下方;以及
所述UDFPS包括被配置为捕获所述生物识别数据的注册图像的活动区域,所述注册图像包括:
在第一次触摸之后捕获的第一注册图像;以及
在第二次触摸之后捕获的第二注册图像。
15.根据权利要求12、13或14所述的计算设备,其中,所述指令还被配置为在所述注册过程期间通过在所述显示屏上显示以下项来引导所述用户:
显示消息;
视觉元素,所述视觉元素包括正方形、矩形、圆形、椭圆形、菱形、五边形、六边形、七边形、八边形、靶形、十字形或其组合;
所述第一注册图像;
所述第二注册图像;
所述第一注册图像和所述第二注册图像的拼接;或者
视觉触摸复制本,所述视觉触摸复制本表示所述第一注册图像与所述第二注册图像之间的相同生物识别数据。
CN202180073164.5A 2020-10-30 2021-04-26 使用用户触摸与指纹传感器的搭配进行指纹注册 Pending CN116529789A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063108113P 2020-10-30 2020-10-30
US63/108,113 2020-10-30
PCT/US2021/029153 WO2022093312A1 (en) 2020-10-30 2021-04-26 Fingerprint enrollment using collocation of a user's touch and a fingerprint sensor

Publications (1)

Publication Number Publication Date
CN116529789A true CN116529789A (zh) 2023-08-01

Family

ID=75919444

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180073164.5A Pending CN116529789A (zh) 2020-10-30 2021-04-26 使用用户触摸与指纹传感器的搭配进行指纹注册

Country Status (4)

Country Link
US (1) US20230419739A1 (zh)
EP (1) EP4222637A1 (zh)
CN (1) CN116529789A (zh)
WO (1) WO2022093312A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023229646A1 (en) * 2022-05-23 2023-11-30 Google Llc Using touch input data to improve fingerprint sensor performance

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149455A (ja) * 2003-10-21 2005-06-09 Sharp Corp 画像照合装置、画像照合方法、画像照合プログラムおよび画像照合プログラムを記録したコンピュータ読取り可能な記録媒体
US9715616B2 (en) * 2012-06-29 2017-07-25 Apple Inc. Fingerprint sensing and enrollment
TWI530884B (zh) * 2013-11-12 2016-04-21 茂丞科技股份有限公司 具有小寬幅生物感測器之分段式導引功能的電子設備及其導引方法
KR102185166B1 (ko) * 2014-02-21 2020-12-01 삼성전자주식회사 생체 정보를 인식하기 위한 전자 장치 및 방법
SE1451336A1 (en) * 2014-11-07 2016-05-08 Fingerprint Cards Ab Enrolling templates for biometric authentication
US9996728B2 (en) * 2015-01-23 2018-06-12 Samsung Electronics Co., Ltd. System and method for partial fingerprint enrollment and matching using small size fingerprint sensors
KR102338864B1 (ko) * 2015-02-12 2021-12-13 삼성전자주식회사 전자 장치 및 전자 장치에서의 지문 등록 방법
US10521642B2 (en) * 2015-04-23 2019-12-31 Samsung Electronics Co., Ltd. Fingerprint verification method and apparatus
US10600219B2 (en) * 2015-06-26 2020-03-24 Idex Asa Pattern mapping
EP3115932A1 (en) * 2015-07-07 2017-01-11 Idex Asa Image reconstruction
KR102578253B1 (ko) * 2016-10-21 2023-09-12 삼성전자 주식회사 전자 장치 및 전자 장치의 지문 정보 획득 방법
KR102330327B1 (ko) * 2016-11-29 2021-11-24 삼성전자주식회사 압력에 기초한 지문 인식 방법 및 장치
US10296772B2 (en) * 2017-06-22 2019-05-21 Synaptics Incorporated Biometric enrollment using a display
KR20200004701A (ko) * 2018-07-04 2020-01-14 삼성전자주식회사 지문 인식 방법 및 디바이스
JP6864120B2 (ja) * 2018-09-21 2021-04-21 シェンチェン グディックス テクノロジー カンパニー,リミテッド 指紋認識装置及び電子機器

Also Published As

Publication number Publication date
EP4222637A1 (en) 2023-08-09
US20230419739A1 (en) 2023-12-28
WO2022093312A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
US10679037B2 (en) Method and apparatus for recognizing fingerprint
US11715325B2 (en) Fingerprint verification method and apparatus
US10339178B2 (en) Fingerprint recognition method and apparatus
US11138455B2 (en) Liveness test method and apparatus
US10198615B2 (en) Fingerprint enrollment method and apparatus
CN106326829B (zh) 检测虚假指纹的方法和设备以及识别指纹的方法和设备
JP2017533516A (ja) スティッチングおよび切断を用いる指紋認証
SE1451336A1 (en) Enrolling templates for biometric authentication
US20140121528A1 (en) Information processing apparatus, information processing method and program
JP5659777B2 (ja) 認証処理装置、認証処理方法、及びプログラム
KR20180098443A (ko) 지문 인식 장치 및 지문 인식 방법
JP6798793B2 (ja) 指紋認識方法及び装置
JP2018049569A (ja) 照合方法、照合装置、照合プログラム
Conti et al. Usability analysis of a novel biometric authentication approach for android-based mobile devices
CN116529789A (zh) 使用用户触摸与指纹传感器的搭配进行指纹注册
KR102447100B1 (ko) 지문 인증 방법 및 장치
JP2008046677A (ja) 生体情報読取装置、生体情報読取方法および生体情報読取プログラム
WO2021145285A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
JP7251619B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6926279B1 (ja) 学習装置、認識装置、学習方法、認識方法、プログラム、及び再帰型ニューラルネットワーク
WO2021162682A1 (en) Fingerprint sensors with reduced-illumination patterns
US20180157814A1 (en) Personal authentication method and apparatus based on recognition of fingertip gesture and identification of fake pattern
WO2015141007A1 (ja) 生体登録・認証システムおよび生体登録・認証方法
WO2021161375A1 (ja) 画像処理装置、画像処理方法、及び、記録媒体
US20230147716A1 (en) Image processing apparatus, image processing method, and recording medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination