CN105518715A - 活体检测方法及设备、计算机程序产品 - Google Patents

活体检测方法及设备、计算机程序产品 Download PDF

Info

Publication number
CN105518715A
CN105518715A CN201580000358.7A CN201580000358A CN105518715A CN 105518715 A CN105518715 A CN 105518715A CN 201580000358 A CN201580000358 A CN 201580000358A CN 105518715 A CN105518715 A CN 105518715A
Authority
CN
China
Prior art keywords
group
virtual objects
controlled device
display
subgroup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580000358.7A
Other languages
English (en)
Inventor
曹志敏
陈可卿
贾开
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Megvii Technology Co Ltd
Beijing Aperture Science and Technology Ltd
Original Assignee
Beijing Megvii Technology Co Ltd
Beijing Aperture Science and Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Megvii Technology Co Ltd, Beijing Aperture Science and Technology Ltd filed Critical Beijing Megvii Technology Co Ltd
Publication of CN105518715A publication Critical patent/CN105518715A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种活体检测方法及设备、以及计算机程序产品,属于人脸识别技术领域。所述活体检测方法,包括:从拍摄图像中检测人脸动作;基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。通过基于人脸动作控制虚拟对象显示并根据虚拟对象显示进行活体检测,可以有效地防范照片、视频、3D人脸模型或者面具等多种方式的攻击。

Description

活体检测方法及设备、计算机程序产品
技术领域
本公开涉及人脸识别技术领域,更具体地涉及一种活体检测方法及设备、以及计算机程序产品。
背景技术
当前,人脸识别***越来越多地应用于安防、金融、社保领域需要身份验证的线上场景,如线上银行开户、线上交易操作验证、无人值守的门禁***、线上社保办理、线上医保办理等。在这些高安全级别的应用领域,除了确保被验证者的人脸相似度符合数据库中存储的底库,首先需要验证被验证者是一个合法的生物活体。也就是说,人脸识别***需要能够防范攻击者使用照片、视频、3D人脸模型、或者面具等方式进行攻击。
目前市场上的技术产品中还没有公认成熟的活体验证方案,已有的技术要么依赖特殊的硬件设备(诸如,红外相机、深度相机),或者只能防范简单的静态照片攻击。
因此,需要既不依赖于特殊的硬件设备又能够有效地防范照片、视频、3D人脸模型或者面具等多种方式的攻击的人脸识别方式。
发明内容
鉴于上述问题而提出了本发明。本公开实施例提供了一种活体检测方法及设备、以及计算机程序产品,其能够基于人脸动作分阶段地控制虚拟对象显示,在虚拟对象中被控对象的至少一部分依次与虚拟对象中目标对象的至少一部分重合的情况下确定活体检测成功。
根据本公开实施例的一个方面,提供了一种活体检测方法,包括:从拍摄图像中检测人脸动作;基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
根据本公开实施例的另一方面,提供了一种活体检测设备,包括:人脸动作检测装置,被配置为从拍摄图像中检测人脸动作;虚拟对象控制装置,被配置为基于显示装置上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及活体判断装置,被配置为在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
根据本公开实施例的又一方面,提供了一种活体检测设备,包括:一个或多个处理器;一个或多个存储器;存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时执行以下步骤:从拍摄图像中检测人脸动作;基于显示装置上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
根据本公开实施例的再一方面,提供了一种计算机程序产品,包括一个或多个计算机可读存储介质,所述计算机可读存储介质上存储了计算机程序指令,所述计算机程序指令在被计算机运行时执行以下步骤:从拍摄图像中检测人脸动作;基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
根据本公开实施例的活体检测方法及设备、以及计算机程序产品,通过基于人脸动作控制虚拟对象显示并根据虚拟对象显示进行活体检测,可以不依赖于特殊的硬件设备来有效地防范照片、视频、3D人脸模型或者面具等多种方式的攻击,从而可以降低活体检测的成本。更进一步,通过识别人脸动作中的多个动作属性,可以控制虚拟对象的多个状态参量,可以使得所述虚拟对象在多个方面改变显示状态,例如使得所述虚拟对象执行复杂的预定动作、或者使得所述虚拟对象实现与初始显示效果有很大不同的显示效果。因此,可以进一步提高活体检测的准确度,并且进而可以提高应用根据本发明实施例的活体检测方法及设备、以及计算机程序产品的应用场景的安全性。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是用于实现本公开实施例的活体检测方法和设备的电子设备的示意性框图;
图2是根据本公开实施例的活体检测方法的示意性流程图;
图3是根据本公开实施例的活体检测方法中的人脸动作检测步骤的示意性流程图;
图4是根据本公开实施例的活体检测方法中的虚拟对象显示控制步骤的示意性流程图;
图5是根据本公开实施例的活体检测方法的另一示意性流程图;
图6、图7和图8是根据本公开第一实施例的在显示屏幕上显示的虚拟对象的示例;
图9是根据本公开实施例的活体检测方法的另一示意性流程图;
图10A和图10B是根据本公开第二实施例的在显示屏幕上显示的虚拟对象的示例;
图11是根据本公开实施例的活体检测设备的示意性框图;
图12是根据本公开实施例的另一活体检测设备的示意性框图;
图13是根据本公开实施例的活体检测设备中的人脸动作检测装置的示意性框图;以及
图14是根据本公开实施例的活体检测设备中的虚拟对象控制装置的示意性框图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。基于本公开中描述的本公开实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本公开的保护范围之内。
首先,参照图1来描述用于实现本公开实施例的活体检测方法和设备的示例性电子设备100。
如图1所示,电子设备100包括一个或多个处理器102、一个或多个存储装置104、输出装置108、以及图像采集装置110,这些组件通过总线***112和/或其它形式的连接机构(未示出)互连。应当注意,图1所示的电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,所述电子设备100也可以具有其他组件和结构。
所述处理器102可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述电子设备100中的其它组件以执行期望的功能。
所述存储装置104可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器102可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述图像采集装置110采集的图像数据等以及所述应用程序使用和/或产生的各种数据等。
所述输出装置108可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器和扬声器等中的一个或多个。
所述图像采集装置110可以拍摄预定取景范围的图像(例如照片、视频等),并且将所拍摄的图像存储在所述存储装置104中以供其它组件使用。
作为示例,用于实现本公开实施例的活体检测方法和设备的示例性电子设备100可以是布置在人脸图像采集端的集成了人脸图像采集装置的电子设备,诸如智能手机、平板电脑、个人计算机、基于人脸识别的身份识别设备等。例如,在安防应用领域,所述电子设备100可以部署在门禁***的图像采集端,并且可以例如为基于人脸识别的身份识别设备;在金融应用领域,可以部署在个人终端处,诸如智能电话、平板电脑、个人计算机等。
替代地,用于实现本公开实施例的活体检测方法和设备的示例性电子设备100的输出装置108和图像采集装置110可以部署在人脸图像采集端,而所述电子设备100中的处理器102可以部署在服务器端(或云端)。
下面,将参考图2来描述根据本公开实施例的人脸检测方法200。
在步骤S210,从拍摄图像中检测人脸动作。具体地,可以利用如图1所示的用于实现本公开实施例的人脸检测方法的电子设备100中的图像采集装置110或者独立于所述电子设备100的可以向所述电子设备100传送图像的其它图像采集装置,采集预定拍摄范围的灰度或彩色图像作为拍摄图像,所述拍摄图像可以是照片,也可以是视频中的一帧。所述图像采集设备可以是智能电话的摄像头、平板电脑的摄像头、个人计算机的摄像头、或者甚至可以是网络摄像头。
参考图3来描述步骤S210中的人脸动作检测。
在步骤S310,在所述拍摄图像中定位人脸关键点。作为示例,在该步骤中,可以首先确定所获取的图像中是否包含人脸,在检测到人脸的情况下定位出人脸关键点。
人脸关键点是脸部一些表征能力强的关键点,例如眼睛、眼角、眼睛中心、眉毛、颧骨最高点、鼻子、鼻尖、鼻翼、嘴巴、嘴角、以及脸部外轮廓点等。
作为示例,可以预先搜集大量的人脸图像,例如N张人脸图像,例如,N=10000,人工地在每张人脸图像中标注出预定的一系列人脸关键点,所述预定的一系列人脸关键点可以包括但不限于上述人脸关键点中的至少一部分。根据每张人脸图像中各人脸关键点附近的形状特征,基于参数形状模型,利用机器学习算法(如深度学习(DeepLearning),或者基于局部特征的回归算法(localfeature-basedregressionalgorithm))进行人脸关键点模型训练,从而得到人脸关键点模型。
具体地,在步骤S310中可以基于已经建立的人脸关键点模型来在拍摄图像中进行人脸检测和人脸关键点定位。例如,可以在拍摄图像中迭代地优化人脸关键点的位置,最后得到各人脸关键点的坐标位置。再例如,可以采用基于级联回归的方法在拍摄图像中定位人脸关键点。
人脸关键点的定位在人脸动作识别中起着重要的作用,然而应了解本公开不受具体采用的人脸关键点定位方法的限制。可以采用已有的人脸检测和人脸关键点定位算法来执行步骤S310中的人脸关键点定位。应了解,本公开实施例的活体检测方法100不限于利用已有的人脸检测和人脸关键点定位算法来进行人脸关键点定位,而且应涵盖利用将来开发的人脸检测和人脸关键点定位算法来进行人脸关键点定位。
在步骤S320,从所述拍摄图像中提取图像纹理信息。作为示例,可以根据所述拍摄图像中的像素信息,例如像素点的亮度信息,提取人脸的精细信息,例如眼球位置信息、口型信息、微表情信息等等。可以采用已有的图像纹理信息提取算法来执行步骤S320中的图像纹理信息提取。应了解,本公开实施例的活体检测方法100不限于利用已有的图像纹理信息提取算法来进行图像纹理信息提取,而且应涵盖利用将来开发的图像纹理信息提取算法来进行图像纹理信息提取。
应了解,步骤S310和S320可以择一执行,或者可以两者均执行。在步骤S310和S320两者均执行的情况下,它们可以同步执行,或者可以先后执行。
在步骤S330,基于所定位的人脸关键点以及/或者所述图像纹理信息,获得人脸动作属性的值。基于所定位的人脸关键点获得的所述人脸动作属性可以例如包括但不限于眼睛睁闭程度、嘴巴张闭程度、人脸俯仰程度、人脸偏转程度、人脸与摄像头的距离等。基于所述图像纹理信息获得的所述人脸动作属性可以包括但不限于眼球左右偏转程度、眼球上下偏转程度等等。
可选地,可以基于当前拍摄图像的前一拍摄图像以及当前拍摄图像,来获得人脸动作属性的值;或者,可以基于首个拍摄图像以及当前拍摄图像,来获得人脸动作属性的值;或者,可以基于当前拍摄图像以及当前拍摄图像的前几个拍摄图像,来获得人脸动作属性的值。
可选地,可以通过几何学习、机器学习、或图像处理的方式来基于所定位的人脸关键点获得人脸动作属性的值。例如,对于眼睛睁闭程度,可以在眼睛一圈定义多个关键点,例如8-20个关键点,例如,左眼的内眼角、外眼角、上眼皮中心点和下眼皮中心点,以及右眼的内眼角、外眼角、上眼皮中心点和下眼皮中心点。然后,通过在拍摄图像上定位这些关键点,确定这些关键点在拍摄图像上的坐标,计算左眼(右眼)的上眼皮中心和下眼皮中心之间的距离作为左眼(右眼)上下眼皮距离,计算左眼(右眼)的内眼角和外眼角之间的距离作为左眼(右眼)内外眼角距离,计算左眼(或右眼)上下眼皮距离与左眼(或右眼)内外眼角距离的比值作为第一距离比值X,根据该第一距离比值来确定眼睛睁闭程度Y。例如,可以设定第一距离比值X的阈值Xmax,并且规定:Y=X/Xmax,由此来确定眼睛睁闭程度Y。Y越大,则表示用户眼睛睁得越大。
返回图2,在步骤S220,基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象。
所述人脸动作属性可以包括至少一个动作属性,虚拟对象的状态参量可以包括至少一个状态参量。一个动作属性可以仅与一个状态参量对应,或者一个动作属性可以按照时间顺序依次与多个状态参量对应。
可选地,人脸动作属性与虚拟对象的状态参量之间的映射关系可以是预先设定的,或者可以是在开始执行根据本公开实施例的活体检测方法时随机确定的。根据本公开实施例的活体检测方法还可以包括:将所述人脸动作属性与虚拟对象的状态参量之间的映射关系提示给用户。
作为示例,可以根据所检测的人脸动作控制改变在显示屏幕上显示的虚拟对象的状态。根据所检测的人脸动作更新所述第一组虚拟对象中至少一个对象在显示屏幕上的显示。所述第一组虚拟对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。具体地,例如可以改变所述虚拟对象的运动状态、显示位置、尺寸大小、形状、颜色等。
可选地,可以根据所检测的人脸动作控制在显示屏幕上显示新的虚拟对象,即第二组虚拟对象。替代地,可以根据所述第一组虚拟对象中至少一部分虚拟对象的显示情况,控制在显示屏幕上显示新的虚拟对象,即第二组虚拟对象。所述第二组对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。
如前所述,所述虚拟对象可以包括第一组对象,在根据本公开实施例的活体检测方法开始执行时将所述第一组对象显示在显示屏幕上,可以通过第一组人脸动作属性来更新所述第一组对象中至少一个对象的显示。此外,所述虚拟对象还可以包括第二组对象,在根据本公开实施例的活体检测方法开始执行时所述第二组对象均未在显示屏幕上显示,可以通过与第一组人脸动作属性不同的第二组人脸动作属性来控制是否显示所述第二组对象中至少一个对象;或者可以根据所述第一组对象的显示情况来控制是否显示所述第二组对象中的至少一个对象。
具体地,所述第一组对象中至少一个对象的状态参量可以为显示位置、尺寸大小、形状、颜色、运动状态等,由此可以根据所述第一组人脸动作属性的值改变所述第一组对象中至少一个对象的运动状态、显示位置、尺寸大小、形状、颜色等。
可选地,所述第二组对象中至少一个对象每个的状态参量至少可以包括可视状态,并且还可以包括显示位置、尺寸大小、形状、颜色、运动状态等。可以根据所述第二组人脸动作属性的值或者所述第一组对象中至少一个对象的显示情况来控制是否显示所述第二组对象中至少一个对象,即所述第二组对象中至少一个对象是否处于可视状态,并且还可以根据所述第二组人脸动作属性的值和/或所述第一组人脸动作属性的值改变所述第二组对象中至少一个对象的运动状态、显示位置、尺寸大小、形状、颜色等。
参考图4来描述步骤S220的操作。所述人脸动作属性至少包括第一动作属性。
在步骤S410,根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值。
具体地,可以将一种人脸动作属性映射为虚拟对象的某一状态参量。例如,可以将用户眼睛睁闭程度或嘴巴张闭程度映射为虚拟对象的尺寸,并且根据用户眼睛睁闭程度或嘴巴张闭程度的值来更新虚拟对象的尺寸大小。再例如,可以将用户人脸俯仰程度映射为虚拟对象在显示屏幕上的垂直显示位置,并且根据用户人脸俯仰程度的值来更新虚拟对象在显示屏幕上的垂直显示位置。
可选地,可以计算当前拍摄图像中的嘴巴张闭程度和之前保存的首个拍摄图像中的嘴巴张闭程度的比值K1,并且将嘴巴张闭程度的比值K1映射为虚拟对象的尺寸S。具体地,可以采用一次函数S=a*K1+b来实现映射。此外,可选地,可以计算当前拍摄图像中人脸位置偏离初始居中位置的程度K2,并且将人脸位置映射为虚拟对象的位置W。具体地,可以采用一次函数W=c*K2+d来实现映射。
在步骤S420,按照更新后的所述被控对象的状态参量的值,在所述显示屏幕上显示所述被控对象。
可选地,在步骤S430,根据显示屏幕上当前显示的第一组虚拟对象的显示状态来更新所述第二组虚拟对象的状态参量属性的值。
可选地,所述人脸动作属性还可以包括第二动作属性。在步骤S430,根据第二动作属性的值来更新所述第二组虚拟对象的状态参量属性的值。
在步骤S440,按照更新后的所述第二组虚拟对象的状态参量的值,在所述显示屏幕上显示所述第二组虚拟对象。
步骤S430可以与步骤S410同时执行或先后执行,步骤S440可以与步骤S420同时执行或先后执行。
返回图2,在步骤S230,判断所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分是否依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合。
具体地,被控对象与目标对象重合可以包括:位置重合、位置重合且大小完全相同、位置重合且形状完全相同、位置重合且颜色完全相同。
在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,在步骤S240确定所述拍摄图像中的人脸为活体人脸。
根据本公开实施例的活体检测方法,通过将各种人脸动作参数作为虚拟对象的状态控制参量,根据人脸动作控制在显示屏幕上显示虚拟对象,可以根据所显示的被控对象是否与目标对象重合来进行活体检测。
下面,参考具体实施例来进一步描述根据本公开实施例的活体检测方法。
第一实施例
在该第一实施例中,所述虚拟对象包括第一组对象和第二组对象,当前显示在显示屏幕上的虚拟对象为第一组对象,当前未显示在显示屏幕上并且基于所述第一组对象中至少一个对象的显示情况而显示的虚拟对象为第二组对象。所述第一组对象包括至少两个对象,所述第二组对象包括至少一个对象。可选地,所述第一组对象和所述第二组对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。
在该实施例中,所述第一组对象中每个对象的第一状态参量为该对象的显示位置,并且所述第二组对象中每个对象的第一和第二状态参量分别为该对象的显示位置和可视状态。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象为目标对象。可以预先设定被控对象的数量,并且在预定数量的被控对象依次与目标对象重合时,确定检测到活体人脸。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象,所述第一子组对象为被控对象,所述第二子组对象和第三子组对象为目标对象。可以预先设定目标对象的数量,并且在被控对象依次与预定数量的目标对象重合时,确定检测到活体人脸。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象和第四子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象和第四子组对象为目标对象。
可以预先设定所述第一子组对象和第二子组对象的数量、以及所述第三子组对象和第四子组对象的数量。可以定义对象对,每个对象对包括一个被控对象和一个目标对象。可以预先定义对象对的数量,在预定数量的对象对中的被控对象与目标对象重合时,确定检测到活体人脸。
图5示出了根据本公开实施例的活体检测方法500的示例性流程图。
在步骤S510,初始化定时器。可以根据用户输入初始化定时器,或者可以在拍摄图像中检测到人脸时自动初始化定时器,或者可以在拍摄图像中检测到人脸预定动作时自动初始化定时器。此外,在初始化定时器后,将所述第一组对象中每个对象的至少一部分显示在显示屏幕上。
在步骤S520,实时地采集预定拍摄范围的图像(第一图像)作为拍摄图像。具体地,可以利用如图1所示的用于实现本公开实施例的人脸检测方法的电子设备100中的图像采集装置110或者独立于所述电子设备100的可以向所述电子设备100传送图像的其它图像采集装置,采集预定拍摄范围的灰度或彩色图像作为拍摄图像,所述拍摄图像可以是照片,也可以是视频中的一帧。
步骤S530与图2中的步骤S210对应,在此不再进行赘述。
在步骤S540,基于所检测的人脸动作控制所述当前显示的第一组虚拟对象中的被控对象的显示,并且基于所述第一组虚拟对象的显示状态显示第二组虚拟对象。
在步骤S550判断在预定定时时间内第一组虚拟对象和第二组虚拟对象中被控对象的至少一部分是否依次与第一组虚拟对象和第二组虚拟对象中目标对象的至少一部分重合,所述预定定时时间可以是预先确定的。具体地,所述步骤S550可以包括判断所述定时器是否超出预定定时时间以及所述被控对象是否依次与所述目标对象重合。可选地,在所述定时器超出所述预定定时时间时可以产生超时标志,在步骤S550中可以根据该超时标志判断定时器是否超出所述预定定时时间。
在步骤S550确定所述定时器超出所述预定定时时间并且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,在步骤S570确定没有检测到活体人脸。在步骤S550确定所述定时器未超出所述预定定时时间并且所述被控对象的至少一部分依次与所述目标对象的至少一部分重合的情况下,在步骤S560确定没有检测到活体人脸。在步骤S550确定所述定时器尚未超出所述预定定时时间并且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,返回步骤S520。
在返回步骤S520的情况下,实时地采集所述预定拍摄范围的图像(第二图像)作为拍摄图像,并且接下来执行步骤S530-S550。这里,为区分先后采集的所述预定拍摄范围的图像,将先采集的图像称为第一图像,将后采集的图像称为第二图像。应了解,第一图像和第二图像是相同取景范围内的图像,仅仅是采集的时间不同。如图5所示的步骤S520-S550重复执行,直至在步骤S560确定检测到活体人脸,或者直至在步骤S570确定没有检测到活体人脸。
图6示出了第一组对象和第二组对象的示例。在该示例中,预先设定被控对象的数量为1,预先设定目标对象的数量为3。
如图6所示,在初始状态下,所述第一组对象包括第一对象A和第二对象B1,所述第一对象A为被控对象,所述第二对象B1为背景对象,所述背景对象为目标对象。
此外,图6中还示出了第三对象B2和第四对象B3,所述第三对象B2和第四对象B3被依次显示为所述第二组对象并且均为背景对象,所述背景对象为目标对象。具体地,在第一对象A和第二对象B1重合时,显示第三对象B2作为所述第二组对象;在第一对象A和第三对象B2重合时,显示第四对象B3作为所述第二组对象。
所述人脸动作属性包括第一动作属性,所述第一对象A的状态参量包括所述第一对象A的第一状态参量,所述第二对象B1的状态参量包括所述第二对象B1的第一状态参量,所述第三对象B2的状态参量包括所述第三对象B2的第一状态参量,所述第四对象B3的状态参量包括所述第四对象B3的第一状态参量。
首先,根据所述第一动作属性的值更新所述第一对象A的第一状态参量的值,并且按照更新后的所述第一对象A的第一状态参量的值在所述显示屏幕上显示所述第一对象A。
在所述第一对象A与所述第二对象B1的显示位置重合之后,将所述第二组对象中第三对象B2的第二状态参量的值设置为表示可视的值,以显示所述第二组对象中的第三对象B2。可选地,可以继续根据所述第一动作属性的值更新所述第一对象A的第一状态参量的值,并且按照更新后的所述第一对象A的第一状态参量的值在所述显示屏幕上显示所述第一对象A。替换地,所述人脸动作属性还可以包括与所述第一动作属性不同的第二动作属性,可以继续根据所述第二动作属性的值更新所述第一对象A的第一状态参量的值,并且按照更新后的所述第一对象A的第一状态参量的值在所述显示屏幕上显示所述第一对象A。
在所述第一对象A与所述第三对象B2的显示位置重合之后,将所述第二组对象中第四对象B3的第二状态参量的值设置为表示可视的值,以显示所述第二组对象中的第四对象B3。可选地,可以继续根据所述第一或第二动作属性的值更新所述第一对象A的第一状态参量的值,并且按照更新后的所述第一对象A的第一状态参量的值在所述显示屏幕上显示所述第一对象A。替换地,所述人脸动作属性还可以包括与所述第一和第二动作属性不同的第三动作属性,可以继续根据所述第三动作属性的值更新所述第一对象A的第一状态参量的值,并且按照更新后的所述第一对象A的第一状态参量的值在所述显示屏幕上显示所述第一对象A。
在所述第一对象A依次与所述第二对象B1、第三对象B2和第四对象B3重合的情况下,确定活体检测成功。可选地,在预定定时时间内在所述第一对象A依次与所述第二对象B1、第三对象B2和第四对象B3重合的情况下,确定活体检测成功。
在应用图5所示的活体检测方法的情况下,在步骤S550判断所述定时器是否超出所述预定定时时间,并且判断所述第一对象A是否依次与第二对象B1、第三对象B2和第四对象B3重合。
在步骤S550确定所述定时器超出所述预定定时时间并且所述第一对象A与第二对象B1、第三对象B2和第四对象B3均未重合、或未与第三对象B2和第四对象B3均未重合、或者未与第四对象B3重合的情况下,在步骤S570确定没有检测到活体人脸。
在步骤S550确定所述定时器没有超出所述预定定时时间并且所述第一对象A依次与第二对象B1、第三对象B2和第四对象B3重合的情况下,在步骤S560确定检测到活体人脸。
另一方面,在步骤S550确定所述定时器没有超出所述预定定时时间并且所述第一对象A与第二对象B1、第三对象B2和第四对象B3均未重合、或未与第三对象B2和第四对象B3均未重合、或者未与第四对象B3重合的情况下,返回到步骤S520。
更具体地,在从步骤S550返回到步骤S520的情况下,还可以执行以下步骤:判断是否显示了所述第四对象,在确定尚未显示所述第四对象的情况下判断是否显示了所述第三对象,在确定尚未显示所述第三对象的情况下判断所述第一对象是否与所述第二对象重合,并且在确定所述第一对象与所述第二对象重合的情况下显示所述第三对象,然后再返回到步骤S520;在确定尚未显示所述第四对象但显示了所述第三对象的情况下判断所述第一对象是否与所述第三对象重合,并且在确定所述第一对象与所述第三对象重合的情况下显示所述第四对象,然后再返回到步骤S520。
可选地,可以设定目标对象的总数量并且在所述第一对象A依次与各个目标对象重合的情况下,或者在所述第一对象A依次与预定数量的目标对象重合的情况下,或者在所述第一对象A依次与预定数量的目标对象中的至少一部分重合的情况下,确定活体检测成功。
图7示出了第一组对象和第二组对象的另一示例。在该示例中,预先设定被控对象的数量为3,预先设定目标对象的数量为1。
如图7所示,在初始状态下,所述第一组对象包括第一对象A1和第二对象B,所述第一对象A1为被控对象,所述第二对象B为背景对象,所述背景对象为目标对象。
此外,图7中还示出了第三对象A2和第四对象A3,所述第三对象A2和第四对象A3被依次显示为所述第二组对象并且均为被控对象。具体地,在第一对象A1和第二对象B重合时,显示第三对象A2作为所述第二组对象;在第三对象A2和第二对象B重合时,显示第四对象A3作为所述第二组对象。
所述人脸动作属性包括第一动作属性,所述第一对象A1的状态参量包括所述第一对象A1的第一状态参量,所述第二对象B的状态参量包括所述第二对象B的第一状态参量,所述第三对象A2的状态参量包括所述第三对象A2的第一状态参量,所述第四对象A3的状态参量包括所述第四对象A3的第一状态参量。
首先,根据所述第一动作属性的值更新所述第一对象A1的第一状态参量的值,并且按照更新后的所述第一对象A1的第一状态参量的值在所述显示屏幕上显示所述第一对象A1。
在所述第一对象A1与所述第二对象B的显示位置重合之后,将所述第二组对象中第三对象A2的第二状态参量的值设置为表示可视的值,以显示所述第二组对象中的第三对象A2。可选地,可以继续根据所述第一动作属性的值更新所述第三对象A2的第一状态参量的值,并且按照更新后的所述第三对象A2的第一状态参量的值在所述显示屏幕上显示所述第三对象A2,而所述第一对象A1的显示位置保持不变。替换地,所述人脸动作属性还可以包括与所述第一动作属性不同的第二动作属性,可以继续根据所述第二动作属性的值更新所述第三对象A2的第一状态参量的值,并且按照更新后的所述第三对象A2的第一状态参量的值在所述显示屏幕上显示所述第三对象A2。
在所述第三对象A2与所述第二对象B的显示位置重合之后,将所述第二组对象中第四对象A3的第二状态参量的值设置为表示可视的值,以显示所述第二组对象中的第四对象A3。可选地,可以继续根据所述第一或第二动作属性的值更新所述第四对象A3的第一状态参量的值,并且按照更新后的所述第四对象A3的第一状态参量的值在所述显示屏幕上显示所述第四对象A3,而所述第一和第二对象A1和A2的显示位置保持不变。替换地,所述人脸动作属性还可以包括与所述第一和第二动作属性不同的第三动作属性,可以继续根据所述第三动作属性的值更新所述第四对象A3的第一状态参量的值,并且按照更新后的所述第四对象A3的第一状态参量的值在所述显示屏幕上显示所述第四对象A3。
在所述第一对象A1、所述第三对象A2以及所述第四对象A3依次与所述第二对象B重合的情况下,确定活体检测成功。可选地,在预定定时时间内在所述第一对象A1、所述第三对象A2以及所述第四对象A3依次与所述第二对象B的情况下,确定活体检测成功。
在应用图5所示的活体检测方法的情况下,在步骤S550判断所述定时器是否超出所述预定定时时间,并且判断所述第一对象A1、所述第三对象A2以及所述第四对象A3是否依次与所述第二对象B重合。
在步骤S550确定所述定时器超出所述预定定时时间并且所述第一对象A1未与所述第二对象B重合、或所述第三对象A2未与所述第二对象B重合、或所述第四对象A3未与所述第二对象B重合的情况下,在步骤S570确定没有检测到活体人脸。
在步骤S550确定所述定时器没有超出所述预定定时时间并且所述第一对象A1、所述第三对象A2以及所述第四对象A3依次与所述第二对象B重合的情况下,在步骤S560确定检测到活体人脸。
另一方面,在步骤S550确定所述定时器没有超出所述预定定时时间并且第一对象A1未与所述第二对象B重合、或所述第三对象A2未与所述第二对象B重合、或所述第四对象A3未与所述第二对象B重合的情况下,返回到步骤S520。
更具体地,在从步骤S550返回到步骤S520的情况下,还可以执行以下步骤:判断是否显示了所述第四对象,在确定尚未显示所述第四对象的情况下判断是否显示了所述第三对象,在确定尚未显示所述第三对象的情况下判断所述第一对象是否与所述第二对象重合,并且在确定所述第一对象与所述第二对象重合的情况下显示所述第三对象,然后再返回到步骤S520;在确定尚未显示所述第四对象但显示了所述第三对象的情况下判断所述第三对象是否与所述第二对象重合,并且在确定所述第三对象与所述第二对象重合的情况下显示所述第四对象,然后再返回到步骤S520。
可选地,可以设定被控对象的总数量并且在各个被控对象依次与目标对象重合的情况下,或者在预定数量的被控对象依次与目标对象重合的情况下,或者在预定数量的被控对象中的至少一部分依次与目标对象重合的情况下,确定活体检测成功。
图8示出了第一组对象和第二组对象的示例。在该示例中,预先设定被控对象的数量为3,预先设定目标对象的数量为3。
如图8所示,在初始状态下,所述第一组对象包括第一对象A1和第二对象B1,所述第一对象A1为被控对象,所述第二对象B1为背景对象,所述背景对象为目标对象。
此外,图8中还示出了第三对象A2和第四对象B2、以及第五对象A3和第六对象B3,所述第三对象A2和第五对象A3均为被控对象,所述第四对象B2和第六对象B3均为背景对象。具体地,在第一对象A1和第二对象B1重合时,显示第三对象A2和第四对象B2作为所述第二组对象;在第三对象A2和第四对象B2重合时,显示第五对象A3和第六对象B3作为所述第二组对象。
所述人脸动作属性包括第一动作属性。首先,根据所述第一动作属性的值更新所述第一对象A1的第一状态参量的值,并且按照更新后的所述第一对象A1的第一状态参量的值在所述显示屏幕上显示所述第一对象A1。
在所述第一对象A1与所述第二对象B1的显示位置重合之后,显示所述第二组对象中的第三对象A2和第四对象B2。可选地,可以继续根据所述第一动作属性的值更新所述第三对象A2的第一状态参量的值,并且按照更新后的所述第三对象A2的第一状态参量的值在所述显示屏幕上显示所述第三对象A2。替换地,所述人脸动作属性还可以包括与所述第一动作属性不同的第二动作属性,可以继续根据所述第二动作属性的值更新所述第三对象A2的第一状态参量的值,并且按照更新后的所述第三对象A2的第一状态参量的值在所述显示屏幕上显示所述第三对象A2。
在所述第三对象A2与所述第四对象B2的显示位置重合之后,显示所述第二组对象中的第五对象A3。可选地,可以继续根据所述第一或第二动作属性的值更新所述第五对象A3的第一状态参量的值,并且按照更新后的所述第五对象A3的第一状态参量的值在所述显示屏幕上显示所述第五对象A3。替换地,所述人脸动作属性还可以包括与所述第一和第二动作属性不同的第三动作属性,可以继续根据所述第三动作属性的值更新所述第五对象A3的第一状态参量的值,并且按照更新后的所述第五对象A3的第一状态参量的值在所述显示屏幕上显示所述第五对象A3。
在所述第一对象A1、所述第三对象A2以及所述第五对象A3依次与所述第二对象B1、第四对象B2以及第六对象B3重合的情况下,确定活体检测成功。可选地,在预定时间内在所述第一对象A1、所述第三对象A2以及所述第五对象A3依次与所述第二对象B1、第四对象B2以及第六对象B3重合的情况下,确定活体检测成功。
在应用图5所示的活体检测方法的情况下,在步骤S550判断所述定时器是否超出所述预定定时时间,并且判断第一对象A1、所述第三对象A2以及所述第五对象A3是否依次与所述第二对象B1、第四对象B2以及第六对象B3重合。
在步骤S550确定所述定时器超出所述预定定时时间并且所述第五对象A3未与第六对象B3重合、或所述第三对象A2未与第四对象B2重合、或所述第一对象A1未与第二对象B1重合的情况下,在步骤S570确定没有检测到活体人脸。
在步骤S550确定所述定时器没有超出所述预定定时时间并且所述第一对象A1、所述第三对象A2以及所述第五对象A3依次与所述第二对象B1、第四对象B2以及第六对象B3重合的情况下,在步骤S560确定检测到活体人脸。
另一方面,在步骤S550确定所述定时器没有超出所述预定定时时间并且所述第五对象A3未与第六对象B3重合、或所述第三对象A2未与第四对象B2重合、或所述第一对象A1未与第二对象B1重合的情况下,返回到步骤S520。
更具体地,在从步骤S550返回到步骤S520的情况下,还可以执行以下步骤:判断是否显示了所述第五和第六对象,在确定尚未显示所述第五和第六对象的情况下判断是否显示了所述第三和第四对象,在确定尚未显示所述第三和第四对象的情况下判断所述第一对象是否与所述第二对象重合,并且在确定所述第一对象与所述第二对象重合的情况下显示所述第三和第四对象,然后再返回到步骤S520;在确定尚未显示所述第五和第六对象但显示了所述第三和第四对象的情况下判断所述第三对象是否与所述第四对象重合,并且在确定所述第三对象是否与所述第四对象重合的情况下显示所述第五和第六对象,然后再返回到步骤S520。
可选地,可以设定所述第二组对象中包含的对象对的数量,其中对象A2和对象B2可以被视为一个对象对,并且在所述每个对象Ai依次与其对应的对象Bi重合的情况下,确定活体检测成功。可选地,在预定时间内在所述每个对象Ai依次与其对应的对象Bi重合的情况下,确定活体检测成功。
可选地,如图6-8所示,所述第一对象A和所述第二对象B的水平位置和垂直位置均不同,在此情况下,所述第一动作属性可以包括第一子动作属性和第二子动作属性,所述第一对象A的第一状态参量可以包括第一子状态参量和第二子状态参量,所述第一子状态参量的值为所述第一对象A的水平位置坐标,所述第二子状态参量的值为所述第一对象A的垂直位置坐标,可以根据所述第一子动作属性的值来更新所述第一对象A在所述显示屏幕上的水平位置坐标,并且根据所述第二子动作属性的值来更新所述第一对象A在所述显示屏幕上的垂直位置坐标。
例如,可以将所述第一动作属性定义为所述人脸在拍摄图像中的位置,并且根据人脸在拍摄图像中的位置坐标来更新所述第一对象A在所述显示屏幕上的显示位置。在此情况下,可以将所述第一子动作属性定义为人脸在拍摄图像中的水平位置并且将所述第二子动作属性定义为人脸在拍摄图像中的垂直位置,可以根据人脸在拍摄图像中的水平位置坐标来更新所述第一对象A在所述显示屏幕上的水平位置坐标,并且根据人脸在拍摄图像中的垂直位置坐标来更新所述第一对象A在所述显示屏幕上的垂直位置坐标。
再例如,可以将所述第一子动作属性定义为人脸偏转程度并且可以将所述第二子动作属性定义为人脸俯仰程度,然后可以根据人脸偏转程度的值来更新所述第一对象A在所述显示屏幕上的水平位置坐标,并且根据人脸俯仰程度的值来更新所述第一对象A在所述显示屏幕上的垂直位置坐标。
第二实施例
在该第二实施例中,所述虚拟对象包括第一组对象和第二组对象,当前显示在显示屏幕上的虚拟对象为第一组对象,当前未显示在显示屏幕上并且根据人脸动作显示的虚拟对象为第二组对象。所述第一组对象包括至少两个对象,所述第二组对象包括至少一个对象。可选地,所述第一组对象和所述第二组对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。
在该实施例中,所述第一组对象中每个对象的第一状态参量为该对象的显示位置,并且所述第二组对象中每个对象的第一和第二状态参量分别为该对象的显示位置和可视状态。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象为目标对象。可以预先设定被控对象的数量,并且在预定数量的被控对象依次与目标对象重合时,确定检测到活体人脸。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象,所述第一子组对象为被控对象,所述第二子组对象和第三子组对象为目标对象。可以预先设定目标对象的数量,并且在被控对象依次与预定数量的目标对象重合时,确定检测到活体人脸。
可选地,所述第一组对象包括第一子组对象和第二子组对象,所述第二组对象包括第三子组对象和第四子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象和第四子组对象为目标对象。
可以预先设定所述第一子组对象和第二子组对象的数量、以及所述第三子组对象和第四子组对象的数量。可以定义对象对,每个对象对包括一个被控对象和一个目标对象。可以预先定义对象对的数量,在预定数量的对象对中的被控对象与目标对象重合时,确定检测到活体人脸。
图9示出了根据本公开实施例的活体检测方法900的示例性流程图。
在步骤S910,初始化定时器。可以根据用户输入初始化定时器,或者可以在拍摄图像中检测到人脸时自动初始化定时器,或者可以在拍摄图像中检测到人脸预定动作时自动初始化定时器。此外,在初始化定时器后,将所述第一组对象中每个对象的至少一部分显示在显示屏幕上。
在步骤S920,实时地采集预定拍摄范围的图像(第一图像)作为拍摄图像。具体地,可以利用如图1所示的用于实现本公开实施例的人脸检测方法的电子设备100中的图像采集装置110或者独立于所述电子设备100的可以向所述电子设备100传送图像的其它图像采集装置,采集预定拍摄范围的灰度或彩色图像作为拍摄图像,所述拍摄图像可以是照片,也可以是视频中的一帧。
步骤S930与图5中的步骤S530对应,在此不再进行赘述。
在步骤S940,基于所检测的人脸动作中的第一动作属性的值控制所述当前显示的第一组虚拟对象中的被控对象的显示,并且基于所检测的人脸动作中的第二动作属性的值显示第二组虚拟对象。
在步骤S950判断在预定定时时间内第一组虚拟对象和第二组虚拟对象中被控对象的至少一部分是否依次与第一组虚拟对象和第二组虚拟对象中目标对象的至少一部分重合,所述预定定时时间可以是预先确定的。具体地,所述步骤S950可以包括判断所述定时器是否超出预定定时时间以及所述被控对象的至少一部分是否依次与所述目标对象的至少一部分重合。可选地,在所述定时器超出所述预定定时时间时可以产生超时标志,在步骤S950中可以根据该超时标志判断定时器是否超出所述预定定时时间。
在步骤S950确定所述定时器超出所述预定定时时间并且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,在步骤S970确定没有检测到活体人脸。在步骤S950确定所述定时器未超出所述预定定时时间并且所述被控对象的至少一部分依次与所述目标对象的至少一部分重合的情况下,在步骤S960确定没有检测到活体人脸。在步骤S950确定所述定时器尚未超出所述预定定时时间并且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,返回步骤S920。
在返回步骤S920的情况下,实时地采集所述预定拍摄范围的图像(第二图像)作为拍摄图像,并且接下来执行步骤S930-S950。这里,为区分先后采集的所述预定拍摄范围的图像,将先采集的图像称为第一图像,将后采集的图像称为第二图像。应了解,第一图像和第二图像是相同取景范围内的图像,仅仅是采集的时间不同。如图9所示的步骤S920-S950重复执行,直至在步骤S960确定检测到活体人脸,或者直至在步骤S970确定没有检测到活体人脸。
图10A示出了第一组对象的示例。在该示例中,预先设定被控对象的数量为2,预先设定目标对象的数量为1。
如图10A所示,在初始状态下,所述第一组对象包括第一对象A1和第二对象B,所述第一对象A1为被控对象,所述第二对象B为背景对象,所述背景对象为目标对象。在图10A中未示出第二组对象,所述第二组对象包括第三对象A2,第三对象A2为被控对象。所述第一对象A1、所述第三对象A2、以及/或者所述目标对象B的显示位置是随机确定的。
具体地,根据第一动作属性的值更新所述第一对象A1的显示位置坐标,根据第二动作属性的值更新所述第三对象A2的可视状态值,例如,可视状态值为0指示不可视,即不显示所述第二对象;可视状态值为1指示可视,即显示所述第二对象。可选地,在所述第三对象A2的显示位置与所述第二对象B的显示位置重合的情况下,确定检测到活体人脸。替代地,在所述第一对象A1和第三对象A2的显示位置与所述目标对象B的显示位置重合的情况下,确定检测到活体人脸。
具体地,初始显示所述第一对象A1并且不显示所述第三对象A2,根据所述第一动作属性改变所述第一对象A1的显示位置,根据所述第二动作属性改变所述第二对象的可视状态,并且根据所述第二动作属性值发生改变时所述第一对象A1的显示位置确定所述第三对象A2的显示位置。例如,所述第三对象A2的显示位置与所述第二动作属性值发生改变时所述第一对象A1的显示位置相同,在所述第三对象A2的显示位置与所述目标对象B的显示位置重合的情况下,确定活体检测成功。
针对图10A所示的示例,在活体检测中,仅在以下场景下才确定活体检测成功,即:根据所述第一动作属性改变所述第一对象A1的显示位置,将所述第一对象A1移动到所述目标对象B处,然后在所述第一对象A1位于所述目标对象B处时检测到所述第二动作属性的改变,并据此在所述目标对象B处显示所述第三对象A2。具体地,例如所述第一对象A1为瞄准器,所述第二对象B为靶心,所述第三对象A2为子弹。
在应用图9所示的活体检测方法的情况下,在步骤S950判断所述定时器是否超出所述预定定时时间,并且判断所述第三对象A2是否与所述第二对象B重合。
在步骤S950确定所述定时器超出所述预定定时时间并且所述第三对象A2尚未显示、或所述第三对象A2已经显示但未与第二对象B重合的情况下,在步骤S970确定没有检测到活体人脸。
在步骤S950确定所述定时器没有超出所述预定定时时间并且所述第三对象A2与所述第二对象B重合的情况下,在步骤S960确定检测到活体人脸。
另一方面,在步骤S950确定所述定时器没有超出所述预定定时时间并且所述第三对象A2尚未显示的情况下,返回到步骤S920。
图10B示出了第一组对象和第二组对象的另一示例。在该示例中,预先设定被控对象的数量为2,预先设定目标对象的数量为2。
如图10B所示,在初始状态下,所述第一组对象包括第一对象A1和第二对象B1,所述第一对象A1为被控对象,所述第二对象B1为背景对象,所述背景对象为目标对象。
此外,图10B中还示出了第三对象A2和第四对象B2,所述第三对象A2为被控对象,所述第四对象B2为背景对象。具体地,在第一对象A1和第二对象B1重合时,显示第三对象A2和第四对象B2作为所述第二组对象。
所述第一对象A1、第二对象B1、第三对象A2和第四对象B2中至少一个的状态参量的值可以是随机确定的。例如,所述第一对象A1、第二对象B1、第三对象A2和第四对象B2的显示位置是随机确定的。
所述人脸动作属性包括第一动作属性和第二动作属性。根据所述第一动作属性的值更新所述第一对象A1的显示位置坐标,根据所述第二动作属性的值更新所述第三和第四对象的可视状态值,例如,可视状态值为0指示不可视,即不显示所述第三和第四对象;可视状态值为1指示可视,即显示所述第三和第四对象。
此外,还可以根据所述第一动作属性的值更新所述第三对象的显示位置坐标。可选地,所述人脸动作属性还包括与所述第一动作属性不同的第三动作属性,根据所述第三动作属性的值更新所述第三对象的显示位置坐标。
具体地,初始显示所述第一对象A1和第二对象B1但不显示所述第三对象A2和第四对象B2,根据所述第一动作属性改变所述第一对象A1的显示位置,根据所述第二动作属性改变所述第二对象的可视状态。可以根据所述第二动作属性值发生改变时所述第一对象A1的显示位置确定所述第三对象A2的初始显示位置,或者可以随机地确定所述第三对象A2的初始显示位置。在该示例中,仅在以下场景下才确定活体检测成功,即:根据所述第一动作属性改变所述第一对象A1的显示位置,将所述第一对象A1移动到所述第二对象B1处,然后在所述第一对象A1位于所述第二对象B1处时检测到所述第二动作属性的改变,并据此在随机位置或者根据所述第二对象B1的显示位置所确定的显示位置处显示所述第三对象A2,并随机地显示所述第四对象B2,然后根据所述第一动作属性或与第一动作属性不同的第三动作属性改变所述第三对象A3的显示位置,直至将所述第三对象A2移动到所述第四对象B2处。
如前所述,所述第一动作属性可以包括第一子动作属性和第二子动作属性,所述第一对象A1的第一状态参量可以包括第一子状态参量和第二子状态参量,所述第一对象A1的所述第一子状态参量的值和所述第二子状态参量的值分别为所述第一对象A的水平位置坐标和垂直位置坐标,可以根据所述第一子动作属性的值和所述第二子动作属性的值来分别更新所述第一对象A在所述显示屏幕上的水平位置坐标和垂直位置坐标。
此外,所述第三动作属性也可以包括第三子动作属性和第四子动作属性,所述第二对象A2的第一状态参量可以包括第一子状态参量和第二子状态参量,所述第二对象A2的第一子状态参量的值和第二子状态参量的值分别为所述第二对象A2的水平位置坐标和垂直位置坐标,可以根据所述第三子动作属性的值和所述第四子动作属性的值来分别更新所述第二对象A2在所述显示屏幕上的水平位置坐标和垂直位置坐标。
例如,可以将所述第一子动作属性和第二子动作属性分别定义为人脸偏转程度和人脸俯仰程度,或者可以将所述第三子动作属性和第四子动作属性分别定义为眼睛左右转动程度和眼睛上下转动程度。
上面已经在第一到第二实施例中描述了根据本公开实施例的活体检测方法的具体实现方式,应了解,可以根据需要组合第一到第二实施例中的各种具体操作。
接下来,将参考图11和图12来描述根据本公开实施例的活体检测设备。所述活体检测设备可以是集成了人脸图像采集装置的电子设备,诸如智能手机、平板电脑、个人计算机、基于人脸识别的身份识别设备等。替代地,所述活体检测设备还可以包括分离的人脸图像采集装置和检测处理装置,所述检测处理装置可以从所述人脸图像采集装置接收拍摄图像,并且依据所接收的拍摄图像进行活体检测。所述检测处理装置可以为服务器、智能手机、平板电脑、个人计算机、基于人脸识别的身份识别设备等。
由于该活体检测设备执行各个操作的细节与上文中针对图2-4描述的活体检测方法的细节基本相同,因此为了避免重复,在下文中仅对所述活体检测设备进行简要的描述,而省略对相同细节的描述。
如图11所示,根据本公开实施例的活体检测设备1100包括人脸动作检测装置1110、虚拟对象控制装置1120、以及活体判断装置1130。人脸动作检测装置1110、虚拟对象控制装置1120、以及活体判断装置1130可以由图1所示的处理器102实现。
如图12所示,根据本公开实施例的活体检测设备1200包括图像采集装置1240、人脸动作检测装置1110、虚拟对象控制装置1120、活体判断装置1130、显示装置1250以及存储装置1260。图像采集装置1240可以由图1所示的图像采集装置110实现,人脸动作检测装置1110、虚拟对象控制装置1120、以及活体判断装置1130可以由图1所示的处理器102实现,显示装置1250可以由图1所示的输出装置108实现,存储装置1260可以由图1所示的存储装置104实现。
可以利用活体检测设备1200中的图像采集装置1240或者独立于所述活体检测设备1100或1200的可以向所述活体检测设备1100或1200传送图像的其它图像采集装置,采集预定拍摄范围的灰度或彩色图像作为拍摄图像,所述拍摄图像可以是照片,也可以是视频中的一帧。所述图像采集设备可以是智能电话的摄像头、平板电脑的摄像头、个人计算机的摄像头、或者甚至可以是网络摄像头。
人脸动作检测装置1110被配置为从拍摄图像中检测人脸动作。
如图13所示,人脸动作检测装置1110可以包括关键点定位装置1310、纹理信息提取装置1320、以及动作属性确定装置1330。
所述关键点定位装置1310被配置为在所述拍摄图像中定位人脸关键点。作为示例,所述关键点定位装置1310可以首先确定所获取的图像中是否包含人脸,在检测到人脸的情况下定位出人脸关键点。所述关键点定位装置1310操作的细节与步骤S310中描述的细节相同,在此不再赘述。
所述纹理信息提取装置1320被配置为从所述拍摄图像中提取图像纹理信息。作为示例,所述纹理信息提取装置1320可以根据所述拍摄图像中的像素信息,例如像素点的亮度信息,提取人脸的精细信息,例如眼球位置信息、口型信息、微表情信息等等。
所述动作属性确定装置1330基于所定位的人脸关键点以及/或者所述图像纹理信息,获得人脸动作属性的值。基于所定位的人脸关键点获得的所述人脸动作属性可以例如包括但不限于眼睛睁闭程度、嘴巴张闭程度、人脸俯仰程度、人脸偏转程度、人脸与摄像头的距离等。基于所述图像纹理信息获得的所述人脸动作属性可以包括但不限于眼球左右偏转程度、眼球上下偏转程度等等。所述动作属性确定装置1330操作的细节与步骤S330中描述的细节相同,在此不再赘述。
所述虚拟对象控制装置1120被配置为基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象在所述显示装置1250上的显示并且控制在所述显示装置1250上显示第二组虚拟对象
作为示例,可以根据所检测的人脸动作控制改变在显示屏幕上显示的虚拟对象的状态。根据所检测的人脸动作更新所述第一组虚拟对象中至少一个对象在显示屏幕上的显示。所述第一组虚拟对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。具体地,例如可以改变所述虚拟对象的运动状态、显示位置、尺寸大小、形状、颜色等。
可选地,可以根据所检测的人脸动作控制在显示屏幕上显示新的虚拟对象,即第二组虚拟对象。替代地,可以根据所述第一组虚拟对象的显示情况,控制在显示屏幕上显示新的虚拟对象,即第二组虚拟对象。所述第二组对象的所述至少一个对象中至少一部分对象的初始显示位置和/或初始显示形态是预先确定的或随机确定的。
所述第二组虚拟对象的状态参量属性至少可以包括可视状态。可以根据所述第一组人脸动作属性的值控制所述第一组对象中至少一个对象的显示,并且可以根据所述第二组人脸动作属性的值或者所述第一组对象中至少一个对象的显示情况来控制是否显示所述第二组对象中至少一个对象。
如图14所示,所述虚拟对象控制装置1120可以包括人脸动作映射装置1410、以及虚拟对象呈现装置1420。
可选地,所述人脸动作属性包括第一动作属性。在此情况下,所述人脸动作映射装置1410根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值,并且还可以根据显示屏幕上当前显示的第一组虚拟对象的显示状态来更新所述第二组虚拟对象的状态参量属性的值。
可选地,所述人脸动作属性可以包括第一和第二动作属性。在此情况下,所述人脸动作映射装置1410可以根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值,并且还可可以根据第二动作属性的值来更新所述第二组虚拟对象的状态参量属性的值。
具体地,可以将一种人脸动作属性映射为虚拟对象的某一状态参量。例如,可以将用户眼睛睁闭程度或嘴巴张闭程度映射为虚拟对象的尺寸,并且根据用户眼睛睁闭程度或嘴巴张闭程度的值来更新虚拟对象的尺寸大小。再例如,可以将用户人脸俯仰程度映射为虚拟对象在显示屏幕上的垂直显示位置,并且根据用户人脸俯仰程度的值来更新虚拟对象在显示屏幕上的垂直显示位置。可选地,人脸动作属性与虚拟对象的状态参量之间的映射关系可以是预先设定的。
所述虚拟对象呈现装置1420按照更新后的所述被控对象的状态参量的值,在所述显示屏幕上显示所述被控对象。可选地,所述虚拟对象呈现装置1420还按照更新后的所述第二组虚拟对象的状态参量的值,在所述显示屏幕上显示所述第二组虚拟对象
所述活体判断装置1130被配置为判断所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
具体地,被控对象与目标对象重合可以包括:位置重合、位置重合且大小完全相同、位置重合且形状完全相同、位置重合且颜色完全相同。
所述人脸动作映射装置1410以及所述虚拟对象呈现装置1420可以执行上述第一到第二实施例中的各种操作,在此不再赘述。
此外,根据本公开实施例的活体检测装置1100和1200还可以包括定时器,用于对预定定时时间进行计时。所述定时器也可以由处理器102实现。可以根据用户输入初始化定时器,或者可以在拍摄图像中检测到人脸时自动初始化定时器,或者可以在拍摄图像中检测到人脸预定动作时自动初始化定时器。在此情况下,所述活体判断装置1130被配置为判断在所述预定定时时间内所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分是否依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合,并且在判断在所述预定定时时间内所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
所述存储装置1260用于存储所述拍摄图像。此外,所述存储装置1260还用于存储所述虚拟对象的状态参量及状态参量值。此外,所述存储装置1260还用于存储所述虚拟对象呈现装置1420所呈现的虚拟对象并且存储要在显示装置1250上显示的背景图像等。
此外,所述存储装置1260可以存储计算机程序指令,所述计算机程序指令在被所述处理器102运行时可以实现根据本公开实施例的活体检测方法,并且/或者可以实现根据本公开实施例的活体检测设备中的关键点定位装置1310、纹理信息提取装置1320、以及动作属性确定装置1330。
此外,根据本公开实施例,还提供了一种计算机程序产品,其包括计算机可读存储介质,在所述计算机可读存储介质上存储了计算机程序指令。所述计算机程序指令在被计算机运行时可以实现根据本公开实施例的活体检测方法,并且/或者可以实现根据本公开实施例的活体检测设备中的关键点定位装置、纹理信息提取装置、以及动作属性确定装置的全部或部分功能。
根据本公开实施例的活体检测方法及设备、以及计算机程序产品,通过基于人脸动作控制虚拟对象显示并根据虚拟对象显示进行活体检测,可以不依赖于特殊的硬件设备来有效地防范照片、视频、3D人脸模型或者面具等多种方式的攻击,从而可以降低活体检测的成本。更进一步,通过识别人脸动作中的多个动作属性,可以控制虚拟对象的多个状态参量,可以使得所述虚拟对象在多个方面改变显示状态,例如使得所述虚拟对象执行复杂的预定动作、或者使得所述虚拟对象实现与初始显示效果有很大不同的显示效果。因此,可以进一步提高活体检测的准确度,并且进而可以提高应用根据本发明实施例的活体检测方法及设备、以及计算机程序产品的应用场景的安全性。
所述计算机可读存储介质可以是一个或多个计算机可读存储介质的任意组合。所述计算机可读存储介质例如可以包括智能电话的存储卡、平板电脑的存储部件、个人计算机的硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、或者上述存储介质的任意组合。
在上面详细描述的本发明的示例实施例仅仅是说明性的,而不是限制性的。本领域技术人员应该理解,在不脱离本发明的原理和精神的情况下,可对这些实施例进行各种修改,组合或子组合,并且这样的修改应落入本发明的范围内。

Claims (20)

1.一种活体检测方法,包括:
从拍摄图像中检测人脸动作;
基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及
在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
2.如权利要求1所述的活体检测方法,还包括:
实时地采集预定拍摄范围的第一图像作为所述拍摄图像;
其中,所述活体检测方法还包括:在所检测的人脸动作为预定人脸动作且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,实时地采集所述预定拍摄范围的第二图像作为所述拍摄图像。
3.如权利要求1所述的活体检测方法,其中,从拍摄图像中检测人脸动作包括:
在所述拍摄图像中定位人脸关键点,以及/或者从所述拍摄图像中提取图像纹理信息;以及
基于所定位的人脸关键点和/或所提取的图像纹理信息,获得人脸动作属性的值。
4.如权利要求3所述的活体检测方法,其中,基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象包括:
根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值;
根据显示屏幕上当前显示的第一组虚拟对象的显示状态来更新所述第二组虚拟对象的状态参量属性的值,或者根据第二动作属性的值来更新所述第二组虚拟对象的状态参量属性的值;以及
按照更新后的所述被控对象的状态参量的值,在所述显示屏幕上显示所述被控对象,按照更新后的所述第二组虚拟对象的状态参量的值,在所述显示屏幕上显示所述第二组虚拟对象。
5.如权利要求3或4所述的活体检测方法,其中,所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象,其中,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象为目标对象;或者所述第一子组对象为被控对象,所述第二子组对象和第三子组对象为目标对象;或者
所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象和第四子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象和第四子组对象为目标对象。
6.如权利要求3或4所述的活体检测方法,其中,所述人脸动作属性包括以下至少一项:眼睛睁闭程度、嘴巴张闭程度、人脸俯仰程度、人脸偏转程度、人脸与摄像头的距离、眼球左右转动程度、眼球上下转动程度。
7.如权利要求3所述的活体检测方法,其中,所述第一组对象包括第一被控对象和第一目标对象,所述第二组对象包括第二目标对象,
其中,在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象不重合的情况下,根据所检测的人脸动作控制所述第一被控对象的显示位置;
在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象重合的情况下,显示所述第二目标对象,
在显示屏幕上显示第一被控对象和第二目标对象并且第一被控对象和第二目标对象不重合的情况下,根据所检测的人脸动作控制所述第一被控对象的显示位置;
在所述第一被控对象依序与所述第一目标对象和第二目标对象重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
8.如权利要求3所述的活体检测方法,其中,所述第一组对象包括第一被控对象和第一目标对象,所述第二组对象包括第二被控对象,
其中,在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象不重合的情况下,根据所检测的人脸动作控制所述第一被控对象的显示位置;
在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象重合的情况下,显示所述第二被控对象,
在显示屏幕上显示第二被控对象以及第一目标对象并且第二被控对象未与第一目标对象重合的情况下,根据所检测的人脸动作控制所述第二被控对象的显示位置;
在所述第一被控对象和第二被控对象依次与所述第一目标对象重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
9.如权利要求3所述的活体检测方法,其中,所述第一组对象包括第一被控对象和第一目标对象,所述第二组对象包括第二被控对象和第二目标对象,
其中,在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象不重合的情况下,根据所检测的人脸动作控制所述第一被控对象的显示位置;
在显示屏幕上显示第一被控对象和第一目标对象并且第一被控对象和第一目标对象重合的情况下,显示所述第二被控对象和第二目标对象;
在显示屏幕上显示第二被控对象和第二目标对象并且第二被控对象未与第二目标对象不重合的情况下,根据所检测的人脸动作控制所述第二被控对象的显示位置;
在所述第一被控对象与所述第一目标对象重合并且所述第二被控对象与所述第二目标对象重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
10.如权利要求3所述的活体检测方法,其中,所述第一组对象包括第一被控对象和第一目标对象,所述第二组对象包括第二被控对象,所述人脸动作属性包括第一动作属性和第二动作属性,
其中,在显示屏幕上显示第一被控对象和第一目标对象的情况下,根据第一动作属性的值控制所述第一被控对象的显示位置,并且根据第二动作属性的值控制显示所述第二被控对象,
在所述第一被控对象与所述第一目标对象重合并且所述第二被控对象与所述第一目标对象重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
11.如权利要求1所述的活体检测方法,其中,在预定定时时间内所述被控对象的至少一部分依次与所述目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
12.一种活体检测设备,包括:
一个或多个处理器;
一个或多个存储器;以及
存储在所述存储器中的计算机程序指令,在所述计算机程序指令被所述处理器运行时执行以下步骤:从拍摄图像中检测人脸动作;基于显示装置上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
13.如权利要求12所述的活体检测设备,还包括:
图像采集装置,用于实时地采集预定拍摄范围的第一图像作为所述拍摄图像;以及
所述显示装置,
其中,所述图像采集装置还在所检测的人脸动作为预定人脸动作且所述被控对象的至少一部分尚未依次与所述目标对象的至少一部分重合的情况下,实时地采集所述预定拍摄范围的第二图像作为所述拍摄图像。
14.如权利要求12所述的活体检测设备,其中,从拍摄图像中检测人脸动作包括:
在所述拍摄图像中定位人脸关键点,以及/或者从所述拍摄图像中提取图像纹理信息;以及
基于所定位的人脸关键点和/或所提取的图像纹理信息,获得人脸动作属性的值。
15.如权利要求14所述的活体检测设备,其中,基于显示装置上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象包括:
根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值;
根据显示装置上当前显示的第一组虚拟对象的显示状态来更新所述第二组虚拟对象的状态参量属性的值,或者根据第二动作属性的值来更新所述第二组虚拟对象的状态参量属性的值;以及
按照更新后的所述被控对象的状态参量的值,在所述显示装置上显示所述被控对象,按照更新后的所述第二组虚拟对象的状态参量的值,在所述显示装置上显示所述第二组虚拟对象。
16.如权利要求14或15所述的活体检测设备,其中,所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象,其中,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象为目标对象;或者所述第一子组对象为被控对象,所述第二子组对象和第三子组对象为目标对象;或者
所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象和第四子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象和第四子组对象为目标对象。
17.如权利要求12所述的活体检测设备,其中,在所述计算机程序指令被所述处理器运行时执行以下步骤:初始化定时器;
其中,在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下确定所述拍摄图像中的人脸为活体人脸包括:在所述定时器未超出预定定时时间且所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
18.一种计算机程序产品,包括一个或多个计算机可读存储介质,所述计算机可读存储介质上存储了计算机程序指令,所述计算机程序指令在被计算机运行时执行以下步骤:
从拍摄图像中检测人脸动作;
基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作,控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象;以及
在所述第一组虚拟对象和所述第二组虚拟对象中被控对象的至少一部分依次与所述第一组虚拟对象和所述第二组虚拟对象中目标对象的至少一部分重合的情况下,确定所述拍摄图像中的人脸为活体人脸。
19.如权利要求18所述的计算机程序产品,其中,基于显示屏幕上当前显示的第一组虚拟对象的显示状态以及所检测的人脸动作控制所述当前显示的第一组虚拟对象中的被控对象的显示并且控制显示第二组虚拟对象包括:
根据第一动作属性的值来更新所述第一组虚拟对象中的被控对象的状态参量的值;
根据显示屏幕上当前显示的第一组虚拟对象的显示状态来更新所述第二组虚拟对象的状态参量属性的值,或者根据第二动作属性的值来更新所述第二组虚拟对象的状态参量属性的值;以及
按照更新后的所述被控对象的状态参量的值,在所述显示屏幕上显示所述被控对象,按照更新后的所述第二组虚拟对象的状态参量的值,在所述显示屏幕上显示所述第二组虚拟对象。
20.如权利要求19所述的计算机程序产品,其中,所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象,其中,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象为目标对象;或者所述第一子组对象为被控对象,所述第二子组对象和第三子组对象为目标对象;或者
所述第一组虚拟对象包括第一子组对象和第二子组对象,所述第二组虚拟对象包括第三子组对象和第四子组对象,所述第一子组对象和第三子组对象为被控对象,所述第二子组对象和第四子组对象为目标对象。
CN201580000358.7A 2015-06-30 2015-06-30 活体检测方法及设备、计算机程序产品 Pending CN105518715A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2015/082828 WO2017000217A1 (zh) 2015-06-30 2015-06-30 活体检测方法及设备、计算机程序产品

Publications (1)

Publication Number Publication Date
CN105518715A true CN105518715A (zh) 2016-04-20

Family

ID=55725029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580000358.7A Pending CN105518715A (zh) 2015-06-30 2015-06-30 活体检测方法及设备、计算机程序产品

Country Status (2)

Country Link
CN (1) CN105518715A (zh)
WO (1) WO2017000217A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808115A (zh) * 2017-09-27 2018-03-16 联想(北京)有限公司 一种活体检测方法、装置及存储介质
CN111240482A (zh) * 2020-01-10 2020-06-05 北京字节跳动网络技术有限公司 一种特效展示方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171211A (zh) * 2018-01-19 2018-06-15 百度在线网络技术(北京)有限公司 活体检测方法和装置
CN111353842B (zh) * 2018-12-24 2024-06-28 阿里巴巴集团控股有限公司 推送信息的处理方法和***
CN116452703B (zh) * 2023-06-15 2023-10-27 深圳兔展智能科技有限公司 用户头像生成方法、装置、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159016A (zh) * 2007-11-26 2008-04-09 清华大学 一种基于人脸生理性运动的活体检测方法及***
CN201845368U (zh) * 2010-09-21 2011-05-25 北京海鑫智圣技术有限公司 具有活体检测功能的人脸指纹门禁
US20130188840A1 (en) * 2012-01-20 2013-07-25 Cyberlink Corp. Liveness detection system based on face behavior
CN103778360A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种基于动作分析的人脸解锁的方法和装置
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100592322C (zh) * 2008-01-04 2010-02-24 浙江大学 照片人脸与活体人脸的计算机自动鉴别方法
KR101660838B1 (ko) * 2009-04-01 2016-09-28 삼성전자주식회사 촬상장치 및 그 제어방법
CN103400122A (zh) * 2013-08-20 2013-11-20 江苏慧视软件科技有限公司 一种活体人脸的快速识别方法
CN103593598B (zh) * 2013-11-25 2016-09-21 上海骏聿数码科技有限公司 基于活体检测和人脸识别的用户在线认证方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101159016A (zh) * 2007-11-26 2008-04-09 清华大学 一种基于人脸生理性运动的活体检测方法及***
CN201845368U (zh) * 2010-09-21 2011-05-25 北京海鑫智圣技术有限公司 具有活体检测功能的人脸指纹门禁
US20130188840A1 (en) * 2012-01-20 2013-07-25 Cyberlink Corp. Liveness detection system based on face behavior
CN103778360A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种基于动作分析的人脸解锁的方法和装置
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
CN104166835A (zh) * 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808115A (zh) * 2017-09-27 2018-03-16 联想(北京)有限公司 一种活体检测方法、装置及存储介质
CN111240482A (zh) * 2020-01-10 2020-06-05 北京字节跳动网络技术有限公司 一种特效展示方法及装置

Also Published As

Publication number Publication date
WO2017000217A1 (zh) 2017-01-05

Similar Documents

Publication Publication Date Title
CN105518582A (zh) 活体检测方法及设备、计算机程序产品
CN105518714A (zh) 活体检测方法及设备、计算机程序产品
US10339402B2 (en) Method and apparatus for liveness detection
CN109711243B (zh) 一种基于深度学习的静态三维人脸活体检测方法
CN107609383B (zh) 3d人脸身份认证方法与装置
CN108805047B (zh) 一种活体检测方法、装置、电子设备和计算机可读介质
US9985963B2 (en) Method and system for authenticating liveness face, and computer program product thereof
US20200380279A1 (en) Method and apparatus for liveness detection, electronic device, and storage medium
EP3373202B1 (en) Verification method and system
CN107590430A (zh) 活体检测方法、装置、设备及存储介质
CN105612533B (zh) 活体检测方法、活体检测***以及计算机程序产品
CN105518715A (zh) 活体检测方法及设备、计算机程序产品
CN105518708A (zh) 用于验证活体人脸的方法、设备和计算机程序产品
CN110223322B (zh) 图像识别方法、装置、计算机设备和存储介质
CN108875468B (zh) 活体检测方法、活体检测***以及存储介质
CN105426827A (zh) 活体验证方法、装置和***
CN105518711A (zh) 活体检测方法、活体检测***以及计算机程序产品
CN110633664A (zh) 基于人脸识别技术追踪用户的注意力方法和装置
CN108109010A (zh) 一种智能ar广告机
CN105718863A (zh) 一种人脸活体检测方法、装置及***
CN110866454B (zh) 人脸活体检测方法及***、计算机可读取的存储介质
WO2020020022A1 (zh) 视觉识别方法及其***
CN113205057A (zh) 人脸活体检测方法、装置、设备及存储介质
US20230306792A1 (en) Spoof Detection Based on Challenge Response Analysis
CN111680546A (zh) 注意力检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100190 Beijing, Haidian District Academy of Sciences, South Road, No. 2, block A, No. 313

Applicant after: MEGVII INC.

Applicant after: Beijing maigewei Technology Co., Ltd.

Address before: 100190 Beijing, Haidian District Academy of Sciences, South Road, No. 2, block A, No. 313

Applicant before: MEGVII INC.

Applicant before: Beijing aperture Science and Technology Ltd.

CB02 Change of applicant information
RJ01 Rejection of invention patent application after publication

Application publication date: 20160420

RJ01 Rejection of invention patent application after publication