CN113255511A - 用于活体识别的方法、装置、设备以及存储介质 - Google Patents

用于活体识别的方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN113255511A
CN113255511A CN202110557990.9A CN202110557990A CN113255511A CN 113255511 A CN113255511 A CN 113255511A CN 202110557990 A CN202110557990 A CN 202110557990A CN 113255511 A CN113255511 A CN 113255511A
Authority
CN
China
Prior art keywords
image
dimensional
dimensional face
face image
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110557990.9A
Other languages
English (en)
Inventor
王珂尧
梁柏荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110557990.9A priority Critical patent/CN113255511A/zh
Publication of CN113255511A publication Critical patent/CN113255511A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了用于活体识别的方法、装置、设备以及存储介质,涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域,可应用于智慧城市和金融场景下。具体实现方案为:获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;将多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像;基于三维人脸图像,得到目标对象的活体识别结果。根据本公开的技术,提高了对目标对象进行活体识别的准确率,并且提高了对复杂多样的攻击方式进行鉴别的有效性和泛化性。

Description

用于活体识别的方法、装置、设备以及存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术领域,可应用于智慧城市和金融场景下。
背景技术
人脸活体检测是人脸识别***的基础组成模块,保证人脸识别***的安全性。人脸活体检测技术具体是指计算机判别检测的人脸是真实的人脸,还是伪造的人脸攻击,人脸攻击可以是合法用户图片、提前拍摄的视频等。相关技术中,使用深度学习技术的人脸活体检测算法是当前该领域的主流方法,相比传统算法在精度上有大幅提升。但是,针对一些应用场景,依然存在泛化性差、对于未知的攻击方式检测效果不佳的问题,影响实际应用性能。
发明内容
本公开提供了用于活体识别的方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种用于活体识别的方法,包括:
获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
将多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像;
基于三维人脸图像,得到目标对象的活体识别结果。
根据本公开的另一方面,提供了一种三维图像生成模型的训练方法,包括:
利用样本图像,确定目标三维人脸图像;
将样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
确定目标三维人脸图像和预测三维人脸图像的差异,根据差异对待训练的三维图像生成模型进行训练,直至差异在允许范围内。
根据本公开的另一方面,提供了一种用于活体识别的装置,包括:
待处理图像获取模块,用于获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
三维人脸图像生成模块,用于将多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像;
活体识别模块,用于基于三维人脸图像,得到目标对象的活体识别结果。
根据本公开的另一方面,提供了一种三维图像生成模型的训练装置,包括:
目标三维人脸图像确定模块,用于利用样本图像,确定目标三维人脸图像;
预测三维人脸图像生成模块,用于将样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
训练模块,用于确定目标三维人脸图像和预测三维人脸图像的差异,并根据差异对待训练的三维图像生成模型进行训练,直至差异在允许范围内。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现本公开任一实施例中的方法。
根据本公开的技术,通过获取目标对象不同位姿下的多个待处理图像,然后利用预先训练的三维图像生成模型生成目标对象的三维人脸图像,最后基于三维人脸图像确定出目标对象的活体识别结果,提高了对目标对象进行活体识别的准确率,并且提高了对复杂多样的攻击方式进行鉴别的有效性和泛化性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出根据本公开实施例的用于活体识别的方法的流程图;
图2示出根据本公开实施例的用于活体识别的方法的得到三维人脸图像的具体流程图;
图3示出根据本公开实施例的用于活体识别的方法的确定目标对象的活体识别结果的具体流程图;
图4示出根据本公开实施例的用于活体识别的方法的对三维人脸图像进行预处理的具体流程图;
图5示出根据本公开实施例的三维图像生成模型的训练方法的流程图;
图6示出根据本公开实施例的三维图像生成模型的训练方法的得到预测三维人脸图像的具体流程图;
图7示出根据本公开实施例的三维图像生成模型的训练方法的确定目标三维人脸图像的具体流程图;
图8示出根据本公开实施例的三维图像生成模型的训练方法的对人脸区域图像进行预处理的流程图;
图9示出根据本公开实施例的三维图像生成模型的训练方法的确定差异的具体流程图;
图10示出根据本公开实施例的用于活体识别的装置的示意图;
图11示出根据本公开实施例的三维图像训练装置的示意图;
图12是用来实现本公开实施例的用于活体识别的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出根据本公开实施例的用于活体识别的方法的流程图。
如图1所示,本公开实施例的用于活体识别的方法具体包括以下步骤:
S101:获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
S102:将多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像;
S103:基于三维人脸图像,得到目标对象的活体识别结果。
在本公开实施例中,目标对象可以理解为在特定场景下的目标判别对象,目标对象的活体识别结果可以为目标对象的载体是否为目标对象的本体。例如在人脸识别的场景中,目标对象可以为人脸,目标对象的活体识别结果可以为目标对象的载体为本体或者为攻击,其中,攻击是指包含目标对象的图片或视频。
目标对象的多个待处理图像,可以理解为图像中包含目标对象的多个待处理图像,且目标对象在不同的待处理图像中的位姿不同,换而言之,不同的待处理图像中的目标对象的视角不同。需要说明的是,目标对象的位姿可以由目标对象在三维空间中的三个自由度以及三个自由度的空间旋转构成。例如,在人脸识别场景中,目标对象的不同位姿可以为,目标对象的面部朝向不同。
示例性地,在步骤S101中,可以通过终端设备对不同位姿下的目标对象进行采集,获取多个待处理图像。其中,终端设备可以为各种图像采集装置,例如相机、摄像机等。
示例性地,在步骤S102中,三维图像生成模型可以采用SFM(Structure FromMotion,运动恢复结构)模型、SFS(Shape From Shading,一种单幅图像恢复三维信息的方法)模型或3DMM(3D Morphable models,三维可变形人脸模型)等。
具体地,以3DMM为例,其核心思想是人脸的关键点可以在三维空间中进行一一匹配,并且可以由其他许多幅人脸正交基加权或者线性相加进行计算。基于各待处理图像中目标对象的关键点,利用固定数量的关键点来表示人脸,其中,各关键点的坐标可以通过关键点在三维空间中的三个方向的基量来表示,例如关键点的坐标(x,y,z),可以通过由三维空间三个方向的基量(1,0,0)、(0,1,0)和(0,0,1)通过加权相加计算得到。其中,三维人脸图像的基本属性包括形状和纹理,各三维人脸图像可以通过形状向量和纹理向量的线性叠加进行表示。
示例性地,在步骤S103中,可以通过将三维人脸图像输入预先训练的活体识别模型,得到目标对象的活体识别结果。具体地,三维人脸图像可以采用卷积神经网络(Convolutional Neural Networks,CNN),卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks,FNN),可以实现对活体识别的监督学习或者非监督学习。
下面结合一个具体的应用场景描述根据本公开实施例的用于活体识别的方法。
在人脸识别场景中,响应于人脸识别请求,获取目标对象的不同位姿下的人脸图像,例如获取目标对象的面部朝向不同水平角度下的多个待处理图像,或者获取目标对象的面部朝向不同竖直角度下的多个待处理图像。然后,将目标对象的多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像。最后,将三维人脸图像输入预先训练的活体识别模型,得到目标对象的活体识别结果。在目标对象的活体识别结果为活体的情况下,进行下一步的人脸识别流程;在目标对象的活体识别结果为不是活体的情况下,则终止后续的人脸识别流程。
相比于相关技术中仅通过目标对象的单个图像作为卷积神经网络的输入,本公开实施例的用于活体识别的方法通过获取目标对象不同位姿下的多个待处理图像,然后利用预先训练的三维图像生成模型生成目标对象的三维人脸图像,最后基于三维人脸图像确定出目标对象的活体识别结果,针对现实场景中目标对象的位姿变化过大的情况,本公开实施例的用于活体识别的方法具有较高的鲁棒性,有利于提高活体识别的准确率,针对复杂多样的攻击方式提高了鉴别的有效性和泛化性,尤其在在安防、考勤、金融、门禁通行等诸多的应用场景中,有效提升了人脸活体识别的技术性能,对于以人脸活体识别技术为基础的诸多应用有效地提升了使用效果和用户体验,有利于业务项目的进一步推广。
如图2所示,在一种实施方式中,步骤S102具体包括以下步骤:
S201:将多个待处理图像输入三维图像生成模型中的特征提取层,从三维图像生成模型中的图像生成层接收目标对象的三维人脸图像。
其中,特征提取层被配置为提取各待处理图像的参数信息、并将待处理图像的参数信息输入图像生成层;图像生成层被配置为接收待处理图像的参数信息、并输出目标对象的三维人脸图像。
示例性地,特征提取层可以采用ResNet34(一种深层的神经网络)。具体地,ResNet34采用了34层的残差网络结构(Residual Unit),这种残差跳跃式的结构,打破了传统的神经网络n-1层的输出只能给n层作为输入的惯例,使某一层的输出可以直接跨过几层作为后面某一层的输入,为叠加多层网络而使得整个学习模型的错误率不降反升的难题提供了新的方向,因而神经网络的层数可以超越之前的约束,达到几十层、上百层甚至千层,为高级语义特征提取和分类提供了可行性。基于此,不仅提高了参数信息提取的准确率,还有利于提高三维人脸图像生成模型的训练效率。
基于特征提取层提取到的各待处理图像的参数信息,图像生成层构建出目标对象的三维人脸轮廓,并通过对三维人脸轮廓进行渲染,最终得到目标对象的三维人脸图像。
根据上述实施方式,通过提取各待处理图像的参数信息,并基于参数信息生成目标对象的三维人脸图像,提高了三维人脸图像的准确度和精度,从而进一步提高了活体识别结果的准确率和泛化性。
在一种实施方式中,参数信息包含形状参数、表情参数、纹理参数中的至少一项、以及姿态参数、光照参数和相机参数中的至少一项。图像生成层被配置为:
接收待处理图像的参数信息,基于形状参数、表情参数和纹理参数中的至少一项,得到目标对象的三维轮廓图像;以及,基于姿态参数、光照参数和相机参数中的至少一项,对三维轮廓录像进行渲染处理,得到目标对象的三维人脸图像。
可以理解的是,形状参数用于表征目标对象的人脸的基本形状参数;表情参数用于表征目标对象的人脸的情绪参数;纹理参数用于表征组成目标对象的人脸的多个纹理基元进行排列组合的参数,纹理基元指的是由像素组成的具有一定大小和形状的图像基元;姿态参数用于表征目标对象的人脸在三维空间中的位置和面部朝向的相关参数;光照参数用于表征目标对象的人脸的光照强度、光泽度等相关参数;相机参数用于表征图像采集装置在采集待处理图像时所使用的相关拍摄参数。
示例性地,在图像生成层从特征提取层接收待处理图像的参数信息、并输出目标对象的三维人脸图像的过程中,可以基于参数信息中的形状参数、表情参数和纹理参数,生成目标对象的三维轮廓图像,然后基于姿态参数、光照参数和相机参数对三维轮廓图像进行可微分渲染,最终得到目标对象的三维人脸图像。
根据上述实施方式,图像生成层通过接收多个维度的参数信息,并基于不同维度的参数信息进行三维轮廓图像的构建以及对三维轮廓图像进行渲染处理,从而在多个维度上提升了三维人脸图像的构建精度和准确度,进一步提高了后续的活体识别的鲁棒性。
如图3所示,在一种实施方式中,步骤S103包括:
S301:对三维人脸图像进行预处理,得到预处理后的三维人脸图像;
S302:将预处理后的三维人脸图像输入预先训练的活体识别模型,得到目标对象的活体识别结果。
需要说明的是,在步骤S301中,经过对三维人脸图像进行预处理,可以使预处理后的三维人脸图像的数据符合活体识别模型的输入要求,并且有利于对三维人脸图像的数据进行精简化,提高后续活体识别模型的检测效率和稳定性。
示例性地,在步骤S302中,活体识别模型可以采用本领域技术人员已知的或未来可知悉的各种模型。
以活体识别模型采用卷积神经网络模型为例,具体地,卷积神经网络包括特征提取层、全连接层(Fully Connected Layers,FC)和图像归一化处理层。特征提取层用于对三维人脸图像进行特征提取处理,然后将提取到的特征输入全连接层,全连接层根据提取到的特征对三维人脸图像进行分类,并将分类结果输入图像归一化处理层,经过图像归一化处理层的图像归一化处理,最终输出活体识别结果。其中,特征提取层可以采用MobileNetV2(一种深度可分离卷积),作为卷积神经网络的主干网络;图像归一化处理层可以采用Softmax层(一种逻辑回归模型)。
此外,在活体识别模型的训练过程中,可以通过将活体训练样本和攻击训练样本分别输入三维图像生成模型,以得到活体三维人脸图像和攻击三维人脸图像。并利用批量的活体三维人脸图像和攻击三维人脸图像对活体识别模型进行训练。
根据上述实施方式,通过将三维人脸图像输入预先训练的活体识别模型以得到目标对象的活体识别结果,一方面提升了活体识别结果的检测精度和准确度,提高了对攻击检测的泛化性;另一方面,提升了活体识别的识别效率,有利于采用本公开实施例的方法的业务项目的进一步推广。
如图4所示,在一种实施方式中,步骤S301包括:
S401:基于三维人脸图像,确定三维人脸图像中的人脸区域;
S402:基于人脸区域,提取三维人脸图像中的人脸区域的部分图像,作为人脸区域图像;
S403:对人脸区域图像进行图像归一化处理,得到预处理后的三维人脸图像。
示例性地,在步骤S401中,可以通过预先训练的人脸检测模型,确定出三维人脸图像中的人脸区域。
示例性地,在步骤S402中,通过预先训练的人脸关键点检测模型,检测出人脸区域中各个关键点的坐标值,根据各个关键点的坐标值,确定出人脸区域对应的人脸框的坐标范围,根据人脸框的坐标范围对三维人脸图像中的人脸区域的部分图像进行截取,得到人脸区域图像。
例如,人脸关键点检测模型用于检测出预先定义的72个人脸关键点坐标即(x1,y1)…(x72,y72),从中确定出横坐标最大和最小的两个关键点坐标以及纵坐标最大和最小的两个关键点坐标,基于以上四个坐标确定出人脸区域对应的人脸框的坐标范围,基于人脸框的坐标范围对三维人脸图像进行截取,得到人脸区域模板图像。最后,将人脸区域模板图像扩大三倍,再对人脸区域模板图像中的人脸框进行二次截取,将最终得到的图像作为人脸区域图像。
示例性地,在步骤S403中,针对人脸区域图像中的每个像素的像素值,按照预设规则进行计算处理,基于每个像素值的计算结果,确定出预处理后的三维人脸图像。
例如,针对人脸区域图像中的每个像素值,将每个像素值减去128后的差值除以256得到计算结果,其中,每个像素值的计算结果的取值范围在[-0.5,0.5]之间。
此外,在对人脸区域图形进行图像归一化处理之后,还可以对预处理后的三维人脸图像进行随机数据增强处理,并将处理后的三维人脸图像作为活体识别模型的输入。
通过上述实施方式,可以使预处理后的三维人脸图像的相关数据被限定在预设范围内,从而消除相关数据中的奇异数据对最终生成的活体识别结果的影响,进一步提高活体识别结果的准确率。
在一种实施方式中,多个待处理图像包含第一待处理图像、第二待处理图像和第三待处理图像。第一待处理图像对应目标对象在面部左转第一预设角度状态下的位姿,第二待处理图像对应目标对象在面部朝向正前方状态下的位姿,第三待处理图像对应目标对象在面部右转第二预设角度状态下的位姿。
示例性地,在第一待处理图像中,目标对象的面部朝向相对图像采集装置呈左转45度;第二待处理图像中,目标对象的面部朝向正对正对图像采集装置;第三待处理图像中,目标对象的面部朝向相对图像采集装置呈右转45度。
通过上述实施方式,多个待处理图像分别采集了目标对象的不同位姿下的状态,可以使三维图像生成模型所生成的三维人脸图像更符合目标对象的真实人脸图像,提高了三维人脸图像的准确率和精度,更有利于后续活体识别过程中对攻击图像的识别。
作为本公开实施例的另一方面,还提供了一种三维图像生成模型的训练方法。
图5示出根据本公开实施例的三维图像生成模型的训练方法。
如图5所示,该三维图像生成模型的训练方法包括以下步骤:
S501:利用样本图像,确定目标三维人脸图像;
S502:将样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
S503:确定目标三维人脸图像和预测三维人脸图像的差异,根据差异对待训练的三维图像生成模型进行训练,直至差异在允许范围内。
示例性地,在步骤S501中,样本图像可以通过分别采集活体对象在不同位姿下的多个图像以及攻击对象在不同位姿下的图像得到,其中,攻击对象可以是活体对象的照片或视频。目标三维人脸图像可以通过对样本图像进行标注的方式获取。
示例性地,在步骤S503中,可以通过计算目标三维人脸图像和预测三维人脸图像的之间各个像素值的损失函数,确定出二者之间的差异。
根据本公开实施例的方法,实现了对三维图像生成模型的训练,并且通过将活体对象或攻击对象在不同位姿下的图像作为样本图像,训练得到的三维图像生成模型的具有较高的准确率和泛化性。
如图6所示,在一种实施方式中,步骤S502包括:
S601:将样本图像输入待训练的三维图像生成模型中的特征提取层,从待训练的三维图像生成模型中的图像生成层接收预测三维人脸图像;
其中,特征提取层被配置为提取样本图像的参数信息、并将样本图像的参数信息输入图像生成层;图像生成层被配置为接收样本图像的参数信息、并输出预测三维人脸图像。
示例性地,特征提取层可以采用ResNet34。通过采用ResNet34作为特征提取层,不仅提高了参数信息提取的准确率,还有利于提高三维人脸图像生成模型的训练效率。
基于特征提取层提取到的各待处理图像的参数信息,图像生成层构建出目标对象的三维人脸轮廓,并通过对三维人脸轮廓进行渲染,最终得到目标对象的三维人脸图像。
通过上述实施方式,训练出的三维图像生成模型可以通过提取各待处理图像的参数信息,并基于参数信息生成目标对象的三维人脸图像。由此,提高了三维图像生成模型输出的三维人脸图像的准确度和精度。
如图7所示,在一种实施方式中,步骤S501包括:
S701:基于样本图像,确定样本图像中的人脸关键点数据;
S702:基于人脸关键点数据对样本图像进行分割处理和掩膜处理,得到人脸区域图像;
S703:对人脸区域图像进行预处理,得到目标三维人脸图像。
示例性地,通过预先训练的人脸关键点数据集,检测出样本图像中的人脸关键点的坐标值,根据各个人脸关键点的坐标值,确定出人脸区域对应的人脸框的坐标范围,根据人脸框的坐标范围对三维人脸图像中的人脸区域的部分图像进行分割处理和掩膜处理,得到人脸区域图像。
例如,人脸关键点数据集可以为ibug关键点数据集,用于检测出预先定义的68个人脸关键点坐标即(x1,y1)…(x68,y68),从中确定出横坐标最大和最小的两个人脸关键点坐标以及纵坐标最大和最小的两个人脸关键点坐标,基于以上四个人脸关键点坐标确定出人脸区域对应的人脸框的坐标范围,基于人脸框的坐标范围对三维人脸图像进行分割处理和掩膜处理,得到人脸区域模板图像。最后,将人脸区域模板图像扩大三倍,再对人脸区域模板图像中的人脸框进行二次截取,将最终得到的图像作为人脸区域图像。
通过上述实施方式,可以从样本图像中精准地提取出人脸区域图像,作为待训练的三维图像生成模型的输入,从而消除样本图像数据中的奇异数据对训练过程的影响。
如图8所示,在一种实施方式中,步骤S703包括:
S801:对人脸区域图像进行对齐处理、裁剪处理、尺寸调整处理和图像归一化处理,得到目标三维人脸图像。
示例性地,在步骤S801中,可以利用预先建立的高清人脸数据集(Flickr FacesHigh Quality,FFHQ),根据人脸区域图像在高清人脸数据集中的匹配结果对人脸区域图像进行对齐处理和裁剪处理。以及,将人脸区域图像的尺寸调整为224*224。
此外,对人脸区域图像进行归一化处理,可以通过对人脸区域图像中的每个像素的像素值,按照预设规则进行计算处理,基于每个像素值的计算结果,确定出预处理后的三维人脸图像。
例如,针对人脸区域图像中的每个像素值,将每个像素值减去128后的差值除以256得到计算结果,其中,每个像素值的计算结果的取值范围在[-0.5,0.5]之间。
通过上述实施方式,可以保证确定出的目标三维人脸图像具有较高的精确度,且省去了人工进行标注的人力标注成本,降低了目标三维人脸图像的获取难度。
如图9所示,在一种实施方式中,步骤S503包括:
S901:基于预测三维人脸图像的像素值和目标三维人脸图像的像素值,计算第一损失值;
S902:基于预测三维人脸图像的关键点坐标值和样本图像的关键点坐标值,计算第二损失值;
S903:对第一损失值和第二损失值求和,得到目标三维人脸图像和预测三维人脸图像的差异。
示例性地,在步骤S901中,计算第一损失值的具体步骤包括:对预测三维人脸图像进行渲染处理,得到预测三维人脸图像对应的二维图像,对二维图像的像素值和样本图像的像素值进行按位相减,将求得的像素差值与人脸区域图像的像素值按位相乘,对求得的每个像素的乘积的绝对值求和,得到第一损失值。
示例性地,在步骤S902中,可以利用关键点数据集,确定出预测人脸图像的关键点坐标,然后计算预测人脸图像的关键点坐标的像素值与样本图像的关键点坐标的像素值之间的L1损失函数,得到第二损失值。
示例性地,在步骤S903中,对第一损失值、第二损失值以及样本图像的形状参数、表情参数、纹理参数和姿态参数等其他参数的正则项求和,得到目标三维人脸图像和预测三维人脸图像的差异。
通过上述实施方式,可以精确地求出目标三维人脸图像和预测三维人脸图像的差异,提高了训练过程中对三维图像生成模型的优化效果。
根据本公开实施例的另一方面,还提供了一种用于活体识别的装置。
如图10所示,该用于活体识别的装置包括:
待处理图像获取模块1001,用于获取目标对象的多个待处理图像,各待处理图像分别对应目标对象的不同位姿;
三维人脸图像生成模块1002,用于将多个待处理图像输入预先训练的三维图像生成模型,得到目标对象的三维人脸图像;
活体识别模块1003,用于基于三维人脸图像,得到目标对象的活体识别结果。
在一种实施方式中,三维人脸图像生成模块1002还用于:
将多个待处理图像输入三维图像生成模型中的特征提取层,从所述三维图像生成模型中的图像生成层接收目标对象的三维人脸图像;
其中,特征提取层被配置为提取各待处理图像的参数信息、并将待处理图像的参数信息输入图像生成层;图像生成层被配置为接收待处理图像的参数信息、并输出目标对象的三维人脸图像。
在一种实施方式中,参数信息包含形状参数、表情参数、纹理参数中的至少一项、以及姿态参数、光照参数和相机参数中的至少一项;图像生成层被配置为:
接收待处理图像的参数信息,基于形状参数、表情参数和纹理参数中的至少一项,得到目标对象的三维轮廓图像;以及,
基于姿态参数、光照参数和相机参数中的至少一项,对三维轮廓录像进行渲染处理,得到目标对象的三维人脸图像。
在一种实施方式中,活体识别模块1003包括:
预处理子模块,用于对三维人脸图像进行预处理,得到预处理后的三维人脸图像;
活体识别子模块,用于将预处理后的三维人脸图像输入预先训练的活体识别模型,得到目标对象的活体识别结果。
在一种实施方式中,预处理子模块包括:
人脸区域确定单元,用于基于三维人脸图像,确定三维人脸图像中的人脸区域;
人脸区域图像确定单元,用于基于人脸区域,提取三维人脸图像中的人脸区域的部分图像,作为人脸区域图像;
图像归一化处理单元,用于对人脸区域图像进行图像归一化处理,得到预处理后的三维人脸图像。
在一种实施方式中,多个待处理图像包含第一待处理图像、第二待处理图像和第三待处理图像;
第一待处理图像对应目标对象在面部左转第一预设角度状态下的位姿,第二待处理图像对应目标对象在面部朝向正前方状态下的位姿,第三待处理图像对应目标对象在面部右转第二预设角度状态下的位姿。
根据本公开的另一方面,还提供了一种三维图像生成模型的训练装置。
如图11所示,该三维图像生成模型的训练装置包括:
目标三维人脸图像确定模块1101,用于利用样本图像,确定目标三维人脸图像;
预测三维人脸图像生成模块1102,用于将样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
训练模块1103,用于确定目标三维人脸图像和预测三维人脸图像的差异,并根据差异对待训练的三维图像生成模型进行训练,直至差异在允许范围内。
在一种实施方式中,预测三维人脸图像生成模块1102还用于:
将样本图像输入待训练的三维图像生成模型中的特征提取层,从所述待训练的三维图像生成模型中的图像生成层接收预测三维人脸图像;
其中,特征提取层被配置为提取样本图像的参数信息、并将样本图像的参数信息输入图像生成层;图像生成层被配置为接收样本图像的参数信息、并输出预测三维人脸图像。
在一种实施方式中,目标三维人脸图像确定模块1101包括:
人脸关键点数据确定子模块,用于基于样本图像,确定样本图像中的人脸关键点数据;
人脸区域图像确定子模块,用于基于人脸关键点数据对样本图像进行分割处理和掩膜处理,得到人脸区域图像;
目标三维人脸图像确定子模块,用于对人脸区域图像进行预处理,得到目标三维人脸图像。
在一种实施方式中,目标三维人脸图像确定子模块还用于:
对人脸区域图像进行对齐处理、裁剪处理、尺寸调整处理和图像归一化处理,得到目标三维人脸图像。
在一种实施方式中,训练模块1103包括:
第一损失值计算子模块,用于基于预测三维人脸图像的像素值和目标三维人脸图像的像素值,计算第一损失值;
第二损失值计算子模块,用于基于所示预测三维人脸图像的关键点坐标值和样本图像的关键点坐标值,计算第二损失值;
差异计算子模块,用于对第一损失值和第二损失值求和,得到目标三维人脸图像和预测三维人脸图像的差异。
本公开实施例各装置中的各单元、模块或子模块的功能可以参见上述方法实施例中的对应描述,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图12示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图12所示,电子设备1200包括计算单元1201,其可以根据存储在只读存储器(ROM)1202中的计算机程序或者从存储单元1208加载到随机访问存储器(RAM)1203中的计算机程序来执行各种适当的动作和处理。在RAM 1203中,还可存储电子设备1200操作所需的各种程序和数据。计算单元1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入输出(I/O)接口1205也连接至总线1204。
电子设备1200中的多个部件连接至I/O接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许电子设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1201的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1201执行上文所描述的各个方法和处理,例如用于活体识别的方法和/或三维图像生成模型的训练方法。例如,在一些实施例中,用于活体识别的方法和/或三维图像生成模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1202和/或通信单元1209而被载入和/或安装到电子设备1200上。当计算机程序加载到RAM 1203并由计算单元1201执行时,可以执行上文描述的用于活体识别的方法和/或三维图像生成模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于活体识别的方法和/或三维图像生成模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (25)

1.一种用于活体识别的方法,包括:
获取目标对象的多个待处理图像,各所述待处理图像分别对应所述目标对象的不同位姿;
将多个所述待处理图像输入预先训练的三维图像生成模型,得到所述目标对象的三维人脸图像;
基于所述三维人脸图像,得到所述目标对象的活体识别结果。
2.根据权利要求1所述的方法,其中,所述将多个所述待处理图像输入预先训练的三维图像生成模型,得到所述目标对象的三维人脸图像,包括:
将多个所述待处理图像输入所述三维图像生成模型中的特征提取层,从所述三维图像生成模型中的图像生成层接收所述目标对象的三维人脸图像;
其中,所述特征提取层被配置为提取各所述待处理图像的参数信息、并将所述待处理图像的参数信息输入所述图像生成层;所述图像生成层被配置为接收所述待处理图像的参数信息、并输出所述目标对象的三维人脸图像。
3.根据权利要求2所述的方法,其中,所述参数信息包含形状参数、表情参数、纹理参数中的至少一项、以及姿态参数、光照参数和相机参数中的至少一项;
所述图像生成层被配置为:
接收所述待处理图像的参数信息,基于所述形状参数、所述表情参数和所述纹理参数中的至少一项,得到所述目标对象的三维轮廓图像;以及,
基于所述姿态参数、所述光照参数和所述相机参数中的至少一项,对所述三维轮廓录像进行渲染处理,得到所述目标对象的三维人脸图像。
4.根据权利要求1所述的方法,其中,所述基于所述三维人脸图像,确定所述目标对象的活体识别结果,包括:
对所述三维人脸图像进行预处理,得到预处理后的三维人脸图像;
将所述预处理后的三维人脸图像输入预先训练的活体识别模型,得到所述目标对象的活体识别结果。
5.根据权利要求4所述的方法,其中,所述对所述三维人脸图像进行预处理,得到预处理后的三维人脸图像,包括:
基于所述三维人脸图像,确定所述三维人脸图像中的人脸区域;
基于所述人脸区域,提取所述三维人脸图像中的人脸区域的部分图像,作为人脸区域图像;
对所述人脸区域图像进行图像归一化处理,得到预处理后的三维人脸图像。
6.根据权利要求1至5任一项所述的方法,所述多个待处理图像包含第一待处理图像、第二待处理图像和第三待处理图像;
所述第一待处理图像对应所述目标对象在面部左转第一预设角度状态下的位姿,所述第二待处理图像对应所述目标对象在面部朝向正前方状态下的位姿,所述第三待处理图像对应所述目标对象在面部右转第二预设角度状态下的位姿。
7.一种三维图像生成模型的训练方法,包括:
利用样本图像,确定目标三维人脸图像;
将所述样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
确定所述目标三维人脸图像和所述预测三维人脸图像的差异,根据所述差异对所述待训练的三维图像生成模型进行训练,直至所述差异在允许范围内。
8.根据权利要求7所述的方法,其中,所述将所述样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像,包括:
将所述样本图像输入待训练的三维图像生成模型中的特征提取层,从所述待训练的三维图像生成模型中的图像生成层接收预测三维人脸图像;
其中,所述特征提取层被配置为提取所述样本图像的参数信息、并将所述样本图像的参数信息输入所述图像生成层;所述图像生成层被配置为接收所述样本图像的参数信息、并输出所述预测三维人脸图像。
9.根据权利要求7所述的方法,其中,所述利用样本图像,确定目标三维人脸图像,包括:
基于所述样本图像,确定所述样本图像中的人脸关键点数据;
基于所述人脸关键点数据对所述样本图像进行分割处理和掩膜处理,得到人脸区域图像;
对所述人脸区域图像进行预处理,得到目标三维人脸图像。
10.根据权利要求9所述的方法,其中,所述对所述人脸区域图像进行预处理,得到目标三维人脸图像,包括:
对所述人脸区域图像进行对齐处理、裁剪处理、尺寸调整处理和图像归一化处理,得到目标三维人脸图像。
11.根据权利要求8所述的方法,其中,所述确定所述目标三维人脸图像和所述预测三维人脸图像的差异,包括:
基于所述预测三维人脸图像的像素值和所述目标三维人脸图像的像素值,计算第一损失值;
基于所述预测三维人脸图像的关键点坐标值和所述样本图像的关键点坐标值,计算第二损失值;
对所述第一损失值和所述第二损失值求和,得到所述目标三维人脸图像和所述预测三维人脸图像的差异。
12.一种用于活体识别的装置,包括:
待处理图像获取模块,用于获取目标对象的多个待处理图像,各所述待处理图像分别对应所述目标对象的不同位姿;
三维人脸图像生成模块,用于将多个所述待处理图像输入预先训练的三维图像生成模型,得到所述目标对象的三维人脸图像;
活体识别模块,用于基于所述三维人脸图像,得到所述目标对象的活体识别结果。
13.根据权利要求12所述的装置,其中,所述三维人脸图像生成模块还用于:
将多个所述待处理图像输入所述三维图像生成模型中的特征提取层,从所述三维图像生成模型中的图像生成层接收所述目标对象的三维人脸图像;
其中,所述特征提取层被配置为提取各所述待处理图像的参数信息、并将所述待处理图像的参数信息输入所述图像生成层;所述图像生成层被配置为接收所述待处理图像的参数信息、并输出所述目标对象的三维人脸图像。
14.根据权利要求13所述的装置,其中,所述参数信息包含形状参数、表情参数、纹理参数中的至少一项、以及姿态参数、光照参数和相机参数中的至少一项;
所述图像生成层被配置为:
接收所述待处理图像的参数信息,基于所述形状参数、所述表情参数和所述纹理参数中的至少一项,得到所述目标对象的三维轮廓图像;以及,
基于所述姿态参数、所述光照参数和所述相机参数中的至少一项,对所述三维轮廓录像进行渲染处理,得到所述目标对象的三维人脸图像。
15.根据权利要求12所述的装置,其中,所述活体识别模块包括:
预处理子模块,用于对所述三维人脸图像进行预处理,得到预处理后的三维人脸图像;
活体识别子模块,用于将所述预处理后的三维人脸图像输入预先训练的活体识别模型,得到所述目标对象的活体识别结果。
16.根据权利要求15所述的装置,其中,所述预处理子模块包括:
人脸区域确定单元,用于基于所述三维人脸图像,确定所述三维人脸图像中的人脸区域;
人脸区域图像确定单元,用于基于所述人脸区域,提取所述三维人脸图像中的人脸区域的部分图像,作为人脸区域图像;
图像归一化处理单元,用于对所述人脸区域图像进行图像归一化处理,得到预处理后的三维人脸图像。
17.根据权利要求12至16任一项所述的装置,所述多个待处理图像包含第一待处理图像、第二待处理图像和第三待处理图像;
所述第一待处理图像对应所述目标对象在面部左转第一预设角度状态下的位姿,所述第二待处理图像对应所述目标对象在面部朝向正前方状态下的位姿,所述第三待处理图像对应所述目标对象在面部右转第二预设角度状态下的位姿。
18.一种三维图像生成模型的训练装置,包括:
目标三维人脸图像确定模块,用于利用样本图像,确定目标三维人脸图像;
预测三维人脸图像生成模块,用于将所述样本图像输入待训练的三维图像生成模型,得到预测三维人脸图像;
训练模块,用于确定所述目标三维人脸图像和所述预测三维人脸图像的差异,并根据所述差异对所述待训练的三维图像生成模型进行训练,直至所述差异在允许范围内。
19.根据权利要求18所述的装置,其中,所述预测三维人脸图像生成模块还用于:
将所述样本图像输入待训练的三维图像生成模型中的特征提取层,从所述待训练的三维图像生成模型中的图像生成层接收预测三维人脸图像;
其中,所述特征提取层被配置为提取所述样本图像的参数信息、并将所述样本图像的参数信息输入所述图像生成层;所述图像生成层被配置为接收所述样本图像的参数信息、并输出所述预测三维人脸图像。
20.根据权利要求18所述的装置,其中,所述目标三维人脸图像确定模块包括:
人脸关键点数据确定子模块,用于基于所述样本图像,确定所述样本图像中的人脸关键点数据;
人脸区域图像确定子模块,用于基于所述人脸关键点数据对所述样本图像进行分割处理和掩膜处理,得到人脸区域图像;
目标三维人脸图像确定子模块,用于对所述人脸区域图像进行预处理,得到目标三维人脸图像。
21.根据权利要求20所述的装置,其中,所述目标三维人脸图像确定子模块还用于:
对所述人脸区域图像进行对齐处理、裁剪处理、尺寸调整处理和图像归一化处理,得到目标三维人脸图像。
22.根据权利要求19所述的装置,其中,所述训练模块包括:
第一损失值计算子模块,用于基于所述预测三维人脸图像的像素值和所述目标三维人脸图像的像素值,计算第一损失值;
第二损失值计算子模块,用于基于所示预测三维人脸图像的关键点坐标值和所述样本图像的关键点坐标值,计算第二损失值;
差异计算子模块,用于对所述第一损失值和所述第二损失值求和,得到所述目标三维人脸图像和所述预测三维人脸图像的差异。
23.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至11中任一项所述的方法。
24.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1至11中任一项所述的方法。
25.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1至11中任一项所述的方法。
CN202110557990.9A 2021-05-21 2021-05-21 用于活体识别的方法、装置、设备以及存储介质 Pending CN113255511A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110557990.9A CN113255511A (zh) 2021-05-21 2021-05-21 用于活体识别的方法、装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110557990.9A CN113255511A (zh) 2021-05-21 2021-05-21 用于活体识别的方法、装置、设备以及存储介质

Publications (1)

Publication Number Publication Date
CN113255511A true CN113255511A (zh) 2021-08-13

Family

ID=77183640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110557990.9A Pending CN113255511A (zh) 2021-05-21 2021-05-21 用于活体识别的方法、装置、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN113255511A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445898A (zh) * 2022-01-29 2022-05-06 北京百度网讯科技有限公司 人脸活体检测方法、装置、设备、存储介质及程序产品
TWI807851B (zh) * 2022-06-08 2023-07-01 中華電信股份有限公司 一種領域泛化之人臉防偽的特徵解析系統、方法及其電腦可讀媒介

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740775A (zh) * 2016-01-25 2016-07-06 北京天诚盛业科技有限公司 一种三维人脸活体识别方法及其装置
CN106503671A (zh) * 2016-11-03 2017-03-15 厦门中控生物识别信息技术有限公司 确定人脸姿态的方法和装置
CN108062544A (zh) * 2018-01-19 2018-05-22 百度在线网络技术(北京)有限公司 用于人脸活体检测的方法和装置
CN110163953A (zh) * 2019-03-11 2019-08-23 腾讯科技(深圳)有限公司 三维人脸重建方法、装置、存储介质和电子装置
WO2020037680A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 基于光线的三维人脸优化方法、装置及电子设备
US20200082160A1 (en) * 2018-09-12 2020-03-12 Kneron (Taiwan) Co., Ltd. Face recognition module with artificial intelligence models
CN111354079A (zh) * 2020-03-11 2020-06-30 腾讯科技(深圳)有限公司 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
CN112613357A (zh) * 2020-12-08 2021-04-06 深圳数联天下智能科技有限公司 人脸测量方法、装置、电子设备和介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740775A (zh) * 2016-01-25 2016-07-06 北京天诚盛业科技有限公司 一种三维人脸活体识别方法及其装置
CN106503671A (zh) * 2016-11-03 2017-03-15 厦门中控生物识别信息技术有限公司 确定人脸姿态的方法和装置
CN108062544A (zh) * 2018-01-19 2018-05-22 百度在线网络技术(北京)有限公司 用于人脸活体检测的方法和装置
WO2020037680A1 (zh) * 2018-08-24 2020-02-27 太平洋未来科技(深圳)有限公司 基于光线的三维人脸优化方法、装置及电子设备
US20200082160A1 (en) * 2018-09-12 2020-03-12 Kneron (Taiwan) Co., Ltd. Face recognition module with artificial intelligence models
CN110895678A (zh) * 2018-09-12 2020-03-20 耐能智慧股份有限公司 脸部识别模块及方法
CN110163953A (zh) * 2019-03-11 2019-08-23 腾讯科技(深圳)有限公司 三维人脸重建方法、装置、存储介质和电子装置
CN111354079A (zh) * 2020-03-11 2020-06-30 腾讯科技(深圳)有限公司 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
CN112613357A (zh) * 2020-12-08 2021-04-06 深圳数联天下智能科技有限公司 人脸测量方法、装置、电子设备和介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445898A (zh) * 2022-01-29 2022-05-06 北京百度网讯科技有限公司 人脸活体检测方法、装置、设备、存储介质及程序产品
CN114445898B (zh) * 2022-01-29 2023-08-29 北京百度网讯科技有限公司 人脸活体检测方法、装置、设备、存储介质及程序产品
TWI807851B (zh) * 2022-06-08 2023-07-01 中華電信股份有限公司 一種領域泛化之人臉防偽的特徵解析系統、方法及其電腦可讀媒介

Similar Documents

Publication Publication Date Title
US20210158023A1 (en) System and Method for Generating Image Landmarks
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
US20210012093A1 (en) Method and apparatus for generating face rotation image
JP7425147B2 (ja) 画像処理方法、テキスト認識方法及び装置
CN113343826B (zh) 人脸活体检测模型的训练方法、人脸活体检测方法及装置
Jiang et al. Dual attention mobdensenet (damdnet) for robust 3d face alignment
CN113674421B (zh) 3d目标检测方法、模型训练方法、相关装置及电子设备
CN112784765B (zh) 用于识别动作的方法、装置、设备以及存储介质
US9747695B2 (en) System and method of tracking an object
CN112967315B (zh) 一种目标跟踪方法、装置及电子设备
CN113591566A (zh) 图像识别模型的训练方法、装置、电子设备和存储介质
CN113255511A (zh) 用于活体识别的方法、装置、设备以及存储介质
CN113221771A (zh) 活体人脸识别方法、装置、设备、存储介质及程序产品
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN113409340A (zh) 语义分割模型训练方法、语义分割方法、装置及电子设备
CN113255512B (zh) 用于活体识别的方法、装置、设备以及存储介质
US20230115765A1 (en) Method and apparatus of transferring image, and method and apparatus of training image transfer model
CN115116111B (zh) 抗扰动人脸活体检测模型训练方法、装置及电子设备
JP7414902B2 (ja) 顔生体検出方法、装置、電子機器及び記憶媒体
CN114862716A (zh) 人脸图像的图像增强方法、装置、设备及存储介质
CN115273184A (zh) 人脸活体检测模型训练方法及装置
CN116152334A (zh) 图像处理方法及相关设备
CN113205131A (zh) 图像数据的处理方法、装置、路侧设备和云控平台
Lin et al. 6D object pose estimation with pairwise compatible geometric features
US20240193866A1 (en) Methods and systems for 3d hand pose estimation from rgb images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination