CN115690918A - 构建活体识别模型和活体识别的方法、装置、设备及介质 - Google Patents

构建活体识别模型和活体识别的方法、装置、设备及介质 Download PDF

Info

Publication number
CN115690918A
CN115690918A CN202110833025.XA CN202110833025A CN115690918A CN 115690918 A CN115690918 A CN 115690918A CN 202110833025 A CN202110833025 A CN 202110833025A CN 115690918 A CN115690918 A CN 115690918A
Authority
CN
China
Prior art keywords
living body
image data
living
loss function
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110833025.XA
Other languages
English (en)
Inventor
俞颖超
周秋生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jingdong Technology Holding Co Ltd
Original Assignee
Jingdong Technology Holding Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jingdong Technology Holding Co Ltd filed Critical Jingdong Technology Holding Co Ltd
Priority to CN202110833025.XA priority Critical patent/CN115690918A/zh
Priority to PCT/CN2022/093514 priority patent/WO2023000792A1/zh
Publication of CN115690918A publication Critical patent/CN115690918A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及一种构建活体识别模型和活体识别的方法、装置、设备及介质,上述构建活体识别模型的方法包括:获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象;将上述活体对象的图像数据对应于表征活体类别的第一标签;基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签;将上述图像数据输入至机器学习模型中,以进行训练;以及基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型。

Description

构建活体识别模型和活体识别的方法、装置、设备及介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种构建活体识别模型和活体识别的方法、装置、设备及介质。
背景技术
随着人工智能技术的发展,人的面部特征作为一种屏幕锁定和解锁的途径。通过设置人脸识别***,可以在智能设备进行人脸的录入和识别,以实现用户基于人脸特征来对智能设备进行解锁。然而,在人脸支付、人脸安检和视频监控等领域,为了提高人脸识别的安全性,需要人脸识别***能够区分真实的人脸和一些携带有人脸信息的伪造脸,以避免人脸识别***遭受恶意攻击而导致一系列的损失。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下技术问题:相关技术中,在已有的人脸防伪方案中,防伪任务常常被建模为一个二分类问题,将真人作为一类,任何类型的攻击作为一类,这种二分类的建模方式将各种不同的攻击视作一类,混合的这一攻击类中需要学习到的特征模态就很多,导致混合攻击类的机器学习过程很复杂,机器学习的结果较差。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开的实施例提供了一种构建活体识别模型和活体识别的方法、装置、设备及介质。
第一方面,本公开的实施例提供了一种构建活体识别模型的方法。上述构建活体识别模型的方法包括:获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象;将上述活体对象的图像数据对应于表征活体类别的第一标签;基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签;将上述图像数据输入至机器学习模型中,以进行训练;以及基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型。
根据本公开的实施例,上述基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型,包括:在上述机器学习模型的每轮训练中,针对输入的当前图像数据,输出得到上述当前图像数据分别属于活体类别和属于上述多类物理介质中各类物理介质对应的非活体类别的各个概率值;根据上述各个概率值确定针对当前图像数据的目标损失函数,上述目标损失函数用于表征上述当前图像数据的预测类别与上述当前图像数据的标签对应的类别之间的偏离程度;以及在上述目标损失函数的收敛程度符合设定值的情况下停止训练,并得到训练完成的活体识别模型。
根据本公开的实施例,上述目标损失函数为交叉熵损失函数和三元中心损失函数的加权和。
根据本公开的实施例,上述交叉熵损失函数作为主损失函数,上述三元中心损失函数作为辅助损失函数,上述目标损失函数为上述辅助损失函数和权重系数的乘积与上述主损失函数的加和,上述权重系数的取值介于0~1之间且能够保证上述目标损失函数收敛。
根据本公开的实施例,上述基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签,包括:基于物理介质的属性类型差异,将上述物理介质划分为多个主类别;基于物理介质的形状、材料至少之一的差异,对每个主类别下的物理介质进行细分,得到细分类别;其中,上述主类别和上述细分类别均属于非活体类别;针对每个非活体对象的图像数据,确定当前非活体对象的物理介质所对应的目标主类别或目标细分类别;以及将当前非活体对象的图像数据对应于表征上述目标主类别或上述目标细分类别的第二标签。
根据本公开的实施例,上述主类别包括:纸质介质、屏幕介质、立体模型用材料介质;根据上述纸质介质的材料、形状差异,将上述纸质介质划分为以下细分类别的两种或更多种:普通纸质、弯曲纸质、裁剪纸质、扣洞纸质、普通照片、弯曲照片、裁剪照片、扣洞照片;根据上述屏幕介质的类型差异,将上述屏幕介质划分为以下细分类别的两种或更多种:台式机屏幕、平板电脑屏幕、手机屏幕、笔记本电脑屏幕;根据上述立体模型用材料介质的材料差异,将上述立体模型用材料介质划分为以下细分类别的两种或更多种:石膏模型、木质模型、金属模型、塑料模型。
第二方面,本公开的实施例提供了一种活体识别的方法。上述活体识别的方法包括:获取待检测的图像数据,上述待检测的图像数据中包含待识别对象;将上述待检测的图像数据输入至活体识别模型中,以输出得到上述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型;其中,上述活体识别模型由上述构建活体识别模型的方法构建得到。
第三方面,本公开的实施例提供了一种用于构建活体识别模型的装置。上述用于构建活体识别模型的装置包括:第一数据获取模块、标签关联模块、输入模块和训练模块。上述第一数据获取模块用于获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象。上述标签关联模块用于将上述活体对象的图像数据对应于表征活体类别的第一标签;以及用于基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签。上述输入模块用于将上述图像数据输入至机器学习模型中,以进行训练。上述训练模块用于基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型。
第四方面,本公开的实施例提供了一种用于活体识别的装置。上述用于活体识别的装置包括:第二数据获取模块和识别模块。上述第二数据获取模块用于获取待检测的图像数据,上述待检测的图像数据中包含待识别对象。上述识别模块用于将上述待检测的图像数据输入至活体识别模型中,以输出得到上述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型。其中,上述活体识别模型由上述构建活体识别模型的方法构建得到或者由上述用于构建活体识别模型的装置构建得到。
第五方面,本公开的实施例提供了一种电子设备。上述电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口和存储器通过通信总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现如上所述的构建活体识别模型的方法或活体识别的方法。
第六方面,本公开的实施例提供了一种计算机可读存储介质。上述计算机可读存储介质上存储有计算机程序,上述计算机程序被处理器执行时实现如上所述的构建活体识别模型的方法或活体识别的方法。
本公开实施例提供的上述技术方案与现有技术相比至少具有如下优点的部分或全部:
(1)通过基于物理介质的类型差异,将非活体对象的图像数据对应于表征非活体类别的多类第二标签,在进行机器学习模型的训练时,根据活体对象的第一标签和非活体对象的多类第二标签进行多分类学习,对于每一攻击类别的学习只需要聚焦更少量的特征,任务更加简单,机器学习更加容易且高效率,并且训练后得到的活体识别模型对于活体对象和非活体对象具有较好的区分度。
(2)将三分类以上的多分类训练过程,与由交叉熵损失函数和三元中心损失函数的加权和构成的目标损失函数进行结合,使得整体训练过程更为高效、快速且具有良好的收敛效果。其中,基于主损失函数Lce的设置,保证输入至机器学习模型的图像数据样本对应输出得到的预测类别尽可能靠近真实的标签所对应的类别;基于辅助损失函数Ltc的设置,在三类别以上的多类别训练场景下,使得训练过程中输入的图像数据样本与当前类别中心点之间的特征距离呈减小趋势,同时使得输入的图像数据样本与其他类别中心点之间的特征距离的最小值呈增大趋势,从而有效促进类内间距的减小以及类间间距的同时增大,加快了训练的收敛速度,且提升了同类之间聚合、不同类之间区分的效果。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了适用于本公开实施例的构建活体识别模型的方法和装置的***架构;
图2示意性示出了根据本公开实施例的构建活体识别模型的方法的流程图;
图3示意性示出了根据本公开实施例的操作S203的详细实施流程图;
图4示意性示出了根据本公开实施例的操作S205的详细实施流程图;
图5示意性示出了根据本公开实施例的构建活体识别模型的实施过程示意图;
图6示意性示出了采用交叉熵损失函数(Cross Entropy Loss)作为目标损失函数,训练得到的模型在测试集上的可视化特征;
图7示意性示出了采用交叉熵损失函数(Cross Entropy Loss)和三元中心损失函数(Triplet-Center Loss)的加权和作为目标损失函数,训练得到的活体识别模型在测试集上的可视化特征;
图8示意性示出了根据本公开实施例的活体识别的方法的流程图;
图9示意性示出了根据本公开实施例的用于构建活体识别模型的装置的结构框图;
图10示意性示出了根据本公开实施例的用于活体识别的装置的结构框图;以及
图11示意性示出了本公开实施例提供的电子设备的结构框图。
具体实施方式
本公开的实施例提供了一种构建活体识别模型和活体识别的方法、装置、设备及介质。上述构建活体识别模型的方法包括:获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象;将上述活体对象的图像数据对应于表征活体类别的第一标签;基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签;将上述图像数据输入至机器学习模型中,以进行训练;以及基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练(其中对应于至少3类,活体对象一类,物理介质承载的非活体对象至少2类),以得到活体识别模型。
上述活体识别模型对上述图像数据进行分类的结果为:活体类别、或上述多类物理介质中的一类物理介质对应的非活体类别。
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
图1示意性示出了适用于本公开实施例的构建活体识别模型的方法和装置的***架构。
参照图1所示,适用于本公开实施例的构建活体识别模型的方法及装置的***架构100包括:终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有图像捕获装置、图片/视频播放类应用等。还可以安装有其他通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是显示屏并且支持图片/视频播放的各种电子设备,该电子设备还可以进一步包括图像捕获装置,例如电子设备包括但不限于智能手机、平板电脑、笔记本电脑、台式计算机、无人驾驶汽车、监控设备等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所拍摄的图像或视频进行数据处理提供服务支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的图像/视频处理请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。例如,数据处理可以是对终端设备101、102、103所拍摄的图像或视频中的视频帧进行人脸识别处理,以得到上述图像或视频帧中的人脸是真实的人脸还是其他类型的伪人脸。
需要说明的是,本公开实施例所提供的构建活体识别模型的方法一般可以由服务器105或具有一定运算能力的终端设备执行。相应地,本公开实施例所提供的构建活体识别模型的装置一般可以设置于服务器105中或上述具有一定运算能力的终端设备中。本公开实施例所提供的构建活体识别模型的方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的构建活体识别模型的装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
本公开的第一个示例性实施例提供了一种构建活体识别模型的方法。
图2示意性示出了根据本公开实施例的构建活体识别模型的方法的流程图。
参照图2所示,本公开实施例提供的构建活体识别模型的方法包括以下操作:S201、S202、S203、S204和S205。上述操作S201~S205可以由带有图像捕获装置的终端设备执行,或者由服务器执行。
在操作S201,获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象。
在操作S202,将上述活体对象的图像数据对应于表征活体类别的第一标签。
在操作S203,基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签。
在操作S204,将上述图像数据输入至机器学习模型中,以进行训练。
在操作S205,基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型。
上述活体识别模型对上述图像数据进行分类的结果为:活体类别、或上述多类物理介质中的一类物理介质对应的非活体类别。
上述操作S201中,上述活体对象为真实的对象,例如为真实的人的部位,例如为人脸。上述物理介质承载的非活体对象可以是:照片上的人脸、A4纸上的人脸、屏幕上的人脸(例如手机屏幕上的人脸)、雕像对应的人脸等。这里以人脸作为活体对象的示例,在其他应用场景中,活体对象可以是其他真实的动物,例如为猫、狗、鸟等,物理介质承载的非活体对象为:照片上的猫/狗/鸟、A4纸上的猫/狗/鸟、屏幕上的猫/狗/鸟、雕像对应的猫/狗/鸟等。
获取目标对象经拍摄得到的图像数据的途径,可以是由终端设备直接对目标对象进行拍摄,以得到目标对象经拍摄得到的图像数据;也可以是由服务器从终端设备(例如照相机、手机摄像头、或者监控装置)所拍摄的图像、视频的数据库中获取照片、视频帧所对应的图像数据。
上述操作S202中,例如将第一标签表示为0,对活体对象的图像数据对应(也可以称为关联)于标签0,标签0表示该活体对象的真实分类为活体类别。应该理解的是,上述标签的数字0作为示例,也可以定义为其他数字,只要数字和表征的含义对应即可。
上述操作S203中,根据非活体对象所承载的物理介质的差异,可以将非活体对象的图像数据对应于多个不同的类别标签。示例性的,将非活体对象按照物理介质的差异划分为:普通纸质、弯曲纸质、裁剪纸质、扣洞纸质、台式机屏幕、平板电脑屏幕、手机屏幕、笔记本电脑屏幕、石膏模型、木质模型、金属模型、塑料模型这12种非活体类别,则对应的多类第二标签可以表示为:1、2、3、4、5、6、7、8、9、10、11、12,依次与上述各个类型进行对应,标签1表示非活体对象的真实分类为普通纸质对应的非活体对象,类似的,标签2、标签3、……、标签11、标签12分别对应表示非活体对象的真实分类为弯曲纸质对应的非活体对象、裁剪纸质对应的非活体对象、……、金属模型对应的非活体对象、塑料模型对应的非活体对象。
上述操作S204中,机器学习模型可以是卷积神经网络,也可以是其他类型的深度学习网络或者其他机器学习模型。
上述操作S205中,按照上述的标签示例,可以基于标签0、1、2、……、11、12来对机器学习模型进行多分类训练,从而得到活体识别模型。这里的多分类训练中,对应于至少3类,活体对象对应于一类,根据物理介质的种类差异,将物理介质承载的非活体对象对应于至少2类。
本公开的实施例中,考虑到攻击者可以基于纸片、屏幕、石膏等物理介质向人脸识别***呈现合法用户的人脸,当模型对基于物理介质的攻击进行识别时,对于不同的物理介质模型识别依赖的特征并不一样,例如对基于屏幕的攻击,模型主要依赖屏幕呈现时产生的摩尔纹特征来进行识别,而对于基于纸质的攻击,模型主要依赖纸质特有的纤维纹理,颜色域变化等特征来进行识别。因此,基于上述操作S201~S205,通过基于物理介质的类型差异,将非活体对象的图像数据对应于表征非活体类别的多类第二标签,在进行机器学习模型的训练时,根据活体对象的第一标签和非活体对象的多类第二标签进行多分类学习,对于每一攻击类别的学习只需要聚焦更少量且本质性的特征,任务更加简单,机器学习更加容易且高效率。
图3示意性示出了根据本公开实施例的操作S203的详细实施流程图。
根据本公开的实施例,参照图3所示,上述基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签的操作S203,包括以下子操作:S2031、S2032、S2033和S2034。
在操作S2031,基于物理介质的属性类型差异,将上述物理介质划分为多个主类别。
在操作S2032,基于物理介质的形状、材料至少之一的差异,对每个主类别下的物理介质进行细分,得到细分类别。其中,上述主类别和上述细分类别均属于非活体类别。
在操作S2033,针对每个非活体对象的图像数据,确定当前非活体对象的物理介质所对应的目标主类别或目标细分类别。
在操作S2034,将当前非活体对象的图像数据对应于表征上述目标主类别或上述目标细分类别的第二标签。
根据本公开的实施例,上述主类别包括:纸质介质、屏幕介质、立体模型用材料介质。
根据上述纸质介质的材料、形状差异,将上述纸质介质划分为以下细分类别的两种或更多种:普通纸质、弯曲纸质、裁剪纸质、扣洞纸质、普通照片、弯曲照片、裁剪照片、扣洞照片。
根据上述屏幕介质的类型差异,将上述屏幕介质划分为以下细分类别的两种或更多种:台式机屏幕、平板电脑屏幕、手机屏幕、笔记本电脑屏幕。
根据上述立体模型用材料介质的材料差异,将上述立体模型用材料介质划分为以下细分类别的两种或更多种:石膏模型、木质模型、金属模型、塑料模型。
图4示意性示出了根据本公开实施例的操作S205的详细实施流程图。
根据本公开的实施例,参照图4所示,上述基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型的操作S205包括以下子操作:S2051、S2052和S2053。
在子操作S2051,在上述机器学习模型的每轮训练中,针对输入的当前图像数据,输出得到上述当前图像数据分别属于活体类别和属于上述多类物理介质中各类物理介质对应的非活体类别的各个概率值。
在子操作S2052,根据上述各个概率值确定针对当前图像数据的目标损失函数,上述目标损失函数用于表征上述当前图像数据的预测类别与上述当前图像数据的标签对应的类别之间的偏离程度。
在子操作S2053,在上述目标损失函数的收敛程度符合设定值的情况下停止训练,并得到训练完成的活体识别模型。
根据本公开的实施例,上述目标损失函数为交叉熵损失函数和三元中心损失函数的加权和。
其中,三元中心损失函数(Triplet-Center Loss)是结合了三元损失(TripletLoss)和中心损失(Center Loss)的优势,三元损失在学习过程中通过让同一类的样本特征尽可能靠近,不同类别的样本特征尽可能远离,来达到增大类间可分离度的作用。中心损失首先为每一个类别提供一个类中心,在模型学习过程中通过最小化样本与对应类别中心的距离来达到缩小类内方差的目的并使得类内特征更加紧凑,三元中心损失函数既可以加大类间距又可以减小类内方差。
图5示意性示出了根据本公开实施例的构建活体识别模型的实施过程示意图。
参照图5所示,示例了构建活体识别模型的过程。本实施例中,目标对象包括:真实人脸、普通纸质承载的人脸、弯曲纸质承载的人脸、平板电脑屏幕承载的人脸、手机屏幕承载的人脸、石膏模型承载的人脸和金属模型承载的人脸,获取这些目标对象经拍摄的图像数据,分别采用图像数据0~6来对应上述各个目标对象的图像数据。将获取的大量的图像数据样本划分为训练集和测试集,将训练集中的图像数据样本输入至机器学***板电脑屏幕、手机屏幕、石膏模型或金属模型。
根据本公开的实施例,可以基于测试集对活体识别模型的准确度进行测试,并根据测试集对活体识别模型的参数进行调整,使得活体识别模型的应用场景泛化。
本公开的实施例中,在机器学习模型的训练过程中,通过采用由交叉熵损失函数与三元中心损失函数的加权和构成的目标损失函数,以交叉熵损失函数作为主损失函数,三元中心损失函数作为辅助损失函数(对应要乘以后续的公式(3)中前面的权重系数α)。基于主损失函数的设置,保证输入至机器学习模型的图像数据样本对应输出得到的预测类别尽可能靠近真实的标签所对应的类别;基于辅助损失函数的设置,在三类别以上的多类别训练场景下,能够有效促进类内间距的减小以及类间间距的同时增大。
为了验证本公开实施例的目标损失函数的效果,还对比了采用交叉熵损失函数与三元中心损失函数的加权和作为目标损失函数进行训练得到的模型,与只采用交叉熵损失函数进行训练得到的模型,这两种损失函数所对应的测试结果。
图6示意性示出了采用交叉熵损失函数(Cross Entropy Loss)作为目标损失函数,训练得到的模型在测试集上的可视化特征;图7示意性示出了采用交叉熵损失函数(Cross Entropy Loss)和三元中心损失函数(Triplet-Center Loss)的加权和作为目标损失函数,训练得到的活体识别模型在测试集上的可视化特征。
参照图6和图7中采用虚线框圈出的部分所示,圈出的部分内表示为真人特征(对应为活体类别),圈出部分之外的区域的其他点表示非真实人脸特征,对应于人脸防伪技术里面的攻击特征(对应为非活体类别)。通过对比图6和图7可以看到,图7对应的活体识别模型的真人特征与攻击特征可分离度更强,而图6对应模型的真人特征被攻击特征包围可分离度更弱,这说明在交叉熵损失函数Cross Entropy Loss的基础上加入三元中心损失函数Triplet-Center Loss可提升模型对攻击和真人的区分力度,证明了采用本公开实施例提供的目标损失函数训练得到的活体识别模型对于活体对象和非活体对象具有较好的区分度。
此外,相较于现有技术中的二分类训练场景,本公开实施例所提出的三分类(包含活体类型和至少两种其他非活体类型)的模型训练过程,对于每一攻击类别的学习只需要聚焦更少量且本质性的特征,不仅实现了特征的聚焦;还通过与由交叉熵损失函数和三元中心损失函数的加权和构成的目标损失函数进行结合,使得整体训练过程更为高效、快速且具有良好的收敛效果。
下面结合具体实例来描述目标损失函数的表达式。
假设训练数据为
Figure BDA0003176217620000101
其中N代表总体样本数量,xi是输入的图像数据样本,yi是xi对应的实际/真实标签,在一实施例中,以上述标签yi∈{0,1,2,3,…,9,10,11,12}作为示例;yi=0代表活体类型,其他数值1~12代表不同的攻击类型,包括:普通纸质、弯曲纸质、裁剪纸质、扣洞纸质、台式机屏幕、平板电脑屏幕、手机屏幕、笔记本电脑屏幕、石膏模型、木质模型、金属模型、塑料模型各自对应的非活体类型。
本实施例中,以机器学习模型包括权重共享的卷积神经网络(CNN)进行示例。对于每个图像数据样本xi,在经过权重共享的CNN网络f进行图像特征提取后,输出固定维度的特征f(xi),将f(xi)简记为fi
假设训练中每次参与迭代的样本数为M,M<N,那么每次参与迭代的M个样本对应的三元中心损失函数为:
Figure BDA0003176217620000111
Figure BDA0003176217620000112
其中,
Figure BDA0003176217620000113
表示输入的图像数据样本xi对应的真实标签yi所在的当前类别的中心点;fi为由CNN网络进行特征提取得到的特征;cj且j≠yi表示除yi之外的其他类别的中心点;m为三元损失预设的超参数;
Figure BDA0003176217620000114
为fi
Figure BDA0003176217620000115
的欧式距离,用于表征输入的图像数据样本xi与当前类别中心点之间的特征距离;
Figure BDA0003176217620000116
用于表征输入的图像数据样本xi与其他类别中心点之间的特征距离的最小值。
上述公式(1)中,预设的超参数m的设置目的是增大类间间距,具体数值可以预先进行优化。通过多次训练,使得三元中心损失函数Ltc和交叉熵损失函数加权构成的目标损失函数收敛至预设程度,其中要实现三元中心损失函数的收敛,通过训练模型的参数,使得
Figure BDA0003176217620000117
对应的类内距离减小,
Figure BDA0003176217620000118
对应的类间间距增大。
目标损失函数为交叉熵损失函数Lce和三元中心损失函数Ltc的加权和,将目标损失函数表示为L,则L满足以下表达式:
L=Lce+αLtc (3),
Figure BDA0003176217620000119
其中,
Figure BDA00031762176200001113
是图像数据样本xi经过CNN网络之后得到的识别为yi这一类的概率(或称为分值);α为三元中心损失函数的权重系数,α的取值为:0<α<1且能够保证目标损失函数收敛。根据实际实验效果可知,在保证目标损失函数收敛的前提下可以对α取尽可能大一些的值,以提提升训练速度。
其中,
Figure BDA00031762176200001114
满足以下表达式:
Figure BDA00031762176200001110
其中,
Figure BDA00031762176200001111
表示fi的权重,
Figure BDA00031762176200001112
表示偏置,这里的j的取值为分类结果的各个类别所对应的取值,在这里以标签0~12对应的类别进行示例。
本公开实施例提供的由交叉熵损失函数和三元中心损失函数的加权和构成的目标损失函数与三分类以上的多分类训练过程能够很好的匹配。通过以交叉熵损失函数作为主损失函数,三元中心损失函数作为辅助损失函数,参照公式(3)所示。基于主损失函数Lce的设置,保证输入至机器学习模型的图像数据样本对应输出得到的预测类别尽可能靠近真实的标签所对应的类别;基于辅助损失函数Ltc的设置,在三类别以上的多类别训练场景下,使得训练过程中输入的图像数据样本与当前类别中心点之间的特征距离呈减小趋势,同时使得输入的图像数据样本与其他类别中心点之间的特征距离的最小值呈增大趋势,从而有效促进类内间距的减小以及类间间距的同时增大,加快了训练的收敛速度,且提升了同类之间聚合、不同类之间区分的效果。
相较而言,本公开目标损失函数与二分类这一场景的适配度不佳,这是由于二分类的类内距离要比多分类的类内间距大,各种类型的攻击作为一个大类,导致类内距离大,不容易聚合,收敛速度非常慢。
具体而言,参照公式(1)中的
Figure BDA0003176217620000121
这一项而言,由于二分类中非活体类型所对应的中心点具有很大的波动,导致非活体这一类型对应的数据在训练过程中类内不容易聚合,使得输入的图像数据样本与其他类别中心点(二分类场景下只有一个类别中心点,且不稳定)之间的特征距离的最小值无法按照规律的形式进行增大,导致类间距离不容易分离,收敛的速度非常慢。本公开实施例提出的将三分类以上的多分类训练与交叉熵损失函数和三元中心损失函数加权形式的目标损失函数进行结合的思路为独创且效果优良。
本公开的第二个示例性实施例提供了一种活体识别的方法。
图8示意性示出了根据本公开实施例的活体识别的方法的流程图。
参照图8所示,本公开实施例提供的活体识别的方法包括以下操作:S801和S802。
在操作S801,获取待检测的图像数据,上述待检测的图像数据中包含待识别对象。
待检测的图像数据可以是各种类型的应用场景下的包含待识别对象的图像数据,例如在面部识别考勤机器的面部识别打卡的场景下,或者在个人智能设备安全验证的场景下,获取的待检测的图像数据可以是:由真实的用户在周围的背景中拍摄得到的图像数据,或者为不法用户采用人脸照片或者打印有人脸的A4纸在周围的背景中拍摄得到的图像数据。
在操作S802,将上述待检测的图像数据输入至活体识别模型中,以输出得到上述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型。
通过活体识别模型,可以将输入的待检测的图像数据中的待识别图像进行特征提取和识别,并识别出待识别对象的分类结果是活体类别,还是非活体类别中确定的物理介质类型。
其中,上述活体识别模型由第一实施例描述的构建活体识别模型的方法构建得到。
由于活体识别模型对于活体对象和非活体对象具有较好的区分度,根据活体对象的第一标签和非活体对象的多类第二标签进行多分类学习,对于每一攻击类别的学习只需要聚焦更少量且本质性的特征,任务更加简单,机器学习更加容易且高效率,并且能够快速提取出待检测的图像数据中的待识别对象的特征信息并对其进行分类,进行活体识别时具有高效率且较高的识别准确度。
本公开的第三个示例性实施例提供了一种用于构建活体识别模型的装置。
图9示意性示出了根据本公开实施例的用于构建活体识别模型的装置的结构框图。
参照图9所示,本公开实施例提供的用于构建活体识别模型的装置900包括:第一数据获取模块901、标签关联模块902、输入模块903和训练模块904。
上述第一数据获取模块901用于获取目标对象经拍摄得到的图像数据,上述目标对象包含:活体对象和多类物理介质承载的非活体对象。
上述标签关联模块902用于将上述活体对象的图像数据对应于表征活体类别的第一标签;以及用于基于物理介质的类型差异,将上述非活体对象的图像数据对应于表征非活体类别的多类第二标签。上述标签关联模块902包括用于实施上述子操作S2031~S2034的功能模块或子模块。
上述输入模块903用于将上述图像数据输入至机器学习模型中,以进行训练。
上述训练模块904用于基于上述第一标签和多类上述第二标签来对上述机器学习模型进行多分类训练,以得到活体识别模型。
上述活体识别模型对上述图像数据进行分类的结果为:活体类别,或上述多类物理介质中的一类物理介质对应的非活体类别。
上述训练模块904包括用于实施上述子操作S2051~S2053的功能模块或子模块。
本公开的第四个示例性实施例提供了一种用于活体识别的装置。
图10示意性示出了根据本公开实施例的用于活体识别的装置的结构框图。
参照图10所示,本公开实施例提供的用于活体识别的装置1000包括:第二数据获取模块1001和识别模块1002。
上述第二数据获取模块1001用于获取待检测的图像数据,上述待检测的图像数据中包含待识别对象。
上述识别模块1002用于将上述待检测的图像数据输入至活体识别模型中,以输出得到上述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型。
其中,上述活体识别模型由上述构建活体识别模型的方法构建得到或者由上述用于构建活体识别模型的装置构建得到。
上述用于活体识别的装置1000中可以存储有预先构建的活体识别模型,或者可以与用于构建活体识别模型的装置进行数据通信,来调用构建好的活体识别模型对待检测的图像数据进行处理,以得到待识别对象的分类结果。
上述第三个实施例中,第一数据获取模块901、标签关联模块902、输入模块903和训练模块904中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。第一数据获取模块901、标签关联模块902、输入模块903和训练模块904中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一数据获取模块901、标签关联模块902、输入模块903和训练模块904中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
上述第四个实施例中,第二数据获取模块1001和识别模块1002中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。第二数据获取模块1001和识别模块1002中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第二数据获取模块1001和识别模块1002中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
本公开的第五个示例性实施例提供了一种电子设备。
图11示意性示出了本公开实施例提供的电子设备的结构框图。
参照图11所示,本公开实施例提供的电子设备1100包括处理器1101、通信接口1102、存储器1103和通信总线1104,其中,处理器1101、通信接口1102和存储器1103通过通信总线1104完成相互间的通信;存储器1103,用于存放计算机程序;处理器1101,用于执行存储器上所存放的程序时,实现如上所述的构建活体识别模型的方或活体识别的方法。
本公开的第六个示例性实施例还提供了一种计算机可读存储介质。上述计算机可读存储介质上存储有计算机程序,上述计算机程序被处理器执行时实现如上所述的构建活体识别模型的方或活体识别的方法。
该计算机可读存储介质可以是上述实施例中描述的设备/装置中所包含的;也可以是单独存在,而未装配入该设备/装置中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (11)

1.一种构建活体识别模型的方法,其特征在于,包括:
获取目标对象经拍摄得到的图像数据,所述目标对象包含:活体对象和多类物理介质承载的非活体对象;
将所述活体对象的图像数据对应于表征活体类别的第一标签;
基于物理介质的类型差异,将所述非活体对象的图像数据对应于表征非活体类别的多类第二标签;
将所述图像数据输入至机器学习模型中,以进行训练;以及
基于所述第一标签和多类所述第二标签来对所述机器学习模型进行多分类训练,以得到活体识别模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一标签和多类所述第二标签来对所述机器学习模型进行多分类训练,以得到活体识别模型,包括:
在所述机器学习模型的每轮训练中,针对输入的当前图像数据,输出得到所述当前图像数据分别属于活体类别和属于所述多类物理介质中各类物理介质对应的非活体类别的各个概率值;
根据所述各个概率值确定针对当前图像数据的目标损失函数,所述目标损失函数用于表征所述当前图像数据的预测类别与所述当前图像数据的标签对应的类别之间的偏离程度;以及
在所述目标损失函数的收敛程度符合设定值的情况下停止训练,并得到训练完成的活体识别模型。
3.根据权利要求2所述的方法,其特征在于,所述目标损失函数为交叉熵损失函数和三元中心损失函数的加权和。
4.根据权利要求3所述的方法,其特征在于,所述交叉熵损失函数作为主损失函数,所述三元中心损失函数作为辅助损失函数,所述目标损失函数为所述辅助损失函数和权重系数的乘积与所述主损失函数的加和,所述权重系数的取值介于0~1之间且能够保证所述目标损失函数收敛。
5.根据权利要求1所述的方法,其特征在于,所述基于物理介质的类型差异,将所述非活体对象的图像数据对应于表征非活体类别的多类第二标签,包括:
基于物理介质的属性类型差异,将所述物理介质划分为多个主类别;
基于物理介质的形状、材料至少之一的差异,对每个主类别下的物理介质进行细分,得到细分类别;其中,所述主类别和所述细分类别均属于非活体类别;
针对每个非活体对象的图像数据,确定当前非活体对象的物理介质所对应的目标主类别或目标细分类别;以及
将当前非活体对象的图像数据对应于表征所述目标主类别或所述目标细分类别的第二标签。
6.根据权利要求5所述的方法,其特征在于,
所述主类别包括:纸质介质、屏幕介质、立体模型用材料介质;
根据所述纸质介质的材料、形状差异,将所述纸质介质划分为以下细分类别的两种或更多种:普通纸质、弯曲纸质、裁剪纸质、扣洞纸质、普通照片、弯曲照片、裁剪照片、扣洞照片;
根据所述屏幕介质的类型差异,将所述屏幕介质划分为以下细分类别的两种或更多种:台式机屏幕、平板电脑屏幕、手机屏幕、笔记本电脑屏幕;
根据所述立体模型用材料介质的材料差异,将所述立体模型用材料介质划分为以下细分类别的两种或更多种:石膏模型、木质模型、金属模型、塑料模型。
7.一种活体识别的方法,其特征在于,包括:
获取待检测的图像数据,所述待检测的图像数据中包含待识别对象;
将所述待检测的图像数据输入至活体识别模型中,以输出得到所述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型;其中,所述活体识别模型由权利要求1-6中任一项所述的方法构建得到。
8.一种用于构建活体识别模型的装置,其特征在于,包括:
第一数据获取模块,用于获取目标对象经拍摄得到的图像数据,所述目标对象包含:活体对象和多类物理介质承载的非活体对象;
标签关联模块,用于将所述活体对象的图像数据对应于表征活体类别的第一标签;以及用于基于物理介质的类型差异,将所述非活体对象的图像数据对应于表征非活体类别的多类第二标签;
输入模块,用于将所述图像数据输入至机器学习模型中,以进行训练;以及
训练模块,用于基于所述第一标签和多类所述第二标签来对所述机器学习模型进行多分类训练,以得到活体识别模型。
9.一种用于活体识别的装置,其特征在于,包括:
第二数据获取模块,用于获取待检测的图像数据,所述待检测的图像数据中包含待识别对象;
识别模块,用于将所述待检测的图像数据输入至活体识别模型中,以输出得到所述待识别对象的分类结果为活体类别、或非活体类别所对应的物理介质类型;其中,所述活体识别模型由权利要求1-6中任一项所述的方法构建得到或者由权利要求8所述的装置构建得到。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器、通信接口和存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-7中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任一项所述的方法。
CN202110833025.XA 2021-07-22 2021-07-22 构建活体识别模型和活体识别的方法、装置、设备及介质 Pending CN115690918A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110833025.XA CN115690918A (zh) 2021-07-22 2021-07-22 构建活体识别模型和活体识别的方法、装置、设备及介质
PCT/CN2022/093514 WO2023000792A1 (zh) 2021-07-22 2022-05-18 构建活体识别模型和活体识别的方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110833025.XA CN115690918A (zh) 2021-07-22 2021-07-22 构建活体识别模型和活体识别的方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN115690918A true CN115690918A (zh) 2023-02-03

Family

ID=84978915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110833025.XA Pending CN115690918A (zh) 2021-07-22 2021-07-22 构建活体识别模型和活体识别的方法、装置、设备及介质

Country Status (2)

Country Link
CN (1) CN115690918A (zh)
WO (1) WO2023000792A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117196560B (zh) * 2023-11-07 2024-02-13 深圳市慧云智跑网络科技有限公司 一种基于物联网的打卡设备数据采集方法及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110765923B (zh) * 2019-10-18 2024-05-24 腾讯科技(深圳)有限公司 一种人脸活体检测方法、装置、设备及存储介质
CN111191519B (zh) * 2019-12-09 2023-11-24 同济大学 一种用于移动供电装置用户接入的活体检测方法
CN112036331B (zh) * 2020-09-03 2024-04-09 腾讯科技(深圳)有限公司 活体检测模型的训练方法、装置、设备及存储介质
CN112270288A (zh) * 2020-11-10 2021-01-26 深圳市商汤科技有限公司 活体识别、门禁设备控制方法和装置、电子设备
CN112597885A (zh) * 2020-12-22 2021-04-02 北京华捷艾米科技有限公司 人脸活体检测方法、装置、电子设备及计算机存储介质
CN112883831A (zh) * 2021-01-29 2021-06-01 北京市商汤科技开发有限公司 一种活体检测的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023000792A1 (zh) 2023-01-26

Similar Documents

Publication Publication Date Title
Tariq et al. Gan is a friend or foe? a framework to detect various fake face images
Goel et al. Dual branch convolutional neural network for copy move forgery detection
CN111886842B (zh) 使用基于阈值的匹配进行远程用户身份验证
CN110188829B (zh) 神经网络的训练方法、目标识别的方法及相关产品
Fourati et al. Anti-spoofing in face recognition-based biometric authentication using image quality assessment
US9626550B2 (en) Grouping face images using statistic distribution estimate
CN109284613B (zh) 标识检测及仿冒站点检测方法、装置、设备及存储介质
Phan et al. Tracking multiple image sharing on social networks
Ghai et al. A deep-learning-based image forgery detection framework for controlling the spread of misinformation
CN110348907A (zh) 一种广告人群的定向方法及装置
TW201944294A (zh) 身份驗證方法和裝置、電子裝置、電腦程式和儲存介質
WO2022246989A1 (zh) 一种数据识别方法、装置、设备及可读存储介质
CN114444566B (zh) 一种图像伪造检测方法、装置以及计算机存储介质
CN115223022A (zh) 一种图像处理方法、装置、存储介质及设备
WO2023000792A1 (zh) 构建活体识别模型和活体识别的方法、装置、设备及介质
CN113591603A (zh) 证件的验证方法、装置、电子设备及存储介质
CN112041847A (zh) 提供具有隐私标签的图像
CN113378609B (zh) 代理商代签名的识别方法及装置
CN113723310B (zh) 基于神经网络的图像识别方法及相关装置
WO2022242032A1 (zh) 数据分类方法及装置、电子设备、存储介质和计算机程序产品
Povedano Álvarez et al. Learning strategies for sensitive content detection
Chen Design and simulation of AI remote terminal user identity recognition system based on reinforcement learning
Kisku et al. Multithread face recognition in cloud
Tubbs et al. Facial expression analysis as a means for additional biometric security in recognition systems
KR102060110B1 (ko) 컨텐츠에 포함되는 객체를 분류하는 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination