CN115171224A - 一种检测模型的获取方法、活性检测方法和相关装置 - Google Patents

一种检测模型的获取方法、活性检测方法和相关装置 Download PDF

Info

Publication number
CN115171224A
CN115171224A CN202210646729.0A CN202210646729A CN115171224A CN 115171224 A CN115171224 A CN 115171224A CN 202210646729 A CN202210646729 A CN 202210646729A CN 115171224 A CN115171224 A CN 115171224A
Authority
CN
China
Prior art keywords
detection
model
training
detection model
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210646729.0A
Other languages
English (en)
Inventor
李旭嵘
于鲲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN202210646729.0A priority Critical patent/CN115171224A/zh
Publication of CN115171224A publication Critical patent/CN115171224A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种检测模型的获取方法,包括:获取初始参数,初始参数是从预训练模型中获取的参数,预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;利用初始参数对初始检测模型进行初始化处理,获得初始化后的模型;利用M个有标签样本对初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,M个有标签样本中的任意一个有标签样本对应的标签包括任意一个有标签样本中的对象是否为活体的信息。该方法可以提高检测模型的准确性。

Description

一种检测模型的获取方法、活性检测方法和相关装置
技术领域
本申请涉及计算机技术领域,具体涉及检测模型的获取方法、活性检测方法和相关装置。
背景技术
活性检测技术主要是指用于判断采集到的数据(例如,视频数据)中的面部是真实面部,还是伪造的面部攻击(例如,彩色纸张打印的面部图像)的技术方案。
传统技术中,通常利用大量带有标签的训练样本对神经网络模型进行训练获得检测模型。进一步,可以利用达到训练标准的检测模型对获取的视频数据中的对象进行活性检测。但在一些活性检测技术(例如,光线活性检测技术)中,通常难以获取大量带有标签的训练样本,这样,使得利用少量带有标签的训练样本训练获得的检测模型不够准确。
因此,亟需一种检测模型的获取方法,以提高检测模型的准确性。
发明内容
本申请提供一种检测模型的获取方法、活性检测方法和相关装置,以提高检测模型的准确性。
本申请实施例提供一种检测模型的获取方法,包括:获取初始参数,所述初始参数是从预训练模型中获取的参数,所述预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;利用所述初始参数对初始检测模型进行初始化处理,获得初始化后的模型;利用M个有标签样本对所述初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,所述M个有标签样本中的任意一个有标签样本对应的标签包括所述任意一个有标签样本中的对象是否为活体的信息。
可选的,在一些实现方式中,所述方法还包括:对所述N个无标签样本中的任意一个无标签样本中的部分区域进行擦除,获得擦除处理后的无标签样本;利用所述擦除处理后的无标签样本对初始预训练模型进行训练,获得所述预训练模型。
可选的,在另一些实现方式中,所述初始预训练模型包括编码器和解码器,所述对初始预训练模型进行训练,包括:使用所述编码器对所述擦除处理后的无标签样本进行编码,获得编码结果;使用所述解码器对所述编码结果进行解码,获得依据所述擦除处理后的无标签样本的还原结果;将所述还原结果与所述无标签样本进行比较,判断还原后的图像是否达到还原要求,并记录结果;针对所搜集的无标签样本重复上述步骤,并根据每轮记录的结果,判断所述预训练模型是否训练成功;若不成功,则对所述编码器、解码器的参数进行调整,若成功,则结束训练;所述获取初始参数,包括:获取训练成功后的所述预训练模型包括的所述编码器的参数,将其作为所述初始参数。
可选的,在另一些实现方式中,所述检测模型包括第一输出结果,所述第一输出结果用于指示输入至所述检测模型的测试样本中的待检测对象是否为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度。
可选的,在另一些实现方式中,所述任意一个无标签样本为图像帧,所述任意一个有标签样本为图像序列。
可选的,在另一些实现方式中,所述检测模型应用于活性检测场景。
本申请实施例还提供一种活性检测方法,包括:接收活性检测请求,所述活性检测请求用于请求对图像序列中的待检测对象进行活性检测,所述图像序列是将光线配置信息对应的光线作为光源投射至所述待检测对象并对所述待检测对象进行图像采集获得的;利用检测模型对所述图像序列进行处理,获得第一检测结果;根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体;其中,所述检测模型是根据上述本申请实施例提供的检测模型的获取方法所获取的检测模型。
可选的,在一些实现方式中,所述根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体,包括:若所述第一检测结果用于指示所述图像序列中的待检测对象为活体,则确定所述图像序列中的待检测对象为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列,所述方法还包括:利用所述检测模型对所述图像序列进行处理,获得第二检测结果,所述第二检测结果用于指示第三颜色序列,所述第三颜色序列是所述图像序列中的待检测对象所受到的表面的光线的颜色序列;若确定所述光线配置信息对应的光线的颜色序列与所述第三颜色序列的差异大于预设阈值,则确定所述图像序列被篡改。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度,所述方法还包括:利用所述检测模型对所述图像序列进行处理,获得第三检测结果,所述第三检测结果用于指示所述图像序列中的待检测对象所处环境的光线可用置信度;若所述光线可用置信度低于预定的阈值,则确定所述检测模型的检测结果无法采信。
可选的,在另一些实现方式中,所述方法还包括:接收所述活性检测请求后,在所述光线配置信息对应的光线照射至所述待检测对象的情况下,获得针对所述待检测对象的视频数据;根据预设时间间隔从所述视频数据中获得所述图像序列。
可选的,在另一些实现方式中,所述方法应用于以下任意一种应用场景:支付场景、账号登录场景、或者门禁安防场景。
本申请实施例还提供一种检测模型的获取装置,包括:获取单元,用于获取初始参数,所述初始参数是从预训练模型中获取的参数,所述预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;处理单元,用于利用所述初始参数对初始检测模型进行初始化处理,获得初始化后的模型;训练单元,用于利用M个有标签样本对所述初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,所述M个有标签样本中的任意一个有标签样本对应的标签包括所述任意一个有标签样本中的对象是否为活体的信息。
可选的,在一些实现方式中,所述训练单元还用于:对所述N个无标签样本中的任意一个无标签样本中的部分区域进行擦除,获得擦除处理后的无标签样本;利用所述擦除处理后的无标签样本对初始预训练模型进行训练,获得所述预训练模型。
可选的,在另一些实现方式中,所述训练单元还用于:使用所述编码器对所述擦除处理后的无标签样本进行编码,获得编码结果;使用所述解码器对所述编码结果进行解码,获得依据所述擦除处理后的无标签样本的还原结果;将所述还原结果与所述无标签样本进行比较,判断还原后的图像是否达到还原要求,并记录结果;针对所搜集的无标签样本重复上述步骤,并根据每轮记录的结果,判断所述预训练模型是否训练成功;若不成功,则对所述编码器、解码器的参数进行调整,若成功,则结束训练;所述获取单元还用于:获取训练成功后的所述预训练模型包括的所述编码器的参数,将其作为所述初始参数。
可选的,在另一些实现方式中,所述检测模型包括第一输出结果,所述第一输出结果用于指示输入至所述检测模型的测试样本中的待检测对象是否为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度。
可选的,在另一些实现方式中,所述任意一个无标签样本为图像帧,所述任意一个有标签样本为图像序列。
可选的,在另一些实现方式中,所述检测模型应用于活性检测场景。
本申请实施例还提供一种活性检测装置,包括:接收单元,用于接收活性检测请求,所述活性检测请求用于请求对图像序列中的待检测对象进行活性检测,所述图像序列是将光线配置信息对应的光线作为光源投射至所述待检测对象并对所述待检测对象进行图像采集获得的;处理单元,用于利用检测模型对所述图像序列进行处理,获得第一检测结果;确定单元,用于根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体;其中,所述检测模型是根据上述本申请实施例提供的检测模型的获取方法所获取的检测模型。
可选的,在一些实现方式中,所述确定单元还用于:若所述第一检测结果用于指示所述图像序列中的待检测对象为活体,则确定所述图像序列中的待检测对象为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列,所述方法还包括:利用所述检测模型对所述图像序列进行处理,获得第二检测结果,所述第二检测结果用于指示第三颜色序列,所述第三颜色序列是所述图像序列中的待检测对象所受到的表面的光线的颜色序列;若确定所述光线配置信息对应的光线的颜色序列与所述第三颜色序列的差异大于预设阈值,则确定所述图像序列被篡改。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度,所述处理单元还用于:利用所述检测模型对所述图像序列进行处理,获得第三检测结果,所述第三检测结果用于指示所述图像序列中的待检测对象所处环境的光线可用置信度;所述确定单元还用于:若所述光线可用置信度低于预定的阈值,则确定所述检测模型的检测结果无法采信。
可选的,在另一些实现方式中,所述处理单元还用于:接收所述活性检测请求后,在所述光线配置信息对应的光线照射至所述待检测对象的情况下,获得针对所述待检测对象的视频数据;根据预设时间间隔从所述视频数据中获得所述图像序列。
可选的,在另一些实现方式中,所述方法应用于以下任意一种应用场景:支付场景、账号登录场景、或者门禁安防场景。
应当理解,本部分所描述的内容并非旨在标识本申请公开的实施例的关键或重要特征,也不用于限制本申请公开的范围。本申请公开的其它特征将通过以下的说明书而变得容易理解。
本申请提供的检测模型的获取方法,包括:获取初始参数,所述初始参数是从预训练模型中获取的参数,预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;利用初始参数对初始检测模型进行初始化处理,获得初始化后的模型;利用M个有标签样本对初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,M个有标签样本中的任意一个有标签样本对应的标签包括任意一个有标签样本中的对象是否为活体的信息。上述获取检测模型的过程中,预训练模型是通过对大量的无标签样本进行训练获得的,可以提高无标签数据的利用率、避免有标签数据紧缺的问题。利用预训练模型的参数对初始检测模型进行初始化,可以降低检测模型的训练迭代次数、提高检测模型训练的效率;利用少量有标签的样本对初始化后的检测模型进行训练,则可以进一步提高检测模型的准确性;即,本方法在检测模型的训练效率和检测精确性方面,获得了平衡。
本申请提供的活性检测方法,包括:接收活性检测请求,活性检测请求用于请求对图像序列中的待检测对象进行活性检测,图像序列是将光线配置信息对应的光线作为光源投射至待检测对象并对待检测对象进行图像采集获得的;利用检测模型对图像序列进行处理,获得第一检测结果;根据第一检测结果,确定图像序列中的待检测对象是否为活体;其中,检测模型是根据本申请提供的检测模型的获取方法获取的模型。上述活性检测方法中,在接收到活性检测请求后,利用检测模型对该活性检测请求关联的图像序列进行处理获得第一检测结果,并根据第一检测结果确定图像序列中的待检测对象是否为活体。其中,检测模型是根据本申请提供的检测模型的获取方法确定的,故该第一检测结果具有较高的准确性。
附图说明
图1是本申请实施例提供的一种检测模型的获取方法的流程图。
图2是本申请实施例提供的利用无标签样本对初始预训练模型进行训练获得预训练模型的流程图。
图3是本申请实施例提供的利用无标签样本对初始预训练模型进行训练获得预训练模型的过程示意图。
图4是本申请实施例提供的一种活性检测方法的流程图。
图5是本申请实施例提供的另一种活性检测方法的流程图。
图6是本申请实施例提供的一种检测模型的获取装置的示意图。
图7是本申请实施例提供的一种活性检测装置的示意图。
图8是本申请实施例提供的一种检测模型的获取设备的示意图。
图9是本申请实施例提供的一种活性检测设备的示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
本申请提供了一种检测模型的获取方法、活性检测方法和相关装置。
首先,对本申请实施例中涉及的专业技术用语进行简单介绍:
光线活性检测:通过设备屏幕发射不同颜色光线,捕捉作为检测对象的面部成像的变化,从而辨别屏幕前的物体是否是验证者真人。本申请实施例中,仅仅关注是否为活体的判断,不涉及检测对象是否为具体某个人的面部识别判断。所谓活性检测,即判断检测对象是否为活体。
以下对本申请提供的检测模型的获取方法、活性检测方法和相关装置进行详细说明。可以理解的是,本申请提供的各实施例之间不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。
图1是本申请实施例提供的一种检测模型的获取方法的流程图。本申请实施例提供的检测模型的获取方法可以由训练设备来执行。可以理解的是,该训练设备可以实现为软件、或者软件和硬件的组合。例如,本申请实施例中的训练设备可以但不限于是服务器或用户使用的终端设备。如图1,本申请实施例提供的检测模型的获取方法包括步骤S110至步骤S130。下面,对步骤S110至步骤S130进行详细介绍。
步骤S110,获取初始参数,初始参数是从预训练模型中获取的参数,预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数。
在本申请实施例中,获取初始参数,包括:从训练获得的预训练模型包括的编码器中获取初始参数;在本实施例中提供的一种具体实现方式中,该初始参数为本实施例提供的预训练模型所包括的编码器的参数。以下就结合该具体实现方式,说明本实施例的具体实现方式。
本实施例提供的具体实现方式中,预训练模型为主要包括编码器和解码器的模型;预训练模型是采用无标签样本(或者称为无标注样本)通过初始预训练模型经过训练获得;即,该训练过程是一个自监督训练过程。
在对上述预训练模型进行训练的过程中,编码器是主要的被训练对象,本步骤中所述的初始参数是从预训练模型中获取的参数,其中的参数就是指训练完成后的编码器的参数。
在预训练过程中,针对用于训练的作为所述无标签样本的原始图像帧,所述编码器先对该原始图像帧进行编码,获得编码数据;所述解码器在该预训练模型中类似于对抗模型,用于将所述编码器编码后的编码数据再解码转换为图像数据,并根据转换后的图像数据获得解码后图像;之后,将该解码后图像与所述原始图像帧比较,如果通过比较,判断解码后图像与原始图像帧两者之间的差别在预定阈值内,则所述编码器达到预定的训练效果。达到预定训练效果的编码帧,其所包含的参数能够较好的反映所述图像帧的特征,因此,可以作为所述初始参数。
例如,向编码器提供的原始图像帧为面部图像,一般的,是将图像分割为若干固定大小的区域,分别根据各个区域的特征(如RGB参数特征)对各区域进行相应的编码,该编码器对该面部图像进行学习,可以获得该面部图像的编码,这些被编码的区域可能对应于面部的特征,如某些区域可以反映眼睛形状,某些区域反映鼻子形状或嘴巴形状等。预训练模型中的解码器可以对预训练模型中的编码器输出的各个区域的编码结果进行解码,以获得该编码器输出的结果对应的解码结果。例如,解码器的输入为编码器输出的对应眼睛、鼻子或嘴巴等部位的图像区域特征,解码器对这些特征进行解码,并进行组合后,可以获得这些特征对应的面部图像。本实施例的后续步骤在这些初始参数上继续进行有监督训练,就可以获得更好的训练效果。预训练模型中的编码器可以从输入至该编码器的输入数据中学习到该输入数据的重要特征。
以下结合图2,图3,对上述采用无标签样本对初始预训练模型进行训练的一种优选方式进行详细说明;图2是该优选方式的流程图,图3是该优选方式的处理过程的示意图。该优选方式的特点是对原始图像帧随机擦除了部分块后,提供给编码器,从而能够使编码器在更深的层次上反映面部的图像特征。
步骤S201,对所述N个无标签样本中的各样本进行如下擦除处理:对部分区域进行擦除,获得擦除后的N个无标签样本。
该步骤实现对作为样本的图像帧进行先期处理,该先期处理具体是擦除部分内容。由于这些图像帧没有进行任何标注,因此,这些图像帧称为无标签样本。由于不需要进行标注,因此,这些作为样本的图像帧更易于获得。
本领域技术人员都知道,对于模型训练而言,为了获得较好的训练效果,需要数量足够的样本,例如数万、数十万、数百万的可用于训练的样本。因此,本步骤所述的N个无标签样本,其数量级可以是上述任意一种可能,或者,根据具体训练需求在其他数量级,显然,N是正整数;当然,其具体数值并不需要特别精确。本步骤的擦除处理,需要针对各个无标签样本分别进行,由于对各个样本的处理过程基本一致,以下以图3中的原始图像帧A作为无标签样本的一个示例。
机器模型训练包括有监督训练方式,和自监督训练方式;所谓有监督练方式,是采用经过标注的样本提供给机器学习模型,机器学习模型根据其标注判断其处理结果是否准确,从而实现参数的调整;显然,这种训练模式下,需要根据训练需求,对样本进行相应的标注,获得有标签样本(或者称为标注样本),而这些标注一般只能采用人工方式实现,样本数量的要求又往往非常大,这就会导致较多的成本付出,以及难以避免人工标注的错漏。而本优选方案的对所述初始预训练模型进行训练,采用的是自监督训练方式,其训练用的样本不需要进行标注,也就是采用无标签样本,其样本获取成本相对有标签样本大幅下降,并且样本便于获得,从而使本优选方案对初始预训练模型的训练便于开展。
如图3所示,原始图像帧A作为无标签样本,其获得方式可以从各种面部图像视频帧中获得,例如,各种终端设备搜集的面部图像进行面部识别时采集的视频,这些数据进行脱敏处理后,就可以从中抽取视频帧作为无标签样本;具体的,例如,搜集上传到服务端的视频Vi(i=1,2,..n),这些视频无任何标签,但是一般都与面部识别有关,然后将视频截帧获得Framej(j=1,2,..m);这些视频帧就是初始样本,或者称为初始图像帧。
由于从不同渠道搜集的初始图像帧可能具有相差比较大的图像参数,为了机器训练中数据的统一性,需要对上述视频截帧进行一些统一的前期处理;具体包括,将初始图像帧的尺寸缩放到统一的大小,例如,缩放到224*224*3的大小(其中224为像素,3是指不同的通道,例如RGB就包括三种通道,也可以理解为深度),然后对该缩放后的图像帧按照像素坐标在空间位置上进行块切割(patch切割),每一个块(patch)具有固定大小,例如,块大小为16*16,从而,使一个初始图像帧形成一个块序列(patch1,patch2,..patchp)。这样就获得了经过初步处理的原始图像帧;如图3示出的原始图像帧A。
本步骤中所述的对部分区域进行擦除,获得擦除后的N个无标签样本,其具体的实现方式可以采用如下方式:随机擦除掉预设比例的块,将未擦除的块输入编码器进行机器学习。所述的部分区域,优选的,是以块为单位的区域,并且这些区域是随机的;当然,不排除采用擦除固定位置的部分区域的块的方式,但采用擦除固定位置的方式,其训练结果可能会造成泛化性不够好,当然,不能排除在需求不高的情况下可以采用;显然,这种实现方案也在本申请的要求保护的范围之内。
如图3所示,原始图像帧A被分割为16个图像块,随机擦除了其中9个图像块,获得了擦除处理后的无标签样本,即,由未擦除的图像块组成的样本,这些图像块代表该原始图像帧A,参与后续编码器210的编码处理。
步骤S202,利用所述擦除处理后的N个无标签样本对初始预训练模型进行训练,获得所述预训练模型,其中,所述初始预训练模型包括编码器和解码器。
本步骤中,使用前述步骤S201中获得的无标签样本对初始训练模型进行训练,训练达到目标要求,就获得了所述预训练模型;其中,所述初始训练模型是具有初始参数和预定的模型结构的机器学习模型。自然的,在各种机器学习模型中,有多种可以选择的机器模型,具体针对图像识别,也可以有多种选择;一般的自监督训练的机器学习模型,都有编码器和解码器(或者称为译码器),训练成功后的编码器的参数可以深刻反映出图像识别的特征,因此可以将其作为后续步骤中对初始检测模型进行初始化处理的所述初始参数。
如图3所示,所述编码器210对擦除处理后的无标签样本进行编码,所谓编码,即将原来的图像块的信息,通过某种映射函数,转换到新的低维度数学空间上予以表达,在编码器210选择不同的参数的情况下,可以转换为不同的编码结果,而所述映射函数中就包含实现转换的相关参数。当然,在本优选方案中,在训练进行之前和进行之中,所述编码器210中的参数实际上处于待确定状态,整个自监督训练的过程主要就是为了获得编码器210的合理参数选择。
本步骤中对初始预训练模型进行训练的过程可以参见图2中的步骤S202-1,到步骤S202-3。
步骤S202-1,使用所述编码器对所述擦除处理后的无标签样本进行编码,获得编码结果。
本步骤中,编码器210针对所述擦除处理后的无标签样本进行编码,获得编码结果。如图3所示,该图以所述N个无标签样本中的某个原始图像帧A为例说明编码的过程。尽管这里仅仅以其中一个无标签样本为例,当然,实际上需要对N个无标签样本进行同样的处理。
如图3所示,针对擦除处理后的无标签样本进行编码,其实质是对擦除处理后剩余的图像块进行编码,在图3的具体例子中,是根据剩余的7个图像块的图像参数,使用编码器210进行编码,即通过映射函数将这些图像参数转换映射到另一个低维度的数学空间上予以表达。该步骤需要编码的仅仅是剩余的7个图像块,这些图像块代表整个原始图像帧A的特性。在该步骤,编码器210选择映射函数的参数不同,就会有不同的编码结果,而不同的结果对应于对原始图像帧A的不同的特征反映方式,对预训练模型训练的目的,就是对其中的参数进行尽可能合理的选择,以使其尽可能的反映图像的深层次特征。
步骤S202-2,使用所述解码器对所述编码结果进行解码,获得依据所述擦除处理后的无标签样本的还原结果。
所述解码器220用于实现对编码器210的编码结果的逆运算,即根据编码器编码结果再将其尽可能的还原为原来的图像,可以理解为采用逆映射函数将编码器210的编码结果转换回图像参数;这样,才可能在下一步中与原始图像帧进行比较,以判断编码器210的编码效果。因此,所述解码器220与编码器210之间可以类比于对抗训练的过程,解码器220的解码水平高低显然也会影响训练效果,因此,解码器中的逆映射函数的参数实际上也会影响训练效果,也需要在训练过程不断调整。
如图3所示,解码器220解码过程中,一方面对编码器210编码的图像块进行解码,另一方面,将擦除处理中擦除的图像块和所述解码后的图像块相互组合,这样才能获得无标签样本的还原结果。
步骤S202-3,将所述还原结果与所述无标签样本进行比较,判断还原后的图像是否达到还原要求,并记录结果。
本步骤用于对编码器210和解码器220针对原始图像帧A的编码、解码效果进行评价。具体评价方式,就是将还原结果和所述无标签样本,即原始图像帧A直接进行比较,判断还原后的图像是否达到还原的要求;比较方式可以有多种方式,比较的标准也可以根据具体情况进行选择;一般的,可以将结果分为合格和不合格两种。
以上是利用一个具体的原始图像帧A训练的过程,该过程最后判断当前这一轮的训练对该具体的原始图像帧A的编码和解码是否达到了要求,整个训练过程,需要积累足够的对无标签样本的上述编码、解码过程,并根据比较结果的统计情况,对编码器210和解码器220的参数进行调整,可以用以下步骤S202-4说明。
步骤202-4,针对所搜集的无标签样本重复上述步骤,并根据每轮记录的结果,判断所述预训练模型是否训练成功;若不成功,则对所述编码器、解码器的参数进行调整,若成功,则结束训练。
实际训练过程中,根据搜集的无标签样本的数量N,以及具体的训练要求,可以具体选择合适的时机对所述预训练模型进行参数调整;例如,刚刚启动训练,可以在第一个无标签样本的比较结果不合格的情况下就进行参数调整,一直调整到合格为止,积累了一定的数据量后,则可以在进一步增加了若干比较结果后,发现预训练模型的比较结果的统计数据已经低于预定的合格标准了,再进行一轮参数调整;最后,可以积累足够数量的无标签样本的训练结果,并调整到预训练模型的还原后的比较结果的合格率达到预设的阈值。这样,该初始预训练模型就训练成功,成为可以使用其参数作为初始参数的预训练模型。
所述获取初始参数,在本优选的实施方式中,就是获取训练成功后的所述预训练模型包括的所述编码器的参数,将其作为所述初始参数。由于经过训练的编码器能够准确的反映面部图像的特征,因此,这些参数是对面部图像深层次特征的很好的表达模式。
步骤S120,利用初始参数对初始检测模型进行初始化处理,获得初始化后的模型。
在一些可能的实现方式中,初始检测模型包括编码器和分类器,分类器用于对编码器输出的结果进行分类。在一些可能的实现方式中,该分类器是一个具有单任务的分类器。在另一些可能的实现方式中,该分类器是一个具有多任务的分类器。基于此,利用初始参数对初始检测模型进行初始化处理,获得初始化后的模型,包括:利用初始参数对初始检测模型中的编码器进行初始化处理,获得初始化后的模型。
上述初始化后的模型,由于使用了经过训练的编码器的参数作为初始参数,这些初始参数能够较好地提取了面部特征,也就是说,通过使用无标签样本训练获得的预训练模型的参数,就可以较好地提取面部深层次特征,这些特征对于活性检测也具有更好的识别效果,以这些参数为基础,后续只需要进行进一步的细微的调整即可较快的获得更为精准的活体识别检测模型。
步骤S130,利用M个有标签样本对所述初始化后的检测模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,M个有标签样本中的任意一个有标签样本对应的标签包括任意一个有标签样本中的对象是否为活体的信息。
本步骤是在使用无标签样本训练获得的参数的检测模型的基础上,进行进一步的精细调整,获得针对具体任务需求的检测模型;本方法训练获得的检测模型用于针对面部的活体识别。该步骤基于有标签样本对检测模型进行有监督训练。
在本步骤中,首先需要说明如何获得的所述M个有标签样本。这里,M为正整数,且N减去M所获得的差值大于预设阈值;该限定的含义在于,N、M这两个数值,可以具有数量级的差别,这样,通过使用相对数量比较少的有标签样本,就可以训练获得本实施方式的检测模型;而由于采用了N个无标签样本训练获得的预训练模型的参数作为初始参数,这些初始参数能够较好的反映深层次的样本特征,使有标签样本的数量M较少的情况下,就可以快速训练获得达到训练要求的检测模型。
所述有标签样本,一般的,是从获取的进行面部识别的视频图像中提取若干视频帧组成一组,进行标注后形成为有标签样本。
一种优选的获得方式是,采用随机生成的方式,获取光线活体配置文件Conf={(color1,color2,color3),(light1,light2,ligh3),duration1,duration2,duration3},并根据该配置文件的指示,对所述识别判断对象进行光线活体采集,即采用该配置文件规定的颜色顺序(color1,color2,color3)以及对应的光照强度(light1,light2,ligh3),以及对应的持续时间duration1,duration2,duration3,对被识别对象进行光照并同时采集视频图像;根据生成有标签样本的需求,在返回所述视频图像时,同时返回对应该视频图像的上述配置文件,以及同时记录打光颜色切换的时间节点(t1,t2,t3,t4)。当然,该视频图像所拍摄的对象是否是活体,也同时返回以对其进行打标签;针对所获得的视频图像,需要从中抽取若干视频帧形成一组有标签样本,具体的,可以从所述视频图像中抽取四个视频帧,一种典型的抽取方式为根据切换的时间节点(t1,t2,t3,t4),抽取视频V的各个颜色的视频帧序列
F={I1,I2,I3,I4}
I1=Vt1
I2=Vt2-t0+(t3-t1)/2
I3=Vt3-t0+(t3-t2)/2
I4=Vt4-t0+duration3/2
其中的下标表示获取该视频帧的时间点,t0为视频的起始时间点。
上述抽取的一组视频帧,连同其标签,形成一个(或者称为一组)有标签样本,可以用于对检测模型的有监督训练。
当然,以上是实现本申请的优选实施方案而需要的有标签样本的获得方式,如果仅仅是需要获得最基本的效果,则可以从图像视频中随机获得若干视频帧,以及对其是否是活体进行标注。
所述检测模型可以采用通常技术下的各类机器学习模型,尤其是适用于图像识别的模型;本实施例采用的检测模型包括对图像进行编码的编码器,对待识别图像进行编码,然后,利用该编码器的编码结果,提供给后面的分类器,所述分类器根据检测模型的检测目标,进行分类,获得需要的识别结果。以下结合对该检测模型的训练过程进一步进行说明。该检测模型的编码器使用前述自监督学习中获得的编码器的参数,这样,可以借用自监督学习的成果,从而在较少的训练样本下即可获得较好的分类效果。
在一些可能的实现方式中,检测模型包括第一输出结果,第一输出结果用于指示输入至检测模型的测试样本中的待检测对象是否为活体。这种实现方式中,检测模型包括的分类器可以理解为是一个具有单个分类任务的分类器。此时,所述有标签样本对应的标签包括任意一个有标签样本中的对象是否为活体的信息;所述有标签样本可以有若干形式,典型的形式是一组面部识别过程中获得的相互之间间隔若干秒的一系列的图像。
可选的,在另一些可能的实现方式中,任意一个有标签样本对应的标签还包括任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列;该第一颜色序列通过获取该有标签样本过程中采用随机生成的光线活体配置文件Conf={(color1,color2,color3),(light1,light2,ligh3),duration1,duration2,duration3}中的颜色序列获得;对应的,检测模型还包括第二输出结果,第二输出结果用于指示输入至检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列,这样,检测模型训练成功后可以对需要识别的图像视频中的颜色变化情况进行识别。
这种实现方式中,检测模型包括的分类器可以理解为是一个具有两个分类任务的分类器。
可选的,在另一些可能的实现方式中,任意一个有标签样本对应的标签还包括任意一个有标签样本中的对象所处环境的光线可用置信度,检测模型还包括第三输出结果,第三输出结果用于指示输入至检测模型的测试样本中的待检测对象所处环境的光线可用置信度。这种实现方式中,检测模型包括的分类器可以理解为是一个具有三个分类任务的分类器。
上述几种形式的检测模型,分别用于提供不同可信度级别的检测。
以面部活性检测为例,如果检测模型仅仅输出第一输出结果,即仅仅输出面部活性检测结果,则其输出结果为所测试的样本是否为活体面部的识别结果。如果仅仅有第一输出结果,其可靠性可能会受到一些恶意攻击输出错误结果。例如,使用面部图像代替面部的静态图像恶意攻击方式,以及劫持摄像头功能的注入攻击方式。
如果检测模型不仅有第一输出结果,还有第二输出结果,并且所提供的检测样本配套有表面光线照射的第一颜色序列,则可以根据第二输出结果输出的用于指示输入至检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列的识别结果,与上述获得这些视频帧时采用的表面光线照射的第一颜色序列比较后,判断两者是否相符的置信度,根据判断结果,可以排除上述静态图像恶意攻击方式,或者中间接入的恶意攻击方式。因为恶意攻击不可能提供与检测样本一致的光线照射。所述检测模型提供的第二输出结果,实际上就是使检测模型具有根据所提供的检测样本的情况,对其被光线照射的情况进行识别的能力。
如果检测模型不仅有第一输出结果,还有第二输出结果,第三输出结果,可以进一步结合第三输出结果中反映的环境光线可用置信度,判断上述第二输出结果中对光线照射的颜色序列的获得是否在一个合理的亮度环境下,只有在合理亮度的环境下,所述第二输出结果识别的颜色序列才是可靠的,才被认可。
这样,如果采用上述具备三个输出结果的方案,则所获得的检测模型能够对表面光鲜照射方式的活性检测过程获得的图像进行非常准确的判断。
对任意一个有标签样本的样本格式不作具体限定。例如,当上述步骤S110中的任意一个无标签样本为图像序列时,该任意一个有标签样本也可以为图像帧。
上述检测模型需要在足够数量的有标签样本的训练下,才能达到足够的训练效果。由于检测模型中的编码器使用了前述自监督训练的参数,因此,可以快速获得需要的训练效果。
对本申请实施例提供的检测模型应用的场景不作具体限定。例如,该检测模型可以应用于活性检测场景。
应理解,上述图1示出的检测模型的获取方法仅为示意,并不对本申请实施例提供的检测模型的获取方法构成任何限定。例如,还可以直接利用有标签的样本训练初始检测模型,以获得上述具有单任务或多任务的检测模型。又如,上述步骤S130中,检测模型包括编码器和分类器,且该分类器是一个具有单任务或多任务的分类器为例进行了介绍。可选的,上述步骤S130中的检测模型还可以包括编码器、第一分类器和第二分类器,第一分类器和第二分类器均为单任务分类器。其中,第一分类器用于输出上述第一输出结果,第二分类器用于输出上述第三输出结果。
本申请实施例提供的检测模型的获取方法,利用大量的无标签样本进行模型训练获得训练好的预训练模型,利用预训练模型包括的编码器的参数对初始检测模型包括的编码器的参数进行初始化获得初始化后的检测模型,并利用少量的有标签样本对初始化后的检测模型进行训练获得检测模型。上述获取检测模型的过程中,预训练模型是通过对无标签样本进行训练获得的,可以提高无标签数据的利用率、避免有标签数据紧缺的问题。利用预训练模型的参数对初始检测模型进行初始化,可以降低检测模型的训练迭代次数、提高检测模型训练的效率。利用少量有标签的样本对初始化后的检测模型进行训练,可以进一步提高检测模型的准确性。
图4是本申请实施例提供的一种活性检测方法的流程图。本申请实施例提供的活性检测方法可以由活性检测装置来执行。可以理解的是,该活性检测装置可以实现为软件、或者软件和硬件的组合。例如,本申请实施例中的活性检测装置可以但不限于是服务器或用户使用的终端设备。如图4,本申请实施例提供的活性检测方法包括步骤S410至步骤S430。下面,对步骤S410至步骤S430进行详细介绍。
步骤S410,接收活性检测请求,活性检测请求用于请求对图像序列中的待检测对象进行活性检测,图像序列是将光线配置信息对应的光线作为光源投射至待检测对象并对待检测对象进行图像采集获得的。
所述活性检测请求可以是根据特定的智能终端应用的需求而启动,其采集的图像序列发送到服务器端进行识别,执行本申请的活性检测方法的检测模型以进程的方式布置于服务器中。
提供给检测模型图像序列一般是通过智能终端的摄像设备获得的,一般的,从摄像设备采集的视频数据中按照预定时间间隔抽取若干视频帧提供给检测模型,用于活体识别。
可选的,在上述步骤S410之前还可以包括以下步骤:在预先设置的光线配置信息对应的光线照射至待检测对象的情况下,获得所述视频数据;根据预设时间间隔从视频数据中获得图像序列。该预设时间间隔可以根据实际场景进行设置,对此不作具体限定。该图像序列可以包括一个或多个图像,该一个或多个图像与该视频数据中的一个或多个视频帧对应。通过上述配合光线配置信息的获取视频数据的方式,基本可以避免偷偷采集视频信息进行非法的活性检测的情况。
步骤S420,利用检测模型对图像序列进行处理,获得第一检测结果。
在本申请实施例中,检测模型可以是根据上述图1示出的检测模型的获取方法获得的模型,检测模型获取的方法具体可以参见上述图1所描述的内容,此处不再详细赘述。可以理解的是,该检测模型是一个已经训练好的模型,且该检测模型可以包括编码器和分类器。
步骤S430,根据第一检测结果,确定图像序列中的待检测对象是否为活体。
在一些可能的实现方式中,根据第一检测结果,确定图像序列中的待检测对象是否为活体,包括:若第一检测结果用于指示图像序列中的待检测对象为活体,则确定图像序列中的待检测对象为活体。可以理解的是,这种实现方式中,检测模型包括的分类器可以理解为是一个具有单一任务的分类器,该单任务为判断是否为活体的任务。
可选的,在另一些可能的实现方式中,任意一个有标签样本对应的标签还包括任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列。在这种实现方式中,检测模型还包括第二输出结果,第二输出结果用于指示输入至检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列。基于此,在本申请实施例中还可以执行以下步骤:利用检测模型对图像训练进行处理,获得第二检测结果,第二检测结果用于指示第三颜色序列,第三颜色序列是图像序列中的待检测对象所受到的表面的光线的颜色序列;在图像序列中的待检测对象所处环境的光线可用置信度满足预设要求的情况下,若确定光线配置信息对应的光线的颜色序列与第三颜色序列的差异大于预设阈值,则确定图像序列被篡改。
可以理解的是,这种实现方式中,检测模型包括的分类器可以理解为是一个具有多个任务的分类器,该多任务包括判断是否为活体的任务、以及获取输入数据中的待检测对象所受的表面温度光线的颜色序列的任务。
本申请实施例还提供了获取图像序列中的待检测对象所处环境的光线可用置信度的两种实现方式。下面,具体介绍这两种实现方式。
实现方式一:
这种实现方式中,用于获取检测模型的任意一个有标签样本对应的标签还包括任意一个有标签样本中的对象所处环境的光线可用置信度。进一步,检测模型还包括第三输出结果,第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度。基于此,可以通过以下方式获取图像序列中的待检测对象所处环境的光线可用置信度:利用检测模型对图像训练进行处理,获得第三检测结果,第三检测结果用于指示图像序列中的待检测对象所处环境的光线可用置信度。
需说明的是,上述实现方式一中的“利用检测模型对图像训练进行处理,获得第三检测结果”的步骤,可以与上述步骤S420合并为一个步骤。即,利用检测模型对图像训练进行处理,获得第一检测结果和第三检测结果。
可以理解的是,上述实现方式一中,检测模型的输出结果还包括图像序列中的待检测对象所处环境的光线可用置信度。这种实现方式中,检测模型包括的分类器可以理解为是一个具有多任务的分类器,该多任务包括判断是否为活体的任务、获取输入数据中的待检测对象所受的表面温度光线的颜色序列的任务、以及获取输入数据中的待检测对象所处环境的光线可用置信度的任务。
实现方式二:
这种实现方式中,可以通过以下方式获取图像序列中的待检测对象所处环境的光线可用置信度:在光线配置信息对应的光线照射至待检测对象的情况下,获得视频数据中的待检测对象所处环境光线的光线可用置信度;根据预设时间间隔从视频数据中获得图像序列中的待检测对象所处环境的光线可用置信度。
需说明的是,上述实现方式二中的“利用检测模型对图像训练进行处理,获得第三检测结果”的步骤,可以与上述步骤S420合并为一个步骤。一种可能的实现方式中,利用检测模型对图像训练进行处理,获得第一检测结果、第二检测结果和第三检测结果。
可以理解的是,上述实现方式二中,图像序列中的待检测对象所处环境的光线可用置信度可以是从光线传感器中获取的。
上述光线可用置信度的检测结果,可以作为判断所述图像信息的采集环境是否符合要求;这样,通过光线可用置信度检测结果与前述的颜色序列检测结果是否准确的判断共同作为判断依据,可以确定所采集的视频信息是否正常,如果正常,则所述活性检测的判断结果是可信的,如果不正常,则可以通过智能终端向用户发出提示。
上述活性检测可以作为面部识别的前置程序,也可以直接结合数据库中存储的面部特征信息,进行面部识别。
上述活性检测方法可以但不限于应用于以下任意一种应用场景:支付场景、账号登录场景、或者门禁安防场景。
应理解,上述图4示出的活性检测方法仅为示意,并不对本申请实施例提供的检测模型的获取方法构成任何限定。
本申请实施例提供的活性检测方法,在接收到活性检测请求后,利用检测模型对该活性检测请求关联的图像序列进行处理获得第一检测结果,并根据第一检测结果确定图像序列中的待检测对象是否为活体。其中,检测模型是根据本申请提供的检测模型的获取方法确定的,故该第一检测结果具有较高的准确性。此外,当检测模型的输出还包括第二检测结果和第三检测结果时,可以根据第二检测结果和第三检测结果确定图像序列是否被篡改或攻击,可以提高检测图像类攻击和注入类攻击的准确率。
图5是本申请实施例提供的另一种活性检测方法的流程图。本申请实施例提供的活性检测方法可以由活性检测装置来执行。可以理解的是,该活性检测装置可以实现为软件、或者软件和硬件的组合。例如,本申请实施例中的活性检测装置可以但不限于是服务器或用户使用的终端设备。如图5,本申请实施例提供的活性检测方法包括步骤S510至步骤S580。下面,对步骤S510至步骤S580进行详细介绍。
步骤S510,获取视频数据。
其中,获取视频数据,包括:将光线配置信息对应的光线作为光源投射至待检测对象并对待检测对象进行视频采集,获得视频数据。光线配置信息可以包括光线的光线可用置信度和光线的颜色序列信息。对光线配置信息包括的光线的颜色的种类和数目不作具体限定。
步骤S520,按照预设时间间隔从视频数据中抽取视频帧,获得图像序列。
在本申请实施例中,图像序列可以包括视频数据中的4张视频帧。
可选的,在另一些实现方式中,图像序列还可以包括视频数据中的更多(例如,8张)数目或更少(例如,1张或2张)数目的视频帧。
步骤S530,将图像序列输入至检测模型,获得第一检测结果、第二检测结果和第三检测结果。
其中,第一检测结果用于指示图像序列中的待检测对象为活体。第二检测结果用于指示图像序列中的待检测对象所处环境的光线可用置信度。第三检测结果用于指示图像序列中的待检测对象所受到的表面的光线的颜色序列。
步骤S540,根据第一检测结果,获得图像序列中的待检测对象是否为活体的初步判断结果。
其中,根据第一检测结果,获得图像序列中的待检测对象是否为活体的初步判断结果,包括:若第一检测结果指示图像序列中的待检测对象为活体,在步骤S540之后执行步骤S550;若第一检测结果用于指示图像序列中的待检测对象为非活体,在步骤S540之后执行步骤S570,结束本次检测。
步骤S550,根据第二检测结果,确定图像序列中的待检测对象所处环境的光线可用置信度是否满足预设要求。
其中,根据第二检测结果,确定图像序列中的待检测对象所处环境的光线可用置信度是否满足预设要求,包括:若确定满足预设要求,在步骤S550之后执行步骤S560;若确定不满足预设要求,在步骤S550之后执行步骤S570。其中,预设要求用于指示预设的环境光线可用置信度,可以根据实际需求设置该预设的环境光线可用置信度的大小。
步骤S560,根据第三检测结果,确定图像序列是否被篡改。
其中,根据第三检测结果,确定图像序列是否被篡改,包括:通过比较光线配置信息对应的光线的颜色序列和第三检测结果的差异性,确定图像序列是否被篡改。具体判断差异性的方法,可以是判断比较光线配置信息对应的光线的颜色序列与所述第三颜色序列的差异是否大于预设阈值,若大于,则确定图像序列被篡改,若不大于,则确定图像序列不被篡改。
可以理解的是,若根据第三检测结果确定图像序列被篡改,则在步骤S560之后执行步骤S570;若根据第三检测结果确定图像序列未被篡改,则在步骤S560之后执行步骤S580。
步骤S570,对图像序列进行拦截。结束该次检测。
步骤S580,将图像序列发送给下游任务。
其中,该下游任务可以包括与活性检测关联的任务。例如,与活性检测关联的任务可以是面部识别,以及进一步的支付任务等。
应理解,上述图5示出的活性检测方法仅为示意,并不对本申请实施例提供的检测模型的获取方法构成任何限定。例如,上述步骤S530还可以替换为以下步骤:将图像序列输入至检测模型获得第一检测结果和第二检测结果。这种实现方式中,还需要通过其他设备(例如,光线传感器)获取上述步骤S530中的第三检测结果。
本申请实施例提供的活性检测方法,利用检测模型对图像序列进行处理,以获得该图像序列对应的检测结果。其中,检测模型是一个具有多任务输出结果的模型,该检测模型是根据本申请实施例提供的检测模型的获取的方法模型,该检测模型具有较高的准确性。基于此,获取的图像序列对应的检测结果具有较高的准确性。具体的,在根据第一检测结果确定图像序列中的待检测对象为活体的情况下,若第二检测结果确定图像序列中的待检测对象所处环境的光线可用置信度确定满足预设要求,则通过比较光线配置信息对应的光线的颜色序列与第三检测结果是否一致来判断图像序列是否被篡改,从而可以有效地拦截图像类攻击或注入攻击。
以上结合图1至图5详细介绍了本申请提供的检测模型的获取方法、以及活性检测方法。下面,结合图6至图9介绍本申请提供的检测模型的获取装置、活性检测装置、检测模型的获取设备和活性检测设备。应理解,以上介绍的检测模型的获取方法与下文中涉及的检测模型的获取装置、检测模型的获取设备相对应,上文中活性检测方法与下文中涉及的活性检测装置、活性检测设备相对应。因此,下文中未详细描述的内容可以参见上述方法实施例中的相关描述。
与本申请实施例提供的一种检测模型的获取方法对应的,本申请实施例提供一种检测模型的获取装置。如图6所示,该装置包括获取单元610,处理单元620和训练单元630,
获取单元610,用于获取初始参数,所述初始参数是从预训练模型中获取的参数,所述预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;处理单元620,用于利用所述初始参数对初始检测模型进行初始化处理,获得初始化后的模型;训练单元630,用于利用M个有标签样本对所述初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,所述M个有标签样本中的任意一个有标签样本对应的标签包括所述任意一个有标签样本中的对象是否为活体的信息。
可选的,在一些实现方式中,所述训练单元630还用于:对所述N个无标签样本中的任意一个无标签样本中的部分区域进行擦除,获得擦除处理后的无标签样本;利用所述擦除处理后的无标签样本对初始预训练模型进行训练,获得所述预训练模型。
可选的,在另一些实现方式中,所述训练单元630还用于:使用所述编码器对所述擦除处理后的无标签样本进行编码,获得编码结果;使用所述解码器对所述编码结果进行解码,获得依据所述擦除处理后的无标签样本的还原结果;将所述还原结果与所述无标签样本进行比较,判断还原后的图像是否达到还原要求,并记录结果;针对所搜集的无标签样本重复上述步骤,并根据每轮记录的结果,判断所述预训练模型是否训练成功;若不成功,则对所述编码器、解码器的参数进行调整,若成功,则结束训练;所述获取单元610还用于:获取训练成功后的所述预训练模型包括的所述编码器的参数,将其作为所述初始参数。
可选的,在另一些实现方式中,所述检测模型包括第一输出结果,所述第一输出结果用于指示输入至所述检测模型的测试样本中的待检测对象是否为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度。
可选的,在另一些实现方式中,所述任意一个无标签样本为图像帧,所述任意一个有标签样本为图像序列。
可选的,在另一些实现方式中,所述检测模型应用于活性检测场景。
需要说明的是,对于本申请实施例提供的检测模型的获取装置实施例的详细描述可以参考上述本申请实施例提供的检测模型的获取方法中的相关描述,这里不再赘述。
与本申请实施例提供的一种活性检测方法对应的,本申请实施例提供一种活性检测装置。如图7所示,该装置包括接收单元710,处理单元720和确定单元730,
接收单元710,用于接收活性检测请求,所述活性检测请求用于请求对图像序列中的待检测对象进行活性检测,所述图像序列是将光线配置信息对应的光线作为光源投射至所述待检测对象并对所述待检测对象进行图像采集获得的;处理单元720,用于利用检测模型对所述图像序列进行处理,获得第一检测结果;确定单元730,用于根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体;其中,所述检测模型是根据上述本申请实施例提供的检测模型的获取方法所获取的检测模型。
可选的,在一些实现方式中,所述确定单元730还用于:若所述第一检测结果用于指示所述图像序列中的待检测对象为活体,则确定所述图像序列中的待检测对象为活体。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列,所述处理单元720还用于:利用所述检测模型对所述图像序列进行处理,获得第二检测结果,所述第二检测结果用于指示第三颜色序列,所述第三颜色序列是所述图像序列中的待检测对象所受到的表面的光线的颜色序列;所述确定单元730还用于:若确定所述光线配置信息对应的光线的颜色序列与所述第三颜色序列的差异大于预设阈值,则确定所述图像序列被篡改。
可选的,在另一些实现方式中,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度,所述处理单元720还用于:利用所述检测模型对所述图像序列进行处理,获得第三检测结果,所述第三检测结果用于指示所述图像序列中的待检测对象所处环境的光线可用置信度;所述确定单元730还用于:若所述光线可用置信度低于预定的阈值,则确定所述检测模型的检测结果无法采信。
可选的,在另一些实现方式中,所述处理单元720还用于:接收所述活性检测请求后,在所述光线配置信息对应的光线照射至所述待检测对象的情况下,获得针对所述待检测对象的视频数据;根据预设时间间隔从所述视频数据中获得所述图像序列。
可选的,在另一些实现方式中,所述方法应用于以下任意一种应用场景:支付场景、账号登录场景、或者门禁安防场景。
需要说明的是,对于本申请实施例提供的活性检测装置实施例的详细描述可以参考上述本申请实施例提供的活性检测方法中的相关描述,这里不再赘述。
与本申请实施例提供的一种检测模型的获取方法对应的,本申请实施例提供一种检测模型的获取设备。如图8所示,该检测模型的获取设备包括处理器810和存储器820。其中,所述存储器820用于存储支持该设备执行上述图1所示的检测模型的获取方法的程序,所述处理器810被配置为用于执行所述存储器820中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器810能够实现如下步骤:获取初始参数,初始参数是从预训练模型中获取的参数,预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;利用初始参数对初始检测模型进行初始化处理,获得初始化后的模型;利用M个有标签样本对初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,M个有标签样本中的任意一个有标签样本对应的标签包括任意一个有标签样本中的对象是否为活体的信息。
可选地,所述处理器810执行前述图1所示方法实施例中的全部或部分步骤,此处未详细描述的内容可以参见上文的相关描述,此处不再详细赘述。
其中,所述活性检测设备的结构中还可以包括通信接口830,用于该设备与其他设备或通信网络通信。例如,通过通讯接口830获取M个有标签样本。
与本申请实施例提供的一种活性检测方法对应的,本申请实施例提供一种活性检测设备。如图9所示,该活性检测设备包括处理器910和存储器920。其中,所述存储器920用于存储支持该设备执行上述图4和/或图5所示的活性检测方法的程序,所述处理器910被配置为用于执行所述存储器920中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器910能够实现如下步骤:接收活性检测请求,活性检测请求用于请求对图像序列中的待检测对象进行活性检测,图像序列是将光线配置信息对应的光线作为光源投射至待检测对象并对待检测对象进行图像采集获得的;利用检测模型对图像序列进行处理,获得第一检测结果;根据第一检测结果,确定图像序列中的待检测对象是否为活体;其中,检测模型是根据本申请实施例提供的检测模型的获取方法获取的模型。
可选地,所述处理器910执行前述图4和/或图5所示方法实施例中的全部或部分步骤,此处未详细描述的内容可以参见上文的相关描述,此处不再详细赘述。
其中,所述活性检测设备的结构中还可以包括通信接口930,用于该设备与其他设备或通信网络通信。例如,通过通讯接口930接收活性检测请求。
本申请实施例还提供了一种计算机存储介质,用于储存上述电子设备所用的计算机软件指令,其包含用于执行上述图1至图3所示方法实施例中检测模型的获取方法所涉及的程序。
本申请实施例还提供了一种计算机存储介质,用于储存上述电子设备所用的计算机软件指令,其包含用于执行上述图4和/或图5所示方法实施例中活性检测方法所涉及的程序。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读介质上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请公开实施方式的方法。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
1、计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储介质或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
2、本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。

Claims (16)

1.一种检测模型的获取方法,其特征在于,包括:
获取初始参数,所述初始参数是从预训练模型中获取的参数,所述预训练模型是利用N个无标签样本进行训练获得的模型,N为正整数;
利用所述初始参数对初始检测模型进行初始化处理,获得初始化后的模型;
利用M个有标签样本对所述初始化后的模型进行训练,获得检测模型,M为正整数,且N减去M所获得的差值大于预设阈值,所述M个有标签样本中的任意一个有标签样本对应的标签包括所述任意一个有标签样本中的对象是否为活体的信息。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述N个无标签样本中的任意一个无标签样本中的部分区域进行擦除,获得擦除处理后的无标签样本;
利用所述擦除处理后的无标签样本对初始预训练模型进行训练,获得所述预训练模型。
3.根据权利要求2所述的方法,其特征在于,所述初始预训练模型包括编码器和解码器,所述对初始预训练模型进行训练,包括:
使用所述编码器对所述擦除处理后的无标签样本进行编码,获得编码结果;
使用所述解码器对所述编码结果进行解码,获得依据所述擦除处理后的无标签样本的还原结果;
将所述还原结果与所述无标签样本进行比较,判断还原后的图像是否达到还原要求,并记录结果;
针对所搜集的无标签样本重复上述步骤,并根据每轮记录的结果,判断所述预训练模型是否训练成功;若不成功,则对所述编码器、解码器的参数进行调整,若成功,则结束训练;
所述获取初始参数,包括:
获取训练成功后的所述预训练模型包括的所述编码器的参数,将其作为所述初始参数。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述检测模型包括第一输出结果,所述第一输出结果用于指示输入至所述检测模型的测试样本中的待检测对象是否为活体。
5.根据权利要求1所述的方法,其特征在于,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所接收的表面光线照射的第一颜色序列,
所述检测模型还包括第二输出结果,所述第二输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所受到的表面的光线的第二颜色序列。
6.根据权利要求1所述的方法,其特征在于,所述任意一个有标签样本对应的标签还包括所述任意一个有标签样本中的对象所处环境的光线可用置信度,
所述检测模型还包括第三输出结果,所述第三输出结果用于指示输入至所述检测模型的测试样本中的待检测对象所处环境的光线可用置信度。
7.根据权利要求1所述的方法,其特征在于,所述任意一个无标签样本为图像帧,所述任意一个有标签样本为图像序列。
8.根据权利要求1所述的方法,其特征在于,所述检测模型应用于活性检测场景。
9.一种活性检测方法,其特征在于,包括:
接收活性检测请求,所述活性检测请求用于请求对图像序列中的待检测对象进行活性检测,所述图像序列是将光线配置信息对应的光线作为光源投射至所述待检测对象并对所述待检测对象进行图像采集获得的;
利用检测模型对所述图像序列进行处理,获得第一检测结果;
根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体的初步判断结果;
其中,所述检测模型是根据权利要求1至8任一项所述的方法获取的检测模型。
10.根据权利要求9所述的方法,其特征在于,所述根据所述第一检测结果,确定所述图像序列中的待检测对象是否为活体,包括:
若所述第一检测结果为所述图像序列中的待检测对象为活体的初步判断结果,则确定所述图像序列中的待检测对象为活体。
11.根据权利要求9或10所述的方法,其特征在于,所述检测模型至少包括权利要求5进一步限定的技术特征;
所述方法还包括:
利用所述检测模型对所述图像序列进行处理,获得第二检测结果,所述第二检测结果用于指示第三颜色序列,所述第三颜色序列是所述图像序列中的待检测对象所受到的表面的光线的颜色序列;
若确定所述光线配置信息对应的光线的颜色序列与所述第三颜色序列的差异大于预设阈值,则确定所述图像序列被篡改。
12.根据权利要求9所述的方法,其特征在于,所述检测模型至少包括权利要求6进一步限定的技术特征,
所述方法还包括:
利用所述检测模型对所述图像序列进行处理,获得第三检测结果,所述第三检测结果用于指示所述图像序列中的待检测对象所处环境的光线可用置信度;若所述光线可用置信度低于预定的阈值,则确定所述检测模型的检测结果无法采信。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
接收所述活性检测请求后,在所述光线配置信息对应的光线照射至所述待检测对象的情况下,获得针对所述待检测对象的视频数据;
根据预设时间间隔从所述视频数据中获得所述图像序列。
14.根据权利要求9至13任一项所述的方法,其特征在于,所述方法应用于以下任意一种应用场景:
支付场景、账号登录场景、或者门禁安防场景。
15.一种检测模型的获取设备,其特征在于,包括:
处理器;以及
存储器,用于存储数据处理程序,所述活性检测设备通电并通过所述处理器运行所述程序后,执行如权利要求1至8中任一项所述的方法。
16.一种活性检测设备,其特征在于,包括:
处理器;以及
存储器,用于存储数据处理程序,所述活性检测设备通电并通过所述处理器运行所述程序后,执行如权利要求9至14中任一项所述的方法。
CN202210646729.0A 2022-06-09 2022-06-09 一种检测模型的获取方法、活性检测方法和相关装置 Pending CN115171224A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210646729.0A CN115171224A (zh) 2022-06-09 2022-06-09 一种检测模型的获取方法、活性检测方法和相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210646729.0A CN115171224A (zh) 2022-06-09 2022-06-09 一种检测模型的获取方法、活性检测方法和相关装置

Publications (1)

Publication Number Publication Date
CN115171224A true CN115171224A (zh) 2022-10-11

Family

ID=83486037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210646729.0A Pending CN115171224A (zh) 2022-06-09 2022-06-09 一种检测模型的获取方法、活性检测方法和相关装置

Country Status (1)

Country Link
CN (1) CN115171224A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117314269A (zh) * 2023-09-14 2023-12-29 博瀚智能(深圳)有限公司 质检模型管理方法、***、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117314269A (zh) * 2023-09-14 2023-12-29 博瀚智能(深圳)有限公司 质检模型管理方法、***、电子设备及存储介质

Similar Documents

Publication Publication Date Title
EP3807792B1 (en) Authenticating an identity of a person
CN109409204B (zh) 防伪检测方法和装置、电子设备、存储介质
Zhang et al. Face morphing detection using Fourier spectrum of sensor pattern noise
Whitehill et al. Toward practical smile detection
Chakraborty et al. An overview of face liveness detection
CN103503029B (zh) 检测面部特性的方法
US20230021661A1 (en) Forgery detection of face image
CN109271915A (zh) 防伪检测方法和装置、电子设备、存储介质
KR20150128510A (ko) 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
CN112784741A (zh) 宠物身份识别方法、装置及非易失性存储介质
Szwoch et al. Eye blink based detection of liveness in biometric authentication systems using conditional random fields
CN111241873A (zh) 图像翻拍检测方法及其模型的训练方法、支付方法及装置
CN115171224A (zh) 一种检测模型的获取方法、活性检测方法和相关装置
CN115147936A (zh) 一种活体检测方法、电子设备、存储介质及程序产品
CN106355066A (zh) 人脸验证方法及人脸验证装置
Song et al. Text Siamese network for video textual keyframe detection
CN112183422A (zh) 一种基于时空特征的人脸活体检测方法、装置、电子设备及存储介质
Tang et al. Image Semantic Recognition and Segmentation Algorithm of Colorimetric Sensor Array Based on Deep Convolutional Neural Network
Jonsson et al. Learning Salient Features for Real-Time Face Verification,"
CN111352827A (zh) 一种自动化测试的方法及装置
Bolme et al. Facel: Facile face labeling
Haluška et al. Facial Liveness Detection for Biometric User Identification
Devireddy Human Face Detection and Recognition Using Advanced Image Processing and Deep Learning Techniques
YONAS FACE SPOOFING DETECTION USING GAN
Ramkissoon et al. Fake Face2Face Video Detection Using a Novel Scene and Texture Based Feature Set

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination