CN115578796A - 一种活体检测模型的训练方法、装置、设备及介质 - Google Patents

一种活体检测模型的训练方法、装置、设备及介质 Download PDF

Info

Publication number
CN115578796A
CN115578796A CN202211142033.0A CN202211142033A CN115578796A CN 115578796 A CN115578796 A CN 115578796A CN 202211142033 A CN202211142033 A CN 202211142033A CN 115578796 A CN115578796 A CN 115578796A
Authority
CN
China
Prior art keywords
data
detection model
training
living body
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211142033.0A
Other languages
English (en)
Inventor
武文琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202211142033.0A priority Critical patent/CN115578796A/zh
Publication of CN115578796A publication Critical patent/CN115578796A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本说明书实施例公开了一种活体检测模型的训练方法、装置、设备及介质。该方案可以包括:获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。

Description

一种活体检测模型的训练方法、装置、设备及介质
技术领域
本申请涉及模型训练技术领域,尤其涉及一种活体检测模型的训练方法、装置、设备及介质。
背景技术
随着近年来人脸识别***的不断发展,“活体攻击检测”成为人脸识别***中不可缺少的一环,该模型可以有效地拦截非活体类型的攻击样本。然而,随着人脸识别***不断的应用到更多的领域,会遇到多种表征差异迥异的场景特效,如何能让一套活体攻击检测模型在面对未知新场景部署时可以无差异性的适配是亟待解决的技术问题。
发明内容
本说明书实施例提供一种活体检测模型的训练方法、装置、设备及介质,以解决现有的活体攻击检测模型在面对未知新场景部署时不适配的问题。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种活体检测模型的训练方法,包括:
获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
本说明书实施例提供的一种活体检测模型的训练装置,包括:
数据获取模块,用于获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
数据确定模块,用于采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
模型训练模块,用于基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
本说明书实施例提供的一种活体检测模型的训练设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
本说明书实施例提供的一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现一种活体检测模型的训练方法。
本说明书一个实施例实现了能够达到以下有益效果:通过获取第一数据集,采用聚类算法,确定所述第一数据集中的数据的用于表示数据的域属性信息的第二标签,得到第二数据集,基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。使得训练后的活体检测模型可是适配未知新场景。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书实施例提供的一种活体检测模型的训练方法的整体方案架构示意图;
图2是本说明书实施例提供的一种活体检测模型的训练方法的流程示意图意图;
图3是本说明书实施例提供的一种活体检测模型的训练方法的训练示意图;
图4是本说明书实施例提供的一种活体检测模型的训练装置的流程示意图;
图5是本说明书实施例提供的一种活体检测模型的训练设备的结构示意图。
具体实施方式
为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
现有技术中,随着近年来人脸识别***的不断发展,“活体攻击检测”成为人脸识别***中不可缺少的一环,该模型可以有效地拦截非活体类型的攻击样本。然而,随着人脸识别***不断的应用到更多的领域,会遇到多种表征差异迥异的场景特效,因此,现有技术中的活体攻击检测模型在面对未知新场景部署时并不适配,不能准确的识别是否为活体。
为了解决现有技术中的缺陷,本方案给出了以下实施例:
图1为本说明书实施例中一种活体检测模型的训练方法在实际应用场景中的整体方案架构示意图。如图1所示,该方案主要包括:数据集1、服务器2以及活体检测模型3。在实际应用中,可以利用数据集1在服务器2中进行训练,可以获得活体检测模型3。其中,服务器2获取的数据集1中的数据可以包括第一标签;然后采用聚类算法,确定数据集1中的各个数据的第二标签,得到第二数据集;基于包含标记有第一标签和第二标签的数据的第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型3。使得最终获得的活体检测模型可以适配未知新场景。
接下来,将针对说明书实施例提供的一种活体检测模型的训练方法结合附图进行具体说明:
图2为本说明书实施例提供的一种活体检测模型的训练方法的流程示意图。从程序角度而言,流程的执行主体可以为搭载于应用服务器的程序或应用客户端。
如图2所示,该流程可以包括以下步骤:
步骤202:获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息。
本说明书实施例中第一数据集可以是已经存在的历史活体识别的数据,例如可以包括初始活体检测模型已经识别过的历史识别图像。其中,活体属性信息可以表示训练数据对应的识别对象是否为活体的信息。例如:训练数据可以包括采集到的活体的图像,活体的图像的第一标签可以标记为活体标签;还可以包括采集到的非活体的图像,非活体的图像的第一标签可以标记为非活体或攻击标签。又如,对于初始的活体检测模型识别为活体的识别图像可以作为标记活体标签的数据,对于初始的活体检测模型识别为非活体的识别图像可以作为标记非活体或攻击标签的数据。
实际应用中历史活体识别数据还可以包括除上述初始活体检测模型之外的其他已经被使用的活体识别模型识别过的历史图像。例如,初始活体检测模型为某商场中使用的活体检测模型,其他活体识别模型可以为如居民小区、写字楼、停车场等场合中使用的活体检测模型,也可以为其他商场、超市等消费场合中使用的活体检测模型。
步骤204:采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息。
本说明书实施例中,域属性信息可以用于表示数据所属的虚拟域。其中,虚拟域可以理解为根据预设划分条件,对数据的分类,一个类别可以表示一个虚拟域。实际应用中,一般对于不同来源的数据认为是不同的域,不同采集设备采集的数据也可以认为是不同的域,只要模型在两个数据域上的表现差异性比较大,就可以认为是两个不同的域。本说明书实施例中虚拟域可以表示通过聚类算法在特征空间对数据域进行划分得到的。
为减少人为操作对模型训练的影响,本说明书实施例中可以通过聚类算法将第一数据集中的数据分成多种不同类型的数据,而这些不同类型的数据可以认为对应着不同的虚拟域,将这些数据贴上不同域属性信息的标签,这些不同域属性信息的标签均可以被称为第二标签。
本说明书实施例中所述聚类算法可以是CLARANS算法、BIRCH算法、CURE算法、OPTICS算法、CLIQUE算法、图论聚类法、和/或模型算法等算法中的至少一种算法完成训练数据的聚类分析。
步骤206:基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
本说明书实施例中对活体检测模型进行训练的数据可以包括用于表示数据的活体属性信息的第一标签和用于表示训练数据的域的属性信息的第二标签,使得活体检测模型要完成两个识别任务,既要准确识别出待识别对象为活体还是非活体,又要识别出待识别对象所属的域,使得这两个识别任务在模型训练过程中形成了对抗任务,通过对抗学习方式对初始活体检测模型进行训练,可以实现活体检测模型在域识别上的鲁棒性,有利于得到更加鲁棒性的跨域活体攻击检测模型。
其中,非活体可以包括照片、手机、屏幕、面具等形式的识别对象。
实际应用中,在对模型进行迭代训练时,可以设置表示可以训练结束的预设条件,例如,迭代训练的次数、模型损失值等等。本说明书实施例中可以基于模型损失值判断是否结束对模型的训练,具体的,若训练后的活体检测模型的对抗学习损失满足预设条件,如对抗学习损失值小于或等于预设损失值,则可以表示训练后的活体检测模型符合要求,可以结束训练,被应用了。若不满足预设条件,如对抗学习损失值大于预设损失值,则可以表示训练后的活体检测模型不符合要求,还需要继续训练。当进行下一轮迭代训练时,可以将上一轮训练结束后获得的活体检测模型作为初始活体检测模型进行下一轮训练。在新一轮训练中运用的聚类算法可以与上一轮的聚类算法相同,也可以是不同于上一轮的聚类算法,聚类数也可以与上一轮相同或者不相同,因此,训练数据的域属性信息的标签也可以相同或者不同,具体情况可以按照实际需求进行设定,这里不做具体限定。其中,为使得训练后的活体检测模型具有更好的鲁棒性,每轮的迭代训练中的聚类算法和/或聚类数可以随机选择。
应当理解,本说明书一个或多个实施例所述的方法其中部分步骤的顺序可以根据实际需要相互交换,或者其中的部分步骤也可以省略或删除。
图2中的方法,通过获取第一数据集,采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集,基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。使得训练后的活体检测模型可以无差异性的适配未知新场景,并且提高在新场景识别的准确性。
基于图2的方法,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
可选的,本说明书实施例中所述基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,具体可以包括:
通过元学习的方式,基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练。
元学习可以被称为“学会学习”,即利用以往的知识经验来指导新任务的学习,使模型具备学会学习的能力。本说明书实施例中的元学习是增加活体检测模型在多个域的泛化能力,元学习对于域和数据都需要采样,使得数据在不同的域中都能准确识别,进而可以在未出现的域中能够准确识别。活体检测模型通过元学习不断的适应每个域,使模型具备了一种抽象的学习能力。
本说明书实施例中将第二数据集中的数据分成多个组,进行元学习,并不是传统意义上的将整体的第二数据集中的数据进行元学习,这样有利于提高模型的学习效率,有利于模型收敛,可以提高模型训练的效率。
为了更好的基于对抗学习方式对模型进行训练,本说明书实施例中所述基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型,具体可以包括:
从所述第二数据集中获取若干个数据子集;所述数据子集中包含预设数量的所述第二数据集中的包含所述第一标签和所述第二标签的数据;
利用各个数据子集,以对抗学习方式对所述初始活体检测模型进行训练,得到训练后的活体检测模型。
本说明书实施例中可以从第二训练数据集中选取预设数量的训练数据作为数据子集,也可以将第二数据集中的数据划分成若干个数据子集。其中,预设数量可以根据实际需求进行设定。例如:预设数量为100,那么将第二训练数据集分成若干个含有100个数据的数据子集,每个数据子集中的100个数据标记有第一标签和第二标签,并不会因分组而缺失标签。这里的数据也可以理解为训练样本。
本说明书实施例中可以利用各个数据子集,对活体检测模型进行训练。由于各个数据子集中的数据也是包含第一标签和第二标签的,可以以对抗学习的方式对活体检测模型进行训练。
为了更充分的利用训练数据,本说明书实施例中所述利用各个数据子集,以对抗学习方式对所述初始活体检测模型进行训练,得到训练后的活体检测模型,具体可以包括:
利用各个数据子集中的任意数据子集,以对抗学习方式对所述初始活体检测模型进行预设次数的轮内迭代训练,得到预设数量的轮内对抗损失值以及训练后的活体检测模型。
本说明书实施例中轮内迭代训练可以表示利用任一数据子集进行活体模型的训练。其中,可以从若干个数据子集中选出任一数据子集,从选出的任一数据子集中随机选取一定数量的数据输入初始活体检测模型,对初始活体检测模型进行多次迭代训练。在多次迭代训练的过程中,聚类算法和/或聚类数可以不同或相同,通过聚类算法得到的虚拟域的类型和/或数量也可以不同或相同,使得虚拟域划分数量时人为变量带来的线性信息得到弱化。
本说明书实施例中预设次数可以表示对活体检测模型进行预设次数的轮内迭代训练。例如:第二数据集分成了10个含有100个数据的数据子集,从中随机选出1个数据子集作为初始活体检测模型的初始数据开始进行轮内迭代训练。从选出的数据子集中随机选出50个数据作为初始数据集A,采用聚类算法将数据集A中的数据聚类成不同的类,不同的类可以表示不同的虚拟域,基于数据集A以对抗学习方式进行训练,最后会得到一个对抗学习损失值S1和新的活体检测模型。然后将获得的新的活体检测模型作为初始活体检测模型,再从选出的数据子集中随机选出50个数据作为数据集B,并将数据集B中作为初始数据输入到新的初始活体检测模型开始进行训练,得到新的对抗损失值S2和新的活体检测模型。若预设次数为5,则按照上述迭代训练方式完成预设次数的轮内迭代训练,最后得到5次训练的损失值和最终的活体检测模型。所述对抗损失值可以通过现有的损失函数进行计算获得。
应当理解的是,本说明书实施例中后一轮选择的数据集中可以包含有前一轮选择的数据集中含有的数据,即,数据子集中的数据可以被重复选择,当然,在进行轮内迭代训练时,也可以从数据子集中选取不同的数据进行训练,使得每次轮内迭代训练可以采用不同的数据,也可提高模型的鲁棒性,而且,每次随机选择的数据的数量可以相同,也可以不同。
其中,聚类算法是将具有相同特征的数据划分为一类。与通常的分类含义略有不同,通常情况下,分类表示基于有明确的类别进行分类,将数据一个个分到各个类别中;聚类可以没有明确类别的,只是将具有相同特征的数据聚到一起作为一类,本说明书实施例中通过聚类算法也可以更客观的表示不同的虚拟域,也可减少人为因素对模型训练的影响。
本说明书实施例中的轮内对抗损失值可以表示每次轮内迭代训练结束得到的对抗学习损失值。例如:利用任意数据子集进行一轮轮内迭代训练,假设该轮轮内迭代训练进行了三次轮内迭代训练,第一次得到的对抗损失值为S1,第二次得到的对抗损失值为S2,第三次得到的对抗损失值为S3。
实际应用中在对活体检测模型进行迭代训练中,可以将数据分为用于对模型进行训练的训练数据部分和用于检测模型准确度的测试数据部分,本说明书实施例中所述训练子集中可以包括训练数据部分和测试数据部分,其中,在以对抗学习方式对所述初始活体检测模型进行预设次数的轮内迭代训练中的一次的轮内迭代训练,具体可以包括:
从一个所述数据子集中获取训练数据和测试数据;
利用所述训练数据对所述初始活体检测模型执行一次轮内迭代训练,得到轮内训练后的活体检测模型;
利用所述测试数据对所述轮内训练后的活体检测模型进行测试,得到所述轮内训练后的活体检测模型对应的轮内对抗损失值。
实际应用中,数据子集每进行一次迭代训练,都可以随机获取新的训练数据和测试数据,所述训练数据作为活体检测模型的初始训练数据用于进行轮内迭代训练,而测试数据是用于对每一次训练结束后获取的活体检测模型进行测试,进而可以在测试结束后获得该次对抗学习的对抗损失值。其中,测试数据可以是数据子集中的部分数据,也可以是全部的数据,每次选择的测试数据的数量以及训练数据的数量可以不同,也可以相同。
本说明书实施例中还可以包括:
计算所述预设数量的轮内对抗损失值的平均数,将所述平均数作为所述训练后的活体检测模型对应的对抗学习损失值。
本说明书实施例中预设数量的轮内对抗损失值的平均数可以表示对数据子集进行的轮内迭代训练中全部的对抗损失值求平均值,将该平均值作为训练后的活体检测模型的对抗损失值。继续以上述实施例为例:对应的三次轮内迭代的对抗损失值分别为S1、S2和S3,那么获得的训练后的模型的对抗损失值S的计算公式可以是:S=(S1+S2+S3)\2
本说明书实施例中可以基于对抗学习损失值判断是否结束模型训练流程,具体的本说明书实施例中的方法,还可以包括:
若所述对抗学习损失值满足预设条件,则停止对所述训练后的活体检测模型的训练;
若所述对抗学习损失值未满足所述预设条件,则将基于所述对抗学习损失值反传至所述训练后的活体检测模型进行后续训练。
实际应用中,若对抗学习损失值满足预设条件,则可以表示训练后的活体检测模型为符合要求的模型,停止训练。若对抗损失值不满足预设条件,则可以将得到的对抗学习损失值反传至训练后的活体检测模型,训练后的活体检测模型作为新的初始活体检测模型进行新一轮的迭代训练,直至损失值满足预设条件为止。其中,在进行新一轮迭代训练时,可以选择新的数据子集进行训练。
实际应用中,作为一种实施方式,可以将对抗学习的损失值反传至训练后的活体检测模型,活体检测模型根据对抗学习损失值对自身参数进行调整,调整完成后,再次选择测试数据进行测试,若模型仍不满足预设条件,可再次选择数据进行模型训练,直到训练得到的模型满足预设条件为止。作为一种实施方式,可以将对抗学习损失值以及新选取的数据同时提供至上一次训练后的活体检测模型,进行下一轮的迭代训练。还有一种实施方式,是通过反传的对抗损失值不断的参数调整,然后对测试数据进行测试,当调整的参数的活体检测模型的对抗损失值满足预设条件时,停止调整参数。
本说明书实施例中所述聚类算法可以包括一种或多种聚类算法。其中,当采用多种聚类算法确定数据的第二标签时,所述采用聚类算法,确定所述第一数据集中的数据的第二标签,具体可以包括:
获取各个聚类算法针对所述数据的各个聚类结果;
根据各个聚类算法对应的权重以及各个聚类结果,确定各个数据对应的聚类类别;
基于所述聚类类别,确定所述数据的第二标签。
实际应用中,可以使用一个聚类算法确定数据集中数据的第二标签,也可以使用多个聚类算法确定数据集中数据的第二标签。当采用多个聚类算法聚类时,由于不同的聚类算法可能采用不同的聚类计算方法,对于同一个数据,不同的聚类算法可以有不同的聚类结果。本说明书实施例中不同的聚类算法可以对应各自的权重,通过权重求和的方式确定数据集中数据对应的聚类类别。其中,各个聚类算法对应的权重可以相同,也可以不同,为减少单纯的权重对聚类结果的影响,可以将各个聚类算法对应的权重设定为相同或相近。例如:采用三种聚类算法,分别为聚类算法1,聚类算法2,聚类算法3,假设聚类数为2,判断某含有20个数据的数据集,聚类算法1将数据1-10其聚类为编号为1的类,将数据11-20聚类为编号为2的类;聚类算法2将数据1-9其聚类为编号为1的类,将数据10-20聚类为编号为2的类;聚类算法3也将数据1-10聚类为编号为1的类,将数据11-20聚类为编号为2的类;那么将数据1-9聚类为编号为1的类。若将聚类算法1的权重设为0.3,将聚类算法2的权重设为0.4,将聚类算法3的权重设为0.3。根据三种聚类算法的权重可知,数据10是编号为1的类。这样使得数据的聚类结果更加准确,提高活体检测模型的检测准确率。应当理解的是,两种不同的类就是两个不同的虚拟域。
本说明书实施例中所述采用聚类算法,确定所述第一数据集中的数据的第二标签,具体包括:
利用所述初始活体识别模型提取所述数据的数据特征;
基于所述数据特征,采用聚类算法对所述数据进行聚类,确定所述数据的第二标签。
实际应用中,在对活体检测模型进行训练的过程中,活体检测模型可以提取数据的数据特征,基于数据特征进行模型训练,本说明书实施例中进行聚类的数据特征可以是从活体检测模型中获取的,从而可以在不需要额外的特征提取模型或工具的情况下,对数据集中的数据进行聚类,可省略聚类过程中提取数据特征的步骤,提高聚类效率,也可以提高训练模型的效率,并且也可减少对于数据特征提取模型的使用,降低模型训练成本。
实际应用中,由于聚类算法是将具有相同或相近特征的数据聚到一起,不同特征的数据可以理解为不同域的数据,也可以理解为,本说明书实施例中通过聚类算法构建了不同的虚拟域。
为提高活体检测模型的识别准确性,本说明书实施例中所述训练数据包括不同采集设备、采集时间、采集地点中至少一种情况下采集到的人脸图像;
和/或,所述训练数据包括通过GANs网络生成的对抗数据。
本说明书实施例中数据集可以包含不同情况下采集的人脸图像,还可以包括GANs网络生成的对抗数据,以扩大数据的数量以及数据的多样性,使得活体检测模型识别更加精准。通过GANs网络生成的对抗数据可以是在原始数据的基础上通过增加各种不同的干扰数据获得不同的对抗数据。原始数据可以包括不同采集设备、采集时间、采集地点等情况下采集到的人脸图像。
本说明书实施例中基于包含活体属性标签和域属性信息的标签数据对初始活体检测模型进行对抗学习,可以理解为,本说明书实施例中所述初始活体识别模型包括用于进行活体识别的第一子模型和用于进行域的识别的第二子模型;所述对抗学习方式用于表示所述第一子模型与所述第二子模型之间的对抗学习;
所述基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,具体可以包括:
利用所述第二数据集对所述初始活体检测模型进行训练,得到第一子模型对应的第一损失值和所述第二子模型模型对应的第二损失值;
基于所述第一损失值和所述第二损失值,确定所述训练后的活体检测模型对应的对抗学习损失值。
本说明书实施例中,判断训练后的活体检测模型是否符合要求可以是根据该模型对活体以及域这两方面的识别准确性来确定的,实现了活体识别与域识别之间的对抗学习,使得满足要求的活体检测模型既可以准确的识别出活体或非活体,还可以准确识别出识别对象对应的域,也可以理解为,对于不同域的识别对象,该模型可以准确的识别出该识别对象是活体还是非活体,体现出更强的鲁棒性,可适用于不同的场合中。
本说明书实施例中所述对抗学习损失值L=α*L1+β*L2;其中,α、β表示权重,α>β;L1表示第一损失值,L2表示第二损失值。
本说明书实施例中活体检测模型更侧重于活体的检测,因此,第一损失值的权重α可以高于第二损失值的权重β。例如:预设条件为对抗学习损失值L不超过0.1,第一损失值的权重α为0.7,第二损失值的权重β为0.3,L1为0.05,L2为0.2,那么L=0.7*0.05+0.3*0.2=0.095,则获得的活体检测模型为满足预设条件的模型,可被使用。
通过上述方法,得到训练后的活体检测模型,使得训练后的活体检测模型可以匹配未知新场景。
基于上述训练方法,图3为本说明书实施例还提供的一种活体检测模型的训练示意图。如图3所示,该训练示意图可以包括:
步骤302:获取初始活体检测模型。
本说明书实施例中的初始活体检测模型可以是在某场合或场景中已经使用过或在使用中的活体检测模型。例如,在商场等光线比较好的场合进行活体检测的模型。
步骤304:将标记有包含表示活体属性信息的第一标签和表示域属性信息的第二标签的数据输入初始活体检测模型,获取所述初始活体检测模型对数据集中数据提取的特征。
步骤306:基于提取到的数据特征,利用聚类算法进行虚拟域的划分。
在实际应用中,将具有相同或相近特征的数据聚类为一类,即表示一个虚拟域,完成虚拟域的划分,确定数据集中可以表示域的属性信息的数据的第二标签,得到包含标记有第一标签和第二标签的数据的第二数据集。第二数据集与第一数据集中的数据可以是相同的,可以理解为,将第一数据集中的各个数据添加第二标签,得到第二数据集。
步骤308:通过元学习的方式,基于所述第二数据集以对抗学习方式对初始活体检测模型进行迭代训练。
实际应用中,将第二数据集分成若干数据子集,对所述数据子集进行基于元学习的对抗学习,再通过对抗学习损失函数获得对抗损失值,完成基于虚拟域的跨域生成训练。所述跨域生成可以是在不同的场景认为数据分布具有不同的域,数据往往仅包含有限的域,而新部署的场景则认为是新的域,通过训练让模型可以更好的兼容新部署场景的域。
步骤310:得到训练后的活体检测模型。
在实际应用中,若得到的训练后的活体检测模型不符合要求,可以将该活体检测模型作为新的初始活体检测模型再次进行训练;若得到的训练后的活体检测模型符合要求,则停止训练,可以被使用了。符合要求即可以适配未知的新场景了,例如:在光线比较暗的场合也能够准确识别活体或非活体的活体检测的模型。
基于同样的思路,本说明书实施例还提供了一种活体检测模型的训练装置。如图4所示,该装置可以包括:
数据获取模块402,用于获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息。
数据确定模块404,用于采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息。
模型训练模块406,用于基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
基于同样的思路,本说明书实施例还提供了一种活体检测模型的训练设备的结构示意图。如图5所示,设备500可以包括:
至少一个处理器510;以及,
与所述至少一个处理器通信连接的存储器530;其中,
所述存储器530存储有可被所述至少一个处理器510执行的指令520,所述指令被所述至少一个处理器510执行,以使所述至少一个处理器510能够:
获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
基于同样的思路,本说明书实施例还提供了上述方法对应的计算机可读介质。计算机可读介质上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现上述活体检测模型的训练方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于图5所示的设备而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字符***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字符助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字符多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带式磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (15)

1.一种活体检测模型的训练方法,包括:
获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
2.根据权利要求1所述的方法,所述基于所述第二训练数据集以对抗学习方式对初始活体检测模型进行训练,具体包括:
通过元学习的方式,基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练。
3.根据权利要求1所述的方法,所述基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型,具体包括:
从所述第二数据集中获取若干个数据子集;所述数据子集中包含预设数量的所述第二数据集中的包含所述第一标签和所述第二标签的数据;
利用各个数据子集,以对抗学习方式对所述初始活体检测模型进行训练,得到训练后的活体检测模型。
4.根据权利要求3所述的方法,所述利用各个数据子集,以对抗学习方式对所述初始活体检测模型进行训练,得到训练后的活体检测模型,具体包括:
利用各个数据子集中的任意数据子集,以对抗学习方式对所述初始活体检测模型进行预设次数的轮内迭代训练,得到预设数量的轮内对抗损失值以及训练后的活体检测模型。
5.根据权利要求4所述的方法,在以对抗学习方式对所述初始活体检测模型进行预设次数的轮内迭代训练中的一次的轮内迭代训练,具体包括:
从一个所述数据子集中获取训练数据和测试数据;
利用所述训练数据对所述初始活体检测模型执行一次轮内迭代训练,得到轮内训练后的活体检测模型;
利用所述测试数据,得到所述轮内训练后的活体检测模型对应的轮内对抗损失值。
6.根据权利要求4所述的方法,所述方法还包括:
计算所述预设数量的轮内对抗损失值的平均数,将所述平均数作为所述训练后的活体检测模型对应的对抗学习损失值。
7.根据权利要求6所述的方法,所述方法还包括:
若所述对抗学习损失值满足预设条件,则停止对所述训练后的活体检测模型的训练;
若所述对抗学习损失值未满足所述预设条件,则将基于所述对抗学习损失值反传至所述训练后的活体检测模型进行后续训练。
8.根据权利要求1所述的方法,所述聚类算法包括一种或多种聚类算法;
所述采用聚类算法,确定所述第一数据集中的数据的第二标签,具体包括:
获取各个聚类算法针对所述数据的各个聚类结果;
根据各个聚类算法对应的权重以及各个聚类结果,确定各个数据对应的聚类类别;
基于所述聚类类别,确定所述训练数据的第二标签。
9.根据权利要求1所述的方法,所述采用聚类算法,确定所述第一数据集中的数据的第二标签,具体包括:
利用所述初始活体识别模型提取所述数据的数据特征;
基于所述数据特征,采用聚类算法对所述数据进行聚类,确定所述数据的第二标签。
10.根据权利要求1所述的方法,所述数据包括不同采集设备、采集时间、采集地点中至少一种情况下采集到的人脸图像;
和/或,所述数据包括通过GANs网络生成的对抗数据。
11.根据权利要求1所述的方法,所述初始活体识别模型包括用于进行活体识别的第一子模型和用于进行域的识别的第二子模型;所述对抗学习方式用于表示所述第一子模型与所述第二子模型之间的对抗学习;
所述基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,具体包括:
利用所述第二数据集对所述初始活体检测模型进行训练,得到第一子模型对应的第一损失值和所述第二子模型模型对应的第二损失值;
基于所述第一损失值和所述第二损失值,确定所述训练后的活体检测模型对应的对抗学习损失值。
12.根据权利要求11所述的方法,所述对抗学习损失值L=α*L1+β*L2;其中,α、β表示权重,α>β;L1表示第一损失值,L2表示第二损失值。
13.一种活体检测模型的训练装置,包括:
数据获取模块,用于获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
数据确定模块,用于采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
模型训练模块,用于基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
14.一种活体检测模型的训练设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取第一数据集;所述第一数据集中的数据包括第一标签;所述第一标签用于表示所述数据的活体属性信息;
采用聚类算法,确定所述第一数据集中的数据的第二标签,得到第二数据集;所述第二数据集中的数据包括所述第一标签和所述第二标签;所述第二标签用于表示所述数据的域属性信息;
基于所述第二数据集以对抗学习方式对初始活体检测模型进行训练,得到训练后的活体检测模型。
15.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现权利要求1至12中任一项所述的活体检测模型的训练方法。
CN202211142033.0A 2022-09-20 2022-09-20 一种活体检测模型的训练方法、装置、设备及介质 Pending CN115578796A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211142033.0A CN115578796A (zh) 2022-09-20 2022-09-20 一种活体检测模型的训练方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211142033.0A CN115578796A (zh) 2022-09-20 2022-09-20 一种活体检测模型的训练方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN115578796A true CN115578796A (zh) 2023-01-06

Family

ID=84581876

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211142033.0A Pending CN115578796A (zh) 2022-09-20 2022-09-20 一种活体检测模型的训练方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN115578796A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797373A (zh) * 2023-01-09 2023-03-14 苏州浪潮智能科技有限公司 一种图像分割方法、装置、电子设备及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797373A (zh) * 2023-01-09 2023-03-14 苏州浪潮智能科技有限公司 一种图像分割方法、装置、电子设备及介质

Similar Documents

Publication Publication Date Title
CN107358157B (zh) 一种人脸活体检测方法、装置以及电子设备
CN109740670B (zh) 视频分类的方法及装置
CN107808098B (zh) 一种模型安全检测方法、装置以及电子设备
JP6866495B2 (ja) 画像品質の評価方法及び画像品質の評価システム
CN109816032B (zh) 基于生成式对抗网络的无偏映射零样本分类方法和装置
CN107274442B (zh) 一种图像识别方法和装置
CN112884881A (zh) 三维人脸模型重建方法、装置、电子设备及存储介质
CN112784857B (zh) 一种模型训练以及图像处理方法及装置
CN108804332B (zh) 一种基于机器学习的c程序内存泄漏智能化检测方法
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN113223101B (zh) 基于隐私保护的图像处理方法、装置及设备
CN110532755B (zh) 一种计算机实现的风险识别的方法及装置
CN115600157A (zh) 一种数据处理的方法、装置、存储介质及电子设备
CN111652286A (zh) 一种基于图嵌入的物体识别方法、设备及介质
JP7141518B2 (ja) 指静脈照合方法、装置、コンピュータ機器、及び記憶媒体
CN115578796A (zh) 一种活体检测模型的训练方法、装置、设备及介质
CN116152933A (zh) 一种异常检测模型的训练方法、装置、设备及存储介质
CN108681490B (zh) 针对rpc信息的向量处理方法、装置以及设备
CN116630480A (zh) 一种交互式文本驱动图像编辑的方法、装置和电子设备
CN115204318B (zh) 事件自动层级分类方法及电子设备
CN111598092A (zh) 图像中目标区域的确定方法、目标识别方法及装置
CN113837272B (zh) 一种自动驾驶长尾数据增强方法
CN117372286B (zh) 一种基于Python的图像噪声优化方法及***
CN117523323B (zh) 一种生成图像的检测方法及装置
CN116188919B (zh) 一种测试方法、装置、可读存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination