CN113569991A - 人证比对模型训练方法、计算机设备及计算机存储介质 - Google Patents

人证比对模型训练方法、计算机设备及计算机存储介质 Download PDF

Info

Publication number
CN113569991A
CN113569991A CN202110989212.7A CN202110989212A CN113569991A CN 113569991 A CN113569991 A CN 113569991A CN 202110989212 A CN202110989212 A CN 202110989212A CN 113569991 A CN113569991 A CN 113569991A
Authority
CN
China
Prior art keywords
training
training samples
face image
samples
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110989212.7A
Other languages
English (en)
Other versions
CN113569991B (zh
Inventor
郑湘琴
石伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jieshun Science and Technology Industry Co Ltd
Original Assignee
Shenzhen Jieshun Science and Technology Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jieshun Science and Technology Industry Co Ltd filed Critical Shenzhen Jieshun Science and Technology Industry Co Ltd
Priority to CN202110989212.7A priority Critical patent/CN113569991B/zh
Publication of CN113569991A publication Critical patent/CN113569991A/zh
Application granted granted Critical
Publication of CN113569991B publication Critical patent/CN113569991B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请实施例公开了一种人证比对模型训练方法、计算机设备及计算机存储介质。本申请实施例包括:第一训练样本包括自然场景人脸图像及其对应的身份标签,第二训练样本包括证件人脸图像及其对应的身份标签,主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,且第一训练样本及第二训练样本分别对应各自的分类层和损失函数,因此,自然场景人脸图像的训练与证件人脸图像的训练共用同一个主干网络,确保主干网络可以同时学习到两个数据集的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力,提高模型训练效果。

Description

人证比对模型训练方法、计算机设备及计算机存储介质
技术领域
本申请实施例涉及人证比对领域,具体涉及一种人证比对模型训练方法、计算机设备及计算机存储介质。
背景技术
随着图像处理与模式识别技术的快速进步及计算机视觉的便捷性,人脸识别技术在现代生活中的运用也越来越多。而人脸识别在实际应用中又分为1:1人脸验证和1:N人脸辨识。1:1人脸验证可应用于手机人脸解锁、酒店住宿、高铁站刷脸进站等场景。1:N人脸辨识又可称为人证比对,主要是通过刷身份证件获取身份证件上的人脸照片,然后现场拍摄该身份证件的持有者的人脸图像,将现场拍摄到的人脸图像与身份证件上的人脸照片进行比对,判断是否为同一个人,其中身份证件可以是居民身份证、驾驶证、护照等用于表明身份的证件。
人证比对算法由于其特殊性和个人隐私性,很难获取到身份证件上的人脸照片,而且一个身份对应的身份证件人脸照片的数量十分有限,这给人证比对深度学习模型的训练带来巨大的挑战,导致现有的人证比对模型的训练效果不佳,影响人证比对结果的准确性。
发明内容
本申请实施例提供了一种人证比对模型训练方法、计算机设备及计算机存储介质,用于提高人证比对模型的训练效果。
本申请实施例第一方面提供了一种人证比对模型训练方法,所述方法包括:
获得多组第一训练样本及多组第二训练样本,每组所述第一训练样本包括自然场景人脸图像以及所述自然场景人脸图像对应的身份标签,每组所述第二训练样本包括证件人脸图像以及所述证件人脸图像对应的身份标签;
构建初始人证比对模型,在所述初始人证比对模型中部署主干网络和分类层,所述主干网络包括backbone结构和特征层,所述分类层包括所述第一训练样本对应的分类层和所述第二训练样本对应的分类层;
将多组所述第一训练样本及多组所述第二训练样本输入至所述初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,在所述第一训练样本对应的训练过程的基础上,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,输出所述第一训练样本对应的第一输出标签以及所述第二训练样本对应的第二输出标签;
当所述第一输出标签与所述自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,所述第二输出标签与所述证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型。
本申请实施例第二方面提供了一种计算机设备,所述计算机设备包括:
获取单元,用于获得多组第一训练样本及多组第二训练样本,每组所述第一训练样本包括自然场景人脸图像以及所述自然场景人脸图像对应的身份标签,每组所述第二训练样本包括证件人脸图像以及所述证件人脸图像对应的身份标签;
构建单元,用于构建初始人证比对模型,在所述初始人证比对模型中部署主干网络和分类层,所述主干网络包括backbone结构和特征层,所述分类层包括所述第一训练样本对应的分类层和所述第二训练样本对应的分类层;
训练单元,用于将多组所述第一训练样本及多组所述第二训练样本输入至所述初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,在所述第一训练样本对应的训练过程的基础上,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,输出所述第一训练样本对应的第一输出标签以及所述第二训练样本对应的第二输出标签;
收敛单元,用于当所述第一输出标签与所述自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,所述第二输出标签与所述证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型。
本申请实施例第三方面提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现前述第一方面的方法。
本申请实施例第四方面提供了一种计算机存储介质,计算机存储介质中存储有指令,该指令在计算机上执行时,使得计算机执行前述第一方面的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,其中第一训练样本包括自然场景人脸图像及其对应的身份标签,第二训练样本包括证件人脸图像及其对应的身份标签,因此,自然场景人脸图像及其标签的训练,与证件人脸图像及其标签的训练,共用了同一个主干网络,这确保了主干网络可以同时学习到两个数据集的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力,提高了人证比对模型的训练效果,进而可提高人证比对结果的准确性。
附图说明
图1为本申请实施例中人证比对模型训练方法一个流程示意图;
图2为本申请实施例中人证比对模型训练方法另一流程示意图;
图3为本申请实施例中计算机设备一个结构示意图;
图4为本申请实施例中计算机设备另一结构示意图。
具体实施方式
本申请实施例提供了一种人证比对模型训练方法、计算机设备及计算机存储介质,用于提高人证比对模型的训练效果。
请参阅图1,本申请实施例中人证比对模型训练方法一个实施例包括:
101、获得多组第一训练样本及多组第二训练样本;
本实施例的方法可应用于计算机设备,计算机设备可执行对人证比对模型的训练。在执行模型训练时,计算机设备获取多组第一训练样本及多组第二训练样本,其中每组第一训练样本包括自然场景人脸图像以及自然场景人脸图像对应的身份标签,每组第二训练样本包括证件人脸图像以及证件人脸图像对应的身份标签,身份标签表示人脸图像中的人物的身份。
证件人脸图像为证件上的人脸图像,该证件可以是身份证件,身份证件具体可以是居民身份证、驾驶证、护照等用于表明身份的证件。而自然场景人脸图像为自然场景下拍摄的人脸图像,例如机场、车站安检时拍摄的人脸图像或者在其他自然环境下拍摄到的人脸图像。
102、构建初始人证比对模型,在初始人证比对模型中部署主干网络和分类层;
计算机设备构建初始人证比对模型,并在初始人证比对模型中部署主干网络和分类层,其中主干网络包括backbone结构和特征层,backbone结构用于从人脸图像中提取人脸特征,即用于特征提取;特征层用于表征人脸特征,对backbone结构输入的人脸特征进行处理并输出处理人脸特征而获得的浮点数据。分类层包括第一训练样本对应的分类层以及第二训练样本对应的分类层。
103、将多组第一训练样本及多组第二训练样本输入至初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,输出第一训练样本对应的第一输出标签以及第二训练样本对应的第二输出标签;
完成网络结构的部署之后,计算机设备将多组第一训练样本及多组第二训练样本输入至初始人证比对模型,从而主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,也就是说,初始人证比对模型对自然场景人脸图像及其标签进行训练,在此基础上,进一步使用证件人脸图像及其标签进行训练。因此,自然场景人脸图像及其标签的训练,与证件人脸图像及其标签的训练,共用了同一个主干网络,并且分别对应不同的分类层,这确保了主干网络可以同时学习到两个数据集(即自然场景人脸图像及其标签与证件人脸图像及其标签这两个数据集)的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力。
每一次训练,初始人证比对模型还输出第一训练样本对应的第一输出标签以及第二训练样本对应的第二输出标签,输出标签用于构建损失函数。
104、当第一输出标签与自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,第二输出标签与证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型;
本实施例中,训练过程可被分为2个分支,一个分支是自然场景人脸图像及其标签对应的训练过程,另一分支是证件人脸图像及其标签对应的训练过程。并且,计算机设备分别对每个分支构建损失函数,即每个分支均对应自己的损失函数。基于上述的配置,在训练过程中,当第一输出标签与自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,第二输出标签与证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时,即可停止模型训练,从而得到目标人证比对模型,完成人证比对模型的训练。
目标人证比对模型可应用于自然场景人脸图像与证件人脸图像的比对场景中,以识别出自然场景人脸图像与证件人脸图像是否对应于同一个人,例如在机场、车站安检时,比对居民身份证上的人脸图像与安检摄像头抓取到的人脸图像,以判断居民身份证的持有者是否为该居民身份证所指向的人。
本实施例中,主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,其中第一训练样本包括自然场景人脸图像及其对应的身份标签,第二训练样本包括证件人脸图像及其对应的身份标签,因此,自然场景人脸图像及其标签的训练,与证件人脸图像及其标签的训练,共用了同一个主干网络,这确保了主干网络可以同时学习到两个数据集的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力,提高了人证比对模型的训练效果,进而可提高人证比对结果的准确性。
下面将在前述图1所示实施例的基础上,进一步详细地描述本申请实施例。请参阅图2,本申请实施例中人证比对模型训练方法另一实施例包括:
201、获得多组第一训练样本及多组第二训练样本;
本实施例中,训练样本中的身份标签可以人工标注,身份标签可以以任意形式的字段来描述,例如以ID号描述身份,或者以其他形式的字段描述身份。
例如,在实际应用中,可以从Glint360k、vggface2、ms1m等数据集中收集自然场景人脸图像,可获得多个身份中每个身份所对应的自然场景人脸图像。
202、构建初始人证比对模型,在初始人证比对模型中部署主干网络和分类层;
在构建初始人证比对模型时,除了部署主干网络和分类层之外,还可部署数据输入层以及slice层,slice层可连接特征层,接收特征层输出的浮点数据;数据输入层可用于向初始人证比对模型的网络结构输入训练样本。
其中,主干网络中的backbone结构,可以采用mobilefacenet、resnet等网络模型中的backbone结构。
203、将多组第一训练样本及多组第二训练样本输入至初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,输出第一训练样本对应的第一输出标签以及第二训练样本对应的第二输出标签;
具体的,计算机设备可在主干网络之前部署2个dataset层,并在dataset层之后部署concat层,并将concat层连接主干网络,将2个dataset层以及concat层作为数据输入层,在输入训练样本时,将多组第一训练样本输入至其中一个dataset层,而将多组第二训练样本输入至另一个dataset层,并使用concat层对2个dataset层的多组第一训练样本及多组第二训练样本进行合并,合并之后的数据作为主干网络的输入,从而实现训练样本的输入。
204、在第一训练样本对应的分类层中,基于第一训练样本对应的浮点数据设置第一损失函数,在第二训练样本对应的分类层中,基于第二训练样本对应的浮点数据设置第二损失函数;
本实施例中,在初始人证比对模型中,计算机设备还在特征层之后部署slice层,并使用slice层对特征层输出的浮点数据进行切分,由于特征层可对第一训练样本和第二训练样本进行训练和学习,则特征层输出的浮点数据包括了第一训练样本对应的浮点数据以及第二训练样本对应的浮点数据,则进行切分之后可获得上述两类浮点数据。
同时,计算机设备在第一训练样本对应的分类层中,基于第一训练样本对应的浮点数据设置第一损失函数,并在第二训练样本对应的分类层中,基于第二训练样本对应的浮点数据设置第二损失函数,以便于在后续模型收敛过程中根据损失函数调节模型参数。
205、当第一输出标签与自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,第二输出标签与证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型;
本实施例中,初始人证比对模型的训练可以分3个阶段进行,具体方式是,使用多组第一训练样本执行第一阶段模型训练,在完成第一阶段模型训练之后,使用多组第一训练样本及多组第二训练样本对完成第一阶段模型训练的初始人证比对模型执行第二阶段模型训练,之后,使用多组第一训练样本及多组第二训练样本对完成第二阶段模型训练的初始人证比对模型执行第三阶段模型训练,在完成第三阶段模型训练时即获得目标人证比对模型。
其中,第一阶段模型训练的步骤包括:将主干网络及第一训练样本对应的分类层的学习率设置为正数;将多组第一训练样本输入至初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,输出第一输出标签,在第一损失函数满足收敛条件时确定完成第一阶段模型训练。
优选的,在第一阶段模型训练中,主干网络及特征层的学习率可被设置为1。
在第二阶段模型训练中,主干网络及特征层可以不需要学习第一训练样本和第二训练样本的人脸特征,而第二训练样本对应的分类层需要学习人脸特征,因此,计算机设备可将主干网络及特征层、第一训练样本对应的分类层的学习率设置为0,而将第二训练样本对应的分类层的学习率设置为正数,以使得第二训练样本对应的分类层学习人脸特征并进行参数更新,而学习率设置为0的网络结构则不进行参数更新。完成学习率设置之后,将多组第一训练样本及多组第二训练样本输入至完成第一阶段模型训练的初始人证比对模型,即在第一阶段模型训练的基础上执行第二阶段模型训练,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,输出第一输出标签以及第二输出标签,在第二损失函数满足收敛条件时确定完成第二阶段模型训练。
上述所称的损失函数满足收敛条件,可以是损失函数的loss值基本不再下降,或者loss值的下降幅度维持预设范围之内,可认为损失函数满足收敛条件。
在完成第二阶段模型训练之后,执行第三阶段模型训练,第三阶段模型训练的步骤包括:将主干网络及第一训练样本对应的分类层的学习率设置为0,将第二训练样本对应的分类层的学习率设置为大于0的初始值,且每隔预设训练次数将初始值乘以预设值的乘积作为第二训练样本对应的分类层的学习率;将多组第一训练样本及多组第二训练样本输入至完成第二阶段模型训练的初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,当完成总训练次数时确定完成第三阶段模型训练,得到目标人证比对模型。
例如,在优选的实施方式中,完成第二阶段模型训练的初始人证比对模型中,主干网络及第一训练样本对应的分类层的学习率可被设置为0,而第二训练样本对应的分类层的学习率的初始值可设置为0.01,且每隔20万次该初始值乘以0.1的乘积作为第二训练样本对应的分类层的学习率,设置完成50万次训练时停止第三阶段模型训练。完成上述设置之后,将多组第一训练样本及多组第二训练样本输入至完成第二阶段模型训练的初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,基于上述设置,在最开始的20万次训练过程中,第二训练样本对应的分类层的学习率初始值为0.01,之后每隔20万次该初始值乘以0.1的乘积作为第二训练样本对应的分类层的学习率,直至完成50万次训练为止,结束初始人证比对模型的训练,获得目标人证比对模型。
在第二阶段模型训练的步骤中,第一损失函数和第二损失函数可以均为arcfaceloss损失函数;而在第三阶段模型训练的步骤中,第一损失函数仍为arcface loss损失函数,第二损失函数则由arcface loss损失函数调整为triplet loss损失函数。
在第三阶段模型训练的步骤中,可以根据第一损失函数与第二损失函数的加权和来调节模型参数。具体的,可设置第一损失函数的权重以及第二损失函数的权重,并根据第一损失函数的权重以及第二损失函数的权重构建第一损失函数与第二损失函数的加权和,进而根据该加权和调节初始人证比对模型的模型参数。
在优选的实施方式中,第一损失函数的权重可设置为1,第二损失函数的权重可设置为2。在实际操作中,如果更看重第二训练样本的训练效果,更看重证件人脸图像对模型的训练效果,则第二损失函数的权重可以更大一些,但是具体权重数值需要根据经验以及实际训练过程的loss值来确定。
本实施例中,使用了多个训练数据集、多个损失函数联合训练的方式来训练初始人证比对模型,并且通过多个不同阶段进行阶段式的训练,不同阶段使用不同的损失函数和不同的训练数据集,其中第一训练样本及第二训练样本分别对应各自的分类层和损失函数,因此,自然场景人脸图像及其标签的训练,与证件人脸图像及其标签的训练,共用同一个主干网络,确保主干网络可以同时学习到两个数据集的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力,提高了人证比对模型的训练效果,可提高人证比对结果的准确性。
上面对本申请实施例中的人证比对模型训练方法进行了描述,下面对本申请实施例中的计算机设备进行描述,请参阅图3,本申请实施例中计算机设备一个实施例包括:
获取单元301,用于获得多组第一训练样本及多组第二训练样本,每组第一训练样本包括自然场景人脸图像以及自然场景人脸图像对应的身份标签,每组第二训练样本包括证件人脸图像以及证件人脸图像对应的身份标签;
构建单元302,用于构建初始人证比对模型,在初始人证比对模型中部署主干网络和分类层,主干网络包括backbone结构和特征层,分类层包括第一训练样本对应的分类层和第二训练样本对应的分类层;
训练单元303,用于将多组第一训练样本及多组第二训练样本输入至初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,输出第一训练样本对应的第一输出标签以及第二训练样本对应的第二输出标签;
收敛单元304,用于当第一输出标签与自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,第二输出标签与证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型。
本实施例一种优选的实施方式中,训练单元303具体用于使用多组第一训练样本执行第一阶段模型训练;使用多组第一训练样本及多组第二训练样本对完成第一阶段模型训练的初始人证比对模型执行第二阶段模型训练;使用多组第一训练样本及多组第二训练样本对完成第二阶段模型训练的初始人证比对模型执行第三阶段模型训练,在完成第三阶段模型训练时获得目标人证比对模型。
本实施例一种优选的实施方式中,第一阶段模型训练的步骤包括:
将主干网络及第一训练样本对应的分类层的学习率设置为正数;
将多组第一训练样本输入至初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,输出第一输出标签,在第一损失函数满足收敛条件时确定完成第一阶段模型训练。
本实施例一种优选的实施方式中,第二阶段模型训练的步骤包括:
将主干网络及特征层、第一训练样本对应的分类层的学习率设置为0,将第二训练样本对应的分类层的学习率设置为正数;
将多组第一训练样本及多组第二训练样本输入至完成第一阶段模型训练的初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,输出第一输出标签以及第二输出标签,在第二损失函数满足收敛条件时确定完成第二阶段模型训练。
本实施例一种优选的实施方式中,第三阶段模型训练的步骤包括:
将主干网络及第一训练样本对应的分类层的学习率设置为0,将第二训练样本对应的分类层的学习率设置为大于0的初始值,且每隔预设训练次数将初始值乘以预设值的乘积作为第二训练样本对应的分类层的学习率;
将多组第一训练样本及多组第二训练样本输入至完成第二阶段模型训练的初始人证比对模型,以使得主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,当完成总训练次数时确定完成第三阶段模型训练,得到目标人证比对模型。
本实施例一种优选的实施方式中,第二阶段模型训练的步骤中,第一损失函数和第二损失函数均为arcface loss损失函数;
第三阶段模型训练的步骤中,第一损失函数为arcface loss损失函数,第二损失函数为triplet loss损失函数。
本实施例一种优选的实施方式中,第三阶段模型训练的步骤还包括:
根据第一损失函数的权重以及第二损失函数的权重构建第一损失函数与第二损失函数的加权和;
根据加权和调节初始人证比对模型的模型参数。
本实施例一种优选的实施方式中,训练单元303具体用于在主干网络之前部署2个dataset层,并在dataset层之后部署concat层,concat层连接主干网络;将多组第一训练样本输入至其中一个dataset层,将多组第二训练样本输入至另一个dataset层;使用concat层对2个dataset层的多组第一训练样本及多组第二训练样本进行合并,合并之后的数据作为主干网络的输入。
本实施例一种优选的实施方式中,计算机设备还包括:
切分单元305,用于在特征层之后部署slice层,使用slice层对特征层输出的浮点数据进行切分,得到第一训练样本对应的浮点数据以及第二训练样本对应的浮点数据;
设置单元306,用于在第一训练样本对应的分类层中,基于第一训练样本对应的浮点数据设置第一损失函数;在第二训练样本对应的分类层中,基于第二训练样本对应的浮点数据设置第二损失函数。
本实施例中,计算机设备中各单元所执行的操作与前述图1至图2所示实施例中描述的类似,此处不再赘述。
本实施例中,主干网络及第一训练样本对应的分类层使用第一训练样本进行训练,在第一训练样本对应的训练过程的基础上,主干网络及第二训练样本对应的分类层使用第二训练样本进行训练,其中第一训练样本包括自然场景人脸图像及其对应的身份标签,第二训练样本包括证件人脸图像及其对应的身份标签,因此,自然场景人脸图像及其标签的训练,与证件人脸图像及其标签的训练,共用了同一个主干网络,这确保了主干网络可以同时学习到两个数据集的人脸特征,对自然场景人脸图像和证件人脸图像都有良好的辨识和区分能力,提高了人证比对模型的训练效果,进而可提高人证比对结果的准确性。
下面对本申请实施例中的计算机设备进行描述,请参阅图4,本申请实施例中计算机设备一个实施例包括:
该计算机设备400可以包括一个或一个以***处理器(central processingunits,CPU)401和存储器405,该存储器405中存储有一个或一个以上的应用程序或数据。
其中,存储器405可以是易失性存储或持久存储。存储在存储器405的程序可以包括一个或一个以上模块,每个模块可以包括对计算机设备中的一系列指令操作。更进一步地,中央处理器401可以设置为与存储器405通信,在计算机设备400上执行存储器405中的一系列指令操作。
计算机设备400还可以包括一个或一个以上电源402,一个或一个以上有线或无线网络接口403,一个或一个以上输入输出接口404,和/或,一个或一个以上操作***,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等。
该中央处理器401可以执行前述图1至图2所示实施例中计算机设备所执行的操作,具体此处不再赘述。
本申请实施例还提供了一种计算机存储介质,其中一个实施例包括:该计算机存储介质中存储有指令,该指令在计算机上执行时,使得该计算机执行前述图1至图2所示实施例中计算机设备所执行的操作。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种人证比对模型训练方法,其特征在于,所述方法包括:
获得多组第一训练样本及多组第二训练样本,每组所述第一训练样本包括自然场景人脸图像以及所述自然场景人脸图像对应的身份标签,每组所述第二训练样本包括证件人脸图像以及所述证件人脸图像对应的身份标签;
构建初始人证比对模型,在所述初始人证比对模型中部署主干网络和分类层,所述主干网络包括backbone结构和特征层,所述分类层包括所述第一训练样本对应的分类层和所述第二训练样本对应的分类层;
将多组所述第一训练样本及多组所述第二训练样本输入至所述初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,在所述第一训练样本对应的训练过程的基础上,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,输出所述第一训练样本对应的第一输出标签以及所述第二训练样本对应的第二输出标签;
当所述第一输出标签与所述自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,所述第二输出标签与所述证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型。
2.根据权利要求1所述的方法,其特征在于,所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,在所述第一训练样本对应的训练过程的基础上,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,包括:
使用多组所述第一训练样本执行第一阶段模型训练;
使用多组所述第一训练样本及多组所述第二训练样本对完成所述第一阶段模型训练的初始人证比对模型执行第二阶段模型训练;
使用多组所述第一训练样本及多组所述第二训练样本对完成所述第二阶段模型训练的初始人证比对模型执行第三阶段模型训练,在完成所述第三阶段模型训练时获得所述目标人证比对模型。
3.根据权利要求2所述的方法,其特征在于,所述第一阶段模型训练的步骤包括:
将所述主干网络及所述第一训练样本对应的分类层的学习率设置为正数;
将多组所述第一训练样本输入至所述初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,输出所述第一输出标签,在所述第一损失函数满足收敛条件时确定完成所述第一阶段模型训练。
4.根据权利要求3所述的方法,其特征在于,所述第二阶段模型训练的步骤包括:
将所述主干网络及所述第一训练样本对应的分类层的学习率设置为0,将所述第二训练样本对应的分类层的学习率设置为正数;
将多组所述第一训练样本及多组所述第二训练样本输入至完成所述第一阶段模型训练的初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,输出所述第一输出标签以及所述第二输出标签,在所述第二损失函数满足收敛条件时确定完成所述第二阶段模型训练。
5.根据权利要求4所述的方法,其特征在于,所述第三阶段模型训练的步骤包括:
将所述主干网络及所述第一训练样本对应的分类层的学习率设置为0,将所述第二训练样本对应的分类层的学习率设置为大于0的初始值,且每隔预设训练次数将所述初始值乘以预设值的乘积作为所述第二训练样本对应的分类层的学习率;
将多组所述第一训练样本及多组所述第二训练样本输入至完成所述第二阶段模型训练的初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,当完成总训练次数时确定完成所述第三阶段模型训练,得到所述目标人证比对模型。
6.根据权利要求5所述的方法,其特征在于,所述第二阶段模型训练的步骤中,所述第一损失函数和所述第二损失函数均为arcface loss损失函数;
所述第三阶段模型训练的步骤中,所述第一损失函数为arcface loss损失函数,所述第二损失函数为triplet loss损失函数。
7.根据权利要求5所述的方法,其特征在于,所述第三阶段模型训练的步骤还包括:
根据所述第一损失函数的权重以及所述第二损失函数的权重构建所述第一损失函数与所述第二损失函数的加权和;
根据所述加权和调节所述初始人证比对模型的模型参数。
8.根据权利要求1所述的方法,其特征在于,所述将多组所述第一训练样本及多组所述第二训练样本输入至所述初始人证比对模型,包括:
在所述主干网络之前部署2个dataset层,并在dataset层之后部署concat层,所述concat层连接所述主干网络;
将多组所述第一训练样本输入至其中一个dataset层,将多组所述第二训练样本输入至另一个dataset层;
使用所述concat层对2个dataset层的多组所述第一训练样本及多组所述第二训练样本进行合并,合并之后的数据作为所述主干网络的输入。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述特征层之后部署slice层,使用所述slice层对所述特征层输出的浮点数据进行切分,得到所述第一训练样本对应的浮点数据以及所述第二训练样本对应的浮点数据;
在所述第一训练样本对应的分类层中,基于所述第一训练样本对应的浮点数据设置所述第一损失函数;
在所述第二训练样本对应的分类层中,基于所述第二训练样本对应的浮点数据设置所述第二损失函数。
10.一种计算机设备,其特征在于,所述计算机设备包括:
获取单元,用于获得多组第一训练样本及多组第二训练样本,每组所述第一训练样本包括自然场景人脸图像以及所述自然场景人脸图像对应的身份标签,每组所述第二训练样本包括证件人脸图像以及所述证件人脸图像对应的身份标签;
构建单元,用于构建初始人证比对模型,在所述初始人证比对模型中部署主干网络和分类层,所述主干网络包括backbone结构和特征层,所述分类层包括所述第一训练样本对应的分类层和所述第二训练样本对应的分类层;
训练单元,用于将多组所述第一训练样本及多组所述第二训练样本输入至所述初始人证比对模型,以使得所述主干网络及所述第一训练样本对应的分类层使用所述第一训练样本进行训练,在所述第一训练样本对应的训练过程的基础上,所述主干网络及所述第二训练样本对应的分类层使用所述第二训练样本进行训练,输出所述第一训练样本对应的第一输出标签以及所述第二训练样本对应的第二输出标签;
收敛单元,用于当所述第一输出标签与所述自然场景人脸图像对应的身份标签之间的第一损失函数满足收敛条件,以及,所述第二输出标签与所述证件人脸图像对应的身份标签之间的第二损失函数满足收敛条件时停止训练,得到目标人证比对模型。
CN202110989212.7A 2021-08-26 2021-08-26 人证比对模型训练方法、计算机设备及计算机存储介质 Active CN113569991B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110989212.7A CN113569991B (zh) 2021-08-26 2021-08-26 人证比对模型训练方法、计算机设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110989212.7A CN113569991B (zh) 2021-08-26 2021-08-26 人证比对模型训练方法、计算机设备及计算机存储介质

Publications (2)

Publication Number Publication Date
CN113569991A true CN113569991A (zh) 2021-10-29
CN113569991B CN113569991B (zh) 2024-05-28

Family

ID=78172792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110989212.7A Active CN113569991B (zh) 2021-08-26 2021-08-26 人证比对模型训练方法、计算机设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN113569991B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329935A1 (en) * 2017-05-11 2018-11-15 Oracle International Corporation Distributed storage and processing of hierarchical data structures
CN108875624A (zh) * 2018-06-13 2018-11-23 华南理工大学 基于多尺度的级联稠密连接神经网络的人脸检测方法
CN109255340A (zh) * 2018-10-29 2019-01-22 东北大学 一种融合多种改进vgg网络的人脸识别方法
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
US20200184268A1 (en) * 2018-12-11 2020-06-11 Symbolcraft LLC Methods and systems that use incomplete training data to train machine-learning based systems
CN111931592A (zh) * 2020-07-16 2020-11-13 苏州科达科技股份有限公司 对象识别方法、装置及存储介质
CN112052789A (zh) * 2020-09-03 2020-12-08 腾讯科技(深圳)有限公司 人脸识别方法、装置、电子设备及存储介质
US20210034973A1 (en) * 2019-07-30 2021-02-04 Google Llc Training neural networks using learned adaptive learning rates
WO2021038298A2 (en) * 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device
CN112712068A (zh) * 2021-03-19 2021-04-27 腾讯科技(深圳)有限公司 一种关键点检测方法、装置、电子设备及存储介质
US20210142181A1 (en) * 2019-11-07 2021-05-13 Microsoft Technology Licensing, Llc Adversarial training of machine learning models
CN113011646A (zh) * 2021-03-15 2021-06-22 腾讯科技(深圳)有限公司 一种数据处理方法、设备以及可读存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329935A1 (en) * 2017-05-11 2018-11-15 Oracle International Corporation Distributed storage and processing of hierarchical data structures
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
CN108875624A (zh) * 2018-06-13 2018-11-23 华南理工大学 基于多尺度的级联稠密连接神经网络的人脸检测方法
CN109255340A (zh) * 2018-10-29 2019-01-22 东北大学 一种融合多种改进vgg网络的人脸识别方法
US20200184268A1 (en) * 2018-12-11 2020-06-11 Symbolcraft LLC Methods and systems that use incomplete training data to train machine-learning based systems
US20210034973A1 (en) * 2019-07-30 2021-02-04 Google Llc Training neural networks using learned adaptive learning rates
WO2021038298A2 (en) * 2019-08-29 2021-03-04 PXL Vision AG Id verification with a mobile device
US20210142181A1 (en) * 2019-11-07 2021-05-13 Microsoft Technology Licensing, Llc Adversarial training of machine learning models
CN111931592A (zh) * 2020-07-16 2020-11-13 苏州科达科技股份有限公司 对象识别方法、装置及存储介质
CN112052789A (zh) * 2020-09-03 2020-12-08 腾讯科技(深圳)有限公司 人脸识别方法、装置、电子设备及存储介质
CN113011646A (zh) * 2021-03-15 2021-06-22 腾讯科技(深圳)有限公司 一种数据处理方法、设备以及可读存储介质
CN112712068A (zh) * 2021-03-19 2021-04-27 腾讯科技(深圳)有限公司 一种关键点检测方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张建华;孔繁涛;吴建寨;翟治芬;韩书庆;曹姗姗;: "基于改进VGG卷积神经网络的棉花病害识别模型", 中国农业大学学报, no. 11 *
张泽轩;陈虎;吴志红;王敏;: "基于深度学习的道路实景行人车辆检测", 现代计算机(专业版), no. 10, 5 April 2018 (2018-04-05) *

Also Published As

Publication number Publication date
CN113569991B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN107194341B (zh) Maxout多卷积神经网络融合人脸识别方法和***
CN109344855B (zh) 一种基于排序引导回归的深度模型的人脸美丽评价方法
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
CN104239858B (zh) 一种人脸特征验证的方法和装置
CN101661557B (zh) 一种基于智能卡的人脸识别***及其方法
KR100969298B1 (ko) 얼굴인식을 통한 영상에서의 사람 상호관계 추론 방법
CN112016464A (zh) 检测人脸遮挡的方法、装置、电子设备及存储介质
CN106446754A (zh) 图像识别方法、度量学习方法、图像来源识别方法及装置
CN110287889A (zh) 一种身份识别的方法及装置
CN108875907B (zh) 一种基于深度学习的指纹识别方法和装置
CN111931758A (zh) 一种结合面部静脉的人脸识别方法及装置
CN105095870A (zh) 基于迁移学习的行人重识别方法
CN105303150A (zh) 实现图像处理的方法和***
CN111178130A (zh) 一种基于深度学习的人脸识别方法、***和可读存储介质
CN108765014A (zh) 一种基于门禁***的智能广告投放方法
CN108734145A (zh) 一种基于密度自适应人脸表征模型的人脸识别方法
CN105913014A (zh) 基于身份证芯片照片和视频的身份鉴定方法及***
CN113177892A (zh) 生成图像修复模型的方法、设备、介质及程序产品
EP3043292A1 (en) Object linking method, object linking apparatus, and object linking program
CN107025435B (zh) 一种人脸识别处理方法和***
CN112766176B (zh) 轻量化卷积神经网络的训练方法及人脸属性识别方法
CN111898533B (zh) 一种基于时空特征融合的步态分类方法
CN113205045A (zh) 行人重识别方法、装置、电子设备和可读存储介质
CN111626212B (zh) 图片中对象的识别方法和装置、存储介质及电子装置
CN113569991A (zh) 人证比对模型训练方法、计算机设备及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant