CN113159006B - 基于人脸识别的考勤方法、***、电子设备和存储介质 - Google Patents

基于人脸识别的考勤方法、***、电子设备和存储介质 Download PDF

Info

Publication number
CN113159006B
CN113159006B CN202110699382.1A CN202110699382A CN113159006B CN 113159006 B CN113159006 B CN 113159006B CN 202110699382 A CN202110699382 A CN 202110699382A CN 113159006 B CN113159006 B CN 113159006B
Authority
CN
China
Prior art keywords
face
deformable
texture
trained
face picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110699382.1A
Other languages
English (en)
Other versions
CN113159006A (zh
Inventor
王东
王月平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Moredian Technology Co ltd
Original Assignee
Hangzhou Moredian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Moredian Technology Co ltd filed Critical Hangzhou Moredian Technology Co ltd
Priority to CN202110699382.1A priority Critical patent/CN113159006B/zh
Publication of CN113159006A publication Critical patent/CN113159006A/zh
Application granted granted Critical
Publication of CN113159006B publication Critical patent/CN113159006B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1091Recording time for administrative or management purposes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/10Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Strategic Management (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种基于人脸识别的考勤方法、***、电子设备和存储介质,该方法包括采集待考勤人员的端正人脸图片作为样本集,通过预先训练的3D可变形对抗生成网络对端正人脸图片生成任意角度人脸图片以扩充样本集,用扩充后的样本集训练人脸识别模型,用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录,通过本申请,解决了人脸识别技术在门禁或考勤***中准确度较低的问题,提高了提高人脸识别效率及考勤效率。

Description

基于人脸识别的考勤方法、***、电子设备和存储介质
技术领域
本申请涉及机器学习技术领域,特别是基于人脸识别的考勤方法、***、电子设备和存储介质。
背景技术
随着人脸识别技术的发展,如今,越来越多的人脸识别技术应用到人们的日常生活中,例如,人脸识别技术用于在门禁或考勤***。
目前,由于缺乏大角度姿态人脸样本的现状,不仅人脸识别模型的识别准确性较低,而且用户往往需要刻意地配合摄像仪器的角度,以采集端正的人脸图像,才能进行人脸识别,使得在实际复杂情况下人脸识别效率较低,因此在考勤时容易发生通行时的短暂驻留甚至排队拥堵的情况。
发明内容
本申请实施例提供了一种基于人脸识别的考勤方法、***、电子设备和存储介质,目的之一在于提高人脸识别效率,从而提高考勤效率,节约通行时间,避免考勤人员驻留和排队拥堵。
第一方面,本申请实施例提供了一种基于人脸识别的考勤方法,该方法包括:
采集待考勤人员的端正人脸图片作为样本集;
通过预先训练的3D可变形生成对抗网络(3D Morphable Model GenerativeAdversarial Networks ,可简称3D可变形模型 GAN)对所述端正人脸图片生成任意角度人脸图片以扩充样本集,其中,所述3D可变形生成对抗网络由3D可变形模型和生成对抗网络结合生成;
用扩充后的样本集训练人脸识别模型;
用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录;
所述3D可变形生成对抗网络通过如下方式获得:
将随机纹理参数
Figure 227429DEST_PATH_IMAGE001
和3D可变形模型形状参数
Figure 472465DEST_PATH_IMAGE002
输入纹理生成器
Figure 455465DEST_PATH_IMAGE003
,生成3D可变 形模型对应形状的纹理图;
将所述随机纹理参数
Figure 912991DEST_PATH_IMAGE004
、所述3D可变形模型形状参数
Figure 320838DEST_PATH_IMAGE002
、随机背景参数
Figure 612142DEST_PATH_IMAGE005
、姿势 标签
Figure 708537DEST_PATH_IMAGE006
和表情参数
Figure 500912DEST_PATH_IMAGE007
输入背景生成器
Figure 232108DEST_PATH_IMAGE008
,生成符合给定参数的背景图;
通过所述3D可变形模型将所述纹理图和姿势标签
Figure 287789DEST_PATH_IMAGE009
、所述表情参数
Figure 340320DEST_PATH_IMAGE010
以及所述3D 可变形模型形状参数
Figure 546174DEST_PATH_IMAGE002
结合以进行3D重建,并通过纹理映射方法
Figure 397455DEST_PATH_IMAGE011
和可微渲染函数R将纹 理映射到渲染的图像空间中,生成渲染后的面部纹理图;
将所述渲染后的面部纹理图和所述背景图进行合成,将合成后的图送入判别器D, 并通过优化所述判别器D的损失函数
Figure 420775DEST_PATH_IMAGE012
和所述纹理生成器
Figure 865663DEST_PATH_IMAGE013
损失函数以及所述背景生成 器
Figure 468682DEST_PATH_IMAGE014
的损失函数
Figure 929795DEST_PATH_IMAGE015
以得到所述预先训练的3D可变形生成对抗网络。
在其中一些实施例中,所述人脸识别模型为端到端的深度卷积神经网络模型。
在其中一些实施例中,所述3D可变形生成对抗网络的训练方式如下:
交替最小化判别器和生成器的损失,其中,目标损失函数为:
Figure 733803DEST_PATH_IMAGE016
Figure 790621DEST_PATH_IMAGE017
其中,
Figure 462911DEST_PATH_IMAGE018
为判别器的损失函数,
Figure 429730DEST_PATH_IMAGE019
为生成器的损失函数,
Figure 529273DEST_PATH_IMAGE020
表示真实样本的交叉熵损失值,
Figure 309272DEST_PATH_IMAGE021
表示生成的样本的交叉熵 损失值,
Figure 254095DEST_PATH_IMAGE022
代表附加梯度惩罚项,
Figure 809841DEST_PATH_IMAGE023
由公式为
Figure 80285DEST_PATH_IMAGE024
计算得出,
Figure 111695DEST_PATH_IMAGE023
是指包括随机 纹理参数
Figure 96094DEST_PATH_IMAGE025
、随机背景参数
Figure 365401DEST_PATH_IMAGE026
、3D可变形模型形状参数
Figure 947692DEST_PATH_IMAGE002
、表情参数
Figure 466398DEST_PATH_IMAGE007
在内的矢量表示,
Figure 18602DEST_PATH_IMAGE027
为从训练数据
Figure 548941DEST_PATH_IMAGE028
的分布中随机选择的真实图像和相关的姿势标签,
Figure 928232DEST_PATH_IMAGE029
为真实图 像,
Figure 809600DEST_PATH_IMAGE030
为姿势标签,
Figure 431074DEST_PATH_IMAGE031
Figure 815919DEST_PATH_IMAGE032
为参数化的生成器网络G,
Figure 599068DEST_PATH_IMAGE033
代表参数化纹理,
Figure 967732DEST_PATH_IMAGE034
代表 背景生成器网络,
Figure 127318DEST_PATH_IMAGE035
代表参数化的判别器网络D,N代表
Figure 897828DEST_PATH_IMAGE036
中纹理、背景、形状 和表情参数向量维度的综合表示符号。
在其中一些实施例中,所述的通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集包括:
根据
Figure 87763DEST_PATH_IMAGE037
生成任意角度人脸图片,其中,
Figure 68357DEST_PATH_IMAGE038
是生成的图 像,
Figure 907000DEST_PATH_IMAGE039
Figure 391071DEST_PATH_IMAGE040
维的随机纹理参数,
Figure 656968DEST_PATH_IMAGE041
Figure 593700DEST_PATH_IMAGE042
维的随机背景参数,
Figure 236033DEST_PATH_IMAGE043
Figure 341655DEST_PATH_IMAGE044
维的 3D可变形模型形状参数,
Figure 778453DEST_PATH_IMAGE045
Figure 468060DEST_PATH_IMAGE046
维的表情参数,
Figure 648505DEST_PATH_IMAGE047
为姿势标签,
Figure 841589DEST_PATH_IMAGE048
为练好的参数化 纹理,
Figure 573922DEST_PATH_IMAGE049
代表训练好的背景生成器网络;将生成的任意角度人脸图片加入到所述样本集中, 得到所述扩充后的样本集,其中,G为生成器网络。
在其中一些实施例中,在通过所述预先训练的3D可变形生成对抗网络生成左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片的情况下,所述方法还包括:
通过所述训练好的人脸识别模型对所述端正人脸图片以及所述左右摇摆30度的人脸图片、所述左右摇摆60度的人脸图片和所述左右摇摆90度的人脸图片提取人脸特征向量;
对提取的所述人脸特征向量进行融合;
将融合后的特征作为注册特征以建立人脸特征数据库。
在其中一些实施例中,所述的用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录包括:通过所述训练好的人脸识别模型对考勤现场摄像头抓拍的任意人脸图片提取人脸特征向量,将提取的人脸特征向量与所述人脸特征数据库中的人脸特征向量逐一求取余弦相似度;
若所述余弦相似度超过预设的阈值,则识别成功,生成考勤记录。
第二方面,本申请实施例提供了一种基于人脸识别的考勤***,所述***包括:
采集模块,用于采集待考勤人员的端正人脸图片作为样本集;
扩充模块,用于通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集;
训练模块,用于通过扩充后的样本集训练人脸识别模型;
识别模块,用于通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。
第三方面,本申请实施例提供了一种电子设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执如上述的基于人脸识别的考勤方法。
第四方面,本申请实施例提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行如上述的基于人脸识别的考勤方法。
相比于相关技术,本申请实施例提供的基于人脸识别的考勤方法中,采集待考勤人员的端正人脸图片作为样本集,又考虑到由于现实中很难获含不同角度姿势变化的数据集,并且即使能抓拍到大角度人脸数据也很难进行类别(不同人)清洗整理,因此本申请实施例通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集,解决了训练数据严重短缺问题;接着用扩充后的样本集训练人脸识别模型,相较于现有技术中样本集只包括端正人脸图片,本申请实施例扩充后的样本集增加了一些其他角度人脸图片,本申请实施例通过扩充后的样本集训练人脸识别模型,由于数据集更全面,所以训练的模型效果更好,能够提高人脸识别的准确性,同时提高了人脸识别模型的鲁棒性;然后通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。相比于以往做人脸识别,由于无法识别出大角度姿态的人脸图片,当采集到的人脸图片包括大角度人脸图片时,不仅需要通过人脸角度估计模块过滤将其过滤掉,而且用户必须配合采集设备停下脚步、转身或者扭头已被采集端正人脸图片(拍摄正面照)才能顺利识别出人脸,导致人脸识别效率低,而且由于识别通过速度慢、通行时间过长不仅造成考勤现场短暂驻留甚至排队拥堵的情况发生,而且也导致考勤的时间成本高、考勤效率低,然而,本申请实施例中考勤人员无需配合人脸图片采集设备的拍摄角度而停下脚步、转身或者扭头以被拍摄正面照(端正人脸图片),而是用上述训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,提高了人脸识别的效率,从而提高了考勤效率,避免发生考勤人员在通行时的短暂驻留甚至排队拥堵的情况。因此,本申请不仅改善了大角度人脸识别通过体感,而且节约考勤时间、提高了考勤效率。另外,本申请实施例通过扩充后的样本集训练人脸识别模型,由于数据集更全面,所以训练的模型效果更好,能够提高人脸识别的准确性。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的基于人脸识别的考勤方法的第一流程图;
图2是根据本申请实施例的3D可变形生成对抗网络获得方式的流程图;
图3是根据本申请实施例的通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集包括的步骤的流程图;
图4是根据本申请实施例的基于人脸识别的考勤方法的第二流程图;
图5是根据本申请实施例的用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录包括的步骤的流程图;
图6是根据本申请实施例的基于人脸识别的考勤***的结构框图;
图7是根据本申请实施例的电子设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指大于或者等于两个。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
本申请提供一种基于人脸识别的考勤方法,图1为本申请实施例的基于人脸识别的考勤方法的第一流程图,如图1所示,在本实施例中,该方法包括如下步骤:
步骤S101,采集待考勤人员的端正人脸图片作为样本集;其中,本领域技术人员可以通过采集设备采集待考勤人员的端正人脸图片作为样本集,其中,采集设备可以是摄像头或者其他,此处不做具体限定;值得注意的是,端正人脸图片中脸部的左右摇摆幅度值和上下俯仰幅度值均为0;
步骤S102,通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集;例如,预先训练的3D可变形生成对抗网络对端正人脸图片生成左摇摆5度的人脸图片、右摇摆5度的人脸图片、左摇摆10度的人脸图片、右摇摆10度的人脸图片、左摇摆15度的人脸图片以及右摇摆15度的人脸图片以扩充样本集,当然在一些其他实施例中,预先训练的3D可变形生成对抗网络对端正人脸图片生成其他角度的人脸图片以扩充样本集,具体根据用户需求设定,此处不做具体限定;由于现实中很难获含不同角度姿势变化的数据集,因此稀缺大角度姿态变化的人脸数据;并且,即使能抓拍到大角度人脸数据也很难进行类别(不同人)清洗整理,因此现有算法模型对大角度人脸识别不够鲁棒,靠模型做数据的清洗整理不可靠,人工操作的成本又过高,为了方便理解,以步骤S102中过预先训练的3D可变形生成对抗网络对端正人脸图片生成左摇摆5度的人脸图片、右摇摆5度的人脸图片、左摇摆10度的人脸图片、右摇摆10度的人脸图片、左摇摆15度的人脸图片以及右摇摆15度的人脸图片以扩充样本集为例进行说明,相较于现有技术中样本集只包括端正人脸图片,扩充样本集增加了左摇摆5度的人脸图片、右摇摆5度的人脸图片、左摇摆10度的人脸图片、右摇摆10度的人脸图片、左摇摆15度的人脸图片以及右摇摆15度的人脸图片,弥补了训练数据严重短缺的缺陷,而且有利于增强人脸识别模型的鲁棒性;
步骤S103,用扩充后的样本集训练人脸识别模型;由于扩充后的样本集相较于现有技术样本集增加了一些其他角度人脸图片以使样本集更全面,因此,提高了人脸识别模型对人脸识别的准确度;
步骤S104,用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。相比于以往做人脸识别时,无法识别出大角度姿态的人脸图片,当采集到的人脸图片包括大角度人脸图片时,不仅需要通过人脸角度估计模块过滤将其过滤掉,而且用户必须配合采集设备停下脚步、转身或者扭头已被采集端正人脸图片(拍摄正面照)才能顺利识别出人脸,如此导致人脸识别效率低,而且由于识别通过速度慢、通行时间过长不仅造成考勤现场短暂驻留甚至排队拥堵的情况发生,而且也导致考勤的时间成本高,然而本申请无需配合采集设备停下脚步、转身或者扭头拍摄正面照便可以用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,提高了人脸识别效率且改善了大角度人脸识别通过体感,并且减少了考勤通行时短暂驻留甚至排队拥堵的情况,帮助用户节约考勤时间成本,解决了人脸识别技术在门禁或考勤***中准确度较低的问题,并且在识别成功时,生成考勤记录,如此,有利于后续考勤记录的查询。
通过上述步骤S101至步骤S104,在本实施例的技术方案中,采集待考勤人员的端正人脸图片作为样本集,又考虑到由于现实中很难获含不同角度姿势变化的数据集,并且即使能抓拍到大角度人脸数据也很难进行类别(不同人)清洗整理,本申请实施例通过预先训练的3D可变形生成对抗网络对端正人脸图片
生成任意角度人脸图片以扩充样本集,解决了训练数据严重短缺问题,而且有利于增强人脸识别模型的鲁棒性;本申请用扩充后的样本集训练人脸识别模型,相较于现有技术中样本集只包括端正人脸图片,扩充样本集增加了大量其他角度的人脸图片以使样本集中的数据更全面,因此,用扩充后的样本集训练人脸识别模型使训练后人脸识别模型效果更好,提高了对人脸识别的准确度,此外,本申请通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录,相比于以往做人脸识别,由于无法识别出大角度姿态的人脸图片(大角度姿态的人脸图片为非端正人脸图片),当采集到的人脸图片包括大角度人脸图片时,不仅需要通过人脸角度估计模块过滤将其过滤掉,而且用户必须配合采集设备停下脚步、转身或者扭头已被采集端正人脸图片(拍摄正面照)才能顺利识别出人脸,导致人脸识别效率低,而且由于识别通过速度慢、通行时间过长不仅造成考勤现场短暂驻留甚至排队拥堵的情况发生,而且也导致考勤的时间成本高,而本申请的优点在于,无需配合采集设备停下脚步、转身或者扭头拍摄正面照,而是用上述训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,提高了人脸识别的效率,并且避免了通行时短暂驻留甚至排队拥堵的情况,提高了人脸识别的通过率且改善了大角度人脸识别通过体感,同时帮助用户节约了时间,也提高了考勤效率,并且在识别成功时,生成考勤记录,如此,也有利于后续考勤记录的查询。
在一些实施例中,预先训练的3D可变形生成对抗网络由3D可变形模型(3DMorphable Model,简称3D可变形模型)和生成对抗网络(Generative AdversarialNetworks,简称GAN)的结合方式生成。具体地,图2根据本申请实施例的3D可变形生成对抗网络获得方式的流程图,如图2所示,在一可选实施例中,所述3D可变形生成对抗网络通过如下方式获得的步骤包括:
步骤S201,将随机纹理参数
Figure 626192DEST_PATH_IMAGE050
和3D可变形模型形状参数
Figure 970848DEST_PATH_IMAGE051
输入纹理生成器
Figure 159383DEST_PATH_IMAGE052
,生 成3D可变形模型对应形状的纹理图;其中,由于纹理信息无关姿态与表情,因此姿态参数
Figure 62617DEST_PATH_IMAGE053
与表情参数
Figure 602183DEST_PATH_IMAGE054
无需作为纹理生成器的输入,另外,本领域技术人员易于理解的是姿势标签 又称条件姿态参数或者姿态参数,3D可变形模型形状参数又称3D可变形模型形状参数。
步骤S202,将随机纹理参数
Figure 249065DEST_PATH_IMAGE055
、3D可变形模型形状参数
Figure 557687DEST_PATH_IMAGE056
、随机背景参数
Figure 631822DEST_PATH_IMAGE057
、姿势 标签
Figure 753624DEST_PATH_IMAGE058
和表情参数
Figure 79563DEST_PATH_IMAGE059
输入背景生成器
Figure 367325DEST_PATH_IMAGE060
,生成符合给定参数的背景图;需要说明的是,背 景图中包含了与纹理信息相符合的头发边缘、衣服、眼镜等3D可变形模型不重建的特征。
步骤S203,通过3D可变形模型将纹理图和姿势标签
Figure 222149DEST_PATH_IMAGE061
、表情参数
Figure 860940DEST_PATH_IMAGE062
以及3D可变形 模型形状参数
Figure 724991DEST_PATH_IMAGE063
结合以进行3D重建,并通过纹理映射方法M和可微渲染函数R将纹理映射到 渲染的图像空间中,生成渲染后的面部纹理图;
步骤S204,将渲染后的面部纹理图和背景图进行合成,将合成后的图送入判别器 D,并通过优化判别器D的损失函数
Figure 867259DEST_PATH_IMAGE064
和纹理生成器
Figure 424143DEST_PATH_IMAGE052
损失函数以及背景生成器
Figure 532256DEST_PATH_IMAGE065
的损失函 数以得到预先训练的3D可变形生成对抗网络,其中,所述纹理生成器
Figure 324631DEST_PATH_IMAGE066
损失函数以及所述 背景生成器
Figure 196772DEST_PATH_IMAGE067
的损失函数表示为
Figure 49191DEST_PATH_IMAGE068
通过上述步骤S201至步骤S204可得到所述预先训练的3D可变形生成对抗网络,并且通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集,其有益效果上文已经提到,此处不在一一赘述。
在一些实施例中,人脸识别模型为端到端的深度卷积神经网络模型,上述端到端是指从模型的输入端到输出端直接由深度卷积神经网络模型相连接,当然在一些其他实施例中,人脸识别模型还可以采用其他神经网络模型,此处不做具体限定,具体根据用户需求设定。
在一些实施例中,3D可变形生成对抗网络的训练方式如下:
交替最小化判别器和生成器的损失,其中,目标损失函数为:
Figure 898460DEST_PATH_IMAGE069
Figure 697789DEST_PATH_IMAGE017
其中,
Figure 814650DEST_PATH_IMAGE070
为判别器的损失函数,
Figure 447756DEST_PATH_IMAGE071
为生成器的损失函数,
Figure 17278DEST_PATH_IMAGE072
表 示真实样本的交叉熵损失值,
Figure 26822DEST_PATH_IMAGE073
表示生成的样本的交叉熵 损失值,
Figure 499654DEST_PATH_IMAGE022
代表附加梯度惩罚项,
Figure 162717DEST_PATH_IMAGE023
由公式为
Figure 219534DEST_PATH_IMAGE074
计算得出,
Figure 501611DEST_PATH_IMAGE023
是指包括随机 纹理参数
Figure 593064DEST_PATH_IMAGE075
、随机背景参数
Figure 567973DEST_PATH_IMAGE076
、3D可变形模型形状参数
Figure 879131DEST_PATH_IMAGE077
、表情参数
Figure 230478DEST_PATH_IMAGE078
在内的矢量表示,
Figure 910858DEST_PATH_IMAGE079
为从训练数据
Figure 446881DEST_PATH_IMAGE080
的分布中随机选择的真实图像和相关的姿势标签,
Figure 353658DEST_PATH_IMAGE081
为真实图 像,
Figure 102171DEST_PATH_IMAGE082
为其姿势标签,姿势标签又称条件姿态参数或者姿态参数,用于控制脸部的左右摇摆 幅度值和上下俯仰幅度值,
Figure 43582DEST_PATH_IMAGE083
Figure 986392DEST_PATH_IMAGE084
为参数化的生成器网络G,
Figure 239519DEST_PATH_IMAGE085
代表参数化纹理,
Figure 932669DEST_PATH_IMAGE086
代表背景生成器网络,
Figure 853220DEST_PATH_IMAGE087
代表参数化的判别器网络D,N代表
Figure 606413DEST_PATH_IMAGE088
中纹理、 背景、形状和表情参数向量维度的综合表示符号。
本领域技术人员可知,
Figure 346835DEST_PATH_IMAGE089
Figure 578097DEST_PATH_IMAGE090
维的随机纹理参数,符合标准正态分布 (Normal distribution,又称高斯分布);
Figure 854619DEST_PATH_IMAGE091
Figure 778713DEST_PATH_IMAGE092
维的随机背景参数,符合标准正态 分布;
Figure 6432DEST_PATH_IMAGE093
Figure 166018DEST_PATH_IMAGE094
维的3D可变形模型形状参数,符合标准正态分布;
Figure 670949DEST_PATH_IMAGE095
Figure 890577DEST_PATH_IMAGE096
维的表 情参数,同样符合标准正态分布,并且
Figure 746538DEST_PATH_IMAGE077
Figure 680121DEST_PATH_IMAGE097
为用于控制3D可变形模型(3D可变形模型)的 形式;
需要说明的是,交替最小化生成器与判别器损失是通用的学习训练方式,另外,多次交替迭代优化生成器和判别器可以使二者共同逼近全局最优才以训练出较好的网络模型,有利于后续利用训练好的3D可变形生成对抗网络生成随机任意角度的大角度人脸样本。
图3为本申请实施例的通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集包括的步骤的流程图,如图3所示,在一些实施例中,通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集包括如下步骤:
步骤S301,根据
Figure 305138DEST_PATH_IMAGE098
生成任意角度人脸图片,其中,
Figure 695668DEST_PATH_IMAGE038
是 生成的图像,
Figure 773345DEST_PATH_IMAGE099
Figure 540313DEST_PATH_IMAGE100
维的随机纹理参数,符合标准正态分布,
Figure 878890DEST_PATH_IMAGE101
Figure 315688DEST_PATH_IMAGE102
维的 随机背景参数,符合标准正态分布,
Figure 506760DEST_PATH_IMAGE103
Figure 421626DEST_PATH_IMAGE104
维的3D可变形模型形状参数,符合标准正 态分布,
Figure 880289DEST_PATH_IMAGE105
Figure 487988DEST_PATH_IMAGE106
维的表情参数,符合标准正态分布,并且
Figure 664892DEST_PATH_IMAGE107
Figure 383449DEST_PATH_IMAGE108
均用于控制3D可变 形模型(3D可变形模型);
Figure 962198DEST_PATH_IMAGE109
为姿势标签,即
Figure 89599DEST_PATH_IMAGE109
代表脸部的左右摇摆幅度值和上下俯仰幅度 值,
Figure 629165DEST_PATH_IMAGE110
为练好的参数化纹理,
Figure 276047DEST_PATH_IMAGE111
代表训练好的背景生成器网络; 当然在一些其他实施例中, 还可以根据
Figure 584668DEST_PATH_IMAGE113
生成任意角度人脸图片,其 中,本领域技术人员可知,
Figure 658803DEST_PATH_IMAGE114
是生成的图像,
Figure 154507DEST_PATH_IMAGE115
是背景生成器,
Figure 605080DEST_PATH_IMAGE116
是纹理生成器,
Figure 768208DEST_PATH_IMAGE117
是一个用 于组合背景图片和纹理的二进制掩码,1表示与图片相同形状的全1向量,由于
Figure 514709DEST_PATH_IMAGE118
运算代 表
Figure 28867DEST_PATH_IMAGE119
两个向量按元素位相乘,则
Figure 751972DEST_PATH_IMAGE120
代表
Figure 894241DEST_PATH_IMAGE121
Figure 451124DEST_PATH_IMAGE122
两个向量按元素位相乘,同理,
Figure 311633DEST_PATH_IMAGE123
代表
Figure 448216DEST_PATH_IMAGE117
Figure 212035DEST_PATH_IMAGE124
两个向量按元素位相乘,其中,
Figure 939819DEST_PATH_IMAGE125
是逆纹理映射函数,将生成的纹理贴 图中的插值映射到图像空间中的适当位置,y代表对图像空间中的纹理坐标的渲染;由于与 K关联的y渲染由可微分渲染函数R执行,那么
Figure 22045DEST_PATH_IMAGE126
,其中,
Figure 493478DEST_PATH_IMAGE127
是3D可 变形模型(3D可变形模型)的随机实例形状顶点向量,
Figure 610338DEST_PATH_IMAGE128
代表3D可变形模型(3D可变 形模型)的
Figure 102499DEST_PATH_IMAGE129
个三角形顶点索引列表,
Figure 812966DEST_PATH_IMAGE130
是纹理坐标的向量,其中,
Figure 448609DEST_PATH_IMAGE129
个三角形都 有三个二维纹理顶点集。
步骤S302,将生成的任意角度人脸图片加入到样本集中,得到扩充后的样本集。优选的,扩充后的样本集中的人脸图片包括端正人脸图片和通过预先训练的3D可变形生成对抗网络根据端正人脸图片生成的任意角度人脸图片,其中,人脸图片的具体角度可以根据用户需求设定,此处不做具体限定;
通过上述步骤S301至步骤S302,本实施例先根据
Figure 295343DEST_PATH_IMAGE131
生 成任意角度人脸图片,在通过将生成的任意角度人脸图片加入到样本集中,得到扩充后的 样本集,由于扩充后的样本集相较于现有技术样本集增加了一些其他角度人脸图片,样本 集更丰富,因此训练后的人脸识别模型效果更好,能够提高人脸识别的准确性。
图4为本申请实施例的基于人脸识别的考勤方法的第二流程图,如图4所示,在通过预先训练的3D可变形生成对抗网络生成左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片的情况下,该方法还包括如下步骤:
步骤S401,通过训练好的人脸识别模型对端正人脸图片以及左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片提取人脸特征向量;在本实施例中,通过训练好的人脸识别模型对端正人脸图片以及左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片提取人脸特征向量,当然在一些其他实施例中,右摇摆的人脸图片的角度也可以是15度、45度或者其他,此处不做具体限定;需要说明的是,在深度学习领域,人脸特征向量是指卷积网络计算得到的一定维度的浮点型数字向量,通常描述为特征向量,即数字化描述一张人脸。
步骤S402,对提取的人脸特征向量进行融合;本实施例中,为对7张不同姿态人脸图片(端正人脸图片以及左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片)的人脸特征向量之间对应维度的特征值进行平均,得到融合特征向量。
步骤S403,将融合后的特征作为注册特征以建立人脸特征数据库。
该方法还包括上述步骤S401至步骤S403,本实施例通过训练好的人脸识别模型对端正人脸图片以及左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片提取人脸特征向量;对提取的人脸特征向量进行融合;将融合后的特征作为注册特征以建立人脸特征数据库。需要说明的是,该人脸特征数据库可以作为上文的底库。
图5为本申请实施例的用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录包括的步骤的流程图,如图5所示,的用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录包括:
步骤S501,通过训练好的人脸识别模型对考勤现场摄像头抓拍的任意人脸图片提取人脸特征向量,将提取的人脸特征向量与底库(底库即人脸特征数据库)中的人脸特征向量逐一求取余弦相似度;
步骤S502,若余弦相似度超过预设的阈值,则识别成功,生成考勤记录。例如,本实施例中,余弦相似度为0.7,预设的阈值为0.6,那么,余弦相似度超过预设的阈值则识别成功,生成考勤记录,当然在一些其他实施例中,若余弦相似度未超过预设的阈值,则识别失败,生成失败考勤记录或者不生成考勤记录;
在本实施例中,通过步骤S501至步骤S502完成人脸识别的过程,具体地,通过训练好的人脸识别模型对考勤现场摄像头抓拍的任意人脸图片提取人脸特征向量,将提取的人脸特征向量与底库(底库即人脸特征数据库)中的人脸特征向量逐一求取余弦相似度;例如,该余弦距离作为抓拍人脸和注册人脸之间的相似度,比如是0.0至1.0范围,最终找到相似度最大的一组人脸,对应的分值如果超过预先设定好的阈值,即认为抓拍到的人脸与对应的注册人脸属于同一个人,此时识别成功,则考勤登记成功,生成考勤记录;否则,判定抓拍到的人脸不在人脸特征数据库中,此时人脸识别失败,考勤登记失败。需要说明的是,预设的阈值根据用户需求设定,此处不做具体限定。
本申请还提供了一种基于人脸识别的考勤***,该***实现上述实施例方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图6为本申请实施例的基于人脸识别的考勤***的结构框图,如图6所示,该***包括:
采集模块61,用于采集待考勤人员的端正人脸图片作为样本集;
扩充模块62,用于通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集;
训练模块63,用于通过扩充后的样本集训练人脸识别模型;
识别模块64,用于通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。
在该***的技术方案中,通过采集模块61采集待考勤人员的端正人脸图片作为样本集,由于现实中很难获含不同角度姿势变化的数据集,并且即使能抓拍到大角度人脸数据也很难进行类别(不同人)清洗整理,在本申请中,扩充模块62通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集,解决了训练数据严重短缺问题;相较于现有技术中样本集只包括端正人脸图片,在本申请中,训练模块63通过扩充后的样本集训练人脸识别模型;易于理解的是,扩充后样本集不仅包括端正人脸图片还包括其他角度的人脸图片,因此扩充后样本集数据更丰富,用扩充后的样本集训练人脸识别模型的效果更好、人脸识别的准确度更强;由于传统的技术方案中无法识别出大角度姿态的人脸图片(大角度姿态的人脸图片为非端正人脸图片),当采集到的人脸图片包括大角度人脸图片时,不仅需要通过人脸角度估计模块过滤将其过滤掉,而且用户必须配合采集设备停下脚步、转身或者扭头已被采集端正人脸图片(拍摄正面照)才能顺利识别出人脸,导致人脸识别效率低,而且由于识别通过速度慢、通行时间过长不仅造成考勤现场短暂驻留甚至排队拥堵的情况发生,而且也导致考勤的时间成本高,在本申请的技术方案中, 识别模块64通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录,由于本申请无需配合采集设备停下脚步、转身或者扭头拍摄正面照便,而是用上述训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,提高了人脸识别的效率,并且避免了通行时短暂驻留甚至排队拥堵的情况,提高了人脸识别的通过率且改善了大角度人脸识别通过体感,同时帮助用户节约了时间,也提高了考勤效率,并且在识别成功时,生成考勤记录,如此,也有利于后续考勤记录的查询。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
本申请还提供了一种电子设备,包括存储器和处理器,该存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述的基于人脸识别的考勤方法。
可选地,上述电子设备还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,采集待考勤人员的端正人脸图片作为样本集;
S2,通过预先训练的3D可变形生成对抗网络对端正人脸图片生成任意角度人脸图片以扩充样本集;
S3,用扩充后的样本集训练人脸识别模型;
S4,用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。
需要说明的是,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
另外,结合上述实施例中的基于人脸识别的考勤方法,本申请实施例可提供一种存储介质来实现。该存储介质上存储有计算机程序;该计算机程序被处理器执行时实现上述实施例中的任意一种基于人脸识别的考勤方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端。该计算机设备包括通过***总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于人脸识别的考勤方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
在一个实施例中,图7是根据本申请实施例的电子设备的内部结构示意图,如图7所示,提供了一种电子设备,该电子设备可以是服务器,其内部结构图可以如图7所示。该电子设备包括通过内部总线连接的处理器、网络接口、内存储器和非易失性存储器,其中,该非易失性存储器存储有操作***、计算机程序和数据库。处理器用于提供计算和控制能力,网络接口用于与外部的终端通过网络连接通信,内存储器用于为操作***和计算机程序的运行提供环境,计算机程序被处理器执行时以实现一种基于人脸识别的考勤方法,数据库用于存储数据。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本领域的技术人员应该明白,以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (9)

1.一种基于人脸识别的考勤方法,其特征在于,所述方法包括:
采集待考勤人员的端正人脸图片作为样本集;
通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集;其中,所述3D可变形生成对抗网络由3D可变形模型和生成对抗网络结合生成;
用扩充后的样本集训练人脸识别模型;
用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录;
所述3D可变形生成对抗网络通过如下方式获得:
将随机纹理参数
Figure DEST_PATH_IMAGE002
和3D可变形模型形状参数
Figure DEST_PATH_IMAGE004
输入纹理生成器
Figure DEST_PATH_IMAGE006
,生成3D可变形模型对应形状的纹理图;
将所述随机纹理参数
Figure DEST_PATH_IMAGE007
、所述3D可变形模型形状参数
Figure 585779DEST_PATH_IMAGE004
、随机背景参数
Figure DEST_PATH_IMAGE009
、姿势标签
Figure DEST_PATH_IMAGE011
和表情参数
Figure DEST_PATH_IMAGE013
输入背景生成器
Figure DEST_PATH_IMAGE015
,生成符合给定参数的背景图;
通过所述3D可变形模型将所述纹理图和姿势标签
Figure DEST_PATH_IMAGE016
、所述表情参数
Figure DEST_PATH_IMAGE017
以及所述3D可变形模型形状参数
Figure 47241DEST_PATH_IMAGE004
结合以进行3D重建,并通过纹理映射方法M和可微渲染函数R将纹理映射到渲染的图像空间中,生成渲染后的面部纹理图;
将所述渲染后的面部纹理图和所述背景图进行合成,将合成后的图送入判别器D,并通 过优化所述判别器D的损失函数和所述纹理生成器损失函数以及所述背景生成器 的损失函数以得到所述预先训练的3D可变形生成对抗网络,其中,所述纹理生成器损失 函数以及所述背景生成器的损失函数表示为
Figure DEST_PATH_IMAGE025
2.根据权利要求1所述方法,其特征在于,所述人脸识别模型为端到端的深度卷积神经网络模型。
3.根据权利要求1所述方法,其特征在于,所述3D可变形生成对抗网络的训练方式如下:
交替最小化判别器和生成器的损失,其中,目标损失函数为:
Figure DEST_PATH_IMAGE027
Figure DEST_PATH_IMAGE029
其中,
Figure DEST_PATH_IMAGE031
为判别器的损失函数,
Figure DEST_PATH_IMAGE033
为生成器的损失函数,
Figure DEST_PATH_IMAGE035
表示真实样本的交叉熵损失值,
Figure DEST_PATH_IMAGE037
表示生成的样本的交叉熵损失值,
Figure DEST_PATH_IMAGE039
代表附加梯度惩罚项,
Figure DEST_PATH_IMAGE041
由公式为
Figure DEST_PATH_IMAGE043
计算得出,
Figure 44166DEST_PATH_IMAGE041
是指包括随机纹理参数
Figure DEST_PATH_IMAGE045
、随机背景参数
Figure DEST_PATH_IMAGE047
、3D可变形模型形状参数
Figure 6306DEST_PATH_IMAGE004
、表情参数
Figure DEST_PATH_IMAGE048
在内的矢量表示,
Figure DEST_PATH_IMAGE050
为从训练数据
Figure DEST_PATH_IMAGE052
的分布中随机选择的真实图像和相关的姿势标签,
Figure DEST_PATH_IMAGE054
为真实图像,
Figure DEST_PATH_IMAGE056
为姿势标签,
Figure DEST_PATH_IMAGE058
Figure DEST_PATH_IMAGE060
为参数化的生成器网络G,
Figure DEST_PATH_IMAGE062
代表参数化纹理,
Figure DEST_PATH_IMAGE064
代表背景生成器网络,
Figure DEST_PATH_IMAGE066
代表参数化的判别器网络D,N代表
Figure DEST_PATH_IMAGE068
中纹理、背景、形状和表情参数向量维度的综合表示符号。
4.根据权利要求1所述方法,其特征在于,所述的通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集包括:
根据
Figure DEST_PATH_IMAGE070
生成任意角度人脸图片,其中,
Figure DEST_PATH_IMAGE072
是生成的图像,
Figure DEST_PATH_IMAGE074
Figure DEST_PATH_IMAGE076
维的随机纹理参数,
Figure DEST_PATH_IMAGE078
Figure DEST_PATH_IMAGE080
维的随机背景参数,
Figure DEST_PATH_IMAGE082
Figure DEST_PATH_IMAGE084
维的3D可变形模型形状参数,
Figure DEST_PATH_IMAGE086
Figure DEST_PATH_IMAGE088
维的表情参数,
Figure DEST_PATH_IMAGE090
为姿势标签,
Figure DEST_PATH_IMAGE092
为练好的参数化纹理,
Figure DEST_PATH_IMAGE094
代表训练好的背景生成器网络;将生成的任意角度人脸图片加入到所述样本集中,得到所述扩充后的样本集,其中,G为生成器网络。
5.根据权利要求1所述方法,其特征在于,在通过所述预先训练的3D可变形生成对抗网络生成左右摇摆30度的人脸图片、左右摇摆60度的人脸图片和左右摇摆90度的人脸图片的情况下,所述方法还包括:
通过所述训练好的人脸识别模型对所述端正人脸图片以及所述左右摇摆30度的人脸图片、所述左右摇摆60度的人脸图片和所述左右摇摆90度的人脸图片提取人脸特征向量;
对提取的所述人脸特征向量进行融合;
将融合后的特征作为注册特征以建立人脸特征数据库。
6.根据权利要求5所述方法,其特征在于,所述的用训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录包括: 通过所述训练好的人脸识别模型对考勤现场摄像头抓拍的任意人脸图片提取人脸特征向量,将提取的人脸特征向量与所述人脸特征数据库中的人脸特征向量逐一求取余弦相似度;
若所述余弦相似度超过预设的阈值,则识别成功,生成考勤记录。
7.一种基于人脸识别的考勤***,其特征在于,所述***包括:
采集模块,用于采集待考勤人员的端正人脸图片作为样本集;
扩充模块,用于通过预先训练的3D可变形生成对抗网络对所述端正人脸图片生成任意角度人脸图片以扩充样本集;
训练模块,用于通过扩充后的样本集训练人脸识别模型;
识别模块,用于通过训练好的人脸识别模型识别现场考勤人员的任意角度人脸图片,并在识别成功时,生成考勤记录。
8.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至6中任一项所述的基于人脸识别的考勤方法。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行权利要求1至6中任一项所述基于人脸识别的考勤方法。
CN202110699382.1A 2021-06-23 2021-06-23 基于人脸识别的考勤方法、***、电子设备和存储介质 Active CN113159006B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110699382.1A CN113159006B (zh) 2021-06-23 2021-06-23 基于人脸识别的考勤方法、***、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110699382.1A CN113159006B (zh) 2021-06-23 2021-06-23 基于人脸识别的考勤方法、***、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN113159006A CN113159006A (zh) 2021-07-23
CN113159006B true CN113159006B (zh) 2021-09-14

Family

ID=76876037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110699382.1A Active CN113159006B (zh) 2021-06-23 2021-06-23 基于人脸识别的考勤方法、***、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN113159006B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780095B (zh) * 2021-08-17 2023-12-26 中移(杭州)信息技术有限公司 人脸识别模型的训练数据扩充方法、终端设备及介质
CN113837236B (zh) * 2021-08-31 2022-11-15 广东智媒云图科技股份有限公司 图像中目标对象的识别方法、装置、终端设备及存储介质
CN113792679A (zh) * 2021-09-17 2021-12-14 深信服科技股份有限公司 一种黑名单人物识别方法、装置及电子设备和存储介质
CN113822245B (zh) * 2021-11-22 2022-03-04 杭州魔点科技有限公司 人脸识别方法、电子设备和介质
CN115081920B (zh) * 2022-07-08 2024-07-12 华南农业大学 考勤签到调度管理方法、***、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446981A (zh) * 2018-10-25 2019-03-08 腾讯科技(深圳)有限公司 一种脸部活体检测、身份认证方法及装置
CN109635766A (zh) * 2018-12-20 2019-04-16 中国地质大学(武汉) 基于小样本的卷积神经网络的人脸拍照考勤方法及***
US10789796B1 (en) * 2019-06-24 2020-09-29 Sufian Munir Inc Priority-based, facial recognition-assisted attendance determination and validation system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109446981A (zh) * 2018-10-25 2019-03-08 腾讯科技(深圳)有限公司 一种脸部活体检测、身份认证方法及装置
CN109635766A (zh) * 2018-12-20 2019-04-16 中国地质大学(武汉) 基于小样本的卷积神经网络的人脸拍照考勤方法及***
US10789796B1 (en) * 2019-06-24 2020-09-29 Sufian Munir Inc Priority-based, facial recognition-assisted attendance determination and validation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
精准生成Fake人脸!Amazon全新GAN模型给你全方位无死角美颜;Amusi(CVer);《https://blog.csdn.net/amusi1994/article/details/112598361》;20210113;第1-12页 *

Also Published As

Publication number Publication date
CN113159006A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113159006B (zh) 基于人脸识别的考勤方法、***、电子设备和存储介质
US20210158023A1 (en) System and Method for Generating Image Landmarks
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN109657533A (zh) 行人重识别方法及相关产品
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN112911393B (zh) 部位识别方法、装置、终端及存储介质
WO2011112368A2 (en) Robust object recognition by dynamic modeling in augmented reality
Shen et al. Lidargait: Benchmarking 3d gait recognition with point clouds
CN112257696B (zh) 视线估计方法及计算设备
CN113822254B (zh) 一种模型训练方法及相关装置
CN112528902B (zh) 一种基于3d人脸模型的视频监控动态人脸识别方法及装置
Tu et al. Consistent 3d hand reconstruction in video via self-supervised learning
CN110222572A (zh) 跟踪方法、装置、电子设备及存储介质
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备
CN111160307A (zh) 一种人脸识别方法及人脸识别打卡***
CN109858433B (zh) 一种基于三维人脸模型识别二维人脸图片的方法及装置
CN111008935A (zh) 一种人脸图像增强方法、装置、***及存储介质
CN111209811A (zh) 一种实时检测眼球注意力位置的方法及***
Jiang et al. Application of a fast RCNN based on upper and lower layers in face recognition
Neverova Deep learning for human motion analysis
CN111815768A (zh) 三维人脸重建方法和装置
CN115601710A (zh) 基于自注意力网络架构的考场异常行为监测方法及***
CN113689527B (zh) 一种人脸转换模型的训练方法、人脸图像转换方法
JP2022095332A (ja) 学習モデル生成方法、コンピュータプログラム及び情報処理装置
CN113723146A (zh) 人脸关键点检测模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant