CN109934198B - 人脸识别方法及装置 - Google Patents

人脸识别方法及装置 Download PDF

Info

Publication number
CN109934198B
CN109934198B CN201910220321.5A CN201910220321A CN109934198B CN 109934198 B CN109934198 B CN 109934198B CN 201910220321 A CN201910220321 A CN 201910220321A CN 109934198 B CN109934198 B CN 109934198B
Authority
CN
China
Prior art keywords
images
image set
feature extraction
network
extraction branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910220321.5A
Other languages
English (en)
Other versions
CN109934198A (zh
Inventor
于志鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201910220321.5A priority Critical patent/CN109934198B/zh
Publication of CN109934198A publication Critical patent/CN109934198A/zh
Priority to PCT/CN2019/114432 priority patent/WO2020192112A1/zh
Priority to SG11202107826QA priority patent/SG11202107826QA/en
Priority to JP2020573005A priority patent/JP7038867B2/ja
Priority to TW108145586A priority patent/TWI727548B/zh
Application granted granted Critical
Publication of CN109934198B publication Critical patent/CN109934198B/zh
Priority to US17/370,352 priority patent/US20210334604A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请公开了一种人脸识别方法及装置。该方法包括:获得取待识别图像;基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到。还公开了相应的装置。本实施例通过由按类别划分的图像集训练神经网络得到跨模态人脸识别网络,通过跨模态人脸识别网络对各个类别的对象是否是同一个人进行识别,可提高识别准确率。

Description

人脸识别方法及装置
技术领域
本申请涉及图像处理技术领域,尤其涉及一种人脸识别方法及装置。
背景技术
安防、社保、通信等领域需要识别不同图像中包括的人物对象是否是同一个人,以实现面部跟踪、实名认证、手机解锁等操作。目前,通过人脸识别算法对不同图像中的人物对象分别进行人脸识别,可识别不同图像中包括的人物对象是否是同一个人,但识别准确率较低。
发明内容
本申请提供一种人脸识别方法,以识别不同图像中的人物对象是否是同一个人。
第一方面,提供了一种人脸识别方法,包括:获得取待识别图像;基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到。
在一种可能实现的方式中,所述基于不同模态的人脸图像数据训练得到所述跨模态人脸识别网络的过程,包括:基于第一模态网络和第二模态网络进行训练得到所述跨模态人脸识别网络。
在另一种可能实现的方式中,在所述基于第一模态网络和第二模态网络进行训练得到所述跨模态人脸识别网络之前,还包括:基于第一图像集和第二图像集对所述第一模态网络训练,其中,所述第一图像集中的对象属于第一类别,所述第二图像集中的对象属于第二类别。
在又一种可能实现的方式中,所述基于第一图像集和第二图像集对所述第一模态网络训练,包括:基于所述第一图像集和所述第二图像集对所述第一模态网络进行训练,得到所述第二模态网络;按预设条件从所述第一图像集中选取第一数目的图像,并从所述第二图像集中选取第二数目的图像,并根据所述第一数目的图像和所述第二数目的图像得到第三图像集;基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络。
在又一种可能实现的方式中,所述预设条件包括:所述第一数目与所述第二数目相同,所述第一数目与所述第二数目的比值等于所述第一图像集包含的图像数目与所述第二图像集包含的图像数目的比值,所述第一数目与所述第二数目的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值中的任意一种。
在又一种可能实现的方式中,所述第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支;所述基于所述第一图像集和所述第二图像集对所述第一模态网络进行训练,得到所述第二模态网络,包括:将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,其中,所述第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像;将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为所述第二模态网络。
在又一种可能实现的方式中,所述将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,包括:将所述第一图像集、所述第二图像集以及所述第四图像集分别输入至所述第一特征提取分支、所述第二特征提取分支以及所述第三特征提取分支,分别得到第一识别结果、第二识别结果以及第三识别结果;获取所述第一特征提取分支的第一损失函数、所述第二特征提取分支的第二损失函数以及所述第三特征提取分支的第三损失函数;根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,其中,所述第一模态网络的参数包括第一特征提取分支参数、第二特征提取分支参数以及第三特征提取分支参数,所述调整后的第一模态网络的各分支参数相同。
在又一种可能实现的方式中,所述第一图像集中的图像包括第一标注信息,所述第二图像集中的图像包括第二标注信息,所述第四图像集中的图像包括第三标注信息;所述根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,包括:根据所述第一标注信息、所述第一识别结果、所述第一损失函数以及所述第一特征提取分支的初始参数,得到第一梯度,以及根据所述第二标注信息、所述第二识别结果、所述第二损失函数以及所述第二特征提取分支的初始参数,得到第二梯度,以及根据所述第三标注信息、所述第三识别结果、所述第三损失函数以及所述第三特征提取分支的初始参数,得到第三梯度;将所述第一梯度、所述第二梯度以及所述第三梯度的平均值作为所述第一模态网络的反向传播梯度,并通过所述反向传播梯度调整所述第一模态网络的参数,使所述第一特征提取分支的参数、所述第二特征提取分支的参数以及所述第三特征提取分支的参数相同。
在又一种可能实现的方式中,所述按预设条件从所述第一图像集中选取第一数量张图像,并从所述第二图像集中选取第二数量张图像,得到第三图像集,包括:从所述第一图像集以及所述第二图像集中分别选取f张图像,使所述f张图像中包含的人数为阈值,得到所述第三图像集;或,从所述第一图像集以及所述第二图像集中分别选取m张图像以及n张图像,使所述m与所述n的比值等于所述第一图像集包含的图像数量与所述第二图像集包含的图像数量的比值,且所述m张图像以及所述n张图像中包含的人数均为所述阈值,得到所述第三图像集;或,从所述第一图像集以及所述第二图像集中分别选取s张图像以及t张图像,使所述s与所述t的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值,且所述s张图像以及所述t张图像中包含的人数均为所述阈值,得到所述第三图像集。
在又一种可能实现的方式中,所述基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络,包括:对所述第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果;根据所述第三图像集中的图像、所述第四识别结果以及所述第二模态网络的第四损失函数,调整所述第二模态网络的参数,得到所述跨模态人脸识别网络。
在又一种可能实现的方式中,所述第一类别以及所述第二类别分别对应不同人种。
第二方面,提供了一种人脸识别装置,包括:获取单元,用于获得取待识别图像;识别单元,用于基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到。
在一种可能实现的方式中,所述识别单元包括:训练子单元,用于基于第一模态网络和第二模态网络进行训练得到所述跨模态人脸识别网络。
在另一种可能实现的方式中,所述训练子单元还用于:基于第一图像集和第二图像集对所述第一模态网络训练,其中,所述第一图像集中的对象属于第一类别,所述第二图像集中的对象属于第二类别。
在又一种可能实现的方式中,所述训练子单元还用于:基于所述第一图像集和所述第二图像集对所述第一模态网络进行训练,得到所述第二模态网络;以及按预设条件从所述第一图像集中选取第一数目的图像,并从所述第二图像集中选取第二数目的图像,并根据所述第一数目的图像和所述第二数目的图像得到第三图像集;以及基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络。
在又一种可能实现的方式中,所述预设条件包括:所述第一数目与所述第二数目相同,所述第一数目与所述第二数目的比值等于所述第一图像集包含的图像数目与所述第二图像集包含的图像数目的比值,所述第一数目与所述第二数目的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值中的任意一种。
在又一种可能实现的方式中,所述第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支;所述训练子单元还用于:将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,其中,所述第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像;以及将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为所述第二模态网络。
在又一种可能实现的方式中,所述训练子单元还用于:将所述第一图像集、所述第二图像集以及所述第四图像集分别输入至所述第一特征提取分支、所述第二特征提取分支以及所述第三特征提取分支,分别得到第一识别结果、第二识别结果以及第三识别结果;以及获取所述第一特征提取分支的第一损失函数、所述第二特征提取分支的第二损失函数以及所述第三特征提取分支的第三损失函数;以及根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,其中,所述第一模态网络的参数包括第一特征提取分支参数、第二特征提取分支参数以及第三特征提取分支参数,所述调整后的第一模态网络的各分支参数相同。
在又一种可能实现的方式中,所述第一图像集中的图像包括第一标注信息,所述第二图像集中的图像包括第二标注信息,所述第四图像集中的图像包括第三标注信息;所述训练子单元还用于:根据所述第一标注信息、所述第一识别结果、所述第一损失函数以及所述第一特征提取分支的初始参数,得到第一梯度,以及根据所述第二标注信息、所述第二识别结果、所述第二损失函数以及所述第二特征提取分支的初始参数,得到第二梯度,以及根据所述第三标注信息、所述第三识别结果、所述第三损失函数以及所述第三特征提取分支的初始参数,得到第三梯度;以及将所述第一梯度、所述第二梯度以及所述第三梯度的平均值作为所述第一模态网络的反向传播梯度,并通过所述反向传播梯度调整所述第一模态网络的参数,使所述第一特征提取分支的参数、所述第二特征提取分支的参数以及所述第三特征提取分支的参数相同。
在又一种可能实现的方式中,所述训练子单元还用于:从所述第一图像集以及所述第二图像集中分别选取f张图像,使所述f张图像中包含的人数为阈值,得到所述第三图像集;或,以及从所述第一图像集以及所述第二图像集中分别选取m张图像以及n张图像,使所述m与所述n的比值等于所述第一图像集包含的图像数量与所述第二图像集包含的图像数量的比值,且所述m张图像以及所述n张图像中包含的人数均为所述阈值,得到所述第三图像集;或,以及从所述第一图像集以及所述第二图像集中分别选取s张图像以及t张图像,使所述s与所述t的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值,且所述s张图像以及所述t张图像中包含的人数均为所述阈值,得到所述第三图像集。
在又一种可能实现的方式中,所述训练子单元还用于:对所述第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果;以及根据所述第三图像集中的图像、所述第四识别结果以及所述第二模态网络的第四损失函数,调整所述第二模态网络的参数,得到所述跨模态人脸识别网络。
在又一种可能实现的方式中,所述第一类别以及所述第二类别分别对应不同人种。
第三方面,提供了一种电子设备,包括:包括处理器、存储器;所述处理器被配置为支持所述装置执行上述第一方面及其任一种可能的实现方式的方法中相应的功能。存储器用于与处理器耦合,其保存所述装置必要的程序(指令)和数据。可选的,所述装置还可以包括输入/输出接口,用于支持所述装置与其他装置之间的通信。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面及其任一种可能的实现方式的方法。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本申请实施例提供的一种人脸识别方法的流程示意图;
图2为本申请实施例提供的一种基于第一图像集和第二图像集对第一模态网络训练的流程示意图;
图3为本申请实施例提供的另一种人脸识别神经网络的训练方法的流程示意图;
图4为本申请实施例提供的另一种人脸识别神经网络的训练方法的流程示意图;
图5为本申请实施例提供的一种基于按人种分类得到的图像集对神经网络进行训练的流程示意图;
图6为本申请实施例提供的一种人脸识别装置的结构示意图;
图7为本申请实施例提供的一种人脸识别装置的硬件结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
在本申请实施例中,人数并不等同于人物对象的数量,如:图像A包含2个对象,分别为张三和李四;图像B包含1个对象,为张三;图像C包含2个对象,分别为张三和李四,则图像A、图像B以及图像C包含的人数为2(张三和李四),图像A、图像B以及图像C包含的对象的数量为2+1+2=5,即人数为5。
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
下面结合本申请实施例中的附图对本申请实施例进行描述。
请参阅图1,图1是本申请实施例提供的一种人脸识别方法的流程示意图。
101、获得取待识别图像。
在本申请实施例中,待识别图像可以是存储于本地终端(如:手机、平板电脑、笔记本电脑等等)的图像集;也可以将视频中的任意帧图像作为待识别图像,还可以从视频中任意帧图像中检测出脸部区域图像,并将该脸部区域图像作为待识别图像。
102、基于跨模态人脸识别网络对待识别图像进行识别,得到待识别图像的识别结果,其中,跨模态人脸识别网络基于不同模态的人脸图像数据训练得到。
在本申请实施例中,跨模态人脸识别网络可对包含不同类别的对象的图像进行识别,例如,可识别两张图像中的对象是否是同一个人。其中,类别可以按人的年龄划分,也可以按人种划分,还可以按地区划分,如:可以将0~3岁的人划分为第一类别,将4~10岁的人划分为第二类别,将11~20岁的人划分为第三类别…;也可以将黄种人划分为第一类别,将白种人划分为第二类别,将黑种人划分为第三类别,将棕种人划分为第四类别;还可以将中国地区的人划分为第一类别,将泰国地区的人划分为第二类别,将印度地区的人划分为第三类别,将开罗地区的人划分为第四类别,将非洲地区的人划分为第五类别,将欧洲地区的人划分为第六类别。本申请实施例对类别的划分不做限定。
在一些可能实现的方式中,将手机摄像头采集的包括对象脸部区域图像以及事先存储的脸部区域图像作为待识别图像集输入至人脸识别神经网络,识别出待识别图像集包含的对象是否是同一个人。
在另一些可能实现的方式中,摄像头A在第一时刻采集到第一待识别图像,摄像头B在第二时刻采集到第二待识别图像,将第一待识别图像以及第二待识别图像作为待识别图像集输入至人脸识别神经网络,识别这两张待识别图像中包含的对象是否是同一个人。
在本申请实施例中,不同模态的人脸图像数据指包含的不同类别的对象的图像集。
跨模态人脸识别网络是以不同模态的人脸图像集为训练集预先进行训练得到的,其中,跨模态人脸识别网络可以是任意具备从图像中提取特征中功能的神经网络,如:可以基于卷积层、非线性层、全连接层等网络单元按照一定方式堆叠或组成,也可以采用现有的神经网络结构,本申请对跨模态人脸识别网络的结构不做具体限定。
在一种可能实现的方式中,将两张待识别图像输入至跨模态人脸识别网络,跨模态人脸识别网络分别对待识别图像进行特征提取处理,得到不同的特征,再将提取出的特征进行对比,得到特征匹配度,在特征匹配度达到特征匹配度阈值的情况下,识别两张待识别图像中的对象是同一个人,反之,在特征匹配度未达到特征匹配度阈值的情况下,识别两张待识别图像中的对象不是同一个人。
本实施例通过由按类别划分的图像集训练神经网络得到跨模态人脸识别网络,通过跨模态人脸识别网络对各个类别的对象是否是同一个人进行识别,可提高识别准确率。
以下实施例为本申请提供的人脸识别方法中步骤102的一些可能的实现方式。
基于第一模态网络和第二模态网络进行训练得到跨模态人脸识别网络,其中,第一模态网络和第二模态网络可以是任意具备从图像中提取特征中功能的神经网络,如:可以基于卷积层、非线性层、全连接层等网络单元按照一定方式堆叠或组成,也可以采用现有的神经网络结构,本申请对跨模态人脸识别网络的结构不做具体限定。在一些可能实现的方式中,以不同的图像集为训练集分别对第一模态网络和第二模态网络进行训练,使第一模态网络分别学习到不同类别的对象的特征,再总和第一模态网络和第二模态网络学习到的特征得到跨模态网络,使跨模态网络能对不同类别的对象进行识别。
可选地,在基于第一模态网络和第二模态网络进行训练得到跨模态人脸识别网络之前,基于第一图像集和第二图像集对第一模态网络训练,其中,第一图像集和第二图像集中的对象可以只包括人脸,也可以包括人脸以及躯干等其他部分,本申请对此不做具体限定。
在一些可能实现的方式中,以第一图像集为训练集对第一模态网络进行训练,得到第二模态神经网络,使第二模态网络可以识别多张包含第一类别的对象的图像中的对象是否是同一个人,以第二图像集为训练集对第二模态网络进行训练,得到跨模态人脸识别网络,使跨模态人脸识别网络可以识别多张包含第一类别的对象的图像中的对象是否是同一个人,以及多张包含第二类别的对象的图像中的对象是否是同一个人,这样,跨模态人脸识别网络既在对第一类别的对象进行识别时的识别率高,且在对第二类别的对象进行识别时的识别率高。
在另一些可能实现的方式中,将第一图像集和第二图像集中的所有图像作为训练集对第一模态网络进行训练,得到跨模态人脸识别网络,使跨模态人脸识别网络可以识别多张包含第一类别或第二类别的对象的图像中的对象是否是同一个人。
在又一些可能实现的方式中,从第一图像集中选取a张图像、从第二图像集中选取b张图像,得到训练集,其中,a:b满足预设比例,再以训练集对第一模态网络进行训练,得到跨模态人脸识别网络,使跨模态人脸识别网络识别多张包含第一类别或第二类别的对象的图像中的人物对象是否是同一个人的识别准确率高。
跨模态人脸识别网络通过特征匹配度确定不同图像中的对象是否是同一个人,而不同类别的人的脸部特征会存在较大差异,因此,不同类别的人的特征匹配度阈值(即达到这个阈值,将被识别为同一个人)均不相同,本实施例提供的训练方法通过将包含不同类别的对象的图像集放到一起进行训练,可使减小跨模态人脸识别网络识别不同类别的人物对象的特征匹配度之间的差异。
本实施例通过由按类别划分的图像集训练神经网络(第一模态网络和第二模态网络),使神经网络同时学习不同类别的对象的人脸特征,这样,通过训练得到的跨模态人脸识别网络对各个类别的对象是否是同一个人进行识别,可提高识别准确率;通过不同类别的图像集同时训练神经网络,可减小神经网络识别不同类别的人物对象的识别标准之间的差异。
请参阅图2,图2是本申请实施例提供的基于第一图像集和第二图像集对第一模态网络训练的一些可能的实现方式的流程示意图。
201、基于第一图像集和第二图像集对第一模态网络进行训练,得到第二模态网络,其中,第一图像集中的对象属于第一类别,第二图像集中的对象属于第二类别。
在本申请实施例中,可以通过多种方式获取第一模态网络。在一些可能的实现方式中,可以从其他设备处获取第一模态网络,例如接收终端设备发送的第一模态网络。在另一些可能的实现方式中,第一模态网络存储于本地终端,可从本地终端中调用第一模态网络。
如上所述,第一图像集包括的第一类别与第二图像集包括的第二类别不同,分别以第一图像集以及第二图像集为训练集对第一模态网络进行训练,可使第一模态网络学习到第一类别以及第二类别的特征,提高并识别第一类别以及第二类别的对象是否是同一个人的准确率。
在一些可能实现的方式中,第一图像集包括的对象为11~20岁的人,第二图像集包括的对象为20~30岁的人。以第一图像集、第二图像集为训练集对第一模态网络进行训练,得到的第二模态网络对对象为11~20岁以及20~30岁的对象的识别准确率高
202、按预设条件从第一图像集中选取第一数目的图像,并从第二图像集中选取第二数目的图像,并根据第一数目的图像和第二数目的图像得到第三图像集。
由于第一类别的特征与第二类别的特征的差异较大,神经网络在识别第一类别的对象是否是同一个人的识别标准与识别第二类别的对象是否是同一个人的识别标准也会不同,其中,识别标准可以为提取出的不同对象的特征匹配度,如:由于0~3岁的人的五官以及脸部轮廓特征没有20~30岁的人的五官以及脸部轮廓特征明显,在训练过程中,神经网络学习到的20~30岁的对象的特征比0~30岁的对象的特征多,这样,训练后的神经网络需要以更大的特征匹配度来识别0~3岁的对象是否是同一个人。举例来说,在识别0~3岁的对象是否是同一个人时,确定特征匹配度大于或等于0.8的两个对象为同一个人,确定特征匹配度小于0.8的两个对象不是同一个人;神经网络在识别20~30岁的对象是否是同一个人时,确定特征匹配度大于或等于0.65的两个对象为同一个人,确定特征匹配度小于0.65的两个对象不是同一个人。此时,若用0~3岁的对象的识别标准去识别20~30岁的对象易导致本来是同一个人的两个对象被识别为不是同一个人,反之,若用20~30岁的对象的识别标准去识别0~3岁的对象易导致本来不是同一个人的两个对象被识别为同一个人。
本实施例按预设条件从第一图像集中选取第一数目的图像,并从第二图像集中选取第二数目的图像,并将第一数目的图像和第二数目的图像作为训练集,可使第二模态网络在训练过程中学习不同类别的特征的比例更均衡,减小不同类别的对象的识别标准的差异。
在一些可能实现的方式中,设第一图像集中选取的第一数目的图像包括的人数以及第二图像集中选取的第二数目的图像包括的人数均为X,则只需使分别从第一图像集以及第二图像集中选取的图像包括的人数达到X即可,不限定从第一图像集以及第二图像集中选取的图像的数量。
203、基于第三图像集对第二模态网络进行训练,得到跨模态人脸识别网络。
第三图像集包括第一类别以及第二类别,且第一类别的人数与第二类别的人数是按预设条件选取的,这也是第三图像集不同于随机选取的图像集的地方,以第三图像集为训练集对第二模态网络进行训练,可使第二模态网络对第一类别的特征的学习和对第二类别的特征的学习更均衡。
此外,若对第二模态网络的进行监督训练,在训练过程中,可通过softmax函数对每一张图像中的对象所属类别进行分类,并通过监督标签、分类结果以及损失函数对第二模态网络的参数进行调整。在一些可能实现的方式中,第三图像集中的每个对应一个标签,如:图像A与图像B中的同一个对象的标签均为1,图像C中另一个对象的标签为2。softmax函数的表达式如下:
Figure BDA0002003399930000131
其中,t为第三图像集包括的人数,Sj为对象为j类的概率,Pj为输入softmax层的特征向量中的第j个数值,k为输入softmax层的特征向量中的第k个数值。
在softmax层后连接包含有损失函数的损失函数层,通过softmax层输出的概率值、第三图像集的标签,以及损失函数,可得到第二待训练神经网络的反向传播梯度,再根据反向传播梯度对第二待训练神经网络进行梯度反向传播,可得到跨模态人脸识别网络。由于第三图像集中包含第一类别的对象以及第二类别的对象,且第一类别的人数与第二类别的人数是满足预设条件,因此,以第三图像集为训练集对第二模态网络进行训练,可使第二模态网络平衡第一类别的人脸特征以及第二类别的人脸特征的学习比例,这样,可使最终得到的跨模态人脸识别网络在识别第一类别的对象是否是同一个人的识别率高,同时在识别第二类别的对象是否是同一个人的识别率也高。在一些可能实现的方式中,损失函数的表达式可参见下式:
Figure BDA0002003399930000141
其中,t为第三图像集包括的人数,Sj为人物对象为j类的概率,yj为第三图像集中人物对象为j类的标签,如:第三图像集包括张三的图像,标签为1,则对象为1类的标签1,且该对象为其他任意类别的标签都为0。
本申请实施例通过以按类别划分的第一图像集以及第二图像集为训练集对第一模态网络进行训练,提高第一模态网络对第一类别以及第二类别的识别准确率;通过以第三图像集对为训练集对第二模态网络进行训练,可使第二模态网络平衡第一类别的人脸特征以及第二类别的人脸特征的学习比例,这样,训练得到的跨模态人脸识别网络不仅对第一类别的对象是否是同一个人的识别准确率高,而且对第二类别的对象是否是同一个人的识别准确率高。
请参阅图3,图3是本申请实施例提供的步骤201的一种可能实现方式的流程示意图。
301、将第一图像集输入至第一特征提取分支,并将第二图像集输入至第二特征提取分支,并将第四图像集输入至第三特征提取分支,对第一模态网络进行训练,其中,第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像。
在本申请实施例中,第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像,例如:第四图像集包括的图像均是用手机拍摄的图像;再例如:第四图像集包括的图像均是室内拍摄的图像;又例如:第四图像集包括的图像均是在港口拍摄的图像,本申请实施例对第四图像集中的图像的场景和采集方式不做限定。
在本申请实施例中,第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支,其中,第一特征提取分支、第二特征提取分支以及第三特征提取分支均可以是任意具备从图像中提取特征中功能的神经网络结构,如:可以基于卷积层、非线性层、全连接层等网络单元按照一定方式堆叠或组成,也可以采用现有的神经网络的结构,本申请对第一特征提取分支、第二特征提取分支以及第三特征提取分支的结构不做具体限定。
在本实施例中,第一图像集、第二图像集以及第四图像集中的图像分别包括第一标注信息、第二标注信息以及第三标注信息,其中,标注信息包括图像中包含的对象的编号,例如:第一图像集、第二图像集以及第四图像集中包含的人数均为Y(Y为大于1的整数),对第一图像集、第二图像集以及第四图像集中的任意一张图像均包含对象对应的编号均为1~Y之间任意一个数字。需要理解的是,同一个人的对象在不同图像中的编号相同,例如:图像A中的对象为张三,图像B中的对象也为张三,则图像A中的对象与图像B中的对象的编号相同,反之,图像C中的对象为李四,则图像C中的对象的编号与图像A中的对象的编号不同。
为使各图像集包含的对象的人脸特征可起到对应该类别人脸特征的代表性的作用,可选地,每个图像集包含的人数均在5000人以上,需要理解的是,本申请实施例对图像集中图像的数量不做限定。
在本申请实施例中,第一特征提取分支的初始参数、第二特征提取分支的初始参数以及第三特征提取分支的初始参数分别指未调整参数前的第一特征提取分支的参数、未调整参数前的第二特征提取分支的参数以及未调整参数前的第三特征提取分支的参数。第一模态网络的各分支包括第一特征提取分支、第二特征提取分支以及第三特征提取分支。
将第一图像集输入至第一特征提取分支,并将第二图像集输入至第二特征提取分支,并将第四图像集输入至第三特征提取分支,即用第一特征提取分支去学***衡的调整方向,由于第四图像集包含特定场景下或特定拍摄方式采集得到的图像,通过第三特征提取分支的反向传播梯度调整第一模态网络的参数可提高第一模态网络的鲁棒性(即对图像采集场景和图像采集方式的鲁棒性高)。通过三个特征提取分支的反向传播梯度得到的反向传播梯度来调整第一模态网络的参数可使任意一个特征提取分支识别对应类别(第一图像集以及第二图像集包含的类别中的任意一个)的对象都有较高的准确率,且可提高任意一个特征提取分支在图像采集场景和图像采集方式方面的鲁棒性。
在一些可能实现的方式中,将第一图像集输入至第一特征提取分支,并将第二图像集输入至第二特征提取分支,并将第四图像集输入至第三特征提取分支,依次经过特征提取处理、全连接层的处理、softmax层的处理,分别得到第一识别结果、第二识别结果以及第三识别结果,其中,softmax层包含softmax函数,可参见公式(1),此处将不再赘述,第一识别结果、第二识别结果以及第三识别结果包括每个对象的编号为不同编号的概率,例如:第一图像集、第二图像集以及第四图像集中包含的人数为Y(Y为大于1的整数),对第一图像集、第二图像集以及第四图像集中的任意一张图像均包含人物对象对应的编号均为1~Y之间任意一个数字,则第一识别结果包括第一图像集包含的人物对象的编号分别是1~Y的概率,即每个对象的第一识别结果有Y个概率。同理,第二识别结果包括第二图像集包含的对象的编号分别是1~Y的概率,第三识别结果包括第四图像集包含的对象的编号分别是1~Y的概率。
在每个分支中,softmax层后连接包含有损失函数的损失函数层,获取第一分支的第一损失函数、第二分支的第二损失函数以及第三分支的第三损失函数,根据第一图像集的第一标注信息、第一识别结果以及第一损失函数,得到第一损失,根据第二图像集的第二标注信息、第二识别结果以及第二损失函数,得到第二损失,根据第四图像集的第三标注信息、第三识别结果以及第三损失函数,得到第三损失。第一损失函数、第二损失函数以及第三损失函数可参见公式(2),此处将不再赘述。
获得第一特征提取分支的参数、第二特征提取分支的参数以及第三特征提取分支的参数,根据第一特征提取分支的参数以及第一损失,得到第一梯度,以及根据第二特征提取分支的参数以及第二损失,得到第二梯度,以及根据第三特征提取分支的参数以及第三损失,得到第三梯度,其中,第一梯度、第二梯度以及第三梯度分别为第一特征提取分支、第二特征提取分支以及第三特征提取分支的反向传播梯度。根据第一梯度、第二梯度以及第三梯度,得到第一模态网络的反向传播梯度,并通过梯度反向传播的方式调整第一模态网络的参数,使第一特征提取分支的参数、第二特征提取分支以及第三特征提取分支的参数相同。在一些可能实现的方式中,将第一梯度、第二梯度以及第三梯度的平均值作为第一待训练神经网络的反向传播梯度,并根据反向传播梯度对第一模态网络进行梯度方向传播,调整第一特征提取分支的参数、第二特征提取分支以及第三特征提取分支的参数,使调整参数后的第一特征提取分支、第二特征提取分支以及第三特征提取分支的参数相同。
302、将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为第二模态网络。
通过301的处理,训练后的第一特征提取分支、训练后的第二特征提取分支以及训练后的第三特征提取分支的参数相同,即对第一类别(第一图像集包含的类别)、第二类别(第二图像集包含的类别)的对象识别准确率高,且识别不同场景采集的图像和不同采集方式采集的图像的鲁棒性好。因此,将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为下一步训练的网络,即第二模态网络。
本申请实施例中,第一图像集以及第二图像集均是按类别选取得到的图像集,第四图像集为按照场景和拍摄方式选取的图像集,以第一图像集对第一特征提取分支进行训练,可使第一特征提取分支着重学习第一类别的人脸特征,以第二图像集对第二特征提取分支进行训练,可使第二特征提取分支着重学习第二类别的人脸特征,而以第四图像集对第三特征提取分支进行训练,可使第三特征提取分支着重学习第四图像集包括的对象的人脸特征,提高第三特征提取分支的鲁棒性;根据第一特征提取分支的反向传播梯度、第二特征提取分支的反向传播梯度以及第三特征提取分支的反向传播梯度得到第一模态网络的反向传播梯度,并以该梯度对第一模态网络进行梯度反向传播,可同时兼顾三个特征提取分支的参数调整方向,并使调整参数后的第一模态网络的鲁棒性好,且对第一类别以及第二类别的人物对象的识别准确率高。
以下实施例为步骤202的一些可能的实现方式。
为使第二模态网络在基于第三图像集进行训练时,更均衡的学习第一类别和第二类别的特征,预设条件可以为第一数目与第二数目相同,在一种可能实现的方式中,从第一图像集以及第二图像集中分别选取f张图像,使f张图像中包含的人数为阈值,得到第三图像集。在一些可能实现的方式中,阈值为1000,从第一图像集以及第二图像集中分别选取f张图像,使f张图像中包含的人数为1000即可,其中,f可为任意正整数,最后将从第一图像集中选出的f张图像以及从第二图像集中选出的f张图像作为第三图像集。
为使第二模态网络在基于第三图像集进行训练时,更有针对性的学习第一类别和第二类别的特征,预设条件可以为第一数目与第二数目的比值等于第一图像集包含的图像数目与第二图像集包含的图像数目的比值,或第一数目与第二数目的比值等于第一图像集包含的人数与第二图像集包含的人数的比值,这样,第二模态网络学习第一类别的特征与第二类别的特征的比值均为定值,可弥补第一类别的识别标准与第二类别的识别标准的差异。在一种可能实现的方式中,从第一图像集以及第二图像集中分别选取m张图像以及n张图像,使m与n的比值等于第一图像集包含的图像数量与第二图像集包含的图像数量的比值,且m张图像以及n张图像中包含的人数均为阈值,得到第三图像集。在一些可能实现的方式中,第一图像集包含7000张图像,第二图像集包含8000张图像,阈值为1000,从第一图像集选取的m张图像以及从第二图像集中选取的n张图像中包含的人数均为1000,且m:n=7:8,m、n可为任意正整数,最后将从第一图像集中选出的m张图像以及从第二图像集中选出的n张图像作为第三图像集。在另一种可能实现的方式中,从第一图像集以及第二图像集中分别选取s张图像以及t张图像,使s与t的比值等于第一图像集包含的人数与第二图像集包含的人数的比值,且s张图像以及t张图像中包含的人数均为阈值,得到第三图像集。在一些可能实现的方式中,第一图像集包含的人数为6000,第二图像集包含的人数为7000,阈值为1000,从第一图像集选取的s张图像以及从第二图像集中选取的t张图像中包含的人数均为1000,且s:t=6:7,s、t可为任意正整数,最后将从第一图像集中选出的s张图像以及从第二图像集中选出的t张图像作为第三图像集。
本实施例提供了几种从第一图像集以及第二图像集中选取图像的方式,通过不同的选取方式可得到不同的第三图像集,可根据具体训练效果以及需求选择不同的选取方式。
请参阅图4,图4是本申请实施例提供的步骤203的一种可能的实现方式的流程示意图。
401、对第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果。
首先,第二模态网络对第三图像集中的图像进行特征提取处理,特征提取处理可以通过多种方式实现,例如卷积、池化等,本申请实施例对此不做具体限定。在一些可能的实现方式中,第二模态网络包括多层卷积层,通过多层卷积层对第三图像集中的图像逐层进行卷积处理完成对第三图像集中的图像的特征提取处理,其中,每个卷积层提取出的特征内容及语义信息均不一样,具体表现为,特征提取处理一步步地将图像的特征抽象出来,同时也将逐步去除相对次要的特征,因此,越到后面提取出的特征尺寸越小,内容及语义信息就越浓缩。通过多层卷积层逐级对第三图像集中的图像进行卷积处理,并提取相应的特征,最终得到固定大小的特征图像,这样,可在获得待处理图像主要内容信息(即第三图像集中的图像的特征图像)的同时,将图像尺寸缩小,减小***的计算量,提高运算速度。在一种可能实现的方式中,卷积处理的实现过程如下:卷积层对待处理图像做卷积处理,即利用卷积核在第三图像集中的图像上滑动,并将第三图像集中的图像上的像素与对应的卷积核上的数值相乘,然后将所有相乘后的值相加作为卷积核中间像素对应的图像上像素值,最终滑动处理完第三图像集中的图像中所有的像素,并提取出相应的特征图像。
在卷积层后连接的是全连接层,通过全连接层对卷积层提取出的特征图像进行线性变换,可将特征图像中的特征映射到样本(即对象的编号)标记空间。
在全连接层后连接有softmax层,通过softmax层对提取出的特征图像进行处理,得到第四识别结果,softmax层具体组成以及对特征图像的处理过程可参见301,此处将不再赘述,其中,第四识别结果包括第三图像集包含的对象的编号分别是1~Z(第三图像集包括的人数为Z)的概率,即每个对象的第四识别结果有Z个概率。
402、根据第三图像集中的图像、第四识别结果以及第二模态网络的第四损失函数,调整第二模态网络的参数,得到跨模态人脸识别网络。
在softmax层后连接有包含第四损失函数的损失函数层,第四损失函数的表达式可参见公式(2)。由于输入至第二待训练神经网络的第三图像集包含不同类别的对象,因此,在通过softmax函数得到第四识别结果的过程中,将不同类别的对象的人脸特征放在一起进行比较,对不同类别的识别标准归一化,即以相同的识别标准识别不同类别的对象,最后通过第四识别结果和第四损失函数调整第二模态网络的参数,使调整参数后的第二模态网络以相同的识别标准识别不同类别的对象,提高了不同类别的对象的识别准确率,在一些可能实现的方式中,第一类别的识别标准是0.8,第二类别的识别标准是0.65,通过402的训练,调整第二模态网络的参数以及识别标准,最终确定识别标准为0.72。由于第二模态网络的参数随着识别标准的调整也会相应地调整,因此,使调整参数后得到的跨模态人脸识别网络通过减少第一类别的识别标准与第二类别的识别标准之间的差异。
本申请实施例中,以第三图像集为训练集对第二模态网络进行训练,可将不同类别的对象的人脸特征放在一起进行比较,对不同类别的识别标准归一化;通过调整第二模态网络的参数,使调整参数后得到的跨模态人脸识别网络不仅对识别第一类别的对象的是否是同一个人的识别准确率高,而且对识别第二类别的对象的是否是同一个人的识别准确率高,减小了识别不同类别的对象是否是同一个人时的识别标准的差异。
如上所述,训练用的图像集包含的人物对象的类别可以是按人的年龄划分的,也可以是按人种划分的,还可以是按地区划分的,本申请提供一种基于按人种分类得到的图像集对神经网络进行训练的方法,即第一类别以及第二类别分别对应不同人种,可提高神经网络对不同人种的对象的识别准确率。
请参见图5,图5为本申请提供的一种基于按人种分类得到的图像集对神经网络进行训练的方法流程。
501、获得基础图像集、人种图像集,以及第三模态网络。
在本申请实施例中,基础图像集可以包括一个或多个图像集,具体地,第十一图像集中的图像均是在室内采集的图像,第十二图像集中的图像均是在港口采集的图像,第十三图像集中的图像均是在野外采集的图像,第十四图像集中的图像均是在人群中采集的图像,第十五图像集中的图像均是证件图像,第十六图像集中的图像均是通过手机拍摄的图像,第十七图像集中的图像均是通过摄像机采集的图像,第十八图像集中的图像均是从视频中截取的图像,第十九图像集中的图像均是从互联网下载的图像,第二十图像集中的图像均是对名人图像进行处理后得到的图像。需要理解的是,基础图像集中的任意一个图像集包括的图像均为同一场景下采集的图像或同一采集方式采集的图像,即基础图像集中的图像集对应与301中的第四图像集。
将中国地区的人划分为第一人种,将泰国地区的人划分为第二人种,将印度地区的人划分为第三人种,将开罗地区的人划分为第四人种,将非洲地区的人划分为第五人种,将欧洲地区的人划分为第六人种,对应地,就有6个人种图像集,分别为包含以上6个人种,具体地,第五图像集包含第一人种,第六图像集包含第二人种…第十图像集包含第六人种。需要理解的是,人种图像集中的任意一个图像集包括的对象均为同一人种(即同一类别),即人种图像集中的图像集对应与101中的第一图像集或第二图像集。
为使各图像集包含的对象的人脸特征可起到对应该类别人脸特征的代表性的作用,可选地,每个图像集包含的人数均在5000人以上,需要理解的是,本申请实施例对图像集中图像的数量不做限定。
需要理解的是,人种划分还可以是其他方式,例如:按肤色划分人种,可分为黄色人种、白色人种、黑色人种和棕色人种四个人种,本实施例对人种划分的方式不做限定。基础图像集以及人种图像集中的对象可以只包括人脸,也可以包括人脸以及躯干等其他部分,本申请对此不做具体限定。
在本实施例中,第三模态网络可以是任意具备从图像中提取特征中功能的神经网络,如:可以基于卷积层、非线性层、全连接层等网络单元按照一定方式堆叠或组成,也可以采用现有的神经网络结构,本申请对第三模态网络的结构不做具体限定。
502、基于基础图像集和人种图像集第三模态网络进行训练,得到第四模态网络。
此步骤具体可参见201以及301~302,此处将不再赘述。需要理解的是,由于基础图像集中包括10个图像集,人种图像集中包括6个图像集,相应地,第三模态网络包括16个特征提取分支,即每个图像集对应一个特征提取分支。
通过502的处理,可提高第四模态网络对不同人种的对象是否是同一个人的识别准确率,即提高各个人种内的识别准确率,具体地,用第四模态网络分别识别第一人种、第二人种、第三人种、第四人种、第五人种、第六人种的对象是否是同一个人,均有较高的准确率,且第四待模态网络对识别不同场景下或以不同采集方式采集到的图像的鲁棒性好。
503、基于人种图像集对第四模态网络进行训练,得到跨人种人脸识别网络。
此步骤具体可参见202~203以及401~402,此处将不再赘述。
通过503的处理,可减小得到的跨人种人脸识别网络识别不同人种的对象是否是同一个人时的识别标准的差异,跨人种人脸识别网络可提高不同人种的对象的识别准确率。具体地,跨人种人脸识别网络对不同图像中属于第一人种的对象是否是同一个人的识别准确率,以及对不同图像中属于第二人种的对象是否是同一个人的识别准确率,以及…,以及对不同图像中属于第六人种的对象是否是同一个人的识别准确率都在预设值之上,需理解,预设值表示跨人种人脸识别网络对各个人种的识别准确率都很高,本申请对预设值的具体大小不做限定,可选地,预设值为98%。
可选地,为同时提高人种内的识别准确率以及减小不同人种的识别标准的差异,可多次重复502以及503,在一些可能实现的方式中,以502的训练方式对第三模态网络训练10万轮,然后在接下来的10~15万轮训练中,502的训练方式的比重逐渐降低为0,而503的训练方式的比重逐提升至1,15~25万轮的训练均通过503的训练方式完成,在接下来的25~30万轮训练中,503的训练方式的比重逐渐降低为0,而502的训练方式的比重逐提升至1;最后,在第30~40万轮训练中,502的训练方式以及503的训练方式各占一半比重。
需要理解的是,本申请实施例对各个阶段的轮数具体数值、502的训练方式以及503的训练方式的比重均不做限定。
应用本实施例得到的跨人种人脸识别网络可对识别多个人种的对象是否是同一个人,且识别准确率高,如:应用跨人种人脸识别网络即可对中国地区的人种进行识别,也可对开罗地区的人种进行识别,还可对欧洲地区的人种进行识别,且每个人种的识别准确率高,这样,可解决人脸识别算法在对某一类人种识别准确率高,但对其他人种识别准确率低的问题。此外,应用本实施例可提高跨人种人脸识别网络识别不同场景下或以不同采集方式采集到的图像的鲁棒性。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
上述详细阐述了本申请实施例的方法,下面提供了本申请实施例的装置。
请参阅图6,图6为本申请实施例提供的一种人脸识别装置的结构示意图,该识别装置1包括:获取单元11以及识别单元12。其中:
获取单元11,用于获得取待识别图像;
识别单元12,用于基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到。
进一步地,所述识别单元12包括:训练子单元121,用于基于第一模态网络和第二模态网络进行训练得到所述跨模态人脸识别网络。
进一步地,所述训练子单元121还用于:基于第一图像集和第二图像集对所述第一模态网络训练,其中,所述第一图像集中的对象属于第一类别,所述第二图像集中的对象属于第二类别。
进一步地,所述训练子单元121还用于:基于所述第一图像集和所述第二图像集对所述第一模态网络进行训练,得到所述第二模态网络;以及按预设条件从所述第一图像集中选取第一数目的图像,并从所述第二图像集中选取第二数目的图像,并根据所述第一数目的图像和所述第二数目的图像得到第三图像集;以及基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络。
进一步地,所述预设条件包括:所述第一数目与所述第二数目相同,所述第一数目与所述第二数目的比值等于所述第一图像集包含的图像数目与所述第二图像集包含的图像数目的比值,所述第一数目与所述第二数目的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值中的任意一种。
进一步地,所述第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支;所述训练子单元121还用于:将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,其中,所述第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像;以及将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为所述第二模态网络。
进一步地,所述训练子单元121还用于:将所述第一图像集、所述第二图像集以及所述第四图像集分别输入至所述第一特征提取分支、所述第二特征提取分支以及所述第三特征提取分支,分别得到第一识别结果、第二识别结果以及第三识别结果;以及获取所述第一特征提取分支的第一损失函数、所述第二特征提取分支的第二损失函数以及所述第三特征提取分支的第三损失函数;以及根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,其中,所述第一模态网络的参数包括第一特征提取分支参数、第二特征提取分支参数以及第三特征提取分支参数,所述调整后的第一模态网络的各分支参数相同。
进一步地,所述第一图像集中的图像包括第一标注信息,所述第二图像集中的图像包括第二标注信息,所述第四图像集中的图像包括第三标注信息;所述训练子单元121还用于:根据所述第一标注信息、所述第一识别结果、所述第一损失函数以及所述第一特征提取分支的初始参数,得到第一梯度,以及根据所述第二标注信息、所述第二识别结果、所述第二损失函数以及所述第二特征提取分支的初始参数,得到第二梯度,以及根据所述第三标注信息、所述第三识别结果、所述第三损失函数以及所述第三特征提取分支的初始参数,得到第三梯度;以及将所述第一梯度、所述第二梯度以及所述第三梯度的平均值作为所述第一模态网络的反向传播梯度,并通过所述反向传播梯度调整所述第一模态网络的参数,使所述第一特征提取分支的参数、所述第二特征提取分支的参数以及所述第三特征提取分支的参数相同。
进一步地,所述训练子单元121还用于:从所述第一图像集以及所述第二图像集中分别选取f张图像,使所述f张图像中包含的人数为阈值,得到所述第三图像集;或,以及从所述第一图像集以及所述第二图像集中分别选取m张图像以及n张图像,使所述m与所述n的比值等于所述第一图像集包含的图像数量与所述第二图像集包含的图像数量的比值,且所述m张图像以及所述n张图像中包含的人数均为所述阈值,得到所述第三图像集;或,以及从所述第一图像集以及所述第二图像集中分别选取s张图像以及t张图像,使所述s与所述t的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值,且所述s张图像以及所述t张图像中包含的人数均为所述阈值,得到所述第三图像集。
进一步地,所述训练子单元121还用于:对所述第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果;以及根据所述第三图像集中的图像、所述第四识别结果以及所述第二模态网络的第四损失函数,调整所述第二模态网络的参数,得到所述跨模态人脸识别网络。
进一步地,所述第一类别以及所述第二类别分别对应不同人种。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
图7为本申请实施例提供的一种人脸识别装置的硬件结构示意图。该识别装置2包括处理器21,还可以包括输入装置22、输出装置23和存储器24。该输入装置22、输出装置23、存储器24和处理器21之间通过总线相互连接。
存储器包括但不限于是随机存储记忆体(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasable programmable readonly memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CD-ROM),该存储器用于相关指令及数据。
输入装置用于输入数据和/或信号,以及输出装置用于输出数据和/或信号。输出装置和输入装置可以是独立的器件,也可以是一个整体的器件。
处理器可以包括是一个或多个处理器,例如包括一个或多个中央处理器(centralprocessing unit,CPU),在处理器是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。
存储器用于存储网络设备的程序代码和数据。
处理器用于调用该存储器中的程序代码和数据,执行上述方法实施例中的步骤。具体可参见方法实施例中的描述,在此不再赘述。
可以理解的是,图7仅仅示出了一种人脸识别装置的简化设计。在实际应用中,人脸识别装置还可以分别包含必要的其他元件,包含但不限于任意数量的输入/输出装置、处理器、控制器、存储器等,而所有可以实现本申请实施例的人脸识别装置都在本申请的保护范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。所属领域的技术人员还可以清楚地了解到,本申请各个实施例描述各有侧重,为描述的方便和简洁,相同或类似的部分在不同实施例中可能没有赘述,因此,在某一实施例未描述或未详细描述的部分可以参见其他实施例的记载。
在本申请所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者通过所述计算机可读存储介质进行传输。所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriberline,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字通用光盘(digital versatiledisc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:只读存储器(read-only memory,ROM)或随机存储存储器(random access memory,RAM)、磁碟或者光盘等各种可存储程序代码的介质。

Claims (16)

1.一种人脸识别方法,其特征在于,包括:
获得取待识别图像;
基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到;
所述跨模态人脸识别网络的训练过程包括:
基于第一图像集和第二图像集对第一模态网络训练,其中,所述第一图像集中的对象属于第一类别,所述第二图像集中的对象属于第二类别;所述第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支;
将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,其中,所述第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像;
将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为第二模态网络;
按预设条件从所述第一图像集中选取第一数目的图像,并从所述第二图像集中选取第二数目的图像,并根据所述第一数目的图像和所述第二数目的图像得到第三图像集;
基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络。
2.根据权利要求1所述的方法,其特征在于,所述预设条件包括:所述第一数目与所述第二数目相同,所述第一数目与所述第二数目的比值等于所述第一图像集包含的图像数目与所述第二图像集包含的图像数目的比值,所述第一数目与所述第二数目的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值中的任意一种。
3.根据权利要求1所述的方法,其特征在于,所述将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,包括:
将所述第一图像集、所述第二图像集以及所述第四图像集分别输入至所述第一特征提取分支、所述第二特征提取分支以及所述第三特征提取分支,分别得到第一识别结果、第二识别结果以及第三识别结果;
获取所述第一特征提取分支的第一损失函数、所述第二特征提取分支的第二损失函数以及所述第三特征提取分支的第三损失函数;
根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,其中,所述第一模态网络的参数包括第一特征提取分支参数、第二特征提取分支参数以及第三特征提取分支参数,所述调整后的第一模态网络的各分支参数相同。
4.根据权利要求3所述的方法,其特征在于,所述第一图像集中的图像包括第一标注信息,所述第二图像集中的图像包括第二标注信息,所述第四图像集中的图像包括第三标注信息;
所述根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,包括:
根据所述第一标注信息、所述第一识别结果、所述第一损失函数以及所述第一特征提取分支的初始参数,得到第一梯度,以及根据所述第二标注信息、所述第二识别结果、所述第二损失函数以及所述第二特征提取分支的初始参数,得到第二梯度,以及根据所述第三标注信息、所述第三识别结果、所述第三损失函数以及所述第三特征提取分支的初始参数,得到第三梯度;
将所述第一梯度、所述第二梯度以及所述第三梯度的平均值作为所述第一模态网络的反向传播梯度,并通过所述反向传播梯度调整所述第一模态网络的参数,使所述第一特征提取分支的参数、所述第二特征提取分支的参数以及所述第三特征提取分支的参数相同。
5.根据权利要求1或2所述的方法,其特征在于,所述按预设条件从所述第一图像集中选取第一数量张图像,并从所述第二图像集中选取第二数量张图像,得到第三图像集,包括:
从所述第一图像集以及所述第二图像集中分别选取f张图像,使所述f张图像中包含的人数为阈值,得到所述第三图像集;或,
从所述第一图像集以及所述第二图像集中分别选取m张图像以及n张图像,使所述m与所述n的比值等于所述第一图像集包含的图像数量与所述第二图像集包含的图像数量的比值,且所述m张图像以及所述n张图像中包含的人数均为所述阈值,得到所述第三图像集;或,
从所述第一图像集以及所述第二图像集中分别选取s张图像以及t张图像,使所述s与所述t的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值,且所述s张图像以及所述t张图像中包含的人数均为所述阈值,得到所述第三图像集。
6.根据权利要求1所述的方法,其特征在于,所述基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络,包括:
对所述第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果;
根据所述第三图像集中的图像、所述第四识别结果以及所述第二模态网络的第四损失函数,调整所述第二模态网络的参数,得到所述跨模态人脸识别网络。
7.根据权利要求1至4、6中任意一项所述的方法,其特征在于,所述第一类别以及所述第二类别分别对应不同人种。
8.一种人脸识别装置,其特征在于,包括:
获取单元,用于获得取待识别图像;
识别单元,用于基于跨模态人脸识别网络对所述待识别图像进行识别,得到所述待识别图像的识别结果,其中,所述跨模态人脸识别网络基于不同模态的人脸图像数据训练得到;
所述识别单元包括训练子单元,用于执行所述跨模态人脸识别网络的训练过程,所述跨模态人脸识别网络的训练过程包括:
基于第一图像集和第二图像集对第一模态网络训练,其中,所述第一图像集中的对象属于第一类别,所述第二图像集中的对象属于第二类别;所述第一模态网络包括第一特征提取分支、第二特征提取分支以及第三特征提取分支;
将所述第一图像集输入至所述第一特征提取分支,并将所述第二图像集输入至所述第二特征提取分支,并将第四图像集输入至所述第三特征提取分支,对所述第一模态网络进行训练,其中,所述第四图像集包括的图像为同一场景下采集的图像或同一采集方式采集的图像;
将训练后的第一特征提取分支或训练后的第二特征提取分支或训练后的第三特征提取分支作为第二模态网络;
按预设条件从所述第一图像集中选取第一数目的图像,并从所述第二图像集中选取第二数目的图像,并根据所述第一数目的图像和所述第二数目的图像得到第三图像集;
基于所述第三图像集对所述第二模态网络进行训练,得到所述跨模态人脸识别网络。
9.根据权利要求8所述的装置,其特征在于,所述预设条件包括:所述第一数目与所述第二数目相同,所述第一数目与所述第二数目的比值等于所述第一图像集包含的图像数目与所述第二图像集包含的图像数目的比值,所述第一数目与所述第二数目的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值中的任意一种。
10.根据权利要求8所述的装置,其特征在于,所述训练子单元还用于:
将所述第一图像集、所述第二图像集以及所述第四图像集分别输入至所述第一特征提取分支、所述第二特征提取分支以及所述第三特征提取分支,分别得到第一识别结果、第二识别结果以及第三识别结果;
以及获取所述第一特征提取分支的第一损失函数、所述第二特征提取分支的第二损失函数以及所述第三特征提取分支的第三损失函数;
以及根据所述第一图像集、所述第一识别结果以及所述第一损失函数,所述第二图像集、所述第二识别结果以及所述第二损失函数,所述第四图像集、所述第三识别结果以及所述第三损失函数,调整所述第一模态网络的参数,得到调整后的第一模态网络,其中,所述第一模态网络的参数包括第一特征提取分支参数、第二特征提取分支参数以及第三特征提取分支参数,所述调整后的第一模态网络的各分支参数相同。
11.根据权利要求10所述的装置,其特征在于,所述第一图像集中的图像包括第一标注信息,所述第二图像集中的图像包括第二标注信息,所述第四图像集中的图像包括第三标注信息;所述训练子单元还用于:
根据所述第一标注信息、所述第一识别结果、所述第一损失函数以及所述第一特征提取分支的初始参数,得到第一梯度,以及根据所述第二标注信息、所述第二识别结果、所述第二损失函数以及所述第二特征提取分支的初始参数,得到第二梯度,以及根据所述第三标注信息、所述第三识别结果、所述第三损失函数以及所述第三特征提取分支的初始参数,得到第三梯度;
以及将所述第一梯度、所述第二梯度以及所述第三梯度的平均值作为所述第一模态网络的反向传播梯度,并通过所述反向传播梯度调整所述第一模态网络的参数,使所述第一特征提取分支的参数、所述第二特征提取分支的参数以及所述第三特征提取分支的参数相同。
12.根据权利要求8或9所述的装置,其特征在于,所述训练子单元还用于:
从所述第一图像集以及所述第二图像集中分别选取f张图像,使所述f张图像中包含的人数为阈值,得到所述第三图像集;或,
以及从所述第一图像集以及所述第二图像集中分别选取m张图像以及n张图像,使所述m与所述n的比值等于所述第一图像集包含的图像数量与所述第二图像集包含的图像数量的比值,且所述m张图像以及所述n张图像中包含的人数均为所述阈值,得到所述第三图像集;或,
以及从所述第一图像集以及所述第二图像集中分别选取s张图像以及t张图像,使所述s与所述t的比值等于所述第一图像集包含的人数与所述第二图像集包含的人数的比值,且所述s张图像以及所述t张图像中包含的人数均为所述阈值,得到所述第三图像集。
13.根据权利要求8所述的装置,其特征在于,所述训练子单元还用于:
对所述第三图像集中的图像依次进行特征提取处理、线性变换、非线性变换,得到第四识别结果;
以及根据所述第三图像集中的图像、所述第四识别结果以及所述第二模态网络的第四损失函数,调整所述第二模态网络的参数,得到所述跨模态人脸识别网络。
14.根据权利要求8至11、13中任意一项所述的装置,其特征在于,所述第一类别以及所述第二类别分别对应不同人种。
15.一种电子设备,其特征在于,包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时实现权利要求1至7任一项所述的方法。
16.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,实现权利要求1至7任一项所述的方法。
CN201910220321.5A 2019-03-22 2019-03-22 人脸识别方法及装置 Active CN109934198B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201910220321.5A CN109934198B (zh) 2019-03-22 2019-03-22 人脸识别方法及装置
PCT/CN2019/114432 WO2020192112A1 (zh) 2019-03-22 2019-10-30 人脸识别方法及装置
SG11202107826QA SG11202107826QA (en) 2019-03-22 2019-10-30 Facial recognition method and apparatus
JP2020573005A JP7038867B2 (ja) 2019-03-22 2019-10-30 顔認識方法及び装置
TW108145586A TWI727548B (zh) 2019-03-22 2019-12-12 人臉識別方法、電子設備及電腦可讀儲存介質
US17/370,352 US20210334604A1 (en) 2019-03-22 2021-07-08 Facial recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910220321.5A CN109934198B (zh) 2019-03-22 2019-03-22 人脸识别方法及装置

Publications (2)

Publication Number Publication Date
CN109934198A CN109934198A (zh) 2019-06-25
CN109934198B true CN109934198B (zh) 2021-05-14

Family

ID=66988039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910220321.5A Active CN109934198B (zh) 2019-03-22 2019-03-22 人脸识别方法及装置

Country Status (6)

Country Link
US (1) US20210334604A1 (zh)
JP (1) JP7038867B2 (zh)
CN (1) CN109934198B (zh)
SG (1) SG11202107826QA (zh)
TW (1) TWI727548B (zh)
WO (1) WO2020192112A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934198B (zh) * 2019-03-22 2021-05-14 北京市商汤科技开发有限公司 人脸识别方法及装置
KR20190098108A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 지능형 로봇 디바이스를 제어하는 관제 시스템
CN110633698A (zh) * 2019-09-30 2019-12-31 上海依图网络科技有限公司 基于循环生成对抗网络的红外图片识别方法、设备及介质
CN110781856B (zh) * 2019-11-04 2023-12-19 浙江大华技术股份有限公司 异质人脸识别模型训练方法、人脸识别方法及相关装置
KR20210067442A (ko) * 2019-11-29 2021-06-08 엘지전자 주식회사 객체 인식을 위한 자동 레이블링 장치 및 방법
CN111539287B (zh) * 2020-04-16 2023-04-07 北京百度网讯科技有限公司 训练人脸图像生成模型的方法和装置
CN112052792B (zh) * 2020-09-04 2022-04-26 恒睿(重庆)人工智能技术研究院有限公司 一种跨模型人脸识别方法、装置、设备及介质
CN112183480B (zh) * 2020-10-29 2024-06-04 奥比中光科技集团股份有限公司 一种人脸识别方法、装置、终端设备及存储介质
CN112614199A (zh) * 2020-11-23 2021-04-06 上海眼控科技股份有限公司 语义分割图像转换方法、装置、计算机设备和存储介质
CN115761833B (zh) * 2022-10-10 2023-10-24 荣耀终端有限公司 人脸识别方法、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426860A (zh) * 2015-12-01 2016-03-23 北京天诚盛业科技有限公司 人脸识别的方法和装置
CN105608450A (zh) * 2016-03-01 2016-05-25 天津中科智能识别产业技术研究院有限公司 基于深度卷积神经网络的异质人脸识别方法
CN106650573A (zh) * 2016-09-13 2017-05-10 华南理工大学 一种跨年龄的人脸验证方法及***
CN106909905A (zh) * 2017-03-02 2017-06-30 中科视拓(北京)科技有限公司 一种基于深度学习的多模态人脸识别方法
CN107679451A (zh) * 2017-08-25 2018-02-09 百度在线网络技术(北京)有限公司 建立人脸识别模型的方法、装置、设备和计算机存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1967561A (zh) * 2005-11-14 2007-05-23 株式会社日立制作所 性别识别处理器的制作方法、性别识别方法和性别识别装置
US9660995B2 (en) * 2013-02-20 2017-05-23 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for combating device theft with user notarization
CN104143079B (zh) * 2013-05-10 2016-08-17 腾讯科技(深圳)有限公司 人脸属性识别的方法和***
WO2015074157A1 (en) * 2013-11-25 2015-05-28 Ehsan Fazl Ersi System and method for face recognition
JP6476589B2 (ja) * 2014-05-15 2019-03-06 カシオ計算機株式会社 年齢推定装置、撮像装置、年齢推定方法及びプログラム
CN105138973B (zh) * 2015-08-11 2018-11-09 北京天诚盛业科技有限公司 人脸认证的方法和装置
JP2017102671A (ja) * 2015-12-01 2017-06-08 キヤノン株式会社 識別装置、調整装置、情報処理方法及びプログラム
WO2017174982A1 (en) * 2016-04-06 2017-10-12 Queen Mary University Of London Method of matching a sketch image to a face image
CN106056083B (zh) * 2016-05-31 2019-08-13 腾讯科技(深圳)有限公司 一种信息处理方法及终端
US9971958B2 (en) * 2016-06-01 2018-05-15 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating multimodal digital images
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置
US10565433B2 (en) * 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
CN108985135A (zh) * 2017-06-02 2018-12-11 腾讯科技(深圳)有限公司 一种人脸检测器训练方法、装置及电子设备
CN108596138A (zh) * 2018-05-03 2018-09-28 南京大学 一种基于迁移层次网络的人脸识别方法
CN109934198B (zh) * 2019-03-22 2021-05-14 北京市商汤科技开发有限公司 人脸识别方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426860A (zh) * 2015-12-01 2016-03-23 北京天诚盛业科技有限公司 人脸识别的方法和装置
CN105608450A (zh) * 2016-03-01 2016-05-25 天津中科智能识别产业技术研究院有限公司 基于深度卷积神经网络的异质人脸识别方法
CN106650573A (zh) * 2016-09-13 2017-05-10 华南理工大学 一种跨年龄的人脸验证方法及***
CN106909905A (zh) * 2017-03-02 2017-06-30 中科视拓(北京)科技有限公司 一种基于深度学习的多模态人脸识别方法
CN107679451A (zh) * 2017-08-25 2018-02-09 百度在线网络技术(北京)有限公司 建立人脸识别模型的方法、装置、设备和计算机存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Deep Aging Face Verification With Large Gaps;Luoqi Liu et.al;《IEEE TRANSACTIONS ON MULTIMEDIA》;20160131;第18卷(第1期);第64-75页 *
基于卷积神经网络的人脸图像识别研究;李自豪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20190115(第12期);第33-47页 *
基于深度卷积神经网络的跨年龄人脸识别;李亚 等;《北京邮电大学学报》;20170228;第40卷(第1期);第84-88页 *

Also Published As

Publication number Publication date
JP2021530045A (ja) 2021-11-04
WO2020192112A1 (zh) 2020-10-01
CN109934198A (zh) 2019-06-25
JP7038867B2 (ja) 2022-03-18
TWI727548B (zh) 2021-05-11
TW202036367A (zh) 2020-10-01
US20210334604A1 (en) 2021-10-28
SG11202107826QA (en) 2021-08-30

Similar Documents

Publication Publication Date Title
CN109934198B (zh) 人脸识别方法及装置
CN109214343B (zh) 用于生成人脸关键点检测模型的方法和装置
CN108491805B (zh) 身份认证方法和装置
CN108229277B (zh) 手势识别、手势控制及多层神经网络训练方法、装置及电子设备
KR102385463B1 (ko) 얼굴 특징 추출 모델 학습 방법, 얼굴 특징 추출 방법, 장치, 디바이스 및 저장 매체
US8750573B2 (en) Hand gesture detection
US8792722B2 (en) Hand gesture detection
US11429809B2 (en) Image processing method, image processing device, and storage medium
CN108388878A (zh) 用于识别人脸的方法和装置
CN110647938B (zh) 图像处理方法及相关装置
CN108985190B (zh) 目标识别方法和装置、电子设备、存储介质
CN109389076B (zh) 图像分割方法及装置
CN110414593B (zh) 图像处理方法及装置、处理器、电子设备及存储介质
CN111898412A (zh) 人脸识别方法、装置、电子设备和介质
CN112614110B (zh) 评估图像质量的方法、装置及终端设备
CN113408570A (zh) 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端
CN112528866A (zh) 跨模态人脸识别方法、装置、设备及存储介质
CN113269010B (zh) 一种人脸活体检测模型的训练方法和相关装置
CN110610191A (zh) 一种电梯楼层识别方法、装置及终端设备
CN112507897A (zh) 跨模态人脸识别方法、装置、设备及存储介质
CN111382791B (zh) 深度学习任务处理方法、图像识别任务处理方法和装置
CN110909817B (zh) 分布式聚类方法及***、处理器、电子设备及存储介质
CN110839242A (zh) 异常号码识别方法及装置
CN107832690B (zh) 人脸识别的方法及相关产品
CN112214639B (zh) 视频筛选方法、视频筛选装置及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40008432

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: Room 1101-1117, 11 / F, No. 58, Beisihuan West Road, Haidian District, Beijing 100080

Patentee after: BEIJING SENSETIME TECHNOLOGY DEVELOPMENT Co.,Ltd.

Address before: Room 710-712, 7th floor, No. 1 Courtyard, Zhongguancun East Road, Haidian District, Beijing

Patentee before: BEIJING SENSETIME TECHNOLOGY DEVELOPMENT Co.,Ltd.

CP02 Change in the address of a patent holder