CN112001932A - 人脸识别方法、装置、计算机设备和存储介质 - Google Patents
人脸识别方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112001932A CN112001932A CN202010902551.2A CN202010902551A CN112001932A CN 112001932 A CN112001932 A CN 112001932A CN 202010902551 A CN202010902551 A CN 202010902551A CN 112001932 A CN112001932 A CN 112001932A
- Authority
- CN
- China
- Prior art keywords
- face
- pose
- image
- posture
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000003709 image segmentation Methods 0.000 claims abstract description 98
- 230000036544 posture Effects 0.000 claims description 237
- 238000012549 training Methods 0.000 claims description 100
- 241000282414 Homo sapiens Species 0.000 claims description 70
- 238000000605 extraction Methods 0.000 claims description 48
- 238000010586 diagram Methods 0.000 claims description 39
- 230000011218 segmentation Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 15
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 8
- 210000000887 face Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及人工智能的图像识别,提供一种人脸识别方法、装置、计算机设备和存储介质。所述方法包括:获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;对待识别人脸图像进行图像分割,得到人脸区域;识别人脸区域对应的人脸姿态,得到人脸姿态信息;确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。采用本方法能够提高人脸识别的准确性。
Description
技术领域
本申请涉及互联网技术领域,特别是涉及一种人脸识别方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的发展,出现了人脸识别技术,人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。目前,都是通过对人脸图像特征提取,并与已有的人脸特征进行比对进行人脸识别,得到人脸图像识别结果。然而通过对人脸图像特征提取,并与已有的人脸特征进行比对进行人脸识别的方法存在人脸识别准确性低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高人脸识别准确性的人脸识别方法、装置、计算机设备和存储介质。
一种人脸识别方法,所述方法包括:
获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;
对待识别人脸图像进行图像分割,得到人脸区域;
识别人脸区域对应的人脸姿态,得到人脸姿态信息;
确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;
基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
在其中一个实施例中,根据待识别人脸图像识别得到对应的人脸身份匹配度,包括:
将待识别人脸图像输入到人脸识别模型中进行人脸识别,得到人脸身份匹配度;人脸识别模型是将训练人脸图像作为输入,将训练人脸图像对应的人脸身份标注作为标签,使用卷积神经网络进行训练得到的。
在其中一个实施例中,基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果,包括:
获取人脸身份匹配度对应的人脸身份权重和人脸姿态匹配度对应的人脸姿态权重;
根据人脸身份权重和人脸身份匹配度进行加权计算,得到人脸身份加权匹配度;
根据人脸姿态权重和人脸姿态匹配度进行加权计算,得到人脸姿态加权匹配度;
根据人脸身份加权匹配度和人脸姿态加权匹配度得到目标人脸匹配度,当目标人脸匹配度超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别通过。
一种人脸识别装置,所述装置包括:
身份匹配模块,用于获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;
图像分割模块,用于对待识别人脸图像进行图像分割,得到人脸区域;
姿态识别模块,用于识别人脸区域对应的人脸姿态,得到人脸姿态信息;
姿态匹配模块,用于确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;
结果确定模块,用于基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;
对待识别人脸图像进行图像分割,得到人脸区域;
识别人脸区域对应的人脸姿态,得到人脸姿态信息;
确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;
基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;
对待识别人脸图像进行图像分割,得到人脸区域;
识别人脸区域对应的人脸姿态,得到人脸姿态信息;
确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;
基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
上述人脸识别方法、装置、计算机设备和存储介质,通过识别待识别人脸图像得到人脸身份匹配度,然后识别待识别人脸图像的人脸姿态信息,根据人脸姿态信息获取到人脸姿态匹配度,然后根据人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果,即通过使用人脸身份匹配度和人脸姿态匹配度共同作用来确定待识别人脸图像对应的人脸识别结果,即能够使用不同的信息来确定人脸识别结果,提高了得到的人脸识别结果的准确性。
附图说明
图1为一个实施例中人脸识别方法的流程示意图;
图2为一个实施例中确定人脸区域的流程示意图;
图3为一个具体实施例中图像分割模型的结构示意图;
图4为一个具体实施例中图像分割的结果示意图;
图5为一个实施例中训练图像分割模型的流程示意图;
图6为一个实施例中人脸区域姿态识别的流程示意图;
图7为一个具体实施例中人脸姿态识别模型的结构示意图;
图8为一个具体实施例中人脸姿态识别的结果示意图;
图9为一个实施例中训练人脸姿态识别模型的流程示意图;
图10为一个实施例中确定人脸姿态匹配度的流程示意图;
图11为一个实施例中得到分布图的流程示意图;
图12为一个实施例中建立分布图的流程示意图;
图13为一个具体实施例中分布图的示意图;
图14为一个实施例中得到人脸姿态匹配度的流程示意图;
图15为一个实施例中得到目标人脸姿态子区间的流程示意图;
图16为一个实施例中得到人脸识别结果的流程示意图;
图17为一个具体实施例中人脸识别方法的流程示意图;
图18为一个具体实施例中人脸识别解锁的场景示意图;
图19为图18具体实施例中人脸识别解锁成功的界面示意图;
图20为另一个具体实施例中人脸识别解锁的场景示意图;
图21为一个具体实施例中人脸识别方法的应用场景示意图;
图22为图21具体实施例中人脸识别的场景示意图;
图23为一个实施例中人脸识别装置的结构框图;
图24为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本申请实施例提供的方案涉及人工智能的图像识别和深度学习等技术,具体通过如下实施例进行说明:
在一个实施例中,如图1所示,提供了一种人脸识别方法,本实施例以该方法应用于终端进行举例说明,可以理解的是,该方法也可以应用于服务器,还可以应用于包括终端和服务器的***,并通过终端和服务器的交互实现。本实施例中,该方法包括以下步骤::
步骤102,获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度。
其中,人脸图像是指包括有人脸部分的图像,待识别人脸图像是指需要进行识别的人脸图像。人脸身份是预先设置好的人脸对应的身份信息,该身份信息可以包括人脸图像、人脸标识、人脸年龄和人脸性别等等。人脸标识用于唯一标识对应的人脸,可以是名称、身份证号、护照号等等。人脸身份匹配度是指待识别人脸图像通过人脸识别得到的与人脸身份匹配的程度。人脸识别是指基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,通常也叫做人像识别、面部识别。
具体地,终端可以通过摄像装置采集到待识别人脸图像,其中,摄像装置是用于进行图像采集的设备,可以是摄像头、摄像机等等。终端也可以获取到在内存中保存的待识别人脸图像。终端也可以通过即时通讯应用获取到待识别图像,其中,即时通讯应用是指通过即时通讯技术来实现在线聊天、交流的软件,比如,QQ应用、微信应用、钉钉应用、ICQ应用和MSN MESSENGER应用等等。终端也可以从互联网中获取待识别人脸图像,比如,从互联网中视频网络中获取到视频图像,从视频图像中提取到人脸图像。比如,从互联网中直接下载到人脸图像等等。终端在获取到待识别人脸图像时,对待识别人脸图像进行人脸识别进而识别得到对应的人脸身份匹配度,其中,可以使用各种人脸识别算法对待识别人脸图像进行人脸识别,人脸识别算法在检测到人脸并定位面部关键特征点之后,主要的人脸区域就可以被裁剪出来,经过预处理之后,馈入后端的识别算法。识别算法要完成人脸特征的提取,并与库存的已知人脸身份的人脸图像进行比对,完成最终的分类。人脸识别算法包括但不限于基于人脸特征点的识别算法、基于整幅人脸图像的识别算法、基于模板的识别算法、利用神经网络进行识别的算法和.利用支持向量机进行识别的算法。例如,可以是使用基于CNN(Convolutional Neural Networks,卷积神经网络)的神经网络模型对待识别人脸图像进行识别,得到对应的人脸身份匹配度。其中,终端102包括但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、摄像装置以及可以进行人脸识别的设备。
步骤104,对待识别人脸图像进行图像分割,得到人脸区域。
其中,图像分割是指使用图像分割算法对待识别人脸图像进行区域划分。其中,图像分割算法包括但是不限于基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法、基于特定理论的分割方法、基于深度信息的分割方法、基于先验信息的分割方法以及基于神经网络的分割方法等等。人脸区域是指待识别人脸图像中的人脸部分区域。
具体地,终端使用图像分割算法对待识别人脸图像进行图像分割,根据分割后的图像裁剪得到人脸区域。比如,终端可以使用卷积神经网络模型对待识别人脸图像进行图像分割,得到人脸区域。
步骤106,识别人脸区域对应的人脸姿态,得到人脸姿态信息。
其中,人脸姿态是指待识别人脸图像中人脸与摄像装置之间的位置。人脸姿态包括但不限于角度姿态和距离姿态,角度姿态是指待识别人脸图像中人脸与摄像装置之间的角度位置。距离姿态是指待识别人脸图像中人脸与摄像装置之间的距离位置。人脸姿态信息是指人脸姿态的具体信息,包括但不限于距离姿态信息和角度姿态信息。距离姿态信息是指待识别人脸图像中人脸与摄像装置之间的距离位置信息。角度姿态信息是指待识别人脸图像中人脸与摄像装置之间的交底位置信息。
具体地,终端使用预先训练好的人脸姿态识别模型识别人脸区域对应的人脸姿态,得到人脸姿态信息,其中,人脸姿态识别模型是根据训练人脸区域图像和对应的人脸姿态标注使用深度神经网络算法进行训练得到的。其中,人脸姿态识别模型可以是在服务器中预先训练好,然后将人脸姿态识别模型部署到终端中进行使用。人脸姿态识别模型也可以直接在终端中进行训练并部署使用。
步骤108,确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度。
其中,人脸姿态子区间是指将历史用户对应的所有人脸姿态信息建立的区间进行划分后得到的区间。即根据历史用户对应的所有人脸图像中人脸与摄像装置之间的位置建立区间。比如,人脸姿态为距离姿态时,根据人脸图像中人脸与摄像装置最大距离位置和最小距离位置得到距离姿态区间,人脸姿态为角度姿态时,根据人脸图像中人脸与摄像装置最大角度姿态和最小角度姿态得到角度姿态区间。然后将建立的姿态区间进行划分,得到姿态子区间,即得到人脸姿态子区间。比如,姿态区间为距离姿态区间时,将距离姿态区间进行划分得到距离姿态子区间。姿态区间为角度姿态区间时,将角度姿态区间进行划分得到角度姿态子区间。目标人脸姿态子区间是指待识别人脸图像对应的人脸姿态信息所在的人脸姿态子区间。人脸姿态匹配度是指根据目标人脸姿态子区间得到的与人脸身份的匹配程度。预先根据历史用户对应的人脸身份建立各个人脸姿态子区间与人脸姿态匹配度的对应关系。
具体地,终端使用人脸姿态信息匹配对应的人脸姿态子区间,得到目标人脸姿态子区间。比如,当人脸姿态信息为距离姿态信息时,匹配对应的距离姿态子区间,当人脸姿态信息为角度姿态信息时,匹配对应的角度姿态子区间。然后终端根据保存的人脸姿态子区间与人脸姿态匹配度的对应关系获取到目标人脸姿态子区间对应的人脸姿态匹配度。即将目标人脸姿态子区间与保存的各个人脸姿态子区间进行匹配,获取到匹配一致的人脸姿态子区间对应的人脸姿态匹配度。
步骤110,基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
其中,人脸识别结果是指待识别人脸图像中人脸与人脸身份是否一致的结果。当待识别人脸图像中人脸与人脸身份一致时,得到人脸识别结果为人脸识别通过。当待识别人脸图像中人脸与人脸身份未一致时,得到人脸识别结果为人脸识别未通过。
具体的,终端判断当人脸身份匹配度超过预设人脸身份匹配度阈值且人脸姿态匹配度超过预设人脸姿态匹配度阈值时,说明待识别人脸图像中人脸与人脸身份一致,则得到人脸识别结果为人脸识别通过。终端判断当人脸身份匹配度未超过预设人脸身份匹配度阈值或者人脸姿态匹配度未超过预设人脸姿态匹配度阈值时,说明待识别人脸图像中人脸与人脸身份未一致,则得到人脸识别结果为人脸识别未通过。其中,预设人脸身份匹配度阈值是指预先设置好的人脸身份匹配度的阈值,预设人脸姿态匹配度阈值是指预先设置好的人脸姿态匹配度的阈值,用于判断待识别人脸图像中人脸与人脸身份是否一致。
在一个实施例中,可以根据人脸身份匹配度和人脸姿态匹配度进行加权求和计算,得到加权求和计算结果,当加权求和计算结果超过预先设置好的阈值时,说明待识别人脸图像中人脸与人脸身份一致,则得到人脸识别结果为人脸识别通过。当加权求和计算结果未超过预先设置好的阈值时,说明待识别人脸图像中人脸与人脸身份未一致,则得到人脸识别结果为人脸识别未通过。
在一个实施例中,终端可以采集到待识别人脸图像,终端将待识别人脸图像发送到服务器中,该服务器可以是与终端对应的提供人脸识别服务的服务器,比如,云服务器等等。服务器接收到待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度,对待识别人脸图像进行图像分割,得到人脸区域,识别人脸区域对应的人脸姿态,得到人脸姿态信息。确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度,基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。服务器将待识别人脸图像对应的人脸识别结果返回到终端,终端显示待识别人脸图像对应的人脸识别结果,通过服务器得到待识别人脸图像对应的人脸识别结果,可以提高效率。
上述人脸识别方法,通过识别待识别人脸图像得到人脸身份匹配度,然后识别待识别人脸图像的人脸姿态信息,根据人脸姿态信息获取到人脸姿态匹配度,然后根据人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果,即通过使用人脸身份匹配度和人脸姿态匹配度共同作用来确定待识别人脸图像对应的人脸识别结果,即能够使用不同的信息来确定人脸识别结果,提高了得到的人脸识别结果的准确性。
在一个实施例中,在步骤110之后,在基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果之后,还包括步骤:
当人脸识别结果为人脸识别通过时,根据人脸识别通过结果执行对应的目标操作。
其中,目标操作是指终端响应人脸识别通过结果执行的操作。比如,目标操作可以是解锁操作、支付操作、登录操作、关机操作、预警操作、终端开闸操作和记录操作等等。
具体地,终端当检测到人脸识别结果为人脸识别通过时,根据人脸识别通过结果执行对应的解锁操作,其中,当终端为智能手机时,该解锁操作是指将终端屏幕从锁定状态中切换到解锁状态下,该锁定状态是指智能手机无法被正常使用的状态,解锁状态是指智能手机能够正常使用的状态。在一个实施例中,该解锁操作还可以是对智能电子门禁进行解锁,比如,当人类识别结果为人脸识别通过时,根据人脸识别通过结果向智能电子门禁发送解锁指令,智能电子门禁接收到解锁指令执行解锁操作打开门禁。在一个实施例中,支付操作是指进行人脸支付的操作。即当人脸识别结果为人脸识别通过时,执行电子支付操作进行电子支付。在一个实施例中,当人脸识别结果为人脸识别通过时,执行登录操作进入对应的需要进行登录的网站和APP应用中。登录操作是指进行应用程序登录的操作。在一个实施例中,当人脸识别结果为人脸识别通过时,终端执行关机操作进行关机。在一个实施例中,当人脸识别结果为人脸识别通过时,终端执行预警操作进行人脸身份预警提示,预警操作是指人脸识别监控设备进行的预警操作。在一个实施例,当人脸识别结果为人脸识别通过时,终端执行记录操作记录当前时间点和对应的人脸身份。
在一个实施例中,当人脸识别结果为人脸识别未通过时,记录待识别人脸图像对应的人脸识别结果为人脸识别未通过。
在上述实施例中,当人脸识别结果为人脸识别通过时,根据人脸识别通过结果执行对应的目标操作,由于得到的人脸识别结果更加准确,从而能够更加准确的得到对应的目标操作进行执行,方便后续的使用。
在一个实施例中,步骤102,根据待识别人脸图像识别得到对应的人脸身份匹配度,包括:
将待识别人脸图像输入到人脸识别模型中进行人脸识别,得到人脸身份匹配度;人脸识别模型是将训练人脸图像作为输入,将所述训练人脸图像对应的人脸身份标注作为标签,使用卷积神经网络进行训练得到的。
其中,训练人脸图像是指训练人脸识别模型使用的人脸图像。该训练人脸图像可以是互联网上用于人脸识别模型训练的各种人脸图像数据集,比如,PubFig(PublicFigures Face Database,哥伦比亚大学公众人物脸部数据库)数据集、CelebA(CelebFacesAttributes Dataset,大型的人脸属性数据集)数据集、Colorferet数据集和FDDB(FaceDetection Data Set and Benchmark,人脸检测评测集合)数据集等等。该训练人脸图像也可以是直接从服务器数据库中获取到的人脸图像。该训练人脸图像还可以是通过摄像装置进行采集得到人脸图像。人脸身份标注用于唯一标识训练人脸图像的人脸身份。卷积神经网络是指一类包含卷积计算且具有深度结构的前馈神经网络,该卷积神经网络包括输入层、卷积层、池化层、全连接层和输出层。卷积神经网络的激活函数包括但不限于线性整流函数(Rectified Linear Unit,ReLU)、有斜率的ReLU(Leaky ReLU,LReLU)、参数化的ReLU(Parametric ReLU,PReLU)、随机化的ReLU(Randomized ReLU,RReLU)、指数线性单元(Exponential Linear Unit,ELU)、Sigmoid函数和双曲正切函数。该卷积神经网络可以是使用MSE均方误差损失函数,SVM(支持向量机)合页损失函数,Cross Entropy交叉熵损失函数等等。
具体地,终端中部署有人脸识别模型,该人脸识别模型可以是预先在服务器中将训练人脸图像作为卷积神经网络的输入,将训练人脸图像对应的人脸身份标注作为卷积神经网络的标签,进行训练得到的。当终端获取到待识别人脸图像时,将待识别人脸图像输入到人脸识别模型中进行人脸识别,得到人脸身份匹配度,其中,可以将待识别人脸图像进行归一化处理,将归一化处理后的人脸图像输入到人脸识别模型中进行识别。
在上述实施例中,通过部署的人脸识别模型进行人脸识别,提高了人脸识别的效率和准确性。
在一个实施例中,如图2所示,步骤104,对待识别人脸图像进行图像分割,得到人脸区域,包括:
步骤202,将待识别人脸图像输入到图像分割模型的分割特征提取网络中,得到图像分割特征。
其中,图像分割模型用于进行人脸图像的分割得到人脸区域,是根据带有人脸边界标注的训练人脸图像使用深度神经网络模型进行训练得到的,其中,损失函数使用的交叉熵损失函数,激活函数使用的是ReLU函数。分割特征提取网络是指对待识别图像进行图像特征提取的网络。图像分割特征是指通过分割特征提取网络对待识别人脸图像进行卷积得到的特征图。
具体地,终端将待识别人脸图像输入到图像分割模型的分割特征提取网络中,分割特征提取网络对待识别人脸图像进行卷积运算得到图像分割特征。
步骤204,将图像分割特征输入到图像分割模型的图像分类网络中,得到人脸像素点和非人脸像素点,根据人脸像素点和非人脸像素点确定人脸区域。
其中,图像分类网络用于对图像进行分类,可以是使用SVM算法得到的分类网络。人脸像素点是指待识别人脸图像中属于人脸区域的像素点。非人类像素点是指待识别人脸图像中不属于人类区域的像素点。
具体地,服务器将图像分割特征输入到图像分割模型的图像分类网络中进行分类,得到各个人脸像素点和各个非人脸像素点,将各个人脸像素点组成的区域确定为人脸区域。
在一个具体的实施例中,如图3所示,为图像分割模型的结构示意图,具体来说,终端将待识别人脸图像输入到CNN卷积神经网络中进行特征提取,其中,CNN同卷积层对输入的待识别人脸图像进行卷积,然后通过池化层进行池化,最后通过全连通层输出特征向量,将特征向量通过SVM进行分类,得到分类结果,即确定人脸区域。例如,如图4所示,为对待识别人脸图像通过人脸识别模型进行识别后得到的人脸区域示意图。
在上述实施例中,通过使用图像分割模型的分割特征提取网络,得到图像分割特征图像分类网络中,得到人脸像素点,根据人脸像素点确定人脸区域,从而使得到的人脸区域更加的准确。
在一个实施例中,如图5所示,图像分割模型的训练包括以下步骤:
步骤502,获取带有人脸边界标注的训练人脸图像。
其中,人脸边界标注用于标识训练人脸图像中的人脸部分。
具体地,终端可以获取到带有人脸边界标注的训练人脸图像,终端可以从第三方提供训练人脸图像的服务方获取到带有人脸边界标注的训练人脸图像,终端也可以采集到训练人脸图像进行人脸边界标注后得到带有人脸边界标注的训练人脸图像。终端还可以从服务器数据库中获取到存储的带有人脸边界标注的训练人脸图像。
步骤504,将训练人脸图像输入初始图像分割模型的初始分割特征提取网络中,得到初始图像分割特征。
其中,初始图像分割模型是指模型参数初始化的图像分割模型。初始分割特征提取网络是指网络参数初始化的分割特征提取网络。初始图像分割特征是指使用初始化网络参数计算得到的图像分割特征。
具体地,服务器建立初始图像分割模型,将训练人脸图像输入初始图像分割模型的初始分割特征提取网络中进行特征提取,得到初始图像分割特征。
步骤506,将初始图像分割特征输入到初始图像分割模型的初始图像分类网络中,得到初始人脸像素点和初始非人脸像素点,根据初始人脸像素点和初始非人脸像素点确定初始人脸区域图像。
其中,初始图像分类网络是指网络参数初始化的图像分类网络。初始人脸像素点是指使用初始图像分类网络分类识别得到的人脸像素点。初始非人脸像素点是指使用初始图像分类网络分类识别得到的非人脸像素点。初始人脸区域图像是指通过初始图像分割模型进行分类识别得到的人脸区域图像。
具体地,服务器将初始分割特征提取网络输出的初始图像分割特征输入到初始图像分割模型的初始图像分类网络中进行分类,得到各个初始人脸像素点和各个初始非人脸像素点,根据各个初始人脸像素点和各个初始非人脸像素点从待识别人脸图像中划分出初始人脸区域图像。
步骤508,计算初始人脸区域与人脸边界标注的区域误差信息,直到训练得到的区域误差信息符合预设训练完成条件时,得到图像分割模型。
其中,区域误差信息用于表示初始人脸区域与人脸边界标注之间的误差。预设训练完成条件是指预先设置好的图像分割模型的训练完成条件,可以是区域误差信息小于预先设置好的阈值,也可以是训练迭代次数达到了最大迭代此时。
具体地,终端使用损失函数计算初始人脸区域与人脸边界标注的区域误差信息,判断区域误差信息是否符合预设训练完成条件,当未符合预设训练完成条件时,使用区域误差信息对初始图像分割模型的模型参数进行更新,即使用反向传播算法对初始图像分割模型进行反向传播计算,得到更新后的图像分割模型,然后使用更新后的图像分割模型再次进行迭代训练,即返回到步骤502继续进行执行,直到训练得到的区域误差信息符合预设训练完成条件时,将最后一次更新后的图像分割模型作为训练完成时得到的图像分割模型。终端将训练完成的图像分割模型进行部署并使用。
在一个实施例中,终端可以获取到带有人脸边界标注的训练人脸图像,将带有人脸边界标注的训练人脸图像发送到服务器,服务器接收到带有人脸边界标注的训练人脸图像,将训练人脸图像输入初始图像分割模型的初始分割特征提取网络中,得到初始图像分割特征,将初始图像分割特征输入到初始图像分割模型的初始图像分类网络中,得到初始人脸像素点和初始非人脸像素点,根据初始人脸像素点和初始非人脸像素点确定初始人脸区域图像。计算初始人脸区域与人脸边界标注的区域误差信息,直到训练得到的区域误差信息符合预设训练完成条件时,得到图像分割模型,然后将图像分割模型部署到终端中进行使用,在服务器中进行图像分割模型的训练,能够提高训练效率。在一个实施例中,服务器可以通过调用接口调用服务器中部署的图像分割模型进行使用。
在上述实施例中,通过使用带有人脸边界标注的训练人脸图像进行训练得到图像分割模型,然后进行部署使用,提高得到人脸识别结果的效率。
在一个实施例中,步骤106,识别人脸区域图像对应的人脸姿态,得到人脸姿态信息,包括:
将人脸区域图像输入到人脸姿态识别模型中进行识别,得到人脸姿态信息,人脸姿态识别模型是根据训练人脸区域图像和对应的人脸姿态标注使用多任务回归模型进行训练得到的。
其中,训练人脸区域图像是指训练人脸姿态识别模型的人脸区域图像。该人脸区域图像可以是从训练人脸图像中裁剪得到的图像。人脸姿态标注用于标识出人脸区域图像对应的人脸姿态信息。多任务回归模型是指通过深度神经网络进行多任务学习得到的模型。多任务学习是基于共享表示,把多个相关的任务放在一起学习的一种机器学习方法。
具体地,终端中部署有人脸姿态识别模型,该人脸姿态识别模型可以是终端预先根据训练人脸区域图像和对应的人脸姿态标注使用多任务回归模型进行训练得到的,也可以是服务器根据训练人脸区域图像和对应的人脸姿态标注使用多任务回归模型进行训练得到,其中,训练时使用的损失函数为交叉熵损失函数,激活函数使用的是RELU函数。然后服务器将人脸姿态识别模型部署到终端中的。还可以是终端通过调用接口调用服务器中部署的人脸姿态识别模型。终端将人脸区域图像输入到人脸姿态识别模型中进行识别,得到人脸姿态信息。
在上述实施例中,通过人脸姿态识别模型进行人脸姿态识别,得到人脸姿态信息,提高了得到人脸姿态信息的效率。
在一个实施例中,人脸姿态信息包括距离姿态信息和角度姿态信息,人脸姿态识别模型包括姿态特征提取网络、距离姿态识别网络和角度姿态识别网络。
如图6所述,将人脸区域图像输入到人脸姿态识别模型中进行识别,得到人脸姿态信息,包括:
步骤602,将人脸区域图像输入到姿态特征提取网络中进行特征提取,得到人脸姿态特征。
其中,距离姿态信息是指待识别人脸图像中人脸与摄像装置之间的距离位置信息。角度姿态信息是指待识别人脸图像中人脸与摄像装置之间的交底位置信息。姿态特征提取网络是用于从人脸区域图像中提取到图像姿态特征的卷积神经网络。距离姿态识别网络是用于识别距离姿态信息的全联通神经网络。角度姿态识别网络用于识别角度姿态信息的全联通神经网络。
具体地,终端将人脸区域图像输入到姿态特征提取网络中进行特征提取,得到人脸姿态特征。
步骤604,将人脸姿态特征输入到距离姿态识别网络中进行识别,得到距离姿态信息,并同时将人脸姿态特征输入到角度姿态识别网络中识别,得到角度姿态信息。
具体地,终端将通过姿态特征提取网络提取到的人脸姿态特征输入到距离姿态识别网络中进行识别,得到距离姿态信息,并同时将人脸姿态特征输入到角度姿态识别网络中识别,得到角度姿态信息。
在一个具体的实施例中,如图7所示,为人脸姿态识别模型的结构示意图,具体来说:终端将人脸区域图像输入到CNN网络中,通过卷积层、池化层和全联通层进行运算,得到人脸姿态特征,其中,全联通层即是全连接层。然后将人脸姿态特征分别输入到基于全联通的距离姿态识别网络和基于全联通的角度姿态识别网络中进行识别,即通过全联通层、Dropout层(防止模型过拟合)以及Relu层(非线性激励函数层)得到输出结果,将输出结果通过多层感知机进行回归处理,得到对应的输出结果,即距离姿态信息和角度姿态信息。例如,如图8所示,得到的人脸姿态信息示意图,其中,对人脸区域图像进行人脸姿态识别后,得到的距离姿态信息为30厘米和角度姿态信息为30度。
在一个实施例中,人脸姿态信息包括但不限于距离姿态信息、角度姿态信息和三维坐标姿态信息,该三维坐标姿态信息是指人脸在三维空间中脸部朝向的角度信息,包括俯仰角坐标信息、偏航角坐标信息和翻滚角坐标信息。人脸姿态识别模型包括姿态特征提取网络、距离姿态识别网络、角度姿态识别网络和三维坐标姿态识别网络,终端将人脸姿态特征输入到距离姿态识别网络中进行识别,得到距离姿态信息,并同时将人脸姿态特征输入到角度姿态识别网络中识别,得到角度姿态信息,以及同时将人脸姿态特征输入到三维坐标姿态识别网络中识别,得到三维坐标姿态信息。其中,三维坐标姿态识别网络用于识别人脸区域图像中的三维坐标姿态信息。
在上述实施例中,通过姿态特征提取网络中进行特征提取,得到人脸姿态特征,然后通过距离姿态识别网络和角度姿态识别网络进行识别,得到距离姿态信息和角度姿态信息,提高了得到的距离姿态信息和角度姿态信息的准确性和效率。
在一个实施例中,如图9所示,人脸姿态识别模型的训练包括以下步骤:
步骤902,获取训练数据,训练数据包括人脸区域图像和对应的人脸姿态标注。
具体地,终端可以直接从服务器中获取到训练数据。终端也可以采集到人脸图像,得到人脸区域图像,并同时记录采集时的人脸姿态信息作为人类姿态标注。终端还可以从互联网提供训练数据的服务方中获取到训练数据。
步骤904,将人脸区域图像输入到初始人脸姿态识别模型的初始姿态特征提取网络中进行特征提取,得到初始人脸姿态特征。
其中,初始人脸姿态识别模型是指模型参数初始化的人脸姿态识别模型。初始姿态特征提取网络是指网络参数初始化的姿态特征提取网络。初始人脸姿态特征是指通过初始姿态特征提取网络中的初始化网络参数运算得到的人脸姿态特征。
具体地,终端建立初始人脸姿态识别模型,然后将人脸区域图像输入到初始人脸姿态识别模型的初始姿态特征提取网络中进行特征提取,得到初始人脸姿态特征。
步骤906,将初始人脸姿态特征输入到初始人脸姿态识别模型的初始距离姿态识别网络中进行识别,得到初始距离姿态信息,并同时将人脸姿态特征输入到初始人脸姿态识别模型的初始角度姿态识别网络中进行识别,得到初始角度姿态信息,根据初始距离姿态信息和初始角度姿态信息得到初始人脸姿态信息。
其中,初始距离姿态识别网络是指网络参数初始化的距离姿态识别网络。初始距离姿态信息是指使用初始化角度姿态识别网络中的初始化网络参数进行运算得到的距离姿态信息。初始角度姿态识别网络是指网络参数初始化的角度姿态识别网络。初始角度姿态信息是指使用初始角度姿态识别网络中的初始化网络参数进行运算得到的角度姿态信息。
具体地,服务器使用初始人脸姿态特征进行多任务学习,即通过初始距离姿态识别网络和初始角度姿态识别网络识别得到初始距离姿态信息和初始角度姿态信息。然后将初始距离姿态信息和初始角度姿态信息作为初始人脸姿态信息。
步骤908,计算初始人脸姿态信息与人脸姿态标注的姿态误差信息,直到训练得到的姿态误差信息符合预设姿态误差条件时,得到人脸姿态识别模型。
其中,姿态误差信息是指初始人脸姿态信息与人脸姿态标注之间的误差。预设姿态误差条件是指姿态误差信息小于预设姿态误差阈值或者训练达到最大迭代次数。
具体地,终端使用预先设置好的损失函数计算初始人脸姿态信息与人脸姿态标注的姿态误差信息,并判断姿态误差信息是否符合预设姿态误差条件,当未符合预设姿态误差条件,使用姿态误差信息进行反向传播算法对初始人脸姿态识别模型的模型参数进行更新,得到更新后的人脸姿态识别模型,使用更新后的人脸姿态识别模型继续进行迭代执行即返回步骤904继续进行执行,直到训练得到的姿态误差信息符合预设姿态误差条件时,将最后一次更新后的人脸姿态识别模型作为人脸姿态识别模型。
在上述实施例中,通过预先使用训练数据进行训练,从而得到人脸姿态识别模型,然后将人脸姿态识别模型进行部署,在使用时可以直接进行使用,提高效率。
在一个实施例中,如图10所示,在步骤102之前,即在获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度之前,还包括:
步骤1002,获取用户标识执行目标操作时对应的各个历史人脸姿态信息。
其中,用户标识用于唯一标识用户对应的终端。历史人脸姿态信息是指用户标识对应的用户终端在历史执行目标操嘴时的人脸姿态信息。
具体地,终端可以从服务器数据库中获取到用户标识执行目标操作时对应的各个历史人脸姿态信息,终端可以从内存中获取到保存的用户标识执行目标操作时对应的各个历史人脸姿态信息,即每次终端在执行目标操作时,采集人脸姿态信息并保存。终端也可以从互联网提供历史人脸姿态信息的服务方中获取。其中,用户标识每次在执行目标操作时都会对应有历史人脸姿态信息。
步骤1002,根据各个历史人脸姿态信息确定用户标识对应的人脸姿态总区间。
其中,人脸姿态总区间用于表示历史人脸姿态信息所处的区间范围。
具体地,当历史人脸姿态信息为历史距离姿态信息时,终端比较各个历史距离姿态信息确定最大和最小的历史距离姿态信息,根据最大和最小的历史距离姿态信息得到人脸距离总区间。当历史人脸姿态信息为历史角度姿态信息时,比较各个历史角度姿态信息确定最大和最小的历史角度姿态信息,根据最大和最小的历史角度姿态信息得到人脸角度总区间。
在一个实施例中,当历史人脸姿态信息为三维坐标姿态信息时,比较三维坐标姿态信息,确定三维坐标姿态信息中每个维度坐标的最大值和最小值,得到人脸三维坐标总区间。
步骤1002,将人脸姿态总区间进行划分,得到各个人脸姿态子区间。
其中,人脸姿态子区间是将人脸姿态总区间进行划分后得到的区间范围,该区间范围是小于人脸姿态总区间的区间范围的。
具体地,终端将人脸姿态总区间按照预设姿态划分条件进行划分,得到各个人脸姿态子区间。其中,预设姿态划分条件是指预先设置好的姿态划分条件,
步骤1002,根据各个历史人脸姿态信息确定各个人脸姿态子区间对应的人脸姿态匹配度,将各个人脸姿态子区间与对应的人脸姿态匹配度关联保存。
具体地,将各个历史人脸姿态信息与各个人脸姿态子区间进行匹配,确定每个历史人脸姿态信息对应的人脸姿态子区间,根据各个历史人脸姿态信息的总数和人脸姿态子区间中历史人脸姿态信息数量确定人脸姿态子区间对应的人脸姿态匹配度,然后将各个人脸姿态子区间与对应的人脸姿态匹配度关联保存。
在上述实施例中,通过根据各个历史人脸姿态信息确定用户标识对应的人脸姿态总区间,将人脸姿态总区间进行划分,得到各个人脸姿态子区间,根据各个历史人脸姿态信息确定各个人脸姿态子区间对应的人脸姿态匹配度,从而使得到的人脸姿态匹配度更加的准确。然后将各个人脸姿态子区间与对应的人脸姿态匹配度关联保存,方便后续的使用。
在一个实施例中,人脸姿态总区间包括人脸距离总区间和人脸角度总区间。
如图11所示,步骤1002,将人脸姿态总区间进行划分,得到各个人脸姿态子区间,包括:
步骤1102,将人脸距离总区间进行划分,得到各个人脸距离子区间。
其中,人脸距离子区间是将人脸距离总区间进行划分后得到的区间。
具体地,当对人脸距离总区间进行划分时,可以按照预先设置好的距离划分大小进行区间划分,比如,按照4厘米的大小进行区间划分,可以将人脸距离总区间10厘米到50厘米划分为10个区间。
步骤1104,将人脸角度总区间进行划分,得到各个人脸角度子区间。
其中,人脸角度子区间是指将人脸角度总区间进行划分后得到的区间。
具体地,当对人脸角度总区间进行划分时,可以按照预先设置好的角度划分大小进行区间划分。比如,按照3度的大小进行区间划分,可以将人脸角度总区间30度到60度划分为10个区间。
在一个实施例中,终端在对人脸三维坐标总区间进行划分时,可以按照预先设置好的坐标值进行区间划分,比如,可以按照4坐标值进行区间划分。
步骤1106,将各个人脸距离子区间和各个人脸角度子区间进行组合,得到人脸姿态子区间的分布图。
其中,分布图用于表示人脸姿态子区间的分布状态。
具体地,终端可以将各个人脸距离子区间与各个人脸角度子区间进行组合,进行组合是指将各个人脸距离子区间和各个人脸角度子区间组合成平面区域,即得到了人脸姿态子区间的分布图。
在上述实施例中,通过将人脸角度总区间和人脸距离总区间进行划分,得到各个人脸距离子区间和各个人脸角度子区间,然后将各个人脸距离子区间和各个人脸角度子区间进行组合,得到人脸姿态子区间的分布图,使得到的人脸姿态子区间更加的准确。
在一个实施例中,如图12所示,步骤1106,将各个人脸距离子区间和各个人脸角度子区间进行组合,得到人脸姿态子区间的分布图,包括:
步骤1202,根据人脸距离总区间和人脸角度总区间建立平面区域。
其中,平面区域是指由人脸距离总区间和人脸角度总区间形成的平面。
具体地,终端可以将人脸距离总区间作为平面横坐标范围,将人脸角度总区间作为平面纵坐标范围,建立平面区域。终端也可以将人脸角度总区间作为平面横坐标范围,将人脸距离总区间作为平面纵坐标范围建立平面区域。
步骤1204,在平面区域中按照各个人脸距离子区间和各个人脸角度子区间进行区域划分,得到各个人脸姿态子区间对应的平面子区域。
步骤1206,根据各个平面子区域组成人脸姿态子区间的分布图。
其中,平面子区域是指人脸姿态子区间对应的区域,是平面区域中的一部分。
具体地,终端可以将平面区域中的平面横坐标范围按照各个人脸距离子区间的范围进行划分,将平面区域中的平面纵坐标范围按照各个人脸角度子区间的范围进行划分,得到各个人脸姿态子区间对应的平面子区域。终端还可以将平面区域中的平面横坐标范围按照各个人脸角度子区间的范围进行划分,将平面区域中的平面纵坐标范围按照各个人脸距离子区间的范围进行划分,得到各个人脸姿态子区间对应的平面子区域。最后,终端根据各个平面子区域组成人脸姿态子区间的分布图。
在一个具体的实施例中,如图13所示,建立的人脸姿态子区间的分布示意图,其中,人脸距离总区间为10厘米到60厘米和人脸角度总区间为30度到60度,建立平面区域,然后将人脸距离总区间作为平面纵坐标,将人脸角度总区间作为平面横坐标,按照10厘米的区间将人脸距离总区间进行划分并按照6度的区间将人脸角度总区间进行划分,得到各个人脸姿态子区间对应的平面子区域即图中的每个方格。然后就得到了人脸姿态子区间的分布图。在确定人脸姿态信息对应的人脸姿态子区间时,根据人脸距离信息和人脸角度信息确定对应的区间,然后得到对应的分布图中的格子,即得到对应的人脸姿态子区间。
在上述实施例中,通过建立平面区域,然后将平面区域进行区域划分,得到人脸姿态子区间的分布图,提高了得到分布图的准确性。
在一个实施例中,如图14所示,步骤1008,根据各个历史人脸姿态信息确定各个人脸姿态子区间对应的人脸姿态匹配度,包括:
步骤1402,统计各个历史人脸姿态信息的总数。
步骤1406,确定与各个历史人脸姿态信息匹配的人脸姿态子区间,并统计各个人脸姿态子区间中历史人脸姿态信息的数量。
具体地,终端统计用户标识对应的各个历史人脸姿态信息的总数,然后将确定每个历史人脸姿态信息对应的人脸姿态子区间,即将各个历史人脸姿态信息划分到对应的人脸姿态子区间。并统计落入每个人脸姿态子区间中的历史人脸姿态信息的数量。
步骤1408,根据各个人脸姿态子区间中历史人脸姿态信息的数量和总数计算得到各个人脸姿态子区间对应的人脸姿态匹配度。
具体地,终端计算各个人脸姿态子区间中历史人脸姿态信息的数量与总数的比值,将比值作为各个人脸姿态子区间对应的人脸姿态匹配度。终端也可以使用如下所示的公式(1)进行计算。
在一个具体的实施例中,如图13所示,在30到40厘米和36度到42度的格子中落入了40个历史人脸姿态信息,而历史人脸姿态信息的总数为100。则30到40厘米和36度到42度对应的格子的人脸姿态匹配度为40/100=0.4。计算出分布图中每个格子的人脸姿态匹配度就得到了各个人脸姿态子区间对应的人脸姿态匹配度。
在上述实施例中,通过统计各个历史人脸姿态信息的总数和各个人脸姿态子区间中历史人脸姿态信息的数量,从而计算得到各个人脸姿态子区间对应的人脸姿态匹配度,提高了得到人脸姿态匹配度的效率。
在一个实施例中,人脸姿态信息包括人脸距离姿态参数和人脸角度姿态参数。如图15所示,步骤108,确定与人脸姿态信息匹配的目标人脸姿态子区间,包括:
步骤1502,获取已建立的分布图。
具体地,终端可以是从服务器数据库中获取到的已建立的人脸姿态子区间的分布图,终端也可以是直接从内存中获取到保存的已建立的分布图。
步骤1504,根据人脸姿态信息中的人脸距离姿态参数和人脸角度姿态参数从分布图中确定目标平面子区域。
其中,人脸距离姿态参数是指具体的人脸到摄像装置之间的距离值。人脸角度姿态参数是指人脸到摄像装置之间的角度值。目标平面子区域是指待识别人脸图像的人脸姿态信息对应的平面子区域。
具体地,根据人脸姿态信息中的人脸距离姿态参数和人脸角度姿态参数确定所在的人脸距离子区间和人脸角度子区间,然后根据人脸距离子区间和人脸角度子区间从分布图中确定目标平面子区域。比如,人脸姿态信息中的人脸距离姿态参数为18厘米,人脸角度姿态参数为45度,则确定人脸距离子区间为10厘米到20厘米的区间,确定人脸角度子区间为42度到48度的区间,然后从分布图中确定目标平面子区域。
步骤1506,获取目标平面子区域对应的人脸姿态子区间作为目标人脸姿态子区间。
具体地,终端获取到目标平面子区域对应的人脸姿态子区间作为目标人脸姿态子区间。
在上述实施例中,通过根据已建立的分布图确定人脸姿态信息对应的平面子区域,然后获取到目标平面子区域对应的人脸姿态子区间作为目标人脸姿态子区间,提高了得到目标人脸姿态子区间的效率。
在一个实施例中,如图16所示,步骤110,基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果,包括:
步骤1602,获取人脸身份匹配度对应的人脸身份权重和人脸姿态匹配度对应的人脸姿态权重。
其中,人脸身份权重是预先设置好的人脸身份匹配度对应的权重,人脸姿态权重是预先设置好的人脸姿态匹配度对应的权重。
具体地,终端从内存中获取到人脸身份匹配度对应的人脸身份权重和人脸姿态匹配度对应的人脸姿态权重。
步骤1604,根据人脸身份权重和人脸身份匹配度进行加权计算,得到人脸身份加权匹配度。
步骤1606,根据人脸姿态权重和人脸姿态匹配度进行加权计算,得到人脸姿态加权匹配度。
步骤1608,根据人脸身份加权匹配度和人脸姿态加权匹配度得到目标人脸匹配度,当目标人脸匹配度超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别通过。
其中,人脸身份加权匹配度是指将人脸身份匹配度加权之后得到的匹配度。人脸姿态加权匹配度是指将人脸姿态匹配度加权之后得到的匹配度。目标人脸匹配度用于表示待识别人脸图像与人脸身份的匹配程度。预设阈值是指预先设置好的目标人脸匹配度阈值。
具体地,终端可以根据人脸身份权重和人脸身份匹配度进行加权计算,得到人脸身份加权匹配度。根据人脸姿态权重和人脸姿态匹配度进行加权计算,得到人脸姿态加权匹配度,然后根据人脸身份加权匹配度和人脸姿态加权匹配度进行平均计算,得到目标人脸匹配度,判断目标人脸匹配度是否超过预设阈值,当目标人脸匹配度超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别通过,当目标人脸匹配度未超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别未通过。在一个实施例中,也可以直接使用如下所示的公式(2)计算得到目标人脸匹配度。
目标人脸匹配度=人脸姿态匹配度*w1+人脸身份匹配度*w2公式(2)
其中,w1为人脸姿态权重,w2为人脸身份权重。
在上述实施例中,分别对人脸姿态匹配度和人脸身份匹配度进行加权计算得到最终的目标人脸匹配度,然后根据目标人脸匹配度得到人脸识别结果,使得到的人脸识别结果更加准确。
在一个具体的实施例中,如图17所示,人脸识别方法具体包括以下步骤:
1702,获取用户标识执行目标操作时对应的各个历史人脸姿态信息,根据各个历史人脸姿态信息确定用户标识对应的人脸姿态总区间,人脸姿态总区间包括人脸距离总区间和人脸角度总区间。
1704,将人脸距离总区间和人脸角度总区间进行划分得到各个人脸距离子区间和各个人脸角度子区间,根据人脸距离总区间和人脸角度总区间建立平面区域,在平面区域中按照各个人脸距离子区间和各个人脸角度子区间进行区域划分,得到各个人脸姿态子区间对应的平面子区域,根据各个平面子区域组成人脸姿态子区间的分布图。
1706,统计各个历史人脸姿态信息的总数,确定与各个历史人脸姿态信息匹配的人脸姿态子区间,并统计各个人脸姿态子区间中历史人脸姿态信息的数量,根据各个人脸姿态子区间中历史人脸姿态信息的数量和总数计算得到各个人脸姿态子区间对应的人脸姿态匹配度,将各个人脸姿态子区间与对应的人脸姿态匹配度关联保存。
1708,获取待识别人脸图像,将待识别人脸图像输入到人脸识别模型中进行人脸识别,得到人脸身份匹配度。
1710,将待识别人脸图像输入到图像分割模型的分割特征提取网络中,得到图像分割特征,将图像分割特征输入到图像分割模型的图像分类网络中,得到人脸像素点和非人脸像素点,根据人脸像素点和非人脸像素点确定人脸区域。
1712,将人脸区域图像输入到人脸姿态识别模型中的姿态特征提取网络中进行特征提取,得到人脸姿态特征。将人脸姿态特征输入到人脸姿态识别模型中的距离姿态识别网络中进行识别,得到距离姿态信息,同时将人脸姿态特征输入到人脸姿态识别模型中的角度姿态识别网络中识别,得到角度姿态信息。
1714,获取已建立的分布图,根据人脸姿态信息中的人脸距离姿态参数和人脸角度姿态参数从分布图中确定目标平面子区域,获取目标平面子区域对应的人脸姿态子区间作为目标人脸姿态子区间。根据各个人脸姿态子区间与对应的人脸姿态匹配度关联关系获取目标人脸姿态子区间对应的人脸姿态匹配度。
1716,获取人脸身份匹配度对应的人脸身份权重和人脸姿态匹配度对应的人脸姿态权重,根据人脸身份权重和人脸身份匹配度进行加权计算,得到人脸身份加权匹配度,根据人脸姿态权重和人脸姿态匹配度进行加权计算,得到人脸姿态加权匹配度,根据人脸身份加权匹配度和人脸姿态加权匹配度得到目标人脸匹配度。
1718,当目标人脸匹配度超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别通过,根据人脸识别通过结果执行对应的目标操作。
本申请还提供一种应用场景,该应用场景应用上述的人脸识别方法。具体地,该人脸识别方法在该应用场景的应用如下:
该人脸识别方法应用在解锁场景中,其中,当需要进行人脸识别解锁时,通过智能手机上的前置摄像头采集待识别人脸图像,如图18所示,为用户对智能手机进行解锁的示意图,根据待识别人脸图像识别得到对应的人脸身份匹配度0.95,对待识别人脸图像进行图像分割,得到人脸区域,识别人脸区域对应的人脸姿态,得到人脸姿态信息,其中,角度为30度,距离为15厘米,确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度0.95。基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果即目标人脸匹配度为0.95,超过预设阈值0.9,说明人脸识别结果为人脸识别通过,是本人对智能手机进行解锁,此时,智能手机执行手机解锁操作,如图19所示,为通过人脸识别对智能手机解锁成功的界面示意图,其中,界面中1902为智能手机的前置摄像头,界面中1904为解锁成功的标志。在另一个具体实施例中,如图20所示,为用户对智能手机进行解锁的示意图,其中,对待识别人脸图像识别得到的人脸身份匹配度为0.95,得到的人脸姿态信息,其中,角度为150度,距离为8厘米,得到的人脸姿态匹配度为0.6,则得到的目标人脸匹配度为(0.95+0.6)/2=0.775,未超过预设阈值0.9,得到的人脸识别结果为人脸识别未通过,则智能手机提示“非本人解锁信息,人脸姿态有误”。
本申请还另外提供一种应用场景,该应用场景应用上述的人脸识别方法。具体地,该人脸识别方法在该应用场景的应用如下:
该人脸识别方法应用在门禁场景中,如图21所示,为人脸识别方法的应用场景示意图,其中,门禁监控设备采集到待识别人脸图像,门禁监控设备采集待识别人脸图像的场景图如图22所示。将待识别人脸图像发送到服务器,服务器根据待识别人脸图像识别得到对应的人脸身份匹配度为0.95,对待识别人脸图像进行图像分割,得到人脸区域,识别人脸区域对应的人脸姿态,得到人脸姿态信息,其中,角度为110度,距离为50厘米,确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度为0.97。基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果,即目标人脸匹配度为(0.85+0.97)/2=0.96,该目标人脸匹配度超过了预设阈值0.90。则人脸识别结果为人脸识别通过,此时,服务器向门禁设备发送开门指令,门禁设备接收到开门指令执行开门操作。
应该理解的是,虽然图1、图2、图5、图6、图9-12以及图14-17的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1、图2、图5、图6、图9-12以及图14-17中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图23所示,提供了一种人脸识别装置2300,该装置可以采用软件模块或硬件模块,或者是二者的结合成为计算机设备的一部分,该装置具体包括:身份匹配模块2302、图像分割模块2304、姿态识别模块2306、姿态匹配模块2308和结果确定模块2310,其中:
身份匹配模块2302,用于获取待识别人脸图像,根据待识别人脸图像识别得到对应的人脸身份匹配度;
图像分割模块2304,用于对待识别人脸图像进行图像分割,得到人脸区域;
姿态识别模块2306,用于识别人脸区域对应的人脸姿态,得到人脸姿态信息;
姿态匹配模块2308,用于确定与人脸姿态信息匹配的目标人脸姿态子区间,根据目标人脸姿态子区间获取对应的人脸姿态匹配度;
结果确定模块2310,用于基于人脸身份匹配度和人脸姿态匹配度确定待识别人脸图像对应的人脸识别结果。
在一个实施例中,人脸识别装置2300,还包括:
操作执行模块,用于当人脸识别结果为人脸识别通过时,根据人脸识别通过结果执行对应的目标操作。
在一个实施例中,身份匹配模块2302还用于将待识别人脸图像输入到人脸识别模型中进行人脸识别,得到人脸身份匹配度;人脸识别模型是将训练人脸图像作为输入,将所述训练人脸图像对应的人脸身份标注作为标签,使用卷积神经网络进行训练得到的。
在一个实施例中,图像分割模块2304,包括:
分割特征得到模块,用于将待识别人脸图像输入到图像分割模型的分割特征提取网络中,得到图像分割特征;
区域确定模块,用于将图像分割特征输入到图像分割模型的图像分类网络中,得到人脸像素点和非人脸像素点,根据人脸像素点和非人脸像素点确定人脸区域。
在一个实施例中,人脸识别装置2300,还包括:
图像获取模块,用于获取带有人脸边界标注的训练人脸图像;
训练模块,用于将训练人脸图像输入初始图像分割模型的初始分割特征提取网络中,得到初始图像分割特征;将初始图像分割特征输入到初始图像分割模型的初始图像分类网络中,得到初始人脸像素点和初始非人脸像素点,根据初始人脸像素点和初始非人脸像素点确定初始人脸区域图像;
分割模型得到模块,用于计算初始人脸区域与人脸边界标注的区域误差信息,直到训练得到的区域误差信息符合预设训练完成条件时,得到图像分割模型。
在一个实施例中,姿态识别模块2306,包括:
模型识别单元,用于将人脸区域图像输入到人脸姿态识别模型中进行识别,得到人脸姿态信息,人脸姿态识别模型是根据训练人脸区域图像和对应的人脸姿态标注使用多任务回归模型进行训练得到的。
在一个实施例中,人脸姿态信息包括距离姿态信息和角度姿态信息,人脸姿态识别模型包括姿态特征提取网络、距离姿态识别网络和角度姿态识别网络;
模型识别单元还用于将人脸区域图像输入到姿态特征提取网络中进行特征提取,得到人脸姿态特征;将人脸姿态特征输入到距离姿态识别网络中进行识别,得到距离姿态信息,并同时将人脸姿态特征输入到角度姿态识别网络中识别,得到角度姿态信息。
在一个实施例中,人脸识别装置2300,还包括:
数据获取模块,用于获取训练数据,训练数据包括人脸区域图像和对应的人脸姿态标注;
人脸姿态训练模块,用于将人脸区域图像输入到初始人脸姿态识别模型的初始姿态特征提取网络中进行特征提取,得到初始人脸姿态特征;将初始人脸姿态特征输入到初始人脸姿态识别模型的初始距离姿态识别网络中进行识别,得到初始距离姿态信息,并同时将人脸姿态特征输入到初始人脸姿态识别模型的初始角度姿态识别网络中进行识别,得到初始角度姿态信息,根据初始距离姿态信息和初始角度姿态信息得到初始人脸姿态信息;
识别模块得到模块,用于计算初始人脸姿态信息与人脸姿态标注的姿态误差信息,直到训练得到的姿态误差信息符合预设姿态误差条件时,得到人脸姿态识别模型。
在一个实施例中,人脸识别装置2300,还包括:
信息获取模块,用于获取用户标识执行目标操作时对应的各个历史人脸姿态信息;
区间确定模块,用于根据各个历史人脸姿态信息确定用户标识对应的人脸姿态总区间;
区间划分模块,用于将人脸姿态总区间进行划分,得到各个人脸姿态子区间;
匹配度确定模块,用于根据各个历史人脸姿态信息确定各个人脸姿态子区间对应的人脸姿态匹配度,将各个人脸姿态子区间与对应的人脸姿态匹配度关联保存。
在一个实施例中,人脸姿态总区间包括人脸距离总区间和人脸角度总区间;区间划分模块,包括:
划分单元,用于将人脸距离总区间进行划分,得到各个人脸距离子区间;将人脸角度总区间进行划分,得到各个人脸角度子区间;
分布图得到单元,用于将各个人脸距离子区间和各个人脸角度子区间进行组合,得到人脸姿态子区间的分布图。
在一个实施例中,分布图得到单元还用于根据人脸距离总区间和人脸角度总区间建立平面区域;在平面区域中按照各个人脸距离子区间和各个人脸角度子区间进行区域划分,得到各个人脸姿态子区间对应的平面子区域;根据各个平面子区域组成人脸姿态子区间的分布图。
在一个实施例中,匹配度确定模块还用于统计各个历史人脸姿态信息的总数;确定与各个历史人脸姿态信息匹配的人脸姿态子区间,并统计各个人脸姿态子区间中历史人脸姿态信息的数量;根据各个人脸姿态子区间中历史人脸姿态信息的数量和总数计算得到各个人脸姿态子区间对应的人脸姿态匹配度。
在一个实施例中,人脸姿态信息包括人脸距离姿态参数和人脸角度姿态参数;姿态匹配模块2308还用于获取已建立的分布图;根据人脸姿态信息中的人脸距离姿态参数和人脸角度姿态参数从分布图中确定目标平面子区域;获取目标平面子区域对应的人脸姿态子区间作为目标人脸姿态子区间。
在一个实施例中,结果确定模块2310还用于获取人脸身份匹配度对应的人脸身份权重和人脸姿态匹配度对应的人脸姿态权重;根据人脸身份权重和人脸身份匹配度进行加权计算,得到人脸身份加权匹配度;根据人脸姿态权重和人脸姿态匹配度进行加权计算,得到人脸姿态加权匹配度;根据人脸身份加权匹配度和人脸姿态加权匹配度得到目标人脸匹配度,当目标人脸匹配度超过预设阈值时,得到待识别人脸图像对应的人脸识别结果为人脸识别通过。
关于人脸识别装置的具体限定可以参见上文中对于人脸识别方法的限定,在此不再赘述。上述人脸识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图24所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种人脸识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图24中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种人脸识别方法,其特征在于,所述方法包括:
获取待识别人脸图像,根据所述待识别人脸图像识别得到对应的人脸身份匹配度;
对所述待识别人脸图像进行图像分割,得到人脸区域;
识别所述人脸区域对应的人脸姿态,得到人脸姿态信息;
确定与所述人脸姿态信息匹配的目标人脸姿态子区间,根据所述目标人脸姿态子区间获取对应的人脸姿态匹配度;
基于所述人脸身份匹配度和人脸姿态匹配度确定所述待识别人脸图像对应的人脸识别结果。
2.根据权利要求1所述的方法,其特征在于,在所述基于所述人脸身份匹配度和人脸姿态匹配度确定所述待识别人脸图像对应的人脸识别结果之后,还包括:
当所述人脸识别结果为人脸识别通过时,根据所述人脸识别通过结果执行对应的目标操作。
3.根据权利要求1所述的方法,其特征在于,所述对所述待识别人脸图像进行图像分割,得到人脸区域,包括:
将所述待识别人脸图像输入到图像分割模型的分割特征提取网络中,得到图像分割特征;
将所述图像分割特征输入到所述图像分割模型的图像分类网络中,得到人脸像素点和非人脸像素点,根据所述人脸像素点和所述非人脸像素点确定所述人脸区域。
4.根据权利要求3所述的方法,其特征在于,所述图像分割模型的训练包括以下步骤:
获取带有人脸边界标注的训练人脸图像;
将所述训练人脸图像输入初始图像分割模型的初始分割特征提取网络中,得到初始图像分割特征;
将所述初始图像分割特征输入到所述初始图像分割模型的初始图像分类网络中,得到初始人脸像素点和初始非人脸像素点,根据所述初始人脸像素点和所述初始非人脸像素点确定初始人脸区域图像;
计算所述初始人脸区域与所述人脸边界标注的区域误差信息,直到训练得到的区域误差信息符合预设训练完成条件时,得到所述图像分割模型。
5.根据权利要求1所述的方法,其特征在于,所述识别所述人脸区域图像对应的人脸姿态,得到人脸姿态信息,包括:
将所述人脸区域图像输入到人脸姿态识别模型中进行识别,得到所述人脸姿态信息,所述人脸姿态识别模型是根据训练人脸区域图像和对应的人脸姿态标注使用多任务回归模型进行训练得到的。
6.根据权利要求5所述的方法,其特征在于,所述人脸姿态信息包括距离姿态信息和角度姿态信息,所述人脸姿态识别模型包括姿态特征提取网络、距离姿态识别网络和角度姿态识别网络;
所述将所述人脸区域图像输入到人脸姿态识别模型中进行识别,得到所述人脸姿态信息,包括:
将所述人脸区域图像输入到所述姿态特征提取网络中进行特征提取,得到人脸姿态特征;
将所述人脸姿态特征输入到所述距离姿态识别网络中进行识别,得到距离姿态信息,并同时将所述人脸姿态特征输入到所述角度姿态识别网络中识别,得到角度姿态信息。
7.根据权利要求5所述的方法,其特征在于,所述人脸姿态识别模型的训练包括以下步骤:
获取训练数据,所述训练数据包括人脸区域图像和对应的人脸姿态标注;
将所述人脸区域图像输入到初始人脸姿态识别模型的初始姿态特征提取网络中进行特征提取,得到初始人脸姿态特征;
将所述初始人脸姿态特征输入到所述初始人脸姿态识别模型的初始距离姿态识别网络中进行识别,得到初始距离姿态信息,并同时将所述人脸姿态特征输入到所述初始人脸姿态识别模型的初始角度姿态识别网络中进行识别,得到初始角度姿态信息,根据所述初始距离姿态信息和所述初始角度姿态信息得到初始人脸姿态信息;
计算所述初始人脸姿态信息与所述人脸姿态标注的姿态误差信息,直到训练得到的姿态误差信息符合预设姿态误差条件时,得到所述人脸姿态识别模型。
8.根据权利要求1所述的方法,其特征在于,在所述获取待识别人脸图像,根据所述待识别人脸图像识别得到对应的人脸身份匹配度之前,还包括:
获取用户标识执行目标操作时对应的各个历史人脸姿态信息;
根据所述各个历史人脸姿态信息确定所述用户标识对应的人脸姿态总区间;
将所述人脸姿态总区间进行划分,得到各个人脸姿态子区间;
根据所述各个历史人脸姿态信息确定所述各个人脸姿态子区间对应的人脸姿态匹配度,将所述各个人脸姿态子区间与对应的人脸姿态匹配度关联保存。
9.根据权利要求8所述的方法,其特征在于,所述人脸姿态总区间包括人脸距离总区间和人脸角度总区间;
所述将所述人脸姿态总区间进行划分,得到各个人脸姿态子区间,包括:
将所述人脸距离总区间进行划分,得到各个人脸距离子区间;
将所述人脸角度总区间进行划分,得到各个人脸角度子区间;
将所述各个人脸距离子区间和所述各个人脸角度子区间进行组合,得到所述人脸姿态子区间的分布图。
10.根据权利要求9所述的方法,其特征在于,所述将所述各个人脸距离子区间和所述各个人脸角度子区间进行组合,得到所述人脸姿态子区间的分布图,包括:
根据所述人脸距离总区间和所述人脸角度总区间建立平面区域;
在所述平面区域中按照所述各个人脸距离子区间和所述各个人脸角度子区间进行区域划分,得到各个人脸姿态子区间对应的平面子区域;
根据所述各个平面子区域组成所述人脸姿态子区间的分布图。
11.根据权利要求8所述的方法,其特征在于,所述根据所述各个历史人脸姿态信息确定所述各个人脸姿态子区间对应的人脸姿态匹配度,包括:
统计所述各个历史人脸姿态信息的总数;
确定与所述各个历史人脸姿态信息匹配的人脸姿态子区间,并统计所述各个人脸姿态子区间中历史人脸姿态信息的数量;
根据所述各个人脸姿态子区间中历史人脸姿态信息的数量和所述总数计算得到所述各个人脸姿态子区间对应的人脸姿态匹配度。
12.根据权利要求1所述的方法,其特征在于,所述人脸姿态信息包括人脸距离姿态参数和人脸角度姿态参数;
所述确定与所述人脸姿态信息匹配的目标人脸姿态子区间,包括:
获取已建立的分布图;
根据所述人脸姿态信息中的人脸距离姿态参数和所述人脸角度姿态参数从所述分布图中确定目标平面子区域;
获取所述目标平面子区域对应的人脸姿态子区间作为所述目标人脸姿态子区间。
13.一种人脸识别装置,其特征在于,所述装置包括:
身份匹配模块,用于获取待识别人脸图像,根据所述待识别人脸图像识别得到对应的人脸身份匹配度;
图像分割模块,用于对所述待识别人脸图像进行图像分割,得到人脸区域;
姿态识别模块,用于识别所述人脸区域对应的人脸姿态,得到人脸姿态信息;
姿态匹配模块,用于确定与所述人脸姿态信息匹配的目标人脸姿态子区间,根据所述目标人脸姿态子区间获取对应的人脸姿态匹配度;
结果确定模块,用于基于所述人脸身份匹配度和人脸姿态匹配度确定所述待识别人脸图像对应的人脸识别结果。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010902551.2A CN112001932B (zh) | 2020-09-01 | 2020-09-01 | 人脸识别方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010902551.2A CN112001932B (zh) | 2020-09-01 | 2020-09-01 | 人脸识别方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001932A true CN112001932A (zh) | 2020-11-27 |
CN112001932B CN112001932B (zh) | 2023-10-31 |
Family
ID=73465531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010902551.2A Active CN112001932B (zh) | 2020-09-01 | 2020-09-01 | 人脸识别方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001932B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528858A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 人体姿态估计模型的训练方法、装置、设备、介质及产品 |
CN112529073A (zh) * | 2020-12-07 | 2021-03-19 | 北京百度网讯科技有限公司 | 模型训练方法、姿态估计方法、装置及电子设备 |
CN113822287A (zh) * | 2021-11-19 | 2021-12-21 | 苏州浪潮智能科技有限公司 | 一种图像处理方法、***、设备以及介质 |
CN114550088A (zh) * | 2022-02-22 | 2022-05-27 | 北京城建设计发展集团股份有限公司 | 一种多摄像头融合的乘客识别方法、***及电子设备 |
CN114565814A (zh) * | 2022-02-25 | 2022-05-31 | 平安国际智慧城市科技股份有限公司 | 一种特征检测方法、装置及终端设备 |
WO2023124040A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳须弥云图空间科技有限公司 | 一种人脸识别方法及装置 |
CN117058738A (zh) * | 2023-08-07 | 2023-11-14 | 深圳市华谕电子科技信息有限公司 | 移动执法设备移动的远距离人脸检测及识别方法和*** |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050147292A1 (en) * | 2000-03-27 | 2005-07-07 | Microsoft Corporation | Pose-invariant face recognition system and process |
US20110052081A1 (en) * | 2009-08-31 | 2011-03-03 | Sony Corporation | Apparatus, method, and program for processing image |
WO2011065952A1 (en) * | 2009-11-30 | 2011-06-03 | Hewlett-Packard Development Company, L.P. | Face recognition apparatus and methods |
CN102087702A (zh) * | 2009-12-04 | 2011-06-08 | 索尼公司 | 图像处理设备、图像处理方法和程序 |
US20140147023A1 (en) * | 2011-09-27 | 2014-05-29 | Intel Corporation | Face Recognition Method, Apparatus, and Computer-Readable Recording Medium for Executing the Method |
CN105117463A (zh) * | 2015-08-24 | 2015-12-02 | 北京旷视科技有限公司 | 信息处理方法和信息处理装置 |
KR20160042646A (ko) * | 2014-10-10 | 2016-04-20 | 인하대학교 산학협력단 | 얼굴 인식 방법 |
CN106295480A (zh) * | 2015-06-09 | 2017-01-04 | 上海戏剧学院 | 多角度人脸识别交互*** |
US9971933B1 (en) * | 2017-01-09 | 2018-05-15 | Ulsee Inc. | Facial image screening method and face recognition system thereof |
WO2019042195A1 (zh) * | 2017-08-31 | 2019-03-07 | 杭州海康威视数字技术股份有限公司 | 一种人体目标身份识别方法及装置 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
CN110427849A (zh) * | 2019-07-23 | 2019-11-08 | 深圳前海达闼云端智能科技有限公司 | 人脸姿态确定方法、装置、存储介质和电子设备 |
CN110647865A (zh) * | 2019-09-30 | 2020-01-03 | 腾讯科技(深圳)有限公司 | 人脸姿态的识别方法、装置、设备及存储介质 |
CN111160307A (zh) * | 2019-12-31 | 2020-05-15 | 帷幄匠心科技(杭州)有限公司 | 一种人脸识别方法及人脸识别打卡*** |
CN111199029A (zh) * | 2018-11-16 | 2020-05-26 | 株式会社理光 | 人脸识别装置以及人脸识别方法 |
CN111310512A (zh) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 用户身份鉴权方法及装置 |
-
2020
- 2020-09-01 CN CN202010902551.2A patent/CN112001932B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050147292A1 (en) * | 2000-03-27 | 2005-07-07 | Microsoft Corporation | Pose-invariant face recognition system and process |
US20110052081A1 (en) * | 2009-08-31 | 2011-03-03 | Sony Corporation | Apparatus, method, and program for processing image |
WO2011065952A1 (en) * | 2009-11-30 | 2011-06-03 | Hewlett-Packard Development Company, L.P. | Face recognition apparatus and methods |
CN102087702A (zh) * | 2009-12-04 | 2011-06-08 | 索尼公司 | 图像处理设备、图像处理方法和程序 |
US20140147023A1 (en) * | 2011-09-27 | 2014-05-29 | Intel Corporation | Face Recognition Method, Apparatus, and Computer-Readable Recording Medium for Executing the Method |
KR20160042646A (ko) * | 2014-10-10 | 2016-04-20 | 인하대학교 산학협력단 | 얼굴 인식 방법 |
CN106295480A (zh) * | 2015-06-09 | 2017-01-04 | 上海戏剧学院 | 多角度人脸识别交互*** |
CN105117463A (zh) * | 2015-08-24 | 2015-12-02 | 北京旷视科技有限公司 | 信息处理方法和信息处理装置 |
US9971933B1 (en) * | 2017-01-09 | 2018-05-15 | Ulsee Inc. | Facial image screening method and face recognition system thereof |
WO2019042195A1 (zh) * | 2017-08-31 | 2019-03-07 | 杭州海康威视数字技术股份有限公司 | 一种人体目标身份识别方法及装置 |
CN111199029A (zh) * | 2018-11-16 | 2020-05-26 | 株式会社理光 | 人脸识别装置以及人脸识别方法 |
CN111310512A (zh) * | 2018-12-11 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 用户身份鉴权方法及装置 |
CN110287880A (zh) * | 2019-06-26 | 2019-09-27 | 西安电子科技大学 | 一种基于深度学习的姿态鲁棒性人脸识别方法 |
CN110427849A (zh) * | 2019-07-23 | 2019-11-08 | 深圳前海达闼云端智能科技有限公司 | 人脸姿态确定方法、装置、存储介质和电子设备 |
CN110647865A (zh) * | 2019-09-30 | 2020-01-03 | 腾讯科技(深圳)有限公司 | 人脸姿态的识别方法、装置、设备及存储介质 |
CN111160307A (zh) * | 2019-12-31 | 2020-05-15 | 帷幄匠心科技(杭州)有限公司 | 一种人脸识别方法及人脸识别打卡*** |
Non-Patent Citations (5)
Title |
---|
DWI ANA RATNA WATI 等: "Design of face detection and recognition system for smart home security application", 《2017 2ND INTERNATIONAL CONFERENCES ON INFORMATION TECHNOLOGY, INFORMATION SYSTEMS AND ELECTRICAL ENGINEERING》, pages 342 - 347 * |
JOHN WRIGHT 等: "Implicit elastic matching with random projections for pose-variant face recognition", 《2009 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 1502 - 1509 * |
ZHAOCUI HAN 等: "Face Recognition with Integrating Multiple Cues", 《J. SIGN. PROCESS. SYST. 》, pages 391 - 404 * |
杜杏菁 等: "基于Candide-3模型的姿态表情人脸识别研究", 《计算机工程与设计》, vol. 33, no. 3, pages 1017 - 1021 * |
程福运: "基于深度学习的人脸识别", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529073A (zh) * | 2020-12-07 | 2021-03-19 | 北京百度网讯科技有限公司 | 模型训练方法、姿态估计方法、装置及电子设备 |
CN112528858A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 人体姿态估计模型的训练方法、装置、设备、介质及产品 |
CN113822287A (zh) * | 2021-11-19 | 2021-12-21 | 苏州浪潮智能科技有限公司 | 一种图像处理方法、***、设备以及介质 |
CN113822287B (zh) * | 2021-11-19 | 2022-02-22 | 苏州浪潮智能科技有限公司 | 一种图像处理方法、***、设备以及介质 |
WO2023124040A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳须弥云图空间科技有限公司 | 一种人脸识别方法及装置 |
CN114550088A (zh) * | 2022-02-22 | 2022-05-27 | 北京城建设计发展集团股份有限公司 | 一种多摄像头融合的乘客识别方法、***及电子设备 |
CN114565814A (zh) * | 2022-02-25 | 2022-05-31 | 平安国际智慧城市科技股份有限公司 | 一种特征检测方法、装置及终端设备 |
CN117058738A (zh) * | 2023-08-07 | 2023-11-14 | 深圳市华谕电子科技信息有限公司 | 移动执法设备移动的远距离人脸检测及识别方法和*** |
CN117058738B (zh) * | 2023-08-07 | 2024-05-03 | 深圳市华谕电子科技信息有限公司 | 移动执法设备移动的远距离人脸检测及识别方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN112001932B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001932B (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
Lu et al. | Dense and sparse reconstruction error based saliency descriptor | |
Zhang et al. | A fine-grained image categorization system by cellet-encoded spatial pyramid modeling | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
Deng et al. | M3 csr: Multi-view, multi-scale and multi-component cascade shape regression | |
CN111950329A (zh) | 目标检测及模型训练方法、装置、计算机设备和存储介质 | |
CN110555481A (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN112364827B (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
Anila et al. | Simple and fast face detection system based on edges | |
CN113449704B (zh) | 人脸识别模型训练方法、装置、电子设备及存储介质 | |
Parashar et al. | Deep learning pipelines for recognition of gait biometrics with covariates: a comprehensive review | |
Dubey et al. | Interactive Biogeography Particle Swarm Optimization for Content Based Image Retrieval | |
CN111382791B (zh) | 深度学习任务处理方法、图像识别任务处理方法和装置 | |
CN111898561A (zh) | 一种人脸认证方法、装置、设备及介质 | |
Rajeshwari et al. | Adaboost modular tensor locality preservative projection: face detection in video using Adaboost modular‐based tensor locality preservative projections | |
CN110175500B (zh) | 指静脉比对方法、装置、计算机设备及存储介质 | |
Juang et al. | Stereo-camera-based object detection using fuzzy color histograms and a fuzzy classifier with depth and shape estimations | |
Hu et al. | An effective head pose estimation approach using Lie Algebrized Gaussians based face representation | |
Li et al. | Spatial and temporal information fusion for human action recognition via Center Boundary Balancing Multimodal Classifier | |
Ying et al. | Dynamic random regression forests for real-time head pose estimation | |
CN115188031A (zh) | 指纹识别方法、计算机程序产品、存储介质及电子设备 | |
Chen et al. | Multi‐directional saliency metric learning for person re‐identification | |
Herlambang et al. | Cloud-based architecture for face identification with deep learning using convolutional neural network | |
CN113762249A (zh) | 图像攻击检测、图像攻击检测模型训练方法和装置 | |
Choudhury et al. | Human detection using orientation shape histogram and coocurrence textures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |