CN110163114A - 一种人脸角度及人脸模糊度分析方法、***和计算机设备 - Google Patents
一种人脸角度及人脸模糊度分析方法、***和计算机设备 Download PDFInfo
- Publication number
- CN110163114A CN110163114A CN201910339320.2A CN201910339320A CN110163114A CN 110163114 A CN110163114 A CN 110163114A CN 201910339320 A CN201910339320 A CN 201910339320A CN 110163114 A CN110163114 A CN 110163114A
- Authority
- CN
- China
- Prior art keywords
- face
- facial angle
- picture
- network model
- fuzziness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种人脸角度及人脸模糊度分析方法、***和计算机设备,方法包括S1.神经网络模型训练、S2.待检测图片提取、S3.图片的人脸检测与矫正、S4.人脸角度和模糊度预测及S5.属性输出;通过基于深度学习的第一神经网络模型能够快速检测到图片中的人脸框和面部特征点,输出人脸框位置和面部特征点位置;对人脸框进行校正和扩增后截取矫正标准化的人脸图片;再通过第二神经网络模型对截取的矫正标准化的人脸图片进行基于头部照片的人脸角度和人脸模糊度分析,获得且预测输出人脸角度分类的置信度及人脸模糊度的回归值,解决了失焦以及运动模糊问题,可提取出高质量的照片,以便基于高质量图片进行各种数据分析和比对等操作,提高后续分析预测的准确率。
Description
技术领域
本发明涉及智慧安防终端红外活体检测技术领域,特别是一种人脸角度及人脸模糊度分析方法、***和计算机设备。
背景技术
目前在我们日常生活中随处可见各式各样的摄像头,其中有大部分摄像头都有存储功能,每天产生大量的数据,这些数据可以进行各式各样的视频结构化分析,但是各式各样的摄像头安装在不同的环境中,过度曝光、欠曝光、聚焦没聚好而导致的失焦以及运动模糊等诸多问题会造成成像质量参差不齐,这也为后期的数据检测和分析造成麻烦,例如在人证自动比对一体机中,将一张成像质量较差的人脸图片与身份证图片进行人证比对,经常会导致结果误判为非本人,不但没有增加门禁安全检测效率反而造成了阻塞,因此,为了解决上述问题,本发明人提出一种基于头部照片的人脸角度和人脸模糊度分析方法。
发明内容
本发明为解决上述技术问题,本发明提供了一种人脸角度及人脸模糊度分析方法、***和计算机设备,其能够快速有效且准确地检测视频或/和图片内人脸角度和人脸模糊度,进而统计分析各种场景下摄像头内的人脸角度和人脸模糊度信息,提取出高质量的照片,以便基于高质量图片进行各种数据分析和比对等操作,提高后续分析预测的准确率。
为实现上述目的,本发明采用的技术方案为:
第一方面,本发明提供的一种人脸角度及人脸模糊度分析方法,包括以下步骤:
S1.神经网络模型训练:包括训练用于人脸检测的基于深度学习的第一神经网络模型和用于人脸角度和人脸模糊度分析的第二神经网络模型;
S2.待检测图片提取:获取各种场景下摄像头内图片或/和视频数据(可存于数据库),从(数据库)中提取待检测的单张图片;
S3.图片的人脸检测与矫正:通过训练好的第一神经网络模型对单张图片进行人脸检测,获取人脸框位置和面部特征点位置;根据人脸框位置和面部特征点位置进行图片矫正和截取,获得矫正标准化的人脸图片;
S4.人脸角度和模糊度预测:通过训练好的第二神经网络模型对矫正标准化的人脸图片进行人脸角度和人脸模糊度分析,预测人脸角度分类的置信度及人脸模糊度的回归值;
S5.属性输出:根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
进一步的,所述步骤S1神经网络模型训练包括:
S11.第一神经网络模型训练:通过采集各种人物在各种场景下摄像头内的图片和视频,然后采用外接矩形框人工标定出人脸区域及面部的左眼瞳孔、右眼瞳孔、鼻尖、左边嘴角和右边嘴角五个特征点,将标定好的数据及相对应的标签输入第一神经网络模型中进行训练,得到可精准检测人脸框以及面部特征点的深度学习第一神经网络模型;该第一神经网络模型采用MTCNN模型,所述MTCNN模型包括P-Net网络、R-Net网络和O-Net网络;
S12.第二神经网络模型训练:通过第一神经网络模型预测出的两个眼睛瞳孔的位置,计算双瞳孔的连线与水平线的夹角,进行逆向旋转,得到一张双瞳水平的照片;
对获取的人脸框的位置进行预设比例的放大,然后进行剪切,再经过定中心点进行逆向旋转得到大量校正后的人脸照片,然后给到数据标注人员进行人脸角度和人脸模糊度标注,得到大量具有人脸角度和人脸模糊度标签的数据,提取出全部的人脸模糊度标签为清晰的数据,然后使用基于然后使用基于OpenCV(基于BSD许可(开源)发行的跨平台计算机视觉库)的Motionblur(运动模糊添加)和Gaussianblur(运动模糊消除)将抽取出的清晰并且带有标注的人脸角度数据制造分不同程度可量化的模糊数据,即得到第二神经网络模型的训练数据;
接着将模糊数据及相对应的人脸角度和人脸模糊度量化标签送入第二神经网络模型中进行训练,得到能够精确预测人脸角度和人脸模糊度的模型。
进一步的,所述第一神经网络模型的损失函数表示如下:
其中,N是预设人脸框的正样本数量;αdet、αbox和αlandmark表示分别表示人脸分类损失、人脸框和面部特征点损失的权重;表示是否人脸输入;和分别表示人脸分类损失函数、人脸框损失函数和面部特征点损失函数。
进一步的,所述第二神经网络模型采用LightCNN模型作为特征抽取层,使用预设大小的彩色图片作为输入,经过LightCNN抽取特征后,分出两个分支,第一个分支对接全连接层最终输出若一个[0,1]的概率值来表示人脸模糊度的回归值,第二个分支对接全连接层最终输出5个和为1的区间在[0,1]的概率值(概率和为1)来表示人脸角度分类的置信度。
进一步的,所述根据人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度,包括:
将人脸角度属性归类为互斥类;互斥类的所有分支概率和为1.
输出互斥类中置信度最大的属性及对应的置信度。
进一步的,对于所述互斥类,采用交叉熵作为损失函数,如下:
对于模糊度回归,采用均方差作为损失函数,如下:
其中,表示所有预测的属性的概率值,y表示所有预测属性的真实值,y∈{0,1};0代表本张图片没有这个属性,1代表本张图片有这个属性;均表示第i个属性的预测概率值;均表示第i个属性的真实值;n代表全部属性的种类数。
第二方面,本发明还提供了一种人脸角度和人脸模糊度分析***,其包括:
模型训练模块,用于训练人脸检测的基于深度学习的第一神经网络模型和人脸角度和人脸模糊度分析的第二神经网络模型;
图片提取模块,用于获取摄像头内图片或/和视频数据,从中提取单张待检测图片;
人脸检测与矫正模块,用于通过训练好的第一神经网络模型对单张图片进行人脸检测,获取人脸框位置和面部特征点位置;根据人脸框位置和面部特征点位置进行图片矫正和截取,获得矫正标准化的人脸图片;
角度及模糊度分析模块,用于通过训练好的第二神经网络模型对矫正标准化的人脸图片进行人脸角度和人脸模糊度分析,获得人脸角度分类的置信度及人脸模糊度的回归值;
属性输出模块,用于根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
第三方面,本发明还提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时以实现上述的人脸角度和人脸模糊度分析方法。
采用上述技术方案后,本发明相比于现有技术具有以下优点:
(1)本发明先通过基于深度学习的第一神经网络模型能够快速检测到图片中的人脸框和面部特征点,并输出人脸框位置和面部特征点位置;对人脸框进行校正和扩增后截取矫正标准化的人脸图片;再通过第二神经网络模型对截取的矫正标准化的人脸图片进行基于头部照片的人脸角度和人脸模糊度分析,获得人脸角度分类的置信度及人脸模糊度的回归值,解决了针对失焦以及运动模糊等低质量图像分析问题;
(2)通过本发明的方法能有效快速准确的检测视频或/和图片内人脸位置及特征点并预测出其人脸角度和人脸模糊度,且可根据预测和输出的结果制定相应策略,以满足一些需要判断人脸角度和人脸成像质量的需求场景,即输出的人脸角度和人脸模糊度属性可用于一些对人脸质量有要求的项目或者场景进行人脸图片质量分析,进而可以更好的分析和利用相关数据提取高质量图片。
附图说明
图1为本发明的人脸角度和人脸模糊度分析方法整体流程图;
图2为本发明实施例的第一神经网络模型的P-Net网络结构图;
图3为本发明实施例的第一神经网络模型的R-Net网络结构图;
图4为本发明实施例的第一神经网络模型的O-Net网络结构图;
图5为本发明实施例预测的人脸角度和人脸模糊度分析图;
图6为本发明的一种人脸角度和人脸模糊度分析***框图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚、明白,以下结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明揭示的一种人脸角度及人脸模糊度分析方法、***和计算机设备,其包括以下步骤:
S1.神经网络模型训练,包括S11.第一神经网络模型训练,第一神经网络模型用于人脸检测的基于深度学习型,S12.第二神经网络模型训练,第二神经网络模型用于人脸角度和人脸模糊度分析;
具体的,S11.第一神经网络模型训练包括:通过采集各种人物在各种场景下摄像头内的图片和视频,然后采用外接矩形框人工标定出人脸区域及面部的左眼瞳孔、右眼瞳孔、鼻尖、左边嘴角和右边嘴角五个特征点,将标定好的数据及相对应的标签输入第一神经网络模型中进行训练,得到可精准检测人脸框以及面部特征点的深度学习第一神经网络模型;该第一神经网络模型采用MTCNN (Multi-taskCascadedConvolutionalNetworks,多任务级联卷积网络) 模型,该MTCNN模型包括P-Net网络、R-Net网络和O-Net网络,如下分别介绍上述三个网络:
P-Net(ProposalNetwork):网络结构如图2所示,网络采用12pixel ×12pixel×3channel作为网络输入,经过3×3的卷积网络->MaxPooling 层->3×3的卷积网络->3×3的卷积网络->3×3的卷积网络后得到1×1 ×32的输出结果,该网络结构主要获得了人脸区域的候选窗口和边界框的回归向量,并用该边界框做回归,对候选窗口进行校准,然后通过非极大值抑制(NMS)来合并高度重叠的候选框;
R-Net(RefineNetwork):网络结构如图3所示,该网络结构主要是通过边界框回归和NMS来去掉那些false-positive(网络预测为人脸区域但是事实上并不是)的区域。只是由于该网络结构和P-Net网络结构有差异,输入改成24pixel×24pixel×3channel,并且多了一个全连接层,所以会取得更好的抑制false-positive的作用;
OutputNetwork(O-Net):网络结构如图4所示,该网络结构输入进一步扩大到48pixel×48pixel×3channel所以输入的信息会更加精细,并且该层比R-Net层又多了一层卷基层,作用和R-Net层作用一样。但是该层对人脸区域进行了更多的监督,作为整个模型的最后阶段,输出的五个面部特征点(landmark,包括左眼瞳孔、右眼瞳孔、鼻尖、嘴巴最左点和嘴巴最右点)相比于前两个阶段要精准很多,三个小网络结构都输出了面部五个特征点坐标,但是由于R-Net和P-Net网络输入太小,面部特征点的信息很少,所以在前两个阶段的人脸面部特征点回归所产生的损失函数的权重系数设置为比较小的0.5,而在最后阶段的O-Net网络产生的人脸面部特征点损失函数采用的权重比较大为1.0,因为面部特征点的预测在O-Net阶段输出的结果最为准确,所以实践中选择在最后阶段O-Net网络输出的时候作为面部特征点预测结果,O-Net的网络输入也是这三个小网络里面最大,有利于更准确提取面部特征;
进一步的,MTCNN特征描述的损失函数主要包含3个部分:人脸/非人脸分类器、边界框回归和特征点定位;
其中,人脸分类损失函数表示如下:
上式(1)为人脸分类的交叉熵损失函数,其中,pi为是人脸的概率,为背景的真实标签;
人脸框损失函数表示如下:
上式(2)是通过欧氏距离计算的回归损失,其中,为通过网络预测得到,为实际的真实的背景坐标,其中,y为一个(左上角x、左上角y、长和宽)组成的四元组;
面部特征点损失函数表示如下:
和边界框回归一样,上式(3)还是计算网络预测的面部特征点位置和实际真实面部特征点的欧式距离,并最小化该距离。其中,为通过网络预测得到,为实际的真实的面部特征点坐标,由于一共5个特征点,每个点2个坐标,所以,y属于十元组;
综上,整个模型训练过程的整体损失函数可以表示为如下:
P-NetR-Net(αdet=1,αbox=0.5,αlandmark=0.5)
O-Net(αdet=1,αbox=0.5,αlandmark=1)
其中,N是预设人脸框的正样本数量;αdet、αbox和αlandmark表示分别表示人脸分类损失、人脸框和面部特征点损失的权重;表示是否人脸输入;和分别表示人脸分类损失函数、人脸框损失函数和面部特征点损失函数;
由上可知,在训练的时候虽然都会计算上述的3个损失函数,但并不是对每个输入这些损失都有意义,因此定义了上述公式(1)-(3)用来控制对不同的输入采用不同的损失以及分配不同的权重,可以看出,在P-Net和R-Net中,面部特征点回归的损失权重αlandmark要小于O-Net 部分,这是因为前面2个stage重点在于过滤掉非人脸的bbox,β存在的意义是:当非人脸输入,就只需要计算有意义的人脸分类损失,而不需要计算无意义的边界框和面部特征点的回归损失,因为针对非人脸区域,以减少冗余计算。
经过上述训练过程,可以得到一个能够精准检测人脸框以及面部特征点的深度学习神经网络模型(第一神经网络模型),用于预测视频或/ 和图片中的人脸框及面部特征点的位置,进而提取出人脸为下一步提取人脸角度和人脸模糊度分析所用;
S12.第二神经网络模型训练:在训练第二神经网络模型时,先使用前面训练好第一神经网络模型来进行人脸框的数据的预测和面部特征点的预测,使模型在实际使用的时候是更为精准,具体的,在线使用的时候利用第一神经网络模型进行图片和视频检测,得到图片和视频中人脸位置及面部五个特征点的预测,此时的数据还未人工标注人脸框位置,而在得到人脸框的位置后,使用处理工具将图片和视频中的人脸根据人脸框进行人脸的矫正和剪切,矫正的过程采用的方法是:首先通过第一神经网络模型预测出的两个眼睛瞳孔的位置,计算双瞳孔的连线与水平线的夹角,进行逆向旋转,得到一张双瞳水平的照片,具体的,旋转的中心点的获取为再根据双瞳连线的中点,与嘴上的两点连线中点进行链接作为纵线,从上到下取线段的0.406作为图像的中心点,其中中心点系数0.406是根据大量真实场景人脸标定得到的系数;剪切的过程为首先对获取的人脸框的位置进行预设比例的放大,然后进行剪切,最后经过定中心点进行逆向旋转得到大量校正后的人脸照片,然后将校正后的人脸照片给到数据标注人员进行人脸角度(包含5个属性,分别是左大侧脸LL、左小侧脸LM、正脸F、右小侧脸RM和右大侧脸RL)和人脸模糊度标注(包含2个属性,清晰和模糊),进而得到大量具有人脸角度和人脸模糊度标签的数据,提取出全部的人脸模糊度标签为清晰的数据,然后使用基于然后使用基于OpenCV(基于BSD许可(开源)发行的跨平台计算机视觉库)的Motionblur(运动模糊添加)和Gaussianblur(运动模糊消除)将抽取出的清晰并且带有标注的人脸角度数据制造分不同程度可量化的模糊数据,即得到第二神经网络模型的训练数据;接着将标注好的数据及相对应的人脸角度和人脸模糊度量化标签输入第二神经网络模型中进行训练;本实施例的人脸角度和人脸模糊度分析的神经网络模型(第二神经网络模型)采用LightCNN模型作为特征抽取层,输入为128pixel×128pixel×3channel,输出为512维向量作为抽取的特征,本实施例中,在抽取的特征后面接着并行的两个分支,分别是人脸角度互斥类分支和模糊度的回归值分支,每个分支都使用512×256×n的全连接层(n代表每个大类内对应的小类数,例如人脸角度大类内分为5个小类,分别为左大侧脸LL、左小侧脸LM、正脸F、右小侧脸RM和右大侧脸RL,该分支就是512×256×5的结构),如果是人脸模糊度的回归值分支,则在最后采用Sigmoid层将最终输出转化成概率值,如果是人脸角度互斥类分支,则在最后采用Softmax层使得将输出转化成概率值并且本类内各个小类的概率和为1;
对于人脸角度分类,采用交叉熵CELoss(CrossEntropyLoss)作为损失函数,如下:
对于人脸模糊度回归值,采用均方差 MSELoss(MeanSquaredErrorLoss)作为损失函数,如下:
其中,在以上两个损失函数(5和(6)中,均表示所有预测的属性的概率值,y均表示所有预测属性的真实值,y∈{0,1},0 代表本张图片没有这个属性,1代表本张图片有这个属性;均表示第i 个属性的预测概率值;yi均表示第个i属性的真实值;n代表全部属性的种类数。
经过大量训练调参,得到一个能够较为精确预测人脸角度和人脸模糊度的第二神经网络模型,用于人脸角度和人脸模糊度属性的分析。
S2.待检测图片提取:获取各种场景下摄像头内图片或/和视频数据 (可存于数据库),从(数据库)中提取待检测的单张图片;具体的,可通过各种场景下的摄像头获取各种场景下摄像头内的录像数据,目前各种摄像头上的摄像头内的摄像头都有存档功能,可以在电脑上很方便的找到存储的各种场景下摄像头内的摄像头记录的视频;
S3.图片的人脸检测与矫正:通过训练好的第一神经网络模型对单张图片进行人脸检测,若未检测到人脸则返回步骤S2,若检测到人脸,则获取人脸框位置(x1,y1,x2,y2)及面部特征点位置,其中,x1和y1 为人脸框的左上角的坐标;x2和y2为人脸框右下角的坐标;然后使用 OpenCV库作为工具先读取图片,然后再读取对应这张照片中人脸框的位置及面部特征点位置,根据人脸框位置和面部特征点位置来矫正和截取对应矩形中的图片,得到大量校正后的人脸的照片,用于后面的人脸角度和人脸模糊度分析根据人脸框位置和面部特征点位置进行图片矫正和截取(剪切),获得矫正标准化的人脸图片;
S4.人脸角度和模糊度预测:如图5所示,使用第二神经网络模型对人脸图片进行分析,得到按照预设好的属性顺序对应的各项属性置信度,进而用于下一步的属性选择;再根据预设好的人脸角度和人脸模糊度顺序,先进行人脸角度属性选择,此时选择这个组内置信度最大的属性作为该组的最终选择结果输出,以代表人脸角度属性这个类别的预测值,后进行人脸模糊度回归值的预测,将模型预测的人脸模糊度的回归值作为人脸模糊情况的输出,并分别设定[0-0.15]为清晰,[0.15-0.35]为轻度模糊,[0.35-0.65]中毒模糊,[0.65-1]为重度模糊;
S5.属性输出:根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
根据此上述方法预测输出的结果制定相应策略,可以满足一些需要判断人脸角度和人脸成像质量的需求场景,例如判断图片指令是否满足要求,可否用于与身份证图片进行人证比对等,若不可用,则返回步骤 S2选择新的图片进行检测和分析。本发明的人脸角度及模糊度分析方法能有效快速准确的检测视频或/和图片内人脸位置及特征点并预测出其人脸角度和人脸模糊度,以帮助一些对人脸质量有要求的项目或者场景进行人脸图片质量分析,进而可以更好的分析和利用相关数据。
进一步的,上述根据人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度,包括:
将人脸角度属性归类为互斥类;互斥类的所有分支概率和为1.
输出互斥类中置信度最大的属性及对应的置信度。
进一步的,对于所述互斥类,采用交叉熵作为损失函数,如下:
对于模糊度回归,采用均方差作为损失函数,如下:
其中,表示所有预测的属性的概率值,y表示所有预测属性的真实值,y∈{0,1};0代表本张图片没有这个属性,1代表本张图片有这个属性;均表示第i个属性的预测概率值;均表示第i个属性的真实值;n代表全部属性的种类数。
如图6所示,本发明还揭示了一种人脸角度和人脸模糊度分析***,其包括:
模型训练模块100,用于训练人脸检测的基于深度学习的第一神经网络模型和人脸角度和人脸模糊度分析的第二神经网络模型;
图片提取模块200,用于获取摄像头内图片或/和视频数据,从中提取单张待检测图片;
人脸检测与矫正模块300,用于通过训练好的第一神经网络模型对单张图片进行人脸检测,获取人脸框位置和面部特征点位置;根据人脸框位置和面部特征点位置进行图片矫正和截取,获得矫正标准化的人脸图片;
角度及模糊度分析模块400,用于通过训练好的第二神经网络模型对矫正标准化的人脸图片进行人脸角度和人脸模糊度分析,获得人脸角度分类的置信度及人脸模糊度的回归值;
属性输出模块500,用于根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
本发明还提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时以实现上述的人脸角度和人脸模糊度分析方法。
上述说明示出并描述了本发明的优选实施例,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (8)
1.一种人脸角度及人脸模糊度分析方法,其特征在于,包括以下步骤:
S1.神经网络模型训练:包括训练用于人脸检测的基于深度学习的第一神经网络模型和用于人脸角度和人脸模糊度分析的第二神经网络模型;
S2.待检测图片提取:获取各种场景下摄像头内图片或/和视频数据,从中提取待检测的单张图片;
S3.图片的人脸检测与矫正:通过训练好的第一神经网络模型对单张图片进行人脸检测,获取人脸框位置和面部特征点位置;根据人脸框位置和面部特征点位置进行图片矫正和截取,获得矫正标准化的人脸图片;
S4.人脸角度和模糊度预测:通过训练好的第二神经网络模型对矫正标准化的人脸图片进行人脸角度和人脸模糊度分析,预测人脸角度分类的置信度及人脸模糊度的回归值;
S5.属性输出:根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
2.如权利要求1所述的一种人脸角度及人脸模糊度分析方法,其特征在于,所述步骤S1神经网络模型训练包括:
S11.第一神经网络模型训练:通过采集各种人物在各种场景下摄像头内的图片和视频,然后采用外接矩形框标定出人脸区域及面部的左眼瞳孔、右眼瞳孔、鼻尖、左边嘴角和右边嘴角五个特征点,将标定好的数据及相对应的标签输入第一神经网络模型中进行训练,得到可精准检测人脸框以及面部特征点的深度学习第一神经网络模型;该第一神经网络模型采用MTCNN模型,所述MTCNN模型包括P-Net网络、R-Net网络和O-Net网络;
S12.第二神经网络模型训练:通过第一神经网络模型预测出的两个眼睛瞳孔的位置,计算双瞳孔的连线与水平线的夹角,进行逆向旋转,得到一张双瞳水平的照片;
对获取的人脸框的位置进行预设比例的放大,然后进行剪切,再经过定中心点进行逆向旋转得到大量校正后的人脸照片,然后给到数据标注人员进行人脸角度和人脸模糊度标注,得到大量具有人脸角度和人脸模糊度标签的数据,提取出全部的人脸模糊度标签为清晰的数据,然后使用基于OpenCV的Motionblur和Gaussianblur将抽取出的清晰并且带有标注的人脸角度数据制造分不同程度可量化的模糊数据,即得到第二神经网络模型的训练数据;
接着将模糊数据及相对应的人脸角度和人脸模糊度量化标签送入第二神经网络模型中进行训练,得到能够精确预测人脸角度和人脸模糊度的模型。
3.如权利要求2所述的一种人脸角度及人脸模糊度分析方法,其特征在于,第一神经网络模型的损失函数表示如下:
其中,N是预设人脸框的正样本数量;αdet、αbox和αlandmark分别表示人脸分类损失、人脸框和面部特征点损失的权重;表示是否人脸输入;和分别表示人脸分类损失函数、人脸框损失函数和面部特征点损失函数。
4.如权利要求2所述的一种人脸角度及人脸模糊度分析方法,其特征在于,所述第二神经网络模型采用LightCNN模型作为特征抽取层,使用预设大小的彩色图片作为输入,经过LightCNN抽取特征后,分出两个分支,第一个分支对接全连接层最终输出若一个[0,1]的概率值来表示人脸模糊度的回归值,第二个分支对接全连接层最终输出5个和为1的区间在[0,1]的概率值来表示人脸角度分类的置信度。
5.如权利要求2所述的一种人脸角度及人脸模糊度分析方法,其特征在于,所述根据人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度,包括:
将人脸角度属性归类为互斥类;互斥类的所有分支概率和为1.
输出互斥类中置信度最大的属性及对应的置信度。
6.如权利要求5所述的一种人脸角度及人脸模糊度分析方法,其特征在于,对于所述互斥类,采用交叉熵作为损失函数,如下:
对于模糊度回归,采用均方差作为损失函数,如下:
其中,均表示所有预测的属性的概率值,y均表示所有预测属性的真实值,y∈{0,1},0代表本张图片没有这个属性,1代表本张图片有这个属性;均表示第i个属性的预测概率值;yi均表示第i个属性的真实值;n代表全部属性的种类数。
7.一种实现权利要求1-6任一项权利要求所述人脸角度和人脸模糊度分析方法的***,其特征在于包括:
模型训练模块,用于训练人脸检测的基于深度学习的第一神经网络模型和人脸角度和人脸模糊度分析的第二神经网络模型;
图片提取模块,用于获取摄像头内图片或/和视频数据,从中提取单张待检测图片;
人脸检测与矫正模块,用于通过训练好的第一神经网络模型对单张图片进行人脸检测,获取人脸框位置和面部特征点位置;根据人脸框位置和面部特征点位置进行图片矫正和截取,获得矫正标准化的人脸图片;
角度及模糊度分析模块,用于通过训练好的第二神经网络模型对矫正标准化的人脸图片进行人脸角度和人脸模糊度分析,获得人脸角度分类的置信度及人脸模糊度的回归值;
属性输出模块,用于根据预设的人脸角度属性选择策略确定人脸角度属性,输出对应的属性及置信度和人脸模糊度的回归值。
8.一种计算机设备,其特征在于:包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时以实现权利要求1-6任一项权利要求所述人脸角度和人脸模糊度分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910339320.2A CN110163114B (zh) | 2019-04-25 | 2019-04-25 | 一种人脸角度及人脸模糊度分析方法、***和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910339320.2A CN110163114B (zh) | 2019-04-25 | 2019-04-25 | 一种人脸角度及人脸模糊度分析方法、***和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163114A true CN110163114A (zh) | 2019-08-23 |
CN110163114B CN110163114B (zh) | 2022-02-15 |
Family
ID=67640084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910339320.2A Active CN110163114B (zh) | 2019-04-25 | 2019-04-25 | 一种人脸角度及人脸模糊度分析方法、***和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163114B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532970A (zh) * | 2019-09-02 | 2019-12-03 | 厦门瑞为信息技术有限公司 | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 |
CN110738607A (zh) * | 2019-09-09 | 2020-01-31 | 平安国际智慧城市科技股份有限公司 | 基于人工智能拍摄驾驶证的方法、装置、设备及存储介质 |
CN110796029A (zh) * | 2019-10-11 | 2020-02-14 | 北京达佳互联信息技术有限公司 | 人脸校正及模型训练方法、装置、电子设备及存储介质 |
CN110874577A (zh) * | 2019-11-15 | 2020-03-10 | 杭州东信北邮信息技术有限公司 | 一种基于深度学习的证件照的自动审核方法 |
CN110909662A (zh) * | 2019-11-20 | 2020-03-24 | 湖南检信智能科技有限公司 | 人脸运动模糊矫正方法 |
CN110956103A (zh) * | 2019-11-20 | 2020-04-03 | 湖南检信智能科技有限公司 | 基于人脸模糊判断校正的图像特征提取方法 |
CN110991230A (zh) * | 2019-10-25 | 2020-04-10 | 湖北富瑞尔科技有限公司 | 基于旋转候选框的任意方向遥感影像舰船检测方法及*** |
CN111008582A (zh) * | 2019-11-28 | 2020-04-14 | 厦门瑞为信息技术有限公司 | 一种头部照片分析方法、***和设备 |
CN111079688A (zh) * | 2019-12-27 | 2020-04-28 | 中国电子科技集团公司第十五研究所 | 一种人脸识别中的基于红外图像的活体检测的方法 |
CN111126376A (zh) * | 2019-10-16 | 2020-05-08 | 平安科技(深圳)有限公司 | 基于面部特征点检测的图片纠正方法、装置和计算机设备 |
CN111241925A (zh) * | 2019-12-30 | 2020-06-05 | 新大陆数字技术股份有限公司 | 人脸质量评定方法、***、电子设备及可读存储介质 |
CN111368758A (zh) * | 2020-03-09 | 2020-07-03 | 苏宁云计算有限公司 | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 |
CN111612785A (zh) * | 2020-06-03 | 2020-09-01 | 浙江大华技术股份有限公司 | 人脸图片质量评估方法、装置及存储介质 |
CN111931551A (zh) * | 2020-05-26 | 2020-11-13 | 东南大学 | 一种基于轻量级级联网络的人脸检测方法 |
CN111985348A (zh) * | 2020-07-29 | 2020-11-24 | 深思考人工智能科技(上海)有限公司 | 人脸识别方法和*** |
CN112085701A (zh) * | 2020-08-05 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112733680A (zh) * | 2020-12-31 | 2021-04-30 | 南京视察者智能科技有限公司 | 一种基于监控视频流生成高质量人脸图像的模型训练方法、提取方法、装置和终端设备 |
CN113158860A (zh) * | 2021-04-12 | 2021-07-23 | 烽火通信科技股份有限公司 | 基于深度学习多维度输出人脸质量评估方法与电子设备 |
CN113449694A (zh) * | 2021-07-24 | 2021-09-28 | 福州大学 | 基于Android的证件照合规性检测方法及*** |
CN114004779A (zh) * | 2020-07-27 | 2022-02-01 | 中移物联网有限公司 | 一种基于深度学习的人脸质量评价方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982520A (zh) * | 2012-12-05 | 2013-03-20 | 武汉大学 | 一种基于轮廓先验的鲁棒性人脸超分辨率处理方法 |
CN107423700A (zh) * | 2017-07-17 | 2017-12-01 | 广州广电卓识智能科技有限公司 | 人证核实的方法及装置 |
CN107958444A (zh) * | 2017-12-28 | 2018-04-24 | 江西高创保安服务技术有限公司 | 一种基于深度学习的人脸超分辨率重建方法 |
CN108564052A (zh) * | 2018-04-24 | 2018-09-21 | 南京邮电大学 | 基于mtcnn的多摄像头动态人脸识别***与方法 |
CN108921061A (zh) * | 2018-06-20 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种表情识别方法、装置和设备 |
CN108960087A (zh) * | 2018-06-20 | 2018-12-07 | 中国科学院重庆绿色智能技术研究院 | 一种基于多维度评估标准的人脸图像质量评估方法及*** |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109447053A (zh) * | 2019-01-09 | 2019-03-08 | 江苏星云网格信息技术有限公司 | 一种基于双重限制注意力神经网络模型的人脸识别方法 |
CN109544523A (zh) * | 2018-11-14 | 2019-03-29 | 北京智芯原动科技有限公司 | 基于多属性人脸比对的人脸图像质量评价方法及装置 |
-
2019
- 2019-04-25 CN CN201910339320.2A patent/CN110163114B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982520A (zh) * | 2012-12-05 | 2013-03-20 | 武汉大学 | 一种基于轮廓先验的鲁棒性人脸超分辨率处理方法 |
CN107423700A (zh) * | 2017-07-17 | 2017-12-01 | 广州广电卓识智能科技有限公司 | 人证核实的方法及装置 |
CN107958444A (zh) * | 2017-12-28 | 2018-04-24 | 江西高创保安服务技术有限公司 | 一种基于深度学习的人脸超分辨率重建方法 |
CN108564052A (zh) * | 2018-04-24 | 2018-09-21 | 南京邮电大学 | 基于mtcnn的多摄像头动态人脸识别***与方法 |
CN108921061A (zh) * | 2018-06-20 | 2018-11-30 | 腾讯科技(深圳)有限公司 | 一种表情识别方法、装置和设备 |
CN108960087A (zh) * | 2018-06-20 | 2018-12-07 | 中国科学院重庆绿色智能技术研究院 | 一种基于多维度评估标准的人脸图像质量评估方法及*** |
CN109359603A (zh) * | 2018-10-22 | 2019-02-19 | 东南大学 | 一种基于级联卷积神经网络的车辆驾驶员人脸检测方法 |
CN109544523A (zh) * | 2018-11-14 | 2019-03-29 | 北京智芯原动科技有限公司 | 基于多属性人脸比对的人脸图像质量评价方法及装置 |
CN109447053A (zh) * | 2019-01-09 | 2019-03-08 | 江苏星云网格信息技术有限公司 | 一种基于双重限制注意力神经网络模型的人脸识别方法 |
Non-Patent Citations (1)
Title |
---|
LIANGJUN.PY: "Python opencv生成模糊图像", 《CSDN》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532970B (zh) * | 2019-09-02 | 2022-06-24 | 厦门瑞为信息技术有限公司 | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 |
CN110532970A (zh) * | 2019-09-02 | 2019-12-03 | 厦门瑞为信息技术有限公司 | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 |
CN110738607A (zh) * | 2019-09-09 | 2020-01-31 | 平安国际智慧城市科技股份有限公司 | 基于人工智能拍摄驾驶证的方法、装置、设备及存储介质 |
CN110796029A (zh) * | 2019-10-11 | 2020-02-14 | 北京达佳互联信息技术有限公司 | 人脸校正及模型训练方法、装置、电子设备及存储介质 |
CN110796029B (zh) * | 2019-10-11 | 2022-11-11 | 北京达佳互联信息技术有限公司 | 人脸校正及模型训练方法、装置、电子设备及存储介质 |
CN111126376B (zh) * | 2019-10-16 | 2022-08-23 | 平安科技(深圳)有限公司 | 基于面部特征点检测的图片纠正方法、装置和计算机设备 |
CN111126376A (zh) * | 2019-10-16 | 2020-05-08 | 平安科技(深圳)有限公司 | 基于面部特征点检测的图片纠正方法、装置和计算机设备 |
WO2021072883A1 (zh) * | 2019-10-16 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于面部特征点检测的图片纠正方法、装置和计算机设备 |
CN110991230A (zh) * | 2019-10-25 | 2020-04-10 | 湖北富瑞尔科技有限公司 | 基于旋转候选框的任意方向遥感影像舰船检测方法及*** |
CN110991230B (zh) * | 2019-10-25 | 2023-08-11 | 湖北富瑞尔科技有限公司 | 基于旋转候选框的任意方向遥感影像舰船检测方法及*** |
CN110874577B (zh) * | 2019-11-15 | 2022-04-15 | 杭州东信北邮信息技术有限公司 | 一种基于深度学习的证件照的自动审核方法 |
CN110874577A (zh) * | 2019-11-15 | 2020-03-10 | 杭州东信北邮信息技术有限公司 | 一种基于深度学习的证件照的自动审核方法 |
CN110956103A (zh) * | 2019-11-20 | 2020-04-03 | 湖南检信智能科技有限公司 | 基于人脸模糊判断校正的图像特征提取方法 |
CN110909662A (zh) * | 2019-11-20 | 2020-03-24 | 湖南检信智能科技有限公司 | 人脸运动模糊矫正方法 |
CN111008582B (zh) * | 2019-11-28 | 2023-04-07 | 厦门瑞为信息技术有限公司 | 一种头部照片分析方法、***和设备 |
CN111008582A (zh) * | 2019-11-28 | 2020-04-14 | 厦门瑞为信息技术有限公司 | 一种头部照片分析方法、***和设备 |
CN111079688A (zh) * | 2019-12-27 | 2020-04-28 | 中国电子科技集团公司第十五研究所 | 一种人脸识别中的基于红外图像的活体检测的方法 |
CN111241925B (zh) * | 2019-12-30 | 2023-08-18 | 新大陆数字技术股份有限公司 | 人脸质量评定方法、***、电子设备及可读存储介质 |
CN111241925A (zh) * | 2019-12-30 | 2020-06-05 | 新大陆数字技术股份有限公司 | 人脸质量评定方法、***、电子设备及可读存储介质 |
CN111368758B (zh) * | 2020-03-09 | 2023-05-23 | 苏宁云计算有限公司 | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 |
CN111368758A (zh) * | 2020-03-09 | 2020-07-03 | 苏宁云计算有限公司 | 一种人脸模糊度检测方法、装置、计算机设备及存储介质 |
CN111931551A (zh) * | 2020-05-26 | 2020-11-13 | 东南大学 | 一种基于轻量级级联网络的人脸检测方法 |
CN111931551B (zh) * | 2020-05-26 | 2022-04-12 | 东南大学 | 一种基于轻量级级联网络的人脸检测方法 |
CN111612785A (zh) * | 2020-06-03 | 2020-09-01 | 浙江大华技术股份有限公司 | 人脸图片质量评估方法、装置及存储介质 |
CN111612785B (zh) * | 2020-06-03 | 2024-02-02 | 浙江大华技术股份有限公司 | 人脸图片质量评估方法、装置及存储介质 |
CN114004779A (zh) * | 2020-07-27 | 2022-02-01 | 中移物联网有限公司 | 一种基于深度学习的人脸质量评价方法及装置 |
CN111985348A (zh) * | 2020-07-29 | 2020-11-24 | 深思考人工智能科技(上海)有限公司 | 人脸识别方法和*** |
CN111985348B (zh) * | 2020-07-29 | 2024-05-10 | 深思考人工智能科技(上海)有限公司 | 人脸识别方法和*** |
CN112085701A (zh) * | 2020-08-05 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112085701B (zh) * | 2020-08-05 | 2024-06-11 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112733680A (zh) * | 2020-12-31 | 2021-04-30 | 南京视察者智能科技有限公司 | 一种基于监控视频流生成高质量人脸图像的模型训练方法、提取方法、装置和终端设备 |
CN112733680B (zh) * | 2020-12-31 | 2024-02-13 | 南京视察者智能科技有限公司 | 一种基于监控视频流生成高质量人脸图像的模型训练方法、提取方法、装置和终端设备 |
CN113158860A (zh) * | 2021-04-12 | 2021-07-23 | 烽火通信科技股份有限公司 | 基于深度学习多维度输出人脸质量评估方法与电子设备 |
CN113449694A (zh) * | 2021-07-24 | 2021-09-28 | 福州大学 | 基于Android的证件照合规性检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN110163114B (zh) | 2022-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163114A (zh) | 一种人脸角度及人脸模糊度分析方法、***和计算机设备 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN109644255B (zh) | 标注包括一组帧的视频流的方法和装置 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
US8774522B2 (en) | Semantic parsing of objects in video | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、***、设备和介质 | |
US8929595B2 (en) | Dictionary creation using image similarity | |
CN108921119B (zh) | 一种障碍物实时检测和分类方法 | |
CN108009473A (zh) | 基于目标行为属性视频结构化处理方法、***及存储装置 | |
CN112115775B (zh) | 一种基于计算机视觉的监控场景下的吸烟行为检测方法 | |
CN104700078B (zh) | 一种基于尺度不变特征极限学习机的机器人场景识别方法 | |
CN111507248A (zh) | 一种低分辨热力图的人脸额头区域检测与定位方法及其*** | |
CN110555420B (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
CN110427795A (zh) | 一种基于头部照片的属性分析方法、***和计算机设备 | |
CN112861917B (zh) | 基于图像属性学习的弱监督目标检测方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN110827432B (zh) | 一种基于人脸识别的课堂考勤方法及*** | |
CN112488034A (zh) | 基于轻量化人脸口罩检测模型的视频处理方法 | |
CN110688980A (zh) | 基于计算机视觉的人体姿态分类方法 | |
CN109800756A (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN113780145A (zh) | ***形态检测方法、装置、计算机设备和存储介质 | |
CN113706481A (zh) | ***质量检测方法、装置、计算机设备和存储介质 | |
CN113808166A (zh) | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 | |
CN115862113A (zh) | 陌生人异常识别方法、装置、设备及存储介质 | |
CN110659585B (zh) | 一种基于交互属性监督的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A method, system and computer device for analyzing face angle and face ambiguity Effective date of registration: 20230217 Granted publication date: 20220215 Pledgee: Bank of China Limited Xiamen hi tech Park sub branch Pledgor: XIAMEN RUIWEI INFORMATION TECHNOLOGY CO.,LTD. Registration number: Y2023980032829 |