CN107679490B - 用于检测图像质量的方法和装置 - Google Patents
用于检测图像质量的方法和装置 Download PDFInfo
- Publication number
- CN107679490B CN107679490B CN201710908705.7A CN201710908705A CN107679490B CN 107679490 B CN107679490 B CN 107679490B CN 201710908705 A CN201710908705 A CN 201710908705A CN 107679490 B CN107679490 B CN 107679490B
- Authority
- CN
- China
- Prior art keywords
- face
- probability
- classification
- image
- mentioned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了用于检测图像质量的方法和装置。该方法的一具体实施方式包括:获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息;基于该人脸区域信息,从该待检测图像中提取人脸图像;将该人脸图像输入预先训练的卷积神经网络,得到该人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率;将该人脸图像输入预先训练的人脸关键点定位模型,得到该人脸图像所包括的各个人脸关键点的坐标;基于该概率和该坐标,确定该人脸图像被遮挡的概率;基于该被遮挡的概率,确定该人脸图像的质量是否合格。该实施方式提高了图像质量检测效率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于检测图像质量的方法和装置。
背景技术
人脸识别具有较多的应用场景,例如人脸支付、人脸认证、人脸美化等等。在人脸识别过程中,如果包括人脸的图像质量不合格(例如人脸的多个部位被遮挡等),则可能会导致识别出错,或***崩溃等异常情况的出现。若在进行人脸识别之前,先检测包括人脸的图像的质量是否合格,则可以避免对质量不合格的图像进行后续的人脸识别流程。这样可以提高人脸识别效率。因此,对包括人脸的图像进行质量检测显得尤为重要。
发明内容
本申请实施例的目的在于提出一种用于检测图像质量的方法和装置。
第一方面,本申请实施例提供了一种用于检测图像质量的方法,该方法包括:获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;基于上述人脸区域信息,从上述待检测图像中提取人脸图像;将上述人脸图像输入预先训练的卷积神经网络,得到上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,上述卷积神经网络用于表征包括人脸的图像和各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,上述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;将上述人脸图像输入预先训练的人脸关键点定位模型,得到上述人脸图像所包括的各个人脸关键点的坐标,其中,上述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率;基于上述被遮挡的概率,确定上述人脸图像的质量是否合格。
在一些实施例中,上述卷积神经网络是通过以下训练步骤训练得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注包括用于表征上述样本图像中的像素点是否归属于上述类别标识集合中的每个类别标识所指示的类别的数据标记;利用机器学习方法,并基于上述样本图像、上述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络,其中,上述分类损失函数用于表征上述卷积神经网络输出的概率与上述标注中所包含的数据标记的差异程度。
在一些实施例中,上述卷积神经网络包括5个卷积层和5个反卷积层,上述卷积层用于以预设的窗口滑动步长对所输入的信息执行下采样操作,上述反卷积层用于以预设的放大倍数对所输入的信息进行上采样操作。
在一些实施例中,上述窗口滑动步长为2,上述放大倍数为2。
在一些实施例中,上述基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率,包括:将上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率和上述人脸图像所包括的各个人脸关键点的坐标输入预设的概率计算模型,得到上述人脸图像被遮挡的概率,其中,上述概率计算模型用于表征输入信息与被遮挡的概率的对应关系,上述输入信息包括:包括人脸的图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率、该图像所包括的各个人脸关键点的坐标。
在一些实施例中,上述基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率,还包括:基于上述坐标,确定人脸部位区域集合;对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率;基于上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定上述人脸图像被遮挡的概率。
在一些实施例中,上述对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率,包括:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的像素点的数目,将上述数目与该人脸部位区域所包括的像素点的总数目的比值确定为该人脸部位区域被遮挡的概率。
在一些实施例中,上述对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率,还包括:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的目标像素点组,对所确定的上述目标像素点组中的各个目标像素点归属于与该人脸部位匹配的类别的概率求和得到第一值,对该人脸部位区域内的各个像素点归属于与该人脸部位匹配的类别的概率求和得到第二值,将上述第一值与上述第二值的比值确定为该人脸区域被遮挡的概率。
在一些实施例中,上述基于上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定上述人脸图像被遮挡的概率,包括:将上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率的平均值确定上述人脸图像被遮挡的概率。
在一些实施例中,上述基于上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定上述人脸图像被遮挡的概率,还包括:获取预设的用于表征人脸部位重要等级的权重值;基于上述权重值,对上述人脸部位区域集合中的人脸部位区域被遮挡的概率进行加权求和,将经加权求和后所得的数值确定为上述人脸图像被遮挡的概率。
在一些实施例中,上述基于上述人脸区域信息,从上述待检测图像中提取人脸图像,包括:扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取上述第一人脸区域得到上述人脸图像。
在一些实施例中,上述人脸区域为矩形区域;以及上述扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域,包括:将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
在一些实施例中,上述基于上述被遮挡的概率,确定上述人脸图像的质量是否合格,包括:确定上述被遮挡的概率是否低于概率阈值,若是,则确定上述人脸图像的质量合格。
第二方面,本申请实施例提供了一种用于检测图像质量的装置,该装置包括:获取单元,配置用于获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;提取单元,配置用于基于上述人脸区域信息,从上述待检测图像中提取人脸图像;第一输入单元,配置用于将上述人脸图像输入预先训练的卷积神经网络,得到上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,上述卷积神经网络用于表征包括人脸的图像和各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,上述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;第二输入单元,配置用于将上述人脸图像输入预先训练的人脸关键点定位模型,得到上述人脸图像所包括的各个人脸关键点的坐标,其中,上述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;第一确定单元,配置用于基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率;第二确定单元,配置用于基于上述被遮挡的概率,确定上述人脸图像的质量是否合格。
在一些实施例中,上述卷积神经网络是通过以下训练步骤训练得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注包括用于表征上述样本图像中的像素点是否归属于上述类别标识集合中的每个类别标识所指示的类别的数据标记;利用机器学习方法,并基于上述样本图像、上述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络,其中,上述分类损失函数用于表征上述卷积神经网络输出的概率与上述标注中所包含的数据标记的差异程度。
在一些实施例中,上述第一确定单元包括:第一确定子单元,配置用于基于上述坐标,确定人脸部位区域集合;第二确定子单元,配置用于对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;计算子单元,配置用于对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率;第三确定子单元,配置用于基于上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定上述人脸图像被遮挡的概率。
在一些实施例中,上述卷积神经网络包括5个卷积层和5个反卷积层,上述卷积层用于以预设的窗口滑动步长对所输入的信息执行下采样操作,上述反卷积层用于以预设的放大倍数对所输入的信息进行上采样操作。
在一些实施例中,上述窗口滑动步长为2,上述放大倍数为2。
在一些实施例中,上述第一确定单元还包括:输入子单元,配置用于将上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率和上述人脸图像所包括的各个人脸关键点的坐标输入预设的概率计算模型,得到上述人脸图像被遮挡的概率,其中,上述概率计算模型用于表征输入信息与被遮挡的概率的对应关系,上述输入信息包括:包括人脸的图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率、该图像所包括的各个人脸关键点的坐标。
在一些实施例中,上述计算子单元进一步配置用于:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的像素点的数目,将上述数目与该人脸部位区域所包括的像素点的总数目的比值确定为该人脸部位区域被遮挡的概率。
在一些实施例中,上述计算子单元还进一步配置用于:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的目标像素点组,对所确定的上述目标像素点组中的各个目标像素点归属于与该人脸部位匹配的类别的概率求和得到第一值,对该人脸部位区域内的各个像素点归属于与该人脸部位匹配的类别的概率求和得到第二值,将上述第一值与上述第二值的比值确定为该人脸区域被遮挡的概率。
在一些实施例中,上述第三确定子单元进一步配置用于:将上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率的平均值确定上述人脸图像被遮挡的概率。
在一些实施例中,上述第三确定子单元还进一步配置用于:获取预设的用于表征人脸部位重要等级的权重值;基于上述权重值,对上述人脸部位区域集合中的人脸部位区域被遮挡的概率进行加权求和,将经加权求和后所得的数值确定为上述人脸图像被遮挡的概率。
在一些实施例中,上述提取单元包括:扩大子单元,配置用于扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取子单元,配置用于截取上述第一人脸区域得到上述人脸图像。
在一些实施例中,上述人脸区域为矩形区域;以及上述扩大子单元进一步配置用于:将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
在一些实施例中,上述第二确定单元进一步配置用于:确定上述被遮挡的概率是否低于概率阈值,若是,则确定上述人脸图像的质量合格。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,上述程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于检测图像质量的方法和装置,通过获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息,以便基于该人脸区域信息,从该待检测图像中提取人脸图像。而后将该人脸图像输入预先训练的卷积神经网络,以便得到该人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。通过将该人脸图像输入预先训练的人脸关键点定位模型以便得到该人脸图像所包括的各个人脸关键点的坐标。最后,基于该概率和该坐标,确定该人脸图像被遮挡的概率,以便基于该被遮挡的概率,确定该人脸图像的质量是否合格。从而有效利用了对人脸图像的提取,可以缩小检测范围,提高图像质量检测效率。
而且,通过对人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的确定,以及对人脸图像所包括的各个人脸关键点的坐标的确定,可以综合该概率和该坐标来确定人脸图像被遮挡的概率,可以提高该被遮挡的概率的准确度,进而可以提高图像质量检测结果的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性***架构图;
图2是根据本申请的用于检测图像质量的方法的一个实施例的流程图;
图3是根据本申请的用于检测图像质量的方法的一个应用场景的示意图;
图4是根据本申请的用于检测图像质量的方法的又一个实施例的流程图;
图5是根据本申请的用于检测图像质量的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于检测图像质量的方法或用于检测图像质量的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括数据存储用服务器101,网络102和图像处理服务器103。网络102用以在数据存储用服务器101和图像处理服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
数据存储用服务器101可以是提供各种服务的服务器,例如用于存储包括人脸的图像和用于指示该图像中的人脸区域的人脸区域信息的服务器。可选地,数据存储用服务器101还可以具有人脸检测功能,该人脸区域信息可以是数据存储用服务器101对该图像进行人脸检测后所生成的信息。
图像处理服务器103可以是提供各种服务的服务器,例如从数据存储用服务器101获取待检测图像和用于指示该待检测图像中的人脸区域的人脸区域信息,并基于该待检测图像和该人脸区域信息进行相应的检测操作,得到检测结果。
需要说明的是,本申请实施例所提供的用于检测图像质量的方法一般由图像处理服务器103执行,相应地,用于检测图像质量的装置一般设置于图像处理服务器103中。
需要指出的是,若图像处理服务器103所要获取的待检测图像和用于指示该待检测图像中的人脸区域的人脸区域信息预先存储在图像处理服务器103本地,则***架构100中可以不包括数据存储用服务器101。
应该理解,图1中的数据存储用服务器、网络和图像处理服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的数据存储用服务器、网络和图像处理服务器。
继续参考图2,示出了根据本申请的用于检测图像质量的方法的一个实施例的流程200。该用于检测图像质量的方法的流程200,包括以下步骤:
步骤201,获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息。
在本实施例中,用于检测图像质量的方法运行于其上的电子设备(例如图1所示的图像处理服务器103)可以通过有线连接方式或无线连接方式从所连接的数据存储用服务器(例如图1所示的数据存储用服务器101)获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息。当然,若该待检测图像和该人脸区域信息预先存储在上述电子设备本地,上述电子设备可以本地获取该待检测图像和该人脸区域信息。
需要说明的是,人脸区域可以是具有任意形状(例如圆形、矩形等等)的人脸区域。这里,当上述待检测图像中的人脸区域为圆形区域时,上述人脸区域信息例如可以包括该人脸区域的中心点的坐标和该人脸区域的半径。当上述待检测图像中的人脸区域为矩形区域时,上述人脸区域信息例如可以包括该人脸区域的至少一个顶点的坐标、高度和宽度等等。
需要指出的是,上述待检测图像和上述人脸区域信息可以是上述电子设备主动获取的,也可以是上述电子设备被动获取的(例如是上述数据存储用服务器发送给上述电子设备的),本实施例不对此方面内容做任何限定。
在本实施例的一些可选的实现方式中,上述电子设备还可以从所连接的终端设备获取上述待检测图像和上述人脸区域信息。需要说明的是,本实施例不对上述待检测图像和上述人脸区域信息的来源做任何限定。
步骤202,基于人脸区域信息,从待检测图像中提取人脸图像。
在本实施例中,上述电子设备在获取到上述待检测图像和上述人脸区域信息后,上述电子设备可以基于上述人脸区域信息,从上述待检测图像中提取人脸图像。作为示例,上述电子设备可以在上述待检测图像中截取上述人脸区域信息所指示的人脸区域得到人脸图像。
步骤203,将人脸图像输入预先训练的卷积神经网络,得到人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。
在本实施例中,上述电子设备在得到人脸图像后,上述电子设备可以将该人脸图像输入预先训练的卷积神经网络,得到人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。其中,该卷积神经网络可以用于表征包括人脸的图像和各个像素点归属于该类别标识集合中的每个类别标识所指示的类别的概率的对应关系。该类别标识集合中可以存在所指示的类别用于表征人脸部位(例如眼睛、眉毛、额头、下巴、鼻子、腮部等等)的类别标识。而且,该类别标识集合中还可以存在所指示的类别用于表征头发、背景等的类别标识。另外,上述卷积神经网络输出的概率可以是位于区间[0,1]内的数值。
实践中,卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现。因而,可以利用卷积神经网络来确定上述人脸图像中的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率。
需要说明的是,上述卷积神经网络可以是利用机器学习方法和训练样本对现有的深度卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。需要指出的是,上述卷积神经网络可以包括至少一个卷积层和至少一个反卷积层。卷积层例如可以对所输入的信息进行下采样操作。反卷积层例如可以对所输入的信息进行上采样操作。而且,上述卷积神经网络还可以使用各种非线性激活函数(例如ReLU(RectifiedLinear Units,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
步骤204,将人脸图像输入预先训练的人脸关键点定位模型,得到人脸图像所包括的各个人脸关键点的坐标。
在本实施例中,上述电子设备还可以将所提取的人脸图像输入预先训练的人脸关键点定位模型,得到该人脸图像所包括的各个人脸关键点的坐标。其中,该人脸关键点定位模型可以用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系。需要说明的是,人脸关键点可以是预先指定的、人脸中的具有较强语义信息的点(例如眼角、嘴角、鼻翼位置、轮廓中的点等)。实践中,人脸关键点的数量可以是72个,也可以是其他预设的数值,本实施例不对此方面内容做任何限定。
这里,上述人脸关键点定位模型可以是技术人员基于大量统计而预先制定的、用于表征包括人脸的图像与人脸关键点的坐标的对应关系的对应关系表;也可以是使用现有的各种逻辑回归模型(Logistic Regression,LR)进行训练得到的。
需要说明的是,步骤203和步骤204可以并行执行,也可以串行执行。在串行执行时,本实施例不对步骤203和步骤204的先后执行顺序做任何限定。
在本实施例的一些可选的实现方式中,上述人脸关键点定位模型例如可以是通过机器学习方法和训练样本对现有的深度卷积神经网络进行有监督训练而得到的。需要指出的是,上述人脸关键点定位模型例如可以包括至少一个卷积层、至少一个池化层和至少一个全连接层(Fully Connected Layers,FC)。其中,该卷积层可以用于提取图像特征(图像的特征可以是图像的各种基本要素,例如颜色、线条、纹理等);池化层可以用于对输入的信息进行降采样;该至少一个全连接层中可以包括用于输出各个人脸关键点的坐标的全连接层。此外,上述人脸关键点定位模型还可以使用各种非线性激活函数(例如ReLU(RectifiedLinear Unit,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
步骤205,基于上述概率和上述坐标,确定人脸图像被遮挡的概率。
在本实施例中,上述电子设备在执行完步骤203和步骤204后,上述电子设备可以基于步骤203所得的概率和步骤204所得坐标,确定上述人脸图像被遮挡的概率。
作为示例,首先,上述电子设备可以基于上述人脸图像所包括的各个人脸关键点在上述人脸图像中所处的位置,得到该各个人脸关键点的语义信息。而后,上述电子设备可以基于步骤203所得的概率,查询出每个人脸关键点归属于上述类别标识集合中的每个类别标识所指示的类别的概率(该概率是在步骤203中确定的、与该人脸关键点处于同一位置的像素点所对应的概率),并且可以将最大概率所对应的类别标识作为与该人脸关键点对应的类别标识。然后,上述电子设备可以在上述人脸图像所包括的各个人脸关键点中查找出语义信息与所对应的类别标识所指示的类别不匹配(例如语义信息表示的是眼角,所对应的类别标识所指示的类别表征的是腮部,由于眼角不属于腮部,所以该语义信息与该类别不匹配)的人脸关键点,并将该人脸关键点归入人脸关键点组。最后,上述电子设备可以将该人脸关键点组所包括的人脸关键点的总数目与上述人脸图像所包括的人脸关键点的总数目的比值确定为上述人脸图像被遮挡的概率。
在本实施例的一些可选的实现方式中,上述电子设备可以将上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率和上述人脸图像所包括的各个人脸关键点的坐标输入预设的概率计算模型,得到上述人脸图像被遮挡的概率。其中,该概率计算模型可以用于表征输入信息与被遮挡的概率的对应关系。该输入信息可以包括:包括人脸的图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率、该图像所包括的各个人脸关键点的坐标。
需要说明的是,上述概率计算模型可以是技术人员基于大量统计而预先制定的、用于表征上述输入信息与被遮挡的概率的对应关系的对应关系表;也可以是技术人员基于大量统计而预先制定的、用于基于包括人脸的图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率和该图像所包括的各个人脸关键点的坐标,计算该图像被遮挡的概率的计算公式。
步骤206,基于人脸图像被遮挡的概率,确定人脸图像的质量是否合格。
在本实施例中,上述电子设备在确定上述人脸图像被遮挡的概率后,上述电子设备可以基于该被遮挡的概率,确定上述人脸图像的质量是否合格。作为示例,上述电子设备可以将该被遮挡的概率与预设的概率阈值进行比较,若该被遮挡的概率不低于该概率阈值,则上述电子设备可以确定上述人脸图像的质量不合格。需要说明的是,该概率阈值例如可以是0.5等数值,该概率阈值是可以根据实际需要进行修改的,本实施例不对此方面内容做任何限定。
可选地,若该被遮挡的概率低于该概率阈值,则上述电子设备可以确定上述人脸图像的质量合格。
在本实施例的一些可选的实现方式中,若上述电子设备确定上述人脸图像的质量合格,上述电子设备还可以输出上述待检测图像。例如将上述待检测图像输出至用于对上述待检测图像进行人脸识别的***。
在本实施例的一些可选的实现方式中,上述电子设备还可以生成检测结果。该检测结果例如可以包括用于指示上述人脸图像的质量是否合格的标识。此外,上述待检测图像可以具有图像标识,该检测结果还可以包括以下至少一项:上述图像标识、上述人脸图像在上述待检测图像中所处的位置、上述人脸图像被遮挡的概率。
继续参见图3,图3是根据本实施例的用于检测图像质量的方法的应用场景的一个示意图。在图3的应用场景中,图像处理服务器301可以从所连接的数据存储用服务器302获取待检测图像303和预先对待检测图像303进行人脸检测后、用于指示待检测图像303中的人脸区域的人脸区域信息304。而后,图像处理服务器301可以在待检测图像303中截取人脸区域信息304所指示的人脸区域,得到人脸图像305。之后,图像处理服务器301可以同时将人脸图像305输入预先训练的卷积神经网络和人脸关键点定位模型,得到卷积神经网络输出的人脸图像305所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率306,以及得到人脸关键点定位模型输出的各个人脸关键点的坐标307。然后,图像处理服务器301可以基于概率306和坐标307,确定人脸图像305被遮挡的概率308。最后,图像处理服务器301可以将被遮挡的概率308与概率阈值进行比较,得出针对人脸图像305的质量是否合格的检测结果309。
本申请的上述实施例提供的方法有效利用了对人脸图像的提取,可以缩小检测范围,提高图像质量检测效率。
而且,通过对人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的确定,以及对人脸图像所包括的各个人脸关键点的坐标的确定,可以综合该概率和该坐标来确定人脸图像被遮挡的概率,可以提高该被遮挡的概率的准确度,进而可以提高图像质量检测结果的准确度。
进一步参见图4,其示出了用于检测图像质量的方法的又一个实施例的流程400。该用于检测图像质量的方法的流程400,包括以下步骤:
步骤401,获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息。
在本实施例中,用于检测图像质量的方法运行于其上的电子设备(例如图1所示的图像处理服务器103)可以通过有线连接方式或无线连接方式从所连接的数据存储用服务器(例如图1所示的数据存储用服务器101)获取待检测图像和预先对该待检测图像进行人脸检测后所得的、用于指示该待检测图像中的人脸区域的人脸区域信息。当然,若该待检测图像和该人脸区域信息预先存储在上述电子设备本地,上述电子设备可以本地获取该待检测图像和该人脸区域信息。需要指出的是,人脸区域可以为矩形区域。
步骤402,扩大人脸区域信息所指示的人脸区域的范围,得到第一人脸区域,并截取第一人脸区域得到人脸图像。
在本实施例中,上述电子设备在获取到上述待检测图像和上述人脸区域信息后,上述电子设备可以扩大人脸区域信息所指示的人脸区域的范围,得到第一人脸区域。上述电子设备可以截取该第一人脸区域得到人脸图像。
在本实施例中,上述电子设备可以将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值,将经扩大后的人脸区域作为第一人脸区域。这里,该预设倍数例如可以是1等数值。而且,该高度和该宽度可以对应同一个预设数值,也可以对应不同的预设数值。例如,与该高度对应的预设数值是与该高度相同的数值;与该宽度对应的预设数值是与该高度相同的数值。预设倍数和预设数值是可以根据实际需要进行修改的,本实施例不对此方面内容做任何限定。
步骤403,将人脸图像输入预先训练的卷积神经网络,得到人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。
在本实施例中,上述电子设备在得到人脸图像后,上述电子设备可以将人脸图像输入预先训练的卷积神经网络,得到人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率。其中,该卷积神经网络可以用于表征包括人脸的图像和各个像素点归属于该类别标识集合中的每个类别标识所指示的类别的概率的对应关系。该类别标识集合中可以存在所指示的类别用于表征人脸部位(例如眼睛、眉毛、额头、下巴、鼻子、腮部等等)的类别标识。而且,该类别标识集合中还可以存在所指示的类别用于表征头发、背景等的类别标识。
这里,上述卷积神经网络例如可以包括5个卷积层和5个反卷积层。该卷积层可以用于以预设的窗口滑动步长对所输入的信息执行下采样操作。该反卷积层可以用于以预设的放大倍数对所输入的信息进行上采样操作。其中,该窗口滑动步长可以是2。该放大倍数可以是2。
需要说明的是,上述卷积神经网络可以是通过以下训练步骤训练得到的:
首先,上述电子设备可以提取预置的、包括显示有人脸的样本图像和该样本图像的标注的训练样本。其中,该标注可以包括用于表征该样本图像中的像素点是否归属于上述类别标识集合中的每个类别标识所指示的类别的数据标记。这里,每个像素点所对应的数据标记的数目与上述类别标识集合中的类别标识的数目相同。需要说明的是,数据标记可以包括0和1。0可以表示“不归属于”;1可以表示“归属于”。作为示例,对于任意一个像素点和任意一个类别标识,若同时与该像素点和该类别标识相关联的数据标记为0,则可以表征该像素点不归属于该类别标识所指示的类别。需要指出的是,上述标注可以用矩阵表示。
而后,上述电子设备可以利用机器学习方法,并基于上述样本图像、上述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络。其中,该分类损失函数可以用于表征该卷积神经网络输出的概率与上述标注中所包括的数据标记的差异程度。上述分类损失函数可以是各种用于分类的损失函数(例如Hinge Loss函数或Softmax Loss函数等)。在训练过程中,分类损失函数可以约束卷积核修改的方式和方向,训练的目标为使分类损失函数的值最小。因而,训练后得到的卷积神经网络的参数即为分类损失函数的值为最小值时所对应的参数。
需要说明的是,上述反向传播算法(Back Propgation Algorithm,BP算法)也可称为误差反向传播(Error Back Propagation,BP)算法,或误差逆传播算法。BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。在前馈网络中,输入信号经输入层输入,通过隐层计算由输出层输出,输出值与标记值比较,若有误差,将误差25反向由输出层向输入层传播,在这个过程中,可以利用梯度下降算法(例如随机梯度下降算法)对神经元权值(例如卷积层中卷积核的参数等)进行调整。此处,上述分类损失函数即可用于表征输出值与标记值的误差。
步骤404,将人脸图像输入预先训练的人脸关键点定位模型,得到人脸图像所包括的各个人脸关键点的坐标。
在本实施例中,上述电子设备还可以将所得的人脸图像输入预先训练的人脸关键点定位模型,得到该人脸图像所包括的各个人脸关键点的坐标。其中,该人脸关键点定位模型可以用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系。
这里,人脸关键点定位模型可以是技术人员基于大量统计而预先制定的、用于表征包括人脸的图像与人脸关键点的坐标的对应关系的对应关系表;可以是使用现有的各种逻辑回归模型(Logistic Regression,LR)进行训练得到的;也可以是通过机器学习方法和训练样本对现有的深度卷积神经网络进行有监督训练而得到的。
需要说明的是,步骤403和步骤404可以并行执行,也可以串行执行。在串行执行时,本实施例不对步骤403和步骤404的先后执行顺序做任何限定。
步骤405,基于各个人脸关键点的坐标,确定人脸部位区域集合。
在本实施例中,上述电子设备在得到上述人脸图像所包括的各个人脸关键点的坐标后,上述电子设备可以基于该坐标确定人脸部位区域集合。其中,不同的人脸部位区域可以包括人脸的不同部位,例如眼睛、嘴巴、鼻子、额头、下巴等等。其中,眼睛还可以区分为左眼和右眼。这里,上述电子设备可以基于该各个人脸关键点在上述人脸图像中所处的位置确定该各个人脸关键点的语义信息,例如表示眼角、嘴角、鼻翼等等的语义信息。上述电子设备可以根据该语义信息,确定至少一个用于表征人脸的部位的闭合区域,并将所确定的各个闭合区域确定为人脸部位区域集合。
以左眼为例,上述电子设备可以查找出位置处于人脸左侧、且语义信息与眼睛有关(例如语义信息表示眼角、上眼缘、下眼缘等)的各个人脸关键点,上述电子设备可以将该各个人脸关键点所形成的面积最大的闭合区域作为用于表征左眼的人脸部位区域。
步骤406,对于人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别。
在本实施例中,对于上述人脸图像所包括的每个像素点,上述电子设备可以将在步骤403所确定的、与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别。作为示例,对于某个像素点P,假定上述类别标识集合中的包括类别标识A、B、C,像素点P归属于类别标识A所指示的类别的概率为0.6,归属于类别标识B所指示的类别的概率为0.7,归属于类别标识C所指示的类别的概率为0.8,则与像素点P对应的最大概率为0.8,上述电子设备可以将类别标识C所指示的类别确定为像素点P所归属的类别。
步骤407,对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率。
在本实施例中,上述电子设备在确定人脸部位区域集合后,对于该人脸部位区域集合中的每个人脸部位区域,上述电子设备可以基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率。作为示例,上述电子设备可以确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的像素点的数目,将该数目与该人脸部位区域所包括的像素点的总数目的比值确定为该人脸部位区域被遮挡的概率。
需要说明的是,上述类别标识集合中的每个类别标识所指示的类别可以具有类别名称。上述电子设备可以预先建立类别名称与部位名称之间的对应关系。而且,上述电子设备可以为所确定的每个人脸部位区域指定对应的部位名称。上述电子设备可以通过该对应关系来确定像素点所归属的类别是否与人脸部位区域所表征的人脸部位匹配。
在本实施例的一些可选的实现方式中,上述电子设备还可以通过以下方式确定上述人脸部位区域集合中的人脸部位区域被遮挡的概率:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的目标像素点组,对该目标像素点组中的各个目标像素点归属于与该人脸部位匹配的类别的概率求和得到第一值,对该人脸部位区域内的各个像素点归属于与该人脸部位匹配的类别的概率求和得到第二值,将上述第一值与上述第二值的比值确定为该人脸区域被遮挡的概率。
步骤408,基于人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定人脸图像被遮挡的概率。
在本实施例中,上述电子设备在确定上述人脸部位区域集合中的每个人脸部位区域被遮挡的概率后,上述电子设备可以基于该概率,确定人脸图像被遮挡的概率。作为示例,上述电子设备可以将上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率的平均值确定上述人脸图像被遮挡的概率。
在本实施例的一些可选的实现方式中,上述电子设备还可以获取预设的用于表征人脸部位重要等级的权重值。上述电子设备可以基于该权重值,对上述人脸部位区域集合中的人脸部位区域被遮挡的概率进行加权求和,将经加权求和后所得的数值确定为上述人脸图像被遮挡的概率。
作为示例,假定上述人脸部位区域集合包括人脸部位区域A、B、C,人脸部位区域A、B、C所表征的人脸部位依次为左眼、右眼、嘴巴,人脸部位区域A、B、C被遮挡的概率依次为0.3、0.3、0.6。与左眼对应的权重值为0.4,与右眼对应的权重值为0.4,与嘴巴对应的权重值为0.2。上述电子设备可以将人脸部位区域A被遮挡的概率0.3与权重值0.4相乘得到乘积0.12,将人脸部位区域B被遮挡的概率0.3与权重值0.4相乘得到乘积0.12,以及将人脸部位区域C被遮挡的概率0.6与权重值0.2相乘得到乘积0.12。然后上述电子设备可以对所得的三个乘积求和,得到0.36,并将0.36确定为上述人脸图像被遮挡的概率。
需要说明的是,上述电子所获取到的各个权重值的总和可以为1。
步骤409,基于人脸图像被遮挡的概率,确定人脸图像的质量是否合格。
在本实施例中,上述电子设备在确定上述人脸图像被遮挡的概率后,上述电子设备可以基于该被遮挡的概率,确定上述人脸图像的质量是否合格。作为示例,上述电子设备可以将该被遮挡的概率与预设的概率阈值进行比较,若该被遮挡的概率不低于该概率阈值,则上述电子设备可以确定上述人脸图像的质量不合格;否则,上述电子设备可以确定上述人脸图像的质量合格。需要说明的是,该概率阈值例如可以是0.5等数值,该概率阈值是可以根据实际需要进行修改的,本实施例不对此方面内容做任何限定。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于检测图像质量的方法的流程400突出了对待检测图像中的人脸区域的范围进行扩大的步骤(即步骤402),以及对人脸图像被遮挡的概率进行确定的步骤(即步骤405-步骤408)。由此,本实施例描述的方案通过对人脸区域的范围进行扩大,可以扩大人脸图像的覆盖面积,使人脸图像尽可能地包括较多的人脸关键点。通过步骤405-步骤408来确定人脸图像被遮挡的概率,可以使该概率具有较高的准确度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于检测图像质量的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所示的用于检测图像质量的装置500包括:获取单元501、提取单元502、第一输入单元503、第二输入单元504、第一确定单元505和第二确定单元506。其中,获取单元501配置用于获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;提取单元502配置用于基于上述人脸区域信息,从上述待检测图像中提取人脸图像;第一输入单元503配置用于将上述人脸图像输入预先训练的卷积神经网络,得到上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,上述卷积神经网络用于表征包括人脸的图像和各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,上述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;第二输入单元504配置用于将上述人脸图像输入预先训练的人脸关键点定位模型,得到上述人脸图像所包括的各个人脸关键点的坐标,其中,上述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;第一确定单元505配置用于基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率;而第二确定单元506配置用于基于上述被遮挡的概率,确定上述人脸图像的质量是否合格。
在本实施例中,用于检测图像质量的装置500中:获取单元501、提取单元502、第一输入单元503、第二输入单元504、第一确定单元505和第二确定单元506的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204、步骤205和步骤206的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述卷积神经网络可以是通过以下训练步骤得到的:提取预置的、包括显示有人脸的样本图像和上述样本图像的标注的训练样本,其中,上述标注可以包括用于表征上述样本图像中的像素点是否归属于上述类别标识集合中的每个类别标识所指示的类别的数据标记;利用机器学习方法,并基于上述样本图像、上述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络,其中,上述分类损失函数可以用于表征上述卷积神经网络输出的概率与上述标注中所包含的数据标记的差异程度。
在本实施例的一些可选的实现方式中,上述第一确定单元505可以包括:第一确定子单元(图中未示出),配置用于基于上述坐标,确定人脸部位区域集合;第二确定子单元(图中未示出),配置用于对于上述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;计算子单元(图中未示出),配置用于对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率;第三确定子单元(图中未示出),配置用于基于上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定上述人脸图像被遮挡的概率。
在本实施例的一些可选的实现方式中,上述卷积神经网络可以包括5个卷积层和5个反卷积层,上述卷积层可以用于以预设的窗口滑动步长对所输入的信息执行下采样操作,上述反卷积层可以用于以预设的放大倍数对所输入的信息进行上采样操作。
在本实施例的一些可选的实现方式中,上述窗口滑动步长可以为2,上述放大倍数可以为2。
在本实施例的一些可选的实现方式中,上述第一确定单元505还可以包括:输入子单元(图中未示出),配置用于将上述人脸图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率和上述人脸图像所包括的各个人脸关键点的坐标输入预设的概率计算模型,得到上述人脸图像被遮挡的概率,其中,上述概率计算模型可以用于表征输入信息与被遮挡的概率的对应关系,上述输入信息可以包括:包括人脸的图像所包括的各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率、该图像所包括的各个人脸关键点的坐标。
在本实施例的一些可选的实现方式中,上述计算子单元可以进一步配置用于:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的像素点的数目,将上述数目与该人脸部位区域所包括的像素点的总数目的比值确定为该人脸部位区域被遮挡的概率。
在本实施例的一些可选的实现方式中,上述计算子单元还可以进一步配置用于:对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的目标像素点组,对所确定的上述目标像素点组中的各个目标像素点归属于与该人脸部位匹配的类别的概率求和得到第一值,对该人脸部位区域内的各个像素点归属于与该人脸部位匹配的类别的概率求和得到第二值,将上述第一值与上述第二值的比值确定为该人脸区域被遮挡的概率。
在本实施例的一些可选的实现方式中,上述第三确定子单元可以进一步配置用于:将上述人脸部位区域集合中的各个人脸部位区域被遮挡的概率的平均值确定上述人脸图像被遮挡的概率。
在本实施例的一些可选的实现方式中,上述第三确定子单元还可以进一步配置用于:获取预设的用于表征人脸部位重要等级的权重值;基于上述权重值,对上述人脸部位区域集合中的人脸部位区域被遮挡的概率进行加权求和,将经加权求和后所得的数值确定为上述人脸图像被遮挡的概率。
在本实施例的一些可选的实现方式中,上述提取单元502可以包括:扩大子单元(图中未示出),配置用于扩大上述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;截取子单元(图中未示出),配置用于截取上述第一人脸区域得到上述人脸图像。
在本实施例的一些可选的实现方式中,上述人脸区域可以为矩形区域;以及上述扩大子单元可以进一步配置用于:将上述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
在本实施例的一些可选的实现方式中,上述第二确定单元506可以进一步配置用于:确定上述被遮挡的概率是否低于概率阈值,若是,则确定上述人脸图像的质量合格。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机***600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的***中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、提取单元、第一输入单元、第二输入单元、第一确定单元和第二确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待检测图像和预先对待检测图像进行人脸检测后所得的、用于指示待检测图像中的人脸区域的人脸区域信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备包括:获取待检测图像和预先对上述待检测图像进行人脸检测后所得的、用于指示上述待检测图像中的人脸区域的人脸区域信息;基于上述人脸区域信息,从上述待检测图像中提取人脸图像;将上述人脸图像输入预先训练的卷积神经网络,得到上述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,上述卷积神经网络用于表征包括人脸的图像和各个像素点归属于上述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,上述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;将上述人脸图像输入预先训练的人脸关键点定位模型,得到上述人脸图像所包括的各个人脸关键点的坐标,其中,上述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;基于上述概率和上述坐标,确定上述人脸图像被遮挡的概率;基于上述被遮挡的概率,确定上述人脸图像的质量是否合格。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于检测图像质量的方法,其特征在于,所述方法包括:
获取待检测图像和预先对所述待检测图像进行人脸检测后所得的、用于指示所述待检测图像中的人脸区域的人脸区域信息;
基于所述人脸区域信息,从所述待检测图像中提取人脸图像;
将所述人脸图像输入预先训练的卷积神经网络,得到所述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,所述卷积神经网络用于表征包括人脸的图像和各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,所述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;
将所述人脸图像输入预先训练的人脸关键点定位模型,得到所述人脸图像所包括的各个人脸关键点的坐标,其中,所述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;
基于所述概率和所述坐标,确定所述人脸图像被遮挡的概率;
基于所述被遮挡的概率,确定所述人脸图像的质量是否合格。
2.根据权利要求1所述的方法,其特征在于,所述卷积神经网络是通过以下训练步骤训练得到的:
提取预置的、包括显示有人脸的样本图像和所述样本图像的标注的训练样本,其中,所述标注包括用于表征所述样本图像中的像素点是否归属于所述类别标识集合中的每个类别标识所指示的类别的数据标记;
利用机器学习方法,并基于所述样本图像、所述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络,其中,所述分类损失函数用于表征所述卷积神经网络输出的概率与所述标注中所包含的数据标记的差异程度。
3.根据权利要求1所述的方法,其特征在于,所述卷积神经网络包括5个卷积层和5个反卷积层,所述卷积层用于以预设的窗口滑动步长对所输入的信息执行下采样操作,所述反卷积层用于以预设的放大倍数对所输入的信息进行上采样操作。
4.根据权利要求3所述的方法,其特征在于,所述窗口滑动步长为2,所述放大倍数为2。
5.根据权利要求1所述的方法,其特征在于,所述基于所述概率和所述坐标,确定所述人脸图像被遮挡的概率,包括:
将所述人脸图像所包括的各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率和所述人脸图像所包括的各个人脸关键点的坐标输入预设的概率计算模型,得到所述人脸图像被遮挡的概率,其中,所述概率计算模型用于表征输入信息与被遮挡的概率的对应关系,所述输入信息包括:包括人脸的图像所包括的各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率、该图像所包括的各个人脸关键点的坐标。
6.根据权利要求1所述的方法,其特征在于,所述基于所述概率和所述坐标,确定所述人脸图像被遮挡的概率,还包括:
基于所述坐标,确定人脸部位区域集合;
对于所述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;
对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率;
基于所述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定所述人脸图像被遮挡的概率。
7.根据权利要求6所述的方法,其特征在于,所述对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率,包括:
对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的像素点的数目,将所述数目与该人脸部位区域所包括的像素点的总数目的比值确定为该人脸部位区域被遮挡的概率。
8.根据权利要求6所述的方法,其特征在于,所述对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率,还包括:
对于每个人脸部位区域,确定该人脸部位区域内的、所归属的类别与该人脸部位区域所表征的人脸部位不匹配的目标像素点组,对所确定的所述目标像素点组中的各个目标像素点归属于与该人脸部位匹配的类别的概率求和得到第一值,对该人脸部位区域内的各个像素点归属于与该人脸部位匹配的类别的概率求和得到第二值,将所述第一值与所述第二值的比值确定为该人脸区域被遮挡的概率。
9.根据权利要求6所述的方法,其特征在于,所述基于所述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定所述人脸图像被遮挡的概率,包括:
将所述人脸部位区域集合中的各个人脸部位区域被遮挡的概率的平均值确定所述人脸图像被遮挡的概率。
10.根据权利要求6所述的方法,其特征在于,所述基于所述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定所述人脸图像被遮挡的概率,还包括:
获取预设的用于表征人脸部位重要等级的权重值;
基于所述权重值,对所述人脸部位区域集合中的人脸部位区域被遮挡的概率进行加权求和,将经加权求和后所得的数值确定为所述人脸图像被遮挡的概率。
11.根据权利要求1所述的方法,其特征在于,所述基于所述人脸区域信息,从所述待检测图像中提取人脸图像,包括:
扩大所述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域;
截取所述第一人脸区域得到所述人脸图像。
12.根据权利要求11所述的方法,其特征在于,所述人脸区域为矩形区域;以及
所述扩大所述人脸区域信息所指示的人脸区域的范围,得到第一人脸区域,包括:
将所述人脸区域信息所指示的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
13.根据权利要求1所述的方法,其特征在于,所述基于所述被遮挡的概率,确定所述人脸图像的质量是否合格,包括:
确定所述被遮挡的概率是否低于概率阈值,若是,则确定所述人脸图像的质量合格。
14.一种用于检测图像质量的装置,其特征在于,所述装置包括:
获取单元,配置用于获取待检测图像和预先对所述待检测图像进行人脸检测后所得的、用于指示所述待检测图像中的人脸区域的人脸区域信息;
提取单元,配置用于基于所述人脸区域信息,从所述待检测图像中提取人脸图像;
第一输入单元,配置用于将所述人脸图像输入预先训练的卷积神经网络,得到所述人脸图像所包括的各个像素点归属于预设的类别标识集合中的每个类别标识所指示的类别的概率,其中,所述卷积神经网络用于表征包括人脸的图像和各个像素点归属于所述类别标识集合中的每个类别标识所指示的类别的概率的对应关系,所述类别标识集合中存在所指示的类别用于表征人脸部位的类别标识;
第二输入单元,配置用于将所述人脸图像输入预先训练的人脸关键点定位模型,得到所述人脸图像所包括的各个人脸关键点的坐标,其中,所述人脸关键点定位模型用于表征包括人脸的图像和各个人脸关键点的坐标的对应关系;
第一确定单元,配置用于基于所述概率和所述坐标,确定所述人脸图像被遮挡的概率;
第二确定单元,配置用于基于所述被遮挡的概率,确定所述人脸图像的质量是否合格。
15.根据权利要求14所述的装置,其特征在于,所述卷积神经网络是通过以下训练步骤得到的:
提取预置的、包括显示有人脸的样本图像和所述样本图像的标注的训练样本,其中,所述标注包括用于表征所述样本图像中的像素点是否归属于所述类别标识集合中的每个类别标识所指示的类别的数据标记;
利用机器学习方法,并基于所述样本图像、所述标注、预设的分类损失函数和反向传播算法训练得到卷积神经网络,其中,所述分类损失函数用于表征所述卷积神经网络输出的概率与所述标注中所包含的数据标记的差异程度。
16.根据权利要求14所述的装置,其特征在于,所述第一确定单元包括:
第一确定子单元,配置用于基于所述坐标,确定人脸部位区域集合;
第二确定子单元,配置用于对于所述人脸图像所包括的每个像素点,将与该像素点对应的最大概率所对应的类别标识所指示的类别确定为该像素点所归属的类别;
计算子单元,配置用于对于每个人脸部位区域,基于该人脸部位区域所包括的各个像素点所归属的类别,计算该人脸部位区域被遮挡的概率;
第三确定子单元,配置用于基于所述人脸部位区域集合中的各个人脸部位区域被遮挡的概率,确定所述人脸图像被遮挡的概率。
17.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-13中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-13中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710908705.7A CN107679490B (zh) | 2017-09-29 | 2017-09-29 | 用于检测图像质量的方法和装置 |
US16/050,346 US11487995B2 (en) | 2017-09-29 | 2018-07-31 | Method and apparatus for determining image quality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710908705.7A CN107679490B (zh) | 2017-09-29 | 2017-09-29 | 用于检测图像质量的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107679490A CN107679490A (zh) | 2018-02-09 |
CN107679490B true CN107679490B (zh) | 2019-06-28 |
Family
ID=61138595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710908705.7A Active CN107679490B (zh) | 2017-09-29 | 2017-09-29 | 用于检测图像质量的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11487995B2 (zh) |
CN (1) | CN107679490B (zh) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017015390A1 (en) * | 2015-07-20 | 2017-01-26 | University Of Maryland, College Park | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition |
JP7198577B2 (ja) * | 2017-11-17 | 2023-01-04 | シスメックス株式会社 | 画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法 |
CN108389172B (zh) * | 2018-03-21 | 2020-12-18 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108197618B (zh) * | 2018-04-08 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 用于生成人脸检测模型的方法和装置 |
CN108956653A (zh) * | 2018-05-31 | 2018-12-07 | 广东正业科技股份有限公司 | 一种焊点质量检测方法、***、装置及可读存储介质 |
CN108986169A (zh) * | 2018-07-06 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN109117736B (zh) * | 2018-07-19 | 2020-11-06 | 厦门美图之家科技有限公司 | 一种判定人脸点可见性的方法及计算设备 |
CN109034085B (zh) * | 2018-08-03 | 2020-12-04 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109242831A (zh) * | 2018-08-20 | 2019-01-18 | 百度在线网络技术(北京)有限公司 | 图像质量检测方法、装置、计算机设备和存储介质 |
CN109344752B (zh) * | 2018-09-20 | 2019-12-10 | 北京字节跳动网络技术有限公司 | 用于处理嘴部图像的方法和装置 |
CN109241930B (zh) * | 2018-09-20 | 2021-03-02 | 北京字节跳动网络技术有限公司 | 用于处理眉部图像的方法和装置 |
CN109840486B (zh) * | 2019-01-23 | 2023-07-21 | 深圳市中科晟达互联智能科技有限公司 | 专注度的检测方法、计算机存储介质和计算机设备 |
CN111488774A (zh) * | 2019-01-29 | 2020-08-04 | 北京搜狗科技发展有限公司 | 一种图像处理方法、装置和用于图像处理的装置 |
CN109948441B (zh) * | 2019-02-14 | 2021-03-26 | 北京奇艺世纪科技有限公司 | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109871802A (zh) * | 2019-02-15 | 2019-06-11 | 深圳和而泰数据资源与云技术有限公司 | 图像检测方法及图像检测装置 |
CN109978840A (zh) * | 2019-03-11 | 2019-07-05 | 太原理工大学 | 一种基于卷积神经网络的含纹理图像质量的判别方法 |
CN109949281A (zh) * | 2019-03-11 | 2019-06-28 | 哈尔滨工业大学(威海) | 一种胃镜图像质量检测方法及装置 |
CN111723828B (zh) * | 2019-03-18 | 2024-06-11 | 北京市商汤科技开发有限公司 | 注视区域检测方法、装置及电子设备 |
CN110084317B (zh) * | 2019-05-06 | 2023-04-21 | 北京字节跳动网络技术有限公司 | 用于识别图像的方法和装置 |
CN110147776B (zh) * | 2019-05-24 | 2021-06-11 | 北京百度网讯科技有限公司 | 确定人脸关键点位置的方法和装置 |
WO2020248424A1 (zh) * | 2019-06-12 | 2020-12-17 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN110349152A (zh) * | 2019-07-16 | 2019-10-18 | 广州图普网络科技有限公司 | 人脸图像质量检测方法及装置 |
CN110632094B (zh) * | 2019-07-24 | 2022-04-19 | 北京中科慧眼科技有限公司 | 一种基于逐点比对分析的图纹质量检测方法,装置与*** |
CN110689479B (zh) * | 2019-09-26 | 2023-05-30 | 北京达佳互联信息技术有限公司 | 一种人脸上妆方法、装置、设备及介质 |
CN110827195B (zh) * | 2019-10-31 | 2023-09-22 | 北京达佳互联信息技术有限公司 | 虚拟物品添加方法、装置、电子设备及存储介质 |
CN110827261B (zh) * | 2019-11-05 | 2022-12-06 | 泰康保险集团股份有限公司 | 图像质量检测方法及装置、存储介质及电子设备 |
CN111027504A (zh) * | 2019-12-18 | 2020-04-17 | 上海眼控科技股份有限公司 | 人脸关键点检测方法、装置、设备及存储介质 |
CN111144344B (zh) * | 2019-12-30 | 2023-09-22 | 广州市百果园网络科技有限公司 | 人物年龄的确定方法、装置、设备及存储介质 |
CN111209873A (zh) * | 2020-01-09 | 2020-05-29 | 杭州趣维科技有限公司 | 一种基于深度学习的高精度人脸关键点定位方法及*** |
CN111311542B (zh) * | 2020-01-15 | 2023-09-19 | 歌尔股份有限公司 | 一种产品质量检测方法及装置 |
CN111310624B (zh) * | 2020-02-05 | 2023-11-21 | 腾讯科技(深圳)有限公司 | 遮挡识别方法、装置、计算机设备及存储介质 |
CN111507354B (zh) * | 2020-04-17 | 2023-12-12 | 北京百度网讯科技有限公司 | 信息抽取方法、装置、设备以及存储介质 |
CN111523480B (zh) * | 2020-04-24 | 2021-06-18 | 北京嘀嘀无限科技发展有限公司 | 一种面部遮挡物的检测方法、装置、电子设备及存储介质 |
CN111695495B (zh) * | 2020-06-10 | 2023-11-14 | 杭州萤石软件有限公司 | 人脸识别方法、电子设备及存储介质 |
CN111738193A (zh) * | 2020-06-29 | 2020-10-02 | 湖南国科微电子股份有限公司 | 人脸抓拍方法和人脸抓拍*** |
CN111915567A (zh) * | 2020-07-06 | 2020-11-10 | 浙江大华技术股份有限公司 | 一种图像质量评估方法、装置、设备及介质 |
CN111797773A (zh) * | 2020-07-07 | 2020-10-20 | 广州广电卓识智能科技有限公司 | 一种人脸关键部位遮挡检测方法、装置和设备 |
CN111898561B (zh) * | 2020-08-04 | 2024-07-12 | 腾讯科技(深圳)有限公司 | 一种人脸认证方法、装置、设备及介质 |
CN112085701B (zh) * | 2020-08-05 | 2024-06-11 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112052746A (zh) * | 2020-08-17 | 2020-12-08 | 北京大米科技有限公司 | 目标检测方法、装置、电子设备和可读存储介质 |
CN111931712B (zh) * | 2020-09-18 | 2023-05-26 | 杭州海康威视数字技术股份有限公司 | 人脸识别方法、装置、抓拍机及*** |
CN112419170B (zh) * | 2020-10-16 | 2023-09-22 | 上海哔哩哔哩科技有限公司 | 遮挡检测模型的训练方法及人脸图像的美化处理方法 |
CN112365451B (zh) * | 2020-10-23 | 2024-06-21 | 微民保险代理有限公司 | 图像质量等级的确定方法、装置、设备及计算机可读介质 |
CN112200804A (zh) * | 2020-11-09 | 2021-01-08 | 北京地平线信息技术有限公司 | 图像检测方法、装置、计算机可读存储介质及电子设备 |
CN112149762A (zh) * | 2020-11-24 | 2020-12-29 | 北京沃东天骏信息技术有限公司 | 目标跟踪方法、目标跟踪装置及计算机可读存储介质 |
CN112826446A (zh) * | 2020-12-30 | 2021-05-25 | 上海联影医疗科技股份有限公司 | 一种医学扫描语音增强方法、装置、***及存储介质 |
CN112733743B (zh) * | 2021-01-14 | 2024-03-15 | 北京爱笔科技有限公司 | 模型训练方法、数据、图像质量评估方法及相关装置 |
CN112802108B (zh) * | 2021-02-07 | 2024-03-15 | 上海商汤科技开发有限公司 | 目标对象定位方法、装置、电子设备及可读存储介质 |
CN113221718B (zh) * | 2021-05-06 | 2024-01-16 | 新东方教育科技集团有限公司 | 公式识别方法、装置、存储介质和电子设备 |
CN113486759B (zh) * | 2021-06-30 | 2023-04-28 | 上海商汤临港智能科技有限公司 | 危险动作的识别方法及装置、电子设备和存储介质 |
CN115700840A (zh) * | 2021-07-30 | 2023-02-07 | 脸萌有限公司 | 图像属性分类方法、装置、电子设备、介质和程序产品 |
CN113723310B (zh) * | 2021-08-31 | 2023-09-05 | 平安科技(深圳)有限公司 | 基于神经网络的图像识别方法及相关装置 |
CN115272682A (zh) * | 2022-07-29 | 2022-11-01 | 上海弘玑信息技术有限公司 | 目标对象检测方法、目标检测模型的训练方法及电子设备 |
CN115661142B (zh) * | 2022-12-14 | 2023-03-28 | 广东工业大学 | 一种基于关键点检测的舌诊图像处理方法、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252628A (zh) * | 2013-06-28 | 2014-12-31 | 广州华多网络科技有限公司 | 人脸图像标注方法和*** |
CN104504376A (zh) * | 2014-12-22 | 2015-04-08 | 厦门美图之家科技有限公司 | 一种人脸图像的年龄分类方法和*** |
CN105868797A (zh) * | 2015-01-22 | 2016-08-17 | 深圳市腾讯计算机***有限公司 | 网络参数训练方法、景物类型识别方法及装置 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
US9741107B2 (en) * | 2015-06-05 | 2017-08-22 | Sony Corporation | Full reference image quality assessment based on convolutional neural network |
WO2017004803A1 (en) * | 2015-07-08 | 2017-01-12 | Xiaoou Tang | An apparatus and a method for semantic image labeling |
US10410330B2 (en) * | 2015-11-12 | 2019-09-10 | University Of Virginia Patent Foundation | System and method for comparison-based image quality assessment |
US9881234B2 (en) * | 2015-11-25 | 2018-01-30 | Baidu Usa Llc. | Systems and methods for end-to-end object detection |
US10235608B2 (en) * | 2015-12-22 | 2019-03-19 | The Nielsen Company (Us), Llc | Image quality assessment using adaptive non-overlapping mean estimation |
US10198624B2 (en) * | 2016-02-18 | 2019-02-05 | Pinscreen, Inc. | Segmentation-guided real-time facial performance capture |
US10572777B2 (en) * | 2016-03-11 | 2020-02-25 | Nec Corporation | Deep deformation network for object landmark localization |
US10002415B2 (en) * | 2016-04-12 | 2018-06-19 | Adobe Systems Incorporated | Utilizing deep learning for rating aesthetics of digital images |
US10423830B2 (en) * | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10579860B2 (en) * | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
US10354362B2 (en) * | 2016-09-08 | 2019-07-16 | Carnegie Mellon University | Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network |
US10528846B2 (en) * | 2016-11-14 | 2020-01-07 | Samsung Electronics Co., Ltd. | Method and apparatus for analyzing facial image |
US11854200B2 (en) * | 2016-12-30 | 2023-12-26 | Skinio, Inc. | Skin abnormality monitoring systems and methods |
CA3053368A1 (en) * | 2017-02-14 | 2018-08-23 | Dignity Health | Systems, methods, and media for selectively presenting images captured by confocal laser endomicroscopy |
WO2018186991A1 (en) * | 2017-04-04 | 2018-10-11 | Board Of Regents, The University Of Texas System | Assessing quality of images or videos using a two-stage quality assessment |
US11120314B2 (en) * | 2017-04-07 | 2021-09-14 | Intel Corporation | Joint training of neural networks using multi scale hard example mining |
GB201709672D0 (en) * | 2017-06-16 | 2017-08-02 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
KR102299847B1 (ko) * | 2017-06-26 | 2021-09-08 | 삼성전자주식회사 | 얼굴 인증 방법 및 장치 |
WO2019023500A1 (en) * | 2017-07-26 | 2019-01-31 | The Trustees Of Dartmouth College | PERCEPTUAL APPARATUS IMPLEMENTED BY COMPUTER |
CN107633218B (zh) * | 2017-09-08 | 2021-06-08 | 百度在线网络技术(北京)有限公司 | 用于生成图像的方法和装置 |
CN109493347B (zh) * | 2017-09-12 | 2021-03-23 | 深圳科亚医疗科技有限公司 | 在图像中对稀疏分布的对象进行分割的方法和*** |
US10540589B2 (en) * | 2017-10-24 | 2020-01-21 | Deep North, Inc. | Image quality assessment using similar scenes as reference |
-
2017
- 2017-09-29 CN CN201710908705.7A patent/CN107679490B/zh active Active
-
2018
- 2018-07-31 US US16/050,346 patent/US11487995B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104252628A (zh) * | 2013-06-28 | 2014-12-31 | 广州华多网络科技有限公司 | 人脸图像标注方法和*** |
CN104504376A (zh) * | 2014-12-22 | 2015-04-08 | 厦门美图之家科技有限公司 | 一种人脸图像的年龄分类方法和*** |
CN105868797A (zh) * | 2015-01-22 | 2016-08-17 | 深圳市腾讯计算机***有限公司 | 网络参数训练方法、景物类型识别方法及装置 |
CN106485215A (zh) * | 2016-09-29 | 2017-03-08 | 西交利物浦大学 | 基于深度卷积神经网络的人脸遮挡检测方法 |
CN106599830A (zh) * | 2016-12-09 | 2017-04-26 | 中国科学院自动化研究所 | 人脸关键点定位方法及装置 |
Non-Patent Citations (1)
Title |
---|
Yizhang Xia等.Face Occlusion Detection Using Deep Convolutional Neural Networks.《International Journal of Pattern Recognition and Arti¯cial Intelligence》.2016,第30卷(第9期),第1660010-1至1660010-24页. |
Also Published As
Publication number | Publication date |
---|---|
CN107679490A (zh) | 2018-02-09 |
US11487995B2 (en) | 2022-11-01 |
US20190102603A1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679490B (zh) | 用于检测图像质量的方法和装置 | |
CN108038469B (zh) | 用于检测人体的方法和装置 | |
CN107609536A (zh) | 信息生成方法和装置 | |
CN107590807A (zh) | 用于检测图像质量的方法和装置 | |
CN107590482A (zh) | 信息生成方法和装置 | |
CN108154196B (zh) | 用于输出图像的方法和装置 | |
CN107578034A (zh) | 信息生成方法和装置 | |
CN108509915A (zh) | 人脸识别模型的生成方法和装置 | |
CN108510472B (zh) | 用于处理图像的方法和装置 | |
CN108898186A (zh) | 用于提取图像的方法和装置 | |
CN108229485A (zh) | 用于测试用户界面的方法和装置 | |
CN108133201B (zh) | 人脸属性识别方法和装置 | |
CN110930297B (zh) | 人脸图像的风格迁移方法、装置、电子设备及存储介质 | |
CN109410218A (zh) | 用于生成车辆损伤信息的方法和装置 | |
CN108537152A (zh) | 用于检测活体的方法和装置 | |
CN108898185A (zh) | 用于生成图像识别模型的方法和装置 | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和*** | |
CN107622252A (zh) | 信息生成方法和装置 | |
CN110443222A (zh) | 用于训练脸部关键点检测模型的方法和装置 | |
CN109063587A (zh) | 数据处理方法、存储介质和电子设备 | |
CN108509892A (zh) | 用于生成近红外图像的方法和装置 | |
CN109558779A (zh) | 图像检测方法和装置 | |
CN110428399A (zh) | 用于检测图像的方法、装置、设备和存储介质 | |
CN109086780A (zh) | 用于检测电极片毛刺的方法和装置 | |
CN109472264A (zh) | 用于生成物体检测模型的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |