CN112597909A - 一种用于人脸图片质量评价的方法与设备 - Google Patents
一种用于人脸图片质量评价的方法与设备 Download PDFInfo
- Publication number
- CN112597909A CN112597909A CN202011565474.2A CN202011565474A CN112597909A CN 112597909 A CN112597909 A CN 112597909A CN 202011565474 A CN202011565474 A CN 202011565474A CN 112597909 A CN112597909 A CN 112597909A
- Authority
- CN
- China
- Prior art keywords
- face
- quality
- picture
- face picture
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013441 quality evaluation Methods 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 12
- 210000000887 face Anatomy 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 5
- 238000011282 treatment Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 6
- 238000012549 training Methods 0.000 description 17
- 230000036544 posture Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 238000012958 reprocessing Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001303 quality assessment method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000028752 abnormal posture Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请通过一种用于人脸图片质量评价的方法及设备,首先获取人脸图片,其中,所述人脸图片包含一个人脸,接着将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分,然后基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。通过该方法可基于人脸质量模型对人脸图片进行质量评价,可以得到更精准的质量评价效果,进一步地,还可将符合质量要求的人脸图片用于人脸识别等用途,以提高人脸识别的准确度。
Description
技术领域
本申请涉及计算机图像处理技术领域,尤其涉及一种用于人脸图片质量评价的的技术。
背景技术
在计算机视觉技术应用中,一类很重要的任务是基于人脸数据进行建模和学习,以用于如人脸识别、基于人脸的年龄估计等应用场景。在现有技术中,基于人脸数据的深度学习网络模型往往会存在训练用的人脸数据与被识别的人脸数据的不一致性,即用于模型训练学习的人脸数据多是质量符合要求的人脸图片,比如图片清晰,人脸五官端正、姿态正常,而在实际应用场景下,由于人脸图片收集环境复杂等客观因素,导致收集到的人脸图片的质量不可控,被用于识别的人脸图片可能质量较差,比如模糊、黑暗、逆光的人脸、以及人脸被遮挡、姿态非正常等,这类低质量的人脸图片不能被直接识别或识别结果不准确,会影响到识别效果及效率。因此,对于实际应用中的人脸图片先进行质量评价是十分必要的。
专利CN110837750A公开了一种人脸质量评价方法与装置,该专利未从质量维度对人脸图片进行打分,基于该专利公开的方法有可能使得质量差的人脸图片也能通过基于人脸关键点和姿态的识别,而实际上这种人脸图片可能导致识别结果与实际不符,是不应该被用于识别的。专利CN110188627A公开了一种人脸图像过滤方法及装置,该专利针对人脸图片,从人脸图片拍摄角度、图像模糊度、光照强度以及是否被遮挡等多个维度对人脸图片进行打分,得到人脸图片的整体评价。由于图像模糊度和光照强度属于人脸图片本身质量范畴,而拍摄角度和人脸是否被遮挡属于图片内容范畴,将这两类同时放在一个回归神经网络中进行学习,不同类型任务之间的影响会影响到神经网络学习的有效性、稳定性及结果的准确性,而且对于人脸是否被遮挡和拍摄角度,可以归结为是对人脸姿态和人脸关键点可见性的一种粗粒度的表达,基于这种粗粒度的图像表征进行建模,对于人脸图片的质量评价效果十分有限。
发明内容
本申请的目的是提供一种用于人脸图片质量评价的方法及设备,用以解决现有技术中对人脸图片的质量评价效果有限的技术问题。
根据本申请的一个方面,提供了一种用于人脸图片质量评价的方法,其中,所述方法包括:
获取人脸图片,其中,所述人脸图片包含一个人脸;
将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
可选地,其中,所述获取人脸图片包括:
获取原始图像,其中,所述原始图像包含一个或者多个人脸;
将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
可选地,其中,所述人脸质量模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
可选地,其中,在将所述人脸图片输入训练后的人脸质量模型之前,所述方法还包括:
对所述人脸图片进行预处理;
其中,所述将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分包括:
将预处理后的人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分。
可选地,其中,所述对所述人脸图片进行预处理包括:
将所述人脸图片缩放至预设尺寸。
可选地,其中,在基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级之前,所述方法还包括:
将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态的得分及人脸关键点的得分;
其中,所述基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价包括:
基于所述人脸图片的人脸质量得分、人脸姿态的得分及人脸关键点的得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
可选地,其中,所述人脸姿态是人脸欧拉角度,其中,所述人脸欧拉角度包括:俯仰角度、翻滚角度及偏航角度。
可选地,其中,所述人脸关键点包括人脸左右眼瞳孔、鼻尖、左右嘴角。
可选地,其中,所述人脸姿态及关键点识别模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
可选地,所述一种用于人脸图片质量评价的方法还包括:
若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
根据本申请的另一方面,还提供了一种用于人脸图片质量评价的设备,其中,所述设备包括:
第一装置,用于获取人脸图片,其中,所述人脸图片包括一个人脸;
第三装置,用于将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
第五装置,用于基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
可选地,其中,所述第一装置包括:
第一一模块,用于获取原始图像,其中,所述原始图像包含一个或者多个人脸;
第一二模块,用于将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
可选地,其中,所述设备还包括:
第二装置,用于对所述人脸图片进行预处理。
可选地,其中,所述设备还包括:
第四装置,用于将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态得分及关键点得分。
可选地,所述设备还包括:
第六装置,用于若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
与现有技术相比,本申请通过一种用于人脸图片质量评价的方法及设备,首先获取人脸图片,其中,所述人脸图片包含一个人脸,接着将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分,然后基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。通过该方法可基于人脸质量模型对人脸图片进行质量评价,可以得到更精准的质量评价效果,进一步地,还可将符合质量要求的人脸图片用于人脸识别等用途,以提高人脸识别的准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本申请一个方面的一种用于人脸图片质量评价的方法流程图;
图2示出根据本申请一个方面的一种人脸质量模型的网络结构原理框图;
图3示出一个实施例的人脸姿态示意图;
图4示出一个实施例的人脸五点关键点示意图;
图5根据本申请一个方面的一种人脸姿态及关键点模型的网络结构原理框图;
图6示出根据本申请另一个方面的一种用于人脸图片质量评价的设备示意图;
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
在本申请一个典型的配置中,***各模块和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
为更进一步阐述本申请所采取的技术手段及取得的效果,下面结合附图及优选实施例,对本申请的技术方案,进行清楚和完整的描述。
图1示出本申请一个方面的一种用于人脸图片质量评价的的方法流程图,其中,一个实施例的方法包括:
S11获取人脸图片,其中,所述人脸图片包含一个人脸;
S12将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
S13基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
在本申请中,所述方法通过设备1执行,所述设备1为计算机设备和/或云,所述计算机设备包括但不限于个人计算机、笔记本电脑、工业计算机、网络主机、单个网络服务器、多个网络服务器集;所述云由基于云计算(Cloud Computing)的大量计算机或网络服务器构成,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个虚拟超级计算机。
在此,所述计算机设备和/或云仅为举例,其他现有的或者今后可能出现的设备和/或资源共享平台如适用于本申请也应包含在本申请的保护范围内,在此,以引用的方式包含于此。
在该实施例中,在所述步骤S11中,所述设备1获取到人脸图片,其中,所述人脸图片只包含一个人脸。所述设备1可以是通过网络来获取到人脸图片,也可以是通过对视频直接处理来获取到人脸图片,还可以是通过从其他设备处拷贝来获取到人脸图片。在此,对人脸图片的获取方式不做限定,如适用于本申请也应包含在本申请的保护范围内。
可选地,其中,所述获取人脸图片包括:
获取原始图像,其中,所述原始图像包含一个或者多个人脸;
将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
其中,包含人脸的原始图像可以是通过安装在设备1上的互联网搜索引擎采集获取,也可以是通过其它计算机上安装的互联网搜索引擎采集获取,还可以是通过其他监控、拍摄设备或工具采集后通过网络或拷贝等方式发送给设备1。在此,对获取原始图像的方式不做限定,获取原始图像的任何方式如适用于本申请也应包含在本申请的保护范围内。
获取的原始图像中往往包含不止一个人脸,不能直接对获取的原始图像进行人脸质量评价,需要对获取的原始图像进行处理才能获得仅包含一个人脸的人脸图片。
可将获取的原始图像输入现有的训练后的人脸检测模型,例如开源的RetinaFace,来获得人脸图片。由于一张原始图像中可能存在多个人脸,输入训练好的人脸检测网络模型后可以得到多个人脸图片。
继续在该实施例中,在所述步骤S12中,所述设备1将获得的人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分。
其中,人脸质量得分是从图像层次维度给出所述人脸图片的评价分数。传统的图像质量评价主要依赖于一些统计指标,需要对每张图像进行像素级的统计,这对计算资源有限的应用场景非常不友好。而利用深度学习网络,对人脸图片训练样本集进行训练后建立模型,利用模型评价人脸图片质量十分高效,即将人脸图片输入一个训练后的二分类(人脸区域图片质量高或低)卷积神经网络模型来获得质量评价得分。
可选地,其中,所述人脸质量模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
一个实施例的训练好的人脸质量模型的网络结构示意图如图2所示。其中,首先通过训练后确定权重的卷积模块来提取人脸图片(比如128x128x3的人脸图片)中的图层特征,然后通过全局池化模块(Maxpooling)对图层特征进行采样,得到最有代表性的图层特征,接着通过全连接模块(Fullconnect)对采样的最有代表性的图层特征进行非线性组合,最后通过损失函数模块(SoftmaxCrossEntropyLoss)实现二分类输出。
其中,每个卷积模块包含卷积层(Conv.)、归一化层(BatchNorm)以及RELU激活层。卷积层提取图层特征后将特征送入归一化层,对特征进行归一化,既减少了计算量,还加快了神经网络的收敛及泛化,然后RELU激活函数来获取有效的图层特征。
对于人脸质量评分的二分类任务,采用上述网络结构的训练后的人脸质量模型对人脸质量进行评分,由于该模型参数小,推理速度更快,在保证评分准确度的前提下效率较高,且只占用设备1很少计算资源。
其中,获得训练后的人脸质量模型的关键是人脸图片训练样本集以及测试样本集的构建,目标是在尽可能小的数据标注代价下,获取有效的人脸图片样本。
本实施例中,用于训练的人脸图片样本的来源可以是:
1)公开数据集,例如widerface,该数据集的每个人脸图片样本还包含了图像模糊度、光照和遮挡等信息,并且还在上述维度上分别对应标识了类别等级,如blur(图像模糊度,分为三类:'clear','normal_blur','heavy_blur'),illumination(光照,分为两类:'normal_illumination','extreme_illumination'),occlusion(遮挡,分为三类:'no_occlusion','partial_occlusion','heavy_occlusion')。
2)人脸检测/识别相关的数据集,通常实际使用的人脸识别数据集都十分庞大(比如开源的人脸数据集,以及通过互联网搜索引擎/网络爬虫收集的数据集),直接使用这些人脸识别相关的数据集进行人脸质量标注以获得人脸图片样本的代价将十分昂贵。可以结合人脸检测/识别模型将通过人脸检测/识别数据集的检测/识别结果作为参考信息来整理人脸图片样本,这大大降低了数据标注的代价。例如,人脸检测/识别模型预测正确但得分较低的预测结果,或者预测错误但得分较高的预测结果,通常这两类预测结果中出现低质量人脸图片的概率远大于其他情形。
3)特定业务应用场景数据集,在某些特定业务应用场景中,利用高清摄像头采集的人脸绝大部分都是高质量数据集,这些数据集样本就可以作为高质量的人脸图片,而且,直接对这类人脸图片进行一些数据变换操作,例如模拟各种模糊、重影、区域遮挡等,
就可以获得低质量的人脸图片。
为了测试训练后的人脸质量模型的准确率及有效性,可以将获取的人脸图片样本划分出训练集和验证集两部分,比如,按照4:1比例将获取的人脸图片样本集划分为人脸图片训练集和人脸图片验证集。如果人脸图片样本集中某一类型(比如低质量的人脸图片)数量不足,还可以通过特定关键词(比如模糊,暗光,马赛克等)从互联网上收集相关类型的人脸图片作为补充,也可以通过建立丰富的业务应用场景来获得相关类型的人脸图片作为补充。
为了更好适应所述训练后的人脸质量模型,可选地,其中,在步骤S12之前,所述方法还包括:
对所述人脸图片进行预处理;
其中,所述步骤S12包括:
将预处理后的人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分。
由于人脸质量模型都是基于同样规格的大量人脸图片训练样本集训练后得到的,因此,通常需要将在S11步骤获取到的人脸图片进行预处理后再输入该训练后的人脸质量模型,才能获得与所述人脸图片相符的人脸质量得分。
可选地,其中,所述对所述人脸图片进行预处理包括:
将所述人脸图片缩放至预设尺寸。
例如,基于设备1的计算资源,通常采用128x128尺寸的人脸图片训练样本集对人脸质量模型进行迭代训练后可以得到最优的训练后的人脸质量模型,因此,可以在S11步骤获取到人脸图片后,对所述人脸图片进行预处理,将所述人脸图片尺寸调整为128x128后再输入训练后的人脸质量模型,以获得所述人脸图片的人脸质量得分。
继续在该实施例中,在所述步骤S13中,所述设备1给予所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
其中,基于经训练后的人脸质量模型的评价得到的人脸质量得分,结合人工先验评价及针对人脸图片的用途,可预先制订基于人脸质量得分的人脸图片质量等级规则,例如人脸质量得分高于0.5的为A类,表示高质量人脸图片,人脸质量得分在0.1~0.5之间的为B类,表示中等质量人脸图片,人脸质量得分低于0.1的为C类,表示低质量人脸图片。结合具体的应用场景,比如用于人脸识别,A类人脸图片可以直接或仅做尺寸调整后即可作为人脸识别模型的输入,B类人脸图片可以通过一些预处理,比如锐化、图像增强、人脸扶正、背景标准化等方式来作些人脸图片质量的改善后才可作为人脸识别模型的输入,而C类人脸图片的人脸质量较差,再处理也无法使得人脸图片质量的改善达到人脸识别的要求,此类人脸图片就没有再处理的意义。因此,在将人脸图片用于某些应用场景前先进行质量评级,做出筛选,可以节约后续应用场景的资源,提高效率,还是很有必要的。
为了获得更好的人脸图片质量评价结果,在从人脸质量维度(即从图像层次维度)给出质量得分的基础上,还可以综合对人脸图片的人脸姿态维度及关键点维度给予质量评价。
可选地,在所述步骤S13之前,所述一种用于人脸图片质量评价的方法还包括:
将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态的得分及人脸关键点的得分;
其中,所述步骤S13包括:
基于所述人脸图片的人脸质量得分、人脸姿态的得分及人脸关键点的得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
其中,除了人脸图片的图像层次,人脸图片中人脸姿态,以及人脸关键点信息也是影响人脸图片质量的关键因素。可以通过将人脸图片输入训练好的人脸姿态及关键点识别模型,来获取人脸图片在人脸姿态维度的得分,以及在人脸关键点维度的得分,然后基于人脸图片的人脸质量得分、人脸姿态的得分及人脸关键点的得分,对人脸图片质量进行综合评价,确定人脸图片的质量等级,以提高人脸图片质量评价的准确度。
可选地,其中,所述人脸姿态是人脸欧拉角度,其中,所述人脸欧拉角度包括:俯仰角度、翻滚角度及偏航角度。
人脸姿态通常是指人脸欧拉角度,包括:pitch(俯仰角度),roll(翻滚角度)及yaw(偏航角度),如图3所示,每个人脸姿态包含pitch,roll及yaw共3个数值。
可选地,其中,所述人脸关键点包括人脸左右眼瞳孔、鼻尖、左右嘴角。
人脸关键点可以是人脸五点关键点,包括人脸左右眼瞳孔、鼻尖、左右嘴角,如图4所示,其中,每个关键点信息包括水平方向及垂直方向的坐标位置以及可见度信息,人脸五点关键点信息共包含15个数值信息。
训练后的人脸姿态及关键点识别模型是对多任务的卷积神经网络进行训练测试后获得的。
可选地,其中,所述人脸姿态及关键点识别模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
一个实施例的训练好的人脸姿态及关键点识别模型的网络结构示意图如图5所示。其中,首先通过训练后确定权重的卷积模块来提取人脸图片(比如128x128x3的人脸图片)中的人脸姿态及关键点特征,然后通过全局池化模块(Maxpooling)对人脸姿态及关键点特征进行采样,得到最有代表性的人脸姿态及关键点特征,接着通过全连接模块(Fullconnect)分别对采样的最有代表性的人脸姿态特征及人脸关键点特征进行非线性组合,最后分别通过损失函数模块(SmoothL1 Loss)对人脸姿态回归,以及通过损失函数模块(SmoothL1 Loss)对关键点坐标位置作回归及对关键点可见度作分类,分别输出人脸姿态得分及人脸关键点得分。
其中,每个卷积模块包含卷积层、归一化层以及RELU激活层。卷积层提取人脸姿态特征及人脸关键点特征后将特征送入归一化层。对于人脸姿态任务来说,由于姿态数值一般较大,例如角度位于(+90,-90)度之间,直接回归会导致神经网络训练学习过程不稳定,而将姿态特征值除以90度进行归一化,有利于姿态任务学习的稳定性,加速收敛;对于人脸关键点任务来说,一方面需要对人脸关键点位置进行回归,另一方面还需要对人脸关键点位置进行可见和不可见的分类,而在人脸关键点位置的回归过程中,如果直接对坐标进行回归会由于长距离回归导致神经网络的训练学习速度慢且精度较差,因此可如图4所示,对人脸图片进行9宫格划分,将人脸关键点的坐标转化为相对于每个宫格中心的坐标,以实现归一化,既能加速神经网络的训练学习,又提高人脸关键点的定位精度。然后通过RELU激活函数来获取有效的人脸姿态及关键点特征。
其中,对于人脸姿态任务,在经过全连接层对有效的人脸姿态特征进行非线性组合后,使用回归类型的损失函数,比如smooth L1损失函数,来获得人脸姿态,包括pitch(俯仰角度),roll(翻滚角度)和yaw(偏航角度)。
其中,对于人脸关键点任务,在经过全连接层对有效的人脸关键点特征进行非线性组合后,使用回归类型的损失函数,smooth L1损失函数,来获得人脸关键点位置坐标,使用分类损失函数,比如SoftmaxCrossEntropy损失函数,来获得人脸关键点可见程度。
基于经训练后的人脸姿态及关键点识别模型得到的人脸姿态得分包括pitch,roll及yaw共3个得分,对于人脸5点关键点,得到的人脸关键点得分包括每个关键点的水平方向、垂直方向的坐标位置及其可见度3个得分,若为5个人脸关键点共15个得分。若采用更多关键点,在计算资源得到满足的前提下,可以获得更准确的关键点得分。
结合人工先验评价及针对人脸图片的用途,也可预先制订基于人脸姿态得分及关键点得分的人脸图片质量等级规则,例如,针对人脸姿态得分,将人脸姿态中yaw的角度位于(+30,-30)度、pitch的角度位于(+20,-20)度的确定为A类,表示高质量人脸图片,否则确定为C类,表示低质量人脸图片;针对人脸关键点得分,将人脸全部关键点的可见度得分均大于0.5,以及人脸鼻子关键点位于眼睛两点和嘴角两点组成的矩形区域内部且垂直方向坐标与矩形区域垂直方向坐标比大于0.5的确定为A类,表示高质量人脸图片,将至少80%人脸关键点的可见度得分大于0.5,以及人脸鼻子关键点位于眼睛两点和嘴角两点组成的矩形区域内部且垂直方向坐标与矩形区域垂直方向坐标比小于0.5的确定为B类,表示中等质量人脸图片,否则确定为C类,表示为低质量人脸图片。
为了获得更好的人脸图片质量评价结果,在从人脸质量维度(即从图像层次维度)给出质量得分的基础上,还可以综合对人脸图片的人脸姿态维度及关键点维度给予质量评价,综合基于经训练后的人脸质量模型的评价得到的人脸质量得分,以及经训练后的人脸姿态及关键点识别模型的识别后获得的得分,可以更精确地实现对人脸图片质量评价。
结合人工先验评价及针对人脸图片的用途,可调整前述的人脸图片质量等级规则,例如可以基于如下规则对人脸图片质量进行评价:
1)A类人脸图片:人脸质量得分、人脸姿态得分及人脸关键点得分都符合各自规定的A类人脸图片要求。
2)B类人脸图片:人脸质量得分、人脸关键点得分符合各自规定的B类人脸图片要求;人脸姿态得分符合相应规定的A类人脸图片要求。
3)C类人脸图片:不满足上述A类、B类人脸图片要求的人脸图片。
可选地,所述一种用于人脸图片质量评价的方法还包括:
若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
其中,基于对人脸图片的质量评价结果,确定该人脸图片的质量等级,结合具体的应用场景,比如用于人脸识别,A类人脸图片可以直接或仅做尺寸调整后即可作为人脸识别模型的输入,B类人脸图片可以通过一些预处理,比如锐化、图像增强、人脸扶正、背景标准化等方式来作些人脸图片质量的改善后才可作为人脸识别模型的输入,而C类人脸图片的人脸质量较差,再处理也无法使得人脸图片质量的改善达到人脸识别的要求,此类人脸图片就没有再处理的意义。因此,在将人脸图片用于某些应用场景前先进行质量评级,做出筛选,可以节约后续应用场景的资源,提高效率,还是很有必要的。
图6示出根据本申请另一个方面的一种用于人脸图片质量评价的设备示意图,其中,所述设备包括:
第一装置61,用于获取人脸图片,其中,所述人脸图片包括一个人脸;
第三装置63,用于将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
第五装置65,用于基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
在该实施例中,所述设备与设备1相同。
其中,设备1的第一装置61获取到人脸图片,接着设备的1第三装置63将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分,然后设备1的第五装置65基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
可选地,所述第一装置61包括:
第一一模块611,用于获取原始图像,其中,所述原始图像包含一个或者多个人脸;
第一二模块612,用于将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
其中,设备1的第一装置61中的第一一模块611获取到原始图像,第一二模块612将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
可选地,其中,所述设备还包括:
第二装置62(未示出),用于对所述人脸图片进行预处理。
其中,在设备1的第一装置61获取到人脸图片后,设备1的第二装置62对该人脸图片进行预处理,然后在由第三装置63将所述人脸图片输入训练后的人脸质量模型处理,获得所述人脸图片的人脸质量得分。
可选地,其中,所述设备还包括:
第四装置64(未示出),用于将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态得分及关键点得分。
为了得到更精准的人脸图片质量评价,设备1的第四装置64还将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态得分及关键点得分,然后第五装置65再基于获得的人脸质量得分、人脸姿态的得分及人脸关键点的得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
可选地,其中,所述设备还包括:
第六装置66(为示出),用于若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
其中,若设备1的第五装置65获得的人脸图片的质量评价符合上文提及的预设B类人脸图片要求,设备1的第六装置66对所述人脸图片进行图片增强和/或进行锐化、人脸扶正、背景标准化等处理,以改善所述人脸图片质量。
根据本申请的又一方面,还提供了一种计算机可读介质,所述计算机可读介质存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现前述方法。
根据本申请的又一方面,还提供了一种用于人脸图片质量评价的设备,其中,该设备包括:
一个或多个处理器;以及
存储有计算机可读指令的存储器,所述计算机可读指令在被执行时使所述处理器执行如前述方法的操作。
例如,计算机可读指令在被执行时使所述一个或多个处理器:获取人脸图片,其中,所述人脸图片包含一个人脸;将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件和/或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (17)
1.一种用于人脸图片质量评价的方法,其特征在于,所述方法包括:
获取人脸图片,其中,所述人脸图片包含一个人脸;
将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
2.根据权利要求1所述的方法,其特征在于,所述获取人脸图片包括:
获取原始图像,其中,所述原始图像包含一个或者多个人脸;
将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
3.根据权利要求1或2所述的方法,其特征在于,所述人脸质量模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
4.根据权利要求1至3中任一项所述的方法,其特征在于,在将所述人脸图片输入训练后的人脸质量模型之前,所述方法还包括:
对所述人脸图片进行预处理;
其中,所述将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分包括:
将预处理后的人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分。
5.根据权利要求4所述的方法,其特征在于,所述对所述人脸图片进行预处理包括:
将所述人脸图片缩放至预设尺寸。
6.根据权利要求4或5所述的方法,其特征在于,在基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级之前,所述方法还包括:
将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态的得分及人脸关键点的得分;
其中,所述基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价包括:
基于所述人脸图片的人脸质量得分、人脸姿态的得分及人脸关键点的得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
7.根据权利要求6所述的方法,其特征在于,所述人脸姿态是人脸欧拉角度,其中,所述人脸欧拉角度包括:俯仰角度、翻滚角度及偏航角度。
8.根据权利要求6所述的方法,其特征在于,所述人脸关键点包括人脸左右眼瞳孔、鼻尖、左右嘴角。
9.根据权利要求6所述的方法,其特征在于,所述人脸姿态及关键点识别模型的网络结构包括:9个卷积模块、1个全局池化模块、1个全连接模块及1个损失函数模块,其中,所述卷积模块包括:
卷积层;
归一化层;
RELU激活层。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述方法还包括:
若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
11.一种用于人脸图片质量评价的设备,其特征在于,所述设备包括:
第一装置,用于获取人脸图片,其中,所述人脸图片包括一个人脸;
第三装置,用于将所述人脸图片输入训练后的人脸质量模型,获得所述人脸图片的人脸质量得分;
第五装置,用于基于所述人脸图片的人脸质量得分,确定所述人脸图片的质量等级,以完成对所述人脸图片的质量评价。
12.根据权利要求11所述的设备,其特征在于,所述第一装置包括:
第一一模块,用于获取原始图像,其中,所述原始图像包含一个或者多个人脸;
第一二模块,用于将所述原始图像输入训练后的人脸检测模型,获得所述人脸图片。
13.根据权利要求11或12所述的设备,其特征在于,所述设备还包括:
第二装置,用于对所述人脸图片进行预处理。
14.根据权利要求13所述的设备,其特征在于,所述设备还包括:
第四装置,用于将预处理后的人脸图片输入训练后的人脸姿态及关键点识别模型,获得所述人脸图片的人脸姿态得分及关键点得分。
15.根据权利要求11至14中任一项所述的设备,其特征在于,所述设备还包括:
第六装置,用于若所述人脸图片的质量等级符合预设阈值,对所述人脸图片进行图片增强和/或以下任一项处理,以改善所述人脸图片质量:
锐化;
人脸扶正;
背景标准化。
16.一种计算机可读介质,其特征在于,
其上存储有计算机可读指令,所述计算机可读指令被处理器执行以实现如权利要求1至10中任一项所述的方法。
17.一种用于人脸图片质量评价的设备,其特征在于,该设备包括:
一个或多个处理器;以及
存储有计算机可读指令的存储器,所述计算机可读指令在被执行时使所述处理器执行如权利要求1至10中任一项所述方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011565474.2A CN112597909A (zh) | 2020-12-25 | 2020-12-25 | 一种用于人脸图片质量评价的方法与设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011565474.2A CN112597909A (zh) | 2020-12-25 | 2020-12-25 | 一种用于人脸图片质量评价的方法与设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112597909A true CN112597909A (zh) | 2021-04-02 |
Family
ID=75202208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011565474.2A Pending CN112597909A (zh) | 2020-12-25 | 2020-12-25 | 一种用于人脸图片质量评价的方法与设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112597909A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113536991A (zh) * | 2021-06-29 | 2021-10-22 | 北京百度网讯科技有限公司 | 训练集生成、人脸图像处理方法、装置及电子设备 |
CN113591818A (zh) * | 2021-09-30 | 2021-11-02 | 广州思林杰科技股份有限公司 | 一种人脸等级分类器的构建方法及装置 |
CN116740777A (zh) * | 2022-09-28 | 2023-09-12 | 荣耀终端有限公司 | 人脸质量检测模型的训练方法及其相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117797A (zh) * | 2018-08-17 | 2019-01-01 | 浙江捷尚视觉科技股份有限公司 | 一种基于人脸质量评价的人脸抓拍识别方法 |
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和*** |
CN109977815A (zh) * | 2019-03-13 | 2019-07-05 | 上海商汤智能科技有限公司 | 图像质量评价方法及装置、电子设备、存储介质 |
CN110619628A (zh) * | 2019-09-09 | 2019-12-27 | 博云视觉(北京)科技有限公司 | 一种人脸图像质量评估方法 |
CN110837750A (zh) * | 2018-08-15 | 2020-02-25 | 华为技术有限公司 | 一种人脸质量评价方法与装置 |
CN111950515A (zh) * | 2020-08-26 | 2020-11-17 | 重庆邮电大学 | 一种基于语义特征金字塔网络的小人脸检测方法 |
-
2020
- 2020-12-25 CN CN202011565474.2A patent/CN112597909A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110837750A (zh) * | 2018-08-15 | 2020-02-25 | 华为技术有限公司 | 一种人脸质量评价方法与装置 |
CN109117797A (zh) * | 2018-08-17 | 2019-01-01 | 浙江捷尚视觉科技股份有限公司 | 一种基于人脸质量评价的人脸抓拍识别方法 |
CN109360183A (zh) * | 2018-08-20 | 2019-02-19 | 中国电子进出口有限公司 | 一种基于卷积神经网络的人脸图像质量评估方法和*** |
CN109977815A (zh) * | 2019-03-13 | 2019-07-05 | 上海商汤智能科技有限公司 | 图像质量评价方法及装置、电子设备、存储介质 |
CN110619628A (zh) * | 2019-09-09 | 2019-12-27 | 博云视觉(北京)科技有限公司 | 一种人脸图像质量评估方法 |
CN111950515A (zh) * | 2020-08-26 | 2020-11-17 | 重庆邮电大学 | 一种基于语义特征金字塔网络的小人脸检测方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113536991A (zh) * | 2021-06-29 | 2021-10-22 | 北京百度网讯科技有限公司 | 训练集生成、人脸图像处理方法、装置及电子设备 |
CN113536991B (zh) * | 2021-06-29 | 2023-06-23 | 北京百度网讯科技有限公司 | 训练集生成、人脸图像处理方法、装置及电子设备 |
CN113591818A (zh) * | 2021-09-30 | 2021-11-02 | 广州思林杰科技股份有限公司 | 一种人脸等级分类器的构建方法及装置 |
CN116740777A (zh) * | 2022-09-28 | 2023-09-12 | 荣耀终端有限公司 | 人脸质量检测模型的训练方法及其相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021017261A1 (zh) | 识别模型训练方法、图像识别方法、装置、设备及介质 | |
CN112597909A (zh) | 一种用于人脸图片质量评价的方法与设备 | |
CN111563502A (zh) | 图像的文本识别方法、装置、电子设备及计算机存储介质 | |
CN110781885A (zh) | 基于图像处理的文本检测方法、装置、介质及电子设备 | |
CN111524106A (zh) | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 | |
CN111241989A (zh) | 图像识别方法及装置、电子设备 | |
CN111680678B (zh) | 目标区域识别方法、装置、设备及可读存储介质 | |
CN110084289B (zh) | 图像标注方法、装置、电子设备及存储介质 | |
CN111461212A (zh) | 一种用于点云目标检测模型的压缩方法 | |
CN109711416A (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
US11386710B2 (en) | Eye state detection method, electronic device, detecting apparatus and computer readable storage medium | |
CN111951154B (zh) | 包含背景和介质的图片的生成方法及装置 | |
CN112257665A (zh) | 图像内容的识别方法、图像识别模型的训练方法及介质 | |
US20230118361A1 (en) | User input based distraction removal in media items | |
CN110287981B (zh) | 基于生物启发性表征学习的显著性检测方法及*** | |
CN113516697B (zh) | 图像配准的方法、装置、电子设备及计算机可读存储介质 | |
CN115471439A (zh) | 显示面板缺陷的识别方法、装置、电子设备及存储介质 | |
CN112149528A (zh) | 一种全景图目标检测方法、***、介质及设备 | |
CN110020593B (zh) | 信息处理方法及装置、介质及计算设备 | |
CN109034117B (zh) | 一种视频提取方法及装置 | |
CN111815748A (zh) | 一种动画处理方法、装置、存储介质及电子设备 | |
CN115908409A (zh) | 光伏片缺陷的检测方法、检测装置、计算机设备和介质 | |
CN115019396A (zh) | 一种学习状态监测方法、装置、设备及介质 | |
CN111428724B (zh) | 一种试卷手写统分方法、装置及存储介质 | |
Li et al. | XIMAGENET-12: An Explainable AI Benchmark Dataset for Model Robustness Evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210826 Address after: 200000 7th floor, 137 Haining Road, Hongkou District, Shanghai Applicant after: Shanghai Xinyi Intelligent Technology Co.,Ltd. Address before: 100086 1008, 10th floor, building 51, 63 Zhichun Road, Haidian District, Beijing Applicant before: Beijing Xinyi Intelligent Information Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |