WO2020087434A1 - 一种人脸图像清晰度评价方法及装置 - Google Patents

一种人脸图像清晰度评价方法及装置 Download PDF

Info

Publication number
WO2020087434A1
WO2020087434A1 PCT/CN2018/113361 CN2018113361W WO2020087434A1 WO 2020087434 A1 WO2020087434 A1 WO 2020087434A1 CN 2018113361 W CN2018113361 W CN 2018113361W WO 2020087434 A1 WO2020087434 A1 WO 2020087434A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
face area
pixels
value
picture
Prior art date
Application number
PCT/CN2018/113361
Other languages
English (en)
French (fr)
Inventor
汪香君
刘会芬
陈巧
孙瑞泽
Original Assignee
深圳技术大学(筹)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳技术大学(筹) filed Critical 深圳技术大学(筹)
Priority to PCT/CN2018/113361 priority Critical patent/WO2020087434A1/zh
Publication of WO2020087434A1 publication Critical patent/WO2020087434A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Definitions

  • the invention relates to the technical field of image processing, and in particular to a method and device for evaluating the sharpness of a human face image.
  • the sharpness of the picture is the most important standard for measuring the quality of the picture.
  • image technology such as face recognition and face three-dimensional reconstruction
  • the evaluation method of the sharpness of the face image generally adopts the normalization process of the local gradient value of each pixel of the face image, and assigns different weighted values to each pixel of the face or background.
  • the concept of gradient density is introduced to calculate the blur of face image.
  • the technical problem to be solved by the present invention is to provide a method and a device for evaluating the sharpness of a face image, aiming to solve that the weight function of the face image evaluation in the prior art is a Gaussian function, the calculation is complicated, and the background of the image needs to participate in the calculation, It will cause the technical problem that the evaluation error of human face image sharpness is too large.
  • a first aspect of an embodiment of the present invention provides a method for evaluating the clarity of a face image.
  • the method includes:
  • a second aspect of an embodiment of the present invention provides a face image clarity evaluation device, which includes:
  • a pre-processing module used to obtain a picture sequence, and pre-process all pictures in the picture sequence
  • the face detection module is used to select a pre-processed image for face detection to obtain a face detection frame, and perform face feature point detection in the face detection frame to identify a preset number of face features Point, a closed face area range is obtained by connecting the face feature points at the preset label;
  • the calculation module is used to accumulate the absolute sum of the horizontal and vertical gradient values of all pixels in the face area to obtain an accumulation result, and divide the accumulation result by all pixels in the face area The number of points to obtain the average value of the gradient values of all pixels within the face area, and take the average value as the sharpness factor of the picture;
  • the circulation module is used to select a pre-processed picture for face detection until all pictures in the picture sequence are taken;
  • the sorting module is used to sort the clarity factor values of all pictures in the picture sequence to obtain the clarity order of all pictures in the picture sequence.
  • An embodiment of the present invention provides a method and device for evaluating the clarity of a human face image.
  • the face area range is obtained, and then the horizontal and vertical directions of all pixels within the face area area are accumulated. Sum of the absolute values of the gradient values in the direction to obtain the accumulation result, divide the accumulation result by the number of all pixels in the face area, to obtain the average value of the gradient values of all pixels in the face area, and take the average as the image Sharpness factor, sort the clearness factor values of all pictures to get the clearness order of all pictures. Since the face sharpness is evaluated by calculating the average value of the gradient values of all pixels in the face area, on the one hand, the calculation can be simplified and the calculation efficiency can be improved. On the other hand, only the face area range is used as the calculation range. Make the evaluation of the sharpness of the face image more accurate.
  • FIG. 1 is a schematic flowchart of a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 2 is a schematic flowchart of obtaining a picture sequence in a method for evaluating the clarity of a face image according to an embodiment of the present invention
  • FIG. 3 is a distribution diagram of face feature points in a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 4 is a schematic flowchart of image preprocessing in a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 5 is a schematic flowchart of a method for calculating an average value of gradient values in a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 6 is a schematic flowchart of another image preprocessing in a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 7 is a schematic flowchart of another method for calculating an average value of gradient values in a method for evaluating sharpness of a face image according to an embodiment of the present invention
  • FIG. 8 is a schematic diagram of a device for evaluating a sharpness of a face image according to an embodiment of the present invention
  • FIG. 9 is a schematic diagram of another device of a face image sharpness evaluation device according to an embodiment of the present invention.
  • FIG. 1 is a schematic flowchart of a method for evaluating sharpness of a face image according to an embodiment of the present invention. The method includes:
  • the picture sequence refers to a collection containing several pictures, and the number of pictures contained in each picture sequence can be manually specified.
  • FIG. 2 is a schematic diagram of a process of acquiring a picture sequence in a method for evaluating the clarity of a face image according to an embodiment of the present invention.
  • the specific steps of the sequence include:
  • S201 Determine whether the signal input source is a video or a picture sequence. Since in different application scenarios such as face recognition and face texture mapping, the types of signal input sources are different, it is necessary to first determine whether the signal input source is a video or a sequence of pictures in order to facilitate subsequent processing.
  • the signal input source is video
  • decode the video into a picture sequence and then obtain the picture sequence.
  • the number of pictures included in the decoded picture sequence can be adjusted according to actual needs, and the decoded picture sequence contains all video information as a standard.
  • face detection refers to: detecting the face existing in the image, and accurately framing its position to form a face detection frame.
  • multiple face detection frames may be obtained, and the face detection frame of the picture with the largest face detection frame size is selected.
  • the face feature points are pixel points characterizing the face features of the face, including feature information of specific parts and overall feature information, performing face feature point detection within the face detection frame to identify a preset number of faces In the case of feature points, the number of face feature points can affect the evaluation of the picture clarity.
  • the embodiment of the present invention adopts the classic 68 face feature points.
  • FIG. 3 is a distribution diagram of face feature points in a method for evaluating sharpness of a face image according to an embodiment of the present invention.
  • S103 Accumulate the sum of the absolute values of the horizontal and vertical gradient values of all the pixels in the face area to obtain the accumulated result, and divide the accumulated result by the number of all pixels in the face area to obtain the face The average value of the gradient values of all pixels in the area, and the average value is taken as the sharpness factor of the picture.
  • the clarity factor is an abstract expression of the average value of the gradient value.
  • the method used in this patent is the clarity represented by the average value of the gradient value.
  • Degree factor to judge the clarity of the picture is the degree of the picture.
  • S104 Perform face detection by selecting a pre-processed picture until all pictures in the picture sequence are taken.
  • the pre-processed pictures need to be repeatedly selected until all pictures in the picture sequence are taken out before proceeding to the next step.
  • the sharpness factor represents the average value of the gradient values of all pixels in the face area of the picture, and the larger the sharpness factor, the clearer the picture. Sort the clearness factor values of all pictures in the picture sequence. Obtain the clarity order of all the pictures in the picture sequence, and you can get the clearest picture.
  • FIG. 4 is a schematic flowchart of image preprocessing in a method for evaluating sharpness of a face image according to an embodiment of the present invention.
  • the method includes:
  • the noise in the picture refers to unnecessary or redundant interference information existing in the image data. Since the presence of noise seriously affects the quality of the picture, the noise in the picture is removed in the preprocessing stage.
  • grayscale the image expressed in grayscale. Converting the pictures in the picture sequence into grayscale images is beneficial for calculating the gradient values of pixels.
  • FIG. 5 is a schematic flowchart of a method for calculating an average value of gradient values in a method for evaluating sharpness of a face image according to an embodiment of the present invention.
  • the method includes:
  • P (i, j) be the gray value of the pixels in the i-th row and j-th column in the face area of the picture
  • P (i + 1, j) be the gray-scale values of the pixels in the i-th row and j-th column Degree value
  • P (i, j + 1) is the gray value of the pixel point in the i-th row and j + 1th column in the face area range.
  • the gradient value can be calculated by the gray value of the picture, that is, the picture in the picture sequence is converted into a gray image according to the above scheme, and then the gray value is calculated, or the picture in the picture sequence can be converted to YCbCr
  • the space is calculated, and the gradient value of each pixel is the sum of the Cb and Cr gradient values of the pixel in the horizontal and vertical directions.
  • FIG. 6 is a schematic flowchart of another image preprocessing in a method for evaluating sharpness of a face image according to an embodiment of the present invention.
  • the method includes:
  • the noise in the image refers to unnecessary or unnecessary interference information existing in the image data. Since the presence of noise seriously affects the quality of the image, the noise in the picture is removed in the preprocessing stage.
  • the YCbCr space map is a kind of color space
  • the Y value is the light density and is non-linear
  • the Cb value and Cr value are the blue and red density shift components.
  • FIG. 7 is a schematic flowchart of another method for calculating an average value of gradient values in a method for evaluating sharpness of a face image according to an embodiment of the present invention.
  • the method includes:
  • S601 Calculate the absolute values of the gradient values of the Cb value and the Cr value of each pixel in the horizontal direction and the vertical direction of the face area in the face area.
  • S603 Accumulate the absolute value sum of the gradient values of the Cb value and the Cr value of the horizontal and vertical directions of all the pixels in the face area to obtain an accumulation result.
  • S604 Divide the accumulation result by the number of all pixels in the face area to obtain the average value of the gradient values of all pixels in the face area.
  • Cb (i, j) be the Cb value of the pixel in the i-th row and j-th column in the face area of the picture
  • Cb (i + 1, j) be the Cb value of the pixel in the i-th row and j-th column
  • Cb (i, j + 1) is the Cb value of the pixel point in the i-th row and j + 1 column in the face area
  • Cr (i, j) be the pixel in the i-th row and j-th column in the face area in the picture Cr value of the point
  • Cr (i + 1, j) is the Cr value of the pixel in the i th row and the jth column
  • Cr (i, j + 1) is the pixel point in the i th row and the j + 1th column in the face area
  • the sum of the absolute values of the horizontal and vertical gradient values of the pixel is calculated sumCbCr (i, j), then the horizontal and vertical directions of all pixels within the face area are accumulated
  • the sharpness factor of the picture is: sumALL / Total.
  • the gray value of the image can be calculated, that is, the image in the image sequence is converted into a gray image and the gray value is calculated.
  • the pictures in the picture sequence can also be converted into YCbCr space for calculation.
  • the gradient value of each pixel is the sum of the horizontal and vertical Cb and Cr gradient values of the pixel.
  • FIG. 8 is a schematic diagram of a device for evaluating a sharpness of a face image according to an embodiment of the present invention.
  • the device includes:
  • the pre-processing module 10 is used to obtain a picture sequence and pre-process all pictures in the picture sequence.
  • the face detection module 20 is used to select a pre-processed image for face detection, obtain a face detection frame, and perform face feature point detection in the face detection frame to identify a preset number of face feature points , By connecting the face feature points at the preset label to obtain the closed face area range.
  • the calculation module 30 is used to accumulate the sum of the absolute values of the horizontal and vertical gradient values of all pixels in the face area to obtain the accumulation result, and divide the accumulation result by the number of all pixels in the face area to obtain The average value of the gradient values of all pixels in the face area, and the average value is taken as the sharpness factor of the picture.
  • the circulation module 40 is configured to select a pre-processed picture for face detection until all pictures in the picture sequence are taken.
  • the sorting module 50 is used to sort the clarity factor values of all pictures in the picture sequence to obtain the clarity order of all pictures in the picture sequence.
  • the pre-processing module 10 includes:
  • the judgment module 101 is used to judge whether the signal input source is a video or a picture sequence.
  • the decoding module 102 is configured to obtain the picture sequence after decoding the video into a picture sequence if the signal input source is video.
  • the obtaining module 103 is configured to directly obtain a picture sequence if the signal input source is a picture sequence.
  • the denoising module 104 is used to sequentially select each picture in the picture sequence to remove noise in each picture.
  • the grayscale image module 105 is used to convert the noise-removed picture into a grayscale image.
  • calculation module 30 includes:
  • the first absolute value calculation module 301 is configured to calculate the absolute value of the gradient value of the gray value of the horizontal direction and the vertical direction of each pixel in the face area range.
  • the first absolute value sum module 302 is used to calculate the sum of the absolute values of the gradient values of the gray value of the horizontal direction and the vertical direction of each pixel in the face area range.
  • the first accumulation module 303 is used to accumulate the absolute value sum of the gradient values of the horizontal and vertical gray values of all the pixels in the face area to obtain an accumulation result.
  • the first average calculation module 304 is used to divide the accumulation result by the number of all pixels in the face area to obtain the average value of the gradient values of all pixels in the face area.
  • the gradient value can be calculated by the gray value of the picture, that is, the gray value is calculated after converting the picture in the picture sequence into the gray image according to the above device, or the picture in the picture sequence can be converted Calculate in the YCbCr space.
  • the gradient value of each pixel is the sum of the Cb and Cr gradient values of the pixel in the horizontal and vertical directions. Please refer to FIG. 9.
  • FIG. Another device schematic diagram of the device, so the structure of the pre-processing module 10 may also include:
  • the judgment module 101 is used to judge whether the signal input source is a video or a picture sequence.
  • the decoding module 102 is configured to obtain the picture sequence after decoding the video into a picture sequence if the signal input source is video.
  • the obtaining module 103 is configured to directly obtain a picture sequence if the signal input source is a picture sequence.
  • the denoising module 104 is used to sequentially select each picture in the picture sequence to remove noise in each picture.
  • the YCbCr space map module 106 is used to convert the noise-removed picture into a YCbCr space map.
  • the structure of the computing device 30 may further include:
  • the second absolute value calculation module 305 is configured to calculate the absolute values of the gradient values of the Cb value and the Cr value of the horizontal direction and the vertical direction of each pixel in the face area range, respectively.
  • the second absolute value sum module 306 is used to calculate the sum of the absolute values of the gradient values of the Cb value and the Cr value of each pixel in the horizontal and vertical directions of the face area of the face, respectively.
  • the second accumulation module 307 is used to accumulate the absolute value sum of the gradient values of the Cb value and the Cr value of the horizontal and vertical directions of all the pixels in the face area to obtain the accumulation result.
  • the second average calculation module 308 is used to divide the accumulated result by the number of all pixels in the face area to obtain the average value of the gradient values of all pixels in the face area.
  • An embodiment of the present invention provides a face image sharpness evaluation device.
  • a face area range is obtained, and then the horizontal and vertical directions of all pixels within the face area range are accumulated.
  • the absolute value of the gradient values is summed to obtain the cumulative result, and the cumulative result is divided by the number of all pixels in the face area to obtain the average value of the gradient values of all pixels in the face area.
  • Factor sort the clarity factor values of all pictures to get the clarity order of all pictures. Since the face sharpness is evaluated by calculating the average value of the gradient values of all pixels in the face area, on the one hand, the calculation can be simplified and the calculation efficiency can be improved. On the other hand, only the face area range is used as the calculation range. Make the evaluation of the sharpness of the face image more accurate.
  • the disclosed device and method may be implemented in other ways.
  • the device embodiments described above are only schematic.
  • the division of modules is only a division of logical functions.
  • there may be other divisions for example, multiple modules or components may be combined or integrated To another system, or some features can be ignored, or not implemented.
  • the displayed or discussed mutual coupling or direct coupling or communication connection may be indirect coupling or communication connection through some interfaces, devices or modules, and may be in electrical, mechanical, or other forms.
  • modules described as separate components may or may not be physically separated, and the components displayed as modules may or may not be physical modules, that is, they may be located in one place, or may be distributed on multiple network modules. Some or all of the modules may be selected according to actual needs to achieve the purpose of the solution of this embodiment.
  • each functional module in each embodiment of the present invention may be integrated into one processing module, or each module may exist alone physically, or two or more modules may be integrated into one module.
  • the above integrated modules may be implemented in the form of hardware or software function modules.
  • the integrated module is implemented in the form of a software functional module and sold or used as an independent product, it can be stored in a computer-readable storage medium.
  • the technical solution of the present invention essentially or part of the contribution to the existing technology or all or part of the technical solution can be embodied in the form of a software product, the computer software product is stored in a storage medium , Including several instructions to enable a computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the methods of various embodiments of the present invention.
  • the aforementioned storage media include: U disk, mobile hard disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), magnetic disk or optical disk and other media that can store program code .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种人脸图像清晰度评价方法,涉及图像处理技术领域,通过对预处理后的图片进行人脸检测,得到人脸区域范围,再计算人脸区域范围内所有像素的梯度值的平均值,取平均值作为图片的清晰度因子,排序所有图片的清晰度因子数值,得到所有图片的清晰度顺序。本发明还公开了一种人脸图像清晰度评价装置,由于通过计算人脸区域范围内所有像素的梯度值的平均值的方法来评价人脸清晰度,一方面,可以简化计算,提高运算效率,另一方面,仅将人脸区域范围作为计算范围,使得人脸图像清晰度的评价更加精确。

Description

一种人脸图像清晰度评价方法及装置 技术领域
本发明涉及图像处理技术领域,尤其涉及一种人脸图像清晰度评价方法及装置。
背景技术
随着科学技术的发展,图片处理技术广泛应用于人们生活的方方面面,而其中人脸图像清晰度的评价也越来越多的受到研究人员的关注。
在图片相同分辨率的情况下,图片的清晰度是度量图片质量的最主要的标准,人脸识别和人脸三维重建等图像技术中都需要从拍摄的人脸视频或者多张人脸图片中挑选出人脸清晰度高的图片。现有技术中,对于人脸图像清晰度的评价方法一般是采用对人脸图像各像素点的局部梯度值进行归一化处理,并对人脸或背景的各像素点赋予不同的加权值,同时引入梯度密度的概念来进行人脸图像模糊度的计算。
在上述现有技术中,由于人脸图像评价的权重函数为高斯函数,计算复杂,且图像的背景需要参加计算,会导致人脸图像清晰度的评价误差过大。
技术问题
本发明所要解决的技术问题为提供一种人脸图像清晰度评价方法及装置,旨在解决现有技术中人脸图像评价的权重函数为高斯函数,计算复杂,且图像的背景需要参加计算,会导致人脸图像清晰度的评价误差过大的技术问题。
技术解决方案
本发明实施例第一方面提供一种人脸图像清晰度评价方法,该方法包括:
获取图片序列,并对所述图片序列中所有图片进行预处理;
选取一张预处理后的图片进行人脸检测,得到人脸检测框,在所述人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的所述人脸特征点得到封闭的人脸区域范围;
累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值,取所述平均值作为所述图片的清晰度因子;
执行选取一张预处理后的图片进行人脸检测,直至取完所述图片序列中的所有图片;排序所述图片序列中所有图片的清晰度因子数值,得到所述图片序列中所有图片的清晰度顺序。
本发明实施例第二方面提供一种人脸图像清晰度评价装置,该装置包括:
预处理模块,用于获取图片序列,并对所述图片序列中所有图片进行预处理;
人脸检测模块,用于选取一张预处理后的图片进行人脸检测,得到人脸检测框,在所述人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的所述人脸特征点得到封闭的人脸区域范围;
计算模块,用于累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值,取所述平均值作为所述图片的清晰度因子;
循环模块,用于执行选取一张预处理后的图片进行人脸检测,直至取完所述图片序列中 的所有图片;
排序模块,用于排序所述图片序列中所有图片的清晰度因子数值,得到所述图片序列中所有图片的清晰度顺序。
有益效果
本发明实施例提供一种人脸图像清晰度评价方法及装置,通过对预处理后的图片进行人脸检测,得到人脸区域范围,再累加人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值,取平均值作为图片的清晰度因子,排序所有图片的清晰度因子数值,得到所有图片的清晰度顺序。由于通过计算人脸区域范围内所有像素的梯度值的平均值的方法来评价人脸清晰度,一方面,可以简化计算,提高运算效率,另一方面,仅将人脸区域范围作为计算范围,使得人脸图像清晰度的评价更加精确。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种人脸图像清晰度评价方法的流程示意图;
图2为本发明实施例提供的一种人脸图像清晰度评价方法中获取图片序列的流程示意图;
图3为本发明实施例提供的一种人脸图像清晰度评价方法中人脸特征点分布图;
图4为本发明实施例提供的一种人脸图像清晰度评价方法中图片预处理的流程示意图;
图5为本发明实施例提供的一种人脸图像清晰度评价方法中梯度值的平均值计算方法的流程示意图;
图6为本发明实施例提供的一种人脸图像清晰度评价方法中另一种图片预处理的流程示意图;
图7为本发明实施例提供的一种人脸图像清晰度评价方法中另一种梯度值的平均值计算方法的流程示意图;
图8为本发明实施例提供的一种人脸图像清晰度评价装置的装置示意图;
图9为本发明实施例提供的一种人脸图像清晰度评价装置的另一种装置示意图。
本发明的实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例提供的一种人脸图像清晰度评价方法的流程示意图,该方法包括:
S101、获取图片序列,并对图片序列中所有图片进行预处理。
其中,图片序列是指包含若干图片的集合,可以人为指定每个图片序列中包含的图片数量。
进一步的,图片序列的获取需要靠外部信号输入源的输入获得,请参考图2,图2为本发明实施例提供的一种人脸图像清晰度评价方法中获取图片序列的流程示意图,获取图片序 列的具体步骤包括:
S201、判断信号输入源为视频还是图片序列。由于在人脸识别和人脸纹理贴图等不同应用场景中,信号输入源的类型不尽相同,所以需要首先判断信号输入源为视频还是图片序列,以便为后续处理提供便利。
S202、若信号输入源为视频,则将视频解码为图片序列后,再获取图片序列。其中解码后的图片序列中包含的图片的数量,可以根据实际情况需要作出调整,以解码后的图片序列中包含视频全部信息为标准。
S203、若信号输入源为图片序列,则直接获取图片序列。
S102、选取一张预处理后的图片进行人脸检测,得到人脸检测框,在人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的人脸特征点得到封闭的人脸区域范围。
其中,人脸检测是指:检测出图像中存在的人脸,并把它的位置准确地框选出来,形成人脸检测框。实际操作中,在选取一张预处理后的图片进行人脸检测后,可能会得到多个人脸检测框,则选取人脸检测框尺寸最大的该图片的人脸检测框。
进一步的,人脸特征点是表征人脸面部特征的像素点,包括特定部位的特征信息和整体的特征信息,在人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点时,人脸特征点的数量可以影响对图片清晰度的评价,本发明实施例采用的是经典的68个人脸特征点,具体68个人脸特征点分布,请参阅图3。
如图3所示,图3为本发明实施例提供的一种人脸图像清晰度评价方法中人脸特征点分布图。依次按顺序连接人脸特征点1到人脸特征点17、人脸特征点17到人脸特征点27、人脸特征点27到人脸特征点18以及人脸特征点18到人脸特征点1,得到一个封闭的的多边形人脸区域范围。对于图片上的每一个像素点,判断每一个像素点与人脸区域范围的关系,如果像素点在多边形人脸区域范围内或者像素点在多边形人脸区域范围的任意一条边上,则该像素点为人脸区域内的点,将属于人脸区域内的所有像素点记录下来,记为集合U,将人脸区域范围内的所有像素点的总数量记为total。
进一步的,S103、累加人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值,取平均值作为图片的清晰度因子。
其中,清晰度因子是对梯度值的平均值的一个抽象表述,图片清晰度的判断有各种方法,并没有统一的标准,本专利所使用的方法就是通过梯度值的平均值所代表的清晰度因子,来判断图片的清晰度。
S104、执行选取一张预处理后的图片进行人脸检测,直至取完图片序列中的所有图片。
由于图片序列中具有若干张图片,为了人脸清晰度评价时更为准确,需要重复选取预处理后的图片,直至取完图片序列中所有的图片,方可进行下一步骤。
S105、排序图片序列中所有图片的清晰度因子数值,得到图片序列中所有图片的清晰度顺序。
由于清晰度因子代表图片人脸区域范围内所有像素点的梯度值的平均值,而清晰度因子的数值越大,则代表图片越清晰,排序图片序列中所有图片的清晰度因子数值,即可得到图片序列中所有图片的清晰度顺序,也就可以得到最清晰的图片。
在本发明实施例中,通过对预处理后的图片进行人脸检测,得到人脸区域范围,再累加人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值,取平均值作为图片的清晰度因子,排序所有图片的清晰度因子数值,得到所有图片 的清晰度顺序。由于通过计算人脸区域范围内所有像素的梯度值的平均值的方法来评价人脸清晰度,一方面,可以简化计算,提高运算效率,另一方面,仅将人脸区域范围作为计算范围,使得人脸图像清晰度的评价更加精确。
请参阅图4,图4为本发明实施例提供的一种人脸图像清晰度评价方法中图片预处理的流程示意图。该方法包括:
S301、依次选取图片序列中的每张图片,去除每张图片中的噪声。
其中,图片中的噪声是指存在于图像数据中的不必要的或多余的干扰信息,由于噪声的存在严重影响了图片的质量,因此在预处理阶段将图片中的噪声去除。
S302、将去除噪声的图片转化为灰度图。
其中,白色与黑色之间按对数关系分为若干等级,称为灰度,用灰度表示的图像称作灰度图。将图片序列中的图片转化为灰度图有利于计算像素点的梯度值。
请参阅图5、图5为本发明实施例提供的一种人脸图像清晰度评价方法中梯度值的平均值计算方法的流程示意图,该方法包括:
S401、分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值。
S402、分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值和。
S403、累加人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到累加结果。
S404、将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值。
其具体计算结果如下:
设P(i,j)为图片中人脸区域范围内第i行第j列的像素点的灰度值,P(i+1,j)是第i+1行第j列像素点的灰度值,P(i,j+1)为人脸区域范围内第i行第j+1列像素点的灰度值,如果上述三个像素点都属于人脸区域范围集合U,则计算第i行第j列的像素点水平和竖直方向的梯度值的绝对值的和sum=|P(i+1,j)-P(i,j)|+|P(i,j+1)-P(i,j)|,对于每一个属于集合U的像素点均计算该像素点水平和竖直方向的梯度值的绝对值的和sum(i,j),则累加人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到总的梯度绝对值的和为sumALL=∑U(sum(i,j)),最后将累加结果除以人脸区域范围内所有像素点数量total,得到人脸区域范围内所有像素点的梯度值的平均值,也即该图片的清晰度因子为:sumALL/Total。
进一步的,梯度值可以通过图片的灰度值进行计算,即按照上述方案中将图片序列中的图片转化为灰度图后取灰度值进行计算,也可以将图片序列中的图片转化到YCbCr空间进行计算,此时每个像素的梯度值为该像素水平和垂直方向Cb和Cr梯度值的和。具体的,参见如下的方法:
请参阅图6,图6为本发明实施例提供的一种人脸图像清晰度评价方法中另一种图片预处理的流程示意图。该方法包括:
S501、依次选取图片序列中的每张图片,去除每张图片中的噪声。
其中,图像中的噪声是指存在于图像数据中的不必要的或多余的干扰信息,由于噪声的存在严重影响了图像的质量,因此在预处理阶段将图片中的噪声去除。
S502、将去除噪声的图片转化为YCbCr空间图。
其中,YCbCr空间图是色彩空间的一种,Y值为光的浓度且为非线性,Cb值和Cr值则 为蓝色和红色的浓度偏移量成份。
进一步的,请参阅图7,图7为本发明实施例提供的一种人脸图像清晰度评价方法中另一种梯度值的平均值计算方法的流程示意图,该方法包括:
S601、分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值。
S602、分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值和。
S603、累加人脸区域范围内所有像素点的水平方向和垂直方向的Cb值和Cr值的梯度值的绝对值和,得到累加结果。
S604、将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值。
其具体计算结果如下:
设Cb(i,j)为图片中人脸区域范围内第i行第j列的像素点的Cb值,Cb(i+1,j)是第i+1行第j列像素的Cb值,Cb(i,j+1)为人脸区域范围内第i行第j+1列像素点的Cb值;设Cr(i,j)为图片中人脸区域范围内第i行第j列的像素点的Cr值,Cr(i+1,j)是第i+1行第j列像素的Cr值,Cr(i,j+1)为人脸区域范围内第i行第j+1列像素点的Cr值,如果上述三个像素都属于人脸区域范围集合U,则计算第i行第j列的像素点水平和竖直方向的梯度值的绝对值的和
Figure PCTCN2018113361-appb-000001
对于每一个属于集合U的像素点均计算该像素点水平和竖直方向的梯度值的绝对值的和sumCbCr(i,j),则累加人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到总的梯度绝对值的和为sumALL=∑U(sumCbCr(i,j)),最后将累加结果除以人脸区域范围内所有像素点数量total,得到人脸区域范围内所有像素点的梯度值的平均值,也即该图片的清晰度因子为:sumALL/Total。
在本发明实施例中,介绍了两种梯度值的平均值计算方法,第一,可以通过图片的灰度值进行计算,即将图片序列中的图片转化为灰度图后取灰度值进行计算;第二,也可以将图片序列中的图片转化到YCbCr空间进行计算,此时每个像素的梯度值为该像素水平和垂直方向Cb和Cr梯度值的和。通过上述两种计算方法,一方面,可以简化计算,提高运算效率,另一方面,仅将人脸区域范围作为计算范围,使得人脸图像清晰度的评价更加精确。
请参阅图8,图8为本发明实施例提供的一种人脸图像清晰度评价装置的装置示意图。该装置包括:
预处理模块10,用于获取图片序列,并对图片序列中所有图片进行预处理。
人脸检测模块20,用于选取一张预处理后的图片进行人脸检测,得到人脸检测框,在人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的人脸特征点得到封闭的人脸区域范围。
计算模块30,用于累加人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值,取平均值作为图片的清晰度因子。
循环模块40,用于执行选取一张预处理后的图片进行人脸检测,直至取完图片序列中的所有图片。
排序模块50,用于排序图片序列中所有图片的清晰度因子数值,得到图片序列中所有 图片的清晰度顺序。
进一步的,预处理模块10包括:
判断模块101,用于判断信号输入源为视频还是图片序列。
解码模块102,用于若信号输入源为视频,则将视频解码为图片序列后,再获取图片序列。
获取模块103,用于若信号输入源为图片序列,则直接获取图片序列。
去噪声模块104,用于依次选取图片序列中的每张图片,去除每张图片中的噪声。
灰度图模块105,用于将去除噪声的图片转化为灰度图。
进一步的,计算模块30包括:
第一绝对值计算模块301,用于分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值。
第一绝对值和模块302,用于分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值和。
第一累加模块303,用于累加人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到累加结果。
第一平均值计算模块304,用于将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值。
进一步的,由于梯度值可以通过图片的灰度值进行计算,即按照上述装置中将图片序列中的图片转化为灰度图后取灰度值进行计算,也可以将图片序列中的图片转化到YCbCr空间进行计算,此时每个像素的梯度值为该像素水平和垂直方向Cb和Cr梯度值的和,请参阅图9,图9为本发明实施例提供的一种人脸图像清晰度评价装置的另一种装置示意图,所以预处理模块10的结构还可以为包括:
判断模块101,用于判断信号输入源为视频还是图片序列。
解码模块102,用于若信号输入源为视频,则将视频解码为图片序列后,再获取图片序列。
获取模块103,用于若信号输入源为图片序列,则直接获取图片序列。
去噪声模块104,用于依次选取图片序列中的每张图片,去除每张图片中的噪声。
YCbCr空间图模块106,用于将去除噪声的图片转化为YCbCr空间图。
进一步的,计算装置30结构还可以为包括:
第二绝对值计算模块305,用于分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值。
第二绝对值和模块306,用于分别计算人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值和。
第二累加模块307,用于累加人脸区域范围内所有像素点的水平方向和垂直方向的Cb值和Cr值的梯度值的绝对值和,得到累加结果。
第二平均值计算模块308,用于将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值.
本发明实施例提供一种人脸图像清晰度评价装置,通过对预处理后的图片进行人脸检测,得到人脸区域范围,再累加人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将累加结果除以人脸区域范围内所有像素点数量,得到人脸区域范围内所有像素点的梯度值的平均值,取平均值作为图片的清晰度因子,排序所有图片的清晰度因子数值,得到所有图片的清晰度顺序。由于通过计算人脸区域范围内所有像素的梯度值的平均值的方法来评价人脸清晰度,一方面,可以简化计算,提高运算效率,另一方面,仅将人脸区域范围作为计算范围,使得人脸图像清晰度的评价更加精确。
序列表自由内容
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的一种人脸图像清晰度评价方法及装置的描述,对于本领域的技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。

Claims (10)

  1. 一种人脸图像清晰度评价方法,其特征在于,所述方法包括:
    获取图片序列,并对所述图片序列中所有图片进行预处理;
    选取一张预处理后的图片进行人脸检测,得到人脸检测框,在所述人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的所述人脸特征点得到封闭的人脸区域范围;
    累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值,取所述平均值作为所述图片的清晰度因子;
    执行选取一张预处理后的图片进行人脸检测,直至取完所述图片序列中的所有图片;
    排序所述图片序列中所有图片的清晰度因子数值,得到所述图片序列中所有图片的清晰度顺序。
  2. 根据权利要求1所述的方法,其特征在于,所述获取图片序列包括:
    判断信号输入源为视频还是图片序列;
    若信号输入源为视频,则将所述视频解码为图片序列后,再获取图片序列;
    若信号输入源为图片序列,则直接获取图片序列。
  3. 根据权利要求2所述的方法,其特征在于,所述对所述图片序列中所有图片进行预处理包括:
    依次选取所述图片序列中的每张图片,去除每张图片中的噪声;
    将去除噪声的图片转化为灰度图。
  4. 根据权利要求3所述的方法,其特征在于,所述累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值包括:
    分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值;
    分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值和;
    累加所述人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到累加结果;
    将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值。
  5. 根据权利要求2所述的方法,其特征在于,所述对所述图片序列中所有图片进行预处理包括:
    依次选取所述图片序列中的每张图片,去除每张图片中的噪声;
    将去除噪声的图片转化为YCbCr空间图。
  6. 根据权利要求5所述的方法,其特征在于,所述累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值包括:
    分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值;
    分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值和;
    累加所述人脸区域范围内所有像素点的水平方向和垂直方向的Cb值和Cr值的梯度值的 绝对值和,得到累加结果;
    将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值。
  7. 一种人脸图像清晰度评价装置,其特征在于,所述装置包括:
    预处理模块,用于获取图片序列,并对所述图片序列中所有图片进行预处理;
    人脸检测模块,用于选取一张预处理后的图片进行人脸检测,得到人脸检测框,在所述人脸检测框内进行人脸特征点检测,标识出预设数量的人脸特征点,通过连接预设标号处的所述人脸特征点得到封闭的人脸区域范围;
    计算模块,用于累加所述人脸区域范围内所有像素点的水平方向和垂直方向的梯度值的绝对值和,得到累加结果,将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值,取所述平均值作为所述图片的清晰度因子;
    循环模块,用于执行选取一张预处理后的图片进行人脸检测,直至取完所述图片序列中的所有图片;
    排序模块,用于排序所述图片序列中所有图片的清晰度因子数值,得到所述图片序列中所有图片的清晰度顺序。
  8. 根据权利要求7所述的装置,其特征在于,所述预处理模块包括:
    判断模块,用于判断信号输入源为视频还是图片序列;
    解码模块,用于若信号输入源为视频,则将所述视频解码为图片序列后,再获取图片序列;
    获取模块,用于若信号输入源为图片序列,则直接获取图片序列;
    去噪声模块,用于依次选取所述图片序列中的每张图片,去除每张图片中的噪声;
    灰度图模块,用于将去除噪声的图片转化为灰度图;
    YCbCr空间图模块,用于将去除噪声的图片转化为YCbCr空间图。
  9. 根据权利要求8所述的装置,其特征在于,所述计算模块包括:
    第一绝对值计算模块,用于分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值;
    第一绝对值和模块,用于分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的灰度值的梯度值的绝对值和;
    第一累加模块,用于累加所述人脸区域范围内所有像素点的水平方向和垂直方向的灰度值的梯度值的绝对值和,得到累加结果;
    第一平均值计算模块,用于将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值。
  10. 根据权利要求8所述的装置,其特征在于,所述计算装置包括:
    第二绝对值计算模块,用于分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值;
    第二绝对值和模块,用于分别计算所述人脸区域范围内每一个像素点的水平方向和竖直方向的Cb值和Cr值的梯度值的绝对值和;
    第二累加模块,用于累加所述人脸区域范围内所有像素点的水平方向和垂直方向的Cb值和Cr值的梯度值的绝对值和,得到累加结果;
    第二平均值计算模块,用于将所述累加结果除以所述人脸区域范围内所有像素点数量,得到所述人脸区域范围内所有像素点的梯度值的平均值。
PCT/CN2018/113361 2018-11-01 2018-11-01 一种人脸图像清晰度评价方法及装置 WO2020087434A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/113361 WO2020087434A1 (zh) 2018-11-01 2018-11-01 一种人脸图像清晰度评价方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/113361 WO2020087434A1 (zh) 2018-11-01 2018-11-01 一种人脸图像清晰度评价方法及装置

Publications (1)

Publication Number Publication Date
WO2020087434A1 true WO2020087434A1 (zh) 2020-05-07

Family

ID=70463524

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/113361 WO2020087434A1 (zh) 2018-11-01 2018-11-01 一种人脸图像清晰度评价方法及装置

Country Status (1)

Country Link
WO (1) WO2020087434A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177881A (zh) * 2021-04-28 2021-07-27 广州光锥元信息科技有限公司 提升图片清晰度的处理方法及装置
CN116630220A (zh) * 2023-07-25 2023-08-22 江苏美克医学技术有限公司 一种荧光图像景深融合成像方法、装置及存储介质
CN117472677A (zh) * 2023-12-26 2024-01-30 深圳市魔力信息技术有限公司 人脸识别设备的测试方法和测试***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100202697A1 (en) * 2009-02-10 2010-08-12 Seiko Epson Corporation Specifying position of characteristic portion of face image
CN103942525A (zh) * 2013-12-27 2014-07-23 高新兴科技集团股份有限公司 一种基于视频序列的实时人脸优选方法
CN106803067A (zh) * 2016-12-28 2017-06-06 浙江大华技术股份有限公司 一种人脸图像质量评估方法及装置
CN107665361A (zh) * 2017-09-30 2018-02-06 珠海芯桥科技有限公司 一种基于人脸识别的客流计数方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100202697A1 (en) * 2009-02-10 2010-08-12 Seiko Epson Corporation Specifying position of characteristic portion of face image
CN103942525A (zh) * 2013-12-27 2014-07-23 高新兴科技集团股份有限公司 一种基于视频序列的实时人脸优选方法
CN106803067A (zh) * 2016-12-28 2017-06-06 浙江大华技术股份有限公司 一种人脸图像质量评估方法及装置
CN107665361A (zh) * 2017-09-30 2018-02-06 珠海芯桥科技有限公司 一种基于人脸识别的客流计数方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177881A (zh) * 2021-04-28 2021-07-27 广州光锥元信息科技有限公司 提升图片清晰度的处理方法及装置
CN113177881B (zh) * 2021-04-28 2023-10-27 广州光锥元信息科技有限公司 提升图片清晰度的处理方法及装置
CN116630220A (zh) * 2023-07-25 2023-08-22 江苏美克医学技术有限公司 一种荧光图像景深融合成像方法、装置及存储介质
CN116630220B (zh) * 2023-07-25 2023-11-21 江苏美克医学技术有限公司 一种荧光图像景深融合成像方法、装置及存储介质
CN117472677A (zh) * 2023-12-26 2024-01-30 深圳市魔力信息技术有限公司 人脸识别设备的测试方法和测试***
CN117472677B (zh) * 2023-12-26 2024-03-08 深圳市魔力信息技术有限公司 人脸识别设备的测试方法和测试***

Similar Documents

Publication Publication Date Title
CN110705583B (zh) 细胞检测模型训练方法、装置、计算机设备及存储介质
CN111524106B (zh) 颅骨骨折检测和模型训练方法、装置、设备和存储介质
WO2022001509A1 (zh) 图像优化方法、装置、计算机存储介质以及电子设备
US11600008B2 (en) Human-tracking methods, systems, and storage media
CN110189336B (zh) 图像生成方法、***、服务器及存储介质
US20160155027A1 (en) Method and apparatus of determining air quality
CN112308095A (zh) 图片预处理及模型训练方法、装置、服务器及存储介质
CN110781885A (zh) 基于图像处理的文本检测方法、装置、介质及电子设备
CN112651978A (zh) 舌下微循环图像分割方法和装置、电子设备、存储介质
TW202014984A (zh) 一種圖像處理方法、電子設備及存儲介質
CN109389569B (zh) 基于改进DehazeNet的监控视频实时去雾方法
WO2020087434A1 (zh) 一种人脸图像清晰度评价方法及装置
CN111462120A (zh) 一种基于语义分割模型缺陷检测方法、装置、介质及设备
CN109711268B (zh) 一种人脸图像筛选方法及设备
CN108229346B (zh) 使用有符号的前景提取与融合的视频摘要
CN110570435A (zh) 用于对车辆损伤图像进行损伤分割的方法及装置
WO2022116104A1 (zh) 图像处理方法、装置、设备及存储介质
WO2023165033A1 (zh) 识别医学图像中的目标的模型训练、方法、设备及介质
CN111784658B (zh) 一种用于人脸图像的质量分析方法和***
CN116071315A (zh) 一种基于机器视觉的产品可视缺陷检测方法及***
CN109409305A (zh) 一种人脸图像清晰度评价方法及装置
CN114298985B (zh) 缺陷检测方法、装置、设备及存储介质
CN115601820A (zh) 一种人脸伪造图像检测方法、装置、终端及存储介质
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
CN114581318A (zh) 一种低照明度图像增强方法及***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18938494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18938494

Country of ref document: EP

Kind code of ref document: A1