KR20180074556A - Face detection method and apparatus thereof - Google Patents

Face detection method and apparatus thereof Download PDF

Info

Publication number
KR20180074556A
KR20180074556A KR1020170098513A KR20170098513A KR20180074556A KR 20180074556 A KR20180074556 A KR 20180074556A KR 1020170098513 A KR1020170098513 A KR 1020170098513A KR 20170098513 A KR20170098513 A KR 20170098513A KR 20180074556 A KR20180074556 A KR 20180074556A
Authority
KR
South Korea
Prior art keywords
image
face
images
quality
blurry
Prior art date
Application number
KR1020170098513A
Other languages
Korean (ko)
Other versions
KR102476022B1 (en
Inventor
비아오 왕
빙 위
최창규
드어헝 치엔
한재준
징타오 쒸
야오주 안
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/842,190 priority Critical patent/US10963676B2/en
Publication of KR20180074556A publication Critical patent/KR20180074556A/en
Application granted granted Critical
Publication of KR102476022B1 publication Critical patent/KR102476022B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

An image processing apparatus comprises an image classifying module for determining whether an input image is a low quality image or a high quality image; and an image evaluating module for determining a first predetermined number of the highest definition images among a plurality of low quality images determined by the image classifying module. The image processing apparatus can process various types of low quality images including a blur image and a low light amount image.

Description

얼굴검출 방법 및 그 장치{FACE DETECTION METHOD AND APPARATUS THEREOF}[0001] FACE DETECTION METHOD AND APPARATUS THEREOF [0002]

얼굴영상을 처리하는 방법 및 장치가 개시된다.A method and apparatus for processing facial images is disclosed.

통제되지 않은 조건(예를 들면, 조명, 카메라 흔들림 및 움직이는 피사체) 하에서 포착한 영상에는 대량의 저품질 영상(예를 들면, 강한 백라이트 영상, 어두운 영상 및 흐릿한(blurred) 영상 등)이 존재할 수 있다. 고품질 영상을 이용하는 기존의 얼굴 검출 방법은 저품질 영상의 얼굴영상에 대한 인식률이 낮다.Images captured under uncontrolled conditions (e.g., lighting, camera shake, and moving subjects) can have a large number of low quality images (e.g., strong backlight, dark and blurred images, etc.). Conventional face detection methods using high quality images have low recognition rates for face images of low quality images.

기존의 얼굴검출 방법은 유사한 광량 조건 하에서의 고품질 영상에 기초하여 생성된 트레이닝 테스트 데이터베이스를 이용할 경우, 만족스러운 검출효과를 얻을 수 있다. 그러나, 데이터베이스 영상의 조명 조건과 차이가 비교적 큰 저품질 영상 또는 모션 아티팩트(artifacts)가 존재하는 영상, 특히 얼굴영역의 차이가 클수록 얼굴검출 효과가 감소한다. 즉, 기존의 얼굴검출 방법에 따르면, 저광량에서 획득된 저품질 영상 및 흐릿한 영상에 대한 얼굴검출률이 낮다.Existing face detection methods can obtain a satisfactory detection effect when a training test database generated based on high-quality images under similar light amount conditions is used. However, the larger the difference between the low-quality image or the motion image artifacts having a relatively large difference from the illumination condition of the database image, especially the face region, the more the face detection effect decreases. That is, according to the conventional face detection method, the face detection rate is low for low-quality images and blurry images obtained at low light amounts.

기존의 얼굴검출 방법은 영상의 배경 건축물을 얼굴로 잘못 검출하고, 백라이트 영상의 얼굴을 검출하지 못한다. 또한, 기존의 얼굴검출 방법은 저광량 영상 또는 흐릿한 영상에서 얼굴을 검출하기 어렵다.The existing face detection method erroneously detects the background of the image as a face and fails to detect the face of the backlight image. In addition, it is difficult to detect a face from a low intensity image or a blurred image.

기존의 얼굴검출 방법은 전처리(pre-processing)를 통해 조명 등의 외부 조건으로 인해 영상에 발생한 간섭을 제거하거나 감소시킴으로써 얼굴검출률을 향상시킬 수 있다. 그러나, 기존의 얼굴검출 방법은 주로 서로 다른 유형의 저품질 영상에 대해 전처리를 수행하고, 특정 검출방법을 이용하여 입력영상을 결정할 필요가 있다. 이러한 얼굴검출 방법은 동시에 복수의 영상유형을 결정하거나 전처리하기 어렵다.Conventional face detection methods can enhance the face detection rate by eliminating or reducing the interference caused by the external conditions such as illumination through pre-processing. However, existing face detection methods are mainly required to perform preprocessing on different types of low-quality images, and to determine an input image using a specific detection method. Such a face detection method is difficult to determine or preprocess a plurality of image types at the same time.

따라서, 흐릿한 영상 및 저광량 영상을 포함하는 다양한 종류의 저품질 영상을 처리할 수 있는 영상처리 방법 및 장치가 요구된다.Therefore, there is a need for an image processing method and apparatus capable of processing various kinds of low-quality images including blurred images and low-intensity images.

영상처리 장치는, 입력영상이 저품질 영상인지 고품질 영상인지를 결정하도록 구성된 영상분류모듈 및 상기 영상분류모듈이 결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하도록 구성된 영상평가모듈을 포함한다.An image processing apparatus includes an image classification module configured to determine whether an input image is a low-quality image or a high-quality image, and an image evaluation module configured to determine a first predetermined number of highest-clarity images among a plurality of low- .

상기 영상분류모듈은 제1 합성곱 신경망(CNN: Convolutional Neural Network) 분류기 모델을 이용하여 상기 입력영상이 복수의 서로 다른 품질유형 중의 각종 유형으로 분류될 영상분류 확률값을 계산할 수 있고, 상기 입력영상의 영상분류 확률값에 따라 상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하도록 구성될 수 있다.The image classification module may calculate an image classification probability value that the input image is classified into various types among a plurality of different quality types using a first convolutional neural network (CNN) classifier model, And determine whether the input image is a low-quality image or a high-quality image according to the image classification probability value.

상기 영상평가모듈은 상기 복수의 저품질 영상 중 각각의 저품질 영상에 대해 영상 선명도를 계산하고, 상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정하도록 구성될 수 있다.Wherein the image evaluation module calculates an image sharpness for each low quality image among the plurality of low quality images and outputs a low quality image having a first predetermined number of high image sharpness from the highest image sharpness among the plurality of low quality images, 1 < / RTI > predetermined number of high-definition images.

영상처리 장치는 제2 합성곱 신경망 분류기 모델을 통해 영상분류모듈이 결정한 고품질 영상 및 영상평가모듈이 결정한 최고선명도 영상에 대해 얼굴검출을 수행하여 결과영상을 출력하도록 구성된 얼굴검출모듈을 더 포함하고, 상기 결과영상은 얼굴영상 또는 얼굴이 포함되지 않은 영상일 수 있다.The image processing apparatus further includes a face detection module configured to perform face detection on the highest-definition image determined by the high-quality image and image evaluation module determined by the image classification module through the second artificial neural network classifier model, and output a resultant image, The resultant image may be a face image or an image not including a face.

영상처리 장치는 상기 얼굴검출모듈이 출력하는 얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하도록 구성된 얼굴영상 분류모듈 및 얼굴영상분류모듈이 결정한 복수의 흐릿한 얼굴 영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하도록 구성된 얼굴영상 평가모듈을 더 포함할 수 있다.The image processing apparatus includes a facial image classifying module configured to determine whether the facial image output from the face detecting module is a blurred facial image and a second predetermined number of blurry facial images determined by the facial image classifying module And a face image evaluation module configured to determine a sharpness face image.

영상처리 장치는, 상기 얼굴영상분류모듈은 제3 합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 또는 흐릿한 얼굴영상으로 분류되는 얼굴영상분류 확률값을 계산하고, 상기 얼굴영상분류 확률값에 따라 상기 얼굴영상이 흐릿한 얼굴영상인지 선명한 얼굴영상인지 결정하도록 구성될 수 있다.In the image processing apparatus, the face image classification module may calculate a face image classification probability value that the face image is classified into a clear face image or a blurry face image by using a third artificial neural network classifier model, And determine whether the face image is a blurry face image or a clear face image.

상기 얼굴영상 평가모듈은 상기 복수의 흐릿한 얼굴영상 중 각각의 흐릿한 얼굴영상에 대해 얼굴 선명도를 계산할 수 있고, 상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정하도록 구성될 수 있다.Wherein the face image evaluation module is capable of calculating a face sharpness for each blurry face image among the plurality of blurry face images and calculating a face sharpness from a highest face sharpness to a second predetermined number of high face sharpness And determine a blurry face image as the second predetermined number of maximum sharpness face images.

얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하도록 구성된 얼굴영상 분류모듈 및 상기 얼굴영상 분류모듈이 결정한 복수의 흐릿한 얼굴영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하도록 구성된 얼굴영상 평가모듈을 포함할 수 있다.A face image classification module configured to determine whether a face image is a blurred face image and a face image evaluation module configured to determine a second predetermined number of the highest sharpness face images among a plurality of blurry face images determined by the face image classification module Modules.

상기 얼굴영상 분류모듈은 합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 및 흐릿한 얼굴영상 중 하나로 분류될 얼굴영상분류 확률값을 계산할 수 있고, 상기 얼굴영상의 얼굴영상분류 확률값에 따라 상기 얼굴영상이 선명한 얼굴영상인지, 흐릿한 얼굴영상인지를 결정하도록 구성될 수 있다.The face image classification module may calculate a face image classification probability value to be classified as one of a clear face image and a blurry face image by using the composite neural network classifier model, Whether the image is a clear face image or a blurry face image.

영상처리 방법은, 입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계 및 결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하는 단계를 포함할 수 있다.The image processing method may include the steps of determining whether the input image is a low-quality image or a high-quality image, and determining a first predetermined number of the highest clarity images among the plurality of determined low-quality images.

상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계는, 제1 합성곱 신경망 분류기 모델을 사용하여 입력영상이 복수의 서로 다른 품질 유형 중의 각종 유형으로 분류될 영상분류 확률값을 계산하는 단계 및 상기 입력영상의 영상분류 확률값에 따라 상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계를 포함할 수 있다.Wherein the step of determining whether the input image is a low-quality image or a high-quality image includes calculating an image classification probability value in which an input image is classified into various types among a plurality of different quality types using a first artificial neural network classifier model, And determining whether the input image is a low-quality image or a high-quality image according to an image classification probability value of the input image.

결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하는 단계는, 상기 복수의 저품질 영상 중 각각의 저품질 영상에 대해 영상 선명도를 계산하는 단계 및 상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정하는 단계를 포함할 수 있다.Wherein the step of determining a first predetermined number of high-definition images of the determined plurality of low-quality images comprises: calculating image sharpness for each low-quality image among the plurality of low-quality images; And determining a first predetermined number of high-definition images having a high image clarity as the first predetermined number of high-definition images.

영상처리 방법은, 제2 합성곱 신경망 분류기 모델을 통해 결정한 고품질 영상 및 결정한 최고선명도 영상에 대하여 얼굴검출을 수행하여 결과영상을 출력하는 단계를 더 포함할 수 있고, 상기 결과영상은 얼굴영상 또는 얼굴이 포함되지 않은 영상일 수 있다.The image processing method may further include performing face detection on the high-quality image and the determined highest-definition image determined through the second artificial neural network classifier model and outputting the resultant image, May not be included.

영상처리 방법은, 상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계 및 결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계를 더 포함할 수 있다.The image processing method may further include determining whether the facial image is a blurry facial image, and determining a second predetermined number of the highest-clarity facial images from the determined plurality of blurry facial images.

상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계는, 제3 합성곱 신경망 분류기 모델을 사용하여 상기 얼굴영상이 선명한 얼굴영상 또는 흐릿한 얼굴영상으로 분류되는 얼굴영상분류 확률값을 계산하는 단계 및 상기 얼굴영상분류 확률값에 따라 상기 얼굴영상이 흐릿한 얼굴영상인지 또는 선명한 얼굴영상인지를 결정하는 단계를 포함할 수 있다.Wherein the step of determining whether the face image is a blurry face image includes calculating a face image classification probability value in which the face image is classified as a clear face image or a blurry face image using a third artificial neural network classifier model, And determining whether the face image is a blurry face image or a clear face image according to the image classification probability value.

결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계는, 상기 복수의 흐릿한 얼굴영상 중 각각의 흐릿한 얼굴영상에 대해 얼굴 선명도를 계산하는 단계 및 상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정하는 단계를 포함할 수 있다.Determining the second predetermined number of highest clarity face images from the determined plurality of obscured face images may include calculating facial sharpness for each blurry face image among the plurality of obscure face images, And determining a blurry face image having a second predetermined number of high face sharpness from the highest face sharpness as the second predetermined number of highest clarity face images.

영상처리 방법은, 얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하는 단계 및 결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계를 포함할 수 있다.The image processing method may include determining whether the facial image is a blurred facial image, and determining a second predetermined number of the highest clarity facial images from the determined plurality of blurred facial images.

상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계는, 합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 및 흐릿한 얼굴영상 중 하나로 분류될 얼굴영상분류 확률값을 계산하는 단계 및 상기 얼굴영상의 얼굴영상분류 확률값에 따라 상기 얼굴영상이 선명한 얼굴영상인지, 흐릿한 얼굴영상인지를 결정하는 단계를 포함할 수 있다.The step of determining whether the face image is a blurry face image may include calculating a face image classification probability value to be classified as one of a clear face image and a blurry face image by using the composite neural network classifier model, And determining whether the face image is a clear face image or a blurry face image according to the face image classification probability value of the face image.

동시에 복수의 영상유형을 결정하고 처리할 수 있다.At the same time, multiple image types can be determined and processed.

다양한 종류의 저품질 영상을 처리할 수 있다.It can process various kinds of low quality images.

도 1은 기존 얼굴검출 방법의 백라이트 영상에 대한 검출결과를 도시한다.
도 2는 기존 얼굴검출 방법의 저광량 영상에 대한 검출결과를 도시한다.
도 3은 기존 얼굴검출 방법의 흐릿한 영상에 대한 검출결과를 도시한다.
도 4는 일실시예에 따른 제1 영상처리 장치의 블록도이다.
도 5는 4분류 합성곱 신경망(CNN) 저품질 영상 분류기 모델을 도시한다.
도 6은 일실시예에 따른 영상처리 방법의 흐름도이다.
도 7 일실시예에 따른 제2 영상처리 장치의 블록도이다.
도 8은 2분류 CNN 흐릿한 얼굴영상 분류기 모델을 도시한다.
도 9는 일실시예에 따른 영상처리 방법의 흐름도이다.
도 10은 영상처리 장치의 블록도이다.
도 11은 영상 처리방법의 흐름도이다.
FIG. 1 shows detection results of a backlight image of a conventional face detection method.
FIG. 2 shows detection results for a low light amount image of a conventional face detection method.
FIG. 3 shows the detection result of a blurred image of the existing face detection method.
4 is a block diagram of a first image processing apparatus according to an embodiment.
FIG. 5 shows a four-classification articulated neural network (CNN) low-quality image classifier model.
6 is a flowchart of an image processing method according to an embodiment.
7 is a block diagram of a second image processing apparatus according to an embodiment of the present invention.
Figure 8 shows a two-class CNN blurry facial image classifier model.
9 is a flowchart of an image processing method according to an embodiment.
10 is a block diagram of an image processing apparatus.
11 is a flowchart of an image processing method.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.

도 1 내지 도 3은 기존 얼굴검출 방법의 백라이트 영상 및 저광량 영상에 대한 얼굴검출 결과를 도시한다.1 to 3 show face detection results for a backlight image and a low light amount image of the conventional face detection method.

도 4는 일실시예에 따른 제1 영상처리 장치의 블록도이다.4 is a block diagram of a first image processing apparatus according to an embodiment.

제1 영상처리 장치(100)는 얼굴검출을 수행하는 입력영상을 전처리(pre-processing)한다. 도 4에 도시된 바와 같이, 제1 영상처리 장치(100)는 영상분류모듈(110) 및 영상평가모듈(120)을 포함할 수 있다.The first image processing apparatus 100 pre-processes an input image for performing face detection. As shown in FIG. 4, the first image processing apparatus 100 may include an image classification module 110 and an image evaluation module 120.

영상분류모듈(110)은 입력영상이 저품질 영상인지 고품질 영상인지를 판단(또는 결정)할 수 있다. 구체적으로, 영상분류모듈(110)은 제1 CNN 분류기 모델을 이용하여 입력영상이 복수의 서로 다른 품질 유형 중 어느 하나의 유형으로 분류될 영상분류 확률값을 계산하고, 상기 입력영상이 영상분류 확률값에 따라 저품질 영상인지 고품질 영상인지를 결정할 수 있다. 예를 들면, 제1 CNN 분류기 모델은 CNN 저품질 영상 분류기 모델일 수 있고, 영상분류모듈(110)은 CNN 저품질 영상 분류기 모델을 이용하여 영상분류 확률값에 따라 입력영상이 저품질 영상인지 여부를 결정할 수 있다. 또한, 입력영상이 영상분류모듈(110)에 의해 저품질 영상이라고 판단된 경우, 영상분류모듈(110)은 CNN 저품질 영상 분류기 모델을 통하여 계산한 상기 입력영상이 복수의 서로 다른 품질유형 중 어느 하나의 유형으로 분류될 영상분류 확률값을 영상평가모듈(120)로 전송하여 영상 선명도를 계산할 수 있다.The image classification module 110 may determine (or determine) whether the input image is a low-quality image or a high-quality image. Specifically, the image classification module 110 calculates an image classification probability value in which an input image is classified into one of a plurality of different quality types using the first CNN classifier model, and the input image is classified into an image classification probability value It is possible to decide whether it is a low-quality image or a high-quality image. For example, the first CNN classifier model may be a CNN low-quality image classifier model, and the image classification module 110 may determine whether the input image is a low-quality image according to the image classification probability value using the CNN low-quality image classifier model . If it is determined that the input image is a low-quality image by the image classification module 110, the image classification module 110 determines that the input image calculated through the CNN low-quality image classifier model is one of a plurality of different quality types Type image classification probability value to be classified as a type may be transmitted to the image evaluation module 120 to calculate the image sharpness.

CNN 저품질 영상 분류기 모델의 합성곱 신경망(Convolutional Neural Network)은 복수의 망 구조를 이용할 수 있다. 도 5를 함께 참조하면, CNN 저품질 영상 분류기 모델은 좌에서 우로 입력층(input layer), 7개의 은폐층(hidden layer) 및 출력층(output layer)을 포함할 수 있다. 상기 7개 은폐층은 좌에서 우로 순차적으로 제1 합성곱층(제1 필터층), 제1 풀링층(pooling), 제2 합성곱층, 제2 풀링층, 제3 합성곱층, 제3 풀링층 및 완전연결층(Full-connected layer)일 수 있다. 상기 4분류 CNN 저품질 영상 분류기 모델은 저품질 영상 데이터베이스를 통해 모든 합성곱층, 풀링층 및 완전연결층의 파라미터에 대한 트레이닝을 통해 트레이닝 파라미터를 획득할 수 있다.Convolutional Neural Network of CNN low quality image classifier model can use multiple network structure. 5, the CNN low-quality image classifier model may include left to right input layers, seven hidden layers, and an output layer. The seventh concealment layer includes a first composite layer (first filter layer), a first pooling layer, a second composite multi-layer, a second pooling layer, a third composite multi-layer, a third pooling layer, It may be a full-connected layer. The 4-classified CNN low-quality image classifier model can acquire training parameters through training on parameters of all the convolution layer, the pooling layer and the full connection layer through the low-quality image database.

계속해서 도 5를 참조하면, 왼쪽으로부터 첫 번째 도형(즉, 직사각형)은 입력층을 의미하고, 상기 직사각형의 높이(48)와 깊이(48)는 입력층이 48×48개 뉴런으로 구성된 행렬을 의미하고, 상기 행렬은 입력영상의 48×48개 픽셀포인트로 구성된 픽셀포인트 행렬일 수 있다5, the first figure (i.e., the rectangle) from the left represents the input layer, and the height 48 and depth 48 of the rectangle indicate the input layer is a matrix composed of 48 x 48 neurons , And the matrix may be a pixel point matrix composed of 48 x 48 pixel points of the input image

도 5에서 왼쪽으로부터 두 번째 도형은 높이(44), 깊이(44) 및 너비(32)인 직육면체이고, 상기 직육면체는 입력영상이 제1 합성곱층을 통과한 후 합성곱을 통해 획득한 것을 제1 합성곱 결과로 하는 32개의 특징도(feature map)를 의미하고, 상기 32개의 특징도에서 각각의 특징도는 44×44개 픽셀포인트를 포함할 수 있다.5, the second figure from the left is a rectangular parallelepiped having a height 44, a depth 44 and a width 32. The rectangular parallelepiped is a rectangular parallelepiped having a first composite Means a 32 feature maps resulting from the multiplication, and each of the feature maps in the 32 feature maps may include 44 x 44 pixel points.

도 5에서 왼쪽으로부터 세 번째 도형은 높이(22), 깊이(22) 및 너비(32)인 직육면체이고, 상기 직육면체는 제1 합성곱의 결과인 32개 특징도가 제1 풀링층을 통과한 후, 획득한 것을 제1 풀링 결과로 하는 32개의 특징도를 의미하고, 상기 32개 특징도에서 각각의 특징도는 22×22개 픽셀포인트를 포함할 수 있다.The third figure from the left in FIG. 5 is a rectangular parallelepiped having a height 22, a depth 22 and a width 32, and the rectangular parallelepiped has 32 characteristic diagrams, which are the result of the first synthesis, , And 32 feature maps with the obtained results as the first pooling result. In each of the 32 feature maps, each feature map may include 22 x 22 pixel points.

제2 합성곱층 및 제3 합성곱층의 합성곱 과정은 상술한 제1 합성곱층의 합성곱 과정과 유사하고, 제2 풀링층과 제3 풀링층의 풀링과정은 상술한 제1 풀링층의 풀링과정과 유사하다.The second product multiply layer and the third product multiply layer are similar to the product multiply process of the first composite multiply layer and the pooling process of the second pooling layer and the third pooling layer is similar to the pooling process of the first pooling layer .

도 5에서 왼쪽으로부터 여덟 번째 도형(즉, 직사각형)은 완전연결층을 의미하고, 완전연결층 하측의 64는 상기 층이 64개 뉴런을 포함하는 것을 의미한다.In FIG. 5, the eighth figure from the left (i.e., the rectangle) means the complete connecting layer, and 64 below the complete connecting layer means that the layer contains 64 neurons.

도 5에서 왼쪽으로부터 아홉 번째(즉, 오른쪽으로부터 첫 번째) 도형은 직사각형이고 출력층을 의미하며, 출력층 하측의 4는 상기 출력층이 4개의 뉴런을 포함하는 것을 의미한다. 완전연결층 중 각 뉴런은 모두 독립적으로 제3 풀링층의 각 뉴런과 연결될 수 있다. 출력층의 각 뉴런은 모두 독립적으로 완전연결층의 각 뉴런과 연결될 수 있다.In Fig. 5, the ninth figure from the left (i.e., the first figure from the right) is a rectangle and means an output layer, and 4 on the output layer means that the output layer includes four neurons. Each neuron in the complete connecting layer can be independently connected to each neuron in the third pooling layer. Each neuron in the output layer can be independently connected to each neuron in the fully connected layer.

CNN 저품질 영상 분류기 모델이 4분류 CNN 저품질 영상 분류기 모델인 경우, 입력영상은 4분류 CNN 저품질 영상 분류기 모델에 의해 서로 다른 4가지 품질의 유형(즉, 백라이트 영상유형, 저광량 영상유형, 흐릿한 영상유형과 선명한 영상유형)으로 분류될 수 있다. 영상분류모듈(110)은 입력영상이 선명한 영상유형으로 분류될 영상분류 확률값이 백라이트 영상유형, 저광량 영상유형 또는 흐릿한 영상유형으로 분류될 영상분류 확률값보다 클 경우, 현재 입력영상이 고품질 영상이라고 판단할 수 있다.When the CNN low-quality video classifier model is a four-class CNN low-quality video classifier model, the input video is classified into four types of quality (ie, backlight video type, low-light video type, blurry video type And a clear image type). The image classification module 110 determines that the current input image is a high quality image if the image classification probability value to be classified into a clear image type is larger than the image classification probability value to be classified into a backlight image type, can do.

다른 일실시예에 있어서, 입력영상이 백라이트 영상유형, 저광량 영상유형 및 흐릿한 영상유형 중 적어도 한가지 유형으로 분류될 영상분류 확률값이 선명한 영상유형으로 분류될 영상분류 확률값보다 클 경우, 영상분류모듈(110)은 현재 입력영상이 저품질 영상이라고 판단할 수 있다. 상기 영상분류 확률값은 영상평가모듈(120)에 미리 저장되어 있을 수 있다.In another embodiment, if the image classification probability value to be classified into at least one of the backlight image type, the low light amount image type, and the blurry image type is larger than the image classification probability value to be classified into the clear image type, 110) can determine that the current input image is a low-quality image. The image classification probability value may be stored in the image evaluation module 120 in advance.

영상분류모듈(110)은 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하는데 이용될 수 있다. 구체적으로, 영상평가모듈(120)은 복수의 저품질 영상 중 각각의 저품질 영상의 영상 선명도를 계산할 수 있고, 상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정할 수 있다. 상기 제1 미리 정해진 개수는 적어도 하나 이상일 수 있고, 상기 복수의 저품질 영상의 개수보다 작거나 같을 수 있다.The image classification module 110 may be used to determine a first predetermined number of the highest clarity images of the plurality of low-quality images. Specifically, the image evaluation module 120 can calculate the image clarity of each low-quality image among the plurality of low-quality images, and the low-quality image having the first predetermined number of high-definition images from the highest image sharpness among the plurality of low- And determine the image as the first predetermined number of the highest clarity images. The first predetermined number may be at least one, and may be less than or equal to the number of the plurality of low-quality images.

영상분류모듈(110)이 입력영상을 저품질 영상이라고 판단할 경우, 영상평가모듈(120)은 영상분류모듈(110)로부터 상기 입력영상들에 대한 영상분류 확률값을 수신할 수 있고, 상기 입력영상의 영상분류 확률값의 표준편차의 역수를 계산하여 상기 입력영상의 영상 선명도로 설정하거나, 상기 입력영상이 선명한 영상유형으로 분류될 영상분류 확률값을 상기 입력영상의 영상 선명도로 설정할 수 있다.When the image classification module 110 determines that the input image is a low-quality image, the image evaluation module 120 can receive the image classification probability value for the input images from the image classification module 110, The inverse number of the standard deviation of the image classification probability value is calculated and set to the image sharpness of the input image or the image classification probability value in which the input image is classified into the clear image type can be set as the image sharpness of the input image.

예를 들면, CNN 저품질 분류기 모델이 4분류 CNN 저품질 영상 분류기 모델이고, 입력영상이 저품질 영상이라고 판단될 경우, 영상평가모듈(120)은 영상분류모듈(110)로부터 상기 입력영상이 각각 4가지 서로 다른 품질유형(즉, 백라이트 영상유형, 저광량 영상유형, 흐릿한 영상유형 및 선명한 영상유형)으로 분류될 영상분류 확률값(즉, 상기 입력영상이 백라이트 영상, 저광량 영상, 흐릿한 영상유형 및 선명한 영상유형으로 분류될 각각의 확률값)을 수신할 수 있다. 영상평가모듈(120)은 상기 4개 영상분류 확률값의 표준편차의 역수를 계산하여 상기 입력영상의 영상 선명도로 설정하거나, 상기 입력영상이 선명한 영상유형으로 분류될 영상분류 확률값을 상기 입력영상의 영상 선명도로 설정할 수 있다.For example, if the CNN low-quality classifier model is a four-class CNN low-quality image classifier model and the input image is determined to be a low-quality image, the image evaluation module 120 determines that the input image is divided into four The image classification probability value to be classified into other quality types (i.e., the backlight image type, the low light amount image type, the blurred image type, and the clear image type) Each probability value to be classified as < / RTI > The image evaluation module 120 calculates the inverse of the standard deviation of the four image classification probability values to set the image sharpness of the input image or the image classification probability value that the input image is classified into a clear image type, It can be set to sharpness.

예를 들어, 상기 입력영상이 백라이트 영상유형으로 분류될 확률값이

Figure pat00001
, 저광량 영상유형으로 분류될 확률값이
Figure pat00002
, 흐릿한 영상유형으로 분류될 확률값이
Figure pat00003
, 선명한 영상유형으로 분류될 확률값이
Figure pat00004
일 경우, 상기 4개의 영상분류 확률값의 평균치는
Figure pat00005
이고, 상기 4개 영상분류 확률값의 표준편차는
Figure pat00006
일 수 있다. 영상평가모듈(120)은, 상기 표준편차의 역수를 상기 입력영상의 영상 선명도로 설정할 수 있고, 선명한 영상유형의 확률값
Figure pat00007
를 상기 입력영상의 영상 선명도로 설정할 수도 있다.For example, if the probability that the input image is classified as a backlight image type is
Figure pat00001
, A probability value to be classified as a low light image type
Figure pat00002
, A probability value to be classified as a blurred image type
Figure pat00003
, A probability value to be classified as a clear image type
Figure pat00004
, The average value of the four image classification probability values is
Figure pat00005
, And the standard deviation of the four image classification probability values is
Figure pat00006
Lt; / RTI > The image evaluation module 120 can set the inverse number of the standard deviation to the image sharpness of the input image,
Figure pat00007
May be set to the image sharpness of the input image.

또한, 영상평가모듈(120)은 상기 입력영상(즉, 저품질 영상) 및 상기 입력영상에 대해 계산한 영상 선명도를 저장할 수 있다. 영상평가모듈(120)이 미리 정해진 개수의 저품질 영상을 저장한 경우, 영상평가모듈(120)은 상기 미리 정해진 개수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 판단할 수 있다. 상기 미리 정해진 개수는 상기 제1 미리 정해진 개수보다 크거나 같을 수 있다.In addition, the video evaluation module 120 may store the image sharpness calculated for the input image (i.e., low-quality image) and the input image. When the image evaluation module 120 stores a predetermined number of low-quality images, the image evaluation module 120 determines a low-quality image having a first predetermined number of high-definition images from the highest image clarity among the predetermined number of low- And determine the image as the first predetermined number of maximum sharpness images. The predetermined number may be greater than or equal to the first predetermined number.

예를 들면, 10개의 저품질 영상을 저장한 경우, 영상평가모듈(120)은 상기 10개 저품질 영상 중 가장 높은 영상 선명도부터 제3 높은 영상 선명도를 가진 3개의 저품질 영상을 3개의 최고선명도 영상으로 판단할 수 있다.For example, when ten low-quality images are stored, the image evaluation module 120 determines three low-quality images having the third highest image clarity from the highest image clarity among the ten low-quality images as three highest-definition images can do.

상술한 것과 같이, 제1 영상처리 장치(100)를 이용하여 입력영상을 처리함으로써, 저품질 영상에서 얼굴검출 시의 오검출, 누락검출률을 감소시킬 수 있다.As described above, by processing the input image using the first image processing apparatus 100, it is possible to reduce the false detection rate and miss detection rate at the time of face detection in a low-quality image.

도 6은 일실시예에 따른, 영상 처리방법의 흐름도이다.6 is a flowchart of an image processing method according to an embodiment.

영상분류모듈(110)은, 입력영상이 저품질 영상인지 고품질 영상인지를 판단한다(S100).The image classification module 110 determines whether the input image is a low-quality image or a high-quality image (S100).

구체적으로, 영상분류모듈(110)은 제1 CNN 분류기 모델을 이용하여 입력영상이 복수의 서로 다른 품질유형 중 어느 하나의 유형으로 분류될 영상분류 확률값을 계산하고, 상기 영상분류 확률값에 따라 상기 입력영상이 저품질 영상인지 고품질 영상인지를 판단할 수 있다.In detail, the image classification module 110 calculates an image classification probability value to be classified into one of a plurality of different quality types of the input image using the first CNN classifier model, It is possible to judge whether the image is a low-quality image or a high-quality image.

일례에 있어서, 제1 CNN 분류기 모델은 CNN 저품질 영상분류기 모델일 수 있다. 영상분류모듈(110)은 CNN 저품질 영상 분류기 모델을 이용하여 입력영상을 분류한 후, 영상분류 확률값에 따라 입력영상이 저품질 영상인지 여부를 판단할 수 있다. 또한, 입력영상이 저품질 영상으로 판단될 경우, 영상분류모듈(110)은 CNN 저품질 영상 분류기 모델을 통해 계산한 상기 입력영상이 복수의 서로 다른 품질유형 중 각종 유형으로 분류될 영상분류 확률값을 상기 입력영상의 영상 선명도 계산 시 이용할 수 있다.In one example, the first CNN classifier model may be a CNN low-quality image classifier model. The image classification module 110 may classify the input image using the CNN low-quality image classifier model, and then determine whether the input image is a low-quality image according to the image classification probability value. If it is determined that the input image is a low-quality image, the image classification module 110 classifies the image classification probability value, which is calculated through the CNN low-quality image classifier model, to be classified into various types among a plurality of different quality types, It can be used to calculate the image sharpness of the image.

CNN 저품질 영상 분류기 모델이 4분류 CNN 저품질 영상분류기 모델일 경우, 입력영상은 4분류 CNN 저품질 영상 분류기 모델에 의해 4가지(즉, 백라이트 영상유형, 저광량 영상유형, 흐릿한 영상유형 및 선명한 영상유형) 서로 다른 품질 영상유형으로 분류될 수 있다. 4분류 CNN 저품질 영상 분류기 모델을 통하여 계산한 영상분류 확률값이, 입력영상이 백라이트 영상분류, 저광량 영상분류 및 흐릿한 영상분류 중 어느 하나의 유형으로 분류될 영상분류 확률값보다 클 경우, 영상분류모듈(110)은 현재 입력영상을 고품질 영상이라고 판단할 수 있다.When the CNN low-quality video classifier model is a four-class CNN low-quality video classifier model, the input video is divided into four categories (ie, backlight video type, low-light video type, blurry video type, and crisp video type) They can be classified into different quality image types. 4 classification If the image classification probability value calculated through the low-quality image classifier model is larger than the image classification probability value to be classified as any one of the backlight image classification, the low-light image classification, and the blurry image classification, 110) can determine that the current input image is a high-quality image.

4분류 CNN 저품질 영상 분류기 모델을 이용하여 계산한 입력영상의 백라이트 영상분류, 저광량 영상분류 및 흐릿한 영상분류 중 적어도 한가지 유형으로 분류될 영상분류 확률값이 선명한 영상분류로 분류될 영상분류 확률값보다 클 경우, 영상분류모듈(110)은 현재의 입력영상이 저품질 영상이라고 판단할 수 있다. 저품질 영상 및 상기 저품질 영상이 상기 4가지 서로 다른 품질 영상유형 중 각종 유형으로 분류될 영상분류 확률값은 영상분류모듈(110)이 상기 저품질 영상의 선명도를 결정하는데 이용될 수 있다.4 classification When the image classification probability value to be classified into at least one type of the backlight image classification, the low light amount image classification, and the blurry image classification of the input image calculated using the low-quality image classifier model is larger than the image classification probability value to be classified into the clear image classification , The image classification module 110 can determine that the current input image is a low-quality image. Quality image and the low-quality image may be classified into various types among the four different quality image types, the image classification module 110 may be used to determine the sharpness of the low-quality image.

영상분류모듈(120)은 상기 입력영상이 고품질 영상이라고 판단되는 경우, 상기 입력영상을 출력할 수 있다(S110).If it is determined that the input image is a high-quality image, the image classification module 120 may output the input image (S110).

영상분류모듈(120)은 저품질 영상으로 판단된 복수의 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하고, 결정된 최고선명도 영상들을 출력할 수 있다(S120).The image classification module 120 may determine a first predetermined number of highest clarity images among a plurality of images determined as low-quality images, and output the determined highest-definition images (S120).

구체적으로, 영상분류모듈(120)은 상기 복수의 저품질 영상 중 각각의 저품질 영상의 영상 선명도를 계산하고, 상기 복수의 저품질 영상을 영상 선명도에 따라 내림차순(또는, 오름차순)으로 정렬할 수 있으며, 상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정할 수 있다.In detail, the image classification module 120 may calculate the image sharpness of each low-quality image among the plurality of low-quality images, and may sort the plurality of low-quality images according to the image sharpness in descending order (or ascending order) Quality image having the first predetermined number of high-definition images from the highest image clarity among the plurality of low-quality images can be determined as the first predetermined number of highest-definition images.

영상평가모듈(120)은 상기 각각의 저품질 영상의 영상분류 확률값의 표준편차의 역수를 상기 각각의 저품질 영상의 영상 선명도로 설정하거나, 상기 각각의 저품질 영상이 상기 복수의 서로 다른 품질유형 중 선명한 영상유형으로 분류될 영상분류 확률값을 상기 각각의 저품질 영상의 영상 선명도로 설정할 수 있다. 구체적으로, 영상평가모듈(120)은 입력영상이 저품질 영상이라고 판단될 경우, 상기 입력영상이 각종 품질유형으로 분류될 영상분류 확률값을 이용하여 상기 입력영상(즉, 저품질 영상)의 영상분류 확률값의 표준편차의 역수를 계산하여 상기 입력영상의 영상 선명도로 설정하거나, 상기 입력영상이 상기 복수의 서로 다른 품질유형 중 선명한 영상유형으로 분류될 영상분류 확률값을 상기 입력영상의 영상 선명도로 설정할 수 있다.The image evaluation module 120 sets the inverse number of the standard deviation of the image classification probability values of the respective low-quality images to the image sharpness of the respective low-quality images, or the low-quality images of each of the plurality of different quality types, The image classification probability value to be classified into the type can be set to the image sharpness of each of the low-quality images. More specifically, when it is determined that the input image is a low-quality image, the image evaluation module 120 calculates an image classification probability value of the input image (i.e., a low-quality image) using the image classification probability value, The inverse number of the standard deviation may be calculated and set to the image sharpness of the input image or the image classification probability value in which the input image is classified into the clear image type among the plurality of different quality types may be set as the image sharpness of the input image.

예를 들면, CNN 저품질 분류기 모델이 4분류 CNN 저품질 영상 분류기 모델이고, 상기 입력영상이 저품질 영상이라고 판단될 경우, 영상분류모듈(110)은 상기 입력영상이 4가지 서로 다른 품질유형(즉, 백라이트 영상유형, 저광량 영상유형, 흐릿한 영상유형 및 선명한 영상유형) 중 각종 유형으로 분류될 영상분류 확률값(즉, 상기 입력영상이 백라이트 영상유형, 저광량 영상유형, 흐릿한 영상유형 및 선명한 영상유형 중 어느 하나로 분류될 확률값)의 표준편차의 역수를 이용하여 상기 입력영상의 영상 선명도로 설정하거나, 상기 출력영상이 선명한 영상분류로 분류될 확률값을 상기 입력영상의 영상 선명도로 설정하고, 상기 입력영상(즉, 저품질 영상) 및 상기 입력영상에 대해 계산한 영상 선명도를 저장할 수 있다. 영상분류모듈(110)은 미리 정해진 개수의 저품질 영상을 저장한 경우, 상기 미리 정해진 개수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정할 수 있다.For example, if the CNN low-quality classifier model is a four-class CNN low-quality image classifier model and the input image is determined to be a low-quality image, the image classification module 110 determines that the input image has four different quality types (I.e., the input image is a backlight image type, a low light amount image type, a blurred image type, and a clear image type) that are to be classified into various types among the image type, the low light amount image type, the blurred image type, The probability that the output image is classified into a clear image classification is set as the image sharpness of the input image, and the probability that the output image is classified into a clear image classification is set as the image sharpness of the input image, , Low quality image) and the image sharpness calculated for the input image. Quality image having a predetermined number of low-quality images from a predetermined number of low-quality images to a first predetermined number of high-quality images having a high predetermined image clarity from a highest predetermined image sharpness, It is possible to determine the number of images with the highest sharpness.

도 7은 다른 일례에 따른, IQA(Image Quality Assessment)에 기초한 제2 영상처리 장치의 블록도이다.7 is a block diagram of a second image processing apparatus based on IQA (Image Quality Assessment) according to another example.

제2 영상처리 장치(200)는 얼굴검출을 수행하는 입력영상에 대한 전처리에 이용될 수 있고, 상기 입력영상은 얼굴검출장치가 검출할 영상에 대한 얼굴검출 수행 시 출력한 얼굴을 포함한 영상(이하, "얼굴영상"으로 약칭됨)일 수 있다. 구체적으로, 얼굴검출장치는 검출할 영상에 대한 얼굴검출 수행을 통해 결과영상을 획득할 수 있다. 상기 결과영상은 얼굴검출을 수행 시, 검출할 영상 중 얼굴이 위치한 영역에서 생성된 영상이거나, 얼굴을 검출할 영상 중 얼굴 위치에 대하여 포지셔닝 한 후의 영상이거나, 또는 얼굴을 검출하지 못한 영상일 수 있다. 상기 생성된 영상 또는 포지셔닝 영상은 모두 얼굴영상으로 지칭될 수 있고, 얼굴을 검출하지 못한 영상은 얼굴미검출 영상으로 지칭될 수 있다.The second image processing apparatus 200 may be used for preprocessing an input image for performing face detection, and the input image may be an image including a face output during the face detection for the image to be detected by the face detecting apparatus , "Facial image"). Specifically, the face detection apparatus can acquire a resultant image by performing face detection on the image to be detected. The resultant image may be an image generated in an area where a face is located, a position after a position of a face detected from the face to be detected, or a face that is not detected . The generated image or positioning image may be referred to as a face image, and an image not detecting a face may be referred to as a face non-detection image.

도 7에 도시된 것과 같이, 제2 영상처리 장치(200)는 얼굴영상 분류모듈(210) 및 얼굴영상 평가모듈(220)을 포함할 수 있다.As shown in FIG. 7, the second image processing apparatus 200 may include a face image classification module 210 and a face image evaluation module 220.

얼굴영상 분류모듈(210)은 얼굴영상이 흐릿한 얼굴영상인지 여부를 판단하는데 이용할 수 있다. 구체적으로, 얼굴영상 분류모듈(210)은 제2 CNN 분류기 모델을 이용하여 얼굴영상이 선명한 얼굴영상유형과 흐릿한 얼굴영상유형 중 어느 하나로 분류될 얼굴영상분류 확률값을 계산할 수 있고, 상기 얼굴영상분류 확률값에 따라 얼굴영상이 흐릿한 얼굴영상인지 선명한 얼굴영상인지를 판단할 수 있다.The face image classification module 210 can be used to determine whether or not the face image is a blurry face image. Specifically, the face image classification module 210 can calculate a face image classification probability value to be classified as either a clear face image type or a blurry face image type by using the second CNN classifier model, and the face image classification probability value It is possible to determine whether the face image is a blurry face image or a clear face image.

예를 들면, 제2 CNN 분류기 모델은 CNN 흐릿한 얼굴영상 분류기 모델일 수 있고, 얼굴영상 분류모듈(210)은 CNN 흐릿한 얼굴영상분류기 모델을 이용하여 얼굴영상을 분류하고, 영상분류 확률값에 따라 얼굴영상이 흐릿한 얼굴영상인지 여부를 판단할 수 있다. 또한, 얼굴영상이 흐릿한 얼굴영상으로 판단될 경우, 얼굴영상 분류모듈(210)은 CNN 흐릿한 얼굴영상 분류기 모델을 이용하여 계산한 얼굴영상이 선명한 얼굴영상유형과 흐릿한 얼굴영상유형 중 어느 하나로 분류될 영상분류 확률값을 얼굴영상 평가 모듈(220)로 전송할 수 있다.For example, the second CNN classifier model may be a CNN blurry facial image classifier model, the facial image classifying module 210 classifies facial images using the CNN blurry facial image classifier model, It is possible to judge whether or not this is a blurry facial image. If the facial image is judged to be a blurry face image, the facial image classifying module 210 classifies facial images calculated using the CNN blurry facial image classifier model into one of a clear facial image type and a blurry facial image type The classification probability value may be transmitted to the facial image evaluation module 220.

CNN 흐릿한 얼굴영상 분류기 모델은 복수의 망 구조를 이용할 수 있다.The CNN blurry face image classifier model can use multiple network structures.

도 8을 함께 참조하면, CNN 흐릿한 얼굴영상 분류기 모델은 좌에서 우로 입력층, 7개 은폐층 및 출력층을 포함할 수 있다. 상기 7개 은폐층은 좌에서 우로 순서적으로 제1 합성곱층(제1 필터층), 제1 풀링층, 제2 합성곱층, 제2 풀링층, 제3 합성곱층, 제3 풀링층 및 완전연결층이다. 또한, 상기 2분류 CNN 흐릿한 얼굴영상 분류기 모델은 흐릿한 얼굴영상 데이터베이스를 이용하여 모든 합성곱층, 풀링층 및 완전연결층의 파라미터에 대한 트레이닝을 통해 트레이닝 파라미터를 획득할 수 있다.Referring to FIG. 8, the CNN blurry facial image classifier model may include left to right input layers, seven hidden layers, and an output layer. The seventh concealment layer includes a first composite layer (first filter layer), a first pooling layer, a second composite multi-layer, a second pooling layer, a third composite multi-layer, a third pooling layer, to be. In addition, the 2-classified CNN blurry facial image classifier model can acquire training parameters through training on parameters of all the convolutional, pooled, and fully connected layers using a blurry facial image database.

도 8에서 왼쪽으로부터 첫 번째 도형(즉, 직사각형)은 입력층을 의미하고, 상기 직사각형의 높이(48) 및 깊이(48)는 입력층이 48×48개 뉴런으로 구성된 행렬을 의미하고, 상기 행렬은 입력영상의 48×48개 픽셀포인트로 구성된 픽셀포인트 행렬에 대응할 수 있다.8, the first figure (i.e., the rectangle) from the left represents the input layer, and the height 48 and depth 48 of the rectangle refer to a matrix in which the input layer is composed of 48 x 48 neurons, May correspond to a pixel point matrix composed of 48 x 48 pixel points of the input image.

도 8에서 왼쪽으로부터 두 번째 도형은 높이(44), 깊이(44) 및 너비(32)인 직육면체이고, 상기 직육면체는 입력영상이 제1 합성곱층을 통과한 후, 합성곱을 통해 획득한 것을 제1 합성곱 결과로 하는 32개 특징도를 표시하고, 제1 합성곱 결과로 하는 32개 특징도에서 각 특징도는 44×44개 픽셀포인트를 포함할 수 있다.The second figure from the left in FIG. 8 is a rectangular parallelepiped having a height 44, a depth 44 and a width 32. The rectangular parallelepiped is obtained by passing the input image through the first multiply- 32 feature maps resulting from the composite product, and in each of the 32 feature maps resulting from the first composite product, each feature map may include 44 x 44 pixel points.

도 8에서 왼쪽으로부터 세 번째 도형은 높이(22), 깊이(22) 및 너비(32)인 직육면체이고, 상기 직육면체는 제1 합성곱 결과로 하는 32개 특징도가 제1 풀링층을 통과한 후, 획득한 것을 제1 풀링 결과로 하는 32개 특징도를 의미하고, 제1 풀링결과로 하는 32개 특징도에서 각 특징도는 22×22개 픽셀포인트를 포함할 수 있다.The third figure from the left in FIG. 8 is a rectangular parallelepiped having a height 22, a depth 22 and a width 32, and the rectangular parallelepiped has 32 characteristic figures, which are the result of the first composite product, , And 32 feature maps with the obtained results as the first pulling result. In the 32 feature maps resulting from the first pulling result, each feature map may include 22 x 22 pixel points.

제2 합성곱층과 제3 합성곱층 중 각 층의 합성곱 과정 및 상술한 제1 합성곱층의 합성곱 과정은 유사하고, 제2 풀링층과 제3 풀링층 중 각 층의 풀링과정과 상술한 제1 풀링층의 풀링과정은 유사하므로 더 이상 반복하여 설명하지 않는다.The composite product of the layers of the second and third composite multipliers is similar to the composite product of the first and the third composite multipliers, and the pooling process of each layer of the second and third pooling layers, Since the pooling process of one pulling layer is similar, it will not be described repeatedly.

도 8에서 왼쪽으로부터 여덟 번째 도형(즉, 직사각형)은 완전연결층을 의미하고, 완전연결층 아래측의 64는 상기 완전연결층이 64개 뉴런을 포함함을 의미한다.In FIG. 8, the eighth figure (i.e., a rectangle) from the left indicates a complete connecting layer, and 64 on the lower side of the complete connecting layer means that the complete connecting layer includes 64 neurons.

도 8에서 왼쪽으로부터 아홉 번째(즉, 오른쪽으로부터 첫 번째) 도형은 직사각형이고 출력층을 의미하며, 출력층 아래측의 2는 상기 출력층이 2개의 뉴런을 포함함을 의미한다. 완전연결층의 각 뉴런은 모두 독립적으로 제3 풀링층의 각 뉴런과 연결될 수 있다. 출력층의 각 뉴런은 모두 독립적으로 완전연결층의 각 뉴런과 연결될 수 있다.In Fig. 8, the ninth figure from the left (i.e., the first figure from the right) is a rectangle and means an output layer, and 2 on the lower side of the output layer means that the output layer includes two neurons. Each neuron of the fully connected layer can be independently connected to each neuron of the third pooling layer. Each neuron in the output layer can be independently connected to each neuron in the fully connected layer.

일례에 있어서, CNN 저품질 영상 분류기 모델이 2분류 CNN 흐릿한 얼굴영상 분류기 모델일 경우, 입력영상은 2분류 CNN 흐릿한 얼굴영상 분류기 모델에 의하여 선명한 얼굴영상유형과 흐릿한 얼굴영상유형의 2가지 영상유형으로 분류될 수 있다. 2분류 CNN 흐릿한 얼굴영상 분류기 모델을 이용하여 계산한 얼굴영상이 선명한 얼굴영상유형으로 분류될 얼굴영상분류 확률값이 상기 얼굴영상이 흐릿한 얼굴영상유형으로 분류될 얼굴영상분류 확률값보다 클 경우, 얼굴영상분류모듈(210)은 상기 얼굴영상이 흐리지 않은 얼굴영상이라고 판단할 수 있다.In one example, when the CNN low-quality image classifier model is a two-class CNN hazy face image classifier model, the input image is classified into two image types of crisp face image type and blurry face image type by the two-class CNN blurry face image classifier model . 2 Classification CNN When the facial image classification probability value, which is calculated by using the blurry facial image classifier model, is classified into a clear facial image type, if the facial image is larger than the facial image classification probability value to be classified as a blurred facial image type, The module 210 may determine that the face image is a non-blurred face image.

다른 일례에 있어서, 2분류 CNN 흐릿한 얼굴영상분류기 모델을 이용하여 계산한 얼굴영상이 흐릿한 얼굴영상유형으로 분류될 얼굴영상분류 확률값이 상기 얼굴영상이 선명한 얼굴영상유형으로 분류될 얼굴영상분류 확률값보다 작을 경우, 얼굴영상분류모듈(210)은 상기 얼굴영상이 흐릿한 얼굴영상이라고 판단하고, 상기 얼굴영상이 선명한 얼굴영상유형 및 흐릿한 얼굴영상유형 중 하나의 유형으로 분류될 영상분류 확률값을 얼굴영상평가모듈(220)로 전송하여 영상 선명도를 계산에 이용하도록 할 수 있다.In another example, if the facial image classification probability value to be classified as a blurred facial image type by the facial image calculated using the 2-class CNN blurry facial image classifier model is smaller than the facial image classification probability value that the facial image is classified as a clear facial image type The face image classification module 210 determines that the face image is a blurry face image, and the image classification probability value to be classified as one of the clear face image type and the blurry face image type, 220 so that the image sharpness can be used for the calculation.

얼굴영상 평가모듈(220)은 얼굴영상 분류모듈(210)이 판단한 복수의 흐릿한 얼굴영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는데 이용될 수 있다. 구체적으로, 얼굴영상 평가모듈(220)은 상기 복수의 흐릿한 얼굴영상 중 각 흐릿한 얼굴영상의 얼굴 선명도를 계산할 수 있고, 상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정할 수 있다. 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상은 얼굴검출 장치에 입력되어 얼굴검출 수행 시 이용될 수 있고, 상기 제2 미리 정해진 개수는 적어도 하나 이상일 수 있고, 상기 복수의 흐릿한 얼굴영상의 개수보다 작거나 같을 수 있다.The face image evaluation module 220 can be used to determine a second predetermined number of the highest clarity face images among the plurality of blurry face images determined by the face image classification module 210. [ Specifically, the facial image evaluation module 220 can calculate facial sharpness of each blurry facial image among the plurality of blurry facial images, and calculate a second facial image having a second predetermined number of high facial features The face image having the sharpness can be determined as the second predetermined number of maximum sharpness face images. The second predetermined number of highest clarity face images may be input to the face detection device and used for performing face detection, the second predetermined number may be at least one, and the number of the plurality of blurry face images may be less than Or the same.

얼굴영상 분류모듈(210)이 얼굴영상을 흐릿한 얼굴영상이라고 판단할 경우, 얼굴영상 평가모듈(220)은 얼굴영상분류모듈(210)로부터 상기 얼굴영상에 대한 영상분류 확률값을 수신하고, 상기 얼굴영상의 2개의 영상분류 확률값의 표준편차의 역수를 계산하여 상기 얼굴영상의 얼굴 선명도로 설정하거나, 상기 얼굴영상이 선명한 얼굴영상유형으로 분류될 확률값을 상기 얼굴영상의 얼굴 선명도를 설정할 수 있다. 또한, 얼굴영상 평가모듈(220)은 상기 얼굴영상(즉, 흐릿한 얼굴영상) 및 상기 입력영상에 대해 계산한 얼굴 선명도를 저장할 수 있다. 미리 정해진 개수의 흐릿한 얼굴영상을 저장할 경우, 얼굴영상 평가모듈(220)은 상기 미리 정해진 개수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정할 수 있고, 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상은 얼굴 식별장치가 얼굴검출을 수행할 때 이용될 수 있다.If the face image classification module 210 determines that the face image is a blurry face image, the face image evaluation module 220 receives the image classification probability value for the face image from the face image classification module 210, And the face sharpness of the face image can be set to a probability value that the face image is classified into a clear face image type. In addition, the face image evaluation module 220 may store the face image (i.e., the blurred face image) and the face sharpness calculated for the input image. In the case of storing a predetermined number of blurry face images, the face image evaluation module 220 calculates a blurry face image having a second predetermined number of high face sharpness from the highest face sharpness of the predetermined number of blurry face images, 2 < / RTI > predetermined number of highest-definition face images, and the second predetermined number of highest-definition face images may be used when the face identification apparatus performs face detection.

도 9는 일실시예에 따른 제2 영상처리 장치에 의해 수행되는 영상처리 방법의 흐름도를 도시한다.FIG. 9 shows a flowchart of an image processing method performed by a second image processing apparatus according to an embodiment.

얼굴영상 분류모듈(220)은 입력영상이 흐릿한 얼굴영상인지 선명한 얼굴영상인지 여부를 판단한다(S200).The face image classification module 220 determines whether the input image is a blurry face image or a clear face image (S200).

상기 입력영상은 얼굴검출 장치가 영상에 대해 얼굴검출을 수행할 때 출력한 영상일 수 있다. 구체적으로, 얼굴검출 장치는 영상에 대하여 얼굴검출을 수행할 때, 결과영상을 획득할 수 있고, 상기 결과영상은 얼굴검출 장치가 영상에 대해 얼굴검출을 수행할 때, 검출할 영상 중 얼굴이 위치한 영역에서 생성된 영상이거나, 얼굴을 검출할 영상 중 얼굴 위치에 대하여 포지셔닝 한 후의 영상이거나, 얼굴을 검출하지 못한 영상일 수 있다. 상기 생성된 영상 및 포지셔닝 영상은 모두 얼굴영상으로 지칭될 수 있고, 얼굴을 검출하지 못한 영상은 얼굴미검출 영상으로 지칭될 수 있다.The input image may be an image output when the face detection apparatus performs face detection on the image. Specifically, when performing face detection on an image, the face detection apparatus can acquire a resultant image, and when the face detection apparatus performs face detection on the resultant image, An image generated in the region, an image after the face is positioned with respect to the face to be detected, or a face that can not be detected. The generated image and positioning image may all be referred to as a face image, and an image not detecting a face may be referred to as a face non-detection image.

얼굴영상 분류모듈(220)은 제2 CNN 분류기 모델을 이용하여 얼굴영상이 선명한 얼굴영상유형과 흐릿한 얼굴영상유형 중 어느 하나의 유형으로 분류될 얼굴영상분류 확률값을 계산할 수 있고, 상기 얼굴영상분류 확률값에 따라 얼굴영상이 흐릿한 얼굴영상인지 선명한 얼굴영상인지를 판단할 수 있다.The face image classification module 220 can calculate a face image classification probability value to be classified into one of a clear face image type and a blurry face image type by using the second CNN classifier model, It is possible to determine whether the face image is a blurry face image or a clear face image.

일례에 있어서, 상기 제2 CNN 분류기 모델은 CNN 흐릿한 얼굴영상 분류기 모델일 수 있다. 얼굴영상 분류모듈(220)은 CNN 흐릿한 얼굴영상분류기 모델을 이용하여 얼굴영상에 대하여 분류 및 식별을 수행하고, 영상분류 확률값에 따라 그 영상이 흐릿한 얼굴영상인지 여부를 판단할 수 있다. 또한, 그 영상이 흐릿한 얼굴영상으로 판단될 경우, CNN 흐릿한 얼굴영상 분류기 모델을 이용하여 계산한 얼굴영상이 선명한 얼굴영상유형과 흐릿한 얼굴영상유형 중 어느 하나의 유형으로 분류될 영상분류 확률값은 얼굴 선명도를 계산하는데 이용될 수 있다.In one example, the second CNN classifier model may be a CNN blurry facial image classifier model. The facial image classifying module 220 classifies and identifies facial images using the CNN blurry facial image classifier model, and determines whether the facial images are blurry facial images according to the image classification probability values. In addition, when the image is judged to be a blurry face image, the image classification probability value to be classified into one of a clear face image type and a blurry face image type, which is calculated using the CNN blurry face image classifier model, Lt; / RTI >

얼굴영상 분류모듈(220)은 CNN 저품질 영상분류기 모델이 2분류 CNN 흐릿한 얼굴영상 분류기 모델인 경우, 상기 2분류 CNN 흐릿한 얼굴영상 분류기 모델에 의해 입력영상을 선명한 얼굴영상유형 및 흐릿한 얼굴영상유형 중 하나로 분류할 수 있다. 2분류 CNN 흐릿한 얼굴영상 분류기 모델을 이용하여 계산한 얼굴영상이, 선명한 얼굴영상유형으로 분류될 얼굴영상분류 확률값이 흐릿한 얼굴영상유형으로 분류될 얼굴영상분류 확률값보다 클 경우, 얼굴영상 분류모듈(220)은 상기 얼굴영상이 선명한 얼굴영상이라고 판단할 수 있다. 상기 선명한 얼굴영상은 얼굴 식별장치에 입력되어 얼굴검출에 이용될 수 있다.If the CNN low-quality image classifier model is a two-class CNN blurry facial image classifier model, the facial image classifying module 220 classifies the input image into one of a sharp facial image type and a blurred facial image type by the two-classified CNN blurry facial image classifier model Can be classified. 2 classification CNN If the face image calculated by using the blurry face image classifier model is larger than the face image classification probability value to be classified as a blurred face image type, the face image classification probability module 220 May determine that the face image is a clear face image. The clear face image can be input to the face identification device and used for face detection.

다른 일례에 있어서, 2분류 CNN 흐릿한 얼굴영상 분류기 모델을 통해 계산한 얼굴영상이 흐릿한 얼굴영상유형으로 분류될 얼굴영상분류 확률값이 선명한 얼굴영상유형으로 분류될 얼굴영상분류 확률값보다 작지 않을 때, 얼굴영상 분류모듈(220)은 상기 얼굴영상이 흐릿한 얼굴영상이라고 판단할 수 있다. 상기 얼굴영상(즉, 흐릿한 얼굴영상)이 선명한 얼굴영상유형과 흐릿한 얼굴영상유형 중 어느 하나로 분류될 얼굴영상분류 확률값은 상기 얼굴영상의 얼굴 선명도 판단에 이용될 수 있다.In another example, when the face image classification probability value to be classified as a blurry face image type calculated by the 2-class CNN blurry face image classifier model is not smaller than the face image classification probability value to be classified as a clear face image type, The classification module 220 may determine that the face image is a blurred face image. The face image classification probability value, in which the face image (i.e., the blurry face image) is classified into either the clear face image type or the blurry face image type, can be used for determining the face sharpness of the face image.

얼굴영상 분류모듈(220)은 상기 얼굴영상이 선명한 얼굴영상이라고 판단되는 경우, 상기 얼굴영상을 출력할 수 있다(S210).If the facial image classification module 220 determines that the facial image is a clear facial image, the facial image classification module 220 can output the facial image (S210).

얼굴영상 평가모듈(220)은, 복수의 흐릿한 얼굴영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하고, 결정된 최고선명도 얼굴영상을 출력할 수 있다(S220).The face image evaluation module 220 determines a second predetermined number of the highest-definition face images among the plurality of blurry face images, and outputs the determined highest-definition face images (S220).

구체적으로, 얼굴영상 평가모듈(220)은 상기 복수의 흐릿한 얼굴영상 중 각각의 흐릿한 얼굴영상의 얼굴 선명도를 계산할 수 있고, 상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정할 수 있다. 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상은 얼굴검출 시 이용될 수 있다. Specifically, the facial image evaluation module 220 can calculate facial sharpness of each blurry facial image among the plurality of blurry facial images, and can calculate a facial image sharpness from the highest facial sharpness of the plurality of blurry facial images to a second predetermined number A blurry face image having a face sharpness can be determined as the second predetermined number of maximum sharpness face images. The second predetermined number of maximum sharpness face images can be used for face detection.

구체적으로, 얼굴영상 평가모듈(220)이 상기 얼굴영상을 흐릿한 얼굴영상이라고 판단할 경우, 얼굴영상 평가모듈(220)은 상기 얼굴영상의 2개 영상분류 확률값(즉, 상기 얼굴영상이 선명한 얼굴영상유형으로 분류될 확률값 및 흐릿한 얼굴영상유형으로 분류될 확률값)을 이용하여 상기 2개 영상분류 확률값의 표준편차의 역수를 계산하여 상기 얼굴영상의 얼굴 선명도로 설정하거나, 상기 얼굴영상이 선명한 얼굴영상유형으로 분류될 얼굴영상분류 확률값을 상기 얼굴영상의 얼굴 선명도로 설정할 수 있으며, 상기 얼굴영상(즉, 흐릿한 얼굴영상) 및 상기 입력영상에 대해 계산한 얼굴 선명도를 저장할 수 있다. 미리 정해진 개수의 흐릿한 얼굴영상을 저장할 경우, 얼굴영상 평가모듈(220)은 상기 미리 정해진 개수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정할 수 있다. 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상은 얼굴검출 시 이용될 수 있다. Specifically, when the face image evaluation module 220 determines that the face image is a blurry face image, the face image evaluation module 220 calculates two image classification probability values of the face image (i.e., And calculating a reciprocal of the standard deviation of the two image classification probability values using the probability value to be classified into the type of the face image and the blurred face image type, to set the face image sharpness of the face image, The facial image classification probability value to be classified as the facial image classification probability value can be set to the facial image sharpness of the facial image, and the facial image (i.e., the blurred facial image) and the facial sharpness calculated for the input image can be stored. In the case of storing a predetermined number of blurry face images, the face image evaluation module 220 calculates a blurry face image having a second predetermined number of high face sharpness from the highest face sharpness of the predetermined number of blurry face images, 2 It is possible to determine a predetermined number of top sharpness face images. The second predetermined number of maximum sharpness face images can be used for face detection.

도 10은 다른 일실시예에 따른 IQA에 기초한 영상처리 장치의 블록도를 도시한다.10 shows a block diagram of an image processing apparatus based on IQA according to another embodiment.

도 10에 도시된 바와 같이, 영상처리 장치(1000)는 제1 영상처리 장치(100), 얼굴검출모듈(300) 및 제2 영상처리 장치(200)를 포함할 수 있다.As shown in FIG. 10, the image processing apparatus 1000 may include a first image processing apparatus 100, a face detection module 300, and a second image processing apparatus 200.

구체적으로, 제1 영상처리 장치(100)는 복수의 입력영상 중 각각의 입력영상이 저품질 영상인지 고품질 영상인지를 판단할 수 있고, 판단한 복수의 저품질 영상에서 제1 미리 정해진 개수의 최고선명도 영상을 결정할 수 있다. 최고선명도 영상을 결정하는 방법에 대해서는 위에서 도 4를 참조하여 자세히 설명하였으므로 생략한다.Specifically, the first image processing apparatus 100 can determine whether each input image among the plurality of input images is a low-quality image or a high-quality image, and obtains a first predetermined number of highest-definition images from the plurality of determined low- You can decide. The method of determining the highest sharpness image has been described in detail with reference to FIG.

얼굴검출모듈(300)은 제1 영상처리 장치(100)가 결정한 고품질 영상과 최고선명도 영상에 대해 얼굴검출을 수행하여 결과영상을 획득할 수 있다. 상기 결과영상은 얼굴검출모듈(300)이 영상에 대해 얼굴검출을 수행할 경우, 검출할 영상 중 얼굴이 위치한 영역에서 생성된 영상이거나, 얼굴을 검출할 영상 중 얼굴 위치에 대하여 포지셔닝 한 후의 영상이거나, 또는 얼굴을 검출하지 못한 영상일 수 있다. 상기 생성된 얼굴영상과 포지셔닝 영상은 모두 얼굴영상으로 지칭될 수 있고, 얼굴을 검출하지 못한 영상은 얼굴미검출 영상으로 지칭될 수 있다. 상기 결과 영상이 상기 얼굴영상인 경우, 결과영상은 제2 영상처리 장치(200)로 입력될 수 있고, 결과영상이 상기 얼굴미검출 영상인 경우, 결과영상은 제2 영상처리 장치(200)에 입력되지 않을 수 있다. 얼굴검출모듈(300)은 복수의 얼굴검출방법(예를 들어, Viola-Jones얼굴검출방법, 국부 이진패턴(LBP) 얼굴검출방법, 복수 국부 이진패턴(MB-LBP) 얼굴검출방법 및 CNN 얼굴검출방법 등)을 이용하여 얼굴검출을 수행할 수 있다.The face detection module 300 can perform face detection on the high-definition image and the highest-definition image determined by the first image processing apparatus 100 to acquire a resultant image. When the face detection module 300 performs face detection on the image, the resultant image may be an image generated in an area where a face is located, a position after the face is positioned, , Or a face that has not been detected. Both the generated face image and the positioning image can be referred to as a face image, and the image that can not detect a face can be referred to as a face non-detected image. If the resultant image is the face image, the resultant image may be input to the second image processing apparatus 200. If the resultant image is the face not detected image, the resultant image may be input to the second image processing apparatus 200 It may not be input. The face detection module 300 may detect a plurality of face detection methods (e.g., a Viola-Jones face detection method, a local binary pattern (LBP) face detection method, a multiple localized binary pattern (MB- Method, etc.) can be used to perform face detection.

얼굴검출모듈(300)은 다단계 CNN 얼굴검출모델에 기초한 CNN 얼굴검출기를 이용하여 얼굴검출을 수행할 수 있다. 저장모델의 저장공간을 줄이고, 트레이닝 파라미터의 계산시간을 감소시키기 위해 상기 다단계 CNN 얼굴검출모델의 1단계 합성곱 신경망 분류기 모델, 4분류 CNN 저품질 영상분류기 모델 및 2분류 CNN 흐릿한 얼굴 분류기 모델 중 적어도 두 개의 합성곱 신경망 모델은 미리 정해진 개수의 합성곱층과 풀링층의 파라미터를 공유할 수 있다. 예를 들면, 상기 다단계 CNN 얼굴검출모델의 1단계 합성곱 신경망 모델은 4분류 CNN 저품질 영상분류기 모델 및 2분류 CNN 흐릿한 얼굴 분류기 모델과 함께 제1 합성곱층, 제2 합성곱층, 제1 풀링층 및 제2 풀링층의 트레이닝 파라미터를 공유할 수 있다. 상기 4분류 CNN 저품질 영상분류기 모델은 저품질 영상 얼굴영상 데이터베이스를 이용하여 제3 합성곱층, 제3 풀링층 및 완전연결층의 파라미터에 대한 트레이닝을 통해 트레이닝 파라미터를 획득할 수 있다. 상기 2분류 CNN 흐릿한 얼굴영상분류기 모델은 흐릿한 얼굴영상 데이터베이스를 이용하여 제3 합성곱층, 제3 풀링층 및 완전연결층의 파라미터에 대한 트레이닝을 통해 트레이닝 파라미터를 획득할 수 있다.The face detection module 300 can perform face detection using a CNN face detector based on a multi-stage CNN face detection model. In order to reduce the storage space of the storage model and reduce the calculation time of the training parameters, at least two of the multi-stage CNN face detection model, the four-class CNN low-quality image classifier model, and the two-class CNN fuzzy face classifier model RTI ID = 0.0 > neural network < / RTI > model may share a predetermined number of multiply-multiplied and pooled layer parameters. For example, the one-stage composite neural network model of the multi-stage CNN face detection model includes a first composite multi-layer, a second composite multi-layer, a first pooling layer, and a second composite multi- And share the training parameters of the second pooling layer. The 4-classified CNN low-quality image classifier model can acquire training parameters through training on the parameters of the third convolution layer, the third pooling layer, and the full connection layer using the low-quality image facial image database. The two-classified CNN blurry facial image classifier model can acquire training parameters through training on the parameters of the third convoluted layer, the third pooled layer, and the fully connected layer using the blurred facial image database.

제2 영상처리 장치(200)는 얼굴검출모듈(300)로 출력한 얼굴영상이 흐릿한 얼굴영상인지 여부를 판단할 수 있고, 판단한 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정할 수 있다. 상기 선명한 얼굴영상과 최고선명도 얼굴영상은 얼굴검출에 이용될 수 있다.The second image processing apparatus 200 can determine whether or not the face image output to the face detection module 300 is a blurry face image and determine a second predetermined number of the highest clarity face images from the determined plurality of blurry face images You can decide. The clear face image and the highest sharpness face image can be used for face detection.

영상처리 장치(1000)는 얼굴식별모듈(도시되지 않음)을 더 포함할 수 있고, 상기 얼굴식별모듈은 제2 영상처리 장치(200)가 결정한 선명한 얼굴영상 및 최고선명도 얼굴영상을 이용하여 얼굴식별을 수행할 수 있다. 또한, 상기 얼굴식별모듈은 복수의 얼굴식별 알고리즘을 이용하여 얼굴식별을 수행할 수 있다. 상기 얼굴식별모듈은 CNN 모델에 기초한 얼굴식별 알고리즘을 이용하여 얼굴식별을 수행할 수 있다.The image processing apparatus 1000 may further include a face identification module (not shown), and the face identification module may identify face identification using the sharp face image and the highest sharpness face image determined by the second image processing apparatus 200 Can be performed. In addition, the face identification module may perform face identification using a plurality of face identification algorithms. The face identification module may perform face identification using a face identification algorithm based on the CNN model.

도 11은 일실시예에 따른 영상 처리방법의 흐름도이다.11 is a flowchart of an image processing method according to an embodiment.

영상분류모듈(110)은, 입력영상이 저품질 영상인지 고품질 영상인지를 판단한다(S300). 단계(S300)의 수행 과정은 상술한 도 6의 단계(S110)와 동일하거나 유사할 수 있다.The image classification module 110 determines whether the input image is a low-quality image or a high-quality image (S300). The process of step S300 may be the same as or similar to that of step S110 of FIG.

판단 결과, 상기 입력영상이 저품질 영상인 경우, 영상분류모듈(110)은 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하여 얼굴검출모듈(300)로 전송할 수 있다(S310).As a result of the determination, if the input image is a low-quality image, the image classification module 110 may determine a first predetermined number of highest clarity images among a plurality of low-quality images and transmit the highest-clarity images to the face detection module 300 (S310).

판단 결과, 상기 입력영상이 고품질 영상인 경우, 영상분류모듈(110)은 상기 입력영상을 얼굴검출모듈(300)로 전송한다.As a result of the determination, if the input image is a high-quality image, the image classification module 110 transmits the input image to the face detection module 300.

얼굴검출모듈(300)은 상기 고품질 영상 또는 최고선명도 영상에 대하여 얼굴검출을 수행하여 얼굴영상을 획득할 수 있다(S330).The face detection module 300 may perform face detection on the high-quality image or the highest-definition image to acquire a face image (S330).

상기 결과영상은 상술한 얼굴영상 또는 얼굴미검출 영상일 수 있다. 얼굴영상 분류모듈(210)은 상기 결과영상이 얼굴영상인 경우, 다음 단계(S340)를 수행하고, 상기 결과영상이 얼굴미검출 영상인 경우, 결과영상은 이용되지 않을 수 있다. 얼굴검출모듈(300)은 복수의 얼굴검출방법(예를 들면, Viola-Jones얼굴검출방법, 국부 이진패턴(LBP) 얼굴검출방법, 복수 국부 이진패턴(MB-LBP) 얼굴검출방법 및 CNN 얼굴검출방법 등)을 이용하여 얼굴검출을 수행할 수 있고, 다단계 CNN 모델에 기초한 CNN 얼굴검출방법을 이용하여 얼굴검출을 수행할 수 있다.The resultant image may be the face image or the non-face detected image described above. If the resultant image is a facial image, the facial image classifying module 210 performs the next step S340. If the resultant facial image is not a facial image, the resultant image may not be used. The face detection module 300 is a module for detecting a plurality of face detection methods (for example, a Viola-Jones face detection method, a local binary pattern (LBP) face detection method, a MBL-LBP face detection method, Method, etc.), and face detection can be performed using the CNN face detection method based on the multi-stage CNN model.

상기 결과영상은 상술한 얼굴영상 또는 얼굴미검출 영상일 수 있다. 얼굴영상 분류모듈(210)은 결과영상이 상기 얼굴영상인 경우, 단계(S340)를 수행하고, 결과영상이 상기 얼굴미검출 영상인 경우, 상기 결과영상을 이용하지 않을 수 있다.The resultant image may be the face image or the non-face detected image described above. If the resultant image is the face image, the facial image classifying module 210 performs step S340, and if the resultant image is the face non-detected image, the resultant image may not be used.

얼굴영상 평가모듈(220)은, 상기 검출된 얼굴영상이 흐릿한 얼굴영상인지 여부를 판단할 수 있다(S330).The face image evaluation module 220 can determine whether the detected face image is a blurry face image (S330).

단계(S340)의 수행 과정은 상술한 도 9의 단계(S210)와 동일하거나 유사할 수 있다.The process of step S340 may be the same as or similar to the process of step S210 of FIG. 9 described above.

얼굴영상 평가모듈(220)은 상기 얼굴영상이 선명한 얼굴영상이라고 판단된 경우, 상기 판단된 선명한 얼굴영상을 출력할 수 있다(S340).If it is determined that the facial image is a clear facial image, the facial image evaluation module 220 may output the determined facial image (S340).

영상처리장치(1000)는 상기 얼굴영상이 흐릿한 얼굴영상이라고 판단된 경우, 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정한다(S350).If it is determined that the face image is a blurry face image, the image processing apparatus 1000 determines a second predetermined number of the highest-definition face images from the plurality of blurry face images (S350).

단계(S350)의 수행 과정은 상술한 도 9의 단계(S220)와 동일하거나 유사할 수 있다. 또한, 단계(S340)에서 획득한 선명한 얼굴영상 및 단계(S350)에서 획득한 최고선명도 얼굴영상은 얼굴 식별처리에 더 이용될 수 있다.The process of step S350 may be the same as or similar to that of step S220 of FIG. In addition, the clear face image obtained in step S340 and the highest sharpness face image obtained in step S350 may be further used in the face identification process.

영상처리 장치 및 방법은 얼굴검출 또는 얼굴 식별 전에 영상을 처리할 수 있으므로, 효과적으로 얼굴검출을 수행할 수 있다. 또한, 저품질 영상에 대한 얼굴검출 시에 발생하는 오검출 또는 누락검출률을 감소시킬 수 있고, 흐릿한 얼굴영상에 대해 부정확하게 얼굴을 검출하는 문제를 개선할 수도 있다.Since the image processing apparatus and method can process an image before face detection or face identification, face detection can be effectively performed. In addition, it is possible to reduce the erroneous detection or missing detection rate that occurs at the time of detecting a face of a low-quality image, and it is possible to improve the problem of detecting a face inaccurately with respect to a blurred face image.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (18)

입력영상이 저품질 영상인지 고품질 영상인지를 결정하도록 구성된 영상분류모듈; 및
상기 영상분류모듈이 결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하도록 구성된 영상평가모듈
을 포함하는,
영상처리 장치.
An image classification module configured to determine whether the input image is a low-quality image or a high-quality image; And
An image evaluation module configured to determine a first predetermined number of highest clarity images of the plurality of low-quality images determined by the image classification module,
/ RTI >
Image processing apparatus.
제1항에 있어서,
상기 영상분류모듈은 제1 합성곱 신경망(CNN: Convolutional Neural Network) 분류기 모델을 이용하여 상기 입력영상이 복수의 서로 다른 품질유형 중의 각종 유형으로 분류될 영상분류 확률값을 계산하고,
상기 입력영상의 영상분류 확률값에 따라 상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하도록 구성된,
영상처리 장치.
The method according to claim 1,
Wherein the image classification module calculates an image classification probability value for the input image to be classified into various types among a plurality of different quality types using a first convolutional neural network (CNN)
And determining whether the input image is a low-quality image or a high-quality image according to an image classification probability value of the input image.
Image processing apparatus.
제1항 또는 제2항에 있어서,
상기 영상평가모듈은 상기 복수의 저품질 영상 중 각각의 저품질 영상에 대해 영상 선명도를 계산하고, 상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정하도록 구성된,
영상처리 장치.
3. The method according to claim 1 or 2,
Wherein the image evaluation module calculates an image sharpness for each low quality image among the plurality of low quality images and outputs a low quality image having a first predetermined number of high image sharpness from the highest image sharpness among the plurality of low quality images, 1 < / RTI > to a predetermined number of highest sharpness images,
Image processing apparatus.
제1항 내지 제3항의 어느 한 항에 있어서,
제2 합성곱 신경망 분류기 모델을 통해 영상분류모듈이 결정한 고품질 영상 및 영상평가모듈이 결정한 최고선명도 영상에 대해 얼굴검출을 수행하여 결과영상을 출력하도록 구성된 얼굴검출모듈
을 더 포함하고,
상기 결과영상은 얼굴영상 또는 얼굴이 포함되지 않은 영상인
영상처리 장치.
4. The method according to any one of claims 1 to 3,
A face detection module configured to perform face detection on the highest-definition image determined by the high-quality image and image evaluation module determined by the image classification module through the second composite neural network classifier model, and output a resultant image;
Further comprising:
The resultant image is a face image or an image not including a face
Image processing apparatus.
제4항에 있어서,
상기 얼굴검출모듈이 출력하는 얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하도록 구성된 얼굴영상 분류모듈; 및
얼굴영상분류모듈이 결정한 복수의 흐릿한 얼굴 영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하도록 구성된 얼굴영상 평가모듈
을 더 포함하는,
영상처리 장치.
5. The method of claim 4,
A face image classification module configured to determine whether a face image output by the face detection module is a blurred face image; And
A face image evaluation module configured to determine a second predetermined number of highest clarity face images among a plurality of blurry face images determined by the face image classification module,
≪ / RTI >
Image processing apparatus.
제5항에 있어서,
상기 얼굴영상분류모듈은 제3 합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 또는 흐릿한 얼굴영상으로 분류되는 얼굴영상분류 확률값을 계산하고,
상기 얼굴영상분류 확률값에 따라 상기 얼굴영상이 흐릿한 얼굴영상인지 선명한 얼굴영상인지 결정하도록 구성된,
영상처리 장치.
6. The method of claim 5,
The face image classification module calculates a face image classification probability value classified as a clear face image or a blurry face image by using the third composite neural network classifier model,
And determining whether the face image is a blurry face image or a clear face image according to the face image classification probability value,
Image processing apparatus.
제5항 또는 제6항에 있어서,
상기 얼굴영상 평가모듈은 상기 복수의 흐릿한 얼굴영상 중 각각의 흐릿한 얼굴영상에 대해 얼굴 선명도를 계산하고,
상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정하도록 구성된,
영상처리 장치.
The method according to claim 5 or 6,
Wherein the face image evaluation module calculates a face sharpness for each blurry face image among the plurality of blurry face images,
And a blurred face image having a second predetermined number of high face clarity from the highest face clearance of the plurality of blurry face images to the second predetermined number of highest clarity face images.
Image processing apparatus.
얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하도록 구성된 얼굴영상 분류모듈; 및
상기 얼굴영상 분류모듈이 결정한 복수의 흐릿한 얼굴영상 중 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하도록 구성된 얼굴영상 평가모듈
을 포함하는,
영상처리 장치.
A facial image classifying module configured to determine whether a facial image is a blurred facial image; And
And a face image evaluation module configured to determine a second predetermined number of maximum sharpness face images of the plurality of blurry face images determined by the face image classification module,
/ RTI >
Image processing apparatus.
제8항에 있어서,
상기 얼굴영상 분류모듈은 합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 및 흐릿한 얼굴영상 중 하나로 분류될 얼굴영상분류 확률값을 계산하고,
상기 얼굴영상의 얼굴영상분류 확률값에 따라 상기 얼굴영상이 선명한 얼굴영상인지, 흐릿한 얼굴영상인지를 결정하도록 구성된
영상처리 장치.
9. The method of claim 8,
Wherein the face image classification module calculates a face image classification probability value to be classified as one of a clear face image and a blurry face image by using the composite neural network classifier model,
And determine whether the face image is a clear face image or a blurry face image according to a face image classification probability value of the face image
Image processing apparatus.
입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계; 및
결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하는 단계
를 포함하는,
영상처리 방법.
Determining whether the input image is a low-quality image or a high-quality image; And
Determining a first predetermined number of highest clarity images of the determined plurality of low-quality images
/ RTI >
Image processing method.
제10항에 있어서,
상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계는,
제1 합성곱 신경망 분류기 모델을 사용하여 입력영상이 복수의 서로 다른 품질 유형 중의 각종 유형으로 분류될 영상분류 확률값을 계산하는 단계; 및
상기 입력영상의 영상분류 확률값에 따라 상기 입력영상이 저품질 영상인지 고품질 영상인지를 결정하는 단계
를 포함하는,
영상처리 방법.
11. The method of claim 10,
Wherein the step of determining whether the input image is a low-quality image or a high-
Calculating an image classification probability value in which an input image is classified into various types among a plurality of different quality types using a first artificial neural network classifier model; And
Determining whether the input image is a low-quality image or a high-quality image according to an image classification probability value of the input image;
/ RTI >
Image processing method.
제10항 또는 제11항에 있어서,
결정한 복수의 저품질 영상 중 제1 미리 정해진 개수의 최고선명도 영상을 결정하는 단계는,
상기 복수의 저품질 영상 중 각각의 저품질 영상에 대해 영상 선명도를 계산하는 단계; 및
상기 복수의 저품질 영상 중 가장 높은 영상 선명도부터 제1 미리 정해진 개수의 높은 영상 선명도를 가진 저품질 영상을 상기 제1 미리 정해진 개수의 최고선명도 영상으로 결정하는 단계
를 포함하는,
영상처리 방법.
The method according to claim 10 or 11,
Wherein determining the first predetermined number of highest clarity images of the determined plurality of low-
Calculating image clarity for each low-quality image among the plurality of low-quality images; And
Determining a first low-quality image having a first predetermined number of high-definition images from the highest image clarity among the plurality of low-quality images as the first predetermined number of highest-definition images;
/ RTI >
Image processing method.
제10항 내지 제12항의 어느 한 항에 있어서,
제2 합성곱 신경망 분류기 모델을 통해 결정한 고품질 영상 및 결정한 최고선명도 영상에 대하여 얼굴검출을 수행하여 결과영상을 출력하는 단계
를 더 포함하고,
상기 결과영상은 얼굴영상 또는 얼굴이 포함되지 않은 영상인,
영상처리 방법.
The method according to any one of claims 10 to 12,
Performing a face detection on the determined high-quality image and the determined highest-definition image through the second artificial neural network classifier model, and outputting the resultant image
Further comprising:
The resultant image is a face image or a face-
Image processing method.
제13항에 있어서,
상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계; 및
결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계
를 더 포함하는,
영상처리 방법.
14. The method of claim 13,
Determining whether the face image is a blurred face image; And
Determining a second predetermined number of highest clarity face images from the determined plurality of blurry face images
≪ / RTI >
Image processing method.
제14항에 있어서,
상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계는,
제3 합성곱 신경망 분류기 모델을 사용하여 상기 얼굴영상이 선명한 얼굴영상 또는 흐릿한 얼굴영상으로 분류되는 얼굴영상분류 확률값을 계산하는 단계; 및
상기 얼굴영상분류 확률값에 따라 상기 얼굴영상이 흐릿한 얼굴영상인지 또는 선명한 얼굴영상인지를 결정하는 단계
를 포함하는,
영상처리 방법.
15. The method of claim 14,
Wherein the determining whether the face image is a blurry face image comprises:
Calculating a face image classification probability value in which the face image is classified as a clear face image or a blurry face image using a third composite neural network classifier model; And
Determining whether the face image is a blurry face image or a clear face image according to the face image classification probability value
/ RTI >
Image processing method.
제14항 또는 제15항에 있어서,
결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계는,
상기 복수의 흐릿한 얼굴영상 중 각각의 흐릿한 얼굴영상에 대해 얼굴 선명도를 계산하는 단계; 및
상기 복수의 흐릿한 얼굴영상 중 가장 높은 얼굴 선명도부터 제2 미리 정해진 개수의 높은 얼굴 선명도를 가진 흐릿한 얼굴영상을 상기 제2 미리 정해진 개수의 최고선명도 얼굴영상으로 결정하는 단계
를 포함하는,
영상처리 방법.
16. The method according to claim 14 or 15,
Determining a second predetermined number of highest clarity face images from the determined plurality of blurry face images,
Calculating facial sharpness for each blurry facial image among the plurality of blurry facial images; And
Determining a blurred facial image having a second predetermined number of high facial sharpness from the highest facial sharpness of the plurality of blurry facial images as the second predetermined number of highest clarity facial images
/ RTI >
Image processing method.
얼굴영상이 흐릿한(blurred) 얼굴영상인지 여부를 결정하는 단계; 및
결정된 복수의 흐릿한 얼굴영상에서 제2 미리 정해진 개수의 최고선명도 얼굴영상을 결정하는 단계
를 포함하는,
영상처리 방법.
Determining whether the facial image is a blurred facial image; And
Determining a second predetermined number of highest clarity face images from the determined plurality of blurry face images
/ RTI >
Image processing method.
제17항에 있어서,
상기 얼굴영상이 흐릿한 얼굴영상인지 여부를 결정하는 단계는,
합성곱 신경망 분류기 모델을 이용하여 상기 얼굴영상이 선명한 얼굴영상 및 흐릿한 얼굴영상 중 하나로 분류될 얼굴영상분류 확률값을 계산하는 단계; 및
상기 얼굴영상의 얼굴영상분류 확률값에 따라 상기 얼굴영상이 선명한 얼굴영상인지, 흐릿한 얼굴영상인지를 결정하는 단계
를 포함하는,
영상처리 방법.
18. The method of claim 17,
Wherein the determining whether the face image is a blurry face image comprises:
Calculating a face image classification probability value to be classified as one of a clear face image and a blurry face image by using the composite neural network classifier model; And
Determining whether the face image is a clear face image or a blurred face image according to a face image classification probability value of the face image
/ RTI >
Image processing method.
KR1020170098513A 2016-12-23 2017-08-03 Face detection method and apparatus thereof KR102476022B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/842,190 US10963676B2 (en) 2016-12-23 2017-12-14 Image processing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201611204669.8 2016-12-23
CN201611204669.8A CN108241821A (en) 2016-12-23 2016-12-23 Image processing equipment and method

Publications (2)

Publication Number Publication Date
KR20180074556A true KR20180074556A (en) 2018-07-03
KR102476022B1 KR102476022B1 (en) 2022-12-09

Family

ID=62704034

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170098513A KR102476022B1 (en) 2016-12-23 2017-08-03 Face detection method and apparatus thereof

Country Status (2)

Country Link
KR (1) KR102476022B1 (en)
CN (1) CN108241821A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636100A (en) * 2019-04-02 2019-12-31 宋秀梅 Network downloading mechanism and method based on data identification
CN113111888A (en) * 2021-04-15 2021-07-13 广州图匠数据科技有限公司 Picture distinguishing method and device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921806B (en) * 2018-08-07 2020-08-07 Oppo广东移动通信有限公司 Image processing method, image processing device and terminal equipment
US10785419B2 (en) * 2019-01-25 2020-09-22 Pixart Imaging Inc. Light sensor chip, image processing device and operating method thereof
CN110378235B (en) * 2019-06-20 2024-05-28 平安科技(深圳)有限公司 Fuzzy face image recognition method and device and terminal equipment
US11727721B2 (en) * 2019-09-30 2023-08-15 Mcafee, Llc Methods and apparatus to detect deepfake content
TWI817702B (en) * 2022-09-05 2023-10-01 宏碁股份有限公司 Picture filtering method and picture filtering apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130011070A1 (en) * 2007-05-07 2013-01-10 The Penn State Research Foundation Studying aesthetics in photographic images using a computational approach
KR20160103398A (en) * 2015-02-24 2016-09-01 삼성전자주식회사 Method and apparatus for measuring the quality of the image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405960B2 (en) * 2014-06-17 2016-08-02 Beijing Kuangshi Technology Co., Ltd. Face hallucination using convolutional neural networks
WO2016011589A1 (en) * 2014-07-21 2016-01-28 宇龙计算机通信科技(深圳)有限公司 Image classification method and image classification apparatus
CN104834898B (en) * 2015-04-09 2018-05-15 华南理工大学 A kind of quality classification method of personage's photographs
CN105373785B (en) * 2015-11-30 2019-08-02 北京地平线机器人技术研发有限公司 Gesture identification detection method and device based on deep neural network
CN105740758A (en) * 2015-12-31 2016-07-06 上海极链网络科技有限公司 Internet video face recognition method based on deep learning
CN106203497B (en) * 2016-07-01 2019-05-31 浙江工业大学 Finger vena area-of-interest method for screening images based on image quality evaluation
CN106228556B (en) * 2016-07-22 2019-12-06 北京小米移动软件有限公司 image quality analysis method and device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130011070A1 (en) * 2007-05-07 2013-01-10 The Penn State Research Foundation Studying aesthetics in photographic images using a computational approach
KR20160103398A (en) * 2015-02-24 2016-09-01 삼성전자주식회사 Method and apparatus for measuring the quality of the image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636100A (en) * 2019-04-02 2019-12-31 宋秀梅 Network downloading mechanism and method based on data identification
CN113111888A (en) * 2021-04-15 2021-07-13 广州图匠数据科技有限公司 Picture distinguishing method and device
CN113111888B (en) * 2021-04-15 2024-04-26 广州图匠数据科技有限公司 Picture discrimination method and device

Also Published As

Publication number Publication date
KR102476022B1 (en) 2022-12-09
CN108241821A (en) 2018-07-03

Similar Documents

Publication Publication Date Title
KR20180074556A (en) Face detection method and apparatus thereof
US10963676B2 (en) Image processing method and apparatus
KR102641115B1 (en) A method and apparatus of image processing for object detection
JP6294615B2 (en) System and method for detection and tracking of moving objects
CN108960266B (en) Image target detection method and device
EP3333768A1 (en) Method and apparatus for detecting target
US9158985B2 (en) Method and apparatus for processing image of scene of interest
US9317784B2 (en) Image processing apparatus, image processing method, and program
US20210232846A1 (en) Image processing method and apparatus for object detection
US20130259307A1 (en) Object detection apparatus and method therefor
US11145046B2 (en) Detection of near-field occlusions in images
US9418440B2 (en) Image segmenting apparatus and method
CN109840883B (en) Method and device for training object recognition neural network and computing equipment
KR20160144149A (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
CN109284673B (en) Object tracking method and device, electronic equipment and storage medium
KR101890538B1 (en) Method and apparatus for transforming image
KR102074073B1 (en) Method for detecting vehicles and apparatus using the same
US20150221097A1 (en) Harmless frame filter, harmful image blocking apparatus having the same, and method for filtering harmless frames
Avula et al. A novel forest fire detection system using fuzzy entropy optimized thresholding and STN-based CNN
KR20180109658A (en) Apparatus and method for image processing
KR20200027887A (en) Learning method, learning device for optimizing parameters of cnn by using multiple video frames and testing method, testing device using the same
CN112733929A (en) Improved method for detecting small target and shielded target of Yolo underwater image
CN114937086A (en) Training method and detection method for multi-image target detection and related products
Hsu Automatic pedestrian detection in partially occluded single image
CN114821194B (en) Equipment running state identification method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant