KR20170024287A - Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same - Google Patents

Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same Download PDF

Info

Publication number
KR20170024287A
KR20170024287A KR1020150119344A KR20150119344A KR20170024287A KR 20170024287 A KR20170024287 A KR 20170024287A KR 1020150119344 A KR1020150119344 A KR 1020150119344A KR 20150119344 A KR20150119344 A KR 20150119344A KR 20170024287 A KR20170024287 A KR 20170024287A
Authority
KR
South Korea
Prior art keywords
pixel value
image
pixel
target
input image
Prior art date
Application number
KR1020150119344A
Other languages
Korean (ko)
Other versions
KR101715247B1 (en
Inventor
정순기
구재호
쟈베드샤지드
오선호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020150119344A priority Critical patent/KR101715247B1/en
Priority to PCT/KR2016/009394 priority patent/WO2017034323A1/en
Publication of KR20170024287A publication Critical patent/KR20170024287A/en
Application granted granted Critical
Publication of KR101715247B1 publication Critical patent/KR101715247B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06K9/6202
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Nonlinear Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an image processing apparatus and a method thereof, and an object detecting apparatus using the same. The image processing apparatus according to an embodiment of the present invention can comprise: a pixel value coordinates generating part generating pixel value coordinates which include a pixel value of a target pixel in a target image obtained from an input image, and a pixel value of a reference pixel corresponding to the target pixel in a reference image; a reference pixel value determining part determining a reference pixel value corresponding to the pixel value of the target image based on the pixel value coordinates; and a pixel value changing part changing a pixel value of each pixel in the input image to the corresponding reference pixel value corresponding to the pixel value.

Description

적응적으로 저조도를 개선하는 영상 처리 장치 및 방법, 그리고 그를 이용한 객체 검출 장치{APPARATUS AND METHOD FOR PROCESSING IMAGE TO ADAPTIVELY ENHANCE LOW CONTRAST, AND APPARATUS FOR DETECTING OBJECT EMPLOYING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method for adaptively reducing a low-illuminance image, and an object detecting apparatus using the image processing apparatus and method. 2. Description of the Related Art [

본 발명은 영상 처리 장치 및 방법, 그리고 그를 이용한 객체 검출 장치에 관한 것이다.The present invention relates to an image processing apparatus and method, and an object detecting apparatus using the same.

보안이나 감시에 있어서 카메라로 촬영한 영상으로부터 이벤트를 확인하는 방법이 사용되고 있다. 영상으로부터 이벤트를 파악하는 것은 사람이 영상을 확인하면서 특정 이벤트의 발생 여부를 직접 판단할 수도 있지만, 컴퓨터가 영상 처리를 통해 영상으로부터 객체를 검출함으로써 이벤트 발생 여부를 자동으로 판단하는 방식으로 발전하고 있다.In security and surveillance, a method of confirming an event from a video image captured by a camera is used. Although it is possible for a person to directly judge whether a specific event occurs while checking a video image, a computer is developing a method for automatically determining whether an event occurs by detecting an object from the image through image processing .

사람이 육안으로 영상을 확인하든 컴퓨터가 영상 처리를 통해 객체를 검출하든 영상으로부터 이벤트 발생 여부를 파악하기 위해서는 영상이 일정 수준 이상의 조도를 갖는 것이 요구된다. 저조도의 영상을 처리하여 객체를 검출하는 경우 검출 결과가 부정확하여 신뢰성에 한계가 있으며, 사람이 육안으로 영상을 확인하는 경우에도 어두운 환경에서 촬영된 영상으로부터 물체를 식별하는 것은 어려운 일이다.Whether a human is checking the image with the naked eye or the computer detects the object through image processing, it is required that the image has a certain level of illumination in order to determine whether an event occurs from the image. In the case of detecting an object by processing a low-illuminance image, there is a limit to the reliability because the detection result is inaccurate, and it is difficult to identify an object from a captured image in a dark environment even when a person visually confirms the image.

본 발명의 실시예는 저조도 영상을 개선함으로써 영상 처리 결과의 정확도 및 신뢰성을 향상시키는 영상 처리 장치 및 방법, 그리고 객체 검출 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image processing apparatus and method for improving the accuracy and reliability of an image processing result by improving a low-illuminance image, and an object detecting apparatus.

본 발명의 실시예는 조도 개선을 위한 영상 처리 후 결과 영상에서 부분적으로 픽셀값이 포화되어 물체 식별이 불가능하게 되는 문제점을 해결할 수 있는 영상 처리 장치 및 방법, 그리고 객체 검출 장치를 제공하는 것을 목적으로 한다.It is an object of the present invention to provide an image processing apparatus and method, and an object detecting apparatus capable of solving the problem that an object can not be identified due to saturation of pixel values partially in a resultant image after image processing for improving illumination do.

본 발명의 실시예는 영상 처리 후 결과 영상의 색상이 왜곡되는 것을 완화시킬 수 있는 영상 처리 장치 및 방법, 그리고 객체 검출 장치를 제공하는 것을 목적으로 한다.It is an object of the present invention to provide an image processing apparatus and method that can mitigate distortion of the color of a resultant image after image processing, and an object detecting apparatus.

본 발명의 실시예는 영상 처리에 드는 연산량을 줄여 처리 속도를 향상시킴으로써 실시간 처리를 가능하게 하는 영상 처리 장치 및 방법, 그리고 객체 검출 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image processing apparatus and method capable of real-time processing by reducing the amount of computation required for image processing and improving the processing speed, and an object detecting apparatus.

본 발명의 일 실시예에 따른 영상 처리 장치는, 입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 픽셀값 좌표 생성부; 상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 참조 픽셀값 결정부; 및 상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 픽셀값 변경부;를 포함할 수 있다.The image processing apparatus according to an embodiment of the present invention includes a pixel generating unit that generates a pixel value coordinate including a pixel value of a target pixel in a target image obtained from an input image and a pixel value of a reference pixel corresponding to the target pixel in a reference image, A value coordinate generator; A reference pixel value determiner for determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And a pixel value changing unit for changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the corresponding pixel value.

상기 픽셀값 좌표 생성부는: 상기 타겟 픽셀의 픽셀값과 상기 참조 픽셀의 픽셀값으로 구성된 2차원 픽셀값 좌표를 생성할 수 있다.The pixel value coordinate generator may generate a two-dimensional pixel value coordinate composed of the pixel value of the target pixel and the pixel value of the reference pixel.

상기 타겟 영상은 상기 입력 영상으로부터 전경을 분리한 배경 영상일 수 있다.The target image may be a background image separated from the input image.

상기 타겟 영상은 연속적으로 입력되는 입력 영상 중 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임일 수 있다.The target image may be a background image frame obtained by separating foreground images from image frames obtained at predetermined time intervals in an input image continuously input.

상기 참조 영상은 상기 입력 영상과 동일한 신(scene)을 상기 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상일 수 있다.The reference image may be a background image obtained by separating the foreground from the image captured in a bright environment than the input image.

상기 참조 픽셀값 결정부는: 상기 픽셀값 좌표를 나타내는 좌표계에서 각 픽셀값 좌표에 대응하는 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형의 방정식을 산출하여 상기 타겟 영상의 픽셀값에 대한 상기 참조 픽셀값의 관계식을 획득할 수 있다.Wherein the reference pixel value determination unit calculates an equation of a figure having a minimum sum of distances from pixel coordinate points corresponding to each pixel value coordinate in a coordinate system indicating the pixel value coordinates, It is possible to obtain a relational expression of the reference pixel value.

상기 참조 픽셀값 결정부는: 상기 픽셀값 좌표를 다수의 그룹들로 분류하고, 각 그룹마다 상기 도형의 방정식을 산출할 수 있다.The reference pixel value determination unit may classify the pixel value coordinates into a plurality of groups, and calculate an equation of the figure for each group.

상기 참조 픽셀값 결정부는: 상기 좌표계에서 상기 도형을 평행 이동시켜 얻은 경계를 기준으로 상기 픽셀값 좌표를 분류할 수 있다.The reference pixel value determination unit may classify the pixel value coordinates based on a boundary obtained by parallelly moving the graphic object in the coordinate system.

상기 참조 픽셀값 결정부는: 상기 좌표계에서 어느 한 그룹에 대한 도형을 향해 나머지 그룹 중 적어도 하나에 대한 도형을 이동시켜 해당 그룹에 대한 도형의 방정식을 조정할 수 있다.The reference pixel value determiner may adjust an equation of a figure for the group by moving a figure for at least one of the remaining groups toward the figure for one group in the coordinate system.

상기 픽셀값 변경부는: 상기 입력 영상의 픽셀값을 상기 관계식에서 상기 타겟 영상의 픽셀값에 대응하는 변수에 대입하여 얻은 참조 픽셀값으로 변경할 수 있다.The pixel value changing unit may change the pixel value of the input image to a reference pixel value obtained by substituting the pixel value of the input image into a variable corresponding to the pixel value of the target image in the relational expression.

상기 영상 처리 장치는 상기 입력 영상, 상기 타겟 영상 및 상기 참조 영상에 사용된 제 1 색 공간 모델을 휘도 및 색도를 포함하는 제 2 색 공간 모델로 변환하고, 상기 픽셀값이 변경된 입력 영상에 사용된 상기 제 2 색 공간 모델을 상기 제 1 색 공간 모델로 변환하는 색 공간 모델 변환부를 더 포함할 수 있다.Wherein the image processing apparatus converts a first color space model used for the input image, the target image, and the reference image into a second color space model including luminance and chroma, And a color space model converting unit for converting the second color space model into the first color space model.

상기 픽셀값 좌표 생성부는: 상기 타겟 픽셀의 휘도에 해당하는 휘도 픽셀값과 상기 참조 픽셀의 휘도에 해당하는 휘도 픽셀값을 이용하여 상기 픽셀값 좌표를 생성할 수 있다.The pixel value coordinate generator may generate the pixel value coordinates using a luminance pixel value corresponding to the luminance of the target pixel and a luminance pixel value corresponding to the luminance of the reference pixel.

상기 영상 처리 장치는 상기 타겟 영상 내 타겟 픽셀들의 색도에 해당하는 색도 픽셀값과 상기 참조 영상 내 참조 픽셀들의 색도에 해당하는 색도 픽셀값을 기반으로, 상기 입력 영상 내 각 픽셀의 색도에 해당하는 색도 픽셀값을 변경하는 색도 픽셀값 변경부를 더 포함할 수 있다.Wherein the image processing apparatus includes a chroma pixel value corresponding to a chroma of a target pixel in the target image and a chroma pixel value corresponding to a chroma of the reference pixels in the reference image, And a chromaticity pixel value changing unit for changing the pixel value.

상기 색도 픽셀값 변경부는: 상기 타겟 픽셀들의 색도 픽셀값의 평균과 상기 참조 픽셀들의 색도 픽셀값의 평균을 구하고, 상기 입력 영상 내 각 픽셀의 색도 픽셀값으로부터 상기 타겟 픽셀들의 색도 픽셀값의 평균을 감산한 뒤, 상기 참조 픽셀들의 색도 픽셀값의 평균을 가산할 수 있다.Wherein the chroma pixel value changing unit obtains an average of the chroma pixel values of the target pixels and the chroma pixel values of the reference pixels and calculates an average of the chroma pixel values of the target pixels from the chroma pixel values of the respective pixels in the input image And then add the average of the chrominance pixel values of the reference pixels.

본 발명의 일 실시예에 따른 영상 처리 방법은 영상 처리 장치를 이용하여 영상을 처리하는 방법으로서, 입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 단계; 상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 단계; 및 상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method of processing an image using an image processing apparatus, the method comprising the steps of: inputting a pixel value of a target pixel in a target image obtained from an input image, Generating pixel value coordinates including pixel values; Determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the corresponding pixel value.

본 발명의 실시예에 따른 영상 처리 방법은 컴퓨터로 실행될 수 있는 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The image processing method according to an embodiment of the present invention may be implemented as a computer-executable program and recorded in a computer-readable recording medium.

본 발명의 실시예에 따른 영상 처리 방법은 컴퓨터와 결합되어 실행하기 위하여 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.The image processing method according to an exemplary embodiment of the present invention may be implemented as a computer program stored in a medium for execution in combination with the computer.

본 발명의 일 실시예에 따른 객체 검출 장치는, 입력 영상을 전 처리하는 전 처리부; 상기 전 처리된 입력 영상으로부터 배경을 분리하여 전경 영상을 획득하는 배경 분리부; 및 상기 전경 영상을 이용하여 객체를 검출하는 객체 검출부를 포함하며, 상기 전 처리부는: 상기 입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 픽셀값 좌표 생성부; 상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 참조 픽셀값 결정부; 및 상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 픽셀값 변경부;를 포함할 수 있다.According to an embodiment of the present invention, there is provided an object detecting apparatus comprising: a pre-processing unit for pre-processing an input image; A background separator for separating a background from the preprocessed input image to obtain a foreground image; And an object detection unit for detecting an object using the foreground image, wherein the preprocessing unit comprises: a pixel value of a target pixel in the target image obtained from the input image and a pixel value of a reference pixel corresponding to the target pixel in the reference image, A pixel value coordinate generating unit for generating pixel value coordinates including the pixel value coordinates; A reference pixel value determiner for determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And a pixel value changing unit for changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the corresponding pixel value.

상기 객체 검출 장치는 상기 입력 영상의 밝기를 분석하여, 상기 밝기가 기 설정된 임계치보다 작은 경우 해당 입력 영상을 상기 전 처리부로 전달하고, 상기 밝기가 상기 임계치보다 크거나 같은 경우 해당 입력 영상을 상기 배경 분리부로 전달하는 밝기 분석부를 더 포함할 수 있다.Wherein the object detection apparatus analyzes the brightness of the input image and delivers the input image to the preprocessing unit when the brightness is less than a predetermined threshold, and when the brightness is greater than or equal to the threshold value, And a brightness analyzing unit for transmitting the brightness to the separating unit.

상기 타겟 영상은 상기 입력 영상으로부터 전경을 분리한 배경 영상일 수 있다.The target image may be a background image separated from the input image.

상기 타겟 영상은 연속적으로 입력되는 입력 영상 중 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임일 수 있다.The target image may be a background image frame obtained by separating foreground images from image frames obtained at predetermined time intervals in an input image continuously input.

상기 참조 영상은 상기 입력 영상과 동일한 신을 상기 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상일 수 있다.The reference image may be a background image obtained by separating the foreground image from the image captured in a bright environment than the input image with the same scene as the input image.

본 발명의 실시예에 따르면, 저조도 영상을 개선함으로써 영상 처리 결과의 정확도 및 신뢰성을 향상시킬 수 있다.According to the embodiment of the present invention, the accuracy and reliability of the image processing result can be improved by improving the low-illuminance image.

본 발명의 실시예에 따르면, 조도 개선을 위한 영상 처리로 얻은 결과 영상에서 부분적으로 픽셀값이 포화되어 물체 식별이 불가능하게 되는 현상을 방지할 수 있다.According to the embodiment of the present invention, it is possible to prevent the phenomenon that the pixel value is partially saturated in the resultant image obtained by the image processing for improving the illuminance, and the object identification becomes impossible.

본 발명의 실시예에 따르면, 영상 처리로 얻은 결과 영상의 색상이 왜곡되는 것을 완화시킬 수 있다.According to the embodiment of the present invention, it is possible to alleviate the distortion of the color of the resultant image obtained by the image processing.

본 발명의 실시예에 따르면, 영상 처리에 소요되는 연산량을 줄여 처리 속도를 향상시킴으로써 실시간 처리를 달성할 수 있다.According to the embodiment of the present invention, real-time processing can be achieved by reducing the amount of computation required for image processing and improving the processing speed.

도 1은 본 발명의 일 실시예에 따른 객체 검출 장치의 예시적인 블록도이다.
도 2는 본 발명의 일 실시예에 따른 전 처리부의 구성을 개략적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따라 영상 처리되는 입력 영상의 일 예이다.
도 4는 도 3의 입력 영상을 처리하기 위해 사용되는 참조 영상의 일 예이다.
도 5는 본 발명의 일 실시예에 따라 도 3의 입력 영상으로부터 얻은 타겟 영상과 도 4의 참조 영상으로부터 생성된 픽셀값 좌표를 나타내는 그래프이다.
도 6은 본 발명의 일 실시예에 따라 도 5의 픽셀값 좌표점으로부터 산출된 직선을 나타내는 그래프이다.
도 7은 본 발명의 다른 실시예에 따라 픽셀값 좌표들을 다수의 그룹들로 분류한 모습을 나타내는 그래프이다.
도 8은 본 발명의 다른 실시예에 따라 픽셀값 좌표의 각 그룹마다 산출된 직선을 나타내는 그래프이다.
도 9는 본 발명의 다른 실시예에 따라 도 8에 도시된 직선들을 기반으로 도 3의 입력 영상을 처리하여 얻은 결과 영상이다.
도 10은 본 발명의 또 다른 실시예에 따라 방정식이 조정된 직선들을 나타내는 그래프이다.
도 11은 본 발명의 또 다른 실시예에 따라 도 10에 도시된 조정 후 직선들을 기반으로 도 3의 입력 영상을 처리하여 얻은 결과 영상이다.
도 12는 본 발명의 일 실시예에 따른 객체 검출 방법의 예시적인 흐름도이다.
도 13은 본 발명의 일 실시예에 따른 전 처리 과정의 예시적인 흐름도이다.
도 14는 본 발명의 일 실시예에 따라 입력 영상 내 각 픽셀의 색도 픽셀값을 변경하는 과정의 예시적인 흐름도이다.
1 is an exemplary block diagram of an object detection apparatus according to an embodiment of the present invention.
2 is a view schematically showing a configuration of a pre-processing unit according to an embodiment of the present invention.
3 is an example of an input image subjected to image processing according to an embodiment of the present invention.
4 is an example of a reference image used for processing the input image of FIG.
5 is a graph showing pixel value coordinates generated from a target image obtained from the input image of FIG. 3 and a reference image of FIG. 4 according to an embodiment of the present invention.
6 is a graph showing a straight line calculated from the pixel value coordinate point in FIG. 5 according to an embodiment of the present invention.
FIG. 7 is a graph showing pixel value coordinates classified into a plurality of groups according to another embodiment of the present invention.
8 is a graph showing a straight line calculated for each group of pixel value coordinates according to another embodiment of the present invention.
FIG. 9 is a result image obtained by processing the input image of FIG. 3 based on the straight lines shown in FIG. 8 according to another embodiment of the present invention.
10 is a graph showing straight lines in which the equation is adjusted according to another embodiment of the present invention.
11 is a result image obtained by processing the input image of FIG. 3 based on the adjusted straight lines shown in FIG. 10 according to yet another embodiment of the present invention.
12 is an exemplary flowchart of an object detection method according to an embodiment of the present invention.
13 is an exemplary flowchart of a preprocessing process according to an embodiment of the present invention.
14 is an exemplary flowchart of a process of changing the chrominance pixel value of each pixel in an input image according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods for accomplishing the same will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components. The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 >

따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' may refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings attached hereto.

도 1은 본 발명의 일 실시예에 따른 객체 검출 장치(10)의 예시적인 블록도이다.1 is an exemplary block diagram of an object detection apparatus 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 상기 객체 검출 장치(10)는 전 처리부(110), 배경 분리부(120) 및 객체 검출부(130)를 포함할 수 있다.As shown in FIG. 1, the object detecting apparatus 10 may include a pre-processing unit 110, a background separating unit 120, and an object detecting unit 130.

상기 전 처리부(110)는 입력 영상을 전 처리한다. 상기 배경 분리부(120)는 상기 전 처리된 입력 영상으로부터 배경을 분리하여 전경 영상을 획득한다. 상기 객체 검출부(130)는 상기 전경 영상을 이용하여 객체를 검출한다.The preprocessing unit 110 preprocesses the input image. The background separator 120 separates the background from the preprocessed input image to obtain a foreground image. The object detection unit 130 detects an object using the foreground image.

본 발명의 실시예에 따른 객체 검출 장치(10) 및 그에 포함된 구성요소들은 소정의 알고리즘에 따라 영상 데이터를 처리할 수 있는 프로세서로서, 일 예로 CPU, GPU 등을 포함할 수 있으나 이에 제한되지는 않는다. 상기 프로세서는 HDD, SSD 등과 같은 저장 장치에 저장된 프로그램을 불러와 실행함으로써 영상 데이터를 처리할 수 있다. 이와 같이 처리된 영상은 디스플레이와 같은 표시 장치로 제공되어 화면에 표시되거나, 상기 처리된 영상을 이용하는 다른 장치로 전송되거나, 상기 저장 장치에 저장될 수 있다.The object detection apparatus 10 according to the embodiment of the present invention and the components included therein may be a processor capable of processing image data according to a predetermined algorithm, and may include, for example, a CPU, a GPU, Do not. The processor can process image data by loading and executing a program stored in a storage device such as an HDD, an SSD, or the like. The processed image may be displayed on a display device such as a display and displayed on a screen, transferred to another device using the processed image, or stored in the storage device.

본 발명의 실시예에 따라 처리되는 영상은 일 공간 영역을 동일한 위치에서 동일한 자세로 촬영한 영상으로서, 예컨대 CCTV 등을 통해 촬영한 감시 영상일 수 있으나 이에 제한되지는 않는다. 실시예에 따라, 본 발명의 실시예에 따른 영상 처리는 카메라가 동적으로 이동하면서 촬영한 영상에 적용될 수도 있다.An image processed according to an embodiment of the present invention is an image obtained by photographing one space area in the same position and in the same posture, for example, but it is not limited to a surveillance image photographed through CCTV or the like. According to the embodiment, the image processing according to the embodiment of the present invention may be applied to an image taken while the camera moves dynamically.

상기 객체 검출 장치(10)는 입력 영상을 처리하여 그로부터 객체를 검출함으로써 특정 이벤트의 발생 여부를 파악할 수 있다. 예를 들어, 상기 객체 검출 장치(10)는 영상 내에서 움직이는 이동 객체를 검출하여 추적하거나, 감시 대상 공간에 어느 시점부터 존재하여 영상에 나타난 객체를 발견하거나, 반대로 감시 대상 공간에서 어느 시점부터 없어져 영상에서 사라진 객체를 파악할 수 있다.The object detecting apparatus 10 may process an input image and detect an object from the input image to determine whether a specific event has occurred. For example, the object detection apparatus 10 may detect and track a moving object moving in an image, detect an object appearing in an image existing at a certain point in the monitoring object space, You can identify objects that are missing from the image.

상기 전 처리부(110)는 영상으로부터 객체를 검출하기 전에 검출 결과의 정확도를 향상시키기 위해 입력 영상을 전 처리한다. 특히, 본 발명의 실시예에 따르면 상기 전 처리부(110)는 밤 시간이나 조명이 부족한 환경에서 촬영한 저조도의 입력 영상을 개선하여 객체 검출을 비롯한 각종 영상 처리 결과의 정확도 및 신뢰성을 높일 수 있다.The pre-processing unit 110 preprocesses the input image to improve the accuracy of the detection result before detecting the object from the image. Particularly, according to the embodiment of the present invention, the pre-processing unit 110 improves the low-illuminance input image captured in the nighttime or in an environment with insufficient illumination, thereby improving the accuracy and reliability of various image processing results including object detection.

도 2는 본 발명의 일 실시예에 따른 전 처리부(110)의 구성을 개략적으로 나타내는 도면이다.2 is a diagram schematically showing a configuration of a pre-processing unit 110 according to an embodiment of the present invention.

도 2를 참조하면, 상기 전 처리부(110)는 픽셀값 좌표 생성부(112), 참조 픽셀값 결정부(113) 및 픽셀값 변경부(114)를 포함할 수 있다.Referring to FIG. 2, the preprocessing unit 110 may include a pixel value coordinate generator 112, a reference pixel value determiner 113, and a pixel value changer 114.

상기 픽셀값 좌표 생성부(112)는 입력 영상으로부터 얻은 타겟 영상 내 각 타겟 픽셀에 대하여, 상기 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성할 수 있다. 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정할 수 있다. 상기 픽셀값 변경부(114)는 상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경할 수 있다.For each target pixel in the target image obtained from the input image, the pixel value coordinate generating unit 112 generates a pixel value coordinate value including a pixel value of the target pixel and a pixel value coordinate including a pixel value of a reference pixel corresponding to the target pixel in the reference image Lt; / RTI > The reference pixel value determination unit 113 may determine a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates. The pixel value changing unit 114 may change the pixel value of each pixel in the input image to the reference pixel value corresponding to the corresponding pixel value.

상기 전 처리부(110)는 타겟 영상과 참조 영상을 이용하여 입력 영상(예컨대, 저조도의 영상)의 픽셀값을 변경함으로써 영상을 개선시킬 수 있다.The preprocessing unit 110 may improve the image by changing the pixel values of the input image (e.g., a low-illuminance image) using the target image and the reference image.

상기 타겟 영상은 입력 영상으로부터 얻을 수 있다. 일 실시예에 따르면, 상기 타겟 영상은 입력 영상으로부터 전경을 분리한 배경 영상일 수 있다. 그러나, 실시예에 따라 상기 전 처리부(110)가 타겟 영상으로 입력 영상을 그대로 사용하는 경우 상기 타겟 영상은 입력 영상과 동일할 수도 있다.The target image can be obtained from an input image. According to an exemplary embodiment, the target image may be a background image separated from an input image. However, if the pre-processing unit 110 uses the input image as it is as the target image, the target image may be the same as the input image.

상기 참조 영상은 입력 영상과 동일한 신(scene)을 촬영한 영상으로서, 상기 입력 영상보다 밝은 환경에서 촬영한 영상이다. 나아가, 일 실시예에 따르면, 상기 참조 영상은 입력 영상과 동일한 신을 상기 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상일 수 있다.The reference image is an image captured in the same scene as the input image, and is captured in a bright environment than the input image. Further, according to an exemplary embodiment, the reference image may be a background image obtained by separating foreground images from images captured in a bright environment than the input image.

예를 들어, 상기 전 처리부(110)가 실외 공간을 항시 촬영한 감시 영상을 입력 영상으로 입력받는 경우, 상기 참조 영상은 밝기가 밝고 영상 내 그늘과 같은 저조도 영역이 가장 적은 시간 대(예컨대, 낮 시간대)의 영상 프레임으로 선택될 수 있다.For example, when the preprocessing unit 110 receives a surveillance image photographed at all times in the outdoor space as an input image, the reference image has a low brightness and a low-illuminance area such as a shade in the image, Time frame) can be selected.

상기 픽셀값 좌표 생성부(112)는 상기 타겟 영상 내 각 타겟 픽셀에 대하여 타겟 픽셀의 픽셀값과 참조 영상 내 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성할 수 있다.The pixel value coordinate generator 112 may generate pixel value coordinates including a pixel value of a target pixel and a pixel value of a reference pixel in a reference image for each target pixel in the target image.

예를 들어, 상기 픽셀값 좌표 생성부(112)는 타겟 픽셀의 픽셀값과 참조 픽셀의 픽셀값으로 구성된 2차원 픽셀값 좌표 (PT, PR)를 생성할 수 있다. 이하에서는 설명의 편의를 위해 상기 픽셀값 좌표를 2차원의 직교 좌표평면 상에서 좌표점으로 나타내어 본 발명의 실시예에 따른 영상 처리 과정을 설명하기로 한다.For example, the pixel value coordinate generator 112 may generate two-dimensional pixel value coordinates (P T , P R ) composed of the pixel values of the target pixel and the pixel values of the reference pixel. Hereinafter, for convenience of description, the image processing process according to the embodiment of the present invention will be described in which the pixel value coordinates are represented by coordinate points on a two-dimensional rectangular coordinate plane.

도 3은 본 발명의 일 실시예에 따라 영상 처리되는 입력 영상의 일 예이고, 도 4는 도 3의 입력 영상을 처리하기 위해 사용되는 참조 영상의 일 예이다. 그리고, 도 5는 본 발명의 일 실시예에 따라 도 3의 입력 영상으로부터 얻은 타겟 영상과 도 4의 참조 영상으로부터 생성된 픽셀값 좌표를 나타내는 그래프이다.FIG. 3 is an example of an input image subjected to image processing according to an embodiment of the present invention, and FIG. 4 is an example of a reference image used for processing an input image of FIG. 5 is a graph illustrating pixel value coordinates generated from a target image obtained from the input image of FIG. 3 and a reference image of FIG. 4 according to an embodiment of the present invention.

도 3과 같이 밤 시간대에 실외 공간을 촬영한 입력 영상으로부터 객체를 검출하는 등 각종 영상 처리를 실시하는 경우, 입력 영상의 조도가 낮아 객체를 검출해 내지 못하거나 검출 결과가 부정확할 수 있다. 이와 같이 저조도의 입력 영상에 대한 영상 처리 결과의 정확도를 개선하기 위해 상기 전 처리부(110)는 도 4와 같은 참조 영상을 이용하여 입력 영상을 전 처리함으로써 영상의 조도를 개선시킬 수 있다.When various image processing such as detecting an object from an input image obtained by photographing an outdoor space at night time is performed as shown in FIG. 3, the object may not be detected because the illuminance of the input image is low, or the detection result may be inaccurate. In order to improve the accuracy of the image processing result on the low-illuminance input image, the preprocessing unit 110 may improve the illuminance of the image by pre-processing the input image using the reference image as shown in FIG.

도 4의 참조 영상은 도 3의 입력 영상과 동일한 실외 공간을 동일한 위치에서 동일한 자세로 촬영한 것이며, 다만 촬영 시각이 밤이 아닌 낮 시간대인 점이 다르다.The reference image of FIG. 4 is obtained by photographing the same outdoor space as the input image of FIG. 3 in the same position and in the same posture, except that the photographing time is daytime rather than nighttime.

전술한 바와 같이, 상기 픽셀값 좌표 생성부(112)는 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 참조 픽셀의 픽셀값으로 구성된 2차원의 픽셀값 좌표 (PT, PR)를 생성할 수 있으며, 상기 픽셀값 좌표 (PT, PR)에 대응하는 픽셀값 좌표점을 2차원 좌표평면 상에 나타내면 도 5의 그래프를 얻을 수 있다.As described above, the pixel value coordinate generating unit 112 generates two-dimensional pixel value coordinates (P T , P R ) composed of the pixel values of the target pixel in the target image and the pixel values of the reference pixels in the reference image And the pixel value coordinate point corresponding to the pixel value coordinate (P T , P R ) is represented on the two-dimensional coordinate plane, the graph of FIG. 5 can be obtained.

도 5의 그래프에서 가로축은 타겟 영상의 픽셀값에 대응하는 좌표축이고, 세로축은 참조 영상의 픽셀값에 대응하는 좌표축이다. 여기서, 상기 타겟 영상은 입력 영상으로부터 전경을 분리한 배경 영상이 사용되었으며, 상기 참조 영상 역시 입력 영상과 동일한 신을 입력 영상보다 밝은 환경(즉, 낮 시간대)에서 촬영한 영상으로부터 전경을 분리한 배경 영상이 사용되었다.5, the horizontal axis represents a coordinate axis corresponding to the pixel value of the target image, and the vertical axis represents the coordinate axis corresponding to the pixel value of the reference image. In this case, the background image in which the foreground is separated from the input image is used as the target image, and the background image in which the foreground is separated from the image captured in the bright environment (i.e., daylight time) Was used.

또한, 각 픽셀값 좌표 (PT, PR)는 타겟 영상 내 각 타겟 픽셀의 픽셀값 PT을 어느 하나의 좌표값으로 갖고, 참조 영상 내 참조 픽셀의 픽셀값 PR을 다른 하나의 좌표값으로 갖는다. 여기서, 타겟 픽셀과 그에 대응하는 참조 픽셀은 영상 내 픽셀의 위치가 동일한 픽셀들이다.Each pixel value coordinate P T and P R has a pixel value P T of each target pixel in the target image as a coordinate value and a pixel value P R of the reference pixel in the reference image as another coordinate value . Here, the target pixel and the corresponding reference pixel are pixels whose positions in the image are the same.

도 5를 참조하면, 타겟 영상과 참조 영상은 동일한 신을 촬영한 영상이지만, 촬영 시간이 상이하여 타겟 픽셀의 픽셀값 PT과 참조 픽셀의 픽셀값 PR이 대부분 일치하지 않고 픽셀값 좌표점들이 좌표평면 내에서 산재해 있음을 알 수 있다.5, although the target image and the reference image are images obtained by shooting the same scene, the pixel value P T of the target pixel and the pixel value P R of the reference pixel do not substantially coincide with each other, It can be seen that scattered in the plane.

이와 같이 타겟 영상과 참조 영상으로부터 픽셀값 좌표 (PT, PR)를 획득한 뒤, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표 (PT, PR)를 기반으로 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정할 수 있다.After obtaining the pixel value coordinates P T and P R from the target image and the reference image as described above, the reference pixel value determination unit 113 determines the reference pixel value of the target image based on the pixel value coordinates P T and P R. The reference pixel value corresponding to the pixel value can be determined.

본 발명의 일 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표 (PT, PR)를 나타내는 좌표계에서 각 픽셀값 좌표에 대응하는 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형의 방정식을 산출하여 타겟 영상의 픽셀값에 대한 참조 픽셀값의 관계식을 획득할 수 있다.According to one embodiment of the invention, the reference pixel determination unit 113 is a distance away from the coordinate system which indicates the pixel value coordinates (P T, P R) from each pixel value a coordinate point corresponding to each pixel value of the coordinates Can be calculated to obtain the relational expression of the reference pixel value with respect to the pixel value of the target image.

만약 도 5와 같이 상기 픽셀값 좌표 (PT, PR)가 2차원의 좌표인 경우, 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형은 선일 것이며, 이하에서는 상기 참조 픽셀값 결정부(113)가 일차함수로 표현되는 직선의 방정식을 산출하는 것으로 가정한다.If the pixel value coordinates P T and P R are two-dimensional coordinates as shown in FIG. 5, a figure having the smallest sum of the distances from the pixel-value coordinate points will be a line. Hereinafter, It is assumed that the determination unit 113 calculates an equation of a straight line expressed by a linear function.

그러나, 상기 참조 픽셀값 결정부(113)는 2차원의 픽셀값 좌표 (PT, PR)를 기반으로 고차함수로 표현되는 곡선 등 다양한 형태의 도형의 방정식을 산출할 수도 있으며, 그뿐만 아니라 상기 픽셀값 좌표의 차원이 3차원 이상인 경우에는 평면이나 곡면 등 공간도형의 방정식을 산출할 수도 있을 것이다.However, the reference pixel value determination unit 113 may calculate an equation of various types of graphics, such as a curve represented by a higher-order function based on the two-dimensional pixel value coordinates P T and P R , If the dimension of the pixel value coordinate is three or more dimensional, an equation of a space figure such as a plane or a curved surface may be calculated.

도 6은 본 발명의 일 실시예에 따라 도 5의 픽셀값 좌표점으로부터 산출된 직선을 나타내는 그래프이다.6 is a graph showing a straight line calculated from the pixel value coordinate point in FIG. 5 according to an embodiment of the present invention.

전술한 바와 같이, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표 (PT, PR)를 나타내는 좌표계에서 각 픽셀값 좌표에 대응하는 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 직선 lm의 방정식을 산출할 수 있다.As described above, the reference pixel value determination unit 113 determines whether the sum of the distances from the respective pixel value coordinate points corresponding to the respective pixel value coordinates in the coordinate system indicating the pixel value coordinates (P T , P R ) The equation of the straight line l m can be calculated.

나아가, 상기 참조 픽셀값 결정부(113)는 각 픽셀값 좌표점으로부터 참조 픽셀의 픽셀값 PR에 해당하는 좌표축(즉, 도 6에서 세로축)에 평행한 방향으로 이격된 거리의 합이 최소가 되는 직선 lm의 방정식을 산출할 수 있다.Further, the reference pixel value determining unit 113 determines that the sum of the distances in the direction parallel to the coordinate axis (i.e., the vertical axis in FIG. 6) corresponding to the pixel value P R of the reference pixel from each pixel value coordinate point is the minimum The equation of the straight line l m can be calculated.

이와 같이 상기 참조 픽셀값 결정부(113)는 타겟 영상과 참조 영상으로부터 얻은 픽셀값 좌표 (PT, PR)를 기반으로 각 픽셀값 좌표점으로부터의 거리의 합이 최소가 되는 도형(예컨대, 직선, 곡선, 꺾은선, 평면, 곡면 등)의 방정식을 산출하여, 상기 타겟 영상의 픽셀값 PT에 대한 참조 픽셀값 PR의 관계식을 획득할 수 있다.In this manner, the reference pixel value determination unit 113 determines the reference pixel value of the target pixel based on the pixel value coordinates (P T , P R ) obtained from the target image and the reference image, A curve, a curve, a line, a plane, a curved surface, and the like) to obtain a relational expression of the reference pixel value P R with respect to the pixel value P T of the target image.

그 뒤, 상기 픽셀값 변경부(114)는 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 참조 픽셀값으로 변경할 수 있다.Then, the pixel value changing unit 114 may change the pixel value of each pixel in the input image to a reference pixel value corresponding to the corresponding pixel value.

본 발명의 실시예에 따르면, 상기 픽셀값 변경부(114)는 입력 영상의 픽셀값을 상기 참조 픽셀값 결정부(113)가 획득한 관계식(즉, 도형의 방정식)에서 상기 타겟 영상의 픽셀값에 대응하는 변수 PT에 대입하여 참조 픽셀값 PR을 얻고, 입력 영상의 해당 픽셀값을 상기 참조 픽셀값 PR으로 변경할 수 있다.According to the embodiment of the present invention, the pixel value changing unit 114 changes the pixel value of the input image to the pixel value of the target image in the relational expression (that is, the equation of the figure) acquired by the reference pixel value determiner 113 and assigned to the variable P T corresponding to obtain a reference pixel value for P R, and change the pixel values of the input image as the reference pixel value P R.

전술한 과정을 통해 상기 전 처리부(110)는 참조 영상을 기반으로 입력 영상을 처리함으로써 입력 영상의 픽셀값을 참조 영상의 픽셀값에 부합하도록 조정할 수 있다. 만약, 입력 영상이 어두운 환경에서 촬영한 저조도의 영상이고, 참조 영상이 입력 영상과 동일한 신을 보다 밝은 환경에서 촬영한 높은 조도의 영상인 경우, 전술한 본 발명의 실시예에 따른 영상 처리는 저조도의 입력 영상이 참조 영상에 대응하는 보다 높은 수준의 조도를 갖도록 할 수 있다.Through the above-described process, the preprocessing unit 110 may adjust the pixel value of the input image to match the pixel value of the reference image by processing the input image based on the reference image. If the input image is a low-illuminance image captured in a dark environment and the reference image is a high-illuminance image captured in a brighter environment with the same scene as the input image, the image processing according to the above- The input image may have a higher level of illumination corresponding to the reference image.

나아가, 본 발명의 다른 실시예에 따르면, 상기 전 처리부(110)는 입력 영상의 픽셀값을 다수의 서로 다른 관계식들에 따라 변경하여 영상의 조도 개선 정도를 한층 더 끌어올릴 수 있다.Furthermore, according to another embodiment of the present invention, the preprocessing unit 110 may change the pixel value of the input image according to a plurality of different relational expressions, thereby further raising the degree of illumination improvement of the image.

이 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표 (PT, PR)를 다수의 그룹들로 분류하고, 각 그룹마다 도형(예컨대, 직선)의 방정식을 산출할 수 있다.According to this embodiment, the reference pixel value determiner 113 classifies the pixel value coordinates P T and P R into a plurality of groups, and calculates an equation of a figure (e.g., a straight line) for each group .

도 7은 본 발명의 다른 실시예에 따라 픽셀값 좌표들을 다수의 그룹들(Gh, Gm, Gl)로 분류한 모습을 나타내는 그래프이다.FIG. 7 is a graph showing pixel values coordinate values classified into a plurality of groups (G h , G m , G l ) according to another embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명의 다른 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 타겟 영상 및 참조 영상으로부터 얻은 픽셀값 좌표들을 다수의 그룹들(Gh, Gm, Gl)로 분류할 수 있다. 도 7에서 상기 픽셀값 좌표들은 상부 그룹 Gh, 중간 그룹 Gm 및 하부 그룹 Gl으로 구성된 3 개의 그룹들로 분류되었으나, 실시예에 따라 그룹의 개수는 변경될 수 있다.7, according to another embodiment of the present invention, the reference pixel value determiner 113 divides the pixel value coordinates obtained from the target image and the reference image into a plurality of groups G h , G m , G l ). In FIG. 7, the pixel value coordinates are classified into three groups of the upper group G h , the middle group G m, and the lower group G l , but the number of groups may be changed according to the embodiment.

이 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표들을 참조 픽셀의 픽셀값 PR을 기준으로 분류할 수 있다. 예를 들어, 도 7을 참조하면, 상기 픽셀값 좌표들 중에서 참조 픽셀의 픽셀값 PR이 큰 좌표들은 상부 그룹 Gh을 구성하고, 참조 픽셀의 픽셀값 PR이 작은 좌표들은 하부 그룹 Gl을 구성하고, 참조 픽셀의 픽셀값 PR이 중간 수준인 좌표들은 중간 그룹 Gm을 구성할 수 있다.According to this embodiment, the reference pixel value determination unit 113 may classify the pixel value coordinates based on the pixel value P R of the reference pixel. For example, referring to FIG. 7, among the pixel value coordinates, coordinates having a larger pixel value P R of a reference pixel constitute the upper group G h , and coordinates having a smaller pixel value P R of the reference pixel correspond to a lower group G l And the coordinates in which the pixel value P R of the reference pixel is a middle level can constitute the intermediate group G m .

여기서, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표를 나타낸 좌표계에서 상기 도형(즉, 도 7에서는 직선 lm)을 평행 이동시켜 얻은 경계를 기준으로 픽셀값 좌표들을 분류할 수 있다.Here, the reference pixel determination unit 113 may (in other words, FIG. 7 line l m) the shape classification of the pixel value coordinates relative to the boundary obtained by moving parallel to the coordinate system showing the pixel value coordinates.

예를 들어, 도 7을 참조하면, 상기 참조 픽셀값 결정부(113)는 직선 lm을 참조 픽셀의 픽셀값 PR이 증가하는 방향으로 평행 이동시켜 얻은 상측 경계 bh를 기준으로 상부 그룹 Gh에 해당하는 픽셀값 좌표들을 구분하고, 직선 lm을 참조 픽셀의 픽셀값 PR이 감소하는 방향으로 평행 이동시켜 얻은 하측 경계 bl를 기준으로 하부 그룹 Gl에 해당하는 픽셀값 좌표들을 구분할 수 있다.For example, referring to FIG. 7, the reference pixel value determination unit 113 determines a reference pixel value G (x, y) based on an upper boundary b h obtained by moving a straight line l m parallel to a direction in which a pixel value P R of a reference pixel increases h and separates the pixel value coordinates corresponding to the lower group G l based on the lower boundary b l obtained by moving the straight line l m parallel to the decreasing direction of the pixel value P R of the reference pixel .

그러나, 픽셀값 좌표들을 구분하는 경계나 기준은 이에 제한되지 않으며, 실시예에 따라 다양하게 픽셀값 좌표들이 구분될 수 있다.However, the boundary or reference for distinguishing the pixel value coordinates is not limited thereto, and various pixel value coordinates may be classified according to the embodiment.

그러고 나서, 상기 참조 픽셀값 결정부(113)는 픽셀값 좌표의 각 그룹마다 해당 그룹에 속하는 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형의 방정식을 산출할 수 있다.Then, the reference pixel value determination unit 113 may calculate an equation of a figure having a minimum sum of distances from the pixel value coordinate points belonging to the group for each group of pixel value coordinates.

도 8은 본 발명의 다른 실시예에 따라 픽셀값 좌표의 각 그룹(Gh, Gm, Gl)마다 산출된 직선(lh, lm, ll)을 나타내는 그래프이다.8 is a graph showing straight lines (l h , l m , l l ) calculated for each group (G h , G m , G l ) of pixel value coordinates according to another embodiment of the present invention.

상기 참조 픽셀값 결정부(113)는 전술한 과정을 통해 분류된 그룹에 대하여 각 그룹에 속하는 픽셀값 좌표에 대응하는 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형(도 8에서는 직선)의 방정식을 산출할 수 있다.The reference pixel value determiner 113 determines a reference pixel value of the group classified through the above-described process, that is, a figure (a straight line in FIG. 8) in which the sum of the distances from the pixel value coordinate points corresponding to the pixel value coordinates belonging to each group becomes minimum ) Can be calculated.

그 결과, 도 8과 같이, 상기 참조 픽셀값 결정부(113)는 그룹의 수만큼 직선(lh, lm, ll)의 방정식을 얻을 수 있으며, 각 직선의 방정식은 각 그룹에 속하는 픽셀값 좌표 (PT, PR)에 있어서 타겟 영상의 픽셀값 PT에 대한 참조 픽셀값 PR의 관계식으로 사용된다.As a result, as shown in FIG. 8, the reference pixel value determination unit 113 can obtain an equation of a straight line (l h , l m , l l ) as many as the number of groups, Is used as a relational expression of the reference pixel value P R for the pixel value P T of the target image at the value coordinates (P T , P R ).

즉, 입력 영상 내 모든 픽셀들의 픽셀값이 하나의 관계식에 따라 변경되는 도 6의 실시예와 달리, 본 발명의 다른 실시예에 따르면 입력 영상 내 각 픽셀이 그에 대응하는 픽셀값 좌표가 속하는 그룹에 따라 다수의 관계식들 중 어느 하나에 의해 적응적으로 픽셀값이 변경될 수 있다.That is, unlike the embodiment of FIG. 6, in which the pixel values of all the pixels in the input image are changed according to one relation, according to another embodiment of the present invention, each pixel in the input image is divided into a group The pixel value may be adaptively changed by any one of a plurality of relational expressions.

이 실시예에 따르면, 입력 영상의 픽셀값이 하나의 관계식에 의해 획일적으로 조정되지 않고 다수의 관계식들 중 적합한 어느 하나에 따라 적응적으로 조정됨으로써 입력 영상의 영역별로 각기 다른 수준의 영상 개선이 이루어질 수 있다.According to this embodiment, the pixel values of the input image are adaptively adjusted according to any one of the plurality of relational expressions without being uniformly adjusted by one relational expression, whereby different levels of image enhancement are performed for each region of the input image .

그로 인해, 입력 영상의 처리로 얻은 결과 영상에서 부분적으로 픽셀값이 포화되어 물체 식별이 불가능하게 되는 현상을 방지할 수 있으며, 이러한 점은 결과 영상을 이용한 객체 검출 등 후속 영상 처리에 있어서 그 정확도 및 신뢰성을 향상시킬 수 있다.As a result, it is possible to prevent the phenomenon that the pixel value is partially saturated in the result image obtained by the processing of the input image, thereby making it impossible to identify the object. This is because, in the subsequent image processing such as object detection using the result image, Reliability can be improved.

도 9는 본 발명의 다른 실시예에 따라 도 8에 도시된 직선들(lh, lm, ll)을 기반으로 도 3의 입력 영상을 처리하여 얻은 결과 영상이다.FIG. 9 is a result image obtained by processing the input image of FIG. 3 based on the straight lines l h , l m , l l shown in FIG. 8 according to another embodiment of the present invention.

도 9의 결과 영상은 도 3의 입력 영상에 비해 조도가 크게 개선되어 영상의 전 영역에 걸쳐 객체 검출이 용이하게 되었으며, 영상 내에서 픽셀값이 포화되어 발생하는 백색 영역이 나타나지 않음을 확인할 수 있다.The resultant image of FIG. 9 has a much improved illuminance compared to the input image of FIG. 3, so that object detection is facilitated over the entire region of the image, and it can be seen that the white region generated by saturation of the pixel value in the image is not present .

더 나아가, 본 발명의 또 다른 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 위 과정을 통해 얻은 다수의 관계식들을 조정하여 입력 영상으로부터 보다 자연스러운 결과 영상을 얻을 수 있다.Furthermore, according to another embodiment of the present invention, the reference pixel value determination unit 113 may obtain a more natural result image from the input image by adjusting a plurality of relational expressions obtained through the above process.

이 실시예에 따르면, 상기 참조 픽셀값 결정부(113)는 상기 픽셀값 좌표 (PT, PR)를 나타내는 좌표계에서 어느 한 그룹에 대한 도형(예컨대, 직선)을 향해 나머지 그룹 중 적어도 하나에 대한 도형을 이동시켜 해당 그룹에 대한 도형의 방정식을 조정할 수 있다.According to this embodiment, the reference pixel value determination unit 113 determines at least one of the remaining groups toward a figure (for example, a straight line) for a group in a coordinate system indicating the pixel value coordinates P T and P R The equation of the figure for the group can be adjusted by moving the figure.

도 10은 본 발명의 또 다른 실시예에 따라 방정식이 조정된 직선들(lh, lm', ll')을 나타내는 그래프이다.10 is a graph showing the addition of a linear equation is adjusted according to the other embodiment (h l, l m ', l l') of the present invention.

도 10에 도시된 바와 같이, 상기 참조 픽셀값 결정부(113)는 도 8의 실시예에서 산출된 직선들(lh, lm, ll) 중 상부 그룹 Gh에 대한 직선 lh과 하부 그룹 Gl에 대한 직선 ll이 중간 그룹 Gm에 대한 직선 lm을 향해 평행 이동하도록 직선 lh 및 ll의 방정식을 조정하여 직선 lh' 및 ll'을 얻을 수 있다.As shown in Figure 10, the reference pixel determination unit 113 is a straight line for the upper group G h of the straight line of (l h, l m, l l) calculated in the embodiment of Figure 8 l h and the lower The straight lines l h 'and l l ' can be obtained by adjusting the equations of the straight lines l h and l l such that the straight line l l for the group G l is translated towards the straight line l m for the middle group G m .

다시 말해, 이 실시예에서 상기 참조 픽셀값 결정부(113)는 타겟 영상의 픽셀값 PT과 참조 영상의 픽셀값 PR 간의 관계를 정의하는 다수의 관계식들 중에서, 타겟 영상의 픽셀값 PT이 0일 때의 참조 영상의 픽셀값 PR(즉, PR축의 절편)이 가장 큰 관계식(도 10에서는 직선 lh의 방정식)을 참조 영상의 픽셀값 PR이 감소하는 방향으로 평행 이동시키고, PR축 절편이 가장 작은 관계식(도 10에서는 직선 ll의 방정식)을 참조 영상의 픽셀값 PR이 증가하는 방향으로 평행 이동시킴으로써, 관계식들의 치역이 참조 영상의 픽셀값 PR의 상한값이나 하한값에 치우치지 않도록 할 수 있다.In other words, in this embodiment, among a plurality of relationships that define the relationship between the reference pixel determination unit 113 is the pixel value of the target image P T and the pixel value of the reference image P R, the target image pixel value P T pixel values of the reference image at the time is 0, the P R (i.e., the intercept P R axis) the largest relation (FIG. 10, the linear equation for l h) to and translated in the direction of decreasing pixel values P R of the reference image, , the smallest relation P R-axis intercept of the (in Fig. 10, a straight line l equation l) by a parallel movement in the direction of increasing pixel values P R of the reference image, the pixel value of the station of the relationship reference image P R upper limit or So that it can be prevented from being deviated to the lower limit value.

도 11은 본 발명의 또 다른 실시예에 따라 도 10에 도시된 조정 후 직선들(lh, lm', ll')을 기반으로 도 3의 입력 영상을 처리하여 얻은 결과 영상이다.11 is after the adjustment shown in Figure 10 according to another embodiment of the invention the straight line (l h, l m ', l l') the resultant image obtained by processing based on the input image of FIG. 3 the.

도 8의 조정 전 직선들(lh, lm, ll)을 사용하여 얻은 도 9의 결과 영상과 비교해 보면, 도 11의 결과 영상은 영상 내 특정 영역이 두드러져 보이는 현상이 나타나지 않아 도 9의 결과 영상에 비해 보다 자연스러운 결과를 얻을 수 있음을 확인할 수 있다.When compared with the resultant image of FIG. 9 obtained using the pre-adjustment lines (l h , l m , l l ) of FIG. 8, the resultant image of FIG. It can be seen that the result is more natural than the result image.

그 결과, 상기 전 처리부(110)가 전 처리하여 얻은 결과 영상으로부터 컴퓨터가 영상 처리를 통해 객체를 검출하는 것뿐만 아니라, 사람이 육안으로 결과 영상을 확인하여 물체를 식별하는 경우에도 관찰자에게 보다 자연스러운 영상을 제공함으로써 관찰자가 보다 용이하고 정확하게 영상으로부터 물체를 식별하도록 할 수 있다.As a result, not only the computer detects an object through image processing from the resultant image obtained by the preprocessing unit 110, but also when a person identifies an object by checking the resultant image with the naked eye, By providing an image, the observer can more easily and accurately identify the object from the image.

다시 도 2를 참조하면, 상기 전 처리부(110)는 색 공간 모델 변환부(111)를 더 포함할 수 있다.Referring back to FIG. 2, the pre-processing unit 110 may further include a color space model converter 111.

상기 색 공간 모델 변환부(111)는 영상에 사용된 색 공간 모델을 변환하는 것으로, 본 발명의 실시예에 따르면 입력 영상, 타겟 영상 및 참조 영상에 사용된 제 1 색 공간 모델을 휘도 및 색도를 포함하는 제 2 색 공간 모델로 변환할 수 있다. 그리고, 상기 색 공간 모델 변환부(111)는 상기 픽셀값 변경부(114)에 의해 픽셀값이 변경된 입력 영상(즉, 결과 영상)에 사용된 제 2 색 공간 모델을 제 1 색 공간 모델로 변환할 수 있다.The color space model converting unit 111 converts the color space model used in the image. According to the embodiment of the present invention, the first color space model used in the input image, the target image, and the reference image is expressed as luminance and chromaticity Into a second color space model including the second color space model. The color space model conversion unit 111 converts the second color space model used for the input image (i.e., the result image) in which the pixel value is changed by the pixel value changing unit 114 into the first color space model can do.

일 실시예에 따르면, 상기 제 1 색 공간 모델은 RGB 색 공간 모델일 수 있으며, 상기 제 2 색 공간 모델은 L*a*b* 색 공간 모델일 수 있으나, 상기 색 공간 모델의 타입은 이에 제한되지 않는다. 예를 들어, 상기 색 공간 모델 변환부(111)는 RGB 색 공간 모델을 휘도 및 색도를 포함하는 또 다른 색 공간 모델, 예컨대 YCbCr 색 공간 모델로 변환할 수도 있다.According to an exemplary embodiment, the first color space model may be an RGB color space model, and the second color space model may be an L * a * b * color space model. However, It does not. For example, the color space model converting unit 111 may convert an RGB color space model into another color space model including luminance and chromaticity, for example, a YCbCr color space model.

상기 색 공간 모델 변환부(111)에 의해 휘도 및 색도를 포함하는 제 2 색 공간 모델로 변환된 입력 영상, 타겟 영상 및 참조 영상은 도 3 내지 도 11을 참조하여 설명한 바와 같이 영상 처리되고, 그 결과 영상은 다시 제 1 색 공간 모델로 변환될 수 있다.The input image, the target image, and the reference image converted into the second color space model including the luminance and chromaticity by the color space model converting unit 111 are image-processed as described with reference to FIGS. 3 to 11, And the resultant image can be converted into the first color space model again.

이 과정에서 도 3 내지 도 11의 영상 처리는 픽셀값들 중 휘도에 해당하는 휘도 픽셀값에 대해 수행될 수 있다. 이 경우, 상기 픽셀값 좌표 생성부(112)는 타겟 픽셀의 휘도에 해당하는 휘도 픽셀값과 참조 픽셀의 휘도에 해당하는 휘도 픽셀값을 이용하여 픽셀값 좌표 (PT, PR)를 생성할 수 있다. 그리고, 상기 참조 픽셀값 결정부(113)는 상기 휘도에 대한 픽셀값 좌표 (PT, PR)를 기반으로 타겟 영상의 휘도 픽셀값에 부합하는 참조 휘도 픽셀값을 결정하고, 상기 픽셀값 변경부(114)는 입력 영상 내 각 픽셀의 휘도에 해당하는 휘도 픽셀값을 그 휘도 픽셀값에 부합하는 참조 휘도 픽셀값으로 변경할 수 있다.In this process, the image processing of FIGS. 3 to 11 may be performed on the luminance pixel value corresponding to the luminance among the pixel values. In this case, the pixel value coordinate generator 112 generates the pixel value coordinates P T and P R using the luminance pixel values corresponding to the luminance of the target pixel and the luminance pixel values corresponding to the luminance of the reference pixel . The reference pixel value determination unit 113 determines a reference luminance pixel value corresponding to the luminance pixel value of the target image based on the pixel value coordinates P T and P R for the luminance, The unit 114 may change the luminance pixel value corresponding to the luminance of each pixel in the input image to the reference luminance pixel value corresponding to the luminance pixel value.

그리고, 다시 도 2를 참조하면, 상기 전 처리부(110)는 색도 픽셀값 변경부(115)를 더 포함할 수 있다. 상기 색도 픽셀값 변경부(115)는 입력 영상의 색도에 해당하는 색도 픽셀값을 변경한다.Referring back to FIG. 2, the preprocessing unit 110 may further include a chroma pixel value changing unit 115. The chroma pixel value changing unit 115 changes the chroma pixel value corresponding to the chroma of the input image.

본 발명의 실시예에 따르면, 상기 색도 픽셀값 변경부(115)는 타겟 영상 내 타겟 픽셀들의 색도에 해당하는 색도 픽셀값과 참조 영상 내 참조 픽셀들의 색도에 해당하는 색도 픽셀값을 기반으로, 입력 영상 내 각 픽셀의 색도에 해당하는 색도 픽셀값을 변경할 수 있다.According to an embodiment of the present invention, the chromaticity pixel value changing unit 115 may change the chromaticity pixel value corresponding to the chromaticity pixel value corresponding to the chromaticity of the target pixels in the target image and the chromaticity pixel value corresponding to the chromaticity of the reference pixels in the reference image, The chromaticity pixel value corresponding to the chromaticity of each pixel in the image can be changed.

구체적으로, 상기 색도 픽셀값 변경부(115)는 타겟 픽셀들의 색도 픽셀값의 평균 μT과 참조 픽셀들의 색도 픽셀값의 평균 μR을 구하고, 입력 영상 내 각 픽셀의 색도 픽셀값으로부터 타겟 픽셀들의 색도 픽셀값의 평균 μT을 감산한 뒤, 참조 픽셀들의 색도 픽셀값의 평균 μR을 가산할 수 있다. 상기 색도 픽셀값 변경부(115)가 입력 영상 내 각 픽셀의 색도 픽셀값을 변경하는 과정은 아래의 수학식과 같다.Specifically, of the color pixel value changing section 115 is a target pixel to obtain an average μ R of the average μ T and the reference pixel color pixel values of the color pixel values of the target pixel, from the color pixel value for each pixel in the input image After subtracting the average μ T of the chroma pixel values, the average μ R of the chroma pixel values of the reference pixels may be added. The chromaticity pixel value changing unit 115 changes the chromaticity pixel value of each pixel in the input image according to the following equation.

Figure pat00001
Figure pat00001

여기서, Pi는 입력 영상의 색도 픽셀값이고, Presult는 결과 영상의 색도 픽셀값이다.Where P i is the chrominance pixel value of the input image and P result is the chrominance pixel value of the resulting image.

상기 색도 픽셀값 변경부(115)의 색도 픽셀값 조정에 의해 상기 전 처리부(110)는 전 처리로 얻은 결과 영상의 색상이 왜곡되는 것을 완화시킬 수 있다. 특히, 입력 영상, 타겟 영상 및 참조 영상을 L*a*b* 색 공간 모델로 변환하여 전 처리하는 경우, 결과 영상에서 색도 픽셀값에 해당하는 a 채널의 픽셀값과 b 채널의 픽셀값이 전체적으로 양수에 해당하는 값을 갖게 됨으로써 영상에서 붉은색과 노란색이 두드러져 영상의 전체적인 색감이 주황색을 띄는 색상 왜곡 현상을 완화시킬 수 있다.By adjusting the chromaticity pixel value of the chromaticity pixel value changing unit 115, the pre-processing unit 110 can alleviate the distortion of the color of the resultant image obtained by the preprocessing. In particular, when the input image, the target image, and the reference image are converted into the L * a * b * color space model and preprocessed, the pixel values of the a channel and the b channel corresponding to the chromaticity pixel values in the resultant image are totally By having a value corresponding to a positive number, red and yellow are prominent in the image, and the color distortion phenomenon in which the overall color of the image is orange can be mitigated.

전술한 과정을 통해, 상기 전 처리부(110)는 참조 영상을 기반으로 입력 영상을 전 처리함으로써 이어지는 객체 검출 등 후속 영상 처리에 있어서 그 정확도 및 신뢰성을 향상시킬 수 있다.Through the above-described process, the preprocessing unit 110 preprocesses the input image based on the reference image, thereby improving the accuracy and reliability of subsequent image processing such as object detection.

다시 도 1을 참조하면, 상기 배경 분리부(120)는 상기 전 처리부(110)에 의해 전 처리된 입력 영상으로부터 배경을 분리하여 전경 영상을 획득할 수 있다. 그러고 나서, 상기 객체 검출부(130)는 상기 전경 영상을 이용하여 객체를 검출할 수 있다.Referring back to FIG. 1, the background separating unit 120 may obtain a foreground image by separating a background from an input image processed by the preprocessing unit 110. Then, the object detecting unit 130 can detect an object using the foreground image.

본 발명의 일 실시예에 따르면, 상기 배경 분리부(120)는 주 성분 분석(Principal Component Analysis, PCA), RPCA(Robust PCA) 및 ORPCA(Online Robust PCA) 중 적어도 하나를 이용하여 상기 전 처리된 입력 영상에서 배경 영상과 전경 영상을 얻을 수 있다. 위 알고리즘에서 배경 영상은 로우-랭크(Low-Rank) 행렬을 통해 얻을 수 있으며, 전경 영상은 스파스(sparse) 행렬을 통해 얻을 수 있다.According to an embodiment of the present invention, the background separating unit 120 may perform the background processing using at least one of Principal Component Analysis (PCA), Robust PCA (RPCA), and Online Robust PCA (ORPCA) The background image and the foreground image can be obtained from the input image. In the above algorithm, the background image can be obtained through a low-rank matrix, and the foreground image can be obtained through a sparse matrix.

상기 스파스 행렬을 통해 얻은 전경 영상은 상기 객체 검출부(130)로 전달되어 상기 전경 영상을 이용하여 다양한 종류의 객체(예컨대, 이동 객체 등)가 검출될 수 있으며, 상기 로우-랭크 행렬을 통해 얻은 배경 영상은 앞서 설명한 바와 같이 상기 전 처리부(110)에서 타겟 영상 및 참조 영상으로 활용될 수 있다.The foreground image obtained through the sparse matrix may be transmitted to the object detector 130 so that various types of objects (e.g., moving objects) may be detected using the foreground image, and the foreground image obtained through the low- The background image may be utilized as a target image and a reference image in the preprocessing unit 110 as described above.

나아가, 본 발명의 실시예에 따르면, 상기 타겟 영상은 연속적으로 입력되는 입력 영상 중에서 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임일 수 있다.Furthermore, according to the embodiment of the present invention, the target image may be a background image frame obtained by separating the foreground from the image frame obtained at consecutive time intervals among continuously inputted input images.

만약 실시간으로 입력되는 입력 영상의 매 프레임에 대해 전경을 분리하여 타겟 영상을 획득하고 그 타겟 영상의 색도 픽셀값의 평균 μT을 구하는 경우 연산량이 증가하여 처리 속도가 느려질 수 있다.If the target image is obtained by separating the foreground for each frame of the input image input in real time and the average μ T of the chroma pixel values of the target image is obtained, the processing amount may increase and the processing speed may be slowed down.

따라서, 본 발명의 실시예는 연속적으로 입력되는 입력 영상 중에서 기 설정된 시간 간격(예컨대, 1시간 등)마다 영상 프레임을 획득하고 그로부터 전경을 분리하여 배경 영상 프레임을 획득함으로써 타겟 영상을 상기 시간 간격마다 갱신하여 사용할 수 있다.Accordingly, the embodiment of the present invention acquires a background image frame by acquiring an image frame at a predetermined time interval (for example, one hour, etc.) from successively input input images and separating the foreground from the input image, Can be updated and used.

그 결과, 본 발명의 실시예는 타겟 영상과 참조 영상을 활용하여 연속적으로 입력되는 입력 영상을 전 처리하는 경우에도 적은 연산량으로 빠른 처리 속도를 달성함으로써 실시간 처리를 가능하게 한다.As a result, the embodiment of the present invention enables a real-time processing by achieving a high processing speed with a small amount of computation even when the input image continuously input using the target image and the reference image is processed.

다시 도 1을 참조하면, 상기 객체 검출 장치(10)는 밝기 분석부(100)를 더 포함할 수 있다. 상기 밝기 분석부(100)는 입력 영상의 밝기를 분석하여, 상기 밝기가 기 설정된 임계치보다 작은 경우 해당 입력 영상을 상기 전 처리부(110)로 전달하고, 상기 밝기가 상기 임계치보다 크거나 같은 경우 해당 입력 영상을 상기 배경 분리부(120)로 전달할 수 있다.Referring again to FIG. 1, the object detecting apparatus 10 may further include a brightness analyzer 100. The brightness analyzer 100 analyzes the brightness of the input image and transmits the input image to the preprocessor 110 when the brightness is less than a predetermined threshold. If the brightness is greater than or equal to the threshold, And may transmit the input image to the background separator 120.

즉, 이 실시예에 따르면 상기 객체 검출 장치(10)는 상기 밝기 분석부(100)를 통해 입력 영상의 밝기를 분석함으로써 입력 영상의 조도에 따라 선택적으로 전 처리를 실시할 수 있다.That is, according to this embodiment, the object detecting apparatus 10 can selectively perform preprocessing according to the illuminance of the input image by analyzing the brightness of the input image through the brightness analyzer 100. [

그 결과, 본 발명의 실시예는 연속적으로 입력되는 모든 입력 영상에 대해 전 처리를 실시할 필요없이, 임계치보다 낮은 조도를 갖는 저조도의 입력 영상(예컨대, 밤 시간대에 촬영한 영상)에 대해서만 전 처리를 수행하여 연산량을 더 낮출 수 있다.As a result, according to the embodiment of the present invention, all input images continuously inputted are not necessarily subjected to the preprocessing, and only the low-illuminance input image having a lower illuminance than the threshold (for example, To further reduce the amount of computation.

도 12는 본 발명의 일 실시예에 따른 객체 검출 방법(20)의 예시적인 흐름도이다.12 is an exemplary flow diagram of an object detection method 20 according to an embodiment of the present invention.

상기 객체 검출 방법(20)은 전술한 본 발명의 실시예에 따른 객체 검출 장치(10)에 의해 수행될 수 있다. 상기 객체 검출 장치(10)는 저장 장치에 저장된 객체 검출용 프로그램을 불러와 실행함으로써 입력 영상으로부터 객체를 검출할 수 있다.The object detection method 20 can be performed by the object detection apparatus 10 according to the above-described embodiment of the present invention. The object detecting apparatus 10 can detect an object from an input image by calling and executing a program for object detection stored in a storage device.

도 12를 참조하면, 상기 객체 검출 방법(20)은 입력 영상을 전 처리하는 단계(S220), 입력 영상으로부터 배경을 분리하여 전경 영상을 획득하는 단계(S230), 및 전경 영상을 이용하여 객체를 검출하는 단계(S240)를 포함할 수 있다.Referring to FIG. 12, the object detection method 20 includes a step S220 of pre-processing an input image, a step S230 of obtaining a foreground image by separating a background from an input image, (Step S240).

나아가, 상기 객체 검출 방법(20)은 입력 영상을 전 처리하는 단계(S220) 전에 입력 영상의 밝기를 분석하는 단계(S200)를 더 포함하여, 상기 밝기가 기 설정된 임계치보다 낮은 경우(S210에서 예) 해당 입력 영상을 전 처리하고, 상기 밝기가 상기 임계치보다 크거나 같은 경우(S210에서 아니오) 전 처리하는 단계를 스킵하고 해당 입력 영상으로부터 배경을 분리하여 전경 영상을 획득할 수 있다.Further, the object detection method 20 may further include analyzing the brightness of the input image before the step S220 of processing the input image (S200). If the brightness is lower than the preset threshold value (Yes in S210) The preprocessing of the input image, skipping the preprocessing step if the brightness is greater than or equal to the threshold value (NO in S210), and acquire the foreground image by separating the background from the input image.

도 13은 본 발명의 일 실시예에 따른 전 처리 과정(S220)의 예시적인 흐름도이다.13 is an exemplary flowchart of a preprocessing process (S220) according to an embodiment of the present invention.

상기 전 처리 과정(S220)은 전술한 본 발명의 실시예에 따른 전 처리부(110)에 의해 수행될 수 있다.The preprocessing step S220 may be performed by the preprocessing unit 110 according to the embodiment of the present invention.

앞서 설명한 바와 같이, 상기 전 처리부(110)는 입력 영상의 전 처리에 타겟 영상 및 참조 영상을 활용하며, 상기 타겟 영상은 상기 배경 분리부(120)에 의해 입력 영상으로부터 전경을 분리한 배경 영상일 수 있고, 상기 참조 영상은 입력 영상과 동일한 신을 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상일 수 있다. 나아가, 실시예에 따라 상기 타겟 영상은 연속적으로 입력되는 입력 영상 중 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임일 수 있다.As described above, the pre-processing unit 110 uses a target image and a reference image for pre-processing of an input image, and the target image is a background image obtained by separating the foreground from the input image by the background separating unit 120 And the reference image may be a background image obtained by separating the foreground image from the image captured in a bright environment than the input image with the same scene as the input image. Further, according to the embodiment, the target image may be a background image frame obtained by separating the foreground image frame from the image frame acquired at predetermined time intervals in the input image continuously input.

도 13을 참조하면, 상기 전 처리하는 단계(S220)는, 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표 (PT, PR)를 생성하는 단계(S222), 상기 픽셀값 좌표 (PT, PR)를 기반으로 타겟 영상의 픽셀값 PT에 부합하는 참조 픽셀값 PR을 결정하는 단계(S223), 및 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 참조 픽셀값 PR으로 변경하는 단계(S224)를 포함할 수 있다.13, the step (S220) to process the former is, the pixel value of coordinates including the pixel values of reference pixels corresponding to the pixel value of a target pixel a target image and a reference image within the target pixel (P T, P generating R) (S222), the pixel value of the coordinates (P T, P R) based the target image of the reference and determining a pixel value P R (S223), and the input image conforming to the pixel value P T (S224) of changing the pixel value of each pixel within the pixel to a reference pixel value P R corresponding to the pixel value.

본 발명의 일 실시예에 따르면, 상기 참조 픽셀값을 결정하는 단계(S223)는, 상기 픽셀값 좌표 (PT, PR)를 나타내는 좌표계에서 각 픽셀값 좌표에 대응하는 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형(예컨대, 2차원 좌표계에서는 직선 lm)의 방정식을 산출하여 타겟 영상의 픽셀값 PT에 대한 참조 픽셀값 PR의 관계식을 획득하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the step (S223) of determining the reference pixel value may include determining a reference pixel value from each pixel value coordinate point corresponding to each pixel value coordinate in a coordinate system indicating the pixel value coordinates (P T , P R ) Obtaining a relationship of a reference pixel value P R with respect to a pixel value P T of the target image by calculating an equation of a shape (for example, a straight line l m in a two-dimensional coordinate system) have.

본 발명의 다른 실시예에 따르면, 상기 참조 픽셀값을 결정하는 단계(S223)는, 상기 픽셀값 좌표 (PT, PR)를 다수의 그룹들(Gh, Gm, Gl)로 분류하는 단계, 및 각 그룹마다 상기 도형(lh, lm, ll)의 방정식을 산출하는 단계를 더 포함할 수 있다.According to another embodiment of the present invention, the step S223 of determining the reference pixel value may classify the pixel value coordinates P T , P R into a plurality of groups G h , G m , G l , And calculating an equation of the figure (l h , l m , l l ) for each group.

상기 픽셀값 좌표 (PT, PR)를 다수의 그룹들(Gh, Gm, Gl)로 분류하는 단계는, 상기 좌표계에서 상기 도형(lm)을 평행 이동시켜 얻은 경계(bh, bl)를 기준으로 상기 픽셀값 좌표 (PT, PR)를 분류하는 단계를 포함할 수 있다.The pixel value coordinates (P T, P R) to a plurality of groups of classifying into (G h, G m, G l), the boundary obtained by translating the geometry (l m) in the coordinate system (b h , b 1 ) of the pixel value coordinates (P T , P R ).

본 발명의 또 다른 실시예에 따르면, 상기 참조 픽셀값을 결정하는 단계(S223)는, 상기 좌표계에서 어느 한 그룹(Gm)에 대한 도형(lm)을 향해 나머지 그룹 중 적어도 하나(Gh, Gl)에 대한 도형(lh, ll)을 이동시켜 해당 그룹(Gh, Gl)에 대한 조정된 도형(lh', ll')의 방정식을 획득하는 단계를 더 포함할 수 있다.According to another embodiment of the present invention, the step S223 of determining the reference pixel value may include determining at least one of the remaining groups (G h ) toward the figure l m for one group G m in the coordinate system, , moving a shape (l h, l l) to G l) to the group (G h, G l) to adjust the shape (l h ', l l' further comprise the step of obtaining the equation) for .

상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 참조 픽셀값으로 변경하는 단계(S224)는, 입력 영상의 픽셀값을 상기 관계식에서 타겟 영상의 픽셀값에 대응하는 변수 PT에 대입하여 얻은 참조 픽셀값 PR으로 변경하는 단계를 포함할 수 있다.The step S224 of changing the pixel value of each pixel in the input image to a reference pixel value corresponding to the corresponding pixel value is performed by assigning the pixel value of the input image to the variable P T corresponding to the pixel value of the target image in the above- To a reference pixel value P R obtained by the following equation.

다시 도 13을 참조하면, 상기 전 처리하는 단계(S220)는, 입력 영상, 타겟 영상 및 참조 영상에 사용된 제 1 색 공간 모델(예컨대, RGB 색 공간 모델)을 휘도 및 색도를 포함하는 제 2 색 공간 모델(예컨대, L*a*b* 색 공간 모델)로 변환하는 단계(S211)를 더 포함할 수 있다.Referring again to FIG. 13, the preprocessing step S220 includes a first color space model (for example, an RGB color space model) used for an input image, a target image, and a reference image, Into a color space model (e.g., L * a * b * color space model) (S211).

또한, 상기 전 처리하는 단계(S220)는, 상기 픽셀값이 변경된 입력 영상(즉, 결과 영상)에 사용된 상기 제 2 색 공간 모델을 상기 제 1 색 공간 모델로 변환하는 단계(S226)를 더 포함할 수 있다.The preprocessing step S220 further includes a step S226 of converting the second color space model used for the input image in which the pixel value is changed (i.e., the result image) into the first color space model .

본 발명의 실시예에 따르면, 상기 픽셀값 좌표 (PT, PR)를 생성하는 단계(S222)는, 타겟 픽셀의 휘도에 해당하는 휘도 픽셀값과 참조 픽셀의 휘도에 해당하는 휘도 픽셀값을 이용하여 픽셀값 좌표 (PT, PR)를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the step (S222) of generating the pixel value coordinates (P T , P R ) may include calculating a luminance pixel value corresponding to the luminance of the target pixel and a luminance pixel value corresponding to the luminance of the reference pixel To generate pixel value coordinates (P T , P R ).

이 경우, 도 13과 같이, 상기 전 처리하는 단계(S220)는, 타겟 영상 내 타겟 픽셀들의 색도에 해당하는 색도 픽셀값과 참조 영상 내 참조 픽셀들의 색도에 해당하는 색도 픽셀값을 기반으로, 입력 영상 내 각 픽셀의 색도에 해당하는 색도 픽셀값을 변경하는 단계(S225)를 더 포함할 수 있다.In this case, as shown in FIG. 13, in the pre-processing step S220, based on chromaticity pixel values corresponding to chromaticity of target pixels in the target image and chromaticity pixel values corresponding to chromaticity of reference pixels in the reference image, And changing the chromaticity pixel value corresponding to the chromaticity of each pixel in the image (S225).

도 14는 본 발명의 일 실시예에 따라 입력 영상 내 각 픽셀의 색도 픽셀값을 변경하는 과정(S225)의 예시적인 흐름도이다.14 is an exemplary flowchart of a process S225 of changing the chrominance pixel value of each pixel in the input image according to an embodiment of the present invention.

도 14를 참조하면, 상기 입력 영상 내 각 픽셀의 색도 픽셀값을 변경하는 단계(S225)는, 타겟 픽셀들의 색도 픽셀값의 평균 μT과 참조 픽셀들의 색도 픽셀값의 평균 μR을 구하는 단계(S2251), 입력 영상 내 각 픽셀의 색도 픽셀값 Pi으로부터 타겟 픽셀들의 색도 픽셀값의 평균 μT을 감산하는 단계(S2252), 및 감산하여 얻은 색도 픽셀값에 참조 픽셀들의 색도 픽셀값의 평균 μR을 계산하는 단계(S2253)를 포함할 수 있다.Referring to FIG. 14, the step S225 of changing the chroma pixel value of each pixel in the input image includes obtaining an average mu T of chroma pixel values of target pixels and an average mu R of chroma pixel values of reference pixels S2251), an average μ of the input image each pixel in the color pixel value, subtracting the average μ T of the color pixel values of the target pixel from the P i (S2252), and references to the color pixel value obtained by subtracting the pixel color pixel values of the And calculating R (S2253).

상기 객체 검출 방법 및 상기 전 처리에 관한 영상 처리 방법 중 적어도 하나는 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한, 상기 방법은 컴퓨터와 결합되어 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.At least one of the object detection method and the preprocessing image processing method may be implemented as a program to be executed in a computer and stored in a computer-readable recording medium. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. The method may also be embodied in a computer program stored on a medium for execution in association with the computer.

이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.While the present invention has been described with reference to the exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. Those skilled in the art will appreciate that various modifications may be made to the embodiments described above. The scope of the present invention is defined only by the interpretation of the appended claims.

10: 객체 검출 장치
100: 밝기 분석부
110: 전 처리부
111: 색 공간 모델 변환부
112: 픽셀값 좌표 생성부
113: 참조 픽셀값 결정부
114: 픽셀값 변경부
115: 색도 픽셀값 변경부
120: 배경 분리부
130: 객체 검출부
10: Object detection device
100: brightness analysis unit
110:
111: Color Space Model Conversion Unit
112: pixel value coordinate generating unit
113: reference pixel value determination unit
114: pixel value changing unit
115: chromaticity pixel value changing unit
120: Background separator
130: Object detection unit

Claims (22)

입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 픽셀값 좌표 생성부;
상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 참조 픽셀값 결정부; 및
상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 픽셀값 변경부;
를 포함하는 영상 처리 장치.
A pixel value coordinate generator for generating pixel value coordinates including a pixel value of a target pixel in a target image obtained from an input image and a pixel value of a reference pixel corresponding to the target pixel in a reference image;
A reference pixel value determiner for determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And
A pixel value changing unit for changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the pixel value;
And the image processing apparatus.
제 1 항에 있어서,
상기 픽셀값 좌표 생성부는:
상기 타겟 픽셀의 픽셀값과 상기 참조 픽셀의 픽셀값으로 구성된 2차원 픽셀값 좌표를 생성하는 영상 처리 장치.
The method according to claim 1,
Wherein the pixel value coordinate generator comprises:
And generates a two-dimensional pixel value coordinate composed of the pixel value of the target pixel and the pixel value of the reference pixel.
제 1 항에 있어서,
상기 타겟 영상은 상기 입력 영상으로부터 전경을 분리한 배경 영상인 영상 처리 장치.
The method according to claim 1,
Wherein the target image is a background image obtained by separating a foreground from the input image.
제 3 항에 있어서,
상기 타겟 영상은 연속적으로 입력되는 입력 영상 중 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임인 객체 검출 장치.
The method of claim 3,
Wherein the target image is a background image frame in which a foreground is separated from an image frame obtained at consecutive time intervals among consecutively inputted input images.
제 1 항에 있어서,
상기 참조 영상은 상기 입력 영상과 동일한 신(scene)을 상기 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상인 영상 처리 장치.
The method according to claim 1,
Wherein the reference image is a background image obtained by separating a foreground from an image captured in a bright environment than the input image.
제 1 항에 있어서,
상기 참조 픽셀값 결정부는:
상기 픽셀값 좌표를 나타내는 좌표계에서 각 픽셀값 좌표에 대응하는 각 픽셀값 좌표점으로부터 이격된 거리의 합이 최소가 되는 도형의 방정식을 산출하여 상기 타겟 영상의 픽셀값에 대한 상기 참조 픽셀값의 관계식을 획득하는 영상 처리 장치.
The method according to claim 1,
The reference pixel value determination unit may include:
Calculating an equation of a graphic form that minimizes a sum of distances from pixel coordinate coordinate points corresponding to each pixel value coordinate in a coordinate system representing the pixel value coordinate to obtain a relation of the reference pixel value with respect to the pixel value of the target image; Is obtained.
제 6 항에 있어서,
상기 참조 픽셀값 결정부는:
상기 픽셀값 좌표를 다수의 그룹들로 분류하고, 각 그룹마다 상기 도형의 방정식을 산출하는 영상 처리 장치.
The method according to claim 6,
The reference pixel value determination unit may include:
Wherein the pixel value coordinates are grouped into a plurality of groups, and the equation of the figure is calculated for each group.
제 7 항에 있어서,
상기 참조 픽셀값 결정부는:
상기 좌표계에서 상기 도형을 평행 이동시켜 얻은 경계를 기준으로 상기 픽셀값 좌표를 분류하는 영상 처리 장치.
8. The method of claim 7,
The reference pixel value determination unit may include:
And classifies the pixel value coordinates based on a boundary obtained by parallelly moving the graphic object in the coordinate system.
제 7 항에 있어서,
상기 참조 픽셀값 결정부는:
상기 좌표계에서 어느 한 그룹에 대한 도형을 향해 나머지 그룹 중 적어도 하나에 대한 도형을 이동시켜 해당 그룹에 대한 도형의 방정식을 조정하는 영상 처리 장치.
8. The method of claim 7,
The reference pixel value determination unit may include:
And moving the figure for at least one of the remaining groups toward the figure for one group in the coordinate system to adjust the equation of the figure for the corresponding group.
제 6 항에 있어서,
상기 픽셀값 변경부는:
상기 입력 영상의 픽셀값을 상기 관계식에서 상기 타겟 영상의 픽셀값에 대응하는 변수에 대입하여 얻은 참조 픽셀값으로 변경하는 영상 처리 장치.
The method according to claim 6,
Wherein the pixel value changing unit comprises:
And a pixel value of the input image is substituted into a reference pixel value obtained by substituting the pixel value of the input image into a variable corresponding to a pixel value of the target image in the relational expression.
제 1 항에 있어서,
상기 입력 영상, 상기 타겟 영상 및 상기 참조 영상에 사용된 제 1 색 공간 모델을 휘도 및 색도를 포함하는 제 2 색 공간 모델로 변환하고, 상기 픽셀값이 변경된 입력 영상에 사용된 상기 제 2 색 공간 모델을 상기 제 1 색 공간 모델로 변환하는 색 공간 모델 변환부를 더 포함하는 영상 처리 장치.
The method according to claim 1,
A first color space model used for the input image, the target image, and the reference image is converted into a second color space model including luminance and chrominance, and the second color space model used for the input image, And a color space model conversion unit for converting the model into the first color space model.
제 11 항에 있어서,
상기 픽셀값 좌표 생성부는:
상기 타겟 픽셀의 휘도에 해당하는 휘도 픽셀값과 상기 참조 픽셀의 휘도에 해당하는 휘도 픽셀값을 이용하여 상기 픽셀값 좌표를 생성하는 영상 처리 장치.
12. The method of claim 11,
Wherein the pixel value coordinate generator comprises:
Wherein the pixel value coordinates are generated using a luminance pixel value corresponding to the luminance of the target pixel and a luminance pixel value corresponding to the luminance of the reference pixel.
제 12 항에 있어서,
상기 타겟 영상 내 타겟 픽셀들의 색도에 해당하는 색도 픽셀값과 상기 참조 영상 내 참조 픽셀들의 색도에 해당하는 색도 픽셀값을 기반으로, 상기 입력 영상 내 각 픽셀의 색도에 해당하는 색도 픽셀값을 변경하는 색도 픽셀값 변경부를 더 포함하는 영상 처리 장치.
13. The method of claim 12,
The chroma pixel value corresponding to the chroma of each pixel in the input image is changed based on the chroma pixel value corresponding to the chroma of the target pixels in the target image and the chroma pixel value corresponding to the chroma of the reference pixels in the reference image And a chromaticity pixel value changing unit.
제 13 항에 있어서,
상기 색도 픽셀값 변경부는:
상기 타겟 픽셀들의 색도 픽셀값의 평균과 상기 참조 픽셀들의 색도 픽셀값의 평균을 구하고,
상기 입력 영상 내 각 픽셀의 색도 픽셀값으로부터 상기 타겟 픽셀들의 색도 픽셀값의 평균을 감산한 뒤, 상기 참조 픽셀들의 색도 픽셀값의 평균을 가산하는 영상 처리 장치.
14. The method of claim 13,
Wherein the chromaticity pixel value changing unit comprises:
An average of chromaticity pixel values of the target pixels and an average of chromaticity pixel values of the reference pixels,
Wherein an average of chromaticity pixel values of the target pixels is subtracted from an average of chromaticity pixel values of the target pixels from chromaticity pixel values of each pixel in the input image, and an average of chromaticity pixel values of the reference pixels is added.
영상 처리 장치를 이용하여 영상을 처리하는 방법에 있어서,
입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 단계;
상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 단계; 및
상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 단계;
를 포함하는 영상 처리 방법.
A method of processing an image using an image processing apparatus,
Generating pixel value coordinates including a pixel value of a target pixel in a target image obtained from an input image and a pixel value of a reference pixel corresponding to the target pixel in a reference image;
Determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And
Changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the pixel value;
And an image processing method.
제 15 항에 따른 영상 처리 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium on which a program for executing the image processing method according to claim 15 is recorded. 컴퓨터와 결합되어 제 15 항에 따른 영상 처리 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.A computer program stored on a medium for execution in accordance with claim 15 in combination with a computer. 입력 영상을 전 처리하는 전 처리부;
상기 전 처리된 입력 영상으로부터 배경을 분리하여 전경 영상을 획득하는 배경 분리부; 및
상기 전경 영상을 이용하여 객체를 검출하는 객체 검출부를 포함하며,
상기 전 처리부는:
상기 입력 영상으로부터 얻은 타겟 영상 내 타겟 픽셀의 픽셀값과 참조 영상 내 상기 타겟 픽셀에 대응하는 참조 픽셀의 픽셀값을 포함하는 픽셀값 좌표를 생성하는 픽셀값 좌표 생성부;
상기 픽셀값 좌표를 기반으로 상기 타겟 영상의 픽셀값에 부합하는 참조 픽셀값을 결정하는 참조 픽셀값 결정부; 및
상기 입력 영상 내 각 픽셀의 픽셀값을 해당 픽셀값에 부합하는 상기 참조 픽셀값으로 변경하는 픽셀값 변경부;
를 포함하는 객체 검출 장치.
A preprocessor for preprocessing an input image;
A background separator for separating a background from the preprocessed input image to obtain a foreground image; And
And an object detecting unit for detecting an object using the foreground image,
Wherein the pre-
A pixel value coordinate generator for generating pixel value coordinates including a pixel value of a target pixel in the target image obtained from the input image and a pixel value of a reference pixel corresponding to the target pixel in the reference image;
A reference pixel value determiner for determining a reference pixel value corresponding to a pixel value of the target image based on the pixel value coordinates; And
A pixel value changing unit for changing the pixel value of each pixel in the input image to the reference pixel value corresponding to the pixel value;
And an object detection device.
제 18 항에 있어서,
상기 입력 영상의 밝기를 분석하여, 상기 밝기가 기 설정된 임계치보다 작은 경우 해당 입력 영상을 상기 전 처리부로 전달하고, 상기 밝기가 상기 임계치보다 크거나 같은 경우 해당 입력 영상을 상기 배경 분리부로 전달하는 밝기 분석부를 더 포함하는 객체 검출 장치.
19. The method of claim 18,
Processing unit for analyzing the brightness of the input image and delivering the input image to the preprocessing unit when the brightness is less than a preset threshold value and for transmitting the input image to the background separator when the brightness is greater than or equal to the threshold value, And an analyzing unit.
제 18 항에 있어서,
상기 타겟 영상은 상기 입력 영상으로부터 전경을 분리한 배경 영상인 객체 검출 장치.
19. The method of claim 18,
Wherein the target image is a background image obtained by separating the foreground from the input image.
제 20 항에 있어서,
상기 타겟 영상은 연속적으로 입력되는 입력 영상 중 기 설정된 시간 간격마다 획득된 영상 프레임으로부터 전경을 분리한 배경 영상 프레임인 객체 검출 장치.
21. The method of claim 20,
Wherein the target image is a background image frame in which a foreground is separated from an image frame obtained at consecutive time intervals among consecutively inputted input images.
제 18 항에 있어서,
상기 참조 영상은 상기 입력 영상과 동일한 신을 상기 입력 영상보다 밝은 환경에서 촬영한 영상으로부터 전경을 분리한 배경 영상인 객체 검출 장치.
19. The method of claim 18,
Wherein the reference image is a background image obtained by separating foreground images from images captured in a bright environment than the input image with the same scene as the input image.
KR1020150119344A 2015-08-25 2015-08-25 Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same KR101715247B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150119344A KR101715247B1 (en) 2015-08-25 2015-08-25 Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same
PCT/KR2016/009394 WO2017034323A1 (en) 2015-08-25 2016-08-24 Image processing device and method for adaptively improving low illumination level, and object detection device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150119344A KR101715247B1 (en) 2015-08-25 2015-08-25 Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same

Publications (2)

Publication Number Publication Date
KR20170024287A true KR20170024287A (en) 2017-03-07
KR101715247B1 KR101715247B1 (en) 2017-03-10

Family

ID=58100632

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150119344A KR101715247B1 (en) 2015-08-25 2015-08-25 Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same

Country Status (2)

Country Link
KR (1) KR101715247B1 (en)
WO (1) WO2017034323A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190024244A (en) * 2017-08-31 2019-03-08 한화테크윈 주식회사 Image processing system and method
KR20240059426A (en) 2022-10-27 2024-05-07 한전케이디엔주식회사 Apparatus and method for monitoring and diagnosing underground facilities based on image illuminance improvement technology

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4042367A1 (en) 2019-10-11 2022-08-17 3M Innovative Properties Company Apparatus and methods for preprocessing images having elements of interest

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090024898A (en) * 2007-09-05 2009-03-10 한국전자통신연구원 Video object abstraction apparatus and its method
KR20090048191A (en) * 2007-11-09 2009-05-13 주식회사 쎄이미지 Color image processing apparatus and method for expanding dynamic range
KR100927554B1 (en) * 2009-03-13 2009-11-20 주식회사 일리시스 Night video surveillance system and method based on day and night video composition
KR20110114096A (en) * 2010-04-12 2011-10-19 주식회사 영국전자 Monitoring system employing thermal imaging camera and nighttime monitoring method using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100056143A (en) * 2008-11-19 2010-05-27 (주)투미르 Method for detecting moving objects using segmentation process

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090024898A (en) * 2007-09-05 2009-03-10 한국전자통신연구원 Video object abstraction apparatus and its method
KR20090048191A (en) * 2007-11-09 2009-05-13 주식회사 쎄이미지 Color image processing apparatus and method for expanding dynamic range
KR100927554B1 (en) * 2009-03-13 2009-11-20 주식회사 일리시스 Night video surveillance system and method based on day and night video composition
KR20110114096A (en) * 2010-04-12 2011-10-19 주식회사 영국전자 Monitoring system employing thermal imaging camera and nighttime monitoring method using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190024244A (en) * 2017-08-31 2019-03-08 한화테크윈 주식회사 Image processing system and method
KR20240059426A (en) 2022-10-27 2024-05-07 한전케이디엔주식회사 Apparatus and method for monitoring and diagnosing underground facilities based on image illuminance improvement technology

Also Published As

Publication number Publication date
KR101715247B1 (en) 2017-03-10
WO2017034323A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
US11948282B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10257428B2 (en) Image processing apparatus and image processing method that adjust, based on a target object distance, at least one of brightness of emitted pattern light and an exposure amount
US20200043225A1 (en) Image processing apparatus and control method thereof
TWI431549B (en) Image processing apparatus and method and computer program product
KR20210006276A (en) Image processing method for flicker mitigation
EP3466324A1 (en) Skin diagnostic device and skin diagnostic method
US20160125616A1 (en) Apparatus and method of detecting motion mask
CN111368819B (en) Light spot detection method and device
KR20140095333A (en) Method and apparratus of tracing object on image
KR101715247B1 (en) Apparatus and method for processing image to adaptively enhance low contrast, and apparatus for detecting object employing the same
KR101715489B1 (en) Image generating device and image generating method
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
JP7092616B2 (en) Object detection device, object detection method, and object detection program
Abdusalomov et al. Robust shadow removal technique for improving image enhancement based on segmentation method
JP2015108918A (en) Flame detector and flame detection method
JP2015108917A (en) Flame detector, and method for determining flame detection candidate area
TWI589468B (en) Pedestrian detecting system
KR101394474B1 (en) Apparatus for estimation shadow
JP6953184B2 (en) Image processing device and image processing method
CN107452039B (en) Method and device for compressing RGB color space
KR20150055481A (en) Background-based method for removing shadow pixels in an image
JP2015092301A (en) Image processing apparatus and image processing method of the same, and computer program and image processing system
TWI684955B (en) Method and electronic apparatus for extracting foreground image
KR101905128B1 (en) Motion area detecion control method based on irregularity of light and apparatus thereof
CA2904622C (en) System and method for detecting a strobe by using spatial features in video frames

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 4