KR100269784B1 - Method for detecting shaded region in image - Google Patents

Method for detecting shaded region in image Download PDF

Info

Publication number
KR100269784B1
KR100269784B1 KR1019970078468A KR19970078468A KR100269784B1 KR 100269784 B1 KR100269784 B1 KR 100269784B1 KR 1019970078468 A KR1019970078468 A KR 1019970078468A KR 19970078468 A KR19970078468 A KR 19970078468A KR 100269784 B1 KR100269784 B1 KR 100269784B1
Authority
KR
South Korea
Prior art keywords
boundary
shadow
image
determination window
dimensional
Prior art date
Application number
KR1019970078468A
Other languages
Korean (ko)
Other versions
KR19990058368A (en
Inventor
이상해
임채환
우창섭
Original Assignee
윤종용
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자주식회사 filed Critical 윤종용
Priority to KR1019970078468A priority Critical patent/KR100269784B1/en
Publication of KR19990058368A publication Critical patent/KR19990058368A/en
Application granted granted Critical
Publication of KR100269784B1 publication Critical patent/KR100269784B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

PURPOSE: A method for identifying a boundary between an object and a shadow is provided to identify a boundary between an object and a shadow by using correlation between a current input image and a background image. CONSTITUTION: A window for deciding a boundary of an object is set up. A boundary candidate of the object is set up from an input image. A window for deciding a boundary of a shadow is set up from the boundary candidate. An one-dimensional input feature signal is generated by projecting the image received through the shadow boundary decision window. An one-dimensional background feature signal is generated by projecting the image received through the shadow boundary decision window. The one-dimensional input feature signal is compared with the one-dimensional background feature signal. A correlation is determined according to the compared result.

Description

물체와 그림자의 경계선 구분 방법How to separate the border between objects and shadows

본 발명은 물체와 그림자의 경계선 구분 방법에 관한 것으로, 특히 한 대의 카메라를 사용하여 포착한 검지 영역에 대하여 이동 물체나 그림자가 없었던 상태의 배경 영상과 현재 입력 영상에 사이의 상관도를 비교하여 물체와 그림자의 경계선을 구분하는 물체와 그림자의 경계선 구분 방법에 관한 것이다.The present invention relates to a method for distinguishing a boundary between an object and a shadow, and in particular, by comparing a correlation between a background image in a state where there is no moving object or a shadow and a current input image with respect to a detection area captured using a single camera. And a method for distinguishing the boundary between shadows and objects.

영상을 이용한 여러 응용 장치에 있어서 물체를 배경으로부터 분리하여 추출하고자 하거나 이동 물체를 지속적으로 추적하고자 할 때 대상 물체나 주변 구조물의 그림자에 의해 물체의 추출 또는 이동 물체의 추적이 어려워지는 경우가 많이 발생하게 되는데 이러한 그림자 문제를 해결하기 위하여 다양한 접근이 있었다. 가장 간단한 방법으로 컬러 영상을 이용하여 그림자를 분리하는 방법이 있는 바, 이 방법은 비교적 우수한 성능을 발휘할 수 있지만 처리해야 할 데이터 량이 많다는 문제점이 있다.In many application devices using images, it is difficult to extract objects or track moving objects by shadows of objects or surrounding structures when objects are separated from the background or continuously tracked. There are various approaches to solving this shadow problem. There is a method of separating shadows using a color image as the simplest method. This method has a relatively good performance, but has a problem in that a large amount of data must be processed.

이외에도 스테레오 비전(Stereo Vision)을 이용하여 삼차원적인 깊이 좌표 값을 찾고, 이렇게 찾은 깊이 좌표 값이 바닥으로 나타나는 영역을 그림자 영역을 판단하는 방법도 있다. 그러나, 이 방식을 이용하여 그림자 영역을 판단하기 위해서는 두 대의 카메라로부터의 입력되는 영상을 이용해야 하며, 또한 그림자 영역 판단 결과를 얻기 위한 계산량이 부담이 되는 문제점이 있다.In addition, there is a method of finding a three-dimensional depth coordinate value using stereo vision, and determining a shadow area on the area where the found depth coordinate value appears as a floor. However, in order to determine the shadow area using this method, an image input from two cameras must be used, and a calculation amount for obtaining the shadow area determination result is burdensome.

본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 한 대의 카메라를 사용하여 포착한 검지 영역에 대하여 이동 물체나 그림자가 없었던 상태의 배경 영상과 현재 입력 영상에 사이의 상관도를 비교하여 물체와 그림자의 경계선을 구분하는 물체와 그림자의 경계선 구분 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-mentioned problems, and compared the correlation between the current image and the background image in the state where there was no moving object or shadow with respect to the detection area captured using a single camera. The object of the present invention is to provide a method for distinguishing a boundary between shadows and an object.

전술한 목적을 달성하기 위한 본 발명의 물체와 그림자의 경계선 구분 방법은 (a) 이동 물체의 예상 이동 경로를 포착하도록 설치된 카메라로부터 입력되는 전체 영상 내에 물체의 경계를 결정하기 위한 물체 경계 결정창을 설정하는 단계; (b) 상기 설정된 물체 경계 결정창에 입력되는 영상으로부터 물체의 경계 후보를 설정하는 단계; (c) 상기 경계 후보로부터 물체 방향으로 소정 길이의 그림자 경계 판단창을 설정하는 단계; (d) 상기 그림자 경계 판단창에 입력되는 영상을 수평 방향으로 가산 투영하여 일차원 입력 특징 신호를 생성하는 단계; (e) 상기 물체 경계 결정창에 그림자가 존재하지 않을 때의 순수한 배경에 대해 상기 그림자 경계 판단창과 동일한 위치에 설정된 그림자 경계 판단창에 입력된 영상을 수평 방향으로 가산 투영하여 일차원 배경 특징 신호를 생성하는 단계; (f) 상기 단계들(d) 및 (e)에서 각각 생성된 일차원 입력 특징 신호와 일차원 배경 특징 신호의 상관도를 비교하는 단계; 및 (g) 상기 비교 결과, 상관도가 소정의 기준치 이상이면 그림자라고 판단하여 상기 그림자 경계 판단창을 물체의 방향으로 재설정한 후에 상기 단계(d) 이하를 반복하고, 소정의 기준치에 미달하면 현재의 경계 후보를 실제 물체의 경계라고 결정하는 단계를 포함하여 이루어진다.In order to achieve the above object, a method of distinguishing a boundary between an object and a shadow of the present invention includes (a) an object boundary determination window for determining an object boundary within an entire image input from a camera installed to capture an expected moving path of the moving object. Setting up; (b) setting a boundary candidate of an object from an image input to the set object boundary determination window; (c) setting a shadow boundary determination window of a predetermined length from the boundary candidate toward an object; (d) generating a one-dimensional input feature signal by adding and projecting an image input to the shadow boundary determination window in a horizontal direction; (e) generating a one-dimensional background feature signal by horizontally adding and projecting an image input to a shadow boundary determination window set at the same position as the shadow boundary determination window to a pure background when there is no shadow in the object boundary determination window; Doing; (f) comparing the correlation between the one-dimensional input feature signal and the one-dimensional background feature signal generated in each of steps (d) and (e); And (g) if the correlation is greater than or equal to a predetermined reference value, determines that the shadow is a shadow, and resets the shadow boundary determination window in the direction of an object, and then repeats the step (d) or less, and if it does not meet the predetermined reference value, Determining the boundary candidate of the boundary of the real object.

도 1은 본 발명의 물체와 그림자의 경계선 구분 방법을 구현하는데 따른 카메라의 설치 상태도,1 is an installation state diagram of a camera according to an embodiment of the present invention for implementing a method for distinguishing a boundary between a shadow and an object;

도 2는 본 발명의 물체와 그림자의 경계선 구분 방법이 적용되는 영상 처리부의 전체적인 블록 구성도,2 is an overall block diagram of an image processing unit to which a method for classifying a boundary line between an object and a shadow of the present invention is applied;

도 3은 본 발명의 물체와 그림자의 경계선 구분 방법을 설명하기 위한 플로우차트,3 is a flowchart illustrating a method for classifying boundary lines between objects and shadows of the present invention;

도 4는 본 발명에서 물체의 경계 결정창의 설정 상태를 설명하기 위한 도,4 is a view for explaining the setting state of the boundary determination window of the object in the present invention,

도 5는 본 발명에서 그림자 경계 판단창의 설정 상태를 설명하기 위한 도이다.5 is a view for explaining the setting state of the shadow boundary determination window in the present invention.

*** 도면의 주요부분에 대한 부호의 설명 ****** Explanation of symbols for main parts of drawing ***

10: 바닥, 20: 지지대,10: floor, 20: support,

30: 카메라, 40: 영상처리보드,30: camera, 40: image processing board,

50: 물체, 100: 영상 처리부,50: object, 100: image processing unit,

110: A/D 변환기, 120 - 140: 프레임 메모리,110: A / D converter, 120-140: frame memory,

150: 디지털 신호 처리기, 160: D/A 변환기,150: digital signal processor, 160: D / A converter,

170: 프레임 스위쳐, 300: 전체 영상,170: frame switcher, 300: full image,

302: 물체 경계 결정창, 310: 그림자 경계 판단창302: object boundary determination window, 310: shadow boundary determination window

이하에는 첨부한 도면을 참조하여 본 발명의 물체와 그림자의 경계선 구분 방법의 양호한 실시예에 대해서 상세하게 설명하는데, 이해를 돕기 위하여 본 발명이 적용될 수 있는 하드웨어 환경에 대해서 먼저 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the method for distinguishing the boundary between the object and the shadow of the present invention, a hardware environment to which the present invention can be applied first for the understanding.

도 1은 본 발명의 물체와 그림자의 경계선 구분 방법을 구현하는데 따른 카메라의 설치 상태도이다. 도 1에 도시한 바와 같이, 본 발명의 방법이 적용되는 장치에서는 이동 물체(50)가 통과하는 바닥(10)의 일 측의 일정한 높이에 검지용의 카메라(30)가 설치된다. 그런데, 연속적으로 통과하는 이동 물체(50)를 정확하게 분리하고 또한 바닥(10)을 가급적 넓게 포착할 수 있도록 바닥(10)과의 연직면 상에서 바닥의 내측을 향하여 5°- 10°정도 경사지게 카메라(30)를 설치하는 것이 양호하다. 카메라(30)에서 포착된 영상은 예를 들어 초당 30 프레임씩 영상처리보드(40)에 제공되는데, 영상처리보드(40)에서는 이렇게 제공된 영상 데이터를 실시간적으로 처리하여 검지 영역 내에서 물체와 그림자 사이의 경계선을 고속으로 구분한다. 미설명 부호 20은 카메라를 지지하는 지지대를 나타낸다.1 is a diagram illustrating an installation state of a camera according to an embodiment of the present invention for distinguishing a boundary line between an object and a shadow. As shown in FIG. 1, in the apparatus to which the method of the present invention is applied, the detection camera 30 is installed at a constant height on one side of the floor 10 through which the moving object 50 passes. However, the camera 30 is inclined by about 5 ° to 10 ° toward the inside of the floor on a perpendicular surface with the floor 10 so as to accurately separate the moving object 50 passing continuously and to capture the floor 10 as wide as possible. ) Is good to install. An image captured by the camera 30 is provided to the image processing board 40 at 30 frames per second, for example, and the image processing board 40 processes the provided image data in real time to detect objects and shadows in the detection area. Separate the boundary between them at high speed. Reference numeral 20 denotes a support for supporting the camera.

도 2는 본 발명의 물체와 그림자의 경계선 구분 방법이 적용되는 영상 처리부의 전체적인 블록 구성도이다. 도 2에 도시한 바와 같이 영상 처리 보드(40)에 실장되는 영상처리부(100)는 카메라(30)에서 제공되는 프레임 단위의 영상 신호를 소정 비트, 예를 들어 8비트씩의 연속적인 디지털 데이터로 변환하는 A/D 변환기(110), 연속적으로 제공되는 세 프레임 분량의 디지털 영상 데이터를 각각 한 프레임씩 순환적으로 저장하는 세 개의 프레임 메모리(120),(130),(140), 해당 프레임 메모리에 저장된 디지털 영상 데이터를 분석하여 검지 영역에서 물체와 그림자 사이의 경계선을 구분하는 디지털 신호 처리기(Digital Signal Processor, 이하 간단히 DSP라고 한다)(150) 및 디지털 영상 데이터를 다시 아날로그 형태의 신호로 변환하여 출력하는 D/A 변환기(160)로 이루어진다. 미설명 부호 170은 DSP(150)의 제어 하에 각각의 프레임 메모리(120),(130),(140)를 A/D 변환기(110), DSP(150) 및 D/A 변환기(160)에 순환적으로 연결시키는 프레임 스위쳐를 나타낸다.2 is an overall block diagram of an image processing unit to which a boundary line classification method of an object and a shadow of the present invention is applied. As shown in FIG. 2, the image processing unit 100 mounted on the image processing board 40 converts an image signal of a frame unit provided from the camera 30 into continuous digital data of predetermined bits, for example, 8 bits. A / D converter 110 for converting, three frame memories 120, 130, and 140 that cyclically store three frames of digital image data provided in succession, one frame each, and the corresponding frame memory. The digital signal processor (hereinafter referred to simply as DSP) 150 that separates the boundary between the object and the shadow in the detection area by analyzing the digital image data stored in the digital image data and converts the digital image data into an analog signal again. D / A converter 160 to output. Reference numeral 170 circulates each of the frame memories 120, 130, and 140 to the A / D converter 110, the DSP 150, and the D / A converter 160 under the control of the DSP 150. Frame switcher to connect to

전술한 구성에서, 각각의 프레임 메모리(120),(130),(140)는 예를 들어 512*512의 크기를 가지는 SRAM(Static Random Access Memory)으로 구현될 수 있는데, 현재 시점(t)에서 A/D 변환기(110)가 프레임 메모리(120)에 연결되어 있다고 가정하면 DSP(150)에는 프레임 메모리(130)가 연결되고, D/A 변환기(160)에는 프레임 메모리(140)가 연결되게 된다. 이렇게 연결된 상태에서, DSP(150)가 시점(t-1)에 프레임 메모리(130)에 입력된 영상 데이터의 처리를 종료하면 프레임 스위쳐(170)에 이를 알리는 신호를 출력하게 되는데, 이에 따라 프레임 스위쳐(170)가 프레임 메모리(120),(130),(140)의 연결 상태를 점선으로 도시한 바와 같이 순환적으로 스위칭 하게 된다. 즉, 현재 DSP(150)와 연결되어 있던 프레임 메모리(130)는 D/A 변환기(160)에 연결되어 그 저장된 데이터가 아날로그 신호로 변환되고, 현재 A/D 변환기(110)에 연결되어 있던 프레임 메모리(120)는 DSP(150)에 연결되어 그 데이터가 처리되고, D/A 변환기(160)에 연결되어 있던 프레임 메모리(140)는 A/D 변환기(110)에 연결되어 그 데이터가 카메라(30)로부터 입력되고 A/D 변환기(110)에 의해 변환된 디지털 데이터로 갱신된다. 이와 같이 카메라(30)로부터 입력된 영상은 3 단계의 순환 큐(Circulation Queue)(120),(130),(140)를 통과하는 형태가 되기 때문에 모니터(미도시)에 의해 재구성되기까지에는 두 프레임 분량의 지연이 생기게 된다. 이는 외부 카메라(30)를 통해 실제 영상을 받아들이면서, 실시간 영상 처리하고, 그 결과를 디스플레이 해야할 경우에 매우 효과적이다. 이와 같은 구조에서 DSP(150)의 신호 처리가 충분히 짧은 시간 내에 끝난다고 볼 때 영상 입력(시점 t), DSP 처리(시점 t-1), 디스플레이(시점 t-2)의 각 사이클은 이론상 30[frame/sec]의 속도로 이루어지게 될 것이다.In the above-described configuration, each of the frame memories 120, 130, and 140 may be implemented as static random access memory (SRAM) having a size of, for example, 512 * 512, at the present time t. Assuming that the A / D converter 110 is connected to the frame memory 120, the frame memory 130 is connected to the DSP 150 and the frame memory 140 is connected to the D / A converter 160. . In this state, when the DSP 150 finishes processing the image data input to the frame memory 130 at the time t-1, the DSP 150 outputs a signal indicating the signal to the frame switcher 170. Accordingly, the frame switcher 170 cyclically switches the connection state of the frame memories 120, 130, and 140 as shown by the dotted lines. That is, the frame memory 130 that is currently connected to the DSP 150 is connected to the D / A converter 160 so that the stored data is converted into an analog signal, and the frame is currently connected to the A / D converter 110. The memory 120 is connected to the DSP 150 to process the data, and the frame memory 140 connected to the D / A converter 160 is connected to the A / D converter 110 so that the data is stored in the camera ( 30 is updated with digital data inputted from and converted by the A / D converter 110. As such, the image input from the camera 30 passes through three stages of the circulation queue 120, 130, and 140, so that the image inputted from the camera 30 may not be reconstructed by the monitor (not shown). There will be a delay in the amount of frames. This is very effective when it is necessary to process the real-time image and display the result while receiving the actual image through the external camera 30. In this structure, when the signal processing of the DSP 150 ends in a sufficiently short time, each cycle of the image input (time t), DSP processing (time t-1), and display (time t-2) is theoretically 30 [ frame / sec].

전술한 실시예에서는 카메라(30)로 아날로그 카메라를 예를 들어 설명하였는데, 디지털 카메라를 사용하는 경우에는 A/D 변환기(110) 대신에 간단한 인터페이스 회로가 요구될 것이며, D/A 변환기(160)는 카메라(30)가 포착한 영상을 시각적으로 모니터링하기 위한 용도로 주어진다. 또한 DSP(150) 대신에 범용의 마이크로 컴퓨터를 사용할 수도 있을 것이다.In the above-described embodiment, an analog camera is described as an example of the camera 30. In the case of using a digital camera, a simple interface circuit may be required instead of the A / D converter 110, and the D / A converter 160 may be used. Is used to visually monitor the image captured by the camera 30. In addition, a general purpose microcomputer may be used instead of the DSP 150.

이하에는 본 발명의 물체와 그림자의 경계선 구분 방법의 양호한 실시예에 대해서 상세하게 설명한다. 도 3은 본 발명의 물체와 그림자의 경계선 구분 방법을 설명하기 위한 플로우차트인 바, DSP(150)가 주체로 하여 수행됨을 밝혀 둔다. 도 3에 도시한 바와 같이, 단계(S10)에서는 먼저 입력되는 전체 영상(300) 내에 물체(50)의 경계를 결정하기 위한 물체 경계 결정창(302)을 설정한다.Hereinafter, a preferred embodiment of the boundary line separation method of the object and the shadow of the present invention will be described in detail. 3 is a flowchart illustrating a method for distinguishing a boundary line between an object and a shadow of the present invention, and it is apparent that the DSP 150 is mainly performed. As shown in FIG. 3, in step S10, an object boundary determination window 302 is set to determine the boundary of the object 50 in the first input image 300.

도 4는 본 발명에서 물체의 경계 결정창의 설정 상태를 설명하기 위한 도이다. 도 4에 도시한 바와 같이, 본 발명에 따르면 입력되는 전체 영상(300) 내에 물체(50)의 경계를 찾기 위한 물체 경계 설정창(302)이 설정된다. 이렇게 물체 경계 결정창(302)을 설정하는 이유는 적은 계산량으로 보다 정확한 정보를 얻기 위함이기 때문에 그 크기를 가급적 적게 하는 것이 양호하나, 수평 길이(M)는 물체(50)와 바닥(10)의 폭과의 관계에서 적어도 물체(50)의 일측 경계를 어느 정도 포착할 수 있는 길이로 설정하는 것이 좋다.4 is a view for explaining the setting state of the boundary determination window of the object in the present invention. As shown in FIG. 4, according to the present invention, an object boundary setting window 302 is set for finding a boundary of an object 50 in the entire input image 300. Since the reason for setting the object boundary determination window 302 is to obtain more accurate information with a small amount of calculation, it is preferable to reduce the size as much as possible, but the horizontal length (M) of the object 50 and the floor 10 It is good to set it to the length which can capture at least one side boundary of the object 50 in relationship with width.

다음, 단계(S20)에서는 물체 경계 결정창(302)에 입력되는 영상을 분석하여 물체(50)의 경계 후보를 설정하는데, 예를 들어 최외각 경계를 물체(50)의 경계 후보로 설정한다. 다음, 단계(S30)에서는 이렇게 설정된 경계 후보로부터 물체(50)의 방향으로 소정 길이(A)의 그림자 경계 판단창(310)을 설정한 후에 여기에 입력되는 이차원 영상을 수평 방향으로 가산 투영(Integral Projection)하여 일차원 입력 특징 신호를 생성한다.Next, in step S20, a boundary candidate of the object 50 is set by analyzing an image input to the object boundary determination window 302. For example, the outermost boundary is set as the boundary candidate of the object 50. Next, in step S30, after setting the shadow boundary determination window 310 of the predetermined length A in the direction of the object 50 from the boundary candidate thus set, the two-dimensional image input thereto is added and projected in the horizontal direction (Integral). Projection to generate a one-dimensional input feature signal.

도 5는 본 발명에서 그림자 경계 판단창의 설정 상태를 설명하기 위한 도이다. 도 5에 도시한 바와 같이, 물체 경계 결정창(302) 내에 존재하는 최외각 경계를 후보로 설정하여 물체 방향 쪽으로 길이(A)만큼 그림자 경계 판단창(310)을 설정한 후에 여기에 입력되는 영상을 수평 방향으로 가산 투영하여 도 5의 우측에 도시한 바와 같은 일차원의 입력 특징 신호를 생성한다. 이렇게 수평 방향으로 가산 투영하는 이유는 수평 방향에 존재하는 잡음의 주된 특성이 랜덤하다고 가정할 때 가산 투영에 의한 평균화(Averaging) 효과로 인해 상기한 잡음의 대부분을 제거시킬 수 있기 때문이다. 이외에도 처리해야 할 계산량을 줄일 수 있는데, 이차원 영상을 수평 방향으로 가산 투영하여 일차원 영상으로 만들면 이차원 영상을 그대로 처리할 때에 비해 처리해야 할 데이터의 양을 1/A로 줄일 수가 있다. 다음, 이렇게 만들어진 일차원 영상을 적절한 저역필터에 통과시킨 후에 미분하여 잡음의 영향이 제거된 일차원 특징 신호를 생성한다.5 is a view for explaining the setting state of the shadow boundary determination window in the present invention. As shown in FIG. 5, an image inputted here after setting the outermost boundary existing in the object boundary determination window 302 as a candidate and setting the shadow boundary determination window 310 by the length A toward the object direction Is added and projected in the horizontal direction to generate a one-dimensional input feature signal as shown in the right side of FIG. The reason for the addition projection in the horizontal direction is that most of the noise can be removed due to the averaging effect by the addition projection, assuming that the main characteristic of the noise present in the horizontal direction is random. In addition, the amount of computation to be processed can be reduced. If the two-dimensional image is added and projected in the horizontal direction to make the one-dimensional image, the amount of data to be processed can be reduced to 1 / A compared to processing the two-dimensional image as it is. Next, the generated one-dimensional image is passed through an appropriate low pass filter and then differentiated to generate a one-dimensional feature signal from which the influence of noise is removed.

다음, 단계(S40)에서는 전술한 단계(S30)에서 생성된 일차원 입력 특징 신호를 미리 저장된 일차원 배경 특징 신호와 비교하여 상관도를 계산한다. 일차원 배경 특징 신호는 물체 경계 결정창(302)에 그림자가 존재하지 않을 때의 순수한 배경에 대해 상기 그림자 경계 판단창(310)과 동일한 위치에 설정된 그림자 경계 판단창(310)에 입력된 영상을 도 5의 우측에 도시한 바와 같이 수평 가산하여 얻어진다. 이렇게 하는 이유는 그림자가 없던 배경 신호와 그림자가 덮인 배경 신호를 비교하였을 때 후자의 그림자가 덮인 배경 신호는 그림자가 없던 배경 신호와 그 형태가 많이 닮아 있다는 점에 착안한 것으로 두 신호간의 상관도를 조사하면 그림자 영역인 지 아니면 물체 영역인 지를 판단할 수 있기 때문이다.Next, in step S40, the correlation is calculated by comparing the one-dimensional input feature signal generated in the above-described step S30 with a previously stored one-dimensional background feature signal. The one-dimensional background feature signal illustrates an image input to the shadow boundary determination window 310 set at the same position as the shadow boundary determination window 310 with respect to the pure background when no shadow exists in the object boundary determination window 302. It is obtained by adding horizontally as shown to the right side of 5. The reason for this is that when the background signal without shadow is compared with the background signal with shadow, the latter shadowed background signal is similar to the background signal without shadow. This is because it can determine whether it is a shadow area or an object area.

단계(S50)에서는 이렇게 얻어진 상관도를 미리 정해진 기준치와 비교하는데, 단계(S50)에서의 판단 결과, 상관도가 기준치 이상인 경우에는 그림자로 판단하고 단계(S60)로 진행하여 경계 후보를 물체(50)의 방향으로 이동, 즉 그림자 경계 판단창(310)을 물체(50)의 방향으로 다시 소정 거리(A) 만큼 이동시킨 후에 단계(S30) 이하를 반복한다. 이렇게 하여 단계(S50)에서 상관도가 기준치에 미달하는 경우에는 단계(S70)로 진행하여 현재 설정된 경계 후보가 물체(50)의 실제 경계라고 결정하게 된다.In step S50, the obtained correlation is compared with a predetermined reference value. If the correlation is greater than or equal to the reference value, the correlation is judged to be a shadow, and the process proceeds to step S60 to determine the boundary candidate as the object 50. ), That is, the shadow boundary determination window 310 is moved again in the direction of the object 50 by a predetermined distance (A), and then step S30 or less is repeated. In this way, when the correlation is less than the reference value in step S50, the process proceeds to step S70 to determine that the currently set boundary candidate is the actual boundary of the object 50.

본 발명의 물체와 그림자 경계선 구분 방법은 전술한 실시예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위 내에서 다양하게 변형하여 실시할 수가 있다.The object and the shadow boundary line division method of the present invention are not limited to the above-described embodiments, and various modifications can be made within the range allowed by the technical idea of the present invention.

이상에서 설명한 바와 같은 본 발명의 물체와 그림자의 경계선 구분 방법에 따르면, 검지 영역에 대하여 이동 물체나 그림자가 없었던 상태의 배경 영상과 현재 입력 영상에 사이의 상관도를 비교하여 물체와 그림자의 경계선을 구분하기 때문에 한 대의 카메라를 사용하여 비교적 적은 계산량을 가지고도 물체와 그림자의 경계선을 정확하게 구분할 수 있는 효과가 있다.According to the method for separating the boundary line between the object and the shadow of the present invention as described above, the boundary line between the object and the shadow is determined by comparing the correlation between the background image in the state where there is no moving object or the shadow in the detection area and the current input image. Because of the distinction, a camera can be used to accurately distinguish the boundary between an object and a shadow even with a relatively small amount of computation.

Claims (2)

(a) 이동 물체의 예상 이동 경로를 포착하도록 설치된 카메라로부터 입력되는 전체 영상 내에 물체의 경계를 결정하기 위한 물체 경계 결정창을 설정하는 단계;(a) setting an object boundary determination window for determining a boundary of an object in the entire image input from a camera installed to capture an expected moving path of the moving object; (b) 상기 설정된 물체 경계 결정창에 입력되는 영상으로부터 물체의 경계 후보를 설정하는 단계;(b) setting a boundary candidate of an object from an image input to the set object boundary determination window; (c) 상기 경계 후보로부터 물체 방향으로 소정 길이의 그림자 경계 판단창을 설정하는 단계;(c) setting a shadow boundary determination window of a predetermined length from the boundary candidate toward an object; (d) 상기 그림자 경계 판단창에 입력되는 영상을 수평 방향으로 가산 투영하여 일차원 입력 특징 신호를 생성하는 단계;(d) generating a one-dimensional input feature signal by adding and projecting an image input to the shadow boundary determination window in a horizontal direction; (e) 상기 물체 경계 결정창에 그림자가 존재하지 않을 때의 순수한 배경에 대해 상기 그림자 경계 판단창과 동일한 위치에 설정된 그림자 경계 판단창에 입력된 영상을 수평 방향으로 가산 투영하여 일차원 배경 특징 신호를 생성하는 단계;(e) generating a one-dimensional background feature signal by horizontally adding and projecting an image input to a shadow boundary determination window set at the same position as the shadow boundary determination window to a pure background when there is no shadow in the object boundary determination window; Doing; (f) 상기 단계들(d) 및 (e)에서 각각 생성된 일차원 입력 특징 신호와 일차원 배경 특징 신호의 상관도를 비교하는 단계; 및(f) comparing the correlation between the one-dimensional input feature signal and the one-dimensional background feature signal generated in each of steps (d) and (e); And (g) 상기 비교 결과, 상관도가 소정의 기준치 이상이면 그림자라고 판단하여 상기 그림자 경계 판단창을 물체의 방향으로 재설정한 후에 상기 단계(d) 이하를 반복하고, 소정의 기준치에 미달하면 현재의 경계 후보를 실제 물체의 경계라고 결정하는 단계를 포함하여 이루어진 물체와 그림자의 경계선 구분 방법.(g) As a result of the comparison, if the correlation is more than a predetermined reference value, it is determined that the shadow is determined, and after resetting the shadow boundary determination window in the direction of the object, the step (d) or less is repeated, and if the reference value is less than the predetermined reference value, A method for distinguishing a boundary between an object and a shadow, comprising determining the boundary candidate as a boundary of an actual object. 제 1항에 있어서, 상기 단계 (d)는 상기 일차원의 입력 특징 신호를 생성하는 과정에서 상기 가산 투영에 의해 일차원 영상으로 변환된 신호의 고역 성분을 제거한 후에 미분하는 단계를 더 구비한 것을 특징으로 하는 물체와 그림자의 경계선 구분 방법.The method of claim 1, wherein the step (d) further comprises the step of differentiating the high frequency component of the signal converted into the one-dimensional image by the addition projection in the process of generating the one-dimensional input feature signal. How to distinguish the boundary between the object and the shadow.
KR1019970078468A 1997-12-30 1997-12-30 Method for detecting shaded region in image KR100269784B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970078468A KR100269784B1 (en) 1997-12-30 1997-12-30 Method for detecting shaded region in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970078468A KR100269784B1 (en) 1997-12-30 1997-12-30 Method for detecting shaded region in image

Publications (2)

Publication Number Publication Date
KR19990058368A KR19990058368A (en) 1999-07-15
KR100269784B1 true KR100269784B1 (en) 2000-10-16

Family

ID=19529848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970078468A KR100269784B1 (en) 1997-12-30 1997-12-30 Method for detecting shaded region in image

Country Status (1)

Country Link
KR (1) KR100269784B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834550B1 (en) * 2007-12-17 2008-06-02 (주)동화이엔지 Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and system thereof
KR100818334B1 (en) * 2008-01-02 2008-04-02 부기테크(주) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle and closed-circuit television for crime prevention and system thereof
KR101297396B1 (en) * 2011-12-28 2013-08-14 충북대학교 산학협력단 Method of shadow removal based on relative similarity

Also Published As

Publication number Publication date
KR19990058368A (en) 1999-07-15

Similar Documents

Publication Publication Date Title
CA2016642C (en) Accurate detection of a drastical change between successive pictures
US4908875A (en) Adaptive thresholding technique
WO2010024479A1 (en) Apparatus and method for converting 2d image signals into 3d image signals
JP4213035B2 (en) Occlusion detector and method for detecting an occlusion region
KR100217485B1 (en) Method for movement compensation in a moving-image encoder or decoder
JPH09265537A (en) Image processing method
JPH06231252A (en) Method for tracking moving object on monitoring picture
JPH0614698B2 (en) Automatic tracking camera
KR100269784B1 (en) Method for detecting shaded region in image
JP2811909B2 (en) Image processing device
JPH1144533A (en) Preceding vehicle detector
JP2001061152A (en) Motion detection method and motion detector
JPH09145368A (en) Moving and tracing method for object by stereoscopic image
KR100332639B1 (en) Moving object detection method using a line matching technique
JP3585977B2 (en) Moving area detection device
EP2528019A1 (en) Apparatus and method for detecting objects in moving images
JP2001025021A (en) Motion detection method and motion detector
KR100234986B1 (en) Width and height measuring method and apparatus of moving object
KR100267728B1 (en) Moving object presence deciding method and apparatus
JP2554102B2 (en) Slit optical detector
JP2698492B2 (en) Motion vector detection device
JP2503613B2 (en) Abnormality monitoring device
KR940003654B1 (en) Method of processing digital data
JPH09190533A (en) Vehicle detecting device
JP2864620B2 (en) Moving object detection device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130708

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20150629

Year of fee payment: 16

LAPS Lapse due to unpaid annual fee