KR101564760B1 - Image processing apparatus and method for predicting criminal incident - Google Patents
Image processing apparatus and method for predicting criminal incident Download PDFInfo
- Publication number
- KR101564760B1 KR101564760B1 KR1020140012475A KR20140012475A KR101564760B1 KR 101564760 B1 KR101564760 B1 KR 101564760B1 KR 1020140012475 A KR1020140012475 A KR 1020140012475A KR 20140012475 A KR20140012475 A KR 20140012475A KR 101564760 B1 KR101564760 B1 KR 101564760B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- visible light
- scene
- column
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
개시되는 실시예에 따르면, 적어도 하나의 가시광선 카메라 및 적어도 하나의 열 카메라를 포함하는 영상 생성부; 상기 영상 생성부와 연결된 프로세서; 및 상기 프로세서와 연결되고 컴퓨터 실행가능 명령어가 저장된 메모리를 포함하되, 상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금, 상기 적어도 하나의 가시광선 카메라로부터 원거리 장면의 제1 가시광선 영상 및 상기 원거리 장면보다 상기 영상 생성부로부터 가까운 근거리 장면의 제2 가시광선 영상을 획득하는 동작; 상기 적어도 하나의 열 카메라로부터 상기 원거리 장면의 제1 열 영상 및 상기 근거리 장면의 제2 열 영상을 획득하는 동작; 상기 제1 가시광선 영상 및 상기 제1 열 영상에 기반하여 상기 원거리 장면에 포함된 대상체의 행위를 추정하는 동작; 및 상기 제2 가시광선 영상 및 상기 제2 열 영상에 기반하여 상기 근거리 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 동작을 수행하게 하는, 영상 처리 장치가 제공된다.According to the disclosed embodiment, there is provided an image processing apparatus comprising: an image generating unit including at least one visible light camera and at least one thermal camera; A processor coupled to the image generator; And a memory coupled to the processor and having stored thereon computer executable instructions that, when executed by the processor, cause the processor to perform the steps of: receiving a first visible light ray of a far-view scene from the at least one visible light ray camera; Obtaining an image and a second visible light image of a near-field scene closer to the image generating unit than the far-field scene; Obtaining a first column image of the far-range scene and a second column image of the near-field scene from the at least one column camera; Estimating an action of an object included in the remote scene based on the first visible light image and the first column image; And detecting a temperature change of a face region included in the near scene based on the second visible ray image and the second column image.
Description
개시되는 실시예들은 영상 처리 기법에 관한 것으로서, 더욱 상세하게는 다양한 환경에서 획득될 수 있는 가시광선 영상 및 열 영상을 처리하는 장치 및 방법과 이를 이용하여 범죄 사건 내지 범죄 상황을 예측하는 것과 관련된다.The disclosed embodiments relate to image processing techniques, and more particularly to an apparatus and method for processing visible light and thermal images that can be obtained in various environments and using the method to predict a criminal case or a criminal situation .
최근 범죄 사건 내지 범죄 상황을 감시, 예측 또는 예방하기 위한 대상체 검출 및 추적 기술들이 공항, 기차역, 쇼핑몰 및 주차장과 같은 공공 시설이나 차량, 군사용 시설 및 기타 감시가 필요한 여러 시설들에 설치되는 장비에 적용되고 있다. 이러한 기술들은 영상에서 대상체를 검출하고 검출된 대상체의 특징을 기반으로 대상체를 추적하는 것을 가능하게 한다.Recent detection and tracking techniques for monitoring, predicting or preventing crime or crime are applied to equipment installed in public facilities such as airports, railway stations, shopping malls and parking lots, vehicles, military facilities and other facilities requiring surveillance . These techniques make it possible to detect an object in an image and track the object based on the detected feature of the object.
기존의 몇몇 대상체 검출 및 추적 기술들은 가시광선 카메라(visible camera)로부터 획득된 영상에 기반한다. 그러나, 가시광선 조명이 없거나 불균일한 환경(예컨대, 야간)에서 가시광선 카메라가 제공하는 영상만으로 대상체를 정확하게 검출하는 것은 실제적으로 곤란할 수 있다.Some existing object detection and tracking techniques are based on images obtained from a visible camera. However, it can be practically difficult to accurately detect a target object with only a video provided by a visible light camera in a non-visible or non-uniform environment (for example, at night).
이러한 문제점을 해결하기 위해 개발된 다른 몇몇 대상체 검출 및 추적 기술들은 다양한 환경(예컨대, 주간뿐만 아니라 야간과 같은 다양한 조명 조건 및/또는 맑은 날씨뿐만 아니라 안개, 비 또는 눈과 같은 다양한 날씨 조건)에서 균일하게 대상체의 영상을 제공하는 열 카메라(thermal camera)를 이용한다. 그러나, 열 카메라로부터 획득된 영상만으로 대상체를 정확하게 검출하는 것 역시 쉬운 일이 아니다. 예컨대, 바람이 강한 날씨에 열 카메라를 통해 대상체를 포함하는 장면(scene)이 촬영(imaging)되는 경우, 열 카메라는 대상체의 열을 제대로 감지할 수 없다. 다른 예로서, 기온이 상당히 높은 날에는 대상체 주위의 온도가 대상체의 열과 비슷한 수준까지 이를 수 있는바, 열 카메라에 의해 포착(capturing)된 영상에서 대상체를 검출하는 것이 어렵다. 더욱이, 열 카메라는 근거리 장면의 대상체의 특징 영역(예컨대, 얼굴, 눈, 코 및 입)을 정확하게 시각화하기 힘들다.Several other object detection and tracking techniques developed to address these problems have been developed to provide uniformity in various environments (e.g., various weather conditions such as nighttime as well as daytime, and / or clear weather as well as various weather conditions such as fog, rain or snow) A thermal camera is used to provide images of the object. However, it is also not easy to accurately detect an object with only the image obtained from a thermal camera. For example, when a scene including an object is imaged through a thermal camera in a windy weather, the thermal camera can not properly detect the heat of the object. As another example, it is difficult to detect an object in an image captured by a thermal camera, because the temperature around the object can reach a level similar to the temperature of the object on a very high temperature. Moreover, it is difficult for the thermal camera to accurately visualize the feature region (e.g., face, eye, nose and mouth) of the object of the near scene.
개시되는 실시예들은 상이한 조명 조건 및/또는 상이한 날씨 조건과 같은 다양한 환경에서 획득될 수 있는 가시광선 영상 및 열 영상을 기반으로 대상체의 행위를 추정하고 얼굴 영역의 온도 변화를 검출하기 위한 영상 처리 장치 및 방법을 제공한다.The disclosed embodiments provide an image processing device for estimating an action of an object based on a visible light image and a thermal image that can be obtained in various environments such as different illumination conditions and / or different weather conditions, And methods.
예시적인 실시예에 따르면, 적어도 하나의 가시광선 카메라 및 적어도 하나의 열 카메라를 포함하는 영상 생성부; 상기 영상 생성부와 연결된 프로세서; 및 상기 프로세서와 연결되고 컴퓨터 실행가능 명령어가 저장된 메모리를 포함하되, 상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금, 상기 적어도 하나의 가시광선 카메라로부터 원거리 장면의 제1 가시광선 영상 및 상기 원거리 장면보다 상기 영상 생성부로부터 가까운 근거리 장면의 제2 가시광선 영상을 획득하는 동작; 상기 적어도 하나의 열 카메라로부터 상기 원거리 장면의 제1 열 영상 및 상기 근거리 장면의 제2 열 영상을 획득하는 동작; 상기 제1 가시광선 영상 및 상기 제1 열 영상에 기반하여 상기 원거리 장면에 포함된 대상체의 행위를 추정하는 동작; 및 상기 제2 가시광선 영상 및 상기 제2 열 영상에 기반하여 상기 근거리 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 동작을 수행하게 하는, 영상 처리 장치가 제공된다.According to an exemplary embodiment, an image generating unit includes at least one visible light camera and at least one thermal camera; A processor coupled to the image generator; And a memory coupled to the processor and having stored thereon computer executable instructions that, when executed by the processor, cause the processor to perform the steps of: receiving a first visible light ray of a far-view scene from the at least one visible light ray camera; Obtaining an image and a second visible light image of a near-field scene closer to the image generating unit than the far-field scene; Obtaining a first column image of the far-range scene and a second column image of the near-field scene from the at least one column camera; Estimating an action of an object included in the remote scene based on the first visible light image and the first column image; And detecting a temperature change of a face region included in the near scene based on the second visible ray image and the second column image.
상기 제1 가시광선 영상을 포착하는 가시광선 카메라와 상기 제1 열 영상을 포착하는 열 카메라는 평행한 광축을 가지도록 배치될 수 있고, 상기 제2 가시광선 영상을 포착하는 가시광선 카메라와 상기 제2 열 영상을 포착하는 열 카메라는 평행한 광축을 가지도록 배치될 수 있다.Wherein the visible light camera capturing the first visible light image and the thermal camera capturing the first thermal image may be arranged to have parallel optical axes and the visible light camera capturing the second visible light image, The thermal camera capturing the two column images can be arranged to have parallel optical axes.
상기 추정하는 동작은, 상기 제1 가시광선 영상으로부터 획득되는 정보 및 상기 제1 열 영상으로부터 획득되는 정보를 결합함으로써 결합된 영상 정보를 생성하는 동작; 상기 결합된 영상 정보를 이용하여 상기 대상체 및 상기 대상체의 특징 부분을 인식하고 상기 대상체 및 상기 특징 부분을 추적하는 동작; 및 상기 추적의 결과에 기반하여 상기 대상체의 행위를 기 설정된 행위로 추정하는 동작을 포함할 수 있다.Wherein the estimating operation comprises: generating combined image information by combining information obtained from the first visible light image and information obtained from the first column image; Recognizing a feature portion of the object and the object using the combined image information, and tracking the object and the feature portion; And estimating an action of the object based on a result of the tracking as a predetermined action.
상기 검출하는 동작은, 상기 제2 가시광선 영상으로부터 상기 얼굴 영역의 특징 부분을 인식하는 동작; 상기 인식된 특징 부분을 상기 제2 열 영상에 매핑하는 동작; 상기 제2 열 영상에 매핑된 상기 얼굴 영역의 특징 부분을 재정의하는 동작; 및 상기 재정의된 특징 부분의 온도 변화를 검출하는 동작을 포함할 수 있다.Wherein the detecting comprises: recognizing a feature portion of the face region from the second visible light image; Mapping the recognized feature portion to the second column image; Redefining a feature portion of the face region mapped to the second column image; And detecting a temperature change in the redefined feature portion.
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 상기 추정의 결과 및 상기 검출의 결과를 범죄 상황 예측 장치에 전송하여 상기 범죄 상황 예측 장치가 상기 추정의 결과 및 상기 검출의 결과에 기반하여 범죄 상황이 발생할 것인지 예측하도록 하는 동작을 또한 수행하게 할 수 있다.The computer-executable instructions, when executed by the processor, cause the processor to send a result of the estimation and a result of the detection to a crime situation predicting device, such that the crime situation predicting device Based on the results of the analysis, to predict whether a crime situation will occur.
다른 예시적인 실시예에 따르면, 적어도 하나의 가시광선 카메라 및 적어도 하나의 열 카메라를 포함하는 영상 생성부와 연결된 프로세서에 의해 수행되는 영상 처리 방법으로서, 상기 적어도 하나의 가시광선 카메라로부터 원거리 장면의 제1 가시광선 영상 및 상기 원거리 장면보다 상기 영상 생성부로부터 가까운 근거리 장면의 제2 가시광선 영상을 획득하는 단계; 상기 적어도 하나의 열 카메라로부터 상기 원거리 장면의 제1 열 영상 및 상기 근거리 장면의 제2 열 영상을 획득하는 단계; 상기 제1 가시광선 영상 및 상기 제1 열 영상에 기반하여 상기 장면에 포함된 대상체의 행위를 추정하는 단계; 상기 제2 가시광선 영상 및 상기 제2 열 영상에 기반하여 상기 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to another exemplary embodiment, there is provided an image processing method performed by a processor coupled to an image generator comprising at least one visible light camera and at least one thermal camera, wherein the at least one visible light camera Obtaining a first visible light image and a second visible light image of a near-point scene closer to the image generating unit than the remote scene; Obtaining a first column image of the far-range scene and a second column image of the near-field scene from the at least one column camera; Estimating an action of an object included in the scene based on the first visible light image and the first column image; Detecting a temperature change of a face region included in the scene based on the second visible light ray image and the second column image.
상기 제1 가시광선 영상이 획득된 가시광선 카메라와 상기 제1 열 영상이 획득된 열 카메라는 평행한 광축을 가지도록 배치되고, 상기 제2 가시광선 영상이 획득된 가시광선 카메라와 상기 제2 열 영상이 획득된 열 카메라는 평행한 광축을 가지도록 배치될 수 있다.Wherein the visible light camera in which the first visible light image is acquired and the thermal camera in which the first column image is acquired are arranged to have parallel optical axes, and the second visible light image is obtained by the obtained visible light camera and the second column The thermal camera from which the image is acquired can be arranged to have a parallel optical axis.
상기 추정하는 단계는, 상기 제1 가시광선 영상으로부터 획득되는 정보 및 상기 제1 열 영상으로부터 획득되는 정보를 결합함으로써 결합된 영상 정보를 생성하는 단계; 상기 결합된 영상 정보를 이용하여 상기 대상체 및 상기 대상체의 특징 부분을 인식하고 상기 대상체 및 상기 특징 부분을 추적하는 단계; 및 상기 추적의 결과에 기반하여 상기 대상체의 행위를 기 설정된 행위로 추정하는 단계를 포함할 수 있다.Wherein the estimating step comprises: generating combined image information by combining information obtained from the first visible light image and information obtained from the first column image; Recognizing a feature portion of the object and the object using the combined image information, and tracking the object and the feature portion; And estimating an action of the object based on a result of the tracking as a predetermined action.
상기 검출하는 단계는, 상기 제2 가시광선 영상으로부터 상기 얼굴 영역의 특징 부분을 인식하는 단계; 상기 인식된 특징 부분을 상기 제2 열 영상에 매핑하는 단계; 상기 제2 열 영상에 매핑된 상기 얼굴 영역의 특징 부분을 재정의하는 단계; 및 상기 재정의된 특징 부분의 온도 변화를 검출하는 단계를 포함할 수 있다.Wherein the detecting comprises: recognizing a feature portion of the face region from the second visible light image; Mapping the recognized feature portion to the second column image; Redefining a feature portion of the face region mapped to the second column image; And detecting a temperature change in the redefined feature portion.
상기 영상 처리 방법은, 상기 추정의 결과 및 상기 검출의 결과를 범죄 상황 예측 장치에 전송하여 상기 범죄 상황 예측 장치가 상기 추정의 결과 및 상기 검출의 결과에 기반하여 범죄 상황이 발생할 것인지 예측하도록 하는 단계를 더 포함할 수 있다.Wherein the image processing method includes transmitting the result of the estimation and the detection result to the crime situation predicting device so that the crime situation predicting device predicts whether a crime situation will occur based on a result of the estimation and a result of the detection As shown in FIG.
또 다른 예시적인 실시예에 따르면, 앞서 언급된 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체가 제공된다.According to yet another exemplary embodiment, there is provided a computer-readable storage medium having stored thereon a computer program for executing the above-mentioned method.
소정의 실시예들에 따르면, 다양한 환경에서 대상체 및 그 특징 부분이 강인하게 검출될 수 있다.According to certain embodiments, the object and its feature portions can be robustly detected in various environments.
소정의 실시예들에 따르면, 가시광선 영상 및 열 영상을 이용하여 대상체의 행위의 추정 및 얼굴 영역의 온도 변화의 검출이 더욱 정확하게 수행될 수 있다.According to certain embodiments, the estimation of the behavior of the object and the detection of the temperature change of the face region can be performed more accurately using the visible light image and the thermal image.
소정의 실시예들에 따르면, 범죄 사건 내지 범죄 상황의 효율적인 예측이 가능하다.According to certain embodiments, efficient prediction of a crime or crime situation is possible.
도 1은 예시적인 실시예에 따른 범죄 상황 예측 시스템을 도시한 도면,
도 2는 예시적인 실시예에 따른 가시광선 카메라 및 열 카메라의 배치를 도시한 도면,
도 3은 예시적인 실시예에 따라 동일한 시점에 포착된 열 영상 및 가시광선 영상을 도식적으로 나타낸 도면,
도 4는 예시적인 실시예에 따라 범죄 상황 예측 시스템을 이용하여 범죄 상황의 발생을 예측하는 과정을 도시한 순서도,
도 5는 예시적인 실시예에 따라 대상체 및 특징 부분을 검출하는 것을 예시한 도면,
도 6은 예시적은 실시예에 따라 얼굴 영역의 특징 부분을 검출하는 것을 예시한 도면.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram illustrating a criminal situation predicting system according to an exemplary embodiment;
Figure 2 illustrates the arrangement of a visible light camera and a thermal camera in accordance with an exemplary embodiment;
3 is a diagrammatic illustration of a thermal image and a visible light image captured at the same point in time according to an exemplary embodiment,
FIG. 4 is a flowchart illustrating a process of predicting occurrence of a crime scene using a crime situation predicting system according to an exemplary embodiment;
5 is a diagram illustrating the detection of a subject and a feature portion in accordance with an exemplary embodiment;
FIG. 6 illustrates detecting a feature portion of a face region according to an exemplary embodiment; FIG.
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and / or systems described herein. However, this is merely an example and the present invention is not limited thereto.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다. 또한, 본 설명에서, "전송"이라는 표현은 어떤 구성요소로부터 직접 다른 구성요소로 소정의 신호가 전송되는 것뿐만 아니라 특별히 다른 취지의 기재가 없는 이상 또 다른 구성요소를 거쳐 신호가 전송되는 것도 포함된다고 이해되어야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification. The terms used in the detailed description are intended only to describe embodiments of the invention and should in no way be limiting. Unless specifically stated otherwise, the singular forms of the expressions include plural forms of meanings. In this description, the expressions "comprising" or "comprising" are intended to indicate certain features, numbers, steps, operations, elements, parts or combinations thereof, Should not be construed to preclude the presence or possibility of other features, numbers, steps, operations, elements, portions or combinations thereof. Further, in this description, the expression "transmission" includes not only that a predetermined signal is transmitted from one component directly to another, but also that a signal is transmitted through another component unless otherwise stated .
도 1은 예시적인 실시예에 따른 범죄 상황 예측 시스템을 도시한 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram illustrating a criminal situation prediction system in accordance with an exemplary embodiment.
도 1에 도시된 바와 같이, 범죄 상황 예측 시스템(100)은 영상 처리 장치(110) 및 범죄 상황 예측 장치(160)를 포함한다.As shown in FIG. 1, the crime state predicting
예시적인 영상 처리 장치(110)는 영상 생성부(140), 프로세서(150) 및 메모리(160)를 포함한다. 영상 생성부(140)는 영상 처리 장치(110)에게 보여지는 장면을 촬영하여 가시광선 영상 및 열 영상을 포착하기 위해 적어도 하나의 가시광선 카메라(120) 및 적어도 하나의 열 카메라(130)를 포함한다. 프로세서(140)는 영상 생성부(140)와 연결된다. 프로세서(150)는 하나 이상의 중앙처리장치(Central Processing Unit: CPU)를 포함할 수 있다. 메모리(160)는 프로세서(150)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(150)와 연결될 수 있다. 메모리(160)에는 컴퓨터 실행가능 명령어가 저장될 수 있다. 프로세서(150)는 메모리(160)에 저장된 컴퓨터 실행가능 명령어를 실행하도록 구성될 수 있다. 이러한 컴퓨터 실행가능 명령어는 프로세서(150)에 의해 실행되는 경우 프로세서(150)로 하여금 본 명세서에 기술되는 소정의 실시예에 따른 동작들을 수행하게 할 수 있다.The exemplary
적어도 하나의 가시광선 카메라(120)는 피사체로부터의 가시광선을 감지함으로써 가시광선 영상을 포착하도록 구성된 카메라 모듈을 포함할 수 있고, 적어도 하나의 열 카메라(130)는 피사체로부터의 적외선을 감지하여 열 영상을 포착하도록 구성된 적외선 카메라 모듈을 포함할 수 있다. 이에 따라, 몇몇 실시예들에 따르면, 영상 생성부(140)는 하나의 장면을 촬영하여 제1 가시광선 영상 및 제1 열 영상을 포착할 수 있고 다른 장면을 촬영하여 제2 가시광선 영상 및 제2 열 영상을 포착할 수 있다. 제1 가시광선 영상 및 제2 가시광선 영상은 가시광선 카메라(120)로부터 프로세서(150)로 전송될 수 있다. 제1 열 영상 및 제2 열 영상은 열 카메라(130)로부터 프로세서(150)로 전송될 수 있다.The at least one
가시광선 카메라(120)에 의해 포착된 가시광선 영상들에 묘사된 장면들은 상이할 수 있다. 예컨대, 제2 가시광선 영상이 나타내는 장면은 제1 가시광선 영상이 나타내는 장면보다 영상 생성부(140)로부터 가까울 수 있다. 몇몇 실시예들에서, 영상 처리 장치(110)는 주기적으로 또는 특정 이벤트의 발생 시점에 (예컨대, 줌 배율의 조정을 통해) 하나의 가시광선 카메라(120)의 초점 거리를 변경함으로써 그 가시광선 카메라(120)가 어떤 시구간 동안에는 원거리 장면을 촬영하여 제1 가시광선 영상을 포착하도록 하고 다른 시구간 동안에는 원거리 장면보다 영상 생성부(140)로부터 가까운 근거리 장면을 촬영하여 제2 가시광선 영상을 포착하도록 할 수 있다. 다른 실시예들에서, 영상 처리 장치(110)는 원거리 장면의 제1 가시광선 영상 및 원거리 장면보다 영상 생성부(140)로부터 가까운 근거리 장면의 제2 가시광선 영상을 각각 포착하도록 각자의 초점 거리가 조절된 두 개의 가시광선 카메라(120)를 포함할 수 있다. 다만, 영상 생성부(140)에 포함되는 가시광선 카메라(120)의 개수가 앞서 언급된 바에 제한되는 것은 아니다. 예컨대, 몇몇 가시광선 카메라들의 촬영을 통해 하나로 종합된 가시광선 영상(예컨대, 하나의 파노라마 영상)이 포착될 수 있다.The scenes depicted in the visible light images captured by the
열 카메라(130)에 의해 포착된 열 영상이 가시광선 카메라(120)에 의해 포착된 가시광선 영상에 대응하도록 가시광선 카메라(120) 및 열 카메라(130)가 구성될 수 있다. 예를 들어, 포착된 가시광선 영상의 전체 화소 수 중에서 대상체를 나타내는 화소 수의 비율이 포착된 열 영상과 동일하거나 상당히 근접하도록 가시광선 카메라(120) 및 열 카메라(130)의 상대적 위치가 조절되고/되거나 가시광선 카메라(120)의 초점 거리 및 열 카메라(130)의 초점 거리가 조절될 수 있다. 이에 따라, 제1 가시광선 영상 및 제1 열 영상에 동일한 장면이 묘사되는 방식으로 제1 가시광선 영상 및 제1 열 영상이 서로 대응할 수 있다. 마찬가지로, 제2 가시광선 영상 및 제2 열 영상에 동일한 장면이 묘사되는 방식으로 제2 가시광선 영상 및 제2 열 영상이 서로 대응할 수 있다. 환언하면, 열 카메라(130)에 의해 포착된 열 영상들에 묘사된 장면들 역시 상이할 수 있다. 예컨대, 제2 열 영상이 나타내는 장면은 제1 열 영상이 나타내는 장면보다 영상 생성부(140)로부터 가까울 수 있다. 몇몇 실시예들에서, 영상 처리 장치(110)는 원거리 장면의 제1 열 영상 및 원거리 장면보다 영상 생성부(140)로부터 가까운 근거리 장면의 제2 열 영상을 각각 포착하도록 각자의 초점 거리가 조절된 두 개의 열 카메라(130)를 포함할 수 있다. 다른 실시예들에 따르면, 영상 처리 장치(110)는 주기적으로 또는 특정 이벤트의 발생 시점에 하나의 열 카메라(130)의 초점 거리를 변경함으로써 서로 다른 시구간에서 원거리 장면의 제1 열 영상 및 근거리 장면의 제2 열 영상이 포착되도록 할 수 있다. 다만, 영상 처리 장치(110)에 포함되는 열 카메라(130)의 개수가 앞서 언급된 바에 제한되는 것은 아니다.The
도 2는 예시적인 실시예에 따른 가시광선 카메라 및 열 카메라의 배치를 도시한다.Figure 2 illustrates the arrangement of a visible light camera and a thermal camera in accordance with an exemplary embodiment.
도 1의 가시광선 카메라(120) 및 열 카메라(130)는 각각 도 2의 가시광선 카메라(210) 및 열 카메라(220)를 포함할 수 있다. 도 2에 도시된 바와 같이, 열 영상(예컨대, 제1 열 영상 및/또는 제2 열 영상)을 포착하는 열 카메라(220)의 광축(또는 종축)이 가시광선 영상(예컨대, 제1 가시광선 영상 및/또는 제2 가시광선 영상)을 포착하는 가시광선 카메라(210)의 광축과 평행하도록 가시광선 카메라(210) 및 열 카메라(220)가 배치될 수 있다. 다만, 도 2에 도시된 바와 같이 가시광선 카메라(210)와 열 카메라(220)가 평행한 광축을 가지도록 배치하는 것은 예시적인 것이고, 가시광선 카메라(210)와 열 카메라(220)가 다른 방식으로 배치되는 것이 본 명세서의 개시 사항에서 배제되는 것은 아니다. 예를 들어, 가시광선 카메라(210)의 광축과 열 카메라(220)의 광축이 일치되도록 가시광선 카메라(210)와 열 카메라(220)가 구성될 수 있다.The visible
도 2를 참조하면, 가시광선 카메라(210)에 의해 촬영된 장면에 포함된 배경 및 대상체가 그 가시광선 영상 내에서 갖는 위치는 열 카메라(220)에 의해 포착된 열 영상 내에서 그 배경 및 대상체가 갖는 위치와 일정한 거리만큼 서로 이격됨을 이해할 수 있다. 예컨대, 도 3은 동일한 시점에서 열 카메라(220) 및 가시광선 카메라(210)에 의해 각각 포착된 동일한 크기의 열 영상(310) 및 가시광선 영상(320)을 도식적으로 나타낸다. 이러한 열 영상(310) 및 가시광선 영상(320) 각각에 대하여, 각 영상의 중심에서 교차하는 가상의 가로 축 및 세로 축이 편의상 점선으로 도시되었다. 도 3에 도시된 바와 같이, 동일한 대상체가 열 영상(310)에서는 열 영상(310)의 중심으로부터 가로축을 따라 일정한 거리(예컨대, n개의 픽셀)만큼 떨어져서 배경에 비해 밝은 부분으로 나타나고 가시광선 영상(320)에서는 가시광선 영상(320)의 중심에 밝게 나타난다. 이와 같이 가시광선 카메라(210)의 광축과 열 카메라(220)의 광축이 평행한 경우, 그 거리만큼 열 영상(310)과 가시광선 영상(320) 중 어느 하나의 가로축을 이동시키는 계산을 통해 간단하게 열 영상(310)에서의 대상체의 위치와 가시광선 영상(320)에서의 대상체의 위치를 동일하게 만들 수 있고, 가시광선 카메라(210)의 광축과 열 카메라(220)의 광축을 일치시키기 위한 여러 작업들이 불필요하다.Referring to FIG. 2, the background included in the scene photographed by the visible
다시 도 1을 참조하여, 예시적인 실시예들에 따라 영상 처리 장치(110)가 가시광선 영상(예컨대, 제1 가시광선 영상 및/또는 제2 가시광선 영상) 및 열 영상(예컨대, 제1 열 영상 및/또는 제2 열 영상)을 처리하는 것을 이하에서 설명한다. 영상 처리 장치(110)는 가시광선 영상 및 열 영상을 포착하기 위하여 영상 처리 장치(110) 내에 적절히 배치된 적어도 하나의 가시광선 카메라(120)와 적어도 하나의 열 카메라(130)을 이용할 수 있다. 예를 들어, 영상 처리 장치(110)는 가시광선 카메라(120)로부터 원거리 장면의 가시광선 영상(예컨대, 제1 가시광선 영상) 및 근거리 장면의 가시광선 영상(예컨대, 제2 가시광선 영상)을 획득하는 동작 및 열 카메라(120)로부터 원거리 장면의 열 영상(예컨대, 제1 열 영상) 및 근거리 장면의 열 영상(예컨대, 제2 열 영상)을 획득하는 동작을 수행할 수 있다. 또한, 영상 처리 장치(110)는 원거리 장면의 가시광선 영상(예컨대, 제1 가시광선 영상) 및 열 영상(예컨대, 제1 열 영상)에 기반하여 원거리 장면에 포함된 대상체의 행위를 추정하는 동작 및 근거리 장면의 가시광선 영상(예컨대, 제2 가시광선 영상) 및 열 영상(예컨대, 제2 열 영상)에 기반하여 근거리 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 동작을 수행할 수 있다. 몇몇 실시예들에 따르면, 프로세서(150)가 메모리(160)에 저장된 컴퓨터 실행가능 명령어를 실행하는 경우 그 컴퓨터 실행가능 명령어는 프로세서(150)로 하여금 전술한 동작들을 수행하게 할 수 있다. 이러한 동작들은 가시광선 카메라(120) 및 열 카메라(130)에 의해 포착된 영상들의 특성을 감안한 것임에 주목할 수 있다. 구체적으로, 원거리 장면의 가시광선 영상 및 열 영상에서는 대상체의 전체 또는 대부분이 작게 촬상되고, 근거리 장면의 가시광선 영상 및 열 영상에서는 대상체의 일부분만이 크게 촬상되는 것이 통상적이다. 따라서, 근거리 장면의 영상들로부터는 그 장면에 포함된 대상체의 얼굴 영역의 특징 부분(예컨대, 눈, 코 및/또는 입)을 인식하는 것이 상대적으로 용이할 수 있고, 원거리 장면의 영상들로부터는 그 장면에 포함된 대상체의 얼굴, 몸통, 손 및/또는 발과 같은 특징 부분을 인식하는 것이 상대적으로 용이할 수 있다.Referring again to FIG. 1, in accordance with exemplary embodiments, the
앞서 언급된 바와 같이, 대상체의 행위를 추정하기 위해 원거리 장면의 가시광선 영상 및 원거리 장면의 열 영상이 이용될 수 있다. 가시광선 영상은 물론 열 영상을 함께 이용함으로써 상이한 조명 조건 및/또는 상이한 날씨 조건과 같은 다양한 환경에서 대상체의 행위가 더욱 정확하게 추정될 수 있다. 예를 들어, 이러한 추정을 위해 원거리 장면의 가시광선 영상 및 열 영상에 포함된 정보를 결합하는 것이 수반될 수 있다. 구체적으로, 원거리 장면의 가시광선 영상으로부터 획득되는 정보 및 원거리 장면의 열 영상으로부터 획득되는 정보가 결합될 수 있고, 이로써 결합된 영상 정보가 생성된다. 결합된 영상 정보에 기반하여 대상체가 인식되고 대상체의 특징 부분(예컨대, 얼굴, 목, 몸통, 몸, 손 및/또는 발)이 인식될 수 있다. 나아가, 인식된 대상체 및 특징 부분의 위치가 추적될 수 있다. 이러한 추적의 결과에 따라 (예컨대, 미리 설정된 후보 행위들 중에서 하나를 선택함으로써) 대상체의 행위가 추정될 수 있다.As mentioned above, the visible light image of the remote scene and the thermal image of the remote scene can be used to estimate the behavior of the object. By using thermal images as well as visible light images, the behavior of an object can be more accurately estimated in various environments, such as different lighting conditions and / or different weather conditions. For example, it may be accompanied by combining the visible light image of the far-view scene and the information contained in the thermal image for this estimation. Specifically, the information obtained from the visible light image of the far-distance scene and the information obtained from the thermal image of the far-field scene can be combined, and thus the combined image information is generated. Based on the combined image information, the object may be recognized and the feature portion (e.g., face, neck, torso, body, hands and / or feet) of the object may be recognized. Furthermore, the position of the recognized object and feature portion can be tracked. The behavior of the object can be estimated according to the result of this tracking (e.g., by selecting one of the preset candidate actions).
또한, 얼굴 영역의 온도 변화를 검출하기 위해 근거리 장면의 가시광선 영상 및 근거리 장면의 열 영상이 이용될 수 있다. 이에 따라, 단순히 열 영상에서 온도 변화를 검출하는 것보다 향상된 수준의 정확도로 얼굴 영역의 온도 변화가 검출될 수 있다. 예를 들어, 이러한 검출을 위해 근거리 장면의 가시광선 영상에서 얼굴 영역을 인식하고 이에 따라 근거리 장면의 열 영상에서 얼굴 영역을 인식하는 것이 수반될 수 있다. 구체적으로, 근거리 장면의 가시광선 영상으로부터 얼굴 영역의 특징 부분(예컨대, 눈, 코, 눈썹, 이마, 귀 목 및/또는 입)이 인식될 수 있다. 인식된 특징 부분은 근거리 장면의 열 영상에 매핑될 수 있다. 더욱 높은 정확도를 위해, 근거리 장면의 열 영상에 매핑된 특징 부분이 재정의될 수 있고, 이어서 그 특징 부분의 온도 변화가 검출될 수 있다.In addition, a visible ray image of a near scene and a thermal image of a near scene can be used to detect the temperature change of the face region. Thus, a temperature change in the face region can be detected with an improved level of accuracy than simply detecting the temperature change in the thermal image. For example, in order to detect such a situation, it may be recognized that the face region is recognized in the visible ray image of the near scene and accordingly, the face region is recognized in the thermal image of the near scene. Specifically, feature portions (e.g., eyes, nose, eyebrows, forehead, earlobe, and / or mouth) of the face region can be recognized from the visible ray image of the near scene. The recognized feature portion may be mapped to the thermal image of the near scene. For higher accuracy, the feature portion mapped to the thermal image of the near scene may be redefined, and then the temperature change of the feature portion may be detected.
메모리(160)에는 앞서 언급된 컴퓨터 실행가능 명령어 외에도, 가시광선 카메라(120) 및 열 카메라(130)에 의해 포착된 영상들뿐만 아니라 위와 같이 추정된 행위 및 검출된 온도 변화를 나타내는 데이터가 저장될 수 있다.In addition to the above-mentioned computer-executable instructions, the
대상체의 행위 추정의 결과 및 얼굴 영역의 온도 변화 검출의 결과는 영상 처리 장치(110)로부터 범죄 상황 예측 장치(170)로 전송된다. 범죄 상황 예측 장치(170)는 행위 추정의 결과 및/또는 온도 변화 검출의 결과에 기반하여 범죄 상황이 발생할 것인지 예측하도록 구성된다. 예를 들어, 범죄 상황 예측 장치(170)는 추정된 행위가 잠재적 범죄 행위를 나타내는지 판정할 수 있다. 다른 예로서, 범죄 상황 예측 장치(170)는 검출된 온도 변화가 범죄 행위와 연관되거나 그 징조로 볼 수 있는 심리 상태(불안, 초조, 공포심 등)를 나타내는지 판정할 수 있다. 범죄 상황 예측 장치(170)는 범죄 상황의 발생이 예측된다고 판정하는 경우 경찰서나 감시/관제 센터의 관련 시스템에 이를 통지할 수 있다.The result of the behavior estimation of the object and the result of the temperature change detection of the face region are transmitted from the
몇몇 실시예들에서, 도 1에 도시된 바와 같이, 범죄 상황 예측 장치(170)는 영상 처리 장치(110)의 외부에 (예컨대, 도 1에 도시되지 않은 서버 장치에 포함되어) 배치되고 영상 처리 장치(110)와 통신 가능하게 연결될 수 있다. 다른 실시예들에 따르면, 범죄 상황 예측 장치(170)는 영상 처리 장치(110) 내에 포함될 수 있거나, 범죄 상황 예측 장치(170)의 동작들이 영상 처리 장치(110)의 프로세서(150)에 의해 수행되는 방식으로 영상 처리 장치(110) 내에 구현될 수 있다.In some embodiments, as shown in FIG. 1, the criminal
도 4는 예시적인 실시예에 따라 범죄 상황 예측 시스템을 이용하여 범죄 상황의 발생을 예측하는 과정을 도시한 순서도이다. 몇몇 실시예들에서, 예시적인 과정(400)의 각 단계는 범죄 상황 예측 시스템(100)의 영상 처리 장치(110)(특히, 영상 처리 장치(110)에 포함된 프로세서(150)) 또는 범죄 상황 예측 장치(170)에 의해 수행될 수 있다. 도 4에 도시된 순서도에서는 과정(400)을 복수 개의 단계로 나누어 기재하였는데, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 병렬적으로 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행될 수 있고, 도 4에 도시되지 않은 하나 이상의 단계가 과정(400)에 부가될 수 있다.4 is a flowchart illustrating a process of predicting the occurrence of a crime using a crime situation predicting system according to an exemplary embodiment. In some embodiments, each step of the
단계 405에서, 영상 처리 장치(110)는 적어도 하나의 가시광선 카메라(120)로부터 제1 가시광선 영상 및 제2 가시광선 영상을 획득하고 적어도 하나의 열 카메라(130)로부터 제1 가시광선 영상에 대응하는 제1 열 영상 및 제2 가시광선 영상에 대응하는 제2 열 영상을 획득한다. 제1 가시광선 영상 및 제1 열 영상은 원거리 장면을 나타낼 수 있고, 제2 가시광선 영상 및 제2 열 영상은 근거리 장면을 나타낼 수 있다.In
단계 410에서, 영상 처리 장치(110)는 획득된 영상들 중 원거리 장면을 나타내는 영상(이하, 원거리 영상이라고도 지칭됨)과 근거리 장면을 나타내는 영상(이하, 근거리 영상이라고도 지칭됨)을 식별한다.In
몇몇 실시예들에서, 이러한 식별은 가시광선 카메라(120)의 열 카메라(130)의 설정 및 배치에 기반할 수 있다. 예를 들어, 영상 처리 장치(110)가 원거리 장면의 가시광선 영상(예컨대, 제1 가시광선 영상)과 근거리 장면의 가시광선 영상(예컨대, 제2 가시광선 영상)을 각각 포착하는 두 개의 가시광선 카메라(120) 및 원거리 장면의 열 영상(예컨대, 제1 열 영상)과 근거리 장면의 열 영상(예컨대, 제2 열 영상)을 각각 포착하는 두 개의 열 카메라(130)를 포함하도록 구성된 경우, 영상 처리 장치(110)는 획득된 영상이 두 개의 가시광선 카메라(120) 및 두 개의 열 카메라(130) 중 어느 카메라에서 포착되었는지에 따라 그 영상이 원거리 장면을 나타내는지 근거리 장면을 나타내는지 식별할 수 있다. 다른 예로서, 영상 처리 장치(110)가 주기적으로 원거리 장면의 가시광선 영상(예컨대, 제1 가시광선 영상)과 근거리 장면의 가시광선 영상(예컨대, 제2 가시광선 영상)을 포착하는 하나의 가시광선 카메라(120) 및 원거리 장면의 열 영상(예컨대, 제1 열 영상)과 근거리 장면의 열 영상(예컨대, 제2 열 영상)을 각각 포착하는 두 개의 열 카메라(130)를 포함하도록 구성된 경우, 영상 처리 장치(110)는 획득된 영상이 하나의 가시광선 카메라(120) 및 두 개의 열 카메라(130) 중 어느 카메라에서 포착되었는지, 또한 만일 그 영상이 하나의 가시광선 카메라(120)에서 포착되었다면 어느 시구간 내에서 포착되었는지에 따라 그 영상이 원거리 장면을 나타내는지 근거리 장면을 나타내는지 식별할 수 있다. In some embodiments, this identification may be based on the configuration and placement of the
몇몇 다른 실시예들에서, 획득된 영상들 중 원거리 영상과 근거리 영상을 식별하는 것은 그 영상들이 나타내는 특징에 기반하여 수행될 수 있다. 예컨대, 통상적으로 열 카메라에 의해 촬영된 대상체는 배경에 비해 밝으므로, 소정의 열 영상의 전체 화소 중 밝은 화소(예컨대, 미리 설정된 값 이상의 밝기를 갖는 화소)의 개수를 구함으로써 그 열 영상이 원거리 장면을 나타내는지 또는 근거리 장면을 나타내는지 식별할 수 있다. 이러한 식별을 위해, 고정된 임계치를 기반으로 영상의 이진화가 수행되거나, 영상의 평균과 표준편차를 기반으로 영상에 대하여 적응적 전역 이진화 및 적응적 지역 이진화가 적용될 수 있다.In some other embodiments, identifying the far and near images of the acquired images may be performed based on the features represented by the images. For example, since a subject photographed by a thermal camera is generally brighter than a background, the number of bright pixels (for example, pixels having a brightness higher than a preset value) among all the pixels of a predetermined thermal image is obtained, Whether it represents a scene or a near scene. For this identification, image binarization may be performed based on a fixed threshold, or adaptive global binarization and adaptive local binarization may be applied to the image based on the mean and standard deviation of the image.
단계 415에서, 영상 처리 장치(110)는 처리될 가시광선 영상 및 그에 대응하는 열 영상이 원거리 영상인지 또는 근거리 영상인지에 따라 단계 420 또는 단계 445로 분기한다. 아래에서 기술되는 바와 같이, 이러한 분기에 따라, 원거리 장면의 가시광선 영상 및 열 영상으로부터는 대상체 및 그 대상체의 얼굴, 몸통, 손 및 발과 같은 특징 부분이 인식될 수 있고 그 대상체의 행위가 추정될 수 있으며, 근거리 장면의 가시광선 영상 및 열 영상으로부터는 대상체의 얼굴 영역에서 눈, 코 및 입과 같은 특징 부분이 인식될 수 있고 그 얼굴 영역의 온도 변화가 검출될 수 있다. 예컨대, 도 5를 참조하면, 정지 영상(510)은 원거리 장면의 가시광선 영상에서 대상체 및 특징 부분을 검출하는 것을 예시하고 정지 영상(520)은 원거리 장면의 열 영상에서 대상체 및 특징 부분을 검출하는 것을 예시함을 알 수 있다. 또한, 도 6을 참조하면, 정지 영상(610)은 얼굴 영역이 대부분을 차지하는 근거리 장면의 가시광선 영상을 예시하고, 정지 영상(620)은 그 가시광선 영상(610)에서 검출된 얼굴 특징 부분을 나타내며, 정지 영상(630)은 가시광선 영상에서 검출된 얼굴 특징 부분을 근거리 장면의 열 영상에 매핑하고 재정의하는 것을 예시함을 알 수 있다.In step 415, the
과정(400)이 단계 415에서 단계 420으로 진행되는 경우, 원거리 장면의 가시광선 영상 및 열 영상이 처리된다. 단계 420에서, 더욱 정확한 대상체 검출을 위해, 영상 처리 장치(110)는 원거리 장면의 가시광선 영상으로 획득되는 정보 및 원거리 장면의 열 영상으로부터 획득되는 정보를 결합하여 결합된 영상 정보를 생성한다. 예컨대, 이러한 결합된 영상 정보의 생성은 원거리 장면의 가시광선 영상 및 열 영상에 대하여 영상 융합 기법을 적용하는 것을 수반할 수 있다. 예를 들어, 픽셀 수준 융합(pixel-level fusion), 특징 수준 융합(feature-level fusion), 판정 수준 융합(decision-level fusion), 스코어 수준 융합(score-level fusion) 또는 다른 적절한 영상 융합이 적용될 수 있다.When the
단계 425에서, 영상 처리 장치(110)는 결합된 영상 정보를 이용하여 대상체를 검출한다. 예를 들어, 이러한 대상체 검출을 위해 GEI(Gait Energy Image), log-polar histogram 및/또는 contour saliency map이 사용되거나 Adaboost(adaptive boost) 알고리즘과 같은 학습 기반 알고리즘이 사용될 수 있다.In
단계 430에서, 영상 처리 장치(110)는 검출된 대상체의 특징 부분(예컨대, 얼굴, 목, 몸, 손 및/또는 발)을 검출한다. 예컨대, 이러한 특징 추출을 위해 영상 이진화, 경계 추적, 라벨링 및/또는 모폴로지가 이용될 수 있다.In
단계 435에서, 영상 처리 장치(110)는 추출된 대상체 및 특징 부분을 추적한다. 예를 들어, 이러한 추적은 대상체의 등속도 운동 또는 등가속도 운동과 같은 모델을 기반으로 연속적인 영상에서 대상체의 위치를 산출하는 것 및/또는 대상체의 행위를 나타내는 특징 부분(예컨대, 얼굴, 목, 몸, 손, 팔 및/또는 발)의 위치를 산출하는 것을 포함할 수 있다.In
단계 440에서, 영상 처리 장치(110)는 위와 같은 추적의 결과에 기반하여 대상체의 행위가 어떤 행위인지 추정한다. 이러한 행위의 추정은 기 설정된 후보 행위들(예컨대, 멱살을 잡는 행위와 발로 차는 행위와 같이 범죄 현장에서 자주 나타나는 패턴의 행위들) 중에서 어떤 행위를 선택하는 것을 포함할 수 있다. 이러한 행위 추정을 위해 LDA(Linear Discriminant Analysis), SVM(Support Vector Machine) 및 MLP(Multi-Layer Perceptron)과 같은 분류 기법이 이용될 수 있다.In
과정(400)이 단계 415에서 단계 445로 진행되는 경우, 근거리 장면의 가시광선 영상 및 열 영상이 처리된다. 단계 445에서, 영상 처리 장치(110)는 근거리 장면의 가시광선 영상으로부터 대상체의 얼굴 영역 및 그 얼굴 영역의 특징 부분(예컨대, 눈, 코, 눈썹, 이마, 귀, 목 및/또는 입)을 검출한다. 예를 들어, 정확한 검출을 위해, Adaboost 알고리즘, SURF(Speeded Up Robust Features) 알고리즘, Camshift(continuously adaptive mean shift) 알고리즘, SIFT(Scale-Invariant Feature Transform) 알고리즘, 적응적 템플릿 정합(adaptive template matching) 알고리즘 또는 RED(Rapid Eye Detection) 알고리즘이 근거리 장면의 가시광선 영상에 적용될 수 있다.When the
단계 450에서, 영상 처리 장치(110)는 근거리 장면의 가시광선 영상으로부터 인식된 얼굴 영역 및 특징 부분을 근거리 장면의 열 영상에 매핑한다. 원래의 근거리 장면의 열 영상 자체로부터 대상체의 얼굴 영역과 그 특징 부분을 정확하게 검출하는 것은 어려운 반면, 이와 같은 매핑을 통해 얼굴 영역과 그 특징 부분이 근거리 장면의 열 영상 내에도 더 높은 정확도로 설정될 수 있다. 예를 들어, 가시광선 영상 내 얼굴 영역 및 특징 부분은 기하학적 변환(geometric transform)을 통해 열 영상에 매핑될 수 있고, 이러한 기하학적 변환은 캘리브레이션(calibration) 작업을 수반할 수 있다.In
단계 455에서, 영상 처리 장치(110)는 얼굴 영역 및 그 특징 부분이 매핑된 근거리 장면의 열 영상에서 그 특징 부분을 재정의한다. 예를 들어, 근거리 장면의 열 영상의 화소들의 밝기 분포를 이용하여 얼굴 영역의 특징 부분이 더욱 정확하게 지정될 수 있다. 이와 같이 가시광선 영상과 더불어 열 영상에서 얼굴 영역과 그 특징 영역이 검출할 수 있는바, 가시광선 영상을 이용한 얼굴 인식 및 열 영상을 이용한 얼굴 인식뿐만 아니라 가시광선 영상 및 열 영상을 이용한 얼굴 인식이 수행될 수 있다. 따라서, 소정의 실시예들에 따르면, 범죄가 발생된 경우 더욱 정확한 얼굴 인식을 통해 그 범죄의 피의자 및 피해자의 신원 정보를 확보하고 범죄에 신속하게 대처하는 것이 가능하다.In
단계 460에서, 영상 처리 장치(110)는 근거리 장면의 열 영상에서 재정의된 특징 부분에서의 온도 변화를 검출한다.In
얼굴 영역의 특징 부분의 온도 변화 검출에 더하여, 검출된 온도 변화를 기반으로 대상체의 심리 상태(예컨대, 초조, 불안, 공포심)가 추정될 수 있다(단계 465). 이러한 심리 상태 추정은 범죄 상황 예측 장치(160)에서 수행될 수 있다. 다만, 앞서 언급된 바와 같이, 범죄 상황 예측 장치(160)는 영상 처리 장치(110)의 외부에 배치되거나, 영상 처리 장치(110) 내에 포함되거나, 영상 처리 장치(110) 내에 구현될 수 있다.In addition to the temperature change detection of the feature portion of the face region, the psychological state (e.g., anxiety, anxiety, frightness) of the subject can be estimated based on the detected temperature change (Step 465). Such a psychological state estimation can be performed in the criminal
예를 들어, 대상체의 심리가 초조하거나 불안한 경우 대상체의 맥박이 급격히 빨라지거나 얼굴의 온도가 높아지고, 이로 인해 대상체의 귀, 목 및/또는 볼과 같은 부분의 온도가 높아지거나 급격히 변한다는 점을 이용하여, 대상체의 심리 상태가 추정될 수 있다. 대상체의 심리 상태 추정은 특징 부분들 전부 또는 일부에서의 온도의 평균, 표준편차 및/또는 온도 분포를 분류하는 것을 수반할 수 있고, 이러한 분류는 LDA(Linear Discriminant Analysis), SVM(Support Vector Machine) 및 MLP(Multi-Layer Perceptron)과 같은 기법을 통해 수행될 수 있다. 또한, 대상체의 심리 상태 추정은 가시광선 영상의 정보 및 열 영상의 정보를 결합하는 것을 수반할 수 있고, 이러한 결합은 전술한 스코어 수준 융합 기법 내지 다른 영상 융합 기법을 이용하여 수행될 수 있다.For example, if the subject's feelings are irritated or unstable, the pulse rate of the subject is rapidly increased or the temperature of the face is raised, which causes the temperature of the ear, neck, and / or ball of the subject to increase or suddenly change The psychological state of the object can be estimated. The psychological state estimation of an object may involve classifying the mean, standard deviation, and / or temperature distribution of temperature in all or a portion of the features, such as Linear Discriminant Analysis (LDA), SVM (Support Vector Machine) And Multi-Layer Perceptron (MLP). In addition, the psychological state estimation of the object may involve combining the information of the visible light image and the information of the thermal image, and this combination may be performed using the above-described score-level fusion technique or other image fusion technique.
단계 470에서, 범죄 상황 예측 장치(160)는 전술한 행위 추정의 결과에 기반하여 범죄 상황을 예측한다. 대안적으로 또는 추가적으로, 범죄 상황 예측 장치(160)는 전술한 온도 변화 검출의 결과 및/또는 심리 상태 추정의 결과에 기반하여 범죄 상황을 예측한다. 이와 같이, 범죄 상황 예측 시스템(100)은 가시광선 영상 및 열 영상을 모두 이용하는바, 다양한 환경(낮, 밤, 눈, 안개, 비 등)에서 범죄 상황 예측의 정확도를 높일 수 있다.At
한편, 소정의 실시예는 본 명세서에서 기술한 과정을 컴퓨터 상에서 수행하기 위한 프로그램을 포함하는 컴퓨터 판독 가능 저장 매체를 포함할 수 있다. 이러한 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이 컴퓨터 판독 가능 저장 매체는 개시되는 실시예를 위하여 특별히 설계되고 구성된 것들일 수 있다. 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.On the other hand, certain embodiments may include a computer readable storage medium comprising a program for performing the procedures described herein on a computer. Such computer-readable storage media may include program instructions, local data files, local data structures, etc., alone or in combination. The computer-readable storage medium may be those specially designed and / or configured for the disclosed embodiments. Examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floppy disks, and ROMs, And hardware devices specifically configured to store and execute the same program instructions. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, . Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by equivalents to the appended claims, as well as the appended claims.
110: 영상 처리 장치
120: 가시광선 카메라
130: 열 카메라
140: 영상 생성부
150: 프로세서
160: 메모리
170: 범죄 상황 예측 장치110: Image processing device
120: Visible light camera
130: Thermal camera
140:
150: Processor
160: Memory
170: Crime situation prediction device
Claims (11)
상기 영상 생성부와 연결된 프로세서; 및
상기 프로세서와 연결되고 컴퓨터 실행가능 명령어가 저장된 메모리를 포함하되,
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금,
상기 적어도 하나의 가시광선 카메라로부터 원거리 장면의 제1 가시광선 영상 및 상기 원거리 장면보다 상기 영상 생성부로부터 가까운 근거리 장면의 제2 가시광선 영상을 획득하는 동작;
상기 적어도 하나의 열 카메라로부터 상기 원거리 장면의 제1 열 영상 및 상기 근거리 장면의 제2 열 영상을 획득하는 동작;
상기 제1 가시광선 영상 및 상기 제1 열 영상에 기반하여 상기 원거리 장면에 포함된 대상체의 행위를 추정하는 동작; 및
상기 제2 가시광선 영상 및 상기 제2 열 영상에 기반하여 상기 근거리 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 동작을 수행하게 하는,
영상 처리 장치.
An image generating unit including at least one visible light camera and at least one thermal camera;
A processor coupled to the image generator; And
A memory coupled to the processor and storing computer executable instructions,
The computer-executable instructions, when executed by the processor, cause the processor to:
Obtaining a first visible light image of a remote scene from the at least one visible light camera and a second visible light image of a near scene from the image generating unit than the remote scene;
Obtaining a first column image of the far-range scene and a second column image of the near-field scene from the at least one column camera;
Estimating an action of an object included in the remote scene based on the first visible light image and the first column image; And
A second visible light ray image, and a second thermal ray image, the method comprising: detecting a temperature change of a face region included in the near-
Image processing apparatus.
상기 제1 가시광선 영상을 포착하는 가시광선 카메라와 상기 제1 열 영상을 포착하는 열 카메라는 평행한 광축을 가지도록 배치되고, 상기 제2 가시광선 영상을 포착하는 가시광선 카메라와 상기 제2 열 영상을 포착하는 열 카메라는 평행한 광축을 가지도록 배치되는,
영상 처리 장치.
The method according to claim 1,
Wherein the visible light camera capturing the first visible light image and the thermal camera capturing the first thermal image are arranged to have parallel optical axes, the visible light camera capturing the second visible light image, A thermal camera capturing an image is arranged to have a parallel optical axis,
Image processing apparatus.
상기 추정하는 동작은,
상기 제1 가시광선 영상으로부터 획득되는 정보 및 상기 제1 열 영상으로부터 획득되는 정보를 결합함으로써 결합된 영상 정보를 생성하는 동작;
상기 결합된 영상 정보를 이용하여 상기 대상체 및 상기 대상체의 특징 부분을 인식하고 상기 대상체 및 상기 특징 부분을 추적하는 동작; 및
상기 추적의 결과에 기반하여 상기 대상체의 행위를 기 설정된 행위로 추정하는 동작을 포함하는,
영상 처리 장치.
The method according to claim 1,
The estimating operation may include:
Generating combined image information by combining information obtained from the first visible light image and information obtained from the first column image;
Recognizing a feature portion of the object and the object using the combined image information, and tracking the object and the feature portion; And
And estimating an action of the object based on a result of the tracking as a predetermined action.
Image processing apparatus.
상기 검출하는 동작은,
상기 제2 가시광선 영상으로부터 상기 얼굴 영역의 특징 부분을 인식하는 동작;
상기 인식된 특징 부분을 상기 제2 열 영상에 매핑하는 동작;
상기 제2 열 영상에 매핑된 상기 얼굴 영역의 특징 부분을 재정의하는 동작; 및
상기 재정의된 특징 부분의 온도 변화를 검출하는 동작을 포함하는,
영상 처리 장치.
The method according to claim 1,
In the detecting operation,
Recognizing a feature portion of the face region from the second visible light image;
Mapping the recognized feature portion to the second column image;
Redefining a feature portion of the face region mapped to the second column image; And
And detecting a temperature change in the redefined feature portion.
Image processing apparatus.
상기 컴퓨터 실행가능 명령어는 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금 상기 추정의 결과 및 상기 검출의 결과를 범죄 상황 예측 장치에 전송하여 상기 범죄 상황 예측 장치가 상기 추정의 결과 및 상기 검출의 결과에 기반하여 범죄 상황이 발생할 것인지 예측하도록 하는 동작을 또한 수행하게 하는,
영상 처리 장치.
The method according to claim 1,
The computer-executable instructions, when executed by the processor, cause the processor to send a result of the estimation and a result of the detection to a crime situation predicting device, such that the crime situation predicting device Based on the results of the analysis,
Image processing apparatus.
상기 적어도 하나의 가시광선 카메라로부터 원거리 장면의 제1 가시광선 영상 및 상기 원거리 장면보다 상기 영상 생성부로부터 가까운 근거리 장면의 제2 가시광선 영상을 획득하는 단계;
상기 적어도 하나의 열 카메라로부터 상기 원거리 장면의 제1 열 영상 및 상기 근거리 장면의 제2 열 영상을 획득하는 단계;
상기 제1 가시광선 영상 및 상기 제1 열 영상에 기반하여 상기 원거리 장면에 포함된 대상체의 행위를 추정하는 단계;
상기 제2 가시광선 영상 및 상기 제2 열 영상에 기반하여 상기 근거리 장면에 포함된 얼굴 영역의 온도 변화를 검출하는 단계를 포함하는,
영상 처리 방법.
1. An image processing method performed by a processor coupled to an image generator comprising at least one visible light camera and at least one thermal camera,
Obtaining a first visible light image of a remote scene from the at least one visible light camera and a second visible light image of a near scene from the image generating unit than the remote scene;
Obtaining a first column image of the far-range scene and a second column image of the near-field scene from the at least one column camera;
Estimating an action of an object included in the remote scene based on the first visible light image and the first column image;
Detecting a temperature change of a face region included in the near scene based on the second visible light image and the second column image,
Image processing method.
상기 제1 가시광선 영상이 획득된 가시광선 카메라와 상기 제1 열 영상이 획득된 열 카메라는 평행한 광축을 가지도록 배치되고, 상기 제2 가시광선 영상이 획득된 가시광선 카메라와 상기 제2 열 영상이 획득된 열 카메라는 평행한 광축을 가지도록 배치되는,
영상 처리 방법.
The method of claim 6,
Wherein the visible light camera in which the first visible light image is acquired and the thermal camera in which the first column image is acquired are arranged to have parallel optical axes, and the second visible light image is obtained by the obtained visible light camera and the second column The thermal camera from which the image is acquired is arranged so as to have a parallel optical axis,
Image processing method.
상기 추정하는 단계는,
상기 제1 가시광선 영상으로부터 획득되는 정보 및 상기 제1 열 영상으로부터 획득되는 정보를 결합함으로써 결합된 영상 정보를 생성하는 단계;
상기 결합된 영상 정보를 이용하여 상기 대상체 및 상기 대상체의 특징 부분을 인식하고 상기 대상체 및 상기 특징 부분을 추적하는 단계; 및
상기 추적의 결과에 기반하여 상기 대상체의 행위를 기 설정된 행위로 추정하는 단계를 포함하는,
영상 처리 방법.
The method of claim 6,
Wherein the estimating step comprises:
Generating combined image information by combining information obtained from the first visible light image and information obtained from the first column image;
Recognizing a feature portion of the object and the object using the combined image information, and tracking the object and the feature portion; And
And estimating an action of the object based on a result of the tracking as a predetermined action.
Image processing method.
상기 검출하는 단계는,
상기 제2 가시광선 영상으로부터 상기 얼굴 영역의 특징 부분을 인식하는 단계;
상기 인식된 특징 부분을 상기 제2 열 영상에 매핑하는 단계;
상기 제2 열 영상에 매핑된 상기 얼굴 영역의 특징 부분을 재정의하는 단계; 및
상기 재정의된 특징 부분의 온도 변화를 검출하는 단계를 포함하는,
영상 처리 방법.
The method of claim 6,
Wherein the detecting comprises:
Recognizing a feature portion of the face region from the second visible light image;
Mapping the recognized feature portion to the second column image;
Redefining a feature portion of the face region mapped to the second column image; And
And detecting a temperature change in the redefined feature portion.
Image processing method.
상기 추정의 결과 및 상기 검출의 결과를 범죄 상황 예측 장치에 전송하여 상기 범죄 상황 예측 장치가 상기 추정의 결과 및 상기 검출의 결과에 기반하여 범죄 상황이 발생할 것인지 예측하도록 하는 단계를 더 포함하는,
영상 처리 방법.
The method of claim 6,
And transmitting the result of the estimation and the detection result to a crime situation predicting device so that the crime situation predicting device predicts whether a crime situation will occur based on a result of the estimation and a result of the detection.
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140012475A KR101564760B1 (en) | 2014-02-04 | 2014-02-04 | Image processing apparatus and method for predicting criminal incident |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140012475A KR101564760B1 (en) | 2014-02-04 | 2014-02-04 | Image processing apparatus and method for predicting criminal incident |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150091808A KR20150091808A (en) | 2015-08-12 |
KR101564760B1 true KR101564760B1 (en) | 2015-10-30 |
Family
ID=54056532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140012475A KR101564760B1 (en) | 2014-02-04 | 2014-02-04 | Image processing apparatus and method for predicting criminal incident |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101564760B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101877873B1 (en) * | 2016-08-03 | 2018-07-13 | 동국대학교 산학협력단 | System and method for fear mentality analysis |
KR20230019645A (en) * | 2021-08-02 | 2023-02-09 | 성균관대학교산학협력단 | Apparatus and method for predicting body temperature and method for training same |
KR102564300B1 (en) * | 2022-07-05 | 2023-08-09 | 최양우 | System for Preventing Violence School Using Body Temperature and Behavior Pattern |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155177A (en) | 1998-11-20 | 2000-06-06 | Nikon Corp | Human body detecting device and detecting method therefor |
JP2005259049A (en) | 2004-03-15 | 2005-09-22 | Omron Corp | Face collation device |
KR101251942B1 (en) | 2012-11-14 | 2013-04-08 | 양산시 | Forest fire monitiring system and control method thereof |
-
2014
- 2014-02-04 KR KR1020140012475A patent/KR101564760B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155177A (en) | 1998-11-20 | 2000-06-06 | Nikon Corp | Human body detecting device and detecting method therefor |
JP2005259049A (en) | 2004-03-15 | 2005-09-22 | Omron Corp | Face collation device |
KR101251942B1 (en) | 2012-11-14 | 2013-04-08 | 양산시 | Forest fire monitiring system and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20150091808A (en) | 2015-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
US10755080B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US8432445B2 (en) | Air conditioning control based on a human body activity amount | |
JP7147420B2 (en) | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION | |
US9904852B2 (en) | Real-time object detection, tracking and occlusion reasoning | |
Sina et al. | Vehicle counting and speed measurement using headlight detection | |
Palaniappan et al. | Efficient feature extraction and likelihood fusion for vehicle tracking in low frame rate airborne video | |
WO2014125882A1 (en) | Information processing system, information processing method, and program | |
KR101350922B1 (en) | Method and apparatus for object tracking based on thermo-graphic camera | |
US11170272B2 (en) | Object detection device, object detection method, and computer program for object detection | |
CN110730966B (en) | System and method for pedestrian detection | |
US20150098633A1 (en) | Face detection apparatus, face detection method, and program | |
JP2009143722A (en) | Person tracking apparatus, person tracking method and person tracking program | |
CN104378582A (en) | Intelligent video analysis system and method based on PTZ video camera cruising | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
WO2014010203A1 (en) | Fall detection device, fall detection method, fall detection camera, and computer program | |
JP2020052647A (en) | Object detection device, object detection method, computer program for object detection, and vehicle control system | |
JP6708368B2 (en) | Method and system for partial concealment processing in vehicle tracking using deformable partial model | |
CN110582781A (en) | Sight tracking system and method | |
Janveja et al. | Insight: monitoring the state of the driver in low-light using smartphones | |
KR101564760B1 (en) | Image processing apparatus and method for predicting criminal incident | |
Xiao et al. | Detection of drivers visual attention using smartphone | |
JP6922821B2 (en) | Image analyzers, methods and programs | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
JP2014062415A (en) | Trajectory detector and trajectory monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181004 Year of fee payment: 4 |