KR102667876B1 - Method, apparatus and computer program for providing a tracking image of an object - Google Patents
Method, apparatus and computer program for providing a tracking image of an object Download PDFInfo
- Publication number
- KR102667876B1 KR102667876B1 KR1020180081753A KR20180081753A KR102667876B1 KR 102667876 B1 KR102667876 B1 KR 102667876B1 KR 1020180081753 A KR1020180081753 A KR 1020180081753A KR 20180081753 A KR20180081753 A KR 20180081753A KR 102667876 B1 KR102667876 B1 KR 102667876B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- surveillance camera
- movement pattern
- time period
- display time
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004590 computer program Methods 0.000 title claims description 7
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 238000012552 review Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 방법은, 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계; 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계; 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함할 수 있다.A method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object according to an embodiment of the present invention includes the first surveillance image obtained by the first surveillance camera. 1 Selecting an object to be tracked within an image; Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image; determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and displaying the first image and the second image corresponding to the determined display time period.
Description
본 발명의 실시예들은 객체의 추적 영상 제공 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.Embodiments of the present invention relate to a method, device, and computer program for providing a tracking image of an object.
오늘날 다수의 감시카메라가 도처에 설치되어 있고, 감시카메라가 획득한 영상을 분석하는 다양한 기술들이 개발되고 있다.Today, numerous surveillance cameras are installed everywhere, and various technologies are being developed to analyze the images obtained by surveillance cameras.
특히 감시카메라의 설치 대수가 증가함에 따라, 관리자가 모든 감시카메라의 영상을 육안으로 관찰하고 분석하는 것은 사실상 불가능해진 실정이다. 따라서 감시 장치에 의해 보다 정확하고 세밀하게 영상을 분석할 수 있는 방법의 필요성이 대두되고 있다.In particular, as the number of installed surveillance cameras increases, it has become virtually impossible for managers to visually observe and analyze the images from all surveillance cameras. Therefore, the need for a method to analyze images more accurately and in detail by surveillance devices is emerging.
본 발명은 복수의 감시카메라가 획득한 영상들의 유효한 영상 구간을 결정하여 제공하고자 한다.The present invention seeks to determine and provide effective video sections of images acquired by a plurality of surveillance cameras.
특히 본 발명은 객체에 대한 유효 시간대의 영상 만을 손쉽게 검토할 수 있도록 하고자 하며, 복수의 감시카메라가 획득한 객체에 대한 복수의 영상을 동시에 제공하여 객체의 이동을 한 번에 확인할 수 있도록 하고자 한다.In particular, the present invention seeks to enable the easy review of only images from the valid time zone for an object, and to simultaneously provide multiple images of an object acquired by multiple surveillance cameras to confirm the movement of the object at once.
나아가 본 발명은 객체의 이동 궤적을 보다 손쉽게 파악할 수 있도록 하고자 한다.Furthermore, the present invention seeks to make it easier to determine the movement trajectory of an object.
본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 방법은, 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계; 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계; 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함할 수 있다.A method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object according to an embodiment of the present invention includes the first surveillance image obtained by the first surveillance camera. 1 Selecting an object to be tracked within an image; Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image; determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and displaying the first image and the second image corresponding to the determined display time period.
상기 제2 감시카메라는 복수이고, 상기 복수의 제2 감시카메라는 각각 제2 영상을 획득하고, 상기 제2 영상의 표시 시구간을 결정하는 단계는 상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 복수의 감시카메라 각각 사이의 거리 중 적어도 하나에 기초하여, 상기 복수의 감시카메라 각각의 제2 영상의 표시 시구간을 결정할 수 있다. 이때 상기 제2 영상을 표시하는 단계는 상기 제1 영상 및 상기 복수의 감시카메라 각각의 제2 영상의 표시 시구간에 대응되는 복수의 감시 카메라 각각의 제2 영상을 표시할 수 있다.The second surveillance cameras are plural, each of the plurality of second surveillance cameras acquires a second image, and the step of determining a display time period of the second image includes the first movement pattern and the first surveillance camera. Based on at least one of the distances between each of the plurality of surveillance cameras, a display time period of the second image of each of the plurality of surveillance cameras may be determined. At this time, the step of displaying the second image may display the second image of each of the plurality of surveillance cameras corresponding to the display time period of the first image and the second image of each of the plurality of surveillance cameras.
상기 제2 영상을 표시하는 단계는 상기 복수의 제2 감시카메라 각각이 획득한 제2 영상 중 상기 객체를 포함하는 영상을 제1 표시 방식에 따라 표시하고, 나머지 제2 영상을 제2 표시 방식에 따라 표시할 수 있다.The step of displaying the second image includes displaying an image including the object among the second images acquired by each of the plurality of second surveillance cameras according to a first display method, and displaying the remaining second images according to a second display method. It can be displayed accordingly.
상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고, 상기 제2 영상의 표시 시구간을 결정하는 단계는 상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하는 단계; 상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하는 단계; 및 상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는 단계;를 포함할 수 있다. 이때 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리는 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 보다 짧을 수 있다.The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image, and determines a display time period of the second image. The step includes determining a display time period of the 2-1 image based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera; Based on the 2-1 image, obtaining a second movement pattern that is the movement pattern of the selected object; and determining a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera. May include ;. At this time, the distance between the first surveillance camera and the 2-1 surveillance camera may be shorter than the distance between the first surveillance camera and the 2-2 surveillance camera.
상기 제2 영상을 표시하는 단계는 상기 제1 영상, 상기 결정된 제2-1 영상의 표시 시구간에 대응되는 제2-1 영상 및 상기 결정된 제2-2 영상의 표시 시구간에 대응되는 제2-2 영상을 동시에 표시할 수 있다. The step of displaying the second image includes the first image, the 2-1 image corresponding to the determined display time period of the 2-1 image, and the 2-2 video corresponding to the determined display time period of the 2-2 image. Videos can be displayed simultaneously.
상기 제1 이동 패턴 및 상기 제2 이동 패턴은 상기 객체의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다.The first movement pattern and the second movement pattern may include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object.
상기 제2 영상을 표시하는 단계는 상기 제1 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역 및 상기 제2 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The step of displaying the second image corresponds at least a partial area containing the object in at least some frames of the first image and at least a partial area containing the object in at least some frames of the second image on a map. It can be displayed.
본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 장치는 제어부를 포함하고, 상기 제어부는 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하고, 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하고, 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하고, 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시할 수 있다.According to an embodiment of the present invention, an apparatus for providing a tracking image of an object by determining a display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object includes a control unit, wherein the control unit includes: 1 Select an object to be tracked in the first image acquired by a surveillance camera, obtain a first movement pattern, which is the movement pattern of the selected object, based on the first image, and obtain the first movement pattern and the first movement pattern 1 Based on at least one of the distances between the surveillance camera and the second surveillance camera that acquired the second image, a display time period of the second image is determined, and a second display time period corresponding to the first image and the determined display time period is provided. Video can be displayed.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features and advantages in addition to those described above will become apparent from the following drawings, claims and detailed description of the invention.
본 발명의 일 실시예에 따르면, 복수의 감시카메라가 획득한 영상들의 유효한 영상 구간을 결정하여 제공할 수 있다.According to an embodiment of the present invention, effective video sections of images acquired by a plurality of surveillance cameras can be determined and provided.
특히 객체에 대한 유효 시간대의 영상 만을 손쉽게 검토할 수 있도록 할 수 있으며, 복수의 감시카메라가 획득한 객체에 대한 서로 다른 시간대의 복수의 영상을 동시에 제공하여 객체의 이동을 한 번에 확인할 수 있도록 할 수 있다.In particular, it is possible to easily review only the images of the valid time zone for the object, and by providing multiple images of the object at different times acquired by multiple surveillance cameras at the same time, the movement of the object can be confirmed at once. You can.
나아가 객체의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.Furthermore, it is possible to more easily identify the movement trajectory of an object.
도 1은 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제어부가 복수의 제2 감시카메라 중 일부가 획득한 제2 영상의 표시 시구간을 결정한 예시이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치의 디스플레이부에 표시되는 화면의 예시이다.
도 5는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치에 의해 수행되는 객체의 추적 영상 제공 방법을 설명하기 위한 흐름도이다.Figure 1 schematically shows a system for providing a tracking image of an object according to an embodiment of the present invention.
Figure 2 schematically shows the configuration of an apparatus for providing tracking images of an object according to an embodiment of the present invention.
Figure 3 is an example of the control unit according to an embodiment of the present invention determining the display time period of the second image acquired by some of the plurality of second surveillance cameras.
Figures 4a and 4b are examples of screens displayed on the display unit of the device for providing tracking images of objects according to an embodiment of the present invention.
Figure 5 is a flowchart illustrating a method of providing a tracking image of an object performed by an apparatus for providing a tracking image of an object according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. In the following examples, singular terms include plural terms unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean the presence of features or components described in the specification, and do not exclude in advance the possibility of adding one or more other features or components. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.
도 1은 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템을 개략적으로 도시한다.Figure 1 schematically shows a system for providing a tracking image of an object according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은, 객체(410)의 추적 영상 제공 장치(100)가 추적하고자 하는 객체(410)의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하고, 이에 기초하여 객체(410)의 추적 영상을 제공할 수 있다. The system for providing tracking images of an object according to an embodiment of the present invention is a system for providing tracking images of an
가령 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은, 객체(410)가 제1 지점(520) 에서 제2 지점(530)까지 경로(510)를 따라 이동한다고 가정할 경우, 제1 감시카메라(200F)가 획득한 영상 내에서의 객체(410)의 이동 패턴을 분석하고, 이에 기초하여 제2 감시카메라(200G, 200H, 200I)가 획득한 영상의 표시 시구간을 결정할 수 있다. 이에 대한 상세한 설명은 후술한다.For example, in the system for providing tracking images of an object according to an embodiment of the present invention, assuming that the
이를 위하여 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은 객체의 추적 영상 제공 장치(100), 감시카메라(200A 내지 200I) 및 이들을 상호 연결하는 통신망(300)을 포함할 수 있다.To this end, the object tracking image providing system according to an embodiment of the present invention may include an object tracking
본 발명의 일 실시예에 따른 감시카메라(200A 내지 200I)는 영상을 획득하여 저장하거나, 다른 장치로 전송하는 다양한 장치일 수 있다. 이와 같은 감시카메라(200A 내지 200I)는 도 1에 도시된 바와 같이 감시 대상 공간에 복수개가 배치될 수 있다. 이때 각 감시카메라(200A 내지 200I)의 화각은 적어도 일부가 중복될 수도 있다.
한편 감시카메라(200A 내지 200I)는 획득한 영상을 저장하거나, 통신망(300)을 통하여 객체의 추적 영상 제공 장치(100) 등으로 전송할 수도 있다. Meanwhile, the
본 발명의 일 실시예에 따른 통신망(300)은 전술한 감시카메라(200A 내지 200I)와 후술하는 객체의 추적 영상 제공 장치(100) 간의 데이터를 송수신하는 통로로써의 역할을 수행할 수 있다. 가령 통신망(300)은 감시카메라(200A 내지 200I)가 객체의 추적 영상 제공 장치(100)로 입력 영상을 전송하는 경로를 제공할 수 있다. 이때 통신망(300)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 추적하고자 하는 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하고, 이에 기초하여 객체의 추적 영상을 제공할 수 있다.The object tracking
이때 객체의 추적 영상 제공 장치(100)는 VMS(Video Management System), CMS(Central Management System), NVR(Network Video Recorder) 및 DVR(Digital Video Recorder)중 어느 하나이거나, 어느 하나에 포함된 장치일 수 있다. 또한 객체의 추적 영상 제공 장치(100)는 전술한 장치와 구분되는 별개의 장치일 수도 있다. 다만 이하에서는 설명의 편의를 위하여 객체의 추적 영상 제공 장치(100)가 독립된 장치임을 전제로 설명한다. At this time, the object tracking
도 2는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)의 구성을 개략적으로 도시한다.Figure 2 schematically shows the configuration of an object tracking
도 2를 참조하면, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 통신부(110), 제어부(120), 디스플레이부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 2 , the
본 발명의 일 실시예에 따른 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The
본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라가 획득한 제1 영상에서 추적하고자 하는 객체의 이동 패턴을 획득하고, 이에 기초하여 하나 이상의 제2 감시카메라가 획득한 영상들의 표시 시구간을 결정할 수 있다. 이때 제어부(120)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The
이와 같은 제어부(120)는 단일 프로세서로 구성될 수도 있고, 제어부에 의해 수행되는 기능의 단위로 구분되는 복수개의 프로세서로 구성될 수도 있다. Such a
본 발명의 일 실시예에 따른 디스플레이부(130)는 제어부(120)가 생성한 전기 신호에 따라 도형, 문자 또는 이들의 조합을 표시하는 표시장치를 의미할 수 있다. 예컨대, 디스플레이부(130)는 CRT(Cathode Ray Tube), LCD(Liqu-id Crystal Display), PDP (Plasma Display Panel) 및 OLED(Organic Light Emitting Diode) 중 어느 하나로 구성될 수 있으나, 본 발명의 사상은 이에 제한되지 않는다.The
본 발명의 일 실시예에 따른 메모리(140)는 제어부(120)가 처리하는 데이터, 명령어(instructions), 프로그램, 프로그램 코드, 또는 이들의 결합 등을 일시적 또는 영구적으로 저장하는 기능을 수행한다. 또한 메모리(140)는 후술하는 바와 같이 각 감시카메라(200A 내지 200I)가 획득한 영상을 지도상에 대응시켜 표시하기 위하여, 지도, 각 감시카메라(200A 내지 200I)의 위치 정보 등을 미리 저장하는 기능을 수행할 수도 있다. 이와 같은 메모리(140)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
이하에서는 제어부(120)에 의해 수행되는 객체의 추적 영상 제공 방법을 중심으로 설명한다. 또한 설명의 편의를 위하여 도 1에 도시된 바와 같이 추적의 대상이 되는 객체(410)가 제1 지점(520) 에서 제2 지점(530)까지 경로(510)를 따라 이동한다고 가정한다. 다만 이와 같은 가정은 설명의 편의를 위한 것으로, 본 발명의 사상이 이에 한정되는 것은 아니다.Hereinafter, the description will focus on the method of providing a tracking image of an object performed by the
전술한 가정 하에, 본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)가 획득한 제1 영상 내에서 추적하고자 하는 객체(410)를 선택할 수 있다. 이때 제1 감시카메라(200F)는 기준이 되는 감시카메라로, 가령 객체(410)가 처음 등장한 영상을 획득한 감시카메라를 의미할 수도 있고, 단순히 사용자에 의해 선택된 감시카메라 일 수도 있다.Under the above-described assumption, the
본 발명의 일 실시예에 따른 제어부(120)는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다. 가령 제어부(120)는 디스플레이부(130)에 표시되는 제1 영상에서 추적하고자 하는 객체(410)를 선택하는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다.The
또한 본 발명의 일 실시예에 따른 제어부(120)는 다양한 공지의 영상 분석 기법에 기초하여 추적하고자 하는 객체(410)를 선택할 수도 있다. 가령 제어부(120)는 제1 영상에서 추적하고자 하는 객체(가령 사람, 자동차, 반려동물 등)를 인식하고, 인식된 객체를 추적할 수도 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Additionally, the
본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)가 획득한 제1 영상에 기초하여, 전술한 과정에 의해 선택된 객체(410)의 이동 패턴인 제1 이동 패턴을 획득할 수 있다. The
본 발명에서 '제1 이동 패턴' 및 '제2 이동 패턴'과 같은 객체(410)의 이동 패턴은 객체(410)의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다. 가령 객체(410)의 이동 패턴은 2m/s와 같은 객체(410)의 이동 속력을 포함할 수 있다. 다만 전술한 속력, 방향, 궤적은 패턴의 예시적인 성질로써, 객체(410)의 이동을 묘사할 수 있는 성질이라면 본 발명의 객체(410)의 이동 패턴으로써 사용될 수 있다.In the present invention, the movement pattern of the
본 발명의 일 실시예에 따른 제어부(120)는 전술한 과정에 의하여 획득된 제1 이동 패턴 및 제1 감시카메라(200F)와 제2 영상을 획득한 제2 감시카메라(200F를 제외한 나머지 감시카메라) 사이의 거리 중 적어도 하나에 기초하여, 제2 영상의 표시 시구간을 결정할 수 있다.The
가령 제어부(120)가 제1 영상에서 제1 이동 패턴으로써 객체(410)의 이동 속력인 2m/s를 획득한 경우, 제어부(120)는 제1 감시카메라(200F)와 제2 감시카메라(200 G) 사이의 거리를 고려하여, 객체(410)가 제2 감시카메라(200G)가 획득하는 제2 영상에 등장할 것으로 예상되는 시점 및 이러한 제2 영상에서 사라질 것으로 예상되는 시점 각각을 각각 시작점과 종료점으로 하는 표시 시구간을 결정할 수 있다.For example, when the
본 발명의 일 실시예에 따른 제어부(120)는 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대해서 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)가 획득한 제2 영상의 표시 시구간을 결정할 수 있다. 이때 제어부(120)는 제1 감시카메라(200F)와 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)각각 과의 거리 및 객체(410)의 이동 패턴 중 적어도 하나에 기초하여 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 각각이 획득한 제2 영상의 표시 시구간을 결정할 수 있다.The
도 3은 본 발명의 일 실시예에 따른 제어부(120)가 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 중 일부 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상(V2, V3, V4)의 표시 시구간을 결정한 예시이다.Figure 3 shows that the
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제어부(120)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2) 내의 소정의 시구간(t21~t22)을 표시 시구간으로써 결정할 수 있다. 이와 유사하게 제어부(120)는 두 번째 제2 감시카메라(200H)가 획득한 제2 영상(V3) 내의 소정의 시구간(t31~t32)을 표시 시구간으로써 결정할 수 있고, 세 번째 제2 감시카메라(200I)가 획득한 제2 영상(V4) 내의 소정의 시구간(t41~t42)을 표시 시구간으로써 결정할 수 있다. As shown in FIG. 3, the
한편 제1 영상(V1)은 제1 감시카메라가 획득한 영상으로, 이러한 제1 영상(V1) 내에서 객체(410)는 소정의 시구간(t11~t12)내에만 포함되어 있을 수 있다. 바꾸어말하면 시구간(t11~t12)에 대응되는 제1 영상(V1)에 대한 부분 영상(V1p)내에만 객체(410)가 포함되어 있을 수 있다. Meanwhile, the first image V1 is an image acquired by the first surveillance camera, and the
본 발명의 일 실시예에 따른 제어부(120)는 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상, 즉 각각의 제2 영상에 대한 부분 영상(V2p, V3p, V4p) 내에 추적하고자 하는 객체(410)가 포함되어 있는지 여부를 확인할 수 있다. 가령 본 발명의 일 실시예에 따른 제어부(120)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2)에 대한 부분 영상(V2p) 내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있고, 나아가 제1 영상(V1)에 대한 부분 영상(V1p)내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있다. 각각의 부분 영상(V2p, V3p, V4p)이 객체를 포함하는지 여부에 대한 확인 결과는 후술하는 부분 영상의 시구간 수정에 사용될 수 있다.The
사람이나 자동차와 같은 움직이는 객체(410)의 경우, 시간에 따라 또는 도로 사정에 따라 이동하는 패턴이 변화할 수 있다. 가령 객체(410)가 도시된 바와 같이 사람인 경우, 이동함에 따라 체력이 떨어져 이동 속도가 느려질 수 있다. 또한 객체(410)가 자동차인 경우 도로 사정 또는 교통랑에 따라 이동 속도가 달라질 수 있다. 본 발명의 일 실시예에 따른 제어부(120)는 시간의 흐름에 따라 객체(410)의 변화하는 이동 패턴을 반영하여 각각의 제2 감시카메라(200H, 200I)의 표시 시구간을 적절하게 결정하거나 수정하도록 할 수 있다.In the case of a moving
이를 보다 상세히 살펴보면, 본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)에 보다 인접하는 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 또는 부분 영상(V2p) 내에서의 객체(410)의 이동 패턴을 더 참조하여, 제1 감시카메라(200F)로부터 상대적으로 멀리 떨어진 제2-2 감시카메라(가령 200H)가 획득한 제2-2 영상(V3)의 표시 시구간(t31~t32)을 결정할 수 있다.Looking at this in more detail, the
가령 제1 감시카메라(200F)가 획득한 제1 영상에서 객체의 이동속도가 2m/s였다가, 전술한 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 내에서의 객체(410)의 이동속도가 1m/s로 감소하였다고 가정해 보자.For example, in the first image acquired by the first surveillance camera (200F), the moving speed of the object was 2 m/s, and then in the 2-1 image (V2) acquired by the aforementioned 2-1 surveillance camera (e.g. 200G) Let us assume that the moving speed of the
만약 나머지 제2 감시카메라(200H, 200I)가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정함에 있어서, 제1 감시카메라(200F)가 획득한 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에서 객체의 이동속도만을 고려할 경우, 결정된 제2 영상(V3, V4)의 표시 시구간은 다소 정확도가 떨어질 수 있다. When determining the display time period of the second images (V3, V4) acquired by the remaining second surveillance cameras (200H, 200I), the first image (V1) (or the first image (V1) acquired by the first surveillance camera (200F) If only the moving speed of the object in the partial image (V1p) for the first image (V1) is considered, the display time period of the determined second images (V3 and V4) may be somewhat less accurate.
따라서 본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에 기초한 객체(410)의 제1 이동 패턴, 제2-1 영상(V2p)에 기초한 객체(410)의 제2 이동 패턴 및 제1 감시카메라와의 거리 중 적어도 하나에 기초하여, 해당 감시카메라가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정하거나 수정할 수 있다. Therefore, the
이로써 본 발명은 보다 유효한 영상 구간을 결정하여 제공할 수 있다.As a result, the present invention can determine and provide a more effective video section.
본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상(즉 부분 영상(V2p, V3p, V4p))을 표시할 수 있다.The
이때 본 발명의 일 실시예에 따른 제어부(120)는 객체(410)를 포함하는지 여부와 무관하게 모든 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대한 부분 영상을 표시할 수 있다. 이로써 본 발명은 객체(410)에 대한 유효 시간대의 영상 만을 손쉽게 검토하도록 할 수 있다.At this time, the
또한 본 발명의 일 실시예에 따른 제어부(120)는 도 4a의 화면(610)과 같이 객체(410)를 포함하는 부분 영상(V2p, V3p, V4p)을 제1 표시 방식에 따라 표시하고, 나머지 부분 영상을 제2 표시 방식에 따라 표시할 수 있다. In addition, the
이때 제1 표시 방식은 강조하여 표시하는 방식, 확대시켜 표시하는 방식 중 어느 하나일 수 있고, 제2 표시 방식은 투명하게 표시하는 방식, 축소시켜 표시하는 방식 중 어느하나일 수 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 단지 객체를 포함하는 부분 영상과 객체를 포함하지 않는 부분 영상을 서로 구분하여 표시하는 방식이면 본 발명의 제1 표시 방식 및 제2 표시 방식으로 사용될 수 있다.At this time, the first display method may be either an emphasized display method or an enlarged display method, and the second display method may be either a transparent display method or a zoomed-out display method. However, this is an example and the spirit of the present invention is not limited to this. If it is a method of separately displaying a partial image including an object and a partial image not including the object, the first display method and the second display method of the present invention It can be used in this way.
한편 표시되는 부분 영상(V2p, V3p, V4p)은 객체(410)의 이동 경로(510)상에 있는 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상의 부분영상 일 수 있다. Meanwhile, the displayed partial images (V2p, V3p, V4p) may be partial images of the second image acquired by the second surveillance cameras (200G, 200H, 200I) on the
본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 부분 영상(V2p, V3p, V4p)을 지도상의 각각의 영상을 획득한 감시카메라의 위치에 대응시켜 표시할 수 있다. The
이때 제어부(120)는 제1 영상(V1) 및 부분 영상(V2p, V3p, V4p)을 동시에 표시할 수 있다. 바꾸어말하면, 제어부(120)는 복수의 영상을 동시에 표시하여 사용자가 객체(410)의 이동을 한 번에 확인하도록 할 수 있다.At this time, the
본 발명의 다른 실시예에 따른 제어부(120)는 도 4b의 화면(620)에 도시된 바와 같이 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역과 부분 영상(V2p, V3p, V4p)의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The
이로써 본 발명은 객체(410)의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.As a result, the present invention can more easily determine the movement trajectory of the
도 5는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)에 의해 수행되는 객체의 추적 영상 제공 방법을 설명하기 위한 흐름도이다. 이하에서는 도 1 내지 도 4b에서 설명한 내용되 중복되는 내용의 설명은 생략하되, 도 1 내지 도 4b를 함께 참조하여 설명한다.FIG. 5 is a flowchart illustrating a method of providing a tracking image of an object performed by the
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)가 획득한 제1 영상 내에서 추적하고자 하는 객체(410)를 선택할 수 있다.(S51)The object tracking
이때 제1 감시카메라(200F)는 기준이 되는 감시카메라로, 가령 객체(410)가 처음 등장한 영상을 획득한 감시카메라를 의미할 수도 있고, 단순히 사용자에 의해 선택된 감시카메라 일 수도 있다. At this time, the
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다. 가령 객체의 추적 영상 제공 장치(100)는 디스플레이부(130)에 표시되는 제1 영상에서 추적하고자 하는 객체(410)를 선택하는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다.The object tracking
또한 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 다양한 공지의 영상 분석 기법에 기초하여 추적하고자 하는 객체(410)를 선택할 수도 있다. 가령 객체의 추적 영상 제공 장치(100)는 제1 영상에서 추적하고자 하는 객체(가령 사람, 자동차, 반려동물 등)를 인식하고, 인식된 객체를 추적할 수도 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Additionally, the object tracking
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)가 획득한 제1 영상에 기초하여, 전술한 과정에 의해 선택된 객체(410)의 이동 패턴인 제1 이동 패턴을 획득할 수 있다. (S52)The
본 발명에서 '제1 이동 패턴' 및 '제2 이동 패턴'과 같은 객체(410)의 이동 패턴은 객체(410)의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다. 가령 객체(410)의 이동 패턴은 2m/s와 같은 객체(410)의 이동 속력을 포함할 수 있다. 다만 전술한 속력, 방향, 궤적은 패턴의 예시적인 성질로써, 객체(410)의 이동을 묘사할 수 있는 성질이라면 본 발명의 객체(410)의 이동 패턴으로써 사용될 수 있다.In the present invention, the movement pattern of the
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 전술한 과정에 의하여 획득된 제1 이동 패턴 및 제1 감시카메라(200F)와 제2 영상을 획득한 제2 감시카메라(200F를 제외한 나머지 감시카메라) 사이의 거리 중 적어도 하나에 기초하여, 제2 영상의 표시 시구간을 결정할 수 있다.(S53)The object tracking
가령 객체의 추적 영상 제공 장치(100)가 제1 영상에서 제1 이동 패턴으로써 객체(410)의 이동 속력인 2m/s를 획득한 경우, 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)와 제2 감시카메라(200 G) 사이의 거리를 고려하여, 객체(410)가 제2 감시카메라(200G)가 획득하는 제2 영상에 등장할 것으로 예상되는 시점 및 이러한 제2 영상에서 사라질 것으로 예상되는 시점 각각을 각각 시작점과 종료점으로 하는 표시 시구간을 결정할 수 있다.For example, when the object tracking
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대해서 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)가 획득한 제2 영상의 표시 시구간을 결정할 수 있다. 이때 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)와 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)각각 과의 거리 및 객체(410)의 이동 패턴 중 적어도 하나에 기초하여 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 각각이 획득한 제2 영상의 표시 시구간을 결정할 수 있다.The object tracking
다시 도 3을 참조하여 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)가 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 중 일부 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상(V2, V3, V4)의 표시 시구간을 결정한 예시를 설명한다.Referring again to FIG. 3, the
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2) 내의 소정의 시구간(t21~t22)을 표시 시구간으로써 결정할 수 있다. 이와 유사하게 객체의 추적 영상 제공 장치(100)는 두 번째 제2 감시카메라(200H)가 획득한 제2 영상(V3) 내의 소정의 시구간(t31~t32)을 표시 시구간으로써 결정할 수 있고, 세 번째 제2 감시카메라(200I)가 획득한 제2 영상(V4) 내의 소정의 시구간(t41~t42)을 표시 시구간으로써 결정할 수 있다. As shown in FIG. 3, the object tracking
한편 제1 영상(V1)은 제1 감시카메라가 획득한 영상으로, 이러한 제1 영상(V1) 내에서 객체(410)는 소정의 시구간(t11~t12)내에만 포함되어 있을 수 있다. 바꾸어말하면 시구간(t11~t12)에 대응되는 제1 영상(V1)에 대한 부분 영상(V1p)내에만 객체(410)가 포함되어 있을 수 있다. Meanwhile, the first image V1 is an image acquired by the first surveillance camera, and the
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상, 즉 각각의 제2 영상에 대한 부분 영상(V2p, V3p, V4p) 내에 추적하고자 하는 객체(410)가 포함되어 있는지 여부를 확인할 수 있다. 가령 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2)에 대한 부분 영상(V2p) 내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있고, 나아가 제1 영상(V1)에 대한 부분 영상(V1p)내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있다. 각각의 부분 영상(V2p, V3p, V4p)이 객체를 포함하는지 여부에 대한 확인 결과는 후술하는 부분 영상의 시구간 수정에 사용될 수 있다.The object tracking
사람이나 자동차와 같은 움직이는 객체(410)의 경우, 시간에 따라 또는 도로 사정에 따라 이동하는 패턴이 변화할 수 있다. 가령 객체(410)가 도시된 바와 같이 사람인 경우, 이동함에 따라 체력이 떨어져 이동 속도가 느려질 수 있다. 또한 객체(410)가 자동차인 경우 도로 사정 또는 교통랑에 따라 이동 속도가 달라질 수 있다. 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 시간의 흐름에 따라 객체(410)의 변화하는 이동 패턴을 반영하여 각각의 제2 감시카메라(200H, 200I)의 표시 시구간을 적절하게 결정하거나 수정하도록 할 수 있다.In the case of a moving
이를 보다 상세히 살펴보면, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)에 보다 인접하는 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 또는 부분 영상(V2p) 내에서의 객체(410)의 이동 패턴을 더 참조하여, 제1 감시카메라(200F)로부터 상대적으로 멀리 떨어진 제2-2 감시카메라(가령 200H)가 획득한 제2-2 영상(V3)의 표시 시구간(t31~t32)을 결정할 수 있다.Looking at this in more detail, the
가령 제1 감시카메라(200F)가 획득한 제1 영상에서 객체의 이동속도가 2m/s였다가, 전술한 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 내에서의 객체(410)의 이동속도가 1m/s로 감소하였다고 가정해 보자.For example, in the first image acquired by the first surveillance camera (200F), the moving speed of the object was 2 m/s, and then in the 2-1 image (V2) acquired by the aforementioned 2-1 surveillance camera (e.g. 200G) Let us assume that the moving speed of the
만약 나머지 제2 감시카메라(200H, 200I)가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정함에 있어서, 제1 감시카메라(200F)가 획득한 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에서 객체의 이동속도만을 고려할 경우, 결정된 제2 영상(V3, V4)의 표시 시구간은 다소 정확도가 떨어질 수 있다. When determining the display time period of the second images (V3, V4) acquired by the remaining second surveillance cameras (200H, 200I), the first image (V1) (or the first image (V1) acquired by the first surveillance camera (200F) If only the moving speed of the object in the partial image (V1p) for the first image (V1) is considered, the display time period of the determined second images (V3 and V4) may be somewhat less accurate.
따라서 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에 기초한 객체(410)의 제1 이동 패턴, 제2-1 영상(V2p)에 기초한 객체(410)의 제2 이동 패턴 및 제1 감시카메라와의 거리 중 적어도 하나에 기초하여, 해당 감시카메라가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정하거나 수정할 수 있다. Therefore, the
이로써 본 발명은 보다 유효한 영상 구간을 결정하여 제공할 수 있다.As a result, the present invention can determine and provide a more effective video section.
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상(즉 부분 영상(V2p, V3p, V4p))을 표시할 수 있다.(S54)The
이때 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 객체(410)를 포함하는지 여부와 무관하게 모든 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대한 부분 영상을 표시할 수 있다. 이로써 본 발명은 객체(410)에 대한 유효 시간대의 영상 만을 손쉽게 검토하도록 할 수 있다.At this time, the object tracking
또한 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 도 4a의 화면(610)과 같이 객체(410)를 포함하는 부분 영상(V2p, V3p, V4p)을 제1 표시 방식에 따라 표시하고, 나머지 부분 영상을 제2 표시 방식에 따라 표시할 수 있다. In addition, the
이때 제1 표시 방식은 강조하여 표시하는 방식, 확대시켜 표시하는 방식 중 어느 하나일 수 있고, 제2 표시 방식은 투명하게 표시하는 방식, 축소시켜 표시하는 방식 중 어느하나일 수 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 단지 객체를 포함하는 부분 영상과 객체를 포함하지 않는 부분 영상을 서로 구분하여 표시하는 방식이면 본 발명의 제1 표시 방식 및 제2 표시 방식으로 사용될 수 있다.At this time, the first display method may be either an emphasized display method or an enlarged display method, and the second display method may be either a transparent display method or a zoomed-out display method. However, this is an example and the spirit of the present invention is not limited to this. If it is a method of separately displaying a partial image including an object and a partial image not including the object, the first display method and the second display method of the present invention It can be used in this way.
한편 표시되는 부분 영상(V2p, V3p, V4p)은 객체(410)의 이동 경로(510)상에 있는 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상의 부분영상 일 수 있다. Meanwhile, the displayed partial images (V2p, V3p, V4p) may be partial images of the second image acquired by the second surveillance cameras (200G, 200H, 200I) on the
본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 부분 영상(V2p, V3p, V4p)을 지도상의 각각의 영상을 획득한 감시카메라의 위치에 대응시켜 표시할 수 있다. The
이때 객체의 추적 영상 제공 장치(100)는 제1 영상(V1) 및 부분 영상(V2p, V3p, V4p)을 동시에 표시할 수 있다. 바꾸어말하면, 객체의 추적 영상 제공 장치(100)는 복수의 영상을 동시에 표시하여 사용자가 객체(410)의 이동을 한 번에 확인하도록 할 수 있다.At this time, the object tracking
본 발명의 다른 실시예에 따른 객체의 추적 영상 제공 장치(100)는 도 4b의 화면(620)에 도시된 바와 같이 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역과 부분 영상(V2p, V3p, V4p)의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The
이로써 본 발명은 객체(410)의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.As a result, the present invention can more easily determine the movement trajectory of the
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.The embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded on a computer-readable medium. At this time, the media includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROM. , RAM, flash memory, etc., may include hardware devices specifically configured to store and execute program instructions.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For the sake of brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the scope of the claims are within the scope of the spirit of the present invention. It will be said to belong to
100:
200A, 200B: 영상 장치
300: 통신망100:
200A, 200B: Imaging device
300: communication network
Claims (10)
제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계;
상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계;
상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및
상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함하고,
상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고,
상기 제2 영상의 표시 시구간을 결정하는 단계는
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하는 단계;
상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하는 단계; 및
상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는 단계;를 포함하는, 객체의 추적 영상 제공 방법.In the method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object,
Selecting an object to be tracked within the first image acquired by the first surveillance camera;
Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image;
determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and
Comprising: displaying the first image and the second image corresponding to the determined display time period,
The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image,
The step of determining the display time period of the second image is
determining a display time period of the 2-1 image based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera;
Based on the 2-1 image, obtaining a second movement pattern that is the movement pattern of the selected object; and
determining a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera; A method of providing a tracking image of an object, including.
상기 제2 감시카메라는 복수이고,
상기 복수의 제2 감시카메라는 각각 제2 영상을 획득하고,
상기 제2 영상의 표시 시구간을 결정하는 단계는
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 복수의 제2 감시카메라 각각 사이의 거리 중 적어도 하나에 기초하여, 상기 복수의 제2 감시카메라 각각의 제2 영상의 표시 시구간을 결정하고,
상기 제2 영상을 표시하는 단계는
상기 제1 영상 및 상기 복수의 제2 감시카메라 각각의 제2 영상의 표시 시구간에 대응되는 복수의 제2 감시 카메라 각각의 제2 영상을 표시하는, 객체의 추적 영상 제공 방법.In paragraph 1
The second surveillance camera is plural,
The plurality of second surveillance cameras each acquire a second image,
The step of determining the display time period of the second image is
Based on at least one of the first movement pattern and the distance between the first surveillance camera and each of the plurality of second surveillance cameras, determine a display time period of the second image of each of the plurality of second surveillance cameras,
The step of displaying the second image is
A method of providing a tracking image of an object, displaying a second image of each of a plurality of second surveillance cameras corresponding to a display time period of the first image and the second image of each of the plurality of second surveillance cameras.
상기 제2 영상을 표시하는 단계는
상기 복수의 제2 감시카메라 각각이 획득한 제2 영상 중 상기 객체를 포함하는 영상을 제1 표시 방식에 따라 표시하고, 나머지 제2 영상을 제2 표시 방식에 따라 표시하는, 객체의 추적 영상 제공 방법.In paragraph 2
The step of displaying the second image is
Providing a tracking image of an object, displaying an image including the object among the second images acquired by each of the plurality of second surveillance cameras according to a first display method, and displaying the remaining second images according to a second display method. method.
상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리는 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 보다 짧은, 객체의 추적 영상 제공 방법.In paragraph 1
A method of providing a tracking image of an object, wherein the distance between the first surveillance camera and the 2-1 surveillance camera is shorter than the distance between the first surveillance camera and the 2-2 surveillance camera.
상기 제2 영상을 표시하는 단계는
상기 제1 영상, 상기 결정된 제2-1 영상의 표시 시구간에 대응되는 제2-1 영상 및 상기 결정된 제2-2 영상의 표시 시구간에 대응되는 제2-2 영상을 동시에 표시하는, 객체의 추적 영상 제공 방법.In paragraph 1
The step of displaying the second image is
Tracking an object, simultaneously displaying the first image, the 2-1 image corresponding to the determined display time period of the 2-1 image, and the 2-2 image corresponding to the determined display time period of the 2-2 image How to provide video.
상기 제1 이동 패턴 및 상기 제2 이동 패턴은 상기 객체의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함하는, 객체의 추적 영상 제공 방법.In paragraph 1
The first movement pattern and the second movement pattern include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object.
상기 제2 영상을 표시하는 단계는
상기 제1 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역 및 상기 제2 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시하는, 객체의 추적 영상 제공 방법.In paragraph 1
The step of displaying the second image is
A method of providing a tracking image of an object, wherein at least a partial area containing the object in at least some frames of the first image and at least a partial area containing the object in at least some frames of the second image are displayed in correspondence on a map. .
상기 제어부는
제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하고,
상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하고,
상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하고,
상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하고,
상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고,
상기 제어부가 상기 제2 영상의 표시 시구간을 결정함에 있어서,
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하고,
상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하고,
상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는, 객체의 추적 영상 제공 장치.In the device for providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object, the device includes a control unit,
The control unit
Select the object you want to track in the first image acquired by the first surveillance camera,
Based on the first image, obtain a first movement pattern that is the movement pattern of the selected object,
Based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image, determine a display time period of the second image,
Displaying the first image and a second image corresponding to the determined display time period,
The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image,
When the control unit determines the display time period of the second image,
Based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera, determine a display time period of the 2-1 image,
Based on the 2-1 image, obtain a second movement pattern that is the movement pattern of the selected object,
An object that determines a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera. Tracking video provision device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180081753A KR102667876B1 (en) | 2018-07-13 | 2018-07-13 | Method, apparatus and computer program for providing a tracking image of an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180081753A KR102667876B1 (en) | 2018-07-13 | 2018-07-13 | Method, apparatus and computer program for providing a tracking image of an object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200007535A KR20200007535A (en) | 2020-01-22 |
KR102667876B1 true KR102667876B1 (en) | 2024-05-21 |
Family
ID=69368747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180081753A KR102667876B1 (en) | 2018-07-13 | 2018-07-13 | Method, apparatus and computer program for providing a tracking image of an object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102667876B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784742B (en) * | 2020-06-29 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | Pedestrian cross-lens tracking method and device |
KR102347338B1 (en) * | 2021-07-05 | 2022-01-06 | 주식회사 아이티로 | Method, apparatus and computer-readable recording medium for obtaining movement path information of a dangerous object |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120120241A1 (en) * | 2010-11-12 | 2012-05-17 | Sony Corporation | Video surveillance |
KR101203971B1 (en) | 2012-04-24 | 2012-11-22 | 주식회사 아이티엑스시큐리티 | DVR and Method for Reproducing Video Data therof |
KR101856488B1 (en) * | 2017-09-06 | 2018-05-10 | 윤재민 | Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101126272B1 (en) * | 2010-04-30 | 2012-03-20 | 주식회사 아이티엑스시큐리티 | DVR and Method for Reproducing Video Data thereby |
KR101695249B1 (en) * | 2012-05-22 | 2017-01-12 | 한화테크윈 주식회사 | Method and system for presenting security image |
-
2018
- 2018-07-13 KR KR1020180081753A patent/KR102667876B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120120241A1 (en) * | 2010-11-12 | 2012-05-17 | Sony Corporation | Video surveillance |
KR101203971B1 (en) | 2012-04-24 | 2012-11-22 | 주식회사 아이티엑스시큐리티 | DVR and Method for Reproducing Video Data therof |
KR101856488B1 (en) * | 2017-09-06 | 2018-05-10 | 윤재민 | Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping |
Also Published As
Publication number | Publication date |
---|---|
KR20200007535A (en) | 2020-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2931713C (en) | Video camera scene translation | |
US8913791B2 (en) | Automatically determining field of view overlap among multiple cameras | |
JP4829290B2 (en) | Intelligent camera selection and target tracking | |
KR102161210B1 (en) | Method and Apparatus for providing multi-video summaries | |
US10116910B2 (en) | Imaging apparatus and method of providing imaging information | |
CN105306899B (en) | Method and device for processing monitoring video | |
KR20160049391A (en) | Method and Apparatus for loitering visualization | |
CN105323550A (en) | Video search and playback interface for vehicle monitor | |
JP2007299381A (en) | Method for processing queries for surveillance database | |
CN106295598A (en) | A kind of across photographic head method for tracking target and device | |
KR102667876B1 (en) | Method, apparatus and computer program for providing a tracking image of an object | |
US20160284064A1 (en) | Information processing apparatus, information processing method, and medium | |
JP6013923B2 (en) | System and method for browsing and searching for video episodes | |
JP2019135653A (en) | Monitoring system, monitoring method and monitoring program | |
JP7272449B2 (en) | Passability Judgment Method, Passage Judgment Device, and Moving Route Generation System | |
US11436841B2 (en) | Traffic information providing method and device, and computer program stored in medium in order to execute method | |
WO2020145883A1 (en) | Object tracking systems and methods for tracking an object | |
US20150237293A1 (en) | Apparatus, method, and system of controlling projection image, and recording medium storing image projection control program | |
WO2018085063A1 (en) | Segmentation-based display highlighting subject of interest | |
US10878245B2 (en) | Video content activity regions | |
KR102101445B1 (en) | Method for automatic update of candidate surveillance areas by image recording device or server using smart-rotation surveillance technology | |
KR20170093421A (en) | Method for determining object of interest, video processing device and computing device | |
KR20170006210A (en) | Surveillance method | |
KR102500838B1 (en) | Method of providing path based on surveillance zone and apparatus for the same | |
US9959460B2 (en) | Re-wandering alarm system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |