KR102667876B1 - Method, apparatus and computer program for providing a tracking image of an object - Google Patents

Method, apparatus and computer program for providing a tracking image of an object Download PDF

Info

Publication number
KR102667876B1
KR102667876B1 KR1020180081753A KR20180081753A KR102667876B1 KR 102667876 B1 KR102667876 B1 KR 102667876B1 KR 1020180081753 A KR1020180081753 A KR 1020180081753A KR 20180081753 A KR20180081753 A KR 20180081753A KR 102667876 B1 KR102667876 B1 KR 102667876B1
Authority
KR
South Korea
Prior art keywords
image
surveillance camera
movement pattern
time period
display time
Prior art date
Application number
KR1020180081753A
Other languages
Korean (ko)
Other versions
KR20200007535A (en
Inventor
정미지
이상윤
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020180081753A priority Critical patent/KR102667876B1/en
Publication of KR20200007535A publication Critical patent/KR20200007535A/en
Application granted granted Critical
Publication of KR102667876B1 publication Critical patent/KR102667876B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 방법은, 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계; 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계; 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함할 수 있다.A method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object according to an embodiment of the present invention includes the first surveillance image obtained by the first surveillance camera. 1 Selecting an object to be tracked within an image; Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image; determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and displaying the first image and the second image corresponding to the determined display time period.

Description

객체의 추적 영상 제공 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR PROVIDING A TRACKING IMAGE OF AN OBJECT}Method, device, and computer program for providing tracking images of objects {METHOD, APPARATUS AND COMPUTER PROGRAM FOR PROVIDING A TRACKING IMAGE OF AN OBJECT}

본 발명의 실시예들은 객체의 추적 영상 제공 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.Embodiments of the present invention relate to a method, device, and computer program for providing a tracking image of an object.

오늘날 다수의 감시카메라가 도처에 설치되어 있고, 감시카메라가 획득한 영상을 분석하는 다양한 기술들이 개발되고 있다.Today, numerous surveillance cameras are installed everywhere, and various technologies are being developed to analyze the images obtained by surveillance cameras.

특히 감시카메라의 설치 대수가 증가함에 따라, 관리자가 모든 감시카메라의 영상을 육안으로 관찰하고 분석하는 것은 사실상 불가능해진 실정이다. 따라서 감시 장치에 의해 보다 정확하고 세밀하게 영상을 분석할 수 있는 방법의 필요성이 대두되고 있다.In particular, as the number of installed surveillance cameras increases, it has become virtually impossible for managers to visually observe and analyze the images from all surveillance cameras. Therefore, the need for a method to analyze images more accurately and in detail by surveillance devices is emerging.

본 발명은 복수의 감시카메라가 획득한 영상들의 유효한 영상 구간을 결정하여 제공하고자 한다.The present invention seeks to determine and provide effective video sections of images acquired by a plurality of surveillance cameras.

특히 본 발명은 객체에 대한 유효 시간대의 영상 만을 손쉽게 검토할 수 있도록 하고자 하며, 복수의 감시카메라가 획득한 객체에 대한 복수의 영상을 동시에 제공하여 객체의 이동을 한 번에 확인할 수 있도록 하고자 한다.In particular, the present invention seeks to enable the easy review of only images from the valid time zone for an object, and to simultaneously provide multiple images of an object acquired by multiple surveillance cameras to confirm the movement of the object at once.

나아가 본 발명은 객체의 이동 궤적을 보다 손쉽게 파악할 수 있도록 하고자 한다.Furthermore, the present invention seeks to make it easier to determine the movement trajectory of an object.

본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 방법은, 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계; 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계; 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함할 수 있다.A method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object according to an embodiment of the present invention includes the first surveillance image obtained by the first surveillance camera. 1 Selecting an object to be tracked within an image; Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image; determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and displaying the first image and the second image corresponding to the determined display time period.

상기 제2 감시카메라는 복수이고, 상기 복수의 제2 감시카메라는 각각 제2 영상을 획득하고, 상기 제2 영상의 표시 시구간을 결정하는 단계는 상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 복수의 감시카메라 각각 사이의 거리 중 적어도 하나에 기초하여, 상기 복수의 감시카메라 각각의 제2 영상의 표시 시구간을 결정할 수 있다. 이때 상기 제2 영상을 표시하는 단계는 상기 제1 영상 및 상기 복수의 감시카메라 각각의 제2 영상의 표시 시구간에 대응되는 복수의 감시 카메라 각각의 제2 영상을 표시할 수 있다.The second surveillance cameras are plural, each of the plurality of second surveillance cameras acquires a second image, and the step of determining a display time period of the second image includes the first movement pattern and the first surveillance camera. Based on at least one of the distances between each of the plurality of surveillance cameras, a display time period of the second image of each of the plurality of surveillance cameras may be determined. At this time, the step of displaying the second image may display the second image of each of the plurality of surveillance cameras corresponding to the display time period of the first image and the second image of each of the plurality of surveillance cameras.

상기 제2 영상을 표시하는 단계는 상기 복수의 제2 감시카메라 각각이 획득한 제2 영상 중 상기 객체를 포함하는 영상을 제1 표시 방식에 따라 표시하고, 나머지 제2 영상을 제2 표시 방식에 따라 표시할 수 있다.The step of displaying the second image includes displaying an image including the object among the second images acquired by each of the plurality of second surveillance cameras according to a first display method, and displaying the remaining second images according to a second display method. It can be displayed accordingly.

상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고, 상기 제2 영상의 표시 시구간을 결정하는 단계는 상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하는 단계; 상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하는 단계; 및 상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는 단계;를 포함할 수 있다. 이때 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리는 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 보다 짧을 수 있다.The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image, and determines a display time period of the second image. The step includes determining a display time period of the 2-1 image based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera; Based on the 2-1 image, obtaining a second movement pattern that is the movement pattern of the selected object; and determining a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera. May include ;. At this time, the distance between the first surveillance camera and the 2-1 surveillance camera may be shorter than the distance between the first surveillance camera and the 2-2 surveillance camera.

상기 제2 영상을 표시하는 단계는 상기 제1 영상, 상기 결정된 제2-1 영상의 표시 시구간에 대응되는 제2-1 영상 및 상기 결정된 제2-2 영상의 표시 시구간에 대응되는 제2-2 영상을 동시에 표시할 수 있다. The step of displaying the second image includes the first image, the 2-1 image corresponding to the determined display time period of the 2-1 image, and the 2-2 video corresponding to the determined display time period of the 2-2 image. Videos can be displayed simultaneously.

상기 제1 이동 패턴 및 상기 제2 이동 패턴은 상기 객체의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다.The first movement pattern and the second movement pattern may include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object.

상기 제2 영상을 표시하는 단계는 상기 제1 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역 및 상기 제2 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The step of displaying the second image corresponds at least a partial area containing the object in at least some frames of the first image and at least a partial area containing the object in at least some frames of the second image on a map. It can be displayed.

본 발명의 일 실시예에 따른 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 장치는 제어부를 포함하고, 상기 제어부는 제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하고, 상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하고, 상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하고, 상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시할 수 있다.According to an embodiment of the present invention, an apparatus for providing a tracking image of an object by determining a display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object includes a control unit, wherein the control unit includes: 1 Select an object to be tracked in the first image acquired by a surveillance camera, obtain a first movement pattern, which is the movement pattern of the selected object, based on the first image, and obtain the first movement pattern and the first movement pattern 1 Based on at least one of the distances between the surveillance camera and the second surveillance camera that acquired the second image, a display time period of the second image is determined, and a second display time period corresponding to the first image and the determined display time period is provided. Video can be displayed.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features and advantages in addition to those described above will become apparent from the following drawings, claims and detailed description of the invention.

본 발명의 일 실시예에 따르면, 복수의 감시카메라가 획득한 영상들의 유효한 영상 구간을 결정하여 제공할 수 있다.According to an embodiment of the present invention, effective video sections of images acquired by a plurality of surveillance cameras can be determined and provided.

특히 객체에 대한 유효 시간대의 영상 만을 손쉽게 검토할 수 있도록 할 수 있으며, 복수의 감시카메라가 획득한 객체에 대한 서로 다른 시간대의 복수의 영상을 동시에 제공하여 객체의 이동을 한 번에 확인할 수 있도록 할 수 있다.In particular, it is possible to easily review only the images of the valid time zone for the object, and by providing multiple images of the object at different times acquired by multiple surveillance cameras at the same time, the movement of the object can be confirmed at once. You can.

나아가 객체의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.Furthermore, it is possible to more easily identify the movement trajectory of an object.

도 1은 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제어부가 복수의 제2 감시카메라 중 일부가 획득한 제2 영상의 표시 시구간을 결정한 예시이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치의 디스플레이부에 표시되는 화면의 예시이다.
도 5는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치에 의해 수행되는 객체의 추적 영상 제공 방법을 설명하기 위한 흐름도이다.
Figure 1 schematically shows a system for providing a tracking image of an object according to an embodiment of the present invention.
Figure 2 schematically shows the configuration of an apparatus for providing tracking images of an object according to an embodiment of the present invention.
Figure 3 is an example of the control unit according to an embodiment of the present invention determining the display time period of the second image acquired by some of the plurality of second surveillance cameras.
Figures 4a and 4b are examples of screens displayed on the display unit of the device for providing tracking images of objects according to an embodiment of the present invention.
Figure 5 is a flowchart illustrating a method of providing a tracking image of an object performed by an apparatus for providing a tracking image of an object according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. In the following examples, singular terms include plural terms unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean the presence of features or components described in the specification, and do not exclude in advance the possibility of adding one or more other features or components. In the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and shape of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown.

도 1은 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템을 개략적으로 도시한다.Figure 1 schematically shows a system for providing a tracking image of an object according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은, 객체(410)의 추적 영상 제공 장치(100)가 추적하고자 하는 객체(410)의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하고, 이에 기초하여 객체(410)의 추적 영상을 제공할 수 있다. The system for providing tracking images of an object according to an embodiment of the present invention is a system for providing tracking images of an object 410, each obtained by a plurality of surveillance cameras based on the movement pattern of the object 410 that the apparatus 100 for providing tracking images of the object 410 wants to track. The display time period of the images may be determined, and a tracking image of the object 410 may be provided based on this.

가령 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은, 객체(410)가 제1 지점(520) 에서 제2 지점(530)까지 경로(510)를 따라 이동한다고 가정할 경우, 제1 감시카메라(200F)가 획득한 영상 내에서의 객체(410)의 이동 패턴을 분석하고, 이에 기초하여 제2 감시카메라(200G, 200H, 200I)가 획득한 영상의 표시 시구간을 결정할 수 있다. 이에 대한 상세한 설명은 후술한다.For example, in the system for providing tracking images of an object according to an embodiment of the present invention, assuming that the object 410 moves along the path 510 from the first point 520 to the second point 530, the first The movement pattern of the object 410 in the image acquired by the surveillance camera 200F can be analyzed, and based on this, the display time period of the image acquired by the second surveillance camera 200G, 200H, and 200I can be determined. A detailed description of this will be provided later.

이를 위하여 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 시스템은 객체의 추적 영상 제공 장치(100), 감시카메라(200A 내지 200I) 및 이들을 상호 연결하는 통신망(300)을 포함할 수 있다.To this end, the object tracking image providing system according to an embodiment of the present invention may include an object tracking image providing device 100, surveillance cameras 200A to 200I, and a communication network 300 interconnecting them.

본 발명의 일 실시예에 따른 감시카메라(200A 내지 200I)는 영상을 획득하여 저장하거나, 다른 장치로 전송하는 다양한 장치일 수 있다. 이와 같은 감시카메라(200A 내지 200I)는 도 1에 도시된 바와 같이 감시 대상 공간에 복수개가 배치될 수 있다. 이때 각 감시카메라(200A 내지 200I)의 화각은 적어도 일부가 중복될 수도 있다.Surveillance cameras 200A to 200I according to an embodiment of the present invention may be various devices that acquire and store images or transmit them to other devices. A plurality of such surveillance cameras (200A to 200I) may be placed in the space to be monitored, as shown in FIG. 1. At this time, the angles of view of each surveillance camera (200A to 200I) may overlap at least in part.

한편 감시카메라(200A 내지 200I)는 획득한 영상을 저장하거나, 통신망(300)을 통하여 객체의 추적 영상 제공 장치(100) 등으로 전송할 수도 있다. Meanwhile, the surveillance cameras 200A to 200I may store the acquired images or transmit them to the object tracking image providing device 100 through the communication network 300.

본 발명의 일 실시예에 따른 통신망(300)은 전술한 감시카메라(200A 내지 200I)와 후술하는 객체의 추적 영상 제공 장치(100) 간의 데이터를 송수신하는 통로로써의 역할을 수행할 수 있다. 가령 통신망(300)은 감시카메라(200A 내지 200I)가 객체의 추적 영상 제공 장치(100)로 입력 영상을 전송하는 경로를 제공할 수 있다. 이때 통신망(300)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The communication network 300 according to an embodiment of the present invention may serve as a path for transmitting and receiving data between the above-described surveillance cameras 200A to 200I and the object tracking image providing device 100 described later. For example, the communication network 300 may provide a path through which the surveillance cameras 200A to 200I transmit input images to the object tracking image providing device 100. At this time, the communication network 300 may be, for example, a wired network such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), and ISDNs (Integrated Service Digital Networks), wireless LANs, CDMA, Bluetooth, or satellite communication. It may cover wireless networks such as, but the scope of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 추적하고자 하는 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하고, 이에 기초하여 객체의 추적 영상을 제공할 수 있다.The object tracking image providing device 100 according to an embodiment of the present invention determines the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object to be tracked, and based on this, the object tracking image providing device 100 tracking video can be provided.

이때 객체의 추적 영상 제공 장치(100)는 VMS(Video Management System), CMS(Central Management System), NVR(Network Video Recorder) 및 DVR(Digital Video Recorder)중 어느 하나이거나, 어느 하나에 포함된 장치일 수 있다. 또한 객체의 추적 영상 제공 장치(100)는 전술한 장치와 구분되는 별개의 장치일 수도 있다. 다만 이하에서는 설명의 편의를 위하여 객체의 추적 영상 제공 장치(100)가 독립된 장치임을 전제로 설명한다. At this time, the object tracking image providing device 100 may be one of, or a device included in, a VMS (Video Management System), CMS (Central Management System), NVR (Network Video Recorder), and DVR (Digital Video Recorder). You can. Additionally, the object tracking image providing device 100 may be a separate device from the above-described device. However, for convenience of explanation, the description below assumes that the object tracking image providing device 100 is an independent device.

도 2는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)의 구성을 개략적으로 도시한다.Figure 2 schematically shows the configuration of an object tracking image providing device 100 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 통신부(110), 제어부(120), 디스플레이부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 2 , the apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention may include a communication unit 110, a control unit 120, a display unit 130, and a memory 140.

본 발명의 일 실시예에 따른 통신부(110)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication unit 110 according to an embodiment of the present invention may be a device that includes hardware and software necessary to transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices.

본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라가 획득한 제1 영상에서 추적하고자 하는 객체의 이동 패턴을 획득하고, 이에 기초하여 하나 이상의 제2 감시카메라가 획득한 영상들의 표시 시구간을 결정할 수 있다. 이때 제어부(120)는 프로세서(Processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(Processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The control unit 120 according to an embodiment of the present invention acquires the movement pattern of an object to be tracked from the first image acquired by the first surveillance camera, and displays images acquired by one or more second surveillance cameras based on this. The time period can be determined. At this time, the control unit 120 may include all types of devices that can process data, such as a processor. Here, 'processor' may mean, for example, a data processing device built into hardware that has a physically structured circuit to perform a function expressed by code or instructions included in a program. Examples of data processing devices built into hardware include microprocessor, central processing unit (CPU), processor core, multiprocessor, and application-specific integrated (ASIC). Circuit), FPGA (Field Programmable Gate Array), etc., but the scope of the present invention is not limited thereto.

이와 같은 제어부(120)는 단일 프로세서로 구성될 수도 있고, 제어부에 의해 수행되는 기능의 단위로 구분되는 복수개의 프로세서로 구성될 수도 있다. Such a control unit 120 may be composed of a single processor or may be composed of a plurality of processors divided into units of functions performed by the control unit.

본 발명의 일 실시예에 따른 디스플레이부(130)는 제어부(120)가 생성한 전기 신호에 따라 도형, 문자 또는 이들의 조합을 표시하는 표시장치를 의미할 수 있다. 예컨대, 디스플레이부(130)는 CRT(Cathode Ray Tube), LCD(Liqu-id Crystal Display), PDP (Plasma Display Panel) 및 OLED(Organic Light Emitting Diode) 중 어느 하나로 구성될 수 있으나, 본 발명의 사상은 이에 제한되지 않는다.The display unit 130 according to an embodiment of the present invention may refer to a display device that displays shapes, letters, or a combination thereof according to an electrical signal generated by the control unit 120. For example, the display unit 130 may be composed of any one of a Cathode Ray Tube (CRT), Liquid Crystal Display (LCD), Plasma Display Panel (PDP), and Organic Light Emitting Diode (OLED), but within the scope of the present invention. is not limited to this.

본 발명의 일 실시예에 따른 메모리(140)는 제어부(120)가 처리하는 데이터, 명령어(instructions), 프로그램, 프로그램 코드, 또는 이들의 결합 등을 일시적 또는 영구적으로 저장하는 기능을 수행한다. 또한 메모리(140)는 후술하는 바와 같이 각 감시카메라(200A 내지 200I)가 획득한 영상을 지도상에 대응시켜 표시하기 위하여, 지도, 각 감시카메라(200A 내지 200I)의 위치 정보 등을 미리 저장하는 기능을 수행할 수도 있다. 이와 같은 메모리(140)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory 140 according to an embodiment of the present invention functions to temporarily or permanently store data, instructions, programs, program codes, or a combination thereof processed by the control unit 120. In addition, the memory 140 stores the map and location information of each surveillance camera (200A to 200I) in advance in order to display the images acquired by each surveillance camera (200A to 200I) in correspondence with each other on the map, as will be described later. It can also perform a function. Such memory 140 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto.

이하에서는 제어부(120)에 의해 수행되는 객체의 추적 영상 제공 방법을 중심으로 설명한다. 또한 설명의 편의를 위하여 도 1에 도시된 바와 같이 추적의 대상이 되는 객체(410)가 제1 지점(520) 에서 제2 지점(530)까지 경로(510)를 따라 이동한다고 가정한다. 다만 이와 같은 가정은 설명의 편의를 위한 것으로, 본 발명의 사상이 이에 한정되는 것은 아니다.Hereinafter, the description will focus on the method of providing a tracking image of an object performed by the control unit 120. Additionally, for convenience of explanation, it is assumed that the object 410 to be tracked moves along the path 510 from the first point 520 to the second point 530 as shown in FIG. 1 . However, this assumption is for convenience of explanation, and the idea of the present invention is not limited thereto.

전술한 가정 하에, 본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)가 획득한 제1 영상 내에서 추적하고자 하는 객체(410)를 선택할 수 있다. 이때 제1 감시카메라(200F)는 기준이 되는 감시카메라로, 가령 객체(410)가 처음 등장한 영상을 획득한 감시카메라를 의미할 수도 있고, 단순히 사용자에 의해 선택된 감시카메라 일 수도 있다.Under the above-described assumption, the control unit 120 according to an embodiment of the present invention may select an object 410 to be tracked within the first image acquired by the first surveillance camera 200F. At this time, the first surveillance camera 200F is a standard surveillance camera. For example, it may mean the surveillance camera that acquired the image where the object 410 first appeared, or it may simply be a surveillance camera selected by the user.

본 발명의 일 실시예에 따른 제어부(120)는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다. 가령 제어부(120)는 디스플레이부(130)에 표시되는 제1 영상에서 추적하고자 하는 객체(410)를 선택하는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다.The control unit 120 according to an embodiment of the present invention may select the object 410 to be tracked based on the user's input. For example, the control unit 120 may select the object 410 to be tracked based on a user's input for selecting the object 410 to be tracked in the first image displayed on the display unit 130.

또한 본 발명의 일 실시예에 따른 제어부(120)는 다양한 공지의 영상 분석 기법에 기초하여 추적하고자 하는 객체(410)를 선택할 수도 있다. 가령 제어부(120)는 제1 영상에서 추적하고자 하는 객체(가령 사람, 자동차, 반려동물 등)를 인식하고, 인식된 객체를 추적할 수도 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Additionally, the control unit 120 according to an embodiment of the present invention may select the object 410 to be tracked based on various known image analysis techniques. For example, the control unit 120 may recognize an object to be tracked (e.g., a person, a car, a companion animal, etc.) in the first image and track the recognized object. However, this is an example and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)가 획득한 제1 영상에 기초하여, 전술한 과정에 의해 선택된 객체(410)의 이동 패턴인 제1 이동 패턴을 획득할 수 있다. The control unit 120 according to an embodiment of the present invention acquires a first movement pattern, which is the movement pattern of the object 410 selected through the above-described process, based on the first image acquired by the first surveillance camera 200F. can do.

본 발명에서 '제1 이동 패턴' 및 '제2 이동 패턴'과 같은 객체(410)의 이동 패턴은 객체(410)의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다. 가령 객체(410)의 이동 패턴은 2m/s와 같은 객체(410)의 이동 속력을 포함할 수 있다. 다만 전술한 속력, 방향, 궤적은 패턴의 예시적인 성질로써, 객체(410)의 이동을 묘사할 수 있는 성질이라면 본 발명의 객체(410)의 이동 패턴으로써 사용될 수 있다.In the present invention, the movement pattern of the object 410, such as 'first movement pattern' and 'second movement pattern', may include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object 410. For example, the movement pattern of the object 410 may include the movement speed of the object 410, such as 2 m/s. However, the above-described speed, direction, and trajectory are exemplary properties of a pattern, and if they are properties that can describe the movement of the object 410, they can be used as a movement pattern of the object 410 of the present invention.

본 발명의 일 실시예에 따른 제어부(120)는 전술한 과정에 의하여 획득된 제1 이동 패턴 및 제1 감시카메라(200F)와 제2 영상을 획득한 제2 감시카메라(200F를 제외한 나머지 감시카메라) 사이의 거리 중 적어도 하나에 기초하여, 제2 영상의 표시 시구간을 결정할 수 있다.The control unit 120 according to an embodiment of the present invention includes the first movement pattern obtained through the above-described process, the first surveillance camera (200F), and the second surveillance camera (other than 200F) that acquired the second image. ), the display time period of the second image may be determined based on at least one of the distances between the two.

가령 제어부(120)가 제1 영상에서 제1 이동 패턴으로써 객체(410)의 이동 속력인 2m/s를 획득한 경우, 제어부(120)는 제1 감시카메라(200F)와 제2 감시카메라(200 G) 사이의 거리를 고려하여, 객체(410)가 제2 감시카메라(200G)가 획득하는 제2 영상에 등장할 것으로 예상되는 시점 및 이러한 제2 영상에서 사라질 것으로 예상되는 시점 각각을 각각 시작점과 종료점으로 하는 표시 시구간을 결정할 수 있다.For example, when the control unit 120 obtains 2 m/s, which is the moving speed of the object 410, as the first movement pattern in the first image, the control unit 120 controls the first surveillance camera 200F and the second surveillance camera 200. G) Considering the distance between the object 410, the starting point and the expected time point when the object 410 is expected to appear in the second image acquired by the second surveillance camera 200G and the time point when it is expected to disappear from the second image The display time period used as the end point can be determined.

본 발명의 일 실시예에 따른 제어부(120)는 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대해서 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)가 획득한 제2 영상의 표시 시구간을 결정할 수 있다. 이때 제어부(120)는 제1 감시카메라(200F)와 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)각각 과의 거리 및 객체(410)의 이동 패턴 중 적어도 하나에 기초하여 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 각각이 획득한 제2 영상의 표시 시구간을 결정할 수 있다.The control unit 120 according to an embodiment of the present invention controls the second surveillance camera (200A to 200E and 200G to 200I) acquired by each of the plurality of second surveillance cameras (200A to 200E and 200G to 200I). You can determine the display time period of the video. At this time, the control unit 120 monitors each of the first surveillance cameras 200F and the plurality of second surveillance cameras 200A to 200E and 200G to 200I based on at least one of the distance between each and the movement pattern of the object 410. 2 The display time period of the second image acquired by each of the surveillance cameras (200A to 200E and 200G to 200I) can be determined.

도 3은 본 발명의 일 실시예에 따른 제어부(120)가 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 중 일부 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상(V2, V3, V4)의 표시 시구간을 결정한 예시이다.Figure 3 shows that the control unit 120 according to an embodiment of the present invention displays a second image (V2) acquired by some of the second surveillance cameras (200G, 200H, 200I) among the second surveillance cameras (200A to 200E and 200G to 200I). , V3, V4) This is an example of determining the display time period.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제어부(120)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2) 내의 소정의 시구간(t21~t22)을 표시 시구간으로써 결정할 수 있다. 이와 유사하게 제어부(120)는 두 번째 제2 감시카메라(200H)가 획득한 제2 영상(V3) 내의 소정의 시구간(t31~t32)을 표시 시구간으로써 결정할 수 있고, 세 번째 제2 감시카메라(200I)가 획득한 제2 영상(V4) 내의 소정의 시구간(t41~t42)을 표시 시구간으로써 결정할 수 있다. As shown in FIG. 3, the control unit 120 according to an embodiment of the present invention controls a predetermined time period (t21 to t22) within the second image (V2) acquired by the first second surveillance camera (200G). It can be determined by the display time period. Similarly, the control unit 120 may determine a predetermined time period (t31 to t32) in the second image (V3) acquired by the second second surveillance camera (200H) as the display time period, and the third second surveillance camera (200H) A predetermined time period (t41 to t42) in the second image V4 acquired by the camera 200I can be determined as the display time period.

한편 제1 영상(V1)은 제1 감시카메라가 획득한 영상으로, 이러한 제1 영상(V1) 내에서 객체(410)는 소정의 시구간(t11~t12)내에만 포함되어 있을 수 있다. 바꾸어말하면 시구간(t11~t12)에 대응되는 제1 영상(V1)에 대한 부분 영상(V1p)내에만 객체(410)가 포함되어 있을 수 있다. Meanwhile, the first image V1 is an image acquired by the first surveillance camera, and the object 410 within the first image V1 may be included only within a predetermined time period (t11 to t12). In other words, the object 410 may be included only in the partial image V1p for the first image V1 corresponding to the time period t11 to t12.

본 발명의 일 실시예에 따른 제어부(120)는 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상, 즉 각각의 제2 영상에 대한 부분 영상(V2p, V3p, V4p) 내에 추적하고자 하는 객체(410)가 포함되어 있는지 여부를 확인할 수 있다. 가령 본 발명의 일 실시예에 따른 제어부(120)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2)에 대한 부분 영상(V2p) 내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있고, 나아가 제1 영상(V1)에 대한 부분 영상(V1p)내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있다. 각각의 부분 영상(V2p, V3p, V4p)이 객체를 포함하는지 여부에 대한 확인 결과는 후술하는 부분 영상의 시구간 수정에 사용될 수 있다.The control unit 120 according to an embodiment of the present invention tracks the object to be tracked in the second image corresponding to the display time period determined by the above-described process, that is, the partial images V2p, V3p, and V4p for each second image. You can check whether (410) is included. For example, the control unit 120 according to an embodiment of the present invention determines whether the object 410 is included in the partial image (V2p) of the second image (V2) acquired by the first second surveillance camera (200G). You can check, or furthermore, check whether the object 410 is included in the partial image V1p of the first image V1. The result of checking whether each partial image (V2p, V3p, V4p) includes an object can be used for time section correction of the partial image, which will be described later.

사람이나 자동차와 같은 움직이는 객체(410)의 경우, 시간에 따라 또는 도로 사정에 따라 이동하는 패턴이 변화할 수 있다. 가령 객체(410)가 도시된 바와 같이 사람인 경우, 이동함에 따라 체력이 떨어져 이동 속도가 느려질 수 있다. 또한 객체(410)가 자동차인 경우 도로 사정 또는 교통랑에 따라 이동 속도가 달라질 수 있다. 본 발명의 일 실시예에 따른 제어부(120)는 시간의 흐름에 따라 객체(410)의 변화하는 이동 패턴을 반영하여 각각의 제2 감시카메라(200H, 200I)의 표시 시구간을 적절하게 결정하거나 수정하도록 할 수 있다.In the case of a moving object 410 such as a person or a car, the movement pattern may change depending on time or road conditions. For example, if the object 410 is a person as shown, as it moves, its physical strength may decrease and its movement speed may slow down. Additionally, if the object 410 is a car, the moving speed may vary depending on road conditions or traffic flow. The control unit 120 according to an embodiment of the present invention appropriately determines the display time period of each of the second surveillance cameras 200H and 200I by reflecting the changing movement pattern of the object 410 over time. You can edit it.

이를 보다 상세히 살펴보면, 본 발명의 일 실시예에 따른 제어부(120)는 제1 감시카메라(200F)에 보다 인접하는 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 또는 부분 영상(V2p) 내에서의 객체(410)의 이동 패턴을 더 참조하여, 제1 감시카메라(200F)로부터 상대적으로 멀리 떨어진 제2-2 감시카메라(가령 200H)가 획득한 제2-2 영상(V3)의 표시 시구간(t31~t32)을 결정할 수 있다.Looking at this in more detail, the control unit 120 according to an embodiment of the present invention controls the 2-1 video (V2) acquired by the 2-1 surveillance camera (for example, 200G), which is closer to the first surveillance camera (200F). Or, further referring to the movement pattern of the object 410 in the partial image (V2p), the 2-2 acquired by the 2-2 surveillance camera (for example, 200H) that is relatively far away from the first surveillance camera (200F) The display time period (t31 to t32) of the image (V3) can be determined.

가령 제1 감시카메라(200F)가 획득한 제1 영상에서 객체의 이동속도가 2m/s였다가, 전술한 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 내에서의 객체(410)의 이동속도가 1m/s로 감소하였다고 가정해 보자.For example, in the first image acquired by the first surveillance camera (200F), the moving speed of the object was 2 m/s, and then in the 2-1 image (V2) acquired by the aforementioned 2-1 surveillance camera (e.g. 200G) Let us assume that the moving speed of the object 410 in is reduced to 1 m/s.

만약 나머지 제2 감시카메라(200H, 200I)가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정함에 있어서, 제1 감시카메라(200F)가 획득한 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에서 객체의 이동속도만을 고려할 경우, 결정된 제2 영상(V3, V4)의 표시 시구간은 다소 정확도가 떨어질 수 있다. When determining the display time period of the second images (V3, V4) acquired by the remaining second surveillance cameras (200H, 200I), the first image (V1) (or the first image (V1) acquired by the first surveillance camera (200F) If only the moving speed of the object in the partial image (V1p) for the first image (V1) is considered, the display time period of the determined second images (V3 and V4) may be somewhat less accurate.

따라서 본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에 기초한 객체(410)의 제1 이동 패턴, 제2-1 영상(V2p)에 기초한 객체(410)의 제2 이동 패턴 및 제1 감시카메라와의 거리 중 적어도 하나에 기초하여, 해당 감시카메라가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정하거나 수정할 수 있다. Therefore, the control unit 120 according to an embodiment of the present invention controls the first movement pattern of the object 410 based on the first image V1 (or the partial image V1p for the first image V1), the second -1 Display time period of the second images (V3, V4) acquired by the surveillance camera based on at least one of the second movement pattern of the object 410 based on the image (V2p) and the distance to the first surveillance camera can be determined or modified.

이로써 본 발명은 보다 유효한 영상 구간을 결정하여 제공할 수 있다.As a result, the present invention can determine and provide a more effective video section.

본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상(즉 부분 영상(V2p, V3p, V4p))을 표시할 수 있다.The control unit 120 according to an embodiment of the present invention displays the first image V1 (or a partial image V1p for the first image V1) and the second image corresponding to the display time period determined by the above-described process. (That is, partial images (V2p, V3p, V4p)) can be displayed.

이때 본 발명의 일 실시예에 따른 제어부(120)는 객체(410)를 포함하는지 여부와 무관하게 모든 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대한 부분 영상을 표시할 수 있다. 이로써 본 발명은 객체(410)에 대한 유효 시간대의 영상 만을 손쉽게 검토하도록 할 수 있다.At this time, the control unit 120 according to an embodiment of the present invention may display partial images for all second surveillance cameras (200A to 200E and 200G to 200I) regardless of whether or not they include the object 410. As a result, the present invention can easily review only the images in the valid time zone for the object 410.

또한 본 발명의 일 실시예에 따른 제어부(120)는 도 4a의 화면(610)과 같이 객체(410)를 포함하는 부분 영상(V2p, V3p, V4p)을 제1 표시 방식에 따라 표시하고, 나머지 부분 영상을 제2 표시 방식에 따라 표시할 수 있다. In addition, the control unit 120 according to an embodiment of the present invention displays partial images (V2p, V3p, V4p) including the object 410 according to the first display method, as shown in the screen 610 of FIG. 4A, and displays the remaining images (V2p, V3p, V4p) including the object 410 according to the first display method. The partial image may be displayed according to the second display method.

이때 제1 표시 방식은 강조하여 표시하는 방식, 확대시켜 표시하는 방식 중 어느 하나일 수 있고, 제2 표시 방식은 투명하게 표시하는 방식, 축소시켜 표시하는 방식 중 어느하나일 수 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 단지 객체를 포함하는 부분 영상과 객체를 포함하지 않는 부분 영상을 서로 구분하여 표시하는 방식이면 본 발명의 제1 표시 방식 및 제2 표시 방식으로 사용될 수 있다.At this time, the first display method may be either an emphasized display method or an enlarged display method, and the second display method may be either a transparent display method or a zoomed-out display method. However, this is an example and the spirit of the present invention is not limited to this. If it is a method of separately displaying a partial image including an object and a partial image not including the object, the first display method and the second display method of the present invention It can be used in this way.

한편 표시되는 부분 영상(V2p, V3p, V4p)은 객체(410)의 이동 경로(510)상에 있는 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상의 부분영상 일 수 있다. Meanwhile, the displayed partial images (V2p, V3p, V4p) may be partial images of the second image acquired by the second surveillance cameras (200G, 200H, 200I) on the movement path 510 of the object 410.

본 발명의 일 실시예에 따른 제어부(120)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 부분 영상(V2p, V3p, V4p)을 지도상의 각각의 영상을 획득한 감시카메라의 위치에 대응시켜 표시할 수 있다. The control unit 120 according to an embodiment of the present invention displays the first image V1 (or the partial image V1p for the first image V1) and the partial images V2p, V3p, and V4p on the map. It can be displayed in correspondence with the location of the surveillance camera that acquired the video.

이때 제어부(120)는 제1 영상(V1) 및 부분 영상(V2p, V3p, V4p)을 동시에 표시할 수 있다. 바꾸어말하면, 제어부(120)는 복수의 영상을 동시에 표시하여 사용자가 객체(410)의 이동을 한 번에 확인하도록 할 수 있다.At this time, the control unit 120 can simultaneously display the first image V1 and the partial images V2p, V3p, and V4p. In other words, the control unit 120 can display a plurality of images simultaneously so that the user can check the movement of the object 410 at once.

본 발명의 다른 실시예에 따른 제어부(120)는 도 4b의 화면(620)에 도시된 바와 같이 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역과 부분 영상(V2p, V3p, V4p)의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The control unit 120 according to another embodiment of the present invention controls at least a portion of the first image V1 (or a partial image V1p for the first image V1) as shown in the screen 620 of FIG. 4B. At least a partial area containing the object 410 of a frame and at least a partial area containing the object 410 of at least a partial frame of the partial images V2p, V3p, and V4p may be displayed in correspondence with each other on the map.

이로써 본 발명은 객체(410)의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.As a result, the present invention can more easily determine the movement trajectory of the object 410.

도 5는 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)에 의해 수행되는 객체의 추적 영상 제공 방법을 설명하기 위한 흐름도이다. 이하에서는 도 1 내지 도 4b에서 설명한 내용되 중복되는 내용의 설명은 생략하되, 도 1 내지 도 4b를 함께 참조하여 설명한다.FIG. 5 is a flowchart illustrating a method of providing a tracking image of an object performed by the apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention. Hereinafter, description of content overlapping with that described in FIGS. 1 to 4B will be omitted, but will be described with reference to FIGS. 1 to 4B.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)가 획득한 제1 영상 내에서 추적하고자 하는 객체(410)를 선택할 수 있다.(S51)The object tracking image providing device 100 according to an embodiment of the present invention may select the object 410 to be tracked within the first image acquired by the first surveillance camera 200F (S51).

이때 제1 감시카메라(200F)는 기준이 되는 감시카메라로, 가령 객체(410)가 처음 등장한 영상을 획득한 감시카메라를 의미할 수도 있고, 단순히 사용자에 의해 선택된 감시카메라 일 수도 있다. At this time, the first surveillance camera 200F is a standard surveillance camera. For example, it may mean the surveillance camera that acquired the image where the object 410 first appeared, or it may simply be a surveillance camera selected by the user.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다. 가령 객체의 추적 영상 제공 장치(100)는 디스플레이부(130)에 표시되는 제1 영상에서 추적하고자 하는 객체(410)를 선택하는 사용자의 입력에 기초하여 추적하고자 하는 객체(410)를 선택할 수 있다.The object tracking image providing device 100 according to an embodiment of the present invention may select the object 410 to be tracked based on the user's input. For example, the object tracking image providing device 100 may select the object 410 to be tracked based on a user's input for selecting the object 410 to be tracked in the first image displayed on the display unit 130. .

또한 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 다양한 공지의 영상 분석 기법에 기초하여 추적하고자 하는 객체(410)를 선택할 수도 있다. 가령 객체의 추적 영상 제공 장치(100)는 제1 영상에서 추적하고자 하는 객체(가령 사람, 자동차, 반려동물 등)를 인식하고, 인식된 객체를 추적할 수도 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니다.Additionally, the object tracking image providing device 100 according to an embodiment of the present invention may select the object 410 to be tracked based on various known image analysis techniques. For example, the object tracking image providing device 100 may recognize an object to be tracked (e.g., a person, a car, a companion animal, etc.) in the first image and track the recognized object. However, this is an example and the spirit of the present invention is not limited thereto.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)가 획득한 제1 영상에 기초하여, 전술한 과정에 의해 선택된 객체(410)의 이동 패턴인 제1 이동 패턴을 획득할 수 있다. (S52)The apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention provides the first image, which is the movement pattern of the object 410 selected by the above-described process, based on the first image acquired by the first surveillance camera 200F. 1 You can obtain a movement pattern. (S52)

본 발명에서 '제1 이동 패턴' 및 '제2 이동 패턴'과 같은 객체(410)의 이동 패턴은 객체(410)의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함할 수 있다. 가령 객체(410)의 이동 패턴은 2m/s와 같은 객체(410)의 이동 속력을 포함할 수 있다. 다만 전술한 속력, 방향, 궤적은 패턴의 예시적인 성질로써, 객체(410)의 이동을 묘사할 수 있는 성질이라면 본 발명의 객체(410)의 이동 패턴으로써 사용될 수 있다.In the present invention, the movement pattern of the object 410, such as 'first movement pattern' and 'second movement pattern', may include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object 410. For example, the movement pattern of the object 410 may include the movement speed of the object 410, such as 2 m/s. However, the above-described speed, direction, and trajectory are exemplary properties of a pattern, and if they are properties that can describe the movement of the object 410, they can be used as a movement pattern of the object 410 of the present invention.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 전술한 과정에 의하여 획득된 제1 이동 패턴 및 제1 감시카메라(200F)와 제2 영상을 획득한 제2 감시카메라(200F를 제외한 나머지 감시카메라) 사이의 거리 중 적어도 하나에 기초하여, 제2 영상의 표시 시구간을 결정할 수 있다.(S53)The object tracking image providing device 100 according to an embodiment of the present invention includes a first movement pattern and a first surveillance camera 200F obtained through the above-described process, and a second surveillance camera 200F acquiring a second image. The display time period of the second image can be determined based on at least one of the distances between the remaining surveillance cameras (S53).

가령 객체의 추적 영상 제공 장치(100)가 제1 영상에서 제1 이동 패턴으로써 객체(410)의 이동 속력인 2m/s를 획득한 경우, 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)와 제2 감시카메라(200 G) 사이의 거리를 고려하여, 객체(410)가 제2 감시카메라(200G)가 획득하는 제2 영상에 등장할 것으로 예상되는 시점 및 이러한 제2 영상에서 사라질 것으로 예상되는 시점 각각을 각각 시작점과 종료점으로 하는 표시 시구간을 결정할 수 있다.For example, when the object tracking image providing device 100 acquires 2 m/s, which is the moving speed of the object 410, as the first movement pattern in the first image, the object tracking image providing device 100 uses the first surveillance camera Considering the distance between (200F) and the second surveillance camera (200G), the time when the object 410 is expected to appear in the second image acquired by the second surveillance camera (200G) and in this second image It is possible to determine display time intervals that use each time point expected to disappear as the start and end point, respectively.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대해서 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)가 획득한 제2 영상의 표시 시구간을 결정할 수 있다. 이때 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)와 복수의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)각각 과의 거리 및 객체(410)의 이동 패턴 중 적어도 하나에 기초하여 각각의 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 각각이 획득한 제2 영상의 표시 시구간을 결정할 수 있다.The object tracking image providing device 100 according to an embodiment of the present invention provides a plurality of second surveillance cameras (200A to 200E and 200G to 200I), respectively, for each second surveillance camera (200A to 200E and 200G to 200I). The display time period of the acquired second image can be determined. At this time, the object tracking image providing device 100 is based on at least one of the distance between the first surveillance camera 200F and the plurality of second surveillance cameras 200A to 200E and 200G to 200I, respectively, and the movement pattern of the object 410. Based on this, the display time period of the second image acquired by each of the second surveillance cameras (200A to 200E and 200G to 200I) can be determined.

다시 도 3을 참조하여 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)가 제2 감시카메라(200A 내지 200E 및 200G 내지 200I) 중 일부 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상(V2, V3, V4)의 표시 시구간을 결정한 예시를 설명한다.Referring again to FIG. 3, the device 100 for providing tracking images of an object according to an embodiment of the present invention uses some of the second surveillance cameras (200A to 200E and 200G to 200I) (200G, 200H, 200I). An example of determining the display time period of the acquired second images (V2, V3, V4) will be described.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2) 내의 소정의 시구간(t21~t22)을 표시 시구간으로써 결정할 수 있다. 이와 유사하게 객체의 추적 영상 제공 장치(100)는 두 번째 제2 감시카메라(200H)가 획득한 제2 영상(V3) 내의 소정의 시구간(t31~t32)을 표시 시구간으로써 결정할 수 있고, 세 번째 제2 감시카메라(200I)가 획득한 제2 영상(V4) 내의 소정의 시구간(t41~t42)을 표시 시구간으로써 결정할 수 있다. As shown in FIG. 3, the object tracking image providing device 100 according to an embodiment of the present invention provides a predetermined time section ( t21~t22) can be determined as the display time period. Similarly, the object tracking image providing device 100 may determine a predetermined time period (t31 to t32) in the second image (V3) acquired by the second second surveillance camera (200H) as the display time period, Third, a predetermined time period (t41 to t42) in the second image (V4) acquired by the second surveillance camera (200I) can be determined as the display time period.

한편 제1 영상(V1)은 제1 감시카메라가 획득한 영상으로, 이러한 제1 영상(V1) 내에서 객체(410)는 소정의 시구간(t11~t12)내에만 포함되어 있을 수 있다. 바꾸어말하면 시구간(t11~t12)에 대응되는 제1 영상(V1)에 대한 부분 영상(V1p)내에만 객체(410)가 포함되어 있을 수 있다. Meanwhile, the first image V1 is an image acquired by the first surveillance camera, and the object 410 within the first image V1 may be included only within a predetermined time period (t11 to t12). In other words, the object 410 may be included only in the partial image V1p for the first image V1 corresponding to the time period t11 to t12.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상, 즉 각각의 제2 영상에 대한 부분 영상(V2p, V3p, V4p) 내에 추적하고자 하는 객체(410)가 포함되어 있는지 여부를 확인할 수 있다. 가령 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 첫 번째 제2 감시카메라(200G)가 획득한 제2 영상(V2)에 대한 부분 영상(V2p) 내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있고, 나아가 제1 영상(V1)에 대한 부분 영상(V1p)내에 객체(410)가 포함되어 있는지 여부를 확인할 수도 있다. 각각의 부분 영상(V2p, V3p, V4p)이 객체를 포함하는지 여부에 대한 확인 결과는 후술하는 부분 영상의 시구간 수정에 사용될 수 있다.The object tracking image providing device 100 according to an embodiment of the present invention provides a second image corresponding to the display time period determined by the above-described process, that is, a partial image (V2p, V3p, V4p) for each second image. It is possible to check whether the object 410 to be tracked is included within it. For example, the object tracking image providing device 100 according to an embodiment of the present invention may detect the object 410 in the partial image V2p for the second image V2 acquired by the first second surveillance camera 200G. It is possible to check whether the object 410 is included, and further, to check whether the object 410 is included in the partial image V1p for the first image V1. The result of checking whether each partial image (V2p, V3p, V4p) includes an object can be used for time section correction of the partial image, which will be described later.

사람이나 자동차와 같은 움직이는 객체(410)의 경우, 시간에 따라 또는 도로 사정에 따라 이동하는 패턴이 변화할 수 있다. 가령 객체(410)가 도시된 바와 같이 사람인 경우, 이동함에 따라 체력이 떨어져 이동 속도가 느려질 수 있다. 또한 객체(410)가 자동차인 경우 도로 사정 또는 교통랑에 따라 이동 속도가 달라질 수 있다. 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 시간의 흐름에 따라 객체(410)의 변화하는 이동 패턴을 반영하여 각각의 제2 감시카메라(200H, 200I)의 표시 시구간을 적절하게 결정하거나 수정하도록 할 수 있다.In the case of a moving object 410 such as a person or a car, the movement pattern may change depending on time or road conditions. For example, if the object 410 is a person as shown, as it moves, its physical strength may decrease and its movement speed may slow down. Additionally, if the object 410 is a car, the moving speed may vary depending on road conditions or traffic flow. The object tracking image providing device 100 according to an embodiment of the present invention reflects the changing movement pattern of the object 410 with the passage of time and displays the display time section of each of the second surveillance cameras 200H and 200I. can be determined or modified appropriately.

이를 보다 상세히 살펴보면, 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 감시카메라(200F)에 보다 인접하는 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 또는 부분 영상(V2p) 내에서의 객체(410)의 이동 패턴을 더 참조하여, 제1 감시카메라(200F)로부터 상대적으로 멀리 떨어진 제2-2 감시카메라(가령 200H)가 획득한 제2-2 영상(V3)의 표시 시구간(t31~t32)을 결정할 수 있다.Looking at this in more detail, the device 100 for providing tracking images of an object according to an embodiment of the present invention uses the 2- With further reference to the movement pattern of the object 410 in the 1 image (V2) or the partial image (V2p), the 2-2 surveillance camera (for example, 200H), which is relatively far away from the first surveillance camera (200F), acquires The display time period (t31 to t32) of one 2-2 image (V3) can be determined.

가령 제1 감시카메라(200F)가 획득한 제1 영상에서 객체의 이동속도가 2m/s였다가, 전술한 제2-1 감시카메라(가령 200G)가 획득한 제2-1 영상(V2) 내에서의 객체(410)의 이동속도가 1m/s로 감소하였다고 가정해 보자.For example, in the first image acquired by the first surveillance camera (200F), the moving speed of the object was 2 m/s, and then in the 2-1 image (V2) acquired by the aforementioned 2-1 surveillance camera (e.g. 200G) Let us assume that the moving speed of the object 410 in is reduced to 1 m/s.

만약 나머지 제2 감시카메라(200H, 200I)가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정함에 있어서, 제1 감시카메라(200F)가 획득한 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에서 객체의 이동속도만을 고려할 경우, 결정된 제2 영상(V3, V4)의 표시 시구간은 다소 정확도가 떨어질 수 있다. When determining the display time period of the second images (V3, V4) acquired by the remaining second surveillance cameras (200H, 200I), the first image (V1) (or the first image (V1) acquired by the first surveillance camera (200F) If only the moving speed of the object in the partial image (V1p) for the first image (V1) is considered, the display time period of the determined second images (V3 and V4) may be somewhat less accurate.

따라서 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))에 기초한 객체(410)의 제1 이동 패턴, 제2-1 영상(V2p)에 기초한 객체(410)의 제2 이동 패턴 및 제1 감시카메라와의 거리 중 적어도 하나에 기초하여, 해당 감시카메라가 획득한 제2 영상(V3, V4)의 표시 시구간을 결정하거나 수정할 수 있다. Therefore, the apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention provides a first image of the object 410 based on the first image V1 (or a partial image V1p for the first image V1). Based on at least one of the movement pattern, the second movement pattern of the object 410 based on the 2-1 image (V2p), and the distance to the first surveillance camera, the second image (V3, V4) acquired by the surveillance camera ) You can determine or modify the display time period.

이로써 본 발명은 보다 유효한 영상 구간을 결정하여 제공할 수 있다.As a result, the present invention can determine and provide a more effective video section.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 전술한 과정에 의해서 결정된 표시 시구간에 대응되는 제2 영상(즉 부분 영상(V2p, V3p, V4p))을 표시할 수 있다.(S54)The apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention displays the first image V1 (or a partial image V1p for the first image V1) and the display time period determined by the above-described process. The corresponding second image (i.e. partial image (V2p, V3p, V4p)) can be displayed (S54).

이때 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 객체(410)를 포함하는지 여부와 무관하게 모든 제2 감시카메라(200A 내지 200E 및 200G 내지 200I)에 대한 부분 영상을 표시할 수 있다. 이로써 본 발명은 객체(410)에 대한 유효 시간대의 영상 만을 손쉽게 검토하도록 할 수 있다.At this time, the object tracking image providing device 100 according to an embodiment of the present invention displays partial images for all second surveillance cameras (200A to 200E and 200G to 200I) regardless of whether or not they include the object 410. can do. As a result, the present invention can easily review only the images in the valid time zone for the object 410.

또한 본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 도 4a의 화면(610)과 같이 객체(410)를 포함하는 부분 영상(V2p, V3p, V4p)을 제1 표시 방식에 따라 표시하고, 나머지 부분 영상을 제2 표시 방식에 따라 표시할 수 있다. In addition, the apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention displays partial images (V2p, V3p, V4p) including the object 410 in the first display method, as shown in the screen 610 of FIG. 4A. and display the remaining portion of the image according to the second display method.

이때 제1 표시 방식은 강조하여 표시하는 방식, 확대시켜 표시하는 방식 중 어느 하나일 수 있고, 제2 표시 방식은 투명하게 표시하는 방식, 축소시켜 표시하는 방식 중 어느하나일 수 있다. 다만 이는 예시적인것으로 본 발명의 사상이 이에 한정되는 것은 아니며, 단지 객체를 포함하는 부분 영상과 객체를 포함하지 않는 부분 영상을 서로 구분하여 표시하는 방식이면 본 발명의 제1 표시 방식 및 제2 표시 방식으로 사용될 수 있다.At this time, the first display method may be either an emphasized display method or an enlarged display method, and the second display method may be either a transparent display method or a zoomed-out display method. However, this is an example and the spirit of the present invention is not limited to this. If it is a method of separately displaying a partial image including an object and a partial image not including the object, the first display method and the second display method of the present invention It can be used in this way.

한편 표시되는 부분 영상(V2p, V3p, V4p)은 객체(410)의 이동 경로(510)상에 있는 제2 감시카메라(200G, 200H, 200I)가 획득한 제2 영상의 부분영상 일 수 있다. Meanwhile, the displayed partial images (V2p, V3p, V4p) may be partial images of the second image acquired by the second surveillance cameras (200G, 200H, 200I) on the movement path 510 of the object 410.

본 발명의 일 실시예에 따른 객체의 추적 영상 제공 장치(100)는 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p)) 및 부분 영상(V2p, V3p, V4p)을 지도상의 각각의 영상을 획득한 감시카메라의 위치에 대응시켜 표시할 수 있다. The apparatus 100 for providing a tracking image of an object according to an embodiment of the present invention includes a first image V1 (or a partial image V1p for the first image V1) and partial images V2p, V3p, and V4p. can be displayed in correspondence to the location of the surveillance camera that acquired each image on the map.

이때 객체의 추적 영상 제공 장치(100)는 제1 영상(V1) 및 부분 영상(V2p, V3p, V4p)을 동시에 표시할 수 있다. 바꾸어말하면, 객체의 추적 영상 제공 장치(100)는 복수의 영상을 동시에 표시하여 사용자가 객체(410)의 이동을 한 번에 확인하도록 할 수 있다.At this time, the object tracking image providing device 100 may simultaneously display the first image V1 and the partial images V2p, V3p, and V4p. In other words, the object tracking image providing device 100 can display a plurality of images simultaneously so that the user can check the movement of the object 410 at once.

본 발명의 다른 실시예에 따른 객체의 추적 영상 제공 장치(100)는 도 4b의 화면(620)에 도시된 바와 같이 제1 영상(V1)(또는 제1 영상(V1)에 대한 부분 영상(V1p))의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역과 부분 영상(V2p, V3p, V4p)의 적어도 일부 프레임의 객체(410)를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시할 수 있다.The apparatus 100 for providing a tracking image of an object according to another embodiment of the present invention provides a first image V1 (or a partial image V1p for the first image V1) as shown in the screen 620 of FIG. 4B. )) and at least some areas containing the object 410 in at least some frames of the partial images (V2p, V3p, V4p) are displayed in correspondence with each other on the map. You can.

이로써 본 발명은 객체(410)의 이동 궤적을 보다 손쉽게 파악할 수 있도록 할 수 있다.As a result, the present invention can more easily determine the movement trajectory of the object 410.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.The embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded on a computer-readable medium. At this time, the media includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROM. , RAM, flash memory, etc., may include hardware devices specifically configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For the sake of brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the scope of the claims are within the scope of the spirit of the present invention. It will be said to belong to

100:
200A, 200B: 영상 장치
300: 통신망
100:
200A, 200B: Imaging device
300: communication network

Claims (10)

객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 방법에 있어서,
제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하는 단계;
상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하는 단계;
상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하는 단계; 및
상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하는 단계;를 포함하고,
상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고,
상기 제2 영상의 표시 시구간을 결정하는 단계는
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하는 단계;
상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하는 단계; 및
상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는 단계;를 포함하는, 객체의 추적 영상 제공 방법.
In the method of providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object,
Selecting an object to be tracked within the first image acquired by the first surveillance camera;
Obtaining a first movement pattern, which is a movement pattern of the selected object, based on the first image;
determining a display time period of the second image based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image; and
Comprising: displaying the first image and the second image corresponding to the determined display time period,
The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image,
The step of determining the display time period of the second image is
determining a display time period of the 2-1 image based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera;
Based on the 2-1 image, obtaining a second movement pattern that is the movement pattern of the selected object; and
determining a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera; A method of providing a tracking image of an object, including.
제1 항에 있어서
상기 제2 감시카메라는 복수이고,
상기 복수의 제2 감시카메라는 각각 제2 영상을 획득하고,
상기 제2 영상의 표시 시구간을 결정하는 단계는
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 복수의 제2 감시카메라 각각 사이의 거리 중 적어도 하나에 기초하여, 상기 복수의 제2 감시카메라 각각의 제2 영상의 표시 시구간을 결정하고,
상기 제2 영상을 표시하는 단계는
상기 제1 영상 및 상기 복수의 제2 감시카메라 각각의 제2 영상의 표시 시구간에 대응되는 복수의 제2 감시 카메라 각각의 제2 영상을 표시하는, 객체의 추적 영상 제공 방법.
In paragraph 1
The second surveillance camera is plural,
The plurality of second surveillance cameras each acquire a second image,
The step of determining the display time period of the second image is
Based on at least one of the first movement pattern and the distance between the first surveillance camera and each of the plurality of second surveillance cameras, determine a display time period of the second image of each of the plurality of second surveillance cameras,
The step of displaying the second image is
A method of providing a tracking image of an object, displaying a second image of each of a plurality of second surveillance cameras corresponding to a display time period of the first image and the second image of each of the plurality of second surveillance cameras.
제2 항에 있어서
상기 제2 영상을 표시하는 단계는
상기 복수의 제2 감시카메라 각각이 획득한 제2 영상 중 상기 객체를 포함하는 영상을 제1 표시 방식에 따라 표시하고, 나머지 제2 영상을 제2 표시 방식에 따라 표시하는, 객체의 추적 영상 제공 방법.
In paragraph 2
The step of displaying the second image is
Providing a tracking image of an object, displaying an image including the object among the second images acquired by each of the plurality of second surveillance cameras according to a first display method, and displaying the remaining second images according to a second display method. method.
삭제delete 제1 항에 있어서
상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리는 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 보다 짧은, 객체의 추적 영상 제공 방법.
In paragraph 1
A method of providing a tracking image of an object, wherein the distance between the first surveillance camera and the 2-1 surveillance camera is shorter than the distance between the first surveillance camera and the 2-2 surveillance camera.
제1 항에 있어서
상기 제2 영상을 표시하는 단계는
상기 제1 영상, 상기 결정된 제2-1 영상의 표시 시구간에 대응되는 제2-1 영상 및 상기 결정된 제2-2 영상의 표시 시구간에 대응되는 제2-2 영상을 동시에 표시하는, 객체의 추적 영상 제공 방법.
In paragraph 1
The step of displaying the second image is
Tracking an object, simultaneously displaying the first image, the 2-1 image corresponding to the determined display time period of the 2-1 image, and the 2-2 image corresponding to the determined display time period of the 2-2 image How to provide video.
제1 항에 있어서
상기 제1 이동 패턴 및 상기 제2 이동 패턴은 상기 객체의 이동 속력, 이동 방향, 이동 궤적의 모양 중 적어도 하나를 포함하는, 객체의 추적 영상 제공 방법.
In paragraph 1
The first movement pattern and the second movement pattern include at least one of the movement speed, movement direction, and shape of the movement trajectory of the object.
제1 항에 있어서
상기 제2 영상을 표시하는 단계는
상기 제1 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역 및 상기 제2 영상의 적어도 일부 프레임의 상기 객체를 포함하는 적어도 일부 영역을 지도상에 대응시켜 표시하는, 객체의 추적 영상 제공 방법.
In paragraph 1
The step of displaying the second image is
A method of providing a tracking image of an object, wherein at least a partial area containing the object in at least some frames of the first image and at least a partial area containing the object in at least some frames of the second image are displayed in correspondence on a map. .
컴퓨터를 이용하여 제1 항 내지 제3 항 및 제5 항 내지 제8 항 중 어느 한 항의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium for executing the method of any one of claims 1 to 3 and 5 to 8 using a computer. 객체의 이동 패턴에 기초하여 복수의 감시카메라가 획득한 각각의 영상들의 표시 시구간을 결정하여 객체의 추적 영상을 제공하는 장치에 있어서, 상기 장치는 제어부를 포함하고,
상기 제어부는
제1 감시카메라가 획득한 제1 영상 내에서 추적하고자 하는 객체를 선택하고,
상기 제1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제1 이동 패턴을 획득하고,
상기 제1 이동 패턴 및 상기 제1 감시카메라와 제2 영상을 획득한 제2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2 영상의 표시 시구간을 결정하고,
상기 제1 영상 및 상기 결정된 표시 시구간에 대응되는 제2 영상을 표시하고,
상기 제2 감시카메라는 제2-1 영상을 획득하는 제2-1 감시카메라 및 제2-2 영상을 획득하는 제2-2 감시카메라를 포함하고,
상기 제어부가 상기 제2 영상의 표시 시구간을 결정함에 있어서,
상기 제1 이동 패턴 및 상기 제1 감시카메라와 상기 제2-1 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-1 영상의 표시 시구간을 결정하고,
상기 제2-1 영상에 기초하여, 상기 선택된 객체의 이동 패턴인 제2 이동 패턴을 획득하고,
상기 제1 이동 패턴, 상기 제2 이동 패턴 및 상기 제1 감시카메라와 상기 제2-2 감시카메라 사이의 거리 중 적어도 하나에 기초하여, 상기 제2-2 영상의 표시 시구간을 결정하는, 객체의 추적 영상 제공 장치.
In the device for providing a tracking image of an object by determining the display time period of each image acquired by a plurality of surveillance cameras based on the movement pattern of the object, the device includes a control unit,
The control unit
Select the object you want to track in the first image acquired by the first surveillance camera,
Based on the first image, obtain a first movement pattern that is the movement pattern of the selected object,
Based on at least one of the first movement pattern and the distance between the first surveillance camera and the second surveillance camera that acquired the second image, determine a display time period of the second image,
Displaying the first image and a second image corresponding to the determined display time period,
The second surveillance camera includes a 2-1 surveillance camera that acquires a 2-1 image and a 2-2 surveillance camera that acquires a 2-2 image,
When the control unit determines the display time period of the second image,
Based on at least one of the first movement pattern and the distance between the first surveillance camera and the 2-1 surveillance camera, determine a display time period of the 2-1 image,
Based on the 2-1 image, obtain a second movement pattern that is the movement pattern of the selected object,
An object that determines a display time period of the 2-2 image based on at least one of the first movement pattern, the second movement pattern, and the distance between the first surveillance camera and the 2-2 surveillance camera. Tracking video provision device.
KR1020180081753A 2018-07-13 2018-07-13 Method, apparatus and computer program for providing a tracking image of an object KR102667876B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180081753A KR102667876B1 (en) 2018-07-13 2018-07-13 Method, apparatus and computer program for providing a tracking image of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180081753A KR102667876B1 (en) 2018-07-13 2018-07-13 Method, apparatus and computer program for providing a tracking image of an object

Publications (2)

Publication Number Publication Date
KR20200007535A KR20200007535A (en) 2020-01-22
KR102667876B1 true KR102667876B1 (en) 2024-05-21

Family

ID=69368747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180081753A KR102667876B1 (en) 2018-07-13 2018-07-13 Method, apparatus and computer program for providing a tracking image of an object

Country Status (1)

Country Link
KR (1) KR102667876B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111784742B (en) * 2020-06-29 2023-08-29 杭州海康威视数字技术股份有限公司 Pedestrian cross-lens tracking method and device
KR102347338B1 (en) * 2021-07-05 2022-01-06 주식회사 아이티로 Method, apparatus and computer-readable recording medium for obtaining movement path information of a dangerous object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120241A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Video surveillance
KR101203971B1 (en) 2012-04-24 2012-11-22 주식회사 아이티엑스시큐리티 DVR and Method for Reproducing Video Data therof
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101126272B1 (en) * 2010-04-30 2012-03-20 주식회사 아이티엑스시큐리티 DVR and Method for Reproducing Video Data thereby
KR101695249B1 (en) * 2012-05-22 2017-01-12 한화테크윈 주식회사 Method and system for presenting security image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120241A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Video surveillance
KR101203971B1 (en) 2012-04-24 2012-11-22 주식회사 아이티엑스시큐리티 DVR and Method for Reproducing Video Data therof
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping

Also Published As

Publication number Publication date
KR20200007535A (en) 2020-01-22

Similar Documents

Publication Publication Date Title
CA2931713C (en) Video camera scene translation
US8913791B2 (en) Automatically determining field of view overlap among multiple cameras
JP4829290B2 (en) Intelligent camera selection and target tracking
KR102161210B1 (en) Method and Apparatus for providing multi-video summaries
US10116910B2 (en) Imaging apparatus and method of providing imaging information
CN105306899B (en) Method and device for processing monitoring video
KR20160049391A (en) Method and Apparatus for loitering visualization
CN105323550A (en) Video search and playback interface for vehicle monitor
JP2007299381A (en) Method for processing queries for surveillance database
CN106295598A (en) A kind of across photographic head method for tracking target and device
KR102667876B1 (en) Method, apparatus and computer program for providing a tracking image of an object
US20160284064A1 (en) Information processing apparatus, information processing method, and medium
JP6013923B2 (en) System and method for browsing and searching for video episodes
JP2019135653A (en) Monitoring system, monitoring method and monitoring program
JP7272449B2 (en) Passability Judgment Method, Passage Judgment Device, and Moving Route Generation System
US11436841B2 (en) Traffic information providing method and device, and computer program stored in medium in order to execute method
WO2020145883A1 (en) Object tracking systems and methods for tracking an object
US20150237293A1 (en) Apparatus, method, and system of controlling projection image, and recording medium storing image projection control program
WO2018085063A1 (en) Segmentation-based display highlighting subject of interest
US10878245B2 (en) Video content activity regions
KR102101445B1 (en) Method for automatic update of candidate surveillance areas by image recording device or server using smart-rotation surveillance technology
KR20170093421A (en) Method for determining object of interest, video processing device and computing device
KR20170006210A (en) Surveillance method
KR102500838B1 (en) Method of providing path based on surveillance zone and apparatus for the same
US9959460B2 (en) Re-wandering alarm system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant