KR100934978B1 - System for security and preventing disatser using space information - Google Patents

System for security and preventing disatser using space information Download PDF

Info

Publication number
KR100934978B1
KR100934978B1 KR1020090046957A KR20090046957A KR100934978B1 KR 100934978 B1 KR100934978 B1 KR 100934978B1 KR 1020090046957 A KR1020090046957 A KR 1020090046957A KR 20090046957 A KR20090046957 A KR 20090046957A KR 100934978 B1 KR100934978 B1 KR 100934978B1
Authority
KR
South Korea
Prior art keywords
information
image
space
image acquisition
spatial
Prior art date
Application number
KR1020090046957A
Other languages
Korean (ko)
Inventor
강원식
주형진
최진원
Original Assignee
강원식
최진원
버츄얼빌더스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강원식, 최진원, 버츄얼빌더스 주식회사 filed Critical 강원식
Priority to KR1020090046957A priority Critical patent/KR100934978B1/en
Application granted granted Critical
Publication of KR100934978B1 publication Critical patent/KR100934978B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B19/00Alarms responsive to two or more different undesired or abnormal conditions, e.g. burglary and fire, abnormal temperature and abnormal rate of flow
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

PURPOSE: A system for security and preventing disaster using space information is provided to recognize the progress of an event according space characteristics by detecting the movement of man and an object. CONSTITUTION: In a device, an image pick-up system(200) obtain an image corresponding to a part of the space. An image storage device(300) stores the image obtaining from the image pick-up device. A control device(100) controls an image to be displayed by the control and control device of the image pick-up device. A first image is corresponded to a first space by detecting a phase relationship between the image pick-up devices or a space. A second image is corresponding to a movable second space in which an object is movable. A data processing unit(110) receives a message a predetermined sensing signal from the sensor(400).

Description

공간정보를 이용한 방범방재 시스템{System for security and preventing disatser using space information}System for security and disaster prevention using space information {System for security and preventing disatser using space information}

본 발명은 방범 및 방재 시스템에 관한 것으로, 보다 상세하게는 공간정보를 이용하여 지능적이고 효율적으로 상기 방범방재 시스템의 구축, 모니터링, 영상의 저장 및 추출을 할 수 있는 시스템에 관한 것이다. The present invention relates to a security and disaster prevention system, and more particularly, to a system capable of intelligently and efficiently constructing, monitoring, and storing and extracting images of the security and prevention system using spatial information.

저장매체의 발달로 건물 또는 공간을 모니터링(mornitoring) 하거나 모니터링되는 영상을 저장하는 기술이 널리 공지되어 있다. 예컨대, DVR(Digital Video Recorder) 시스템이 그러하다.BACKGROUND OF THE INVENTION The development of storage media is well known in the art for monitoring buildings or spaces or storing monitored images. For example, such as a DVR (Digital Video Recorder) system.

하지만 종래의 DVR 시스템과 같은 방범시스템 또는 방재시스템은 모니터링 수단 또는 영상획득 장치(예컨대, 카메라)에 의해 촬영되는 공간 자체를 독립적으로 수집 또는 저장할 뿐이어서, 촬영되는 영상이 공간에서 어떠한 속성이나 어떠한 부분에 속하는지 여부, 촬영되는 공간과 연결관계가 되는 공간이 어디인지 여부 등은 사람이 직접 판단하여야 했다.However, a security system or disaster prevention system such as a conventional DVR system only collects or stores the space itself photographed by a monitoring means or an image acquisition device (for example, a camera), so that any image or any part of the image captured in the space Whether or not belonging to, and whether the space is connected to the space to be photographed, etc. had to be judged directly.

예컨대, 제1카메라가 특정 공간을 촬영 및 저장하고 있고, 상기 특정 공간에서 사람이 움직여서 상기 제1카메라가 촬영하는 공간을 벗어났다고 가정할 수 있 다. 그러면, 종래에는 그 사람이 어디로 움직였는지를 알기 위해 관리자 또는 보안 시스템을 운영하는 자는 제1카메라가 촬영하는 특정 공간이 어디인지를 확인하고, 상기 특정 공간과 연결되는 공간을 건물의 공간특성에 따라 파악한 후, 연결되는 공간을 촬영하는 제2카메라가 촬영하는 영상을 확인하여야 했다. 이러한 불편함은 방범방재시스템이 촬영되는 공간이 전체 공간상에서 어는 부분에 속하는지 여부, 촬영되는 공간의 공간적 위상관계 등을 알지 못하기 때문이다. 따라서, 종래에는 단순히 다수의 카메라로 전체 공간의 각 부분을 촬영 및 저장할 뿐이고, 촬영되는 공간에서 특정 이벤트가 일어나는 경우에는, 사람이 촬영되는 공간의 위치 및/또는 속성 등을 직접 판단하여야 했다. For example, it may be assumed that the first camera is photographing and storing a specific space, and a person moves out of the space photographed by the first camera because a person moves in the specific space. Then, in the related art, the administrator or the person who operates the security system to check where the person moved is to check where the specific space photographed by the first camera is, and the space connected to the specific space according to the spatial characteristics of the building. After grasping, it was necessary to confirm the image taken by the second camera photographing the connected space. This inconvenience is because it does not know whether the space where the security disaster prevention system is photographed belongs to the part of the whole space, the spatial phase relationship of the space to be photographed. Therefore, conventionally, only a plurality of cameras photograph and store each part of the entire space, and when a specific event occurs in the space to be photographed, the position and / or property of the space where the person is to be photographed has to be determined directly.

따라서, 종래의 방범방재 시스템의 경우, 관리되는 공간이나 건물이 커서 카메라와 같은 영상획득 장치가 많이 설치되는 경우에는 효과적으로 공간을 모니터링 하기가 힘들었다. 예컨대, 카메라가 수백 개 설치된 건물의 경우, 어떠한 특정 사람의 움직임을 방범방재 시스템으로 실시간으로 모니터링 하기 위해서는 수백개의 카메라가 각각 촬영하고 있는 수백 개의 모니터링 화면 중 그 사람이 촬영되는 제1화면을 찾고, 움직임으로 인해 제1화면의 커버리지에서 사람이 벗어나는 경우에는 다시 그 사람이 촬영되는 제2화면을 찾는 방식으로 모니터링을 하여야 했다. 또는 제1화면의 위치를 관리자가 직접 파악하고, 상기 위치와 연결된 위치가 어디인지를 관리자가 다시 파악한 후, 파악된 위치에 해당하는 화면을 찾아야 한다.Therefore, in the case of the conventional anti-disaster prevention system, it is difficult to effectively monitor the space when a large number of image acquisition devices such as a camera is installed because a large space or building is managed. For example, in a building where hundreds of cameras are installed, in order to monitor a specific person's movements in real time with a crime prevention and disaster prevention system, the first screen in which hundreds of cameras are photographed by the hundreds of monitoring screens is found. When a person deviates from the coverage of the first screen due to the movement, the person has to monitor again by finding a second screen where the person is photographed. Alternatively, the administrator directly grasps the location of the first screen, and the administrator again grasps the location connected to the location, and then finds a screen corresponding to the identified location.

모니터링 뿐만 아니라, 모니터링 되는 화면이 저장되는 방식도 종래의 방범방재 시스템은 독립적으로 촬영되어 저장된 영상에 불과하며, 각각의 영상이 의미 하는 공간적 의미를 전혀 파악할 수 없었다.In addition to monitoring, the way the screen to be monitored is stored is a conventional crime prevention system is only an image taken and stored independently, and could not grasp the spatial meaning of each image at all.

따라서, 방범방재시스템이 모니터링하는 각 공간이 전체 공간에서 어떠한 위치에 있고, 각 공간이 갖는 특성이나 각 공간 간의 공간적 위상관계를 알 수 있어서, 효율적이고 지능적으로 방범방재 시스템의 구축, 모니터링, 촬영 영상의 저장 및 검색이 가능한 방범방재 시스템이 절실히 요구된다.Therefore, each space monitored by the crime prevention disaster system is located at a certain position in the whole space, and the characteristics of each space and the spatial phase relationship between the spaces can be known. There is an urgent need for a crime prevention system capable of storing and retrieving data.

따라서, 본 발명이 이루고자 하는 기술적인 과제는 관리하는 건물 및/또는 외부 공간의 공간정보를 방범방재 시스템이 스스로 파악할 수 있고, 파악된 공간의 특성을 참조하여 모니터링되는 화면이나 모니터링을 위한 영상획득 장치를 지능적으로 제어할 수 있는 방범방재 시스템을 제공하는 것이다.Therefore, the technical problem to be achieved by the present invention is the security disaster prevention system can grasp the spatial information of the building and / or the external space to be managed by itself, the image acquisition device for monitoring the screen or monitoring with reference to the characteristics of the identified space It is to provide a crime prevention system that can intelligently control the system.

또한, 특정 객체(예컨대, 사람 또는 사물)의 출현, 움직임을 파악하고, 동선에 따라 자동으로 모니터링 수단에 디스플레이되는 화면이 변경될 수 있는 방범방재 시스템을 제공하는 것이다. 또한, 특정 이벤트(예컨대, 화재, 누수 등)의 발생을 인식하고, 이벤트가 발생된 공간의 특성, 그 공간의 공간적 상관관계가 존재하는 공간을 자동으로 파악하여 이벤트를 실시간으로 모니터링 할 수 있으며, 이에 따라 상기 이벤트를 손쉽게 제어할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, the present invention provides a security and disaster prevention system that can detect the appearance and movement of a specific object (eg, a person or a thing) and change the screen displayed on the monitoring means automatically according to a moving line. In addition, by recognizing the occurrence of a specific event (for example, fire, leak, etc.), it is possible to monitor the event in real time by automatically grasping the characteristics of the space in which the event occurred, the spatial correlation of the space, Accordingly, to provide a crime prevention disaster prevention system that can easily control the event.

또한, 관리되는 공간의 공간 모델링 정보를 이용하여 직관적이고 편리하게 모니터링 수단에 디스플레이되는 화면을 변경 또는 제어하거나, 영상획득 장치를 제어할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, to provide a crime prevention and disaster prevention system that can change or control the screen displayed on the monitoring means or control the image acquisition device by using the space modeling information of the managed space intuitively and conveniently.

또한, 각각의 영상획득 장치(예컨대, 카메라)에 의해 촬영된 영상이 저장된 후, 특정 시간과 특정 공간만을 입력만 하면 공간적 상관관계가 존재하는 영상까지 추출하여 디스플레이함으로써 저장된 영상에서 특정 사건이나 이벤트를 검색을 효율적으로 할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, after the images captured by each image capturing device (for example, a camera) are stored, a specific event or event is stored in the stored image by extracting and displaying an image having a spatial correlation by only inputting a specific time and a specific space. It is to provide a crime prevention and disaster prevention system that can efficiently search.

본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 공간에 설치되어 상기 공간의 일부에 대응하는 영상을 획득하기 위한 적어도 하나의 영상획득 장치; 상기 영상획득 장치로부터 획득되는 영상을 저장하기 위한 영상 저장장치; 및 상기 공간에 상응하는 공간정보 및 상기 공간상에 위치한 상기 영상 획득 장치에 대한 정보를 저장하고, 상기 영상획득 장치로부터 획득되는 영상을 디스플레이하는 제어장치를 포함한다.
상기 제어장치는 상기 공간정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나에 기초하여 상기 영상획득 장치를 제어하거나 또는 상기 제어장치에 디스플레이될 영상을 제어하고, 상기 공간정보 및 상기 영상획득 장치에 대한 정보에 기초하여 자동으로 상기 영상획득 장치 간의 위상관계 또는 대응되는 공간의 위상관계를 파악하여 상기 공간 중 일부인 제1공간에 대응되는 제1영상 및 상기 제1공간에서 소정의 객체가 이동가능한 제2공간에 대응되는 적어도 하나의 제2영상을 동시 또는 순차적으로 디스플레이할 수 있다.
According to an embodiment of the present invention, a system for preventing crime prevention using spatial information includes at least one image acquisition device installed in a space to obtain an image corresponding to a portion of the space; An image storage device for storing an image obtained from the image acquisition device; And a control device storing spatial information corresponding to the space and information on the image acquisition device located in the space, and displaying an image obtained from the image acquisition device.
The control device controls the image acquisition device or controls an image to be displayed on the control device based on at least one of the spatial information or the information on the image acquisition device, and controls the spatial information and the image acquisition device. A first image corresponding to a first space that is a part of the space and a second object capable of moving a predetermined object in the first space by automatically determining a phase relationship between the image acquisition devices or a phase relationship of a corresponding space based on the information. At least one second image corresponding to the space may be displayed simultaneously or sequentially.

상기 영상 저장장치는 상기 영상 및 상기 영상에 대응되는 공간의 위상정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나를 저장할 수 있다.The image storage device may store at least one of the image and phase information of a space corresponding to the image or information about the image acquisition device.

상기 영상획득 장치에 대한 정보는 상기 영상획득 장치의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 속성에 대한 정보, 상기 영상획득 장치의 속성에 대한 정보, 상기 영상획득 장치의 배선에 대한 정보, 상기 영상획득 장치의 영상획득 루트에 대한 정보 중 적어도 하나를 포함할 수 있다.The information on the image capturing apparatus may include information about the position of the image capturing apparatus, information on the position of a portion of the space monitored by the image capturing apparatus, and attributes of a portion of the space monitored by the image capturing apparatus. Information, information on the property of the image acquisition device, information on the wiring of the image acquisition device, may include at least one of information on the image acquisition route of the image acquisition device.

상기 제어장치는 상기 적어도 하나의 영상획득 장치 각각에 의해 획득되는 영상들을 상기 영상획득 장치 각각의 위상관계 또는 상기 영상에 대응되는 공간의 위상관계 중 적어도 하나에 대응되도록 디스플레이할 수 있다.The control device may display images acquired by each of the at least one image acquisition device so as to correspond to at least one of a phase relationship of each of the image acquisition devices or a phase relationship of space corresponding to the image.

상기 제어장치는 상기 공간 중 일부인 제1공간에 대응되는 제1영상 및 상기 제1공간에서 소정의 객체가 이동가능한 제2공간에 대응되는 적어도 하나의 제2영상을 동시 또는 순차적으로 디스플레이할 수 있다.The control device may simultaneously or sequentially display a first image corresponding to a first space which is a part of the space and at least one second image corresponding to a second space in which a predetermined object is movable in the first space. .

상기 제어장치는 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보, 상기 영상획득 장치에 대한 정보에 기초하여 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치, 및 상기 적어도 하나의 영상획득 장치 각각이 획득하는 영상을 디스플레이할 수 있다.The control device is one or more image acquisition device displayed on the spatial modeling information based on the spatial modeling information, the two or three-dimensional space modeling information corresponding to the space based on the spatial information , And may display an image acquired by each of the at least one image acquisition device.

상기 제어장치는 상기 적어도 하나의 영상획득 장치 각각이 획득할 수 있는 영상의 커버리지에 대한 정보를 상기 공간 모델링 정보 상에 디스플레이할 수 있다.The control device may display information on coverage of an image that each of the at least one image acquisition device can obtain on the spatial modeling information.

상기 제어장치는 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치 중 어느 하나를 선택하는 경우, 선택된 영상획득 장치가 획득하는 영상이 디스플레이될 수 있다.When the control device selects any one of the at least one image acquisition device displayed on the spatial modeling information, an image acquired by the selected image acquisition device may be displayed.

상기 제어장치는 상기 공간에 포함되는 특정 영역에 대한 정보가 입력되면, 입력된 정보에 응답하여 상기 특정 영역에 대응되는 영상, 상기 특정 영역의 공간속성에 상응하는 공간속성을 갖는 영상, 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 디스플레이할 수 있다.When the information on a specific region included in the space is input, the control device may respond to the input information in response to the input image, the image having a spatial attribute corresponding to the spatial attribute of the specific region, or the specific image. At least one of an image having a spatial correlation with an area may be displayed.

상기 공간에 포함되는 특정 영역에 대한 정보는 사용자 입력장치를 통하여 상기 공간 모델링 정보 상에서 선택되는 것을 특징으로 할 수 있다.Information on a specific region included in the space may be selected on the spatial modeling information through a user input device.

상기 제어장치는 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보를 디스플레이하며, 사용자 입력장치에 의해 디스플레이되는 상기 공간 모델링 정보 상에 영상획득 장치 아이콘이 배치되면, 배치된 상기 영상획득장치 아이콘에 상응하는 영상획득 장치가 획득할 수 있는 영상의 커버리지에 대한 정보 또는 상기 영상획득 장치가 획득하는 가상영상에 대한 정보 중 적어도 하나를 디스플레이할 수 있다.The control apparatus displays two-dimensional or three-dimensional spatial modeling information corresponding to the space based on the spatial information, and when the image acquisition device icon is disposed on the spatial modeling information displayed by the user input device, the arrangement is performed. At least one of information on coverage of an image that can be obtained by the image acquisition apparatus corresponding to the image acquisition apparatus icon or information about a virtual image acquired by the image acquisition apparatus may be displayed.

상기 공간 모델링 정보 상에 배치된 상기 영상획득장치 아이콘은 상기 사용자 입력장치에 의해 회전되면, 회전된 정도에 따라 상기 영상획득장치 아이콘의 좌우 방향 조절이 가능한 것을 특징으로 할 수 있다.When the image acquisition device icon disposed on the spatial modeling information is rotated by the user input device, the image acquisition device icon may be adjusted in left and right directions according to the degree of rotation.

상기 가상영상에 대한 정보는 스크롤(scroll) 인터페이스를 포함하는 프레임에 디스플레이되며, 상기 사용자 입력장치에 의해 설정되는 상기 스크롤 인터페이스의 스크롤 정도에 따라 상기 영상획득장치 아이콘의 방향 조절이 가능한 것을 특징으로 할 수 있다.Information about the virtual image is displayed on a frame including a scroll interface, and the direction of the image acquisition device icon can be adjusted according to the scrolling degree of the scroll interface set by the user input device. Can be.

상기 제어장치는 과거 시간정보, 상기 공간에 포함되는 특정 영역에 대한 정보를 입력받으면, 입력된 정보에 응답하여 상기 과거 시간정보에 상응하는 시간에 상기 특정 영역에 대응되는 영상 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 상기 영상정보 저장장치에서 추출하여 디스플레이할 수 있다.When the control device receives past time information and information on a specific area included in the space, the control device spatially corresponds to the image or the specific area at a time corresponding to the past time information in response to the input information. At least one of images having correlations may be extracted from the image information storage device and displayed.

상기 특정 영역과 공간적 상관관계가 존재하는 영상은 상기 특정 영역에서 소정의 객체가 이동가능한 공간에 대응되는 영상인 것을 특징으로 할 수 있다.The image having a spatial correlation with the specific region may be an image corresponding to a space in which a predetermined object may move in the specific region.

상기 제어장치는 상기 제어장치에 디스플레이되는 영상 또는 소정의 센서로부터 입력되는 신호 중 적어도 하나에 기초하여 상기 공간에 포함되는 특정 영역에서의 소정의 이벤트 발생 여부를 판단할 수 있는 공간정보를 활용할 수 있다.The control device may utilize spatial information to determine whether a predetermined event occurs in a specific area included in the space based on at least one of an image displayed on the control device or a signal input from a predetermined sensor. .

상기 제어장치는 상기 소정의 이벤트가 발생한 상기 특정 영역과 공간적 상관관계가 존재하는 영역에 대응되는 영상을 자동으로 디스플레이할 수 있다.The control device may automatically display an image corresponding to a region where a spatial correlation exists with the specific region where the predetermined event occurs.

상기 소정의 이벤트는 객체의 등장, 화재 발생, 가스누설, 누수, 또는 침수 중 적어도 하나를 포함할 수 있다.The predetermined event may include at least one of an appearance of an object, a fire occurrence, a gas leak, a leak, or a flood.

상기 공간정보는 BIM(Building Information Modeling) 정보 또는 GIS(geographic information system) 정보 중 적어도 하나를 포함할 수 있다.The spatial information may include at least one of BIM (Building Information Modeling) information or GIS (geographic information system) information.

본 발명에 따른 본 발명이 이루고자 하는 기술적인 과제는 촬영되는 각각의 공간과 전체 공간과의 관계, 다른 공간과의 상관관계 및 각 공간의 특성을 파악할 수 있으므로, 사람이 직접 모니터링이나 영상의 추출을 위해 공간을 파악할 필요가 없으며, 지능적으로 모니터링 장치에 디스플레이되는 화면의 제어 및 영상획득 장치의 제어가 가능한 효과가 있다.The technical problem to be achieved by the present invention according to the present invention is to grasp the relationship between each space to be photographed and the total space, the correlation between other spaces and the characteristics of each space, so that humans can directly monitor or extract images. There is no need to identify the space, and intelligently, it is possible to control the screen displayed on the monitoring device and to control the image acquisition device.

또한, 특정 객체(예컨대, 사람 또는 사물)의 출현, 움직임과 같은 특정 이벤트의 발생의 파악이 가능하고, 파악된 이벤트의 진행상황을 공간의 특성에 따라 실시간으로 효율적으로 파악할 수 있으며, 그에 따라 손쉽게 대처를 할 수 있는 효과 가 있다. In addition, the occurrence of a specific event such as the appearance and movement of a specific object (eg, a person or a thing) can be detected, and the progress of the identified event can be efficiently and efficiently identified in real time according to the characteristics of the space. It is effective to cope.

또한, 관리되는 공간의 공간 모델링 정보를 이용하여 직관적이고 편리하게 모니터링 수단에 디스플레이되는 화면을 변경 또는 제어하거나, 영상획득 장치를 제어할 수 있으며, 촬영된 영상의 검색이나 추출도 각각의 영상에 상응하는 공간의 특성 및 위상관계에 따라 지능적으로 수행될 수 있는 효과가 있다. In addition, by using the spatial modeling information of the managed space, it is possible to intuitively and conveniently change or control the screen displayed on the monitoring means, or control the image acquisition device, and search or extraction of the captured image corresponds to each image. There is an effect that can be performed intelligently according to the characteristics of the space and the phase relationship.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. In addition, in the present specification, when one component 'transmits' data to another component, the component may directly transmit the data to the other component, or through at least one other component. Means that the data may be transmitted to the other component.

반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.On the contrary, when one component 'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 개 략적인 구성을 나타낸다.1 is a schematic configuration of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 제어장치(100), 적어도 하나의 영상획득 장치(200), 및 영상 저장장치(300)를 포함한다. 상기 공간정보를 활용한 방범방재 시스템은 적어도 하나의 센서(400)를 더 포함할 수 있다. 또한, 상기 공간정보를 활용한 방범방재 시스템에 의해 관리되는 공간(예컨대, 소정의 건물)에는 상기 제어장치(100)에 의해 제어될 수 있는 소정의 시설물(예컨대, 셔터, 문, 환풍기, 스프링 쿨러 등, 500)이 설치되어 있을 수 있다.Referring to FIG. 1, a crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention includes a control device 100, at least one image acquisition device 200, and an image storage device 300. The crime prevention disaster prevention system using the spatial information may further include at least one sensor 400. In addition, predetermined spaces (eg, shutters, doors, ventilators, and sprinklers) that can be controlled by the control device 100 are located in a space (eg, a predetermined building) managed by the crime prevention and disaster prevention system utilizing the space information. Etc. 500) may be installed.

상기 제어장치(100)는 본 발명의 실시 예에 따른 기술적 사상을 구현하기 위해 상기 영상획득 장치(200)를 제어하고, 상기 영상획득 장치(200)로부터 수신되는 영상을 디스플레이할 수 있다. 상기 제어장치(100)는 상기 영상획득 장치(200)로 소정의 제어신호를 출력하기 위한 소정의 데이터 처리장치(예컨대, 컴퓨터, 서버 등, 110) 및 상기 데이터 처리장치(110)를 통해 상기 영상획득 장치(200)로부터 수신되는 영상을 디스플레이하는 소정의 모니터링 장치(111)를 포함할 수 있다. 상기 모니터링 장치(111)는 도 1에 도시된 바와 같이 적어도 하나의 디스플레이장치를 포함할 수 있다.The control device 100 may control the image acquisition device 200 and display an image received from the image acquisition device 200 in order to implement the technical idea according to the exemplary embodiment of the present invention. The control device 100 is a predetermined data processing device (eg, computer, server, etc.) 110 for outputting a predetermined control signal to the image acquisition device 200 and the image through the data processing device 110. It may include a predetermined monitoring device 111 for displaying an image received from the acquisition device 200. The monitoring device 111 may include at least one display device as shown in FIG. 1.

상기 데이터 처리장치(110)는 상기 모니터링 장치(111)에 디스플레이되는 영상을 제어할 수 있다. 예컨대, 상기 영상획득 장치(200)에 포함되는 다수의 카메라로 중 어떠한 영상을 동시 또는 순차적으로 디스플레이할지 여부 등을 제어할 수 있다.The data processing device 110 may control an image displayed on the monitoring device 111. For example, the plurality of cameras included in the image acquisition device 200 may control which images are simultaneously or sequentially displayed.

상기 데이터 처리장치(110)는 상기 센서(400)로부터 소정의 센싱신호를 수신하거나, 상기 시설물(500)을 제어하기 위한 제어신호를 상기 시설물(500)로 출력할 수 있다. The data processing apparatus 110 may receive a predetermined sensing signal from the sensor 400 or output a control signal for controlling the facility 500 to the facility 500.

상기 데이터 처리장치(110)에는 본 발명의 실시 예에 따른 기술적 사상을 구현하기 위해 상기 공간정보를 활용한 방범방재 시스템이 관리하는 공간(예컨대, 건물 또는 건물과 외부공간)에 상응하는 공간정보를 저장하고 있다. 상기 공간정보는 상기 공간이 건물인 경우 소정의 BIM(Building Information Modeling) 정보를 포함할 수 있다. 또한, 상기 공간이 외부공간인 경우는 소정의 GIS(geographic information system) 정보를 포함할 수도 있다. 따라서, 상기 공간정보는 상기 공간정보를 활용한 방범방재 시스템이 관리하는 공간에 상응하는 BIM 정보 또는 상기 GIS 정보 중 적어도 하나를 포함할 수 있다. The data processing apparatus 110 includes spatial information corresponding to a space (eg, a building or a building and an external space) managed by an anti-disaster prevention system using the spatial information to implement a technical idea according to an exemplary embodiment of the present invention. Saving. The spatial information may include predetermined building information modeling (BIM) information when the space is a building. In addition, when the space is an external space, it may include predetermined geographic information system (GIS) information. Therefore, the spatial information may include at least one of the BIM information or the GIS information corresponding to the space managed by the crime prevention disaster prevention system using the spatial information.

상기 공간정보는 본 출원인이 출원한 한국특허출원(출원번호 10-2007-0060641, "공간 맵 저작 방법 및 그 도구, 공간 맵을 이용한 자동화 시스템", 이하 '이전출원')에 개시된 바 있는 소정의 표준공간데이터로 표현될 수 있으며, 이전출원에 개시된 모델링 장치를 이용하여 상기 공간정보에 상응하는 BIM 정보를 생성할 수 있지만 이에 한정되는 것은 아니다. 이전출원에 개시된 기술적 사상 및 명세서의 기재는 본 명세서에 포함되는 것으로 간주하며, 본 발명의 레퍼런스로 포함될 수 있다.The spatial information is a predetermined one disclosed in the Korean patent application (Application No. 10-2007-0060641, "Spatial map authoring method and its tools, an automated system using a spatial map" filed by the present applicant, "previous application") The BIM information corresponding to the spatial information may be generated using the modeling apparatus disclosed in the previous application, but is not limited thereto. The description of the technical spirit and the specification disclosed in the previous application is regarded as included in the present specification and may be included as a reference of the present invention.

결국, 상기 데이터 처리장치(110)는 공간정보를 활용하여 상기 영상획득 장치(200)가 획득하는 영상에 대응하는 각각의 공간(이하, '서브공간'이라 함)의 위 상(위치 및 상태), 속성, 상기 서브공간과 다른 서브공간의 상관관계 등을 알 수 있다.As a result, the data processing apparatus 110 utilizes spatial information to determine the phase (position and state) of each space (hereinafter, referred to as a 'sub space') corresponding to an image acquired by the image acquisition apparatus 200. , Attributes, correlations between the subspaces and other subspaces can be known.

상기 영상획득 장치(200)는 상기 공간에 포함되는 서브공간을 촬영하여 실시간으로 상기 데이터 처리장치(110)로 전송할 수 있다. 상기 영상획득 장치(200)는 도 1에 도시된 바와 같이 다수 개일 수 있으며, 각각의 영상획득 장치(200)는 서로 종류가 다를 수도 있다. 예컨대, 상기 공간의 특정 서브공간을 촬영하기 위해서는 회전형 카메라(201)가 설치될 수도 있고, 다른 서브공간을 촬영하기 위해서는 고정형 카메라(202)가 설치될 수도 있다.The image acquisition apparatus 200 may photograph the subspace included in the space and transmit the captured image to the data processing apparatus 110 in real time. As shown in FIG. 1, the image acquisition apparatus 200 may be plural, and the image acquisition apparatus 200 may be different from each other. For example, a rotating camera 201 may be installed to photograph a specific subspace of the space, and a fixed camera 202 may be installed to photograph another subspace.

상기 영상 저장장치(300)는 상기 영상획득 장치(200)로부터 촬영된 영상을 저장할 수 있다. 구현 예에 따라, 상기 영상획득 장치(200)에 의해 촬영된 영상은 상기 제어장치(100)를 통해 상기 영상 저장장치(300)로 전송된 후 저장되거나, 상기 영상획득 장치(200)로부터 직접 상기 영상 저장장치(300)로 전송되어 저장될 수도 있다. 상기 제어장치(100)는 상기 영상 저장장치(300)에 저장된 영상들을 검색하고 추출하여 상기 모니터링 장치(111)에 디스플레이할 수 있다. 상기 영상 저장장치(300)에 저장되는 영상들은 상기 영상획득 장치(200)에 의해 획득되는 영상이 소정의 포맷이나 소정의 방식으로 압축된 형태일 수 있다. 따라서, 상기 영상획득 장치(200)로부터 상기 영상 저장장치(300)로 직접 획득되는 영상이 전송되는 경우에는 상기 영상 저장장치(300)는 소정의 인코딩 모듈을 포함할 수 있다. 물론 상기 제어장치(100)에 포함되는 상기 데이터 처리장치(110)에 소정의 인코딩 모듈이 포함될 수도 있다. 상기 영상 저장장치(300)는 상기 영상획득 장치(200)에 의해 획득 되는 영상을 저장할 수 있는 저장매체를 포함하기만 하면, 그 종류는 무관할 수 있다.The image storage device 300 may store an image photographed by the image acquisition device 200. According to an embodiment, the image captured by the image acquisition device 200 is stored after being transmitted to the image storage device 300 through the control device 100, or directly from the image acquisition device 200. The image storage apparatus 300 may be transmitted and stored. The control device 100 may search for, extract, and display the images stored in the image storage device 300 on the monitoring device 111. Images stored in the image storage device 300 may have a form in which an image obtained by the image acquisition device 200 is compressed in a predetermined format or a predetermined method. Therefore, when an image acquired directly from the image acquisition device 200 to the image storage device 300 is transmitted, the image storage device 300 may include a predetermined encoding module. Of course, a predetermined encoding module may be included in the data processing device 110 included in the control device 100. The image storage device 300 may be irrelevant as long as the image storage device 300 includes a storage medium capable of storing an image acquired by the image acquisition device 200.

상기 센서(400)는 필요에 따라 다양한 종류의 센싱장치를 포함할 수 있다. 예컨대, 도 1에 도시된 바와 같이 적외선 감지기(401), 열선 감지기(402) 등이 상기 센서(400)에 포함될 수 있다. 또한, 모션(motion) 감지기, 가스 감지기, 압력 감지기 등 필요에 따라 다양한 센싱장치가 상기 센서(400)에 포함될 수 있다. 상기 센서(400)가 상기 공간에 설치되면, 상기 공간 또는 상기 공간에 포함되는 소정의 서브공간에 특정 이벤트가 발생하는지 여부를 알 수 있다. 이를 위해 상기 센서(400)는 소정의 이벤트(예컨대, 사물 또는 사람의 출현, 화재, 가스누출 등)가 발생하는 경우, 소정의 센싱신호를 상기 제어장치(100)로 출력할 수 있다. The sensor 400 may include various kinds of sensing devices as necessary. For example, as illustrated in FIG. 1, an infrared detector 401, a heat ray detector 402, and the like may be included in the sensor 400. In addition, various sensing devices may be included in the sensor 400 as necessary, such as a motion detector, a gas detector, a pressure detector, and the like. When the sensor 400 is installed in the space, it may be known whether a specific event occurs in the space or a predetermined subspace included in the space. To this end, the sensor 400 may output a predetermined sensing signal to the control device 100 when a predetermined event (for example, the appearance of an object or a person, a fire, a gas leak, etc.) occurs.

특정 이벤트가 발생하는지 여부는 상기 특정 이벤트의 종류에 따라 상기 센서(400)를 통해 인식되는 것이 아니라, 소정의 영상인식 알고리즘을 통해서도 인식될 수 있다. 예컨대, 특정 객체(예컨대, 사람 또는 사물)의 움직임, 화재 등이 발생한 경우, 상기 제어장치(100)는 해당되는 영상을 영상획득 장치(200) 중 적어도 하나로부터 수신하고, 수신된 영상을 분석하여 특정 이벤트가 발생하였는지 여부를 알 수도 있다. 특정 이벤트의 발생 여부를 파악하기 위한 영상인식 방법에 대해서는 다양한 공지된 방법이 가능하며, 본 발명의 핵심 기술적 사상은 아니므로 설명의 편의를 위해 상세한 설명은 생략한다.Whether or not a specific event occurs is not recognized by the sensor 400 according to the type of the specific event, but may also be recognized through a predetermined image recognition algorithm. For example, when a movement or fire of a specific object (eg, a person or a thing) occurs, the control device 100 receives a corresponding image from at least one of the image acquisition devices 200, and analyzes the received image. It may be known whether a specific event has occurred. Various known methods may be used for the image recognition method for determining whether a specific event has occurred, and since the present invention is not a core technical idea, a detailed description thereof will be omitted for convenience of description.

상기 시설물(500)은 상기 제어장치(100)로부터 출력되는 제어신호에 응답하여 특정 시설물(예컨대, 문, 셔터, 스프링 쿨러, 환풍기 등)을 동작시키기 위한 소 정의 작동장치를 포함할 수 있다. 상기 제어장치(100)는 특정 이벤트가 발생하면 자동 또는 수동으로 상기 시설물(500)에 포함된 소정의 작동장치로 제어신호를 출력할 수 있으며, 상기 작동장치는 대응되는 시설물을 제어신호에 상응하도록 동작시킬 수 있다. 예컨대, 상기 제어장치(100)가 특정 서브공간에서 화재가 발생하였는지를 인식하면, 상기 제어장치(100)는 상기 공간정보를 참조하여 상기 서브공간의 위치를 파악할 수 있다. 또한, 상기 제어장치(100)는 상기 서브공간과 공간적 상관관계가 존재하는 공간도 파악할 수 있다. 그러면, 상기 화재가 발생한 서브공간을 폐쇄할 수 있는 시설물을 검색하고, 검색된 시설물을 제어할 수 있다. 또는 상기 화재가 번질 수 있는 다른 서브공간까지 폐쇄할 수 있도록 소정의 시설물을 제어할 수도 있다.The facility 500 may include a predetermined operation device for operating a specific facility (eg, a door, a shutter, a sprinkler, a fan, and the like) in response to a control signal output from the control device 100. The control device 100 may output a control signal to a predetermined operation device included in the facility 500 automatically or manually when a specific event occurs, the operation device to correspond to the control signal corresponding facilities It can be operated. For example, when the control device 100 recognizes that a fire has occurred in a specific subspace, the control device 100 may determine the location of the subspace with reference to the space information. In addition, the control device 100 may determine a space where a spatial correlation exists with the subspace. Then, it is possible to search for facilities that can close the sub-space in which the fire occurred, and to control the searched facilities. Alternatively, a predetermined facility may be controlled to close to another sub space where the fire may spread.

본 명세서에서 공간적 상관관계가 있다고 함은, 서로 다른 두 공간의 위상관계에 기초한 연결성이 존재함을 의미할 수 있다. 상기 위상관계는 두 개의 공간의 절대적인 위치뿐만 아니라 공간의 구조적 특성에 의한 두 개의 공간의 위치관계를 의미할 수 있다. 예컨대, 제1서브공간과 제2서브공간 사이의 거리가 가깝다고 하더라도, 공간의 구조에 의해 벽으로 막혀 있어서 멀리 돌아서 가야하는 경우라면, 두 공간의 위상관계는 멀다고 할 수 있다. 또는 제1서브공간과 제2서브공간의 이동경로가 없다면 두 공간의 위상관계는 단절됨을 의미할 수 있다. 상기 위상관계는 이벤트의 종류에 따라 다르게 정의될 수 있다. 예컨대, 특정 사람의 움직임이 이벤트인 경우, 제1서브공간과 공간적 상관관계가 존재하는 제2서브공간은 사람이 제1서브공간에서 위상관계에 연결성이 존재하는 제2서브공간을 의미할 수 있다. 즉, 문 이나 복도 등으로 연결되어 사람이 제1서브공간에서 직접 이동할 수 있는 다른 서브공간을 의미할 수 있다. In the present specification, the spatial correlation may mean that there is connectivity based on phase relationships between two different spaces. The phase relationship may mean not only the absolute position of the two spaces but also the positional relationship of the two spaces due to the structural characteristics of the spaces. For example, even if the distance between the first sub-space and the second sub-space is close, the phase relationship between the two spaces may be far if it is blocked by the wall by the structure of the space and needs to go far away. Alternatively, if there is no movement path between the first sub space and the second sub space, the phase relationship between the two spaces may be disconnected. The phase relationship may be defined differently according to the type of event. For example, when the movement of a specific person is an event, the second subspace in which a spatial correlation exists with the first subspace may mean a second subspace in which a person has connectivity in a phase relationship in the first subspace. . That is, it may mean another sub-space that is connected to a door or a corridor so that a person can move directly in the first sub-space.

예컨대, 화재발생이 이벤트인 경우 제1서브공간과 공간적 상관관계가 존재하는 제2서브공간은 제1서브공간에서 화기가 번질 수 있는 제2서브공간을 의미할 수 있다. 사람이 이동할 수 있는 공간 간의 관계와 화기가 번질 수 있는 공간 간의 관계는 서로 다를 수 있다. 예컨대, 통풍구를 통해서도 화기가 번질 수 있다고 하면, 통풍구로 연결된 제1서브공간과 제2서브공간은 화재가 발생한 경우에는 공간적 상관관계가 있는 서브공간들일 수 있지만, 사람이 움직이는 경우에는 그렇지 않을 수도 있다.For example, when the fire is an event, the second sub space having a spatial correlation with the first sub space may mean a second sub space where fire can spread in the first sub space. The relationship between the space where a person can move and the space where a fire can spread can be different. For example, if the fire can be spread through the air vents, the first sub space and the second sub space connected to the air vents may be spatially correlated sub spaces in case of a fire, but may not be the case when a person moves. .

상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500) 각각의 위치, 속성, 크기 등에 대한 정보는 상기 공간정보 상에 표현될 수 있다. 즉, 상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500)이 상기 공간에 설치되면, 상기 공간을 나타내는 공간정보에 상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500)에 대한 정보가 추가될 수 있다. Information about the position, property, size, etc. of each of the image acquisition device 200, the sensor 400, and the facility 500 may be represented on the spatial information. That is, when the image acquisition device 200, the sensor 400, and the facility 500 are installed in the space, the image acquisition device 200, the sensor 400, and the space information indicating the space. Information about facility 500 may be added.

이하에서, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에 대해 더욱 상세히 설명하도록 한다.Hereinafter, the crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention will be described in more detail.

상기 제어장치(100)에 포함되는 상기 데이터 처리장치(110)에는 적어도 상기 공간에 상응하는 공간정보 및 상기 공간상에 위치한(설치된) 상기 영상획득 장치(200)에 대한 정보를 저장할 수 있다. 따라서, 상기 제어장치(100)는 상기 공간의 구조, 공간의 속성, 및 상기 공간에 포함된 서브공간들의 공간적 위 상(topology) 정보와 공간적 상관관계를 파악할 수 있다. 위상정보라 함은 전체 공간에서 서브공간의 위치 및 상태를 의미할 수 있다. 또한, 상기 제어장치(100)는 상기 영상획득 장치(200)에 대한 정보를 저장하므로, 상기 영상획득 장치(200)에 의해 촬영되는 서브공간의 위치, 속성, 위상 정보와 상기 서브공간과 공간적 상관관계가 존재하는 다른 서브공간 등을 알 수 있다.The data processing apparatus 110 included in the control apparatus 100 may store at least spatial information corresponding to the space and information on the image acquisition apparatus 200 located (installed) in the space. Accordingly, the control device 100 may grasp the spatial structure and the spatial topology of the space, the attributes of the space, and the spatial topology information of the subspaces included in the space. The phase information may mean the position and state of the subspace in the entire space. In addition, since the control device 100 stores information about the image acquisition device 200, the position, property, phase information of the subspace photographed by the image acquisition device 200 and the spatial relationship with the subspace. Know other subspaces where relationships exist.

따라서, 상기 제어장치(100)는 상기 공간정보 또는 상기 영상획득 장치(200)에 대한 정보 중 적어도 하나에 기초하여 상기 영상획득 장치(200)를 제어하거나 상기 제어장치(100)에 포함되는 상기 모니터링 장치(111)에 디스플레이될 영상을 제어할 수 있다.Therefore, the control device 100 controls the image acquisition device 200 or is included in the control device 100 based on at least one of the spatial information or information on the image acquisition device 200. The image to be displayed on the device 111 may be controlled.

예컨대, 상기 제어장치(100)는 상기 공간에 포함되는 특정 서브공간의 위치에 대한 정보(예컨대, 공간의 좌표 등)를 수신함으로써 상기 영상획득 장치(200)가 상기 특정 서브공간을 촬영하도록 제어할 수 있다. 또는, 도 10에 도시된 바와 같이 상기 공간정보에 기초하여 상기 공간에 상응하는 모델링 정보를 디스플레이하고, 디스플레이된 상기 공간의 모델링 정보를 이용하여 상기 영상획득 장치(200)를 제어할 수도 있다.For example, the control apparatus 100 may control the image acquisition apparatus 200 to photograph the specific subspace by receiving information (eg, coordinates of the space) of the position of the specific subspace included in the space. Can be. Alternatively, as illustrated in FIG. 10, modeling information corresponding to the space may be displayed based on the spatial information, and the image acquisition apparatus 200 may be controlled using the displayed modeling information of the space.

또한, 상기 제어장치(100)가 특정 서브공간의 위치에 대한 정보를 입력하면, 상기 서브공간을 촬영하는 영상획득 장치(200)를 상기 영상획득 장치(200)에 대한 정보에 기초하여 파악하고, 파악된 영상획득 장치(200)에 상응하는 영상을 상기 모니터링 장치(111)에 디스플레이할 수 있다.In addition, when the control apparatus 100 inputs information on the position of a specific subspace, the image acquisition apparatus 200 for capturing the subspace is grasped based on the information on the image acquisition apparatus 200, An image corresponding to the identified image acquisition device 200 may be displayed on the monitoring device 111.

즉, 상기 공간정보를 활용한 방범방재 시스템은 상기 공간정보와 상기 영상 획득 장치(200)에 대한 정보를 이용하여 다양한 방식으로 상기 영상획득 장치(200)를 제어하거나, 상기 영상획득 장치(200)로부터 출력되어 모니터링 장치(111)에 디스플레이되는 영상 즉, 모니터링되는 서브공간을 제어할 수 있다.That is, the crime prevention disaster prevention system using the spatial information controls the image acquisition device 200 in various ways by using the spatial information and the information on the image acquisition device 200, or the image acquisition device 200. It is possible to control the image output from the displayed on the monitoring device 111, that is, the monitored sub-space.

상기 영상획득 장치(200)에 대한 정보는 상기 영상획득 장치(200)의 위치(예컨대, 설치위치)에 대한 정보, 상기 영상획득 장치(200)가 감시하는 상기 공간의 일부 즉, 서브공간의 위치에 대한 정보, 상기 영상획득 장치(200)가 감시하는 상기 서브공간의 속성(예컨대, 서브공간의 종류(방, 거실, 복도, 엘리베이터, 옥상, 주차장 등)에 대한 정보, 상기 영상획득 장치(200)의 속성(예컨대, 카메라의 종류, 시야각 등과 같은 카메라 특성)에 대한 정보, 상기 영상획득 장치(200)의 배선에 대한 정보, 상기 영상획득 장치(200)의 영상획득 루트에 대한 정보 중 적어도 하나를 포함할 수 있다. 상기 영상획득 장치(200)의 배선에 대한 정보는 관리자가 영상획득 장치(200)를 설치 및 유지/보수하는데 사용될 수 있으며, 상기 영상획득 장치(200)의 영상획득 루트에 대한 정보는 영상이 상기 제어장치(100) 및/또는 상기 영상 저장장치(300)로 전송되는 네트워크 경로를 의미할 수 있다. 상기 영상획득 루트에 대한 정보를 파악함으로써, 특정 네트워크 장비 또는 노드가 단절 또는 오동작을 일으킬 때에 그 경로를 변경하여 정상적으로 영상을 획득할 수 있는 효과가 있다. 이러한 영상획득 장치(200)에 대한 정보 중 적어도 일부는 상기 공간정보와 함께 저장 및 관리되어 상기 영상획득 장치(200)를 나타내는 아이콘 또는 그림이 도 3의 식별번호 210 내지 213과 같이 상기 공간의 모델링 정보 상에 표현될 수 있다.The information on the image acquisition device 200 is information on the position (eg, installation position) of the image acquisition device 200, a part of the space that is monitored by the image acquisition device 200, that is, the location of the subspace. Information about the attributes of the subspace (for example, the type of subspace (room, living room, corridor, elevator, roof, parking lot, etc.), and the image acquisition apparatus 200 that are monitored by the image acquisition apparatus 200). At least one of information on attributes (eg, camera characteristics such as camera type, viewing angle, etc.), information on wiring of the image acquisition apparatus 200, and information on an image acquisition route of the image acquisition apparatus 200. Information about the wiring of the image acquisition apparatus 200 may be used by an administrator to install, maintain, and / or maintain the image acquisition apparatus 200, and may be included in an image acquisition route of the image acquisition apparatus 200. Information about zero This may refer to a network path transmitted to the control device 100 and / or the image storage device 300. By grasping the information on the image acquisition route, a specific network device or node may cause disconnection or malfunction. In this case, at least a part of the information on the image acquisition apparatus 200 is stored and managed together with the spatial information to represent the image acquisition apparatus 200. Alternatively, a picture may be represented on modeling information of the space as shown in identification numbers 210 to 213 of FIG. 3.

또한, 상기 영상 저장장치(300)는 종래의 방법과는 달리 영상과 함께 상기 영상에 대응되는 서브공간의 위치 등과 같은 위상정보 및/또는 상기 영상획득 장치(200)에 대한 정보를 같이 저장할 수 있다. 예컨대, 상기 영상 저장장치(300)는 제1카메라에 대한 정보와 상기 제1카메라가 촬영한 영상을 같이 저장할 수 있다. 따라서, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에서는 상기 영상 저장장치(300)에 저장된 영상을 검색할 때에도 상기 영상획득 장치(200)에 대한 정보에 기초하여 저장된 영상을 검색할 수 있다.In addition, unlike the conventional method, the image storage device 300 may store the phase information such as the position of the subspace corresponding to the image and / or the information about the image acquisition device 200 together with the image. . For example, the image storage device 300 may store information about the first camera and an image photographed by the first camera. Therefore, in the crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention, even when searching for an image stored in the image storage device 300, the stored image may be searched based on the information on the image acquisition device 200. Can be.

도 2는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에서 모니터링 장치에 디스플레이되는 화면의 일 실시 예를 나타낸다.Figure 2 shows an embodiment of a screen displayed on the monitoring device in the crime prevention disaster prevention system using the spatial information according to an embodiment of the present invention.

도 2를 참조하면, 상기 제어장치(100)는, 상기 적어도 하나의 영상획득 장치(200) 각각에 의해 획득되는 영상들을 상기 영상획득 장치(200) 각각의 위상관계 또는 상기 영상에 대응되는 공간의 위상관계에 대응되도록 디스플레이할 수 있다. 예컨대, 제1카메라, 제2카메라, 제3카메라가 각각 촬영하는 제1영상(10), 제2영상(11), 및 제3영상(12)이 존재하는 경우, 제1카메라와 제2카메라(또는 제1영상(10)에 대응되는 공간과 제2영상(11)에 대응되는 공간)의 위상관계가 가장 가까운 경우에는 제1영상(10)과 제2영상(11)이 도 2에 도시된 바와 같이 인접하여 디스플레이될 수 있다. 위상관계의 거리는 공간의 구조적 특성에 상응하는 거리를 의미할 수 있다. 상기 제2카메라와 제3카메라의 위상관계는 다소 멀 수 있으므로, 상기 제2영상(11)과 상기 제3영상(12)은 다소 떨어져서 디스플레이될 수 있다. 관리자는 간단한 입력장치의 조작(예컨대, 좌/우 이동번튼을 입력)함으로써 가장 인접한 카 메라가 촬영하는 영상, 또는 가장 인접한 공간의 영상을 편리하게 모니터링 할 수 있다. 종래에는 가장 인접한 카메라 또는 공간에 대한 정보를 사람이 미리 별도로 파악하고 있어야 했다. 하지만, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 공간정보 및 영상획득 장치(200)에 대한 정보에 기초하여 자동으로 영상획득 장치(200) 간의 위상관계 및 또는 대응되는 공간의 위상관계를 파악할 수 있으므로, 미리 사람이 별도로 위상관계를 파악해놓거나 파악한 정보를 저장할 필요가 없는 효과가 있다.Referring to FIG. 2, the control device 100 displays images acquired by each of the at least one image acquisition device 200 in a phase relationship of each of the image acquisition devices 200 or in a space corresponding to the images. It may be displayed to correspond to the phase relationship. For example, when there is a first image 10, a second image 11, and a third image 12 captured by the first camera, the second camera, and the third camera, respectively, the first camera and the second camera. If the phase relationship between the space corresponding to the first image 10 and the space corresponding to the second image 11 is closest to each other, the first image 10 and the second image 11 are shown in FIG. 2. Can be displayed adjacently. The distance of the phase relationship may mean a distance corresponding to the structural characteristics of the space. Since the phase relationship between the second camera and the third camera may be somewhat far, the second image 11 and the third image 12 may be displayed slightly apart. The administrator can conveniently monitor the image taken by the nearest camera or the image of the nearest space by simply operating an input device (eg, inputting a left / right moving button). In the past, a person had to separately grasp information about the nearest camera or space. However, the anti-disaster prevention system using the spatial information according to the embodiment of the present invention automatically based on the spatial information and the information on the image acquisition device 200, the phase relationship between the image acquisition device 200 and or of the corresponding space Since the phase relationship can be grasped, there is an effect that a person does not need to separately grasp the phase relationship or store the grasped information.

도 3은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템을 이용한 지능형 모니터링 방법을 설명하기 위한 도면을 나타낸다.3 is a view for explaining an intelligent monitoring method using a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.

도 3에서는 2D로 표현된 공간의 모델링 정보를 나타내는데, 도 3에 도시된 바와 같이 다수의 영상획득 장치(210, 211, 212, 213) 및 이들에 대응되는 각각의 영상(210-1 ~ 210-3)이 상기 모델링 정보와 함께 디스플레이될 수 있다. 상기 영상획득 장치(210~213) 각각은 영상획득 장치(210~213) 각각이 설치된 위치에 상응하도록 상기 모델링 정보 상에 표현될 수 있다.In FIG. 3, modeling information of a space represented by 2D is illustrated. As shown in FIG. 3, a plurality of image acquisition devices 210, 211, 212, and 213 and respective images 210-1 to 210-corresponding thereto are illustrated. 3) may be displayed together with the modeling information. Each of the image acquisition apparatuses 210 to 213 may be represented on the modeling information so as to correspond to a location where each of the image acquisition apparatuses 210 to 213 is installed.

예컨대, 제1영상획득 장치(210)에 대응되는 제1서브공간에서 특정 객체(사람 또는 사물)의 침입이 발생하면, 상기 제어장치(100)는 이를 인식할 수 있다. 이는 전술한 바와 같이 영상인식 알고리즘, 또는 상기 제1서브공간에 설치된 소정의 센서(400)로부터 출력되는 센싱(sensing)신호에 기초하여 알 수 있다. 그러면, 상기 제어장치(100)는 상기 제1서브공간에 대응되는 제1영상획득 장치(210)를 검색하여 대응되는 제1영상(210-1)을 모니터링 장치(111)에 디스플레이할 수 있다. 또한, 상 기 제어장치(100)는 상기 제1서브공간과 공간적 상관관계가 존재하는 서브공간을 검색하고, 검색된 서브공간에 대응되는 영상(예컨대, 211-1~213-1)을 상기 제1영상(210-1)과 동시에 또는 순차적으로 디스플레이할 수 있다. 상기 제1서브공간과 공간적 상관관계가 존재한다고 함은, 전술한 바와 같이 제1서브공간과 위상관계가 연결성이 있는 것을 의미할 수 있다. 예컨대, 상기 제1서브공간에서 상기 객체가 이동가능한 제2서브공간이 제1서브공간과 공간적 상관관계가 존재하는 공간일 수 있다.For example, when an intrusion of a specific object (person or object) occurs in the first sub space corresponding to the first image acquisition device 210, the control device 100 may recognize the intrusion. This may be known based on an image recognition algorithm or a sensing signal output from a predetermined sensor 400 installed in the first sub space as described above. Then, the control device 100 may search for the first image acquisition device 210 corresponding to the first sub-space and display the corresponding first image 210-1 on the monitoring device 111. In addition, the controller 100 searches for a subspace in which a spatial correlation exists with the first subspace, and displays an image (eg, 211-1 to 213-1) corresponding to the found subspace in the first subspace. The image 210-1 may be displayed simultaneously or sequentially. The existence of the spatial correlation with the first subspace may mean that the first subspace and the phase relationship are connected as described above. For example, a second sub space in which the object is movable in the first sub space may be a space in which a spatial correlation exists with the first sub space.

만약 순차적으로 영상을 디스플레이하는 경우, 공간적 상관관계가 존재하는 공간중 위상관계가 가까운 순서대로 영상이 디스플레이될 수 있다. 도 3에 도시된 예에서는 제1영상(210-1)과 제2영상(211-1)이 순차적으로 디스플레이된 후 제3영상(212-1) 및/또는 제4영상(213-1)이 동시 또는 순차로 디스플레이될 수 있다. 물론, 상술한 바와 같은 방식으로 상기 제어장치(100)에 모니터링되는 영상은 실시간으로 상기 영상 저장장치(300)에 저장될 수 있다. 즉, 이벤트의 발생과 진행과정에 관련된 영상이 같이 저장될 수 있다. 물론, 이때에는 시간에 대한 정보(예컨대, 각 영상별 이벤트 발생시간 또는 영상 저장시간)에 대한 정보가 같이 저장될 수 있다. 또한, 전술한 바와 같이 영상획득 장치(200)에 대한 정보도 같이 저장될 수 있다. 그러면, 저장된 영상을 검색하는 경우, 특정 공간에 대한 정보와 시간에 대한 정보를 입력하는 경우, 상기 영상획득 장치(200)에 대한 정보에 기초하여 상기 특정 공간에 상응하는 영상을 중 입력된 시간에 상응하는 영상부분을 검색하고, 상기 영상부분과 같이 저장된 영상 즉, 공간적 상관관계가 존재하는 영상들이 동시에 검색 및 추출될 수 있다.If the images are sequentially displayed, the images may be displayed in the order in which the phase relations in the space where the spatial correlation exists are close to each other. In the example shown in FIG. 3, after the first image 210-1 and the second image 211-1 are sequentially displayed, the third image 212-1 and / or the fourth image 213-1 is displayed. It can be displayed simultaneously or sequentially. Of course, the image monitored by the control device 100 in the manner described above may be stored in the image storage device 300 in real time. That is, images related to the occurrence and progress of the event may be stored together. Of course, in this case, information on time (eg, event generation time or image storage time for each image) may be stored together. In addition, as described above, information about the image acquisition apparatus 200 may be stored together. Then, when the stored image is searched, when information on a specific space and information on a time are input, based on the information on the image acquisition apparatus 200, an image corresponding to the specific space is input at the input time. The corresponding image portion may be searched for, and images stored with the image portion, that is, images having spatial correlation may be searched and extracted at the same time.

물론, 특정 공간 및 제특정 공간과 공간적 상관관계가 존재하는 영상이 각각 별도로 저장될 수도 있다. 이때에도 상기 제어장치(100)가 특정 공간에 대한 정보(예컨대, 주차장 A 지역)와 특정 시간을 입력하면, 상기 특정 공간에 상응하는 영상 또는 영상획득 장치에 대한 정보를 검색하고, 검색된 영상과 공간적 상관관계가 존재하는 영상을 자동으로 검색하여, 이벤트의 발생 및 진행상황을 손쉽게 검색 및 추출할 수 있다.Of course, images having a spatial correlation with a specific space and a specific space may be separately stored. In this case, when the control apparatus 100 inputs information on a specific space (for example, a parking lot A region) and a specific time, the controller 100 searches for information on an image or an image acquisition device corresponding to the specific space, and searches for the searched image and spatial information. By automatically searching for images that have correlations, you can easily search for and extract events and their progress.

도 4 내지 도 5는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 모니터링 기법의 일 예를 설명하기 위한 도면이다.4 to 5 are diagrams for explaining an example of a monitoring technique of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.

도 4 내지 도 5를 참조하면, 상기 제어장치(100)에 포함되는 모니터링 장치(111)에는 도 4 또는 도 5에 도시된 바와 같이, 공간의 모델링 정보, 영상획득 장치에 상응하는 아이콘(221~223), 및 상기 영상획득 장치 각각이 촬영하는 영상(221-1~223-1)이 디스플레이될 수 있다. 도 4 내지 도 5에 도시된 바와 같이 상기 공간의 모델링 정보는 2D로 표현되거나, 도6에 도시된 바와 같이 3D로 표현될 수도 있다.4 to 5, as illustrated in FIG. 4 or 5, the monitoring device 111 included in the control device 100 may include icons 221 ˜ corresponding to modeling information of a space and an image acquisition device. 223, and images 221-1 to 223-1 photographed by each of the image capturing devices may be displayed. As shown in FIGS. 4 to 5, the modeling information of the space may be represented in 2D or 3D as illustrated in FIG. 6.

또한, 도 4에 도시된 바와 같이 영상획득 장치 각각이 촬영하는 영상(221-1~223-1)은 상기 영상획득 장치에 상응하는 아이콘(221~223)에 인접한 위치에 배치되도록 하여, 모델링 정보 상의 영상획득 장치의 위치와의 연관성을 직관적으로 판단이 용이하게 할 수 있다. 또는 도 5에 도시된 바와 같이 공간의 모델링 정보와는 별개의 영역에 상기 영상(221-1~223-1)이 디스플레이될 수도 있다.In addition, as illustrated in FIG. 4, the images 221-1 to 223-1 captured by the image acquisition apparatuses are disposed at positions adjacent to the icons 221 to 223 corresponding to the image acquisition apparatuses. The correlation with the position of the image acquisition apparatus on the image may be intuitively determined. Alternatively, as illustrated in FIG. 5, the images 221-1 to 223-1 may be displayed in a region separate from the space modeling information.

한편, 상기 모델링 정보 상에는 상기 적어도 하나의 영상획득 장치 각각이 획득할 수 있는 영상의 커버리지에 대한 정보(222-1, 223-2)가 디스플레이될 수 있다. 따라서, 관리자는 직관적으로 상기 공간정보를 활용한 방범방재 시스템에 의해 감시되는 영역을 확인할 수 있으며, 후술할 바와 같이 영상획득 장치의 설치 및 구축 시에도 감시가 되지 않는 부분을 가능하면 줄이면서 효율적인 감시가 되도록 할 수 있다.Meanwhile, on the modeling information, information 222-1 and 223-2 on coverage of an image that can be obtained by each of the at least one image acquisition device can be displayed. Therefore, the administrator can intuitively check the area monitored by the crime prevention and disaster prevention system using the spatial information, and as described below, effectively monitor while reducing the part not monitored even when installing and constructing the image acquisition device. Can be

또한, 영상획득 장치(200)의 개수가 많아서 각각의 영상획득 장치(200)가 촬영하는 영상을 동시에 디스플레이하기 어려운 경우, 상기 제어장치(100)에 의해 특정 영상획득 장치가 선택되면, 선택된 영상획득 장치에 대응되는 영상만이 상기 제어장치(100)에 디스플레이될 수 있다.In addition, when the number of the image capturing apparatus 200 is large and it is difficult to simultaneously display the images captured by each image capturing apparatus 200, when a specific image capturing apparatus is selected by the control apparatus 100, the selected image capturing apparatus is selected. Only an image corresponding to the device may be displayed on the control device 100.

도 6 내지 도 7은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 모니터링 기법의 일 예를 설명하기 위한 도면이다.6 to 7 are diagrams for explaining an example of a monitoring technique of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.

도 6 내지 도 7 역시 공간의 모델링 정보, 영상획득 장치(224~228)에 상응하는 아이콘, 및 상기 영상획득 장치(224~228)에 상응하는 각각의 영상 중 적어도 일부(224-1, 226-1, 228-1)가 상기 제어장치(100)에 디스플레이될 수 있다.6 to 7 also show at least some of the modeling information of the space, icons corresponding to the image capturing devices 224 to 228, and respective images corresponding to the image capturing devices 224 to 228. 1, 228-1 may be displayed on the control device 100.

도 6에 도시되는 바와 같이 상기 영상획득 장치(224~228)에 대응되는 영상 전부가 디스플레이될 수도 있지만, 관리자가 선택한 일부의 영상만이 디스플레이될 수 있다. 또한, 도 7에 도시된 바와 같이, 각각의 영상획득 장치(224~228)의 인접한 위치에 소정의 썸네일 영상이 디스플레이되며, 상기 썸네일 영상을 선택하면, 확대된 영상이 디스플레이될 수도 있다.As shown in FIG. 6, all of the images corresponding to the image capturing devices 224 ˜ 228 may be displayed, but only some of the images selected by the administrator may be displayed. In addition, as shown in FIG. 7, a predetermined thumbnail image is displayed at an adjacent position of each of the image acquisition apparatuses 224 ˜ 228, and when the thumbnail image is selected, an enlarged image may be displayed.

한편, 도 4 내지 도 7에 도시되는 모델링 정보 상에서 관리자가 소정의 입력장치(예컨대, 마우스 등)로 특정 영역을 선택하면, 상기 제어장치(100)는 선택된 상기 특정 영역에 대응되는 영상을 디스플레이할 수 있다. 이를 위해, 상기 제어장치(100)는 선택된 영역에 상응하는 공간의 위치정보를 파악하고, 파악된 위치정보를 촬영하는 영상획득 장치에 대한 정보를 파악하며, 파악된 영상획득 장치에 대응되는 영상을 상기 제어장치(100)에 디스플레이할 수 있다.On the other hand, when the administrator selects a specific area with a predetermined input device (eg, a mouse) on the modeling information illustrated in FIGS. 4 to 7, the control device 100 may display an image corresponding to the selected specific area. Can be. To this end, the control device 100 determines the location information of the space corresponding to the selected area, the information on the image acquisition device for capturing the identified location information, and the image corresponding to the identified image acquisition device. It may be displayed on the control device 100.

상기 특정 영역에 대한 정보는 사용자가 모델링 정보 상에서 직접 선택할 수도 있지만, 다른 방식으로 입력할 수도 있다. 예컨대, 특정 영역을 나타내는 좌표정보 또는 특정 영역의 명칭(예컨대, 방번호, 지역번호, 섹션 번호 등)를 입력할 수도 있다.The information on the specific region may be directly selected by the user on the modeling information, or may be input in another manner. For example, coordinate information indicating a specific area or a name of the specific area (eg, room number, area code, section number, etc.) may be input.

한편, 특정 영역에 대한 정보가 입력 또는 선택되면, 상기 제어장치(100)는 선택된 특정 영역의 공간속성(예컨대, 방, 거실, 주방, 복도, 계단 등)을 파악할 수 있다. 이러한 공간속성에 대한 정보는 상기 공간정보에 포함된다. 그러면, 상기 제어장치(100)는 파악된 공간속성에 상응하는 공간속성(예컨대, 동일한 종류의 공간속성)을 갖는 다른 서브공간을 파악하고, 파악된 다른 서브공간에 대한 영상도 상기 특정 영역에 상응하는 영상과 함께 디스플레이할 수 있다. 예컨대, 사용자가 계단의 특정 공간을 선택하면, 상기 공간에 포함된 모든 계단 중 적어도 일부의 영상을 디스플레이할 수 있다.On the other hand, when information on a specific area is input or selected, the control device 100 may grasp the spatial attributes (eg, a room, a living room, a kitchen, a hallway, a staircase, etc.) of the selected specific area. Information about such spatial attributes is included in the spatial information. Then, the control apparatus 100 identifies another subspace having a spatial attribute corresponding to the identified spatial attribute (eg, the same kind of spatial attribute), and the image of the identified other subspace also corresponds to the specific region. Can be displayed together with the image. For example, when the user selects a specific space of the stairs, an image of at least some of all the stairs included in the space may be displayed.

또한, 전술한 바와 유사하게 특정 영역이 입력 또는 선택되면, 상기 특정 영역에 상응하는 영상과 함께 상기 특정 영역과 공간적 상관관계가 존재하는 서브공 간의 영상도 디스플레이될 수 있다.In addition, as described above, when a specific area is input or selected, an image of a sub-space having a spatial correlation with the specific area may be displayed together with the image corresponding to the specific area.

도 8 내지 도 9는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템을 이용한 선별적 모니터링 방법을 설명하기 위한 도면이다.8 to 9 are views for explaining a selective monitoring method using a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.

도 8 내지 도 9를 참조하면, 관리자는 모델링 정보상에서 특정 공간속성(예컨대, 방, 거실, 주방, 복도, 계단 등)을 갖는 특정 영역을 선택하거나, 상기 특정 공간속성을 직접 입력할 수 있다. 그러면, 상기 특정 공간속성을 갖는 서브공간들이 모델링 정보상에 디스플레이될 수 있다. 예컨대, 관리자가 계단 중 특정 부분을 모델링 정보상에서 선택하거나 계단이라는 공간속성을 이력하면, 도 8에 도시된 바와 같이 모델링 정보(21)상에서 상기 공간속성을 갖는 서브공간들 중 적어도 일부(20)가 모델링 정보(21)상에 표현될 수 있다. 또한, 각 서브공간들에 상응하는 영상들(20-1 ~ 20-7)이 디스플레이될 수 있다. 도 8에 도시된 모델링 정보(21)는 상기 공간의 간략화된 모델링 정보일 수 있다.8 to 9, the manager may select a specific area having a specific space attribute (eg, a room, a living room, a kitchen, a corridor, a staircase, etc.) or directly input the specific space attribute on the modeling information. Then, the subspaces having the specific spatial attributes can be displayed on the modeling information. For example, if a manager selects a specific portion of the stairs on the modeling information or records the space attribute of the stairs, as shown in FIG. 8, at least some of the subspaces having the space attribute on the modeling information 21 are 20. It can be represented on the modeling information 21. In addition, images 20-1 to 20-7 corresponding to respective subspaces may be displayed. The modeling information 21 shown in FIG. 8 may be simplified modeling information of the space.

도 9는 특정 영역이 엘리베이터인 경우를 도시하고 있는데, 도 9에도 선택된 공간속성(예컨대, 엘리베이터)을 갖는 서브공간들(31)이 모델링 정보상에 표현될 수 있으며, 상응하는 영상들(31-1~31-4)이 상기 제어장치(100)에 디스플레이될 수 있다. 관리자는 도 9에 도시된 소정의 유저 인터페이스(30)를 이용하여 공간속성을 선택할 수도 있다.9 illustrates a case in which a specific area is an elevator. In FIG. 9, subspaces 31 having a selected spatial attribute (eg, an elevator) may be represented on modeling information, and corresponding images 31-1 may be represented. 31-4) may be displayed on the control device 100. The administrator may select the space attribute using the predetermined user interface 30 shown in FIG.

도 10a 내지 도 10g는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 구축 및 동작을 설명하기 위한 도면이다.10A to 10G are diagrams for explaining the construction and operation of a crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention.

먼저, 도 10a를 참조하면, 제어장치(100)는 공간에 상응하는 2차원 또는 3차 원의 공간모델링 정보를 디스플레이할 수 있다. 그리고 상기 제어장치(100)에는 적어도 하나의 영상획득 장치(40)가 디스플레이될 수 있다. 그리고, 각각의 영상획득 장치(40)의 속성정보(예컨대, 카메라 종류, 시야각 등, 41)가 디스플레이될 수 있다. 사용자는 속성정보를 참조하여 필요한 영상획득 장치(40)를 선택한 후 모델링 정보 상에 위치시킬 수 있다. 그러면, 상기 영상획득 장치(40)를 나타내는 소정의 아이콘(42)이 모델링 정보 상에 나타난다.First, referring to FIG. 10A, the control device 100 may display spatial modeling information of two-dimensional or three-dimensional circles corresponding to a space. At least one image acquisition device 40 may be displayed on the control device 100. In addition, attribute information (eg, camera type, viewing angle, and the like) 41 of each image acquisition device 40 may be displayed. The user may select the required image acquisition device 40 with reference to the attribute information and then place it on the modeling information. Then, a predetermined icon 42 representing the image acquisition device 40 appears on the modeling information.

그러면, 도 10b에 도시된 바와 같이 상기 영상획득 장치(40)가 획득할 수 있는 공간의 커버리지에 대한 정보(43)가 디스플레이될 수 있다. 도 10b의 커버리지에 대한 정보(43)를 참조하면, 영상획득 장치(40)가 벽면을 향하고 있으므로 카메라의 방향을 조절할 필요가 있다.Then, as illustrated in FIG. 10B, the information 43 about the coverage of the space that the image acquisition device 40 may acquire may be displayed. Referring to the information 43 on the coverage of FIG. 10B, since the image acquisition device 40 faces the wall, it is necessary to adjust the direction of the camera.

관리자는 상기 아이콘(42)을 소정의 사용자 입력장치(예컨대, 마우스, 스틱 등)를 이용하여 회전시킬 수 있고, 그에 따라 도 10c에 도시된 바와 같이 영상획득 장치(4)의 방향을 조절할 수 있다.The administrator can rotate the icon 42 using a predetermined user input device (eg, a mouse, a stick, etc.), and accordingly, adjust the direction of the image acquisition device 4 as shown in FIG. 10C. .

그러면, 상기 영상획득 장치(40)에 의해 촬영되는 부분에 상응하는 소정의 가상영상(46)이 도 10d에 도시되는 바와 같이 디스플레이될 수 있다. 상기 가상영상(46)은 실제 영상획득 장치가 설치되기 전의 시뮬레이션 과정에 있으므로, 실제 영상획득 장치로부터 수신되는 영상이 없으므로, 상기 공간정보에 기초한 모델링 정보의 일부를 가상영상으로 사용할 수 있는 것이다. 관리자는 상기 가상영상(46)이 디스플레이되는 소정의 인터페이스 장치(예컨대, 프레임)에는 소정의 스크롤 인터페이스(45, 47)가 포함될 수 있다. 관리자는 상하 스크롤 인터페이스(45)를 조절 하여 상기 영상획득 장치(4)의 상하 각도를 조절할 수 있으며, 좌우 스크롤 인터페이스(47)를 이용하여 좌우 각도를 조절할 수도 있다. Then, a predetermined virtual image 46 corresponding to the portion captured by the image acquisition device 40 may be displayed as shown in FIG. 10D. Since the virtual image 46 is in a simulation process before the actual image acquisition apparatus is installed, since there is no image received from the actual image acquisition apparatus, a part of the modeling information based on the spatial information may be used as the virtual image. The manager may include a predetermined scroll interface 45, 47 in a predetermined interface device (eg, a frame) on which the virtual image 46 is displayed. The administrator may adjust the vertical angle of the image acquisition device 4 by adjusting the vertical scroll interface 45, and may adjust the horizontal angle by using the horizontal scroll interface 47.

이상과 같이 어느 하나의 영상획득 장치(40)의 설치가 끝나면, 유사한 과정을 통해 실제 필요한 영상획득 장치를 모두 배치할 수 있으며, 그 결과 도 10e에 도시된 바와 같은 화면이 제어장치(100)에 디스플레이될 수 있다. 따라서 이러한 시뮬레이션 과정을 통해 관리자는 영상획득 장치의 배치나 위치를 미리 시뮬레이션 해봄으로써 최적의 방범방배 시스템을 효율적으로 구축해볼 수 있다.After the installation of any one of the image acquisition apparatus 40 as described above, it is possible to arrange all the necessary image acquisition apparatus through a similar process, as a result, the screen as shown in Figure 10e to the control device 100 Can be displayed. Therefore, through this simulation process, the administrator can effectively construct the optimal crime prevention system by simulating the arrangement or position of the image acquisition device in advance.

또한, 도 10f에 도시된 바와 같이, 상기 제어장치(100)에는 배치된 영상획득 장치들에 상응하는 가상영상(48)이 디스플레이될 수 있다. 또한, 상기 가상영상(48)과 함께 전술한 바와 같은 소정의 스크롤 인터페이스(46-1, 48-1)이 디스플레이될 수 있으며, 이를 통해 영상획득 장치의 조절이 가능하다. In addition, as illustrated in FIG. 10F, the control apparatus 100 may display a virtual image 48 corresponding to the arranged image acquisition apparatuses. In addition, the predetermined scroll interfaces 46-1 and 48-1 as described above may be displayed together with the virtual image 48, and thus the image acquisition apparatus may be adjusted.

그 후, 시뮬레이션 결과대로 실제 영상획득 장치를 설치하면, 도 10g에 도시된 바와 같이 각 영상획득 장치에 상응하는 실제 영상이 디스플레이될 수 있다.Thereafter, if the actual image acquisition device is installed as a simulation result, as shown in FIG. 10G, an actual image corresponding to each image acquisition device may be displayed.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.

도 1은 종래의 네트워크 인터페이스 카드의 개략적인 구성을 나타낸다.1 shows a schematic configuration of a conventional network interface card.

도 2는 본 발명의 실시 예에 따른 네트워크 인터페이스 카드의 개략적인 구성을 나타낸다.2 shows a schematic configuration of a network interface card according to an embodiment of the present invention.

도 3a 내지 도3c는 본 발명의 실시 예에 따른 네트워크 인터페이스 카드의 스위칭 회로의 동작을 설명하기 위한 도면이다.3A to 3C are diagrams for describing an operation of a switching circuit of a network interface card according to an exemplary embodiment of the present invention.

Claims (19)

공간에 설치되어 상기 공간의 일부에 대응하는 영상을 획득하기 위한 적어도 하나의 영상획득 장치;At least one image acquisition device installed in the space to acquire an image corresponding to a portion of the space; 상기 영상획득 장치로부터 획득되는 영상을 저장하기 위한 영상 저장장치; 및An image storage device for storing an image obtained from the image acquisition device; And 상기 공간에 상응하는 공간정보 및 상기 공간상에 위치한 상기 영상 획득 장치에 대한 정보를 저장하고, 상기 영상획득 장치로부터 획득되는 영상을 디스플레이하는 제어장치를 포함하며,And a control device for storing spatial information corresponding to the space and information on the image acquisition device located in the space, and displaying an image obtained from the image acquisition device. 상기 제어장치는 상기 공간정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나에 기초하여 상기 영상획득 장치를 제어하거나 또는 상기 제어장치에 디스플레이될 영상을 제어하고,The control device controls the image acquisition device or controls an image to be displayed on the control device based on at least one of the spatial information or the information on the image acquisition device, 상기 공간정보 및 상기 영상획득 장치에 대한 정보에 기초하여 자동으로 상기 영상획득 장치 간의 위상관계 또는 대응되는 공간의 위상관계를 파악하여 상기 공간 중 일부인 제1공간에 대응되는 제1영상 및 상기 제1공간에서 소정의 객체가 이동가능한 제2공간에 대응되는 적어도 하나의 제2영상을 동시 또는 순차적으로 디스플레이할 수 있는 공간정보를 활용한 방범방재 시스템.The first image and the first image corresponding to the first space which is a part of the space by automatically grasping the phase relationship between the image acquisition devices or the phase relationship of the corresponding space based on the spatial information and the information on the image acquisition device. A security disaster prevention system using spatial information capable of simultaneously or sequentially displaying at least one second image corresponding to a second space in which a predetermined object is movable in a space. 제 1항에 있어서, 상기 영상 저장장치는,The image storage device of claim 1, wherein the image storage device comprises: 상기 영상 및 상기 영상에 대응되는 공간의 위상정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나를 저장하는 공간정보를 활용한 방범방재 시스템.Security prevention system using the spatial information for storing at least one of the image and the phase information of the space corresponding to the image or the information on the image acquisition device. 제 1항에 있어서, 상기 영상획득 장치에 대한 정보는,The method of claim 1, wherein the information about the image acquisition device, 상기 영상획득 장치의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 속성에 대한 정보, 상기 영상획득 장치의 속성에 대한 정보, 상기 영상획득 장치의 배선에 대한 정보, 및 상기 영상획득 장치의 영상획득 루트에 대한 정보 중에서 적어도 하나를 포함하는 공간정보를 활용한 방범방재 시스템.Information on the location of the image acquisition device, information on the location of the part of the space monitored by the image acquisition device, information on the property of the part of the space monitored by the image acquisition device, property of the image acquisition device And disaster prevention and disaster prevention system utilizing spatial information including at least one of information on the information, information on the wiring of the image acquisition apparatus, and information on the image acquisition route of the image acquisition apparatus. 제 1항에 있어서, 상기 제어장치는,The method of claim 1, wherein the control device, 상기 적어도 하나의 영상획득 장치 각각에 의해 획득되는 영상들을 상기 영상획득 장치 각각의 위상관계 또는 상기 영상에 대응되는 공간의 위상관계 중 적어도 하나에 대응되도록 디스플레이하는 공간정보를 활용한 방범방재 시스템.And using the spatial information to display images acquired by each of the at least one image acquisition device so as to correspond to at least one of a phase relationship of each of the image acquisition devices or a phase relationship of space corresponding to the image. 삭제delete 제 1항에 있어서, 상기 제어장치는,The method of claim 1, wherein the control device, 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보, 상기 영상획득 장치에 대한 정보에 기초하여 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치, 및 상기 적어도 하나의 영상획득 장치 각각이 획득하는 영상을 디스플레이하는 공간정보를 활용한 방범방재 시스템.The at least one image acquisition device displayed on the spatial modeling information based on the spatial modeling information of the two or three-dimensional space modeling information corresponding to the space based on the spatial information, and the at least one; Security prevention system using spatial information to display the image acquired by each of the one image acquisition device. 제 6항에 있어서, 상기 제어장치는,The method of claim 6, wherein the control device, 상기 적어도 하나의 영상획득 장치 각각이 획득할 수 있는 영상의 커버리지에 대한 정보를 상기 공간 모델링 정보 상에 디스플레이하는 공간정보를 활용한 방범방재 시스템.Security prevention system using the spatial information to display the information on the coverage of the image that each of the at least one image acquisition device on the spatial modeling information. 제 6항에 있어서, 상기 제어장치는,The method of claim 6, wherein the control device, 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치 중 어느 하나를 선택하는 경우, 선택된 영상획득 장치가 획득하는 영상이 디스플레이되는 공간정보를 활용한 방범방재 시스템.When selecting any one of the at least one image acquisition device displayed on the spatial modeling information, crime prevention and disaster prevention system using the spatial information is displayed image obtained by the selected image acquisition device. 제 6항에 있어서, 상기 제어장치는,The method of claim 6, wherein the control device, 상기 공간에 포함되는 특정 영역에 대한 정보가 입력되면, 입력된 정보에 응답하여 상기 특정 영역에 대응되는 영상, 상기 특정 영역의 공간속성에 상응하는 공간속성을 갖는 영상, 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 디스플레이하는 공간정보를 활용한 방범방재 시스템.When information about a specific region included in the space is input, an image corresponding to the specific region, an image having a spatial attribute corresponding to the spatial attribute of the specific region in response to the input information, or a spatial correlation with the specific region Security prevention system using spatial information to display at least one of the relationship exists. 제 9항에 있어서, 상기 공간에 포함되는 특정 영역에 대한 정보는,10. The method of claim 9, wherein the information about the specific area included in the space, 사용자 입력장치를 통하여 상기 공간 모델링 정보 상에서 선택되는 공간정보를 활용한 방범방재 시스템.Security prevention system using the spatial information selected from the spatial modeling information through a user input device. 제 1항에 있어서, 상기 제어장치는,The method of claim 1, wherein the control device, 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보를 디스플레이하며,Displaying spatial modeling information in two or three dimensions corresponding to the space based on the spatial information; 사용자 입력장치에 의해 디스플레이되는 상기 공간 모델링 정보 상에 영상획득 장치 아이콘이 배치되면,When the image acquisition device icon is disposed on the spatial modeling information displayed by the user input device, 배치된 상기 영상획득장치 아이콘에 상응하는 영상획득 장치가 획득할 수 있는 영상의 커버리지에 대한 정보 또는 상기 영상획득 장치가 획득하는 가상영상에 대한 정보 중 적어도 하나를 디스플레이하는 공간정보를 활용한 방범방재 시스템.Security prevention using spatial information that displays at least one of information on coverage of an image that can be acquired by an image acquisition device corresponding to the image acquisition device icon disposed or information about a virtual image acquired by the image acquisition device. system. 제 11항에 있어서, 상기 공간 모델링 정보 상에 배치된 상기 영상획득장치 아이콘은,The method of claim 11, wherein the image acquisition device icon disposed on the spatial modeling information, 상기 사용자 입력장치에 의해 회전되면, 회전된 정도에 따라 상기 영상획득장치 아이콘의 좌우 방향 조절이 가능한 공간정보를 활용한 방범방재 시스템.When rotated by the user input device, crime prevention and disaster prevention system using spatial information that can adjust the left and right direction of the image acquisition device icon according to the degree of rotation. 제 12항에 있어서, 상기 가상영상에 대한 정보는,The method of claim 12, wherein the information about the virtual image, 스크롤(scroll) 인터페이스를 포함하는 프레임에 디스플레이되며,Displayed in a frame that contains a scroll interface, 상기 사용자 입력장치에 의해 설정되는 상기 스크롤 인터페이스의 스크롤 정도에 따라 상기 영상획득장치 아이콘의 방향 조절이 가능한 공간정보를 활용한 방범방재 시스템.Security prevention system utilizing the spatial information that can adjust the direction of the image acquisition device icon according to the scrolling degree of the scroll interface set by the user input device. 제 1항에 있어서, 상기 제어장치는,The method of claim 1, wherein the control device, 과거 시간정보, 상기 공간에 포함되는 특정 영역에 대한 정보를 입력받으면,If the past time information, information about a specific area included in the space is received, 입력된 정보에 응답하여 상기 과거 시간정보에 상응하는 시간에 상기 특정 영역에 대응되는 영상 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 상기 영상정보 저장장치에서 추출하여 디스플레이하는 공간정보를 활용한 방범방재 시스템.Spatial information for extracting and displaying at least one of an image corresponding to the specific region or an image having a spatial correlation with the specific region at a time corresponding to the past time information in response to the input information Crime prevention system using 제 14항에 있어서, 상기 특정 영역과 공간적 상관관계가 존재하는 영상은,The image of claim 14, wherein the image having a spatial correlation with the specific region exists. 상기 특정 영역에서 소정의 객체가 이동가능한 공간에 대응되는 영상인 공간정보를 활용한 방범방재 시스템.Security prevention system using the spatial information that is the image corresponding to the space in which the predetermined object is movable in the specific area. 제 1항에 있어서, 상기 제어장치는,The method of claim 1, wherein the control device, 상기 제어장치에 디스플레이되는 영상 또는 소정의 센서로부터 입력되는 신호 중 적어도 하나에 기초하여 상기 공간에 포함되는 특정 영역에서의 소정의 이벤트 발생 여부를 판단할 수 있는 공간정보를 활용한 방범방재 시스템.Security prevention system utilizing the spatial information that can determine whether a predetermined event occurs in a specific area included in the space based on at least one of the image displayed on the control device or a signal input from a predetermined sensor. 제 16항에 있어서, 상기 제어장치는,The method of claim 16, wherein the control device, 상기 소정의 이벤트가 발생한 상기 특정 영역과 공간적 상관관계가 존재하는 영역에 대응되는 영상을 자동으로 디스플레이하는 공간정보를 활용한 방범방재 시 스템.A security disaster prevention system using spatial information for automatically displaying an image corresponding to a region in which a predetermined event occurs and a region in which a spatial correlation exists. 제 16항에 있어서, 상기 소정의 이벤트는,The method of claim 16, wherein the predetermined event, 객체의 등장, 화재 발생, 가스누설, 누수, 또는 침수 중 적어도 하나를 포함하는 공간정보를 활용한 방범방재 시스템.Security prevention system using spatial information including at least one of the appearance of the object, fire, gas leakage, leakage, or flooding. 제 1항에 있어서, 상기 공간정보는,The method of claim 1, wherein the spatial information, BIM(Building Information Modeling) 정보 또는 GIS(geographic information system) 정보 중 적어도 하나를 포함하는 공간정보를 활용한 방범방재 시스템.Security prevention system using spatial information including at least one of BIM (Building Information Modeling) information or geographic information system (GIS) information.
KR1020090046957A 2009-05-28 2009-05-28 System for security and preventing disatser using space information KR100934978B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090046957A KR100934978B1 (en) 2009-05-28 2009-05-28 System for security and preventing disatser using space information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090046957A KR100934978B1 (en) 2009-05-28 2009-05-28 System for security and preventing disatser using space information

Publications (1)

Publication Number Publication Date
KR100934978B1 true KR100934978B1 (en) 2010-01-06

Family

ID=41809351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090046957A KR100934978B1 (en) 2009-05-28 2009-05-28 System for security and preventing disatser using space information

Country Status (1)

Country Link
KR (1) KR100934978B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062137B1 (en) * 2009-12-29 2011-09-05 주식회사 시공테크 Hazard situation detection system and display method using display terminal and control terminal
KR101400169B1 (en) 2014-02-06 2014-05-28 (주)라이드소프트 Visually patrolling system using virtual reality for security controlling and method thereof
KR101562650B1 (en) * 2013-09-11 2015-10-23 (주)유엔이 Disaster detection system and providing method thereof
KR20160096488A (en) 2015-02-05 2016-08-16 (주)도원엔지니어링건축사사무소 Spatial data recognizing method using light sensor and mutual multi-object recognition type disaster response system using the same
KR101837474B1 (en) 2016-09-23 2018-04-19 주식회사 코젠 3D virtual reality images system applied tunnel automatic controling system
KR101856488B1 (en) 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
KR102671845B1 (en) * 2022-04-06 2024-07-01 신성균 Pyramid shaped pavilion flooring composition and flooring construction method using the composition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100744554B1 (en) * 2006-04-14 2007-08-01 한국전자통신연구원 Apparatus and method for supporting fire fighting spot
KR20080044936A (en) * 2006-11-17 2008-05-22 주식회사 도담시스템스 Watching control system having an auto picture pop-up function and controlling method for the same
KR20090025844A (en) * 2007-09-07 2009-03-11 주식회사 케이티 Three dimension unified building management system
KR20090035835A (en) * 2007-10-08 2009-04-13 주식회사 에스원 Unified system for managing building equipment using 3 dimensional virtual space and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100744554B1 (en) * 2006-04-14 2007-08-01 한국전자통신연구원 Apparatus and method for supporting fire fighting spot
KR20080044936A (en) * 2006-11-17 2008-05-22 주식회사 도담시스템스 Watching control system having an auto picture pop-up function and controlling method for the same
KR20090025844A (en) * 2007-09-07 2009-03-11 주식회사 케이티 Three dimension unified building management system
KR20090035835A (en) * 2007-10-08 2009-04-13 주식회사 에스원 Unified system for managing building equipment using 3 dimensional virtual space and method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101062137B1 (en) * 2009-12-29 2011-09-05 주식회사 시공테크 Hazard situation detection system and display method using display terminal and control terminal
KR101562650B1 (en) * 2013-09-11 2015-10-23 (주)유엔이 Disaster detection system and providing method thereof
KR101400169B1 (en) 2014-02-06 2014-05-28 (주)라이드소프트 Visually patrolling system using virtual reality for security controlling and method thereof
KR20160096488A (en) 2015-02-05 2016-08-16 (주)도원엔지니어링건축사사무소 Spatial data recognizing method using light sensor and mutual multi-object recognition type disaster response system using the same
KR101837474B1 (en) 2016-09-23 2018-04-19 주식회사 코젠 3D virtual reality images system applied tunnel automatic controling system
KR101856488B1 (en) 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
KR102671845B1 (en) * 2022-04-06 2024-07-01 신성균 Pyramid shaped pavilion flooring composition and flooring construction method using the composition

Similar Documents

Publication Publication Date Title
KR100934978B1 (en) System for security and preventing disatser using space information
EP2274654B1 (en) Method for controlling an alarm management system
EP1872345B1 (en) Intelligent camera selection and object tracking
EP2934004B1 (en) System and method of virtual zone based camera parameter updates in video surveillance systems
KR101562650B1 (en) Disaster detection system and providing method thereof
EP2932708A1 (en) Mobile augmented reality for managing enclosed areas
CN101375599A (en) Method and system for performing video flashlight
CN101803385A (en) Dynamic tracking of intruders across a plurality of associated video screens
JP4808139B2 (en) Monitoring system
JP5958462B2 (en) Imaging apparatus, imaging method, and program
WO2014182898A1 (en) User interface for effective video surveillance
KR20110040699A (en) Forest fire monitiring system and control method thereof
KR20090132319A (en) System and method for virtual sensor positioning
KR101060414B1 (en) Monitoring system and mathod for the same
KR20150116722A (en) System and Method for Network Security
KR101629738B1 (en) Method and system for evaluating the performance of CCTV surveillance system
EP4163893A1 (en) System and method for guiding intrusion sensor installation
TWI395485B (en) Surveillance system and picture display method
JP2005136774A (en) Camera surveillance system and program
KR102657573B1 (en) Intelligent environmental monitoring and control system using video and thermal imaging
JP2019091246A (en) Facility managing device, facility managing system and program
JPH04261289A (en) Picture monitor system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121010

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131007

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141008

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151126

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161219

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20171102

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20181204

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20191210

Year of fee payment: 11