KR100934978B1 - System for security and preventing disatser using space information - Google Patents
System for security and preventing disatser using space information Download PDFInfo
- Publication number
- KR100934978B1 KR100934978B1 KR1020090046957A KR20090046957A KR100934978B1 KR 100934978 B1 KR100934978 B1 KR 100934978B1 KR 1020090046957 A KR1020090046957 A KR 1020090046957A KR 20090046957 A KR20090046957 A KR 20090046957A KR 100934978 B1 KR100934978 B1 KR 100934978B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- space
- image acquisition
- spatial
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B19/00—Alarms responsive to two or more different undesired or abnormal conditions, e.g. burglary and fire, abnormal temperature and abnormal rate of flow
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 방범 및 방재 시스템에 관한 것으로, 보다 상세하게는 공간정보를 이용하여 지능적이고 효율적으로 상기 방범방재 시스템의 구축, 모니터링, 영상의 저장 및 추출을 할 수 있는 시스템에 관한 것이다. The present invention relates to a security and disaster prevention system, and more particularly, to a system capable of intelligently and efficiently constructing, monitoring, and storing and extracting images of the security and prevention system using spatial information.
저장매체의 발달로 건물 또는 공간을 모니터링(mornitoring) 하거나 모니터링되는 영상을 저장하는 기술이 널리 공지되어 있다. 예컨대, DVR(Digital Video Recorder) 시스템이 그러하다.BACKGROUND OF THE INVENTION The development of storage media is well known in the art for monitoring buildings or spaces or storing monitored images. For example, such as a DVR (Digital Video Recorder) system.
하지만 종래의 DVR 시스템과 같은 방범시스템 또는 방재시스템은 모니터링 수단 또는 영상획득 장치(예컨대, 카메라)에 의해 촬영되는 공간 자체를 독립적으로 수집 또는 저장할 뿐이어서, 촬영되는 영상이 공간에서 어떠한 속성이나 어떠한 부분에 속하는지 여부, 촬영되는 공간과 연결관계가 되는 공간이 어디인지 여부 등은 사람이 직접 판단하여야 했다.However, a security system or disaster prevention system such as a conventional DVR system only collects or stores the space itself photographed by a monitoring means or an image acquisition device (for example, a camera), so that any image or any part of the image captured in the space Whether or not belonging to, and whether the space is connected to the space to be photographed, etc. had to be judged directly.
예컨대, 제1카메라가 특정 공간을 촬영 및 저장하고 있고, 상기 특정 공간에서 사람이 움직여서 상기 제1카메라가 촬영하는 공간을 벗어났다고 가정할 수 있 다. 그러면, 종래에는 그 사람이 어디로 움직였는지를 알기 위해 관리자 또는 보안 시스템을 운영하는 자는 제1카메라가 촬영하는 특정 공간이 어디인지를 확인하고, 상기 특정 공간과 연결되는 공간을 건물의 공간특성에 따라 파악한 후, 연결되는 공간을 촬영하는 제2카메라가 촬영하는 영상을 확인하여야 했다. 이러한 불편함은 방범방재시스템이 촬영되는 공간이 전체 공간상에서 어는 부분에 속하는지 여부, 촬영되는 공간의 공간적 위상관계 등을 알지 못하기 때문이다. 따라서, 종래에는 단순히 다수의 카메라로 전체 공간의 각 부분을 촬영 및 저장할 뿐이고, 촬영되는 공간에서 특정 이벤트가 일어나는 경우에는, 사람이 촬영되는 공간의 위치 및/또는 속성 등을 직접 판단하여야 했다. For example, it may be assumed that the first camera is photographing and storing a specific space, and a person moves out of the space photographed by the first camera because a person moves in the specific space. Then, in the related art, the administrator or the person who operates the security system to check where the person moved is to check where the specific space photographed by the first camera is, and the space connected to the specific space according to the spatial characteristics of the building. After grasping, it was necessary to confirm the image taken by the second camera photographing the connected space. This inconvenience is because it does not know whether the space where the security disaster prevention system is photographed belongs to the part of the whole space, the spatial phase relationship of the space to be photographed. Therefore, conventionally, only a plurality of cameras photograph and store each part of the entire space, and when a specific event occurs in the space to be photographed, the position and / or property of the space where the person is to be photographed has to be determined directly.
따라서, 종래의 방범방재 시스템의 경우, 관리되는 공간이나 건물이 커서 카메라와 같은 영상획득 장치가 많이 설치되는 경우에는 효과적으로 공간을 모니터링 하기가 힘들었다. 예컨대, 카메라가 수백 개 설치된 건물의 경우, 어떠한 특정 사람의 움직임을 방범방재 시스템으로 실시간으로 모니터링 하기 위해서는 수백개의 카메라가 각각 촬영하고 있는 수백 개의 모니터링 화면 중 그 사람이 촬영되는 제1화면을 찾고, 움직임으로 인해 제1화면의 커버리지에서 사람이 벗어나는 경우에는 다시 그 사람이 촬영되는 제2화면을 찾는 방식으로 모니터링을 하여야 했다. 또는 제1화면의 위치를 관리자가 직접 파악하고, 상기 위치와 연결된 위치가 어디인지를 관리자가 다시 파악한 후, 파악된 위치에 해당하는 화면을 찾아야 한다.Therefore, in the case of the conventional anti-disaster prevention system, it is difficult to effectively monitor the space when a large number of image acquisition devices such as a camera is installed because a large space or building is managed. For example, in a building where hundreds of cameras are installed, in order to monitor a specific person's movements in real time with a crime prevention and disaster prevention system, the first screen in which hundreds of cameras are photographed by the hundreds of monitoring screens is found. When a person deviates from the coverage of the first screen due to the movement, the person has to monitor again by finding a second screen where the person is photographed. Alternatively, the administrator directly grasps the location of the first screen, and the administrator again grasps the location connected to the location, and then finds a screen corresponding to the identified location.
모니터링 뿐만 아니라, 모니터링 되는 화면이 저장되는 방식도 종래의 방범방재 시스템은 독립적으로 촬영되어 저장된 영상에 불과하며, 각각의 영상이 의미 하는 공간적 의미를 전혀 파악할 수 없었다.In addition to monitoring, the way the screen to be monitored is stored is a conventional crime prevention system is only an image taken and stored independently, and could not grasp the spatial meaning of each image at all.
따라서, 방범방재시스템이 모니터링하는 각 공간이 전체 공간에서 어떠한 위치에 있고, 각 공간이 갖는 특성이나 각 공간 간의 공간적 위상관계를 알 수 있어서, 효율적이고 지능적으로 방범방재 시스템의 구축, 모니터링, 촬영 영상의 저장 및 검색이 가능한 방범방재 시스템이 절실히 요구된다.Therefore, each space monitored by the crime prevention disaster system is located at a certain position in the whole space, and the characteristics of each space and the spatial phase relationship between the spaces can be known. There is an urgent need for a crime prevention system capable of storing and retrieving data.
따라서, 본 발명이 이루고자 하는 기술적인 과제는 관리하는 건물 및/또는 외부 공간의 공간정보를 방범방재 시스템이 스스로 파악할 수 있고, 파악된 공간의 특성을 참조하여 모니터링되는 화면이나 모니터링을 위한 영상획득 장치를 지능적으로 제어할 수 있는 방범방재 시스템을 제공하는 것이다.Therefore, the technical problem to be achieved by the present invention is the security disaster prevention system can grasp the spatial information of the building and / or the external space to be managed by itself, the image acquisition device for monitoring the screen or monitoring with reference to the characteristics of the identified space It is to provide a crime prevention system that can intelligently control the system.
또한, 특정 객체(예컨대, 사람 또는 사물)의 출현, 움직임을 파악하고, 동선에 따라 자동으로 모니터링 수단에 디스플레이되는 화면이 변경될 수 있는 방범방재 시스템을 제공하는 것이다. 또한, 특정 이벤트(예컨대, 화재, 누수 등)의 발생을 인식하고, 이벤트가 발생된 공간의 특성, 그 공간의 공간적 상관관계가 존재하는 공간을 자동으로 파악하여 이벤트를 실시간으로 모니터링 할 수 있으며, 이에 따라 상기 이벤트를 손쉽게 제어할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, the present invention provides a security and disaster prevention system that can detect the appearance and movement of a specific object (eg, a person or a thing) and change the screen displayed on the monitoring means automatically according to a moving line. In addition, by recognizing the occurrence of a specific event (for example, fire, leak, etc.), it is possible to monitor the event in real time by automatically grasping the characteristics of the space in which the event occurred, the spatial correlation of the space, Accordingly, to provide a crime prevention disaster prevention system that can easily control the event.
또한, 관리되는 공간의 공간 모델링 정보를 이용하여 직관적이고 편리하게 모니터링 수단에 디스플레이되는 화면을 변경 또는 제어하거나, 영상획득 장치를 제어할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, to provide a crime prevention and disaster prevention system that can change or control the screen displayed on the monitoring means or control the image acquisition device by using the space modeling information of the managed space intuitively and conveniently.
또한, 각각의 영상획득 장치(예컨대, 카메라)에 의해 촬영된 영상이 저장된 후, 특정 시간과 특정 공간만을 입력만 하면 공간적 상관관계가 존재하는 영상까지 추출하여 디스플레이함으로써 저장된 영상에서 특정 사건이나 이벤트를 검색을 효율적으로 할 수 있는 방범방재 시스템을 제공하는 것이다.In addition, after the images captured by each image capturing device (for example, a camera) are stored, a specific event or event is stored in the stored image by extracting and displaying an image having a spatial correlation by only inputting a specific time and a specific space. It is to provide a crime prevention and disaster prevention system that can efficiently search.
본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 공간에 설치되어 상기 공간의 일부에 대응하는 영상을 획득하기 위한 적어도 하나의 영상획득 장치; 상기 영상획득 장치로부터 획득되는 영상을 저장하기 위한 영상 저장장치; 및 상기 공간에 상응하는 공간정보 및 상기 공간상에 위치한 상기 영상 획득 장치에 대한 정보를 저장하고, 상기 영상획득 장치로부터 획득되는 영상을 디스플레이하는 제어장치를 포함한다.
상기 제어장치는 상기 공간정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나에 기초하여 상기 영상획득 장치를 제어하거나 또는 상기 제어장치에 디스플레이될 영상을 제어하고, 상기 공간정보 및 상기 영상획득 장치에 대한 정보에 기초하여 자동으로 상기 영상획득 장치 간의 위상관계 또는 대응되는 공간의 위상관계를 파악하여 상기 공간 중 일부인 제1공간에 대응되는 제1영상 및 상기 제1공간에서 소정의 객체가 이동가능한 제2공간에 대응되는 적어도 하나의 제2영상을 동시 또는 순차적으로 디스플레이할 수 있다.According to an embodiment of the present invention, a system for preventing crime prevention using spatial information includes at least one image acquisition device installed in a space to obtain an image corresponding to a portion of the space; An image storage device for storing an image obtained from the image acquisition device; And a control device storing spatial information corresponding to the space and information on the image acquisition device located in the space, and displaying an image obtained from the image acquisition device.
The control device controls the image acquisition device or controls an image to be displayed on the control device based on at least one of the spatial information or the information on the image acquisition device, and controls the spatial information and the image acquisition device. A first image corresponding to a first space that is a part of the space and a second object capable of moving a predetermined object in the first space by automatically determining a phase relationship between the image acquisition devices or a phase relationship of a corresponding space based on the information. At least one second image corresponding to the space may be displayed simultaneously or sequentially.
상기 영상 저장장치는 상기 영상 및 상기 영상에 대응되는 공간의 위상정보 또는 상기 영상획득 장치에 대한 정보 중 적어도 하나를 저장할 수 있다.The image storage device may store at least one of the image and phase information of a space corresponding to the image or information about the image acquisition device.
상기 영상획득 장치에 대한 정보는 상기 영상획득 장치의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 위치에 대한 정보, 상기 영상획득 장치가 감시하는 상기 공간의 일부의 속성에 대한 정보, 상기 영상획득 장치의 속성에 대한 정보, 상기 영상획득 장치의 배선에 대한 정보, 상기 영상획득 장치의 영상획득 루트에 대한 정보 중 적어도 하나를 포함할 수 있다.The information on the image capturing apparatus may include information about the position of the image capturing apparatus, information on the position of a portion of the space monitored by the image capturing apparatus, and attributes of a portion of the space monitored by the image capturing apparatus. Information, information on the property of the image acquisition device, information on the wiring of the image acquisition device, may include at least one of information on the image acquisition route of the image acquisition device.
상기 제어장치는 상기 적어도 하나의 영상획득 장치 각각에 의해 획득되는 영상들을 상기 영상획득 장치 각각의 위상관계 또는 상기 영상에 대응되는 공간의 위상관계 중 적어도 하나에 대응되도록 디스플레이할 수 있다.The control device may display images acquired by each of the at least one image acquisition device so as to correspond to at least one of a phase relationship of each of the image acquisition devices or a phase relationship of space corresponding to the image.
상기 제어장치는 상기 공간 중 일부인 제1공간에 대응되는 제1영상 및 상기 제1공간에서 소정의 객체가 이동가능한 제2공간에 대응되는 적어도 하나의 제2영상을 동시 또는 순차적으로 디스플레이할 수 있다.The control device may simultaneously or sequentially display a first image corresponding to a first space which is a part of the space and at least one second image corresponding to a second space in which a predetermined object is movable in the first space. .
상기 제어장치는 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보, 상기 영상획득 장치에 대한 정보에 기초하여 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치, 및 상기 적어도 하나의 영상획득 장치 각각이 획득하는 영상을 디스플레이할 수 있다.The control device is one or more image acquisition device displayed on the spatial modeling information based on the spatial modeling information, the two or three-dimensional space modeling information corresponding to the space based on the spatial information , And may display an image acquired by each of the at least one image acquisition device.
상기 제어장치는 상기 적어도 하나의 영상획득 장치 각각이 획득할 수 있는 영상의 커버리지에 대한 정보를 상기 공간 모델링 정보 상에 디스플레이할 수 있다.The control device may display information on coverage of an image that each of the at least one image acquisition device can obtain on the spatial modeling information.
상기 제어장치는 상기 공간 모델링 정보 상에 디스플레이되는 상기 적어도 하나의 영상획득 장치 중 어느 하나를 선택하는 경우, 선택된 영상획득 장치가 획득하는 영상이 디스플레이될 수 있다.When the control device selects any one of the at least one image acquisition device displayed on the spatial modeling information, an image acquired by the selected image acquisition device may be displayed.
상기 제어장치는 상기 공간에 포함되는 특정 영역에 대한 정보가 입력되면, 입력된 정보에 응답하여 상기 특정 영역에 대응되는 영상, 상기 특정 영역의 공간속성에 상응하는 공간속성을 갖는 영상, 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 디스플레이할 수 있다.When the information on a specific region included in the space is input, the control device may respond to the input information in response to the input image, the image having a spatial attribute corresponding to the spatial attribute of the specific region, or the specific image. At least one of an image having a spatial correlation with an area may be displayed.
상기 공간에 포함되는 특정 영역에 대한 정보는 사용자 입력장치를 통하여 상기 공간 모델링 정보 상에서 선택되는 것을 특징으로 할 수 있다.Information on a specific region included in the space may be selected on the spatial modeling information through a user input device.
상기 제어장치는 상기 공간정보에 기초하여 상기 공간에 상응하는 2차원 또는 3차원의 공간모델링 정보를 디스플레이하며, 사용자 입력장치에 의해 디스플레이되는 상기 공간 모델링 정보 상에 영상획득 장치 아이콘이 배치되면, 배치된 상기 영상획득장치 아이콘에 상응하는 영상획득 장치가 획득할 수 있는 영상의 커버리지에 대한 정보 또는 상기 영상획득 장치가 획득하는 가상영상에 대한 정보 중 적어도 하나를 디스플레이할 수 있다.The control apparatus displays two-dimensional or three-dimensional spatial modeling information corresponding to the space based on the spatial information, and when the image acquisition device icon is disposed on the spatial modeling information displayed by the user input device, the arrangement is performed. At least one of information on coverage of an image that can be obtained by the image acquisition apparatus corresponding to the image acquisition apparatus icon or information about a virtual image acquired by the image acquisition apparatus may be displayed.
상기 공간 모델링 정보 상에 배치된 상기 영상획득장치 아이콘은 상기 사용자 입력장치에 의해 회전되면, 회전된 정도에 따라 상기 영상획득장치 아이콘의 좌우 방향 조절이 가능한 것을 특징으로 할 수 있다.When the image acquisition device icon disposed on the spatial modeling information is rotated by the user input device, the image acquisition device icon may be adjusted in left and right directions according to the degree of rotation.
상기 가상영상에 대한 정보는 스크롤(scroll) 인터페이스를 포함하는 프레임에 디스플레이되며, 상기 사용자 입력장치에 의해 설정되는 상기 스크롤 인터페이스의 스크롤 정도에 따라 상기 영상획득장치 아이콘의 방향 조절이 가능한 것을 특징으로 할 수 있다.Information about the virtual image is displayed on a frame including a scroll interface, and the direction of the image acquisition device icon can be adjusted according to the scrolling degree of the scroll interface set by the user input device. Can be.
상기 제어장치는 과거 시간정보, 상기 공간에 포함되는 특정 영역에 대한 정보를 입력받으면, 입력된 정보에 응답하여 상기 과거 시간정보에 상응하는 시간에 상기 특정 영역에 대응되는 영상 또는 상기 특정 영역과 공간적 상관관계가 존재하는 영상 중 적어도 하나를 상기 영상정보 저장장치에서 추출하여 디스플레이할 수 있다.When the control device receives past time information and information on a specific area included in the space, the control device spatially corresponds to the image or the specific area at a time corresponding to the past time information in response to the input information. At least one of images having correlations may be extracted from the image information storage device and displayed.
상기 특정 영역과 공간적 상관관계가 존재하는 영상은 상기 특정 영역에서 소정의 객체가 이동가능한 공간에 대응되는 영상인 것을 특징으로 할 수 있다.The image having a spatial correlation with the specific region may be an image corresponding to a space in which a predetermined object may move in the specific region.
상기 제어장치는 상기 제어장치에 디스플레이되는 영상 또는 소정의 센서로부터 입력되는 신호 중 적어도 하나에 기초하여 상기 공간에 포함되는 특정 영역에서의 소정의 이벤트 발생 여부를 판단할 수 있는 공간정보를 활용할 수 있다.The control device may utilize spatial information to determine whether a predetermined event occurs in a specific area included in the space based on at least one of an image displayed on the control device or a signal input from a predetermined sensor. .
상기 제어장치는 상기 소정의 이벤트가 발생한 상기 특정 영역과 공간적 상관관계가 존재하는 영역에 대응되는 영상을 자동으로 디스플레이할 수 있다.The control device may automatically display an image corresponding to a region where a spatial correlation exists with the specific region where the predetermined event occurs.
상기 소정의 이벤트는 객체의 등장, 화재 발생, 가스누설, 누수, 또는 침수 중 적어도 하나를 포함할 수 있다.The predetermined event may include at least one of an appearance of an object, a fire occurrence, a gas leak, a leak, or a flood.
상기 공간정보는 BIM(Building Information Modeling) 정보 또는 GIS(geographic information system) 정보 중 적어도 하나를 포함할 수 있다.The spatial information may include at least one of BIM (Building Information Modeling) information or GIS (geographic information system) information.
본 발명에 따른 본 발명이 이루고자 하는 기술적인 과제는 촬영되는 각각의 공간과 전체 공간과의 관계, 다른 공간과의 상관관계 및 각 공간의 특성을 파악할 수 있으므로, 사람이 직접 모니터링이나 영상의 추출을 위해 공간을 파악할 필요가 없으며, 지능적으로 모니터링 장치에 디스플레이되는 화면의 제어 및 영상획득 장치의 제어가 가능한 효과가 있다.The technical problem to be achieved by the present invention according to the present invention is to grasp the relationship between each space to be photographed and the total space, the correlation between other spaces and the characteristics of each space, so that humans can directly monitor or extract images. There is no need to identify the space, and intelligently, it is possible to control the screen displayed on the monitoring device and to control the image acquisition device.
또한, 특정 객체(예컨대, 사람 또는 사물)의 출현, 움직임과 같은 특정 이벤트의 발생의 파악이 가능하고, 파악된 이벤트의 진행상황을 공간의 특성에 따라 실시간으로 효율적으로 파악할 수 있으며, 그에 따라 손쉽게 대처를 할 수 있는 효과 가 있다. In addition, the occurrence of a specific event such as the appearance and movement of a specific object (eg, a person or a thing) can be detected, and the progress of the identified event can be efficiently and efficiently identified in real time according to the characteristics of the space. It is effective to cope.
또한, 관리되는 공간의 공간 모델링 정보를 이용하여 직관적이고 편리하게 모니터링 수단에 디스플레이되는 화면을 변경 또는 제어하거나, 영상획득 장치를 제어할 수 있으며, 촬영된 영상의 검색이나 추출도 각각의 영상에 상응하는 공간의 특성 및 위상관계에 따라 지능적으로 수행될 수 있는 효과가 있다. In addition, by using the spatial modeling information of the managed space, it is possible to intuitively and conveniently change or control the screen displayed on the monitoring means, or control the image acquisition device, and search or extraction of the captured image corresponds to each image. There is an effect that can be performed intelligently according to the characteristics of the space and the phase relationship.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. In addition, in the present specification, when one component 'transmits' data to another component, the component may directly transmit the data to the other component, or through at least one other component. Means that the data may be transmitted to the other component.
반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.On the contrary, when one component 'directly transmits' data to another component, it means that the data is transmitted from the component to the other component without passing through the other component.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 개 략적인 구성을 나타낸다.1 is a schematic configuration of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 제어장치(100), 적어도 하나의 영상획득 장치(200), 및 영상 저장장치(300)를 포함한다. 상기 공간정보를 활용한 방범방재 시스템은 적어도 하나의 센서(400)를 더 포함할 수 있다. 또한, 상기 공간정보를 활용한 방범방재 시스템에 의해 관리되는 공간(예컨대, 소정의 건물)에는 상기 제어장치(100)에 의해 제어될 수 있는 소정의 시설물(예컨대, 셔터, 문, 환풍기, 스프링 쿨러 등, 500)이 설치되어 있을 수 있다.Referring to FIG. 1, a crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention includes a
상기 제어장치(100)는 본 발명의 실시 예에 따른 기술적 사상을 구현하기 위해 상기 영상획득 장치(200)를 제어하고, 상기 영상획득 장치(200)로부터 수신되는 영상을 디스플레이할 수 있다. 상기 제어장치(100)는 상기 영상획득 장치(200)로 소정의 제어신호를 출력하기 위한 소정의 데이터 처리장치(예컨대, 컴퓨터, 서버 등, 110) 및 상기 데이터 처리장치(110)를 통해 상기 영상획득 장치(200)로부터 수신되는 영상을 디스플레이하는 소정의 모니터링 장치(111)를 포함할 수 있다. 상기 모니터링 장치(111)는 도 1에 도시된 바와 같이 적어도 하나의 디스플레이장치를 포함할 수 있다.The
상기 데이터 처리장치(110)는 상기 모니터링 장치(111)에 디스플레이되는 영상을 제어할 수 있다. 예컨대, 상기 영상획득 장치(200)에 포함되는 다수의 카메라로 중 어떠한 영상을 동시 또는 순차적으로 디스플레이할지 여부 등을 제어할 수 있다.The
상기 데이터 처리장치(110)는 상기 센서(400)로부터 소정의 센싱신호를 수신하거나, 상기 시설물(500)을 제어하기 위한 제어신호를 상기 시설물(500)로 출력할 수 있다. The
상기 데이터 처리장치(110)에는 본 발명의 실시 예에 따른 기술적 사상을 구현하기 위해 상기 공간정보를 활용한 방범방재 시스템이 관리하는 공간(예컨대, 건물 또는 건물과 외부공간)에 상응하는 공간정보를 저장하고 있다. 상기 공간정보는 상기 공간이 건물인 경우 소정의 BIM(Building Information Modeling) 정보를 포함할 수 있다. 또한, 상기 공간이 외부공간인 경우는 소정의 GIS(geographic information system) 정보를 포함할 수도 있다. 따라서, 상기 공간정보는 상기 공간정보를 활용한 방범방재 시스템이 관리하는 공간에 상응하는 BIM 정보 또는 상기 GIS 정보 중 적어도 하나를 포함할 수 있다. The
상기 공간정보는 본 출원인이 출원한 한국특허출원(출원번호 10-2007-0060641, "공간 맵 저작 방법 및 그 도구, 공간 맵을 이용한 자동화 시스템", 이하 '이전출원')에 개시된 바 있는 소정의 표준공간데이터로 표현될 수 있으며, 이전출원에 개시된 모델링 장치를 이용하여 상기 공간정보에 상응하는 BIM 정보를 생성할 수 있지만 이에 한정되는 것은 아니다. 이전출원에 개시된 기술적 사상 및 명세서의 기재는 본 명세서에 포함되는 것으로 간주하며, 본 발명의 레퍼런스로 포함될 수 있다.The spatial information is a predetermined one disclosed in the Korean patent application (Application No. 10-2007-0060641, "Spatial map authoring method and its tools, an automated system using a spatial map" filed by the present applicant, "previous application") The BIM information corresponding to the spatial information may be generated using the modeling apparatus disclosed in the previous application, but is not limited thereto. The description of the technical spirit and the specification disclosed in the previous application is regarded as included in the present specification and may be included as a reference of the present invention.
결국, 상기 데이터 처리장치(110)는 공간정보를 활용하여 상기 영상획득 장치(200)가 획득하는 영상에 대응하는 각각의 공간(이하, '서브공간'이라 함)의 위 상(위치 및 상태), 속성, 상기 서브공간과 다른 서브공간의 상관관계 등을 알 수 있다.As a result, the
상기 영상획득 장치(200)는 상기 공간에 포함되는 서브공간을 촬영하여 실시간으로 상기 데이터 처리장치(110)로 전송할 수 있다. 상기 영상획득 장치(200)는 도 1에 도시된 바와 같이 다수 개일 수 있으며, 각각의 영상획득 장치(200)는 서로 종류가 다를 수도 있다. 예컨대, 상기 공간의 특정 서브공간을 촬영하기 위해서는 회전형 카메라(201)가 설치될 수도 있고, 다른 서브공간을 촬영하기 위해서는 고정형 카메라(202)가 설치될 수도 있다.The
상기 영상 저장장치(300)는 상기 영상획득 장치(200)로부터 촬영된 영상을 저장할 수 있다. 구현 예에 따라, 상기 영상획득 장치(200)에 의해 촬영된 영상은 상기 제어장치(100)를 통해 상기 영상 저장장치(300)로 전송된 후 저장되거나, 상기 영상획득 장치(200)로부터 직접 상기 영상 저장장치(300)로 전송되어 저장될 수도 있다. 상기 제어장치(100)는 상기 영상 저장장치(300)에 저장된 영상들을 검색하고 추출하여 상기 모니터링 장치(111)에 디스플레이할 수 있다. 상기 영상 저장장치(300)에 저장되는 영상들은 상기 영상획득 장치(200)에 의해 획득되는 영상이 소정의 포맷이나 소정의 방식으로 압축된 형태일 수 있다. 따라서, 상기 영상획득 장치(200)로부터 상기 영상 저장장치(300)로 직접 획득되는 영상이 전송되는 경우에는 상기 영상 저장장치(300)는 소정의 인코딩 모듈을 포함할 수 있다. 물론 상기 제어장치(100)에 포함되는 상기 데이터 처리장치(110)에 소정의 인코딩 모듈이 포함될 수도 있다. 상기 영상 저장장치(300)는 상기 영상획득 장치(200)에 의해 획득 되는 영상을 저장할 수 있는 저장매체를 포함하기만 하면, 그 종류는 무관할 수 있다.The
상기 센서(400)는 필요에 따라 다양한 종류의 센싱장치를 포함할 수 있다. 예컨대, 도 1에 도시된 바와 같이 적외선 감지기(401), 열선 감지기(402) 등이 상기 센서(400)에 포함될 수 있다. 또한, 모션(motion) 감지기, 가스 감지기, 압력 감지기 등 필요에 따라 다양한 센싱장치가 상기 센서(400)에 포함될 수 있다. 상기 센서(400)가 상기 공간에 설치되면, 상기 공간 또는 상기 공간에 포함되는 소정의 서브공간에 특정 이벤트가 발생하는지 여부를 알 수 있다. 이를 위해 상기 센서(400)는 소정의 이벤트(예컨대, 사물 또는 사람의 출현, 화재, 가스누출 등)가 발생하는 경우, 소정의 센싱신호를 상기 제어장치(100)로 출력할 수 있다. The
특정 이벤트가 발생하는지 여부는 상기 특정 이벤트의 종류에 따라 상기 센서(400)를 통해 인식되는 것이 아니라, 소정의 영상인식 알고리즘을 통해서도 인식될 수 있다. 예컨대, 특정 객체(예컨대, 사람 또는 사물)의 움직임, 화재 등이 발생한 경우, 상기 제어장치(100)는 해당되는 영상을 영상획득 장치(200) 중 적어도 하나로부터 수신하고, 수신된 영상을 분석하여 특정 이벤트가 발생하였는지 여부를 알 수도 있다. 특정 이벤트의 발생 여부를 파악하기 위한 영상인식 방법에 대해서는 다양한 공지된 방법이 가능하며, 본 발명의 핵심 기술적 사상은 아니므로 설명의 편의를 위해 상세한 설명은 생략한다.Whether or not a specific event occurs is not recognized by the
상기 시설물(500)은 상기 제어장치(100)로부터 출력되는 제어신호에 응답하여 특정 시설물(예컨대, 문, 셔터, 스프링 쿨러, 환풍기 등)을 동작시키기 위한 소 정의 작동장치를 포함할 수 있다. 상기 제어장치(100)는 특정 이벤트가 발생하면 자동 또는 수동으로 상기 시설물(500)에 포함된 소정의 작동장치로 제어신호를 출력할 수 있으며, 상기 작동장치는 대응되는 시설물을 제어신호에 상응하도록 동작시킬 수 있다. 예컨대, 상기 제어장치(100)가 특정 서브공간에서 화재가 발생하였는지를 인식하면, 상기 제어장치(100)는 상기 공간정보를 참조하여 상기 서브공간의 위치를 파악할 수 있다. 또한, 상기 제어장치(100)는 상기 서브공간과 공간적 상관관계가 존재하는 공간도 파악할 수 있다. 그러면, 상기 화재가 발생한 서브공간을 폐쇄할 수 있는 시설물을 검색하고, 검색된 시설물을 제어할 수 있다. 또는 상기 화재가 번질 수 있는 다른 서브공간까지 폐쇄할 수 있도록 소정의 시설물을 제어할 수도 있다.The
본 명세서에서 공간적 상관관계가 있다고 함은, 서로 다른 두 공간의 위상관계에 기초한 연결성이 존재함을 의미할 수 있다. 상기 위상관계는 두 개의 공간의 절대적인 위치뿐만 아니라 공간의 구조적 특성에 의한 두 개의 공간의 위치관계를 의미할 수 있다. 예컨대, 제1서브공간과 제2서브공간 사이의 거리가 가깝다고 하더라도, 공간의 구조에 의해 벽으로 막혀 있어서 멀리 돌아서 가야하는 경우라면, 두 공간의 위상관계는 멀다고 할 수 있다. 또는 제1서브공간과 제2서브공간의 이동경로가 없다면 두 공간의 위상관계는 단절됨을 의미할 수 있다. 상기 위상관계는 이벤트의 종류에 따라 다르게 정의될 수 있다. 예컨대, 특정 사람의 움직임이 이벤트인 경우, 제1서브공간과 공간적 상관관계가 존재하는 제2서브공간은 사람이 제1서브공간에서 위상관계에 연결성이 존재하는 제2서브공간을 의미할 수 있다. 즉, 문 이나 복도 등으로 연결되어 사람이 제1서브공간에서 직접 이동할 수 있는 다른 서브공간을 의미할 수 있다. In the present specification, the spatial correlation may mean that there is connectivity based on phase relationships between two different spaces. The phase relationship may mean not only the absolute position of the two spaces but also the positional relationship of the two spaces due to the structural characteristics of the spaces. For example, even if the distance between the first sub-space and the second sub-space is close, the phase relationship between the two spaces may be far if it is blocked by the wall by the structure of the space and needs to go far away. Alternatively, if there is no movement path between the first sub space and the second sub space, the phase relationship between the two spaces may be disconnected. The phase relationship may be defined differently according to the type of event. For example, when the movement of a specific person is an event, the second subspace in which a spatial correlation exists with the first subspace may mean a second subspace in which a person has connectivity in a phase relationship in the first subspace. . That is, it may mean another sub-space that is connected to a door or a corridor so that a person can move directly in the first sub-space.
예컨대, 화재발생이 이벤트인 경우 제1서브공간과 공간적 상관관계가 존재하는 제2서브공간은 제1서브공간에서 화기가 번질 수 있는 제2서브공간을 의미할 수 있다. 사람이 이동할 수 있는 공간 간의 관계와 화기가 번질 수 있는 공간 간의 관계는 서로 다를 수 있다. 예컨대, 통풍구를 통해서도 화기가 번질 수 있다고 하면, 통풍구로 연결된 제1서브공간과 제2서브공간은 화재가 발생한 경우에는 공간적 상관관계가 있는 서브공간들일 수 있지만, 사람이 움직이는 경우에는 그렇지 않을 수도 있다.For example, when the fire is an event, the second sub space having a spatial correlation with the first sub space may mean a second sub space where fire can spread in the first sub space. The relationship between the space where a person can move and the space where a fire can spread can be different. For example, if the fire can be spread through the air vents, the first sub space and the second sub space connected to the air vents may be spatially correlated sub spaces in case of a fire, but may not be the case when a person moves. .
상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500) 각각의 위치, 속성, 크기 등에 대한 정보는 상기 공간정보 상에 표현될 수 있다. 즉, 상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500)이 상기 공간에 설치되면, 상기 공간을 나타내는 공간정보에 상기 영상획득 장치(200), 상기 센서(400), 상기 시설물(500)에 대한 정보가 추가될 수 있다. Information about the position, property, size, etc. of each of the
이하에서, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에 대해 더욱 상세히 설명하도록 한다.Hereinafter, the crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention will be described in more detail.
상기 제어장치(100)에 포함되는 상기 데이터 처리장치(110)에는 적어도 상기 공간에 상응하는 공간정보 및 상기 공간상에 위치한(설치된) 상기 영상획득 장치(200)에 대한 정보를 저장할 수 있다. 따라서, 상기 제어장치(100)는 상기 공간의 구조, 공간의 속성, 및 상기 공간에 포함된 서브공간들의 공간적 위 상(topology) 정보와 공간적 상관관계를 파악할 수 있다. 위상정보라 함은 전체 공간에서 서브공간의 위치 및 상태를 의미할 수 있다. 또한, 상기 제어장치(100)는 상기 영상획득 장치(200)에 대한 정보를 저장하므로, 상기 영상획득 장치(200)에 의해 촬영되는 서브공간의 위치, 속성, 위상 정보와 상기 서브공간과 공간적 상관관계가 존재하는 다른 서브공간 등을 알 수 있다.The
따라서, 상기 제어장치(100)는 상기 공간정보 또는 상기 영상획득 장치(200)에 대한 정보 중 적어도 하나에 기초하여 상기 영상획득 장치(200)를 제어하거나 상기 제어장치(100)에 포함되는 상기 모니터링 장치(111)에 디스플레이될 영상을 제어할 수 있다.Therefore, the
예컨대, 상기 제어장치(100)는 상기 공간에 포함되는 특정 서브공간의 위치에 대한 정보(예컨대, 공간의 좌표 등)를 수신함으로써 상기 영상획득 장치(200)가 상기 특정 서브공간을 촬영하도록 제어할 수 있다. 또는, 도 10에 도시된 바와 같이 상기 공간정보에 기초하여 상기 공간에 상응하는 모델링 정보를 디스플레이하고, 디스플레이된 상기 공간의 모델링 정보를 이용하여 상기 영상획득 장치(200)를 제어할 수도 있다.For example, the
또한, 상기 제어장치(100)가 특정 서브공간의 위치에 대한 정보를 입력하면, 상기 서브공간을 촬영하는 영상획득 장치(200)를 상기 영상획득 장치(200)에 대한 정보에 기초하여 파악하고, 파악된 영상획득 장치(200)에 상응하는 영상을 상기 모니터링 장치(111)에 디스플레이할 수 있다.In addition, when the
즉, 상기 공간정보를 활용한 방범방재 시스템은 상기 공간정보와 상기 영상 획득 장치(200)에 대한 정보를 이용하여 다양한 방식으로 상기 영상획득 장치(200)를 제어하거나, 상기 영상획득 장치(200)로부터 출력되어 모니터링 장치(111)에 디스플레이되는 영상 즉, 모니터링되는 서브공간을 제어할 수 있다.That is, the crime prevention disaster prevention system using the spatial information controls the
상기 영상획득 장치(200)에 대한 정보는 상기 영상획득 장치(200)의 위치(예컨대, 설치위치)에 대한 정보, 상기 영상획득 장치(200)가 감시하는 상기 공간의 일부 즉, 서브공간의 위치에 대한 정보, 상기 영상획득 장치(200)가 감시하는 상기 서브공간의 속성(예컨대, 서브공간의 종류(방, 거실, 복도, 엘리베이터, 옥상, 주차장 등)에 대한 정보, 상기 영상획득 장치(200)의 속성(예컨대, 카메라의 종류, 시야각 등과 같은 카메라 특성)에 대한 정보, 상기 영상획득 장치(200)의 배선에 대한 정보, 상기 영상획득 장치(200)의 영상획득 루트에 대한 정보 중 적어도 하나를 포함할 수 있다. 상기 영상획득 장치(200)의 배선에 대한 정보는 관리자가 영상획득 장치(200)를 설치 및 유지/보수하는데 사용될 수 있으며, 상기 영상획득 장치(200)의 영상획득 루트에 대한 정보는 영상이 상기 제어장치(100) 및/또는 상기 영상 저장장치(300)로 전송되는 네트워크 경로를 의미할 수 있다. 상기 영상획득 루트에 대한 정보를 파악함으로써, 특정 네트워크 장비 또는 노드가 단절 또는 오동작을 일으킬 때에 그 경로를 변경하여 정상적으로 영상을 획득할 수 있는 효과가 있다. 이러한 영상획득 장치(200)에 대한 정보 중 적어도 일부는 상기 공간정보와 함께 저장 및 관리되어 상기 영상획득 장치(200)를 나타내는 아이콘 또는 그림이 도 3의 식별번호 210 내지 213과 같이 상기 공간의 모델링 정보 상에 표현될 수 있다.The information on the
또한, 상기 영상 저장장치(300)는 종래의 방법과는 달리 영상과 함께 상기 영상에 대응되는 서브공간의 위치 등과 같은 위상정보 및/또는 상기 영상획득 장치(200)에 대한 정보를 같이 저장할 수 있다. 예컨대, 상기 영상 저장장치(300)는 제1카메라에 대한 정보와 상기 제1카메라가 촬영한 영상을 같이 저장할 수 있다. 따라서, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에서는 상기 영상 저장장치(300)에 저장된 영상을 검색할 때에도 상기 영상획득 장치(200)에 대한 정보에 기초하여 저장된 영상을 검색할 수 있다.In addition, unlike the conventional method, the
도 2는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템에서 모니터링 장치에 디스플레이되는 화면의 일 실시 예를 나타낸다.Figure 2 shows an embodiment of a screen displayed on the monitoring device in the crime prevention disaster prevention system using the spatial information according to an embodiment of the present invention.
도 2를 참조하면, 상기 제어장치(100)는, 상기 적어도 하나의 영상획득 장치(200) 각각에 의해 획득되는 영상들을 상기 영상획득 장치(200) 각각의 위상관계 또는 상기 영상에 대응되는 공간의 위상관계에 대응되도록 디스플레이할 수 있다. 예컨대, 제1카메라, 제2카메라, 제3카메라가 각각 촬영하는 제1영상(10), 제2영상(11), 및 제3영상(12)이 존재하는 경우, 제1카메라와 제2카메라(또는 제1영상(10)에 대응되는 공간과 제2영상(11)에 대응되는 공간)의 위상관계가 가장 가까운 경우에는 제1영상(10)과 제2영상(11)이 도 2에 도시된 바와 같이 인접하여 디스플레이될 수 있다. 위상관계의 거리는 공간의 구조적 특성에 상응하는 거리를 의미할 수 있다. 상기 제2카메라와 제3카메라의 위상관계는 다소 멀 수 있으므로, 상기 제2영상(11)과 상기 제3영상(12)은 다소 떨어져서 디스플레이될 수 있다. 관리자는 간단한 입력장치의 조작(예컨대, 좌/우 이동번튼을 입력)함으로써 가장 인접한 카 메라가 촬영하는 영상, 또는 가장 인접한 공간의 영상을 편리하게 모니터링 할 수 있다. 종래에는 가장 인접한 카메라 또는 공간에 대한 정보를 사람이 미리 별도로 파악하고 있어야 했다. 하지만, 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템은 공간정보 및 영상획득 장치(200)에 대한 정보에 기초하여 자동으로 영상획득 장치(200) 간의 위상관계 및 또는 대응되는 공간의 위상관계를 파악할 수 있으므로, 미리 사람이 별도로 위상관계를 파악해놓거나 파악한 정보를 저장할 필요가 없는 효과가 있다.Referring to FIG. 2, the
도 3은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템을 이용한 지능형 모니터링 방법을 설명하기 위한 도면을 나타낸다.3 is a view for explaining an intelligent monitoring method using a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.
도 3에서는 2D로 표현된 공간의 모델링 정보를 나타내는데, 도 3에 도시된 바와 같이 다수의 영상획득 장치(210, 211, 212, 213) 및 이들에 대응되는 각각의 영상(210-1 ~ 210-3)이 상기 모델링 정보와 함께 디스플레이될 수 있다. 상기 영상획득 장치(210~213) 각각은 영상획득 장치(210~213) 각각이 설치된 위치에 상응하도록 상기 모델링 정보 상에 표현될 수 있다.In FIG. 3, modeling information of a space represented by 2D is illustrated. As shown in FIG. 3, a plurality of
예컨대, 제1영상획득 장치(210)에 대응되는 제1서브공간에서 특정 객체(사람 또는 사물)의 침입이 발생하면, 상기 제어장치(100)는 이를 인식할 수 있다. 이는 전술한 바와 같이 영상인식 알고리즘, 또는 상기 제1서브공간에 설치된 소정의 센서(400)로부터 출력되는 센싱(sensing)신호에 기초하여 알 수 있다. 그러면, 상기 제어장치(100)는 상기 제1서브공간에 대응되는 제1영상획득 장치(210)를 검색하여 대응되는 제1영상(210-1)을 모니터링 장치(111)에 디스플레이할 수 있다. 또한, 상 기 제어장치(100)는 상기 제1서브공간과 공간적 상관관계가 존재하는 서브공간을 검색하고, 검색된 서브공간에 대응되는 영상(예컨대, 211-1~213-1)을 상기 제1영상(210-1)과 동시에 또는 순차적으로 디스플레이할 수 있다. 상기 제1서브공간과 공간적 상관관계가 존재한다고 함은, 전술한 바와 같이 제1서브공간과 위상관계가 연결성이 있는 것을 의미할 수 있다. 예컨대, 상기 제1서브공간에서 상기 객체가 이동가능한 제2서브공간이 제1서브공간과 공간적 상관관계가 존재하는 공간일 수 있다.For example, when an intrusion of a specific object (person or object) occurs in the first sub space corresponding to the first
만약 순차적으로 영상을 디스플레이하는 경우, 공간적 상관관계가 존재하는 공간중 위상관계가 가까운 순서대로 영상이 디스플레이될 수 있다. 도 3에 도시된 예에서는 제1영상(210-1)과 제2영상(211-1)이 순차적으로 디스플레이된 후 제3영상(212-1) 및/또는 제4영상(213-1)이 동시 또는 순차로 디스플레이될 수 있다. 물론, 상술한 바와 같은 방식으로 상기 제어장치(100)에 모니터링되는 영상은 실시간으로 상기 영상 저장장치(300)에 저장될 수 있다. 즉, 이벤트의 발생과 진행과정에 관련된 영상이 같이 저장될 수 있다. 물론, 이때에는 시간에 대한 정보(예컨대, 각 영상별 이벤트 발생시간 또는 영상 저장시간)에 대한 정보가 같이 저장될 수 있다. 또한, 전술한 바와 같이 영상획득 장치(200)에 대한 정보도 같이 저장될 수 있다. 그러면, 저장된 영상을 검색하는 경우, 특정 공간에 대한 정보와 시간에 대한 정보를 입력하는 경우, 상기 영상획득 장치(200)에 대한 정보에 기초하여 상기 특정 공간에 상응하는 영상을 중 입력된 시간에 상응하는 영상부분을 검색하고, 상기 영상부분과 같이 저장된 영상 즉, 공간적 상관관계가 존재하는 영상들이 동시에 검색 및 추출될 수 있다.If the images are sequentially displayed, the images may be displayed in the order in which the phase relations in the space where the spatial correlation exists are close to each other. In the example shown in FIG. 3, after the first image 210-1 and the second image 211-1 are sequentially displayed, the third image 212-1 and / or the fourth image 213-1 is displayed. It can be displayed simultaneously or sequentially. Of course, the image monitored by the
물론, 특정 공간 및 제특정 공간과 공간적 상관관계가 존재하는 영상이 각각 별도로 저장될 수도 있다. 이때에도 상기 제어장치(100)가 특정 공간에 대한 정보(예컨대, 주차장 A 지역)와 특정 시간을 입력하면, 상기 특정 공간에 상응하는 영상 또는 영상획득 장치에 대한 정보를 검색하고, 검색된 영상과 공간적 상관관계가 존재하는 영상을 자동으로 검색하여, 이벤트의 발생 및 진행상황을 손쉽게 검색 및 추출할 수 있다.Of course, images having a spatial correlation with a specific space and a specific space may be separately stored. In this case, when the
도 4 내지 도 5는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 모니터링 기법의 일 예를 설명하기 위한 도면이다.4 to 5 are diagrams for explaining an example of a monitoring technique of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.
도 4 내지 도 5를 참조하면, 상기 제어장치(100)에 포함되는 모니터링 장치(111)에는 도 4 또는 도 5에 도시된 바와 같이, 공간의 모델링 정보, 영상획득 장치에 상응하는 아이콘(221~223), 및 상기 영상획득 장치 각각이 촬영하는 영상(221-1~223-1)이 디스플레이될 수 있다. 도 4 내지 도 5에 도시된 바와 같이 상기 공간의 모델링 정보는 2D로 표현되거나, 도6에 도시된 바와 같이 3D로 표현될 수도 있다.4 to 5, as illustrated in FIG. 4 or 5, the
또한, 도 4에 도시된 바와 같이 영상획득 장치 각각이 촬영하는 영상(221-1~223-1)은 상기 영상획득 장치에 상응하는 아이콘(221~223)에 인접한 위치에 배치되도록 하여, 모델링 정보 상의 영상획득 장치의 위치와의 연관성을 직관적으로 판단이 용이하게 할 수 있다. 또는 도 5에 도시된 바와 같이 공간의 모델링 정보와는 별개의 영역에 상기 영상(221-1~223-1)이 디스플레이될 수도 있다.In addition, as illustrated in FIG. 4, the images 221-1 to 223-1 captured by the image acquisition apparatuses are disposed at positions adjacent to the
한편, 상기 모델링 정보 상에는 상기 적어도 하나의 영상획득 장치 각각이 획득할 수 있는 영상의 커버리지에 대한 정보(222-1, 223-2)가 디스플레이될 수 있다. 따라서, 관리자는 직관적으로 상기 공간정보를 활용한 방범방재 시스템에 의해 감시되는 영역을 확인할 수 있으며, 후술할 바와 같이 영상획득 장치의 설치 및 구축 시에도 감시가 되지 않는 부분을 가능하면 줄이면서 효율적인 감시가 되도록 할 수 있다.Meanwhile, on the modeling information, information 222-1 and 223-2 on coverage of an image that can be obtained by each of the at least one image acquisition device can be displayed. Therefore, the administrator can intuitively check the area monitored by the crime prevention and disaster prevention system using the spatial information, and as described below, effectively monitor while reducing the part not monitored even when installing and constructing the image acquisition device. Can be
또한, 영상획득 장치(200)의 개수가 많아서 각각의 영상획득 장치(200)가 촬영하는 영상을 동시에 디스플레이하기 어려운 경우, 상기 제어장치(100)에 의해 특정 영상획득 장치가 선택되면, 선택된 영상획득 장치에 대응되는 영상만이 상기 제어장치(100)에 디스플레이될 수 있다.In addition, when the number of the
도 6 내지 도 7은 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 모니터링 기법의 일 예를 설명하기 위한 도면이다.6 to 7 are diagrams for explaining an example of a monitoring technique of a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.
도 6 내지 도 7 역시 공간의 모델링 정보, 영상획득 장치(224~228)에 상응하는 아이콘, 및 상기 영상획득 장치(224~228)에 상응하는 각각의 영상 중 적어도 일부(224-1, 226-1, 228-1)가 상기 제어장치(100)에 디스플레이될 수 있다.6 to 7 also show at least some of the modeling information of the space, icons corresponding to the
도 6에 도시되는 바와 같이 상기 영상획득 장치(224~228)에 대응되는 영상 전부가 디스플레이될 수도 있지만, 관리자가 선택한 일부의 영상만이 디스플레이될 수 있다. 또한, 도 7에 도시된 바와 같이, 각각의 영상획득 장치(224~228)의 인접한 위치에 소정의 썸네일 영상이 디스플레이되며, 상기 썸네일 영상을 선택하면, 확대된 영상이 디스플레이될 수도 있다.As shown in FIG. 6, all of the images corresponding to the
한편, 도 4 내지 도 7에 도시되는 모델링 정보 상에서 관리자가 소정의 입력장치(예컨대, 마우스 등)로 특정 영역을 선택하면, 상기 제어장치(100)는 선택된 상기 특정 영역에 대응되는 영상을 디스플레이할 수 있다. 이를 위해, 상기 제어장치(100)는 선택된 영역에 상응하는 공간의 위치정보를 파악하고, 파악된 위치정보를 촬영하는 영상획득 장치에 대한 정보를 파악하며, 파악된 영상획득 장치에 대응되는 영상을 상기 제어장치(100)에 디스플레이할 수 있다.On the other hand, when the administrator selects a specific area with a predetermined input device (eg, a mouse) on the modeling information illustrated in FIGS. 4 to 7, the
상기 특정 영역에 대한 정보는 사용자가 모델링 정보 상에서 직접 선택할 수도 있지만, 다른 방식으로 입력할 수도 있다. 예컨대, 특정 영역을 나타내는 좌표정보 또는 특정 영역의 명칭(예컨대, 방번호, 지역번호, 섹션 번호 등)를 입력할 수도 있다.The information on the specific region may be directly selected by the user on the modeling information, or may be input in another manner. For example, coordinate information indicating a specific area or a name of the specific area (eg, room number, area code, section number, etc.) may be input.
한편, 특정 영역에 대한 정보가 입력 또는 선택되면, 상기 제어장치(100)는 선택된 특정 영역의 공간속성(예컨대, 방, 거실, 주방, 복도, 계단 등)을 파악할 수 있다. 이러한 공간속성에 대한 정보는 상기 공간정보에 포함된다. 그러면, 상기 제어장치(100)는 파악된 공간속성에 상응하는 공간속성(예컨대, 동일한 종류의 공간속성)을 갖는 다른 서브공간을 파악하고, 파악된 다른 서브공간에 대한 영상도 상기 특정 영역에 상응하는 영상과 함께 디스플레이할 수 있다. 예컨대, 사용자가 계단의 특정 공간을 선택하면, 상기 공간에 포함된 모든 계단 중 적어도 일부의 영상을 디스플레이할 수 있다.On the other hand, when information on a specific area is input or selected, the
또한, 전술한 바와 유사하게 특정 영역이 입력 또는 선택되면, 상기 특정 영역에 상응하는 영상과 함께 상기 특정 영역과 공간적 상관관계가 존재하는 서브공 간의 영상도 디스플레이될 수 있다.In addition, as described above, when a specific area is input or selected, an image of a sub-space having a spatial correlation with the specific area may be displayed together with the image corresponding to the specific area.
도 8 내지 도 9는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템을 이용한 선별적 모니터링 방법을 설명하기 위한 도면이다.8 to 9 are views for explaining a selective monitoring method using a crime prevention disaster prevention system using spatial information according to an embodiment of the present invention.
도 8 내지 도 9를 참조하면, 관리자는 모델링 정보상에서 특정 공간속성(예컨대, 방, 거실, 주방, 복도, 계단 등)을 갖는 특정 영역을 선택하거나, 상기 특정 공간속성을 직접 입력할 수 있다. 그러면, 상기 특정 공간속성을 갖는 서브공간들이 모델링 정보상에 디스플레이될 수 있다. 예컨대, 관리자가 계단 중 특정 부분을 모델링 정보상에서 선택하거나 계단이라는 공간속성을 이력하면, 도 8에 도시된 바와 같이 모델링 정보(21)상에서 상기 공간속성을 갖는 서브공간들 중 적어도 일부(20)가 모델링 정보(21)상에 표현될 수 있다. 또한, 각 서브공간들에 상응하는 영상들(20-1 ~ 20-7)이 디스플레이될 수 있다. 도 8에 도시된 모델링 정보(21)는 상기 공간의 간략화된 모델링 정보일 수 있다.8 to 9, the manager may select a specific area having a specific space attribute (eg, a room, a living room, a kitchen, a corridor, a staircase, etc.) or directly input the specific space attribute on the modeling information. Then, the subspaces having the specific spatial attributes can be displayed on the modeling information. For example, if a manager selects a specific portion of the stairs on the modeling information or records the space attribute of the stairs, as shown in FIG. 8, at least some of the subspaces having the space attribute on the
도 9는 특정 영역이 엘리베이터인 경우를 도시하고 있는데, 도 9에도 선택된 공간속성(예컨대, 엘리베이터)을 갖는 서브공간들(31)이 모델링 정보상에 표현될 수 있으며, 상응하는 영상들(31-1~31-4)이 상기 제어장치(100)에 디스플레이될 수 있다. 관리자는 도 9에 도시된 소정의 유저 인터페이스(30)를 이용하여 공간속성을 선택할 수도 있다.9 illustrates a case in which a specific area is an elevator. In FIG. 9,
도 10a 내지 도 10g는 본 발명의 실시 예에 따른 공간정보를 활용한 방범방재 시스템의 구축 및 동작을 설명하기 위한 도면이다.10A to 10G are diagrams for explaining the construction and operation of a crime prevention and disaster prevention system using spatial information according to an embodiment of the present invention.
먼저, 도 10a를 참조하면, 제어장치(100)는 공간에 상응하는 2차원 또는 3차 원의 공간모델링 정보를 디스플레이할 수 있다. 그리고 상기 제어장치(100)에는 적어도 하나의 영상획득 장치(40)가 디스플레이될 수 있다. 그리고, 각각의 영상획득 장치(40)의 속성정보(예컨대, 카메라 종류, 시야각 등, 41)가 디스플레이될 수 있다. 사용자는 속성정보를 참조하여 필요한 영상획득 장치(40)를 선택한 후 모델링 정보 상에 위치시킬 수 있다. 그러면, 상기 영상획득 장치(40)를 나타내는 소정의 아이콘(42)이 모델링 정보 상에 나타난다.First, referring to FIG. 10A, the
그러면, 도 10b에 도시된 바와 같이 상기 영상획득 장치(40)가 획득할 수 있는 공간의 커버리지에 대한 정보(43)가 디스플레이될 수 있다. 도 10b의 커버리지에 대한 정보(43)를 참조하면, 영상획득 장치(40)가 벽면을 향하고 있으므로 카메라의 방향을 조절할 필요가 있다.Then, as illustrated in FIG. 10B, the
관리자는 상기 아이콘(42)을 소정의 사용자 입력장치(예컨대, 마우스, 스틱 등)를 이용하여 회전시킬 수 있고, 그에 따라 도 10c에 도시된 바와 같이 영상획득 장치(4)의 방향을 조절할 수 있다.The administrator can rotate the
그러면, 상기 영상획득 장치(40)에 의해 촬영되는 부분에 상응하는 소정의 가상영상(46)이 도 10d에 도시되는 바와 같이 디스플레이될 수 있다. 상기 가상영상(46)은 실제 영상획득 장치가 설치되기 전의 시뮬레이션 과정에 있으므로, 실제 영상획득 장치로부터 수신되는 영상이 없으므로, 상기 공간정보에 기초한 모델링 정보의 일부를 가상영상으로 사용할 수 있는 것이다. 관리자는 상기 가상영상(46)이 디스플레이되는 소정의 인터페이스 장치(예컨대, 프레임)에는 소정의 스크롤 인터페이스(45, 47)가 포함될 수 있다. 관리자는 상하 스크롤 인터페이스(45)를 조절 하여 상기 영상획득 장치(4)의 상하 각도를 조절할 수 있으며, 좌우 스크롤 인터페이스(47)를 이용하여 좌우 각도를 조절할 수도 있다. Then, a predetermined
이상과 같이 어느 하나의 영상획득 장치(40)의 설치가 끝나면, 유사한 과정을 통해 실제 필요한 영상획득 장치를 모두 배치할 수 있으며, 그 결과 도 10e에 도시된 바와 같은 화면이 제어장치(100)에 디스플레이될 수 있다. 따라서 이러한 시뮬레이션 과정을 통해 관리자는 영상획득 장치의 배치나 위치를 미리 시뮬레이션 해봄으로써 최적의 방범방배 시스템을 효율적으로 구축해볼 수 있다.After the installation of any one of the
또한, 도 10f에 도시된 바와 같이, 상기 제어장치(100)에는 배치된 영상획득 장치들에 상응하는 가상영상(48)이 디스플레이될 수 있다. 또한, 상기 가상영상(48)과 함께 전술한 바와 같은 소정의 스크롤 인터페이스(46-1, 48-1)이 디스플레이될 수 있으며, 이를 통해 영상획득 장치의 조절이 가능하다. In addition, as illustrated in FIG. 10F, the
그 후, 시뮬레이션 결과대로 실제 영상획득 장치를 설치하면, 도 10g에 도시된 바와 같이 각 영상획득 장치에 상응하는 실제 영상이 디스플레이될 수 있다.Thereafter, if the actual image acquisition device is installed as a simulation result, as shown in FIG. 10G, an actual image corresponding to each image acquisition device may be displayed.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.
도 1은 종래의 네트워크 인터페이스 카드의 개략적인 구성을 나타낸다.1 shows a schematic configuration of a conventional network interface card.
도 2는 본 발명의 실시 예에 따른 네트워크 인터페이스 카드의 개략적인 구성을 나타낸다.2 shows a schematic configuration of a network interface card according to an embodiment of the present invention.
도 3a 내지 도3c는 본 발명의 실시 예에 따른 네트워크 인터페이스 카드의 스위칭 회로의 동작을 설명하기 위한 도면이다.3A to 3C are diagrams for describing an operation of a switching circuit of a network interface card according to an exemplary embodiment of the present invention.
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090046957A KR100934978B1 (en) | 2009-05-28 | 2009-05-28 | System for security and preventing disatser using space information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090046957A KR100934978B1 (en) | 2009-05-28 | 2009-05-28 | System for security and preventing disatser using space information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100934978B1 true KR100934978B1 (en) | 2010-01-06 |
Family
ID=41809351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090046957A KR100934978B1 (en) | 2009-05-28 | 2009-05-28 | System for security and preventing disatser using space information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100934978B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101062137B1 (en) * | 2009-12-29 | 2011-09-05 | 주식회사 시공테크 | Hazard situation detection system and display method using display terminal and control terminal |
KR101400169B1 (en) | 2014-02-06 | 2014-05-28 | (주)라이드소프트 | Visually patrolling system using virtual reality for security controlling and method thereof |
KR101562650B1 (en) * | 2013-09-11 | 2015-10-23 | (주)유엔이 | Disaster detection system and providing method thereof |
KR20160096488A (en) | 2015-02-05 | 2016-08-16 | (주)도원엔지니어링건축사사무소 | Spatial data recognizing method using light sensor and mutual multi-object recognition type disaster response system using the same |
KR101837474B1 (en) | 2016-09-23 | 2018-04-19 | 주식회사 코젠 | 3D virtual reality images system applied tunnel automatic controling system |
KR101856488B1 (en) | 2017-09-06 | 2018-05-10 | 윤재민 | Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping |
KR102671845B1 (en) * | 2022-04-06 | 2024-07-01 | 신성균 | Pyramid shaped pavilion flooring composition and flooring construction method using the composition |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100744554B1 (en) * | 2006-04-14 | 2007-08-01 | 한국전자통신연구원 | Apparatus and method for supporting fire fighting spot |
KR20080044936A (en) * | 2006-11-17 | 2008-05-22 | 주식회사 도담시스템스 | Watching control system having an auto picture pop-up function and controlling method for the same |
KR20090025844A (en) * | 2007-09-07 | 2009-03-11 | 주식회사 케이티 | Three dimension unified building management system |
KR20090035835A (en) * | 2007-10-08 | 2009-04-13 | 주식회사 에스원 | Unified system for managing building equipment using 3 dimensional virtual space and method thereof |
-
2009
- 2009-05-28 KR KR1020090046957A patent/KR100934978B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100744554B1 (en) * | 2006-04-14 | 2007-08-01 | 한국전자통신연구원 | Apparatus and method for supporting fire fighting spot |
KR20080044936A (en) * | 2006-11-17 | 2008-05-22 | 주식회사 도담시스템스 | Watching control system having an auto picture pop-up function and controlling method for the same |
KR20090025844A (en) * | 2007-09-07 | 2009-03-11 | 주식회사 케이티 | Three dimension unified building management system |
KR20090035835A (en) * | 2007-10-08 | 2009-04-13 | 주식회사 에스원 | Unified system for managing building equipment using 3 dimensional virtual space and method thereof |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101062137B1 (en) * | 2009-12-29 | 2011-09-05 | 주식회사 시공테크 | Hazard situation detection system and display method using display terminal and control terminal |
KR101562650B1 (en) * | 2013-09-11 | 2015-10-23 | (주)유엔이 | Disaster detection system and providing method thereof |
KR101400169B1 (en) | 2014-02-06 | 2014-05-28 | (주)라이드소프트 | Visually patrolling system using virtual reality for security controlling and method thereof |
KR20160096488A (en) | 2015-02-05 | 2016-08-16 | (주)도원엔지니어링건축사사무소 | Spatial data recognizing method using light sensor and mutual multi-object recognition type disaster response system using the same |
KR101837474B1 (en) | 2016-09-23 | 2018-04-19 | 주식회사 코젠 | 3D virtual reality images system applied tunnel automatic controling system |
KR101856488B1 (en) | 2017-09-06 | 2018-05-10 | 윤재민 | Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping |
KR102671845B1 (en) * | 2022-04-06 | 2024-07-01 | 신성균 | Pyramid shaped pavilion flooring composition and flooring construction method using the composition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100934978B1 (en) | System for security and preventing disatser using space information | |
EP2274654B1 (en) | Method for controlling an alarm management system | |
EP1872345B1 (en) | Intelligent camera selection and object tracking | |
EP2934004B1 (en) | System and method of virtual zone based camera parameter updates in video surveillance systems | |
KR101562650B1 (en) | Disaster detection system and providing method thereof | |
EP2932708A1 (en) | Mobile augmented reality for managing enclosed areas | |
CN101375599A (en) | Method and system for performing video flashlight | |
CN101803385A (en) | Dynamic tracking of intruders across a plurality of associated video screens | |
JP4808139B2 (en) | Monitoring system | |
JP5958462B2 (en) | Imaging apparatus, imaging method, and program | |
WO2014182898A1 (en) | User interface for effective video surveillance | |
KR20110040699A (en) | Forest fire monitiring system and control method thereof | |
KR20090132319A (en) | System and method for virtual sensor positioning | |
KR101060414B1 (en) | Monitoring system and mathod for the same | |
KR20150116722A (en) | System and Method for Network Security | |
KR101629738B1 (en) | Method and system for evaluating the performance of CCTV surveillance system | |
EP4163893A1 (en) | System and method for guiding intrusion sensor installation | |
TWI395485B (en) | Surveillance system and picture display method | |
JP2005136774A (en) | Camera surveillance system and program | |
KR102657573B1 (en) | Intelligent environmental monitoring and control system using video and thermal imaging | |
JP2019091246A (en) | Facility managing device, facility managing system and program | |
JPH04261289A (en) | Picture monitor system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121010 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131007 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20141008 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20151126 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20161219 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20171102 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20181204 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20191210 Year of fee payment: 11 |