KR102634060B1 - System for informing risk information in disaster areas using augmented reality - Google Patents

System for informing risk information in disaster areas using augmented reality Download PDF

Info

Publication number
KR102634060B1
KR102634060B1 KR1020230074114A KR20230074114A KR102634060B1 KR 102634060 B1 KR102634060 B1 KR 102634060B1 KR 1020230074114 A KR1020230074114 A KR 1020230074114A KR 20230074114 A KR20230074114 A KR 20230074114A KR 102634060 B1 KR102634060 B1 KR 102634060B1
Authority
KR
South Korea
Prior art keywords
disaster
information
risk
unit
image information
Prior art date
Application number
KR1020230074114A
Other languages
Korean (ko)
Inventor
신동욱
방석호
장경원
Original Assignee
주식회사 차후
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 차후 filed Critical 주식회사 차후
Priority to KR1020230074114A priority Critical patent/KR102634060B1/en
Application granted granted Critical
Publication of KR102634060B1 publication Critical patent/KR102634060B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 증강현실을 활용한 재난지역의 위험정보 알림 시스템에 관한 것으로, 해결하고자 하는 과제는 홍수, 침수, 산사태, 대설, 화재, 지진, 해일 등 재난 발생 시 위험 시설물 등에 대하여 증강현실을 적용한 영상정보를 전파하여 위험정보를 직관적으로 이해 및 파악할 수 있도록 함으로써 국민의 안전을 도모하는데 있다.
일례로, 재난경보 발생 시 해당 재난지역의 현장위치정보 및 현장영상정보를 각각 획득하는 현장재난정보 획득부; 상기 현장영상정보에 AR 콘텐츠를 적용하여 AR 콘텐츠가 투영된 AR 재난영상정보를 생성하는 AR 재난영상정보 생성부; 및 상기 현장위치정보를 기반으로 해당 재난지역에 위치하는 대상자를 식별하고, 식별된 대상자의 모바일통신단말로 상기 AR 재난영상정보를 전파하는 AR 재난영상정보 전파부를 포함하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템을 개시한다.
The present invention relates to a risk information notification system in disaster areas using augmented reality. The problem to be solved is to use augmented reality to provide video information to dangerous facilities in the event of disasters such as floods, inundation, landslides, heavy snow, fires, earthquakes, and tsunamis. The goal is to promote public safety by disseminating information so that risk information can be intuitively understood and grasped.
For example, an on-site disaster information acquisition unit that acquires on-site location information and on-site image information of the disaster area when a disaster warning occurs; An AR disaster image information generator that generates AR disaster image information onto which the AR content is projected by applying AR content to the scene image information; and a disaster area using augmented reality, including an AR disaster image information dissemination unit that identifies subjects located in the disaster area based on the on-site location information and disseminates the AR disaster image information to the mobile communication terminals of the identified subjects. Launches a risk information notification system.

Description

증강현실을 활용한 재난지역의 위험정보 알림 시스템{SYSTEM FOR INFORMING RISK INFORMATION IN DISASTER AREAS USING AUGMENTED REALITY} Risk information notification system in disaster areas using augmented reality {SYSTEM FOR INFORMING RISK INFORMATION IN DISASTER AREAS USING AUGMENTED REALITY}

본 발명의 실시예는 증강현실을 활용한 재난지역의 위험정보 알림 시스템에 관한 것이다.An embodiment of the present invention relates to a risk information notification system in a disaster area using augmented reality.

최근 들어, 도시화와 토지이용이 고도화되고, 지구온난화, 엘니뇨 등 기상 이변에 의해 단시간 동안 특정지역에 집중되는 국지성 집중 호우가 빈번히 발생 하고 있으며, 기후변화에 따라 미래의 도시침수는 현재보다 자주 그리고 더욱 강하게 발생할 수 있을 것으로 전망된다.Recently, urbanization and land use have advanced, and localized heavy rains concentrated in specific areas for a short period of time are occurring more frequently due to abnormal weather conditions such as global warming and El Niño. Due to climate change, urban flooding in the future will be more frequent and more frequent than it is now. It is expected that this will occur strongly.

그러나, 2022년에도 집중호우 침수로 인한 지하시설물(ex. 맨홀)의 사고 사례가 발생하는 등 도심지역에 재난 발생 시 안전 측면에서의 대비가 미흡한 실정에 있다.However, even in 2022, there are cases of accidents in underground facilities (ex. manholes) due to flooding due to heavy rain, and preparations in terms of safety in case of disasters in urban areas are insufficient.

현재에도 침수를 방지하고자 하는 노력은 각 지자체 및 사업을 통해 진행 되고 있으나, 침수 등의 자연재해가 발생했을 시에 대한 안전대책에서는 기술적 노력이나 정책적 노력이 턱없이 부족한 상황에 있다.Even now, efforts to prevent flooding are being made through each local government and projects, but technical and policy efforts are severely lacking in safety measures in case natural disasters such as flooding occur.

공개특허공보 제10-2019-0063000호(공개일자: 2019년06월07일)Public Patent Publication No. 10-2019-0063000 (Publication date: June 7, 2019) 공개특허공보 제10-2010-0124947호(공개일자: 2010년11월30일)Publication of Patent No. 10-2010-0124947 (Publication date: November 30, 2010) 공개특허공보 제10-20110012524호(공개일자: 2011년02월09일)Public Patent Publication No. 10-20110012524 (Publication date: February 9, 2011)

본 발명의 실시예는, 홍수, 침수, 산사태, 대설, 화재, 지진, 해일 등 재난 발생 시 위험 시설물 등에 대하여 증강현실을 적용한 영상정보를 전파하여 위험정보를 직관적으로 이해 및 파악할 수 있도록 함으로써 국민의 안전을 도모하기 위한 증강현실을 활용한 재난지역의 위험정보 알림 시스템을 제공한다.An embodiment of the present invention enables citizens to intuitively understand and grasp risk information by disseminating video information using augmented reality to dangerous facilities in the event of a disaster such as flood, inundation, landslide, heavy snow, fire, earthquake, or tsunami. We provide a risk information notification system in disaster areas using augmented reality to promote safety.

본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템은, 재난경보 발생 시 해당 재난지역의 현장위치정보 및 현장영상정보를 각각 획득하는 현장재난정보 획득부; 상기 현장영상정보에 AR 콘텐츠를 적용하여 AR 콘텐츠가 투영된 AR 재난영상정보를 생성하는 AR 재난영상정보 생성부; 및 상기 현장위치정보를 기반으로 해당 재난지역에 위치하는 대상자를 식별하고, 식별된 대상자의 모바일통신단말로 상기 AR 재난영상정보를 전파하는 AR 재난영상정보 전파부를 포함한다.The risk information notification system in a disaster area using augmented reality according to an embodiment of the present invention includes an on-site disaster information acquisition unit that acquires on-site location information and on-site image information of the disaster area when a disaster warning occurs; An AR disaster image information generator that generates AR disaster image information onto which the AR content is projected by applying AR content to the scene image information; And an AR disaster image information dissemination unit that identifies a subject located in the disaster area based on the on-site location information and disseminates the AR disaster image information to the mobile communication terminal of the identified subject.

또한, 상기 현장재난정보 획득부는, 모바일통신단말의 카메라를 통해 생성된 모바일영상데이터를 상기 현장영상정보로서 획득하는 현장영상정보 획득부; 및 상기 모바일영상데이터의 생성 시 모바일통신단말로부터 GPS 데이터를 상기 현장위치정보로서 획득하는 현장위치정보 획득부를 포함할 수 있다.In addition, the on-site disaster information acquisition unit includes a on-site image information acquisition unit that acquires mobile image data generated through a camera of a mobile communication terminal as the on-site image information; And it may include a field location information acquisition unit that acquires GPS data from a mobile communication terminal as the field location information when generating the mobile image data.

또한, 상기 AR 재난영상정보 생성부는, 재난종류에 따라 미리 제작된 3차원 가상이미지를 각각 제공하고, 사용자에 의해 선택된 상기 3차원 가상이미지를 상기 현장영상정보에 삽입 및 편집하여 상기 AR 재난영상정보를 생성하는 AR 제작 도구부; 및 상기 AR 재난영상정보 및 상기 현장위치정보를 AR 재난영상정보 전파부로 업로드하는 현장재난정보 업로드부를 포함할 수 있다.In addition, the AR disaster image information generation unit provides pre-produced 3D virtual images according to the type of disaster, and inserts and edits the 3D virtual image selected by the user into the scene image information to generate the AR disaster image information. AR production tool unit that generates; And it may include a site disaster information upload unit that uploads the AR disaster video information and the site location information to the AR disaster video information dissemination unit.

또한, 상기 AR 제작 도구부는, 재난종류를 선택 받는 재난종류 선택부; 재난종류에 따른 적어도 하나 이상의 3차원 가상아이콘을 선택 가능하게 제공하고, 선택된 3차원 가상아이콘을 현장영상 중 위험요소가 있는 지점 상에 생성하는 3차원 가상아이콘 생성부; 현장영상 내에 상기 3차원 가상아이콘을 지나는 3차원 위험경로그래픽과, 상기 3차원 가상아이콘을 회피하는 3차원 회피경로그래픽을 각각 생성하는 3차원 경로그래픽 생성부; 및 상기 3차원 가상아이콘, 상기 3차원 위험경로그래픽 및 상기 3차원 회피경로그래픽 중 적어도 하나에 대한 텍스트정보를 입력 받아 현장영상에 적용하는 텍스트정보 입력부를 포함할 수 있다.In addition, the AR production tool unit includes a disaster type selection unit for selecting a disaster type; A 3D virtual icon generator that provides selection of at least one 3D virtual icon according to the type of disaster and generates the selected 3D virtual icon on a point with a risk element in the scene video; A 3D path graphics generator that generates 3D risk path graphics passing through the 3D virtual icon and 3D avoidance path graphics that avoid the 3D virtual icon in the scene video, respectively; And it may include a text information input unit that receives text information about at least one of the 3D virtual icon, the 3D risk path graphic, and the 3D avoidance path graphic and applies it to the scene image.

또한, 상기 AR 재난영상정보 전파부는, 상기 현장위치정보를 기반으로 미리 설정된 반경을 갖는 재난위험영역을 정의하는 재난위험영역 정의부; GPS, 와이파이 및 기지국 방식 중 적어도 하나의 측위 기술을 기반으로 상기 재난위험영역에 위치한 모바일통신단말을 인식하여 재난 알림 대상자를 식별하는 재난 알림 대상지 식별부; 및 상기 재난 알림 대상자의 모바일통신단말로 상기 AR 재난영상정보를 전송하는 모바일 알림 메시지 전송부를 포함할 수 있다.In addition, the AR disaster image information dissemination unit includes a disaster risk area definition unit that defines a disaster risk area with a preset radius based on the site location information; A disaster notification target location identification unit that recognizes mobile communication terminals located in the disaster risk area based on at least one positioning technology among GPS, Wi-Fi, and base station methods to identify disaster notification recipients; And it may include a mobile notification message transmission unit that transmits the AR disaster image information to the mobile communication terminal of the disaster notification recipient.

또한, 상기 AR 재난영상정보 전파부는, 상기 재난위험영역에 위치한 전광판 중 기 등록된 전광판의 관리 시스템으로 상기 AR 재난영상정보를 송출하는 전광판 알림 메시지 전송부를 더 포함할 수 있다.In addition, the AR disaster image information dissemination unit may further include an electronic signboard notification message transmission unit that transmits the AR disaster image information to a management system for previously registered electronic signboards among electric signboards located in the disaster risk area.

또한, 상기 현장재난정보 획득부는, 상기 현장위치정보를 기반으로 해당 재난지역에 설치된 CCTV 중 기 등록된 CCTV의 관리 시스템으로부터 CCTV영상데이터를 수집하는 CCTV 영상 수집부를 더 포함할 수 있다.In addition, the on-site disaster information acquisition unit may further include a CCTV image collection unit that collects CCTV image data from a management system of CCTVs already registered among CCTVs installed in the disaster area based on the on-site location information.

또한, 상기 AR 재난영상정보 생성부는, 재난종류에 따른 재난현장영상의 위험요소에 대하여 미리 학습된 RNN(Recurrent Neural Network) 모델의 시계열적 분석을 통해 상기 CCTV영상데이터로부터 위험요소를 판단하는 인공지능 위험요소 판단부; 재난종류에 따른 재난현장영상의 객체행동에 대하여 미리 학습된 RNN 모델의 시계열적 분석을 통해 상기 CCTV영상데이터로부터 위험경로 및 회피경로를 판단하는 인공지능 객체경로 판단부; 및 상기 인공지능 위험요소 판단부를 통해 판단된 위험요소와, 상기 인공지능 객체경로 판단부를 통해 판단된 위험경로 및 회피경로에 대한 3차원 그래픽 및 텍스트정보를 상기 CCTV영상데이터에 각각 삽입하여 상기 AR 재난영상정보를 자동 생성하는 인공지능 AR 자동 생성부를 포함할 수 있다.In addition, the AR disaster image information generation unit is an artificial intelligence unit that determines risk factors from the CCTV video data through time-series analysis of a RNN (Recurrent Neural Network) model that has been previously learned for risk factors in disaster scene images according to disaster types. Risk factor determination department; An artificial intelligence object path determination unit that determines a risk path and an avoidance path from the CCTV image data through time-series analysis of a pre-trained RNN model for object behavior in disaster scene images according to disaster type; And 3D graphic and text information about the risk factors determined through the artificial intelligence risk factor determination unit and the risk path and avoidance path determined through the artificial intelligence object path determination unit are respectively inserted into the CCTV image data to prevent the AR disaster. It may include an artificial intelligence AR automatic generation unit that automatically generates image information.

또한, 상기 AR 재난영상정보 생성부는, 상기 AR 재난영상정보 및 상기 AR 재난영상정보의 속성정보에 포함된 위치정보를 취합하고, 취합된 정보를 기반으로 일정 반경을 갖는 재난위험영역에 대한 지도 상에서 위험요소, 위험경로 및 회피경로를 적용한 재난정보 지도정보를 자동 생성하여 제공하는 재난정보 지도 서비스 제공부를 더 포함할 수 있다.In addition, the AR disaster image information generation unit collects the location information included in the AR disaster image information and attribute information of the AR disaster image information, and creates a map for a disaster risk area with a certain radius based on the collected information. It may further include a disaster information map service provider that automatically generates and provides disaster information map information applying risk factors, risk paths, and avoidance paths.

본 발명에 따르면, 홍수, 침수, 산사태, 대설, 화재, 지진, 해일 등 재난 발생 시 위험 시설물 등에 대하여 증강현실을 적용한 영상정보를 전파하여 위험정보를 직관적으로 이해 및 파악할 수 있도록 함으로써 국민의 안전을 도모할 수 있다.According to the present invention, in the event of a disaster such as flood, inundation, landslide, heavy snow, fire, earthquake, or tsunami, video information using augmented reality is disseminated to dangerous facilities, etc. to enable intuitive understanding and grasp of risk information, thus improving the safety of the public. It can be promoted.

도 1은 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템의 구성 형태 및 동작 흐름을 나타낸 개요도이다.
도 2는 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 현장재난정보 획득부의 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 현장영상정보 및 현장위치정보 획득 방식을 설명하기 위해 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 AR 재난영상정보 생성부의 구성을 나타낸 블록도이다.
도 6은 본 발명의 실시예에 따른 AR 제작 도구부의 구성을 나타낸 블록도이다.
도 7은 본 발명의 실시예에 따른 AR 제작 도구부를 통한 AR 재난영상정보의 생성 방법을 설명하기 위해 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 AR 재난영상정보 전파부의 구성을 나타낸 블록도이다.
Figure 1 is a schematic diagram showing the configuration and operational flow of a risk information notification system in a disaster area using augmented reality according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a risk information notification system in a disaster area using augmented reality according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of an on-site disaster information acquisition unit according to an embodiment of the present invention.
Figure 4 is a diagram illustrating a method of acquiring on-site image information and on-site location information according to an embodiment of the present invention.
Figure 5 is a block diagram showing the configuration of an AR disaster image information generator according to an embodiment of the present invention.
Figure 6 is a block diagram showing the configuration of an AR production tool unit according to an embodiment of the present invention.
Figure 7 is a diagram illustrating a method of generating AR disaster image information through an AR production tool unit according to an embodiment of the present invention.
Figure 8 is a block diagram showing the configuration of an AR disaster image information dissemination unit according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

도 1은 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템의 구성 형태 및 동작 흐름을 나타낸 개요도이다.Figure 1 is a schematic diagram showing the configuration and operational flow of a risk information notification system in a disaster area using augmented reality according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템(1000)은 모바일통신단말(10, 30), 관리서버(20), CCTV 관리 시스템(30) 및 전광판 관리 시스템(40)을 포함하여 상호 연동하는 형태로 구현될 수 있다.Referring to Figure 1, the risk information notification system 1000 in a disaster area using augmented reality according to an embodiment of the present invention includes mobile communication terminals 10 and 30, a management server 20, and a CCTV management system 30. and the electronic signboard management system 40 and may be implemented in an interoperable form.

상기 모바일통신단말(10, 30)은, AR 재난영상정보를 생성하기 위해 특정 개인 또는 불특정 개인으로부터 모바일영상데이터를 제공하는 모바일통신단말(10)과, AR 재난영상정보를 수신하는 모바일통신단말(30)로 구분될 수 있다. The mobile communication terminals 10 and 30 include a mobile communication terminal 10 that provides mobile image data from a specific or unspecified individual to generate AR disaster image information, and a mobile communication terminal that receives AR disaster image information ( 30).

또한, 모바일통신단말(10)은, 현장에서 재난관련 위험요소가 촬영된 영상과 해당 지역의 위치정보를 획득하고, 획득된 영상정보에 AR 콘텐츠를 투영하여 AR 재난영상을 생성하기 위한 모든 프로세스를 처리할 수 있다.이러한 모바일통신단말(10, 30)은, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hypertext mark-up language)로 서술된 하이퍼텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 크롬(chrome), 엣지(edge), 사파리(safari) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 즉 모바일 단말(스마트폰)에서 실행되는 어플리케이션을 포함할 수 있다.In addition, the mobile communication terminal 10 acquires images of disaster-related risk factors filmed at the scene and location information of the area, and projects AR content on the acquired image information to perform all processes to generate AR disaster images. It can be processed. These mobile communication terminals 10 and 30 include PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA (Personal Digital). Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smart pad It may include all types of handheld-based wireless communication devices, such as smartpads and tablet PCs. Here, a web browser is a program that allows the use of web (WWW: world wide web) services and refers to a program that receives and displays hypertext written in HTML (hypertext mark-up language). For example, Chrome, Includes Edge, Safari, etc. Additionally, an application refers to an application on a terminal, that is, it may include an application running on a mobile terminal (smartphone).

상기 관리서버(20)는, 모바일통신단말(10)과 연결되어 모바일통신단말(10)로부터 재난위치정보와 AR 재난영상정보를 수신하고, 재난위치를 기반으로 AR 재난영상을 모바일통신단말(30)로 전송하기 위한 모든 프로세스를 처리할 수 있다. The management server 20 is connected to the mobile communication terminal 10, receives disaster location information and AR disaster image information from the mobile communication terminal 10, and sends the AR disaster image to the mobile communication terminal 30 based on the disaster location. ) can handle all processes for transmission.

이러한 관리서버(20)는, 하드웨어적으로 통상적인 웹 서버와 동일한 구성을 가지며, 소프트웨어적으로는 Java, Python, JavaScript, Php, C, C++ 등과 같은 다양한 형태의 언어를 통해 구현되어 여러 가지 기능을 하는 프로그램 모듈을 포함할 수 있다. 또한, 일반적인 서버용 하드웨어에 윈도우(window), 리눅스(linux), 유닉스(unix), 매킨토시(macintosi), 안드로이드(Android), 아이오에스(iOS) 등의 운영 체제에 따라 다양하게 제공되고 있는 웹 서버 프로그램을 이용하여 구현될 수 있다.This management server 20 has the same configuration as a typical web server in terms of hardware, and is implemented in various types of languages such as Java, Python, JavaScript, Php, C, C++, etc. in software to provide various functions. It may include program modules that do this. In addition, a variety of web server programs are provided depending on the general server hardware and operating systems such as Windows, Linux, Unix, Macintosh, Android, and iOS. It can be implemented using .

한편, 모바일통신단말(10, 30)과 관리서버(20) 간을 연결하는 인터넷 네트워크의 통신망의 일 예로는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등)에 따라 구축된 이동 통신망을 포함할 수 있으나, 특별히 한정하는 것은 아니다. 또한, 유선 통신망의 일 예로는, LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크일 수 있으며, 인터넷과 같은 개방형 네트워크인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전세계적인 개방형 컴퓨터 네트워크 구조를 의미한다.Meanwhile, an example of an Internet network connecting the mobile communication terminals 10, 30 and the management server 20 is technical standards or communication methods for mobile communication (e.g., GSM (Global System for Mobile). communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access) ), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G, etc.), but is not particularly limited. Additionally, an example of a wired communication network may be a closed network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and it is preferably an open network such as the Internet. The Internet uses the TCP/IP protocol and several services existing at its upper layer, namely HTTP (HyperText Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), and SNMP ( It refers to a global open computer network structure that provides Simple Network Management Protocol (NFS), Network File Service (NFS), and Network Information Service (NIS).

도 2는 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템의 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 현장재난정보 획득부의 구성을 나타낸 블록도이고, 도 4는 본 발명의 실시예에 따른 현장영상정보 및 현장위치정보 획득 방식을 설명하기 위해 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 AR 재난영상정보 생성부의 구성을 나타낸 블록도이고, 도 6은 본 발명의 실시예에 따른 AR 제작 도구부의 구성을 나타낸 블록도이고, 도 7은 본 발명의 실시예에 따른 AR 제작 도구부를 통한 AR 재난영상정보의 생성 방법을 설명하기 위해 나타낸 도면이며, 도 8은 본 발명의 실시예에 따른 AR 재난영상정보 전파부의 구성을 나타낸 블록도이다.Figure 2 is a block diagram showing the configuration of a risk information notification system in a disaster area using augmented reality according to an embodiment of the present invention, and Figure 3 is a block diagram showing the configuration of an on-site disaster information acquisition unit according to an embodiment of the present invention. 4 is a diagram showing a method of acquiring on-site image information and on-site location information according to an embodiment of the present invention, and FIG. 5 is a block diagram showing the configuration of an AR disaster image information generator according to an embodiment of the present invention. 6 is a block diagram showing the configuration of the AR production tool unit according to an embodiment of the present invention, and FIG. 7 is a diagram showing a method of generating AR disaster image information through the AR production tool unit according to an embodiment of the present invention. It is a drawing, and Figure 8 is a block diagram showing the configuration of an AR disaster image information dissemination unit according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 증강현실을 활용한 재난지역의 위험정보 알림 시스템(1000)은 현장재난정보 획득부(100), AR 재난영상정보 생성부(200) 및 AR 재난영상정보 전파부(300) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 2, the risk information notification system 1000 in a disaster area using augmented reality according to an embodiment of the present invention includes an on-site disaster information acquisition unit 100, an AR disaster image information generation unit 200, and an AR disaster information acquisition unit 100. It may include at least one of the image information propagation units 300.

상기 현장재난정보 획득부(100)는, 재난경보 발생 시 해당 재난지역의 현장위치정보 및 현장영상정보를 각각 획득할 수 있다. 본 실시예에 따른 재난은 홍수, 침수, 산사태, 대설, 화재, 지진, 해일 등을 의미할 수 있으나, 이러한 자연재해만으로 한정하는 것은 아니다.The on-site disaster information acquisition unit 100 can acquire on-site location information and on-site image information of the disaster area when a disaster warning occurs. Disasters according to this embodiment may mean floods, flooding, landslides, heavy snow, fires, earthquakes, tsunamis, etc., but are not limited to these natural disasters.

이를 위해 현장재난정보 획득부(100)는 도 3에 도시된 바와 같이, 현장영상정보 획득부(110) 및 현장위치정보 획득부(120) 중 적어도 하나를 포함할 수 있으며, 추가적으로 CCTV 영상 수집부(130)를 더 포함할 수 있다.To this end, the on-site disaster information acquisition unit 100 may include at least one of the on-site image information acquisition unit 110 and the on-site location information acquisition unit 120, as shown in FIG. 3, and additionally a CCTV image collection unit. (130) may further be included.

상기 현장영상정보 획득부(110)는, 도 4에 도시된 바와 같이 모바일통신단말(10)의 카메라를 통해 생성(촬영)된 모바일영상데이터를 현장영상정보로서 획득할 수 있다. 본 실시예에 따른 현장영상정보 획득부(110)는 모바일통신단말(10)에 설치된 어플리케이션 형태로 구현될 수 있으며, 모바일통신단말(10)을 통해 해당 사용자가 재난현장의 영상(동영상, 사진)을 촬영하여 영상데이터가 생성되면, 생성된 영상데이터를 현장영상정보로서 획득할 수 있다.As shown in FIG. 4, the on-site image information acquisition unit 110 can acquire mobile image data generated (captured) through the camera of the mobile communication terminal 10 as on-site image information. The on-site image information acquisition unit 110 according to this embodiment can be implemented in the form of an application installed on the mobile communication terminal 10, and the user can view images (videos, photos) of the disaster site through the mobile communication terminal 10. When image data is generated by shooting, the generated image data can be obtained as on-site image information.

상기 현장위치정보 획득부(120)는, 모바일영상데이터의 생성 시 도 4에 도시된 바와 같이 모바일통신단말(10)로부터 GPS 데이터를 현장위치정보로서 획득할 수 있다. 일반적으로 스마트폰에서 동영상 또는 사진 촬영 시 메타정보로서 GPS데이터가 해당 모바일영상데이터에 저장되므로, 현장위치정보 획득부(120)는 해당 메타정보인 GPS데이터를 현장위치정보로서 획득할 수 있다.The field location information acquisition unit 120 can acquire GPS data as field location information from the mobile communication terminal 10 as shown in FIG. 4 when generating mobile image data. Generally, when taking a video or photo on a smartphone, GPS data as meta information is stored in the corresponding mobile video data, so the field location information acquisition unit 120 can acquire GPS data, which is the meta information, as field location information.

상기 CCTV 영상 수집부(130)는, 현장위치정보를 기반으로 해당 재난지역에 설치된 CCTV 중 기 등록된 CCTV의 관리 시스템(30)으로부터 CCTV영상데이터를 수집할 수 있다. The CCTV image collection unit 130 can collect CCTV image data from the management system 30 of CCTVs already registered among the CCTVs installed in the disaster area based on site location information.

이를 위해, 사전에 상습침수지역 등 재난예상지역을 특정하고, 특정된 해당 지역 내에 설치된 CCTV 관리 시스템(30)과의 연동을 통해 CCTV 영상 수집부(130)에서 재난발생코드를 CCTV 관리 시스템(30)를 송출하면, CCTV 관리 시스템(30)에 녹화된 영상 중 특정 시간대에 녹화된 영상데이터를 CCTV 영상수집(130)로 전송할 수 있도록 한다.For this purpose, disaster expected areas such as habitually flooded areas are specified in advance, and disaster occurrence codes are collected from the CCTV image collection unit 130 through linkage with the CCTV management system 30 installed within the specified area. ), the video data recorded at a specific time among the videos recorded in the CCTV management system 30 can be transmitted to the CCTV video collection 130.

상기 AR 재난영상정보 생성부(200)는, 현장영상정보 획득부(110)를 통해 획득된 현장영상정보에 AR 콘텐츠를 적용하여 AR 콘텐츠가 투영된 AR 재난영상정보를 생성할 수 있다.The AR disaster image information generation unit 200 may apply AR content to the scene image information acquired through the scene image information acquisition unit 110 to generate AR disaster image information on which the AR content is projected.

이를 위해 AR 재난영상정보 생성부(200)는 도 5에 도시된 바와 같이, AR 제작 도구부(210) 및 현장재난 정보 업로드부(220) 중 적어도 하나를 포함할 수 있으며, 추가적으로 인공지능 위험요소 판단부(230), 인공지능 객체경로 판단부(240), 인공지능 AR 자동 생성부(250) 및 재난정보 지도 서비스 제공부(260) 중 적어도 하나를 더 포함할 수 있다.To this end, the AR disaster image information generation unit 200 may include at least one of the AR production tool unit 210 and the on-site disaster information upload unit 220, as shown in FIG. 5, and may additionally include artificial intelligence risk factors. It may further include at least one of a determination unit 230, an artificial intelligence object path determination unit 240, an artificial intelligence AR automatic generation unit 250, and a disaster information map service provision unit 260.

상기 AR 제작 도구부(210)는, 재난종류(에 따라 미리 제작된 3차원 가상이미지를 각각 제공하고, 사용자에 의해 선택된 3차원 가상이미지를 해당 현장영상정보에 삽입하고, 필요에 따라 편집(영상 내 위치, 크기, 색상, 방향, 각도 조정)하여 AR 재난영상정보를 생성할 수 있다.The AR production tool unit 210 provides pre-produced 3D virtual images according to the type of disaster, inserts the 3D virtual image selected by the user into the corresponding scene video information, and edits (video) as necessary. You can create AR disaster video information by adjusting your location, size, color, direction, and angle.

이러한 AR 제작 도구부(210)는, 도 6에 도시된 바와 같이 재난종류 선택부(211), 3차원 가상아이콘 생성부(212), 3차원 경로그래픽 생성부(213) 및 텍스트정보 입력부(214) 중 적어도 하나를 포함할 수 있다.As shown in FIG. 6, this AR production tool unit 210 includes a disaster type selection unit 211, a 3D virtual icon creation unit 212, a 3D path graphic creation unit 213, and a text information input unit 214. ) may include at least one of

상기 재난종류 선택부(211)는 사용자 인터페이스를 통하여 재난종류를 선택 받을 수 있다. 예를 들어, 홍수, 침수, 산사태, 대설, 화재, 지진, 해일 중 어느 하나의 재난종류를 선택할 수 있으며, 선택된 재난종류에 따라 3차원 가상아이콘 생성부(212) 및 3차원 경로그래픽 생성부(213)를 통해 제공되는 AR 콘텐츠도 그에 맞게 제공될 수 있다. The disaster type selection unit 211 can select a disaster type through a user interface. For example, you can select any one disaster type among flood, inundation, landslide, heavy snow, fire, earthquake, and tsunami, and depending on the selected disaster type, a 3D virtual icon generator 212 and a 3D path graphic generator ( AR content provided through 213) can also be provided accordingly.

상기 3차원 가상아이콘 생성부(212)는, 선택된 재난종류에 따른 적어도 하나 이상의 3차원 가상아이콘을 선택 가능하게 제공하고, 선택된 3차원 가상아이콘을 현장영상 중 위험요소가 있는 지점 상에 생성할 수 있다. The 3D virtual icon generator 212 provides selectable at least one 3D virtual icon according to the selected disaster type, and can generate the selected 3D virtual icon on a point with a risk element in the scene image. there is.

예를 들어, 침수와 같은 재난의 경우 인도에 설치된 지하 시설물(맨홀)이 그로 인해 보이지 않아 보행자의 추락 위험이 있으므로, '맨홀 뚜껑'과 같은 3차원 가상아이콘을 자동으로 생성하거나 선택 가능하게 제공할 수 있으며, 현장영상의 촬영 각도나 그 밖의 환경적인 요소에 맞게 '맨홀 뚜껑'의 각도나 크기 방향 등을 조정하여 영상 속의 맨홀 위치에 표시되도록 할 수 있다.For example, in the case of a disaster such as flooding, underground facilities (manholes) installed on the sidewalk are not visible and there is a risk of pedestrians falling, so 3D virtual icons such as 'manhole covers' can be automatically created or provided for selection. You can adjust the angle or size direction of the 'manhole cover' according to the shooting angle of the field video or other environmental factors so that it is displayed at the location of the manhole in the video.

상기 3차원 경로그래픽 생성부(213)는, 현장영상 내에 3차원 가상아이콘을 지나는 3차원 위험경로그래픽과, 3차원 가상아이콘을 회피하는 3차원 회피경로그래픽을 각각 생성할 수 있다.The 3D path graphics generator 213 can generate 3D risk path graphics that pass through a 3D virtual icon in the scene video and 3D avoidance path graphics that avoid the 3D virtual icon, respectively.

예를 들어, 도 7에 도시된 바와 같이 상술한 3차원 가상아이콘인 '맨홀 뚜껑'을 지나는 3차원 위험경로그래픽을 생성할 수 있으며, 이때 생성 방법으로는 '위험경로' 생성이라는 메뉴를 입력한 후 터치 방식으로 '맨홀 뚜껑'을 지나도록 라인을 그으면 그에 따라 붉은색 라인이 생성될 수 있으며, '회피경로' 생성이라는 메뉴를 입력한 후 터치 방식으로 '맨홀 뚜껑'을 회피하도록 라인을 그으면 그에 따라 청색 라인이 생성될 수 있다. 이때, 회피경로가 '맨홀 뚜껑'이라는 3차원 가상아이콘을 지나도록 선을 그리게 되면 '맨홀 뚜껑'을 인식하여 해당 '맨홀 뚜껑'으로부터 일정 거리 이격된 범위 내에서 해당 선이 자동으로 회피되는 경로를 형성하게 됨으로써 회피경로의 일부가 자동 편집 또는 생성될 수 있다. '위험경로'와 '회피경로'는 도시된 바와 같이 색상을 달리하여 사용자로 하여금 위험과 안전에 대한 직관적인 식별이 가능하도록 할 수 있으며, 색상뿐만 아니라 선의 굵기, 종류, 패턴 등을 변화시켜 '위험경로'와 '회피경로'를 쉽게 구분할 수 있도록 표시될 수 있다.For example, as shown in FIG. 7, a 3D risk path graphic passing through the 'manhole cover', which is the 3D virtual icon described above, can be created. At this time, the creation method is to enter the menu called 'Create risk path'. Then, if you draw a line to pass the 'manhole cover' using the touch method, a red line can be created accordingly. After entering the menu called 'Create avoidance route', if you draw a line to avoid the 'manhole cover' by the touch method, the red line can be created accordingly. A blue line may be created accordingly. At this time, if a line is drawn so that the avoidance path passes through a 3D virtual icon called a 'manhole cover', the 'manhole cover' is recognized and the line is automatically drawn to avoid the path within a certain distance from the 'manhole cover'. By forming, part of the avoidance route can be automatically edited or created. As shown, the 'danger path' and 'avoidance path' can be colored differently to enable users to intuitively identify danger and safety, and the 'danger path' and 'avoidance path' can be changed by changing not only the color but also the thickness, type, and pattern of the line. It can be displayed to easily distinguish between ‘danger path’ and ‘avoidance path’.

상기 텍스트정보 입력부(214)는, 3차원 가상아이콘, 3차원 위험경로그래픽 및 3차원 회피경로그래픽 중 적어도 하나에 대한 텍스트정보를 입력 받아 현장영상에 적용할 수 있다.The text information input unit 214 can receive text information for at least one of a 3D virtual icon, 3D risk path graphic, and 3D avoidance path graphic and apply it to the field image.

예를 들어, 도 7에 도시된 바와 같이 "강남역 인근 침수 현황입니다. 안전에 유의하십시오."라는 멘트를 직접 입력할 수 있으며, 선택된 재난종류 및 그에 따른 상세 카테고리에 의해 해당 멘트(텍스트정보)가 자동으로 생성되어 입력되거나, 다수의 후보 멘트를 제공한 후 선택된 어느 하나의 멘트가 해당 영상 안에 입력되거나 추후 알림 메시지의 내용으로서 입력될 수 있도록 한다.For example, as shown in Figure 7, you can directly enter the message "This is the current status of flooding near Gangnam Station. Please be careful about your safety." It is automatically generated and input, or a number of candidate comments are provided and any one selected can be input into the video or as the content of a notification message at a later date.

상기 현장재난 정보 업로드부(220)는, AR 재난영상정보 생성부(200)를 통해 생성된 AR 재난영상정보와 현장재난정보 획득부(100)를 통해 획득된 현장위치정보를 인터넷 통신망을 통해 AR 재난영상정보 전파부(300)로 업로드 할 수 있다.The on-site disaster information upload unit 220 uses AR disaster video information generated through the AR disaster video information generation unit 200 and site location information acquired through the on-site disaster information acquisition unit 100 through an Internet communication network. It can be uploaded to the disaster video information dissemination unit 300.

상기 인공지능 위험요소 판단부(230)는, 재난종류에 따른 재난현장영상의 위험요소에 대하여 미리 학습된 RNN(Recurrent Neural Network) 모델의 시계열적 분석을 통해 CCTV영상데이터로부터 위험요소를 판단할 수 있다.The artificial intelligence risk factor determination unit 230 can determine risk factors from CCTV video data through time-series analysis of a RNN (Recurrent Neural Network) model that has been previously learned for risk factors in disaster scene images according to disaster types. there is.

본 실시예의 RNN(Recurrent Neural Network) 모델의 학습데이터는 학습 대상인 위험요소(ex. 도심 침수의 경우 맨홀 자리)에 대한 시간적 전후 이미지 데이터 즉 시계열적 데이터(동영상데이터)를 활용할 수 있으며, 이러한 RNN 모델을 통해 이러한 학습데이터들 간의 상관관계를 분석하여 해당 위치에서 발생되는 시각적 현상 또는 징후(맨홀 위치에서 물이 빨려 들어가는 모습)을 학습할 수 있다. RNN 계열의 신경망 모델은, LSTM(Long Short-Term Memory), GRU(Gated Recurrent Unit) 등을 포함할 수 있다. 여기서, LSTM은 기존의 RNN의 기울기 소실, 기울기 폭발 문제를 극복하기 위한 순환신경망으로, 기울기 소실 문제를 해결하여 입력 시퀀스가 긴 경우에도 성공적으로 훈련시킬 수 있는 장점이 있으며, 이러한 LSTM은 삭제게이트, 입력게이트, 출력게이트를 만들어 입력을 장기기억으로 계속해서 추가하여 오랫동안 기억할 수 있도록 하며, 이로 인해 입력 순차열이 길어져도 과거의 데이터를 잃지 않고 학습한다는 특징을 갖고 있다. 그리고, GRU는 LSTM을 구성하는 타임 스텝(time step)의 셀(cell)을 간소화한 버전의 모델로, LSTM보다 학습 속도가 빠른 것으로 알려져 있다. 다만, 학습데이터의 양이 상대적으로 적은 경우에는 매개 변수의 양이 적은 GRU가 더 낫고, 학습데이터 양이 상대적으로 많은 경우에는 LSTM이 더 낫은 것으로 알려져 있다. 이러한 GRU는 LSTM과 다르게 'Reset Gate'와 'Update Gate'를 포함하는 2개의 게이트로 이루어져있다. 여기서, 'Reset Gate'는 이전 상태를 얼마나 반영할지, 'Update Gate'는 이전 상태와 현재 상태를 얼마만큼의 비율로 반영할지를 결정하며, LSTM에서의 셀 상태(Cell State)와 은닉 상태(Hidden State)가 은닉 상태(Hidden State)로 통합되고, 'Update Gate'가 LSTM에서의 'forget gate'와 'input gate'를 제어하며, GRU에는 'Output Gate'가 없다는 차이점가 있다. 본 실시예에서는 재난현장영상을 기반으로 다양한 위험 요소(위험 현상, 징후 등)에 대한 시각적, 형태적, 물리적 특성데이터를 학습하기 위한 CNN 모델과 더불어, RNN 모델을 활용하여 시간에 따라 변화되는 위험적 요소를 판단(예측)할 수 있다.The learning data of the RNN (Recurrent Neural Network) model of this embodiment can utilize temporal before and after image data, that is, time-series data (video data), for the risk factor to be learned (ex. manhole site in the case of urban flooding), and this RNN model By analyzing the correlation between these learning data, you can learn visual phenomena or signs that occur at that location (water being sucked in from a manhole location). RNN-type neural network models may include LSTM (Long Short-Term Memory), GRU (Gated Recurrent Unit), etc. Here, LSTM is a recurrent neural network to overcome the gradient vanishing and gradient explosion problems of existing RNNs. It has the advantage of being able to successfully train even when the input sequence is long by solving the gradient vanishing problem. This LSTM uses a deletion gate, By creating input gates and output gates, inputs are continuously added to long-term memory so that they can be remembered for a long time. As a result, even if the input sequence becomes longer, it has the characteristic of learning without losing past data. Additionally, GRU is a simplified version of the time step cells that make up LSTM, and is known to have a faster learning speed than LSTM. However, when the amount of learning data is relatively small, GRU with a small amount of parameters is known to be better, and when the amount of learning data is relatively large, LSTM is known to be better. Unlike LSTM, this GRU consists of two gates including 'Reset Gate' and 'Update Gate'. Here, the 'Reset Gate' determines how much of the previous state is reflected, the 'Update Gate' determines how much the previous state and the current state are reflected, and the Cell State and Hidden State in LSTM. ) is integrated into the hidden state, the 'Update Gate' controls the 'forget gate' and 'input gate' in LSTM, and the difference is that there is no 'Output Gate' in GRU. In this embodiment, a CNN model is used to learn visual, morphological, and physical characteristic data for various risk factors (hazard phenomena, signs, etc.) based on disaster scene images, as well as a RNN model to learn risks that change over time. You can judge (predict) enemy factors.

상기 인공지능 객체경로 판단부(240)는, 재난종류에 따른 재난현장영상의 객체행동에 대하여 미리 학습된 RNN 모델의 시계열적 분석을 통해 CCTV영상데이터로부터 위험경로 및 회피경로를 판단할 수 있다.The artificial intelligence object path determination unit 240 can determine the risk path and avoidance path from CCTV image data through time-series analysis of a pre-trained RNN model for object behavior in disaster scene images according to disaster type.

예를 들어, 침수지역에서 맨홀 위치에 보행자(객체)가 빨려 들어가 추락하는 상황(동작)에 대하여 학습할 수 있고, 이와 더불어 해당 위치를 우회한 후 안전하게 해당 위치를 이탈하는 보행자(객체)의 이동 상황(동작)에 대하여 학습할 수 있으며, 이렇게 학습된 결과물을 기반으로 실제 재난현장영상에 대한 객체행동을 분석하여 어느 경로로 이동했을 때 위험하거나 위험 가능성이 있고, 어느 경로로 이동했을 때 안전한지를 판단하여 그 결과를 출력할 수 있다. 이때 출력된 결과물은 위험경로와 회피경로에 대한 판단결과일 수 있으며, 이는 3차원 그래픽으로서 표현이 가능하다.For example, in a flooded area, you can learn about the situation (action) in which a pedestrian (object) is sucked into a manhole and falls, and in addition, the movement of a pedestrian (object) that bypasses the location and leaves the location safely is possible. You can learn about the situation (action), and based on the learned results, you can analyze the object behavior of the actual disaster scene video to determine which path is dangerous or likely to be dangerous and which path is safe. You can make a decision and output the results. The output output at this time may be the result of judgment on the risk path and avoidance path, and can be expressed as a 3D graphic.

상기 인공지능 AR 자동 생성부(250)는, 인공지능 위험요소 판단부(230)를 통해 판단된 위험요소와, 인공지능 객체경로 판단부(240)를 통해 판단된 위험경로 및 회피경로에 대한 3차원 그래픽 및 텍스트정보를 CCTV영상데이터에 각각 삽입하여 AR 재난영상정보를 자동 생성할 수 있다. The artificial intelligence AR automatic generation unit 250 is 3 for the risk factors determined through the artificial intelligence risk factor determination unit 230 and the risk path and avoidance path determined through the artificial intelligence object path determination unit 240. AR disaster video information can be automatically generated by inserting dimensional graphics and text information into CCTV video data.

즉, 사용자가 상술한 3차원 가상아이콘 생성부(212), 3차원 경로그래픽 생성부(213) 및 텍스트정보 입력부(214)를 통해 AR 콘텐츠를 수동으로 생성 및 입력하였다면, 인공지능 AR 자동 생성부(250)는 인공지능 위험요소 판단부(230)를 통해 판단된 위험요소와, 인공지능 객체경로 판단부(240)를 통해 판단된 위험경로 및 회피경로에 대한 3차원 그래픽 및 텍스트정보를 기반으로 AR 재난영상정보에 필요한 모든 요소를 자동으로 판단하여 생성할 수 있도록 구성된 것이다. 물론, 생성된 후 관리자에 의한 3차원 가상아이콘과 경로그래픽에 대한 편집 및 수정이 가능하도록 구성될 수 있다.That is, if the user manually creates and inputs AR content through the above-described 3D virtual icon creation unit 212, 3D path graphic creation unit 213, and text information input unit 214, the artificial intelligence AR automatic creation unit (250) is based on three-dimensional graphic and text information about the risk factors determined through the artificial intelligence risk element determination unit 230 and the risk path and avoidance path determined through the artificial intelligence object path determination unit 240. It is designed to automatically determine and generate all elements necessary for AR disaster video information. Of course, after creation, the 3D virtual icon and path graphic can be edited and modified by the administrator.

상기 재난정보 지도 서비스 제공부(260)는, AR 재난영상정보 및 AR 재난영상정보의 속성정보에 포함된 위치정보(GPS데이터)를 취합하고, 취합된 정보를 기반으로 일정 반경을 갖는 재난위험영역에 대한 지도 상에서 위험요소, 위험경로 및 회피경로를 적용한 재난정보 지도정보를 자동 생성하여 제공할 수 있다.The disaster information map service provider 260 collects AR disaster image information and location information (GPS data) included in the attribute information of the AR disaster image information, and establishes a disaster risk area with a certain radius based on the collected information. Disaster information map information that applies risk factors, risk routes, and avoidance routes can be automatically generated and provided on the map.

즉, 재난위험영역에 대한 지도데이터를 획득한 후, 획득된 지도데이터 상에 현장재난영상, 위험요소, 위험경로 및 회피경로 등을 나타내는 AR 콘텐츠를 삽입한 AR 재난영상정보를 아이콘 방식으로 각각 표시하고, 표시된 아이콘을 선택하면 선택된 위치에서 해당하는 AR 재난영상정보를 재생 또는 표시하도록 구성될 수 있다.In other words, after acquiring map data for the disaster risk area, AR disaster image information inserting AR content indicating on-site disaster images, risk factors, risk routes, and avoidance routes on the acquired map data is displayed in an icon format. And, when the displayed icon is selected, it can be configured to play or display the corresponding AR disaster video information at the selected location.

상기 AR 재난영상정보 전파부(300)는, 재난이 발생된 현장위치정보를 기반으로 해당 재난지역에 위치하는 대상자를 식별하고, 식별된 대상자의 모바일통신단말로 AR 재난영상정보를 전파할 수 있다.The AR disaster image information dissemination unit 300 can identify subjects located in the disaster area based on location information on the site where the disaster occurred, and disseminate the AR disaster image information to the mobile communication terminal of the identified subject. .

이를 위해 AR 재난영상정보 전파부(300)는 도 8에 도시된 바와 같이, 재난위험영역 정의부(310), 재난 알림 대상자 식별부(320), 모바일 알림 메시지 전송부(330) 및 전광판 알림 메시지 전송부(340) 중 적어도 하나를 포함할 수 있다.To this end, as shown in FIG. 8, the AR disaster image information dissemination unit 300 includes a disaster risk area definition unit 310, a disaster notification recipient identification unit 320, a mobile notification message transmission unit 330, and an electronic signboard notification message. It may include at least one of the transmission units 340.

상기 재난위험영역 정의부(310)는, 현장위치정보를 기반으로 미리 설정된 반경을 갖는 재난위험영역을 정의할 수 있다. 예를 들어, 강남역에 침수가 발생된 경우 강남역 반경 2km 내지 3km의 영역을 재난위험영역으로서 정의할 수 있다.The disaster risk area definition unit 310 may define a disaster risk area with a preset radius based on site location information. For example, if flooding occurs in Gangnam Station, an area with a radius of 2km to 3km from Gangnam Station can be defined as a disaster risk area.

상기 재난 알림 대상자 식별부(320)는, GPS, 와이파이 및 기지국 방식 중 적어도 하나의 측위 기술을 기반으로 재난위험영역에 위치한 모바일통신단말을 인식하여 재난 알림 대상자를 식별(인식)할 수 한 후, 관계 부처 또는 이동 통신사의 협조를 통해 해당 대상자(보행자, 운전자, 차량 탑승자 등)의 연락처를 획득할 수 있다.The disaster notification subject identification unit 320 is capable of identifying (recognizing) the disaster notification subject by recognizing a mobile communication terminal located in a disaster risk area based on at least one positioning technology among GPS, Wi-Fi, and base station methods, Contact information of the relevant subjects (pedestrians, drivers, vehicle passengers, etc.) can be obtained through the cooperation of relevant ministries or mobile carriers.

상기 모바일 알림 메시지 전송부(330)는, 재난 알림 대상자 식별부(320)를 통해 연락처가 확보된 재난 알림 대상자의 모바일통신단말(20)로 AR 재난영상정보를 SMS 방식으로 전송할 수 있다.The mobile notification message transmitting unit 330 can transmit AR disaster image information via SMS to the mobile communication terminal 20 of the disaster notification subject whose contact information has been secured through the disaster notification subject identification unit 320.

상기 전광판 알림 메시지 전송부(340)는, 재난위험영역에 위치한 전광판 중 기 등록된 전광판의 관리 시스템(40)으로 AR 재난영상정보를 송출하여, 해당 위치에 설치된 전광판을 통해 보행자, 운전자, 차량 탑승자 등이 해당 위치에서 쉽게 AR 재난영상정보를 확인할 수 있도록 한다.The electronic signboard notification message transmission unit 340 transmits AR disaster image information to the management system 40 of previously registered electric signboards among electric signboards located in a disaster risk area, so that pedestrians, drivers, and vehicle passengers can This allows people to easily check AR disaster video information at the relevant location.

이상에서 설명한 것은 본 발명에 의한 증강현실을 활용한 재난지역의 위험정보 알림 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing a risk information notification system in a disaster area using augmented reality according to the present invention, and the present invention is not limited to the above embodiment, but is claimed in the following patent claims. As described above, it will be said that the technical spirit of the present invention exists to the extent that anyone skilled in the art can make various changes without departing from the gist of the present invention.

1000: 증강현실을 활용한 재난지역의 위험정보 알림 시스템
100: 현장재난정보 획득부
110: 현장영상정보 획득부
120: 현장위치정보 획득부
130: CCTV 영상 수집부
200: AR 재난영상정보 생성부
210: AR 제작 도구부
211: 재난종류 선택부
212: 3차원 가상아이콘 생성부
213: 3차원 경로그래픽 생성부
214: 텍스트정보 입력부
220: 현장재난정보 업로드부
230: 인공지능 위험요소 판단부
240: 인공지능 객체경로 판단부
250: 인공지능 AR 자동 생성부
260: 재난정보 지도 서비스 제공부
300: AR 재난영상정보 전파부
310: 재난위험영역 정의부
320: 재난 알림 대상자 식별부
330: 모바일 알림 메시지 전송부
340: 전광판 알림 메시지 전송부
1000: Risk information notification system in disaster areas using augmented reality
100: On-site disaster information acquisition department
110: On-site video information acquisition department
120: On-site location information acquisition department
130: CCTV video collection unit
200: AR disaster video information generation unit
210: AR production tool department
211: Disaster type selection unit
212: 3D virtual icon creation unit
213: 3D path graphic generation unit
214: Text information input unit
220: On-site disaster information upload department
230: Artificial intelligence risk factor judgment unit
240: Artificial intelligence object path judgment unit
250: Artificial intelligence AR automatic generation unit
260: Disaster information guidance service provision department
300: AR disaster video information dissemination department
310: Disaster Risk Area Definition Department
320: Disaster notification recipient identification unit
330: Mobile notification message transmission unit
340: Electronic sign notification message transmission unit

Claims (6)

재난경보 발생 시 해당 재난지역의 현장위치정보 및 현장영상정보를 각각 획득하는 현장재난정보 획득부;
상기 현장영상정보에 AR 콘텐츠를 적용하여 AR 콘텐츠가 투영된 AR 재난영상정보를 생성하는 AR 재난영상정보 생성부; 및
상기 현장위치정보를 기반으로 해당 재난지역에 위치하는 대상자를 식별하고, 식별된 대상자의 모바일통신단말로 상기 AR 재난영상정보를 전파하는 AR 재난영상정보 전파부를 포함하고,
상기 현장재난정보 획득부는,
모바일통신단말의 카메라를 통해 생성된 모바일영상데이터를 상기 현장영상정보로서 획득하는 현장영상정보 획득부;
상기 모바일영상데이터의 생성 시 모바일통신단말로부터 GPS 데이터를 상기 현장위치정보로서 획득하는 현장위치정보 획득부; 및
상기 현장위치정보를 기반으로 해당 재난지역에 설치된 CCTV 중 기 등록된 CCTV의 관리 시스템으로부터 CCTV영상데이터를 수집하는 CCTV 영상 수집부를 포함하고,
상기 AR 재난영상정보 생성부는,
재난종류에 따른 재난현장영상의 위험요소에 대하여 미리 학습된 RNN(Recurrent Neural Network) 모델의 시계열적 분석을 통해 상기 CCTV영상데이터로부터 위험요소를 판단하는 인공지능 위험요소 판단부;
재난종류에 따른 재난현장영상의 객체행동에 대하여 미리 학습된 RNN 모델의 시계열적 분석을 통해 상기 CCTV영상데이터로부터 위험경로 및 회피경로를 판단하는 인공지능 객체경로 판단부;
상기 인공지능 위험요소 판단부를 통해 판단된 위험요소와, 상기 인공지능 객체경로 판단부를 통해 판단된 위험경로 및 회피경로에 대한 3차원 그래픽 및 텍스트정보를 상기 CCTV영상데이터에 각각 삽입하여 상기 AR 재난영상정보를 자동 생성하는 인공지능 AR 자동 생성부; 및
상기 AR 재난영상정보 및 상기 AR 재난영상정보의 속성정보에 포함된 위치정보를 취합하고, 취합된 정보를 기반으로 일정 반경을 갖는 재난위험영역에 대한 지도 상에서 위험요소, 위험경로 및 회피경로를 적용한 재난정보 지도정보를 자동 생성하여 제공하는 재난정보 지도 서비스 제공부를 포함하는 것을 특징으로 하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템.
An on-site disaster information acquisition unit that acquires on-site location information and on-site image information of the disaster area when a disaster warning occurs;
An AR disaster image information generator that generates AR disaster image information onto which the AR content is projected by applying AR content to the scene image information; and
An AR disaster image information dissemination unit that identifies a subject located in the disaster area based on the on-site location information and disseminates the AR disaster image information to the mobile communication terminal of the identified subject,
The on-site disaster information acquisition department,
an on-site video information acquisition unit that acquires mobile video data generated through a camera of a mobile communication terminal as the on-site video information;
A field location information acquisition unit that acquires GPS data from a mobile communication terminal as the field location information when generating the mobile image data; and
It includes a CCTV image collection unit that collects CCTV image data from a management system of already registered CCTVs among CCTVs installed in the disaster area based on the site location information,
The AR disaster image information generation unit,
An artificial intelligence risk factor determination unit that determines risk factors from the CCTV video data through time-series analysis of a pre-trained RNN (Recurrent Neural Network) model for risk factors in disaster scene images according to disaster type;
An artificial intelligence object path determination unit that determines a risk path and an avoidance path from the CCTV image data through time-series analysis of a pre-trained RNN model for object behavior in disaster scene images according to disaster type;
3D graphic and text information about the risk factors determined through the artificial intelligence risk factor determination unit and the risk path and avoidance path determined through the artificial intelligence object path determination unit are respectively inserted into the CCTV image data to create the AR disaster video. Artificial intelligence AR automatic generation unit that automatically generates information; and
The location information included in the AR disaster image information and the attribute information of the AR disaster image information is collected, and hazard elements, risk paths, and avoidance routes are applied on a map of a disaster risk area with a certain radius based on the collected information. A risk information notification system in a disaster area using augmented reality, which includes a disaster information map service provider that automatically generates and provides disaster information map information.
삭제delete 제1 항에 있어서,
상기 AR 재난영상정보 생성부는,
재난종류에 따라 미리 제작된 3차원 가상이미지를 각각 제공하고, 사용자에 의해 선택된 상기 3차원 가상이미지를 상기 현장영상정보에 삽입 및 편집하여 상기 AR 재난영상정보를 생성하는 AR 제작 도구부; 및
상기 AR 재난영상정보 및 상기 현장위치정보를 AR 재난영상정보 전파부로 업로드하는 현장재난정보 업로드부를 포함하는 것을 특징으로 하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템.
According to claim 1,
The AR disaster image information generation unit,
An AR production tool unit that provides pre-produced 3D virtual images according to the type of disaster, and generates the AR disaster image information by inserting and editing the 3D virtual image selected by the user into the scene image information; and
A risk information notification system in a disaster area using augmented reality, comprising a site disaster information upload unit that uploads the AR disaster image information and the site location information to the AR disaster image information dissemination unit.
제3 항에 있어서,
상기 AR 제작 도구부는,
재난종류를 선택 받는 재난종류 선택부;
재난종류에 따른 적어도 하나 이상의 3차원 가상아이콘을 선택 가능하게 제공하고, 선택된 3차원 가상아이콘을 현장영상 중 위험요소가 있는 지점 상에 생성하는 3차원 가상아이콘 생성부;
현장영상 내에 상기 3차원 가상아이콘을 지나는 3차원 위험경로그래픽과, 상기 3차원 가상아이콘을 회피하는 3차원 회피경로그래픽을 각각 생성하는 3차원 경로그래픽 생성부; 및
상기 3차원 가상아이콘, 상기 3차원 위험경로그래픽 및 상기 3차원 회피경로그래픽 중 적어도 하나에 대한 텍스트정보를 입력 받아 현장영상에 적용하는 텍스트정보 입력부를 포함하는 것을 특징으로 하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템.
According to clause 3,
The AR production tool unit,
A disaster type selection unit that selects a disaster type;
A 3D virtual icon generator that provides selection of at least one 3D virtual icon according to the type of disaster and generates the selected 3D virtual icon on a point with a risk element in the scene video;
A 3D path graphics generator that generates 3D risk path graphics passing through the 3D virtual icon and 3D avoidance path graphics that avoid the 3D virtual icon in the scene video, respectively; and
Disaster using augmented reality, comprising a text information input unit that receives text information for at least one of the 3D virtual icon, the 3D risk path graphic, and the 3D avoidance path graphic and applies it to the scene image. Local risk information notification system.
제1 항에 있어서,
상기 AR 재난영상정보 전파부는,
상기 현장위치정보를 기반으로 미리 설정된 반경을 갖는 재난위험영역을 정의하는 재난위험영역 정의부;
GPS, 와이파이 및 기지국 방식 중 적어도 하나의 측위 기술을 기반으로 상기 재난위험영역에 위치한 모바일통신단말을 인식하여 재난 알림 대상자를 식별하는 재난 알림 대상지 식별부; 및
상기 재난 알림 대상자의 모바일통신단말로 상기 AR 재난영상정보를 전송하는 모바일 알림 메시지 전송부를 포함하는 것을 특징으로 하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템.
According to claim 1,
The AR disaster video information dissemination department,
a disaster risk area definition unit that defines a disaster risk area with a preset radius based on the site location information;
A disaster notification target location identification unit that recognizes mobile communication terminals located in the disaster risk area based on at least one positioning technology among GPS, Wi-Fi, and base station methods to identify disaster notification recipients; and
A risk information notification system in a disaster area using augmented reality, comprising a mobile notification message transmission unit that transmits the AR disaster image information to the mobile communication terminal of the disaster notification recipient.
제5 항에 있어서,
상기 AR 재난영상정보 전파부는,
상기 재난위험영역에 위치한 전광판 중 기 등록된 전광판의 관리 시스템으로 상기 AR 재난영상정보를 송출하는 전광판 알림 메시지 전송부를 더 포함하는 것을 특징으로 하는 증강현실을 활용한 재난지역의 위험정보 알림 시스템.
According to clause 5,
The AR disaster video information dissemination department,
A risk information notification system in a disaster area using augmented reality, further comprising an electronic signboard notification message transmission unit that transmits the AR disaster image information to a management system for previously registered electric signboards among the electric signboards located in the disaster risk area.
KR1020230074114A 2023-06-09 2023-06-09 System for informing risk information in disaster areas using augmented reality KR102634060B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230074114A KR102634060B1 (en) 2023-06-09 2023-06-09 System for informing risk information in disaster areas using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230074114A KR102634060B1 (en) 2023-06-09 2023-06-09 System for informing risk information in disaster areas using augmented reality

Publications (1)

Publication Number Publication Date
KR102634060B1 true KR102634060B1 (en) 2024-02-07

Family

ID=89873044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230074114A KR102634060B1 (en) 2023-06-09 2023-06-09 System for informing risk information in disaster areas using augmented reality

Country Status (1)

Country Link
KR (1) KR102634060B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100124947A (en) 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20110012524A (en) 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 Method for providing augmented reality by user selection area, server and portable terminal therefor
KR101883292B1 (en) * 2017-04-11 2018-08-30 경상대학교산학협력단 Disaster rescue and response system and operating method threrof
KR20190063000A (en) 2017-11-29 2019-06-07 주식회사 오경컴텍 AR-Based Disater Injuries Position Display System and Method thereof
KR20210090874A (en) * 2020-01-13 2021-07-21 한국전자통신연구원 Apparatus and method for providing personal location information-based disaster response information
KR102303578B1 (en) * 2020-10-22 2021-09-17 (주)메가플랜 Emergency route guidance device using augmented reality and system having the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100124947A (en) 2009-05-20 2010-11-30 삼성에스디에스 주식회사 Ar contents providing system and method providing a portable terminal real-time regional information by using augmented reality technology
KR20110012524A (en) 2009-07-30 2011-02-09 에스케이 텔레콤주식회사 Method for providing augmented reality by user selection area, server and portable terminal therefor
KR101883292B1 (en) * 2017-04-11 2018-08-30 경상대학교산학협력단 Disaster rescue and response system and operating method threrof
KR20190063000A (en) 2017-11-29 2019-06-07 주식회사 오경컴텍 AR-Based Disater Injuries Position Display System and Method thereof
KR20210090874A (en) * 2020-01-13 2021-07-21 한국전자통신연구원 Apparatus and method for providing personal location information-based disaster response information
KR102303578B1 (en) * 2020-10-22 2021-09-17 (주)메가플랜 Emergency route guidance device using augmented reality and system having the same

Similar Documents

Publication Publication Date Title
US11069050B1 (en) Method and system for assessing damage to infrastructure
KR101265510B1 (en) Service system and method for providing the danger information on the site and providing the information of managing the disaster
KR101724259B1 (en) Interested area analyzing method by an integrated management system of disaster safety
KR102618445B1 (en) Method and apparatus of estimating road condition, and method and apparatus of establishing road condition estimation model
KR101368535B1 (en) Realtime disaster information service based on map using mobile device
KR101513370B1 (en) Method and system for providing safety information using location information
KR101737815B1 (en) Concerned area analyzing method for integrated management of disaster safety
KR101724260B1 (en) Location-based scenario setting method for integrated management of disaster safety
US11769285B2 (en) Machine learning-based hazard visualization system
KR20160099931A (en) Disaster preventing and managing method for the disaster harzard and interest area
CN104281595B (en) A kind of weather conditions methods of exhibiting, device and system
KR20150045771A (en) Smart disaster managing system for combined disaster management
Sasaki et al. 5d world map system for disaster-resilience monitoring from global to local: environmental AI system for leading SDG 9 and 11
Marzukhi et al. Flood detection and warning system (FLoWS)
KR102634060B1 (en) System for informing risk information in disaster areas using augmented reality
Řezník et al. Advanced methods of cell phone localization for crisis and emergency management applications
KR20030084859A (en) Personal disaster warning system using short message service
Anderson et al. Connecting forecast and warning: a partnership between communicators and scientists
KR102039247B1 (en) Management system based terminal device for user
KR102039246B1 (en) Management system
KR102674382B1 (en) Guidance system and method based on emergency disaster text service.
Action Transforming lives through ingenuity: Practical action and early warning systems
KR102637249B1 (en) System for providing emergency call based automatic call switching service
JP7111397B1 (en) Program, method and information processing device
Castro et al. Towards smart mobility during flooding events in urban areas using crowdsourced information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant