KR102058628B1 - 증강 현실을 이용한 지도 정보 표출 관제 시스템 - Google Patents

증강 현실을 이용한 지도 정보 표출 관제 시스템 Download PDF

Info

Publication number
KR102058628B1
KR102058628B1 KR1020190062061A KR20190062061A KR102058628B1 KR 102058628 B1 KR102058628 B1 KR 102058628B1 KR 1020190062061 A KR1020190062061 A KR 1020190062061A KR 20190062061 A KR20190062061 A KR 20190062061A KR 102058628 B1 KR102058628 B1 KR 102058628B1
Authority
KR
South Korea
Prior art keywords
data
image
information
map data
map
Prior art date
Application number
KR1020190062061A
Other languages
English (en)
Inventor
심재민
이효진
서호석
전경미
김동민
안형준
Original Assignee
주식회사 지오멕스소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오멕스소프트 filed Critical 주식회사 지오멕스소프트
Priority to KR1020190062061A priority Critical patent/KR102058628B1/ko
Application granted granted Critical
Publication of KR102058628B1 publication Critical patent/KR102058628B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • H04N5/2259

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

영상 시스템 및 관제 시스템의 운용 방법이 개시된다. 본 개시에 따른 영상시스템은 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 촬영 장치, 2차원의 지도 데이터를 수신하고, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대해 상기 촬영 장치의 위치 정보를 기초로 3차원 변환을 수행함으로써 3차원의 공간 데이터를 생성하는 증강 현실 엔진 및 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 대응하는 표출 영상을 사용자에게 디스플레이하는 디스플레이부를 포함할 수 있다.

Description

증강 현실을 이용한 지도 정보 표출 관제 시스템 {Map information displayed monitoring system using Augmented Reality}
본 개시의 기술적 사상은 증강 현실을 이용하여 실시간으로 송출되는 폐쇄회로 영상에 추가적인 정보를 표시할 수 있는 관제 시스템에 관한 것이다.
증강 현실(Augmented Reality: AR) 기술은 사용자가 눈으로 보는 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 합쳐 하나의 영상으로 보여주는 기술이다. 예컨대, 휴대용 단말기로 위치 및 방향 정보를 이용하여 대략 적인 위치를 파악하고, 주변의 건물 정보와 같은 객체 정보와 카메라의 움직임에 따라 입력되는 실사 영상 정보 간의 비교를 통해 사용자가 원하는 서비스를 파악하여 관련 정보를 제공하는 기술이다.
이러한 증강 현실 기술은 가상 현실(Virtual Reality: VR) 기술의 한 분야로서, 실제 환경에 가상 사물(객체)을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 이용한다. 그러나, 증강 현실 기술은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실 기술과 달리 현실 세계의 기반에 가상 객체를 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 장점이 있다. 그리고, 이러한 증강 현실 기술은 현재 휴대용 단말기인 스마트폰 등의 보급으로 인하여 더욱 다양한 분야에 활용되어 사용되고 있다.
한편, 관제 시스템은 교통 관제 센터가 주요 도로면에 설치한 CCTV 등으로부터 영상 데이터를 수집한다. 그리고, 교통 관제 센터는 수집한 데이터를 기초로교통상황에 따라 교차로의 교통 신호등 제어기를 조정하는 등 각종 대응을 취할 수 있다. 그러나, CCTV 등이 수집한 영상 데이터 만으로는 CCTV가 촬영하는 지역이 어딘지 관측자에게 직관적으로 파악되지 않는 불편함이 있을 수 있고, 이러한 현상은 현재 CCTV로써 널리 사용되는 초 고배율 확대가 가능한 PTZ(Pan-Tilt-Zoom) 카메라, 180도 또는 360도 회전이 가능한 전방위 카메라 등을 사용하는 경우 더 심각하게 나타날 수 있다.
본 개시의 기술적 사상이 해결하고자 하는 일 과제는 증강 현실을 이용하여 지도 데이터를 3차원의 촬영 영상에 병합하는 관제 시스템 및 이의 운용 방법을 제공하는 데 있다.
본 개시의 기술적 사상이 해결하고자 하는 과제는 2차원으로 관리되는 지도데이터를 3차원으로 변환하여 CCTV 영상에 병합하는 증강현실 기술을 적용함으로써, CCTV 관제 시스템의 직관성 향상, 추가 부가정보(속성 및 공간정보)의 취득 및 CCTV 영상기반의 지리적 실좌표 추출을 통한 다양한 운용 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 영상 시스템은 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 촬영 장치, 2차원의 지도 데이터를 수신하고, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대해 상기 촬영 장치의 위치 정보를 기초로 3차원 변환을 수행함으로써 3차원의 공간 데이터를 생성하는 증강 현실 엔진 및 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 대응하는 표출 영상을 사용자에게 디스플레이하는 디스플레이부를 포함할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 표출 영상은 상기 영상 데이터에 대응하는 제1 레이어 및 상기 공간 데이터에 대응하는 제2 레이어를 포함하는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 증강 현실 엔진은 공공 기관의 지도 데이터 베이스로부터 상기 지도 데이터를 수신하는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 디스플레이부는 상기 촬영 장치의 위치 정보에 포함되는 좌표값을 수신하고, 상기 좌표 값을 공공 기관의 지도 데이터 베이스에 출력함으로써 상기 지도 데이터를 획득하는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 촬영 장치는 도로를 촬영하는 CCTV(Closed Circuit Television)로서 역할을 수행하고, 상기 영상 데이터는 상기 도로에 대한 영상을 나타내는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 촬영 장치는 팬 틸트 줌 기능 카메라(Pan-Tilt-Zoom Camera; PTZ Camera), 전방위 카메라 및 열적외선 카메라 중 어느 하나인 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 증강 현실 엔진은 상기 지도 데이터로부터 건물 또는 도로의 명칭에 관한 명칭 정보 및 지리적 표시에 관한 표시 정보를 추출하고, 추출한 명칭 정보 및 표시 정보의 좌표를 상기 영상 데이터에 맞게 변환 시킴으로써 상기 공간 데이터에 포함시키는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 사용자가 표출 영상에 포함되는 객체를 선택하는 경우, 상기 디스플레이부는 선택된 객체의 좌표를 상기 지도 데이터에 대응하는 좌표로 변환하고, 상기 좌표를 이용하여 상기 객체의 속성 정보를 디스플레이하는 것을 특징으로 할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 디스플레이부는 무선 네트워크를 통해 상기 촬영 기기로부터 상기 영상 데이터를 수신하는 것을 특징으로 할 수 있다.
본 개시의 기술적 사상의 또 다른 측면에 따른 관제 시스템 운용 방법은 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 단계, 2차원의 지도 데이터를 수신하는 단계, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대한 좌표를 3차원 좌표로 변경하는 3차원 변환을 통해 3차원의 공간 데이터를 생성하는 단계, 상기 촬영 장치의 위치 정보에 기초하여 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하는 단계 및 상기 병합 데이터에 대응하는 표출 영상을 디스플레이하는 단계를 포함할 수 있다.
본 개시의 예시적 실시예에 따라, 상기 표출 영상에 포함되는 객체에 대한 선택 신호를 수신하는 단계, 상기 객체의 상기 표출 영상 상의 3차원 좌표를 상기 지도 데이터에 대응되는 2차원 좌표로 변환하는 단계, 상기 2차원 좌표에 기초하여 상기 객체의 속성 정보를 수신하는 단계 및 수신한 상기 속성 정보를 디스플레이 하는 단계를 더 포함할 수 있다.
본 개시의 일 실시예에 따른 관제 시스템은 데이터 베이스에 저장된 2차원의 지도 데이터를 3차원으로 변환하고, 3차원의 영상 데이터에 병합함으로써 사용자에게 가공된 지도 데이터와 영상 데이터를 한번에 디스플레이 할 수 있다. 이에 따라서, 실세계의 위치 좌표를 영상 데이터(예를 들면, 폐쇄 회로 화면)에 표출함으로써 사용자로 하여금 직관적으로 파악하게 할 수 있다.
또한, 본 개시의 일 실시예에 따른 관제 시스템은 3차원의 사용자 선택 좌표를 2차원 좌표로 변환하고, 대응하는 속성 정보를 사용자에게 디스플레이 할 수 있다. 이에 따라서, 사용자는 디스플레이된 영상을 통해 영상이 가르키는 위치를 직관적으로 파악하고, 각종 정보를 효율적으로 확인할 수 있다.
도 1은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
도 2는 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 영상 시스템의 동작 방법을 나타내는 순서도이다.
도 4는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 5는 본 개시의 예시적 실시예에 따른 증강 현실 엔진의 동작을 나타내는 도면이다.
도 6은 본 개시의 예시적 실시예에 따른 디스플레이부의 동작을 나타내는 도면이다.
도 7은 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 8은 본 개시의 예시적 실시예에 따른 표출 영상을 나타내는 도면이다.
도 9는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작을 나타내는 도면이다.
도 10은 본 개시의 예시적 실시예에 따른 영상 시스템의 구성 요소별 동작 방법을 나타내는 순서도이다.
도 11은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. 본 발명의 실시 예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성된다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
도 1을 참조하면, 영상 시스템(10)은 관제 시스템(100), 복수의 촬영 장치들(210, 220) 및 통신망(300)을 포함할 수 있다. 복수의 촬영 장치들(210, 220) 각각은, 보안용 카메라로서 역할을 수행하는 CCTV(Closed Ciruit Television)으로 구성될 수 있다. 일 예시에서, 복수의 촬영 장치들(210, 220) 각각은 PTZ(Pan-Tilt-Zoom) 카메라, 전방위 카메라 및 열적외선 카메라 등을 포함할 수 있다. PTZ 카메라는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 제공하는 카메라로써 상하 좌우로 피사체를 따라가며, 확대, 축소 기능을 가진 카메라를 의미할 수 있다. PTZ 카메라는 팬/틸트/줌 기능을 통해 넓은 구역을 감시하며 줌인 기능을 통해 상세 이미지를 제공할 수 있다.
촬영 장치(210, 220)는 주변 지역을 실시간으로 촬영하여 해당 촬영 영상에 대응하는 영상 데이터(Data_Vd)가 관제 시스템(100)로 제공되도록 통신망(300)으로 전송할 수 있다. 촬영 장치(210, 220)는 관제 시스템(100)의 제어에 따라 동작함으로써 특정 지역(혹은 구역)으로 촬영 지역을 변경할 수 있고, 줌인 명령이 있는 경우에는 배율을 높인 촬영 영상에 대응하는 영상 데이터(Data_Vd)을 관제 장치(100)로 제공할 수 있다.
촬영 장치(210, 220)는 미리 결정된 이벤트가 발생하는 경우, 해당 지역을 줌인하고, 줌인된 영상을 촬영할 수 있다. 일 예시에서, 해당 지역에 사건, 사고가 발생하거나 사람이 많이 모인 것으로 판단되는 경우, 촬영 장치(210, 220)는 해당 지역을 자동으로 줌인 촬영할 수 있다. 일 실시예에서, 미리 결정된 이벤트는 관제 시스템(100)에 의해 미리 결정될 수 있다. 일 예시에서, 미리 결정된 이벤트는 화염, 사람들의 군집, 자동차의 충돌 등을 포함할 수 있다.
이벤트 발생에 따른 촬영은 관제 시스템(100)에서 영상 분석을 통해 이벤트의 발생을 감지하고 감지 결과에 따라 관제 시스템(100)로부터 지시를 받아 촬영 장치(210, 220)가 동작하거나, 촬영 장치(210, 220) 자체적으로도 이벤트의 발생을 감지함으로써 동작할 수 있다. 일 예시에서, 통신망(300)의 트래픽이 증가하는 경우에는 데이터 전송이 수월하지 않을 수 있기 때문에 촬영 장치(210, 220) 자체적으로 위의 동작을 수행할 수 있다. 또는 트래픽의 상태에 따라 촬영 장치(210, 220)가 줌인 동작을 수행할지를 판단하고, 판단 결과에 따라 관제 시스템(100)가 영상을 분석하여 분석 결과에 따라 촬영 장치(210, 220)는 줌인 동작을 자동으로 수행할 수 있다.
촬영 장치(210, 220)는 영상 데이터(Data_Vd)와 함께 해당 촬영 영상이 촬영 장치(210, 220)의 어떠한 자세 또는 어떠한 위치에서 촬영된 영상인지 관제 시스템(100)가 판단할 수 있도록 좌표값을 관제 시스템(100)에 제공해 줄 수 있다. 관제 시스템(100)는 수신된 좌표값을 근거로 데이터 베이스(DB)로부터 지도 데이터(Data_Mp)를 수신하고, 지도 데이터(Data_Mp)를 기초로 증강 현실을 구현할 수 있다. 이에 관해서는 이후 상세하게 후술한다.
통신망(300)은 유무선 통신망을 모두 포함할 수 있다. 통신망(300)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망, 5G(5th Generation) 등을 포함할 수 있다. 통신망(300)은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동 통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망 등을 포함할 수 있다.
통신망(300)이 유선 통신망인 경우, 통신망(300) 내의 엑세스 포인트는 전화국의 교환국 등에 접속할 수 있고, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.
관제 시스템(혹은 촬영 장치와 연계해서 증강현실 데이터를 영상 데이터와 연동시키는 시스템)(100)은 관제 센터에 구비될 수 있다. 관제 시스템(100)은 서버 및 상기 서버에 연결되는 있는 컴퓨터를 포함할 수 있다. 데이터 베이스(DB)는 촬영 장치(210, 220)의 촬영 범위 내에 있는 특정 지역에 대한 2차원의 지도 데이터(Data_Mp)를 저장할 수 있고, 관제 시스템(100)은 데이터 베이스(DB)를 통해 지도 데이터(Data_Mp)를 제공받을 수 있다. 일 예시에서, 데이터 베이스(DB)는 지도 데이터(Data_Mp)를 제공하는 행정 기관의 서버를 통하거나, CD와 같은 기록 매체를 통해서 지도 데이터(Data_Mp)를 획득하고, 획득한 지도 데이터(Data_Mp)를 저장할 수 있다. 또 다른 예시에서, 데이터 베이스(DB)는 지도 데이터(Data_Mp)가 저장된 행정 기관의 데이터 베이스 자체를 의미할 수 있다. 또한, 지도 데이터(Data_Mp)는 특정 지역의 건물 정보, 도로 정보 등 지도에 표시되는 각종 객체 정보를 포함할 수 있고, 객체 정보는 2차원의 좌표에 대응될 수 있다.
관제 시스템(100)은 지도 데이터(Data_Mp)를 수신하고, 촬영 장치(210, 220)로부터 3차원의 영상 데이터(Data_Vd)에 맞게 변환할 수 있다. 일 실시예에서, 관제 시스템(100)은 지도 데이터(Data_Mp)의 좌표에 대응되는 객체 정보를 좌표에 대응되도록 변환함으로써 공간 데이터를 생성하고, 공간 데이터를 영상 데이터와 병합함으로써 병합 데이터를 생성할 수 있다. 관제 시스템(100)은 병합 데이터를 기초로 사용자에게 촬영 영상과 이에 대응하는 객체 정보를 동시에 디스플레이할 수 있다.
본 개시의 기술적 사상에 따르면, 관제 시스템(100)은 지도 데이터(Data_Mp)를 기초로 3차원의 촬영 영상에 대응되도록 변환하고, 변환된 각종 객체 정보를 촬영 영상에 병합하는 증강 현실(Augmented Reality) 작업을 수행할 수 있고, 이에 따라서, 관제 요원 등의 사용자들은 자신이 현재 바라보고 있는 위치 및 지형지물을 빠르게 인지할 수 있고, 만약 특정 지역에 이벤트가 발생하게 되면 이벤트 발생 위치를 신속히 확인하여 빠른 대응조치를 할 수 있다.
도 1에서는 두 개의 촬영 장치(210, 220), 통신망(300), 관제 시스템(100)모두가 영상 시스템(10)에 포함되도록 도시되어 있으나 이는 일 예시일 뿐이고, 두 개보다 많거나 적은 촬영 장치가 영상 시스템(10)에 포함될 수 있고, 통신망(300)과 같은 일부 구성요소가 생략되어 영상 시스템(10)이 구성됨으로써 촬영 장치(210, 220)와 관제 시스템(100)가 다이렉트 통신을 수행하거나, 관제 시스템(100)과 같은 일부 구성요소가 통신망(300)과 같은 다른 구성요소에 통합되어 통신망(300) 내의 하나의 장치가 될 수도 있다.
도 2는 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 블록도이다. 도 1과 중복되는 내용은 생략한다.
도 2를 참조하면, 영상 시스템(10)은 관제 시스템(100) 및 촬영 장치(200)를 포함할 수 있고, 관제 시스템(100)은 디스플레이부(110) 및 증강 현실 엔진(120)을 포함할 수 있다. 촬영 장치(200)는 특정 장소를 촬영한 결과 생성한 영상 데이터(Data_Vd)를 통신망(도 1, 300)을 통해 디스플레이부(110)에 출력할 수 있다. 촬영 장치(200)는 촬영 장치(200)가 어떠한 자세 또는 어떠한 위치에서 촬영하였는지에 관한 촬영 장치(200)의 위치 정보(Info_p)를 디스플레이부(110)에 영상 데이터(Data_Vd)와 함께 전송할 수 있다. 일 실시예에서, 위치 정보(Info_p)는 촬영 장치(200)의 지도상의 좌표 값을 포함할 수 있다.
디스플레이부(110)는 위치 정보(Info_p)를 데이터 베이스(DB)에 출력할 수 있고, 데이터 베이스(DB)는 위치 정보(Info_p)에 기초하여 지도 데이터(Data_Mp)를 증강 현실 엔진(120)에 출력할 수 있다. 일 예시에서, 디스플레이부(110)는 위치 정보(Info_p)로써 촬영 장치(200)의 지도상의 좌표 값을 데이터 베이스(DB)에 출력할 수 있고, 데이터 베이스(DB)는 촬영 장치(200)의 지도상의 좌표 값에 대응되는 객체 정보를 포함하는 지도 데이터(Data_Mp)를 증강 현실 엔진(120)에 출력할 수 있다.
증강 현실 엔진(120)은 지도 데이터(Data_Mp)을 3차원으로 가공함으로써 공간 데이터(Data_Sp)를 생성할 수 있고, 생성된 공간 데이터(Data_Sp)를 디스플레이부(110)에 출력할 수 있다. 일 예시에서, 지도 데이터(Data_Mp)는 2차원 좌표에 각각 대응되는 복수의 객체 정보를 포함할 수 있고, 증강 현실 엔진(120)는 복수의 객체 정보에 대응되는 좌표를 위치 정보(Info_p)에 기초하여 촬영 장치(200)의 시점에 대한 좌표로 변경함으로써 공간 데이터를 생성할 수 있다. 이를 위해, 일 실시예에서, 증강 현실 엔진(120)은 디스플레이부(110)로부터 위치 정보(Info_P)를 더 수신할 수 있다. 증강 현실 엔진(120)의 상세한 동작에 관해서는 도 5에서 상세하게 후술한다.
디스플레이부(110)는 촬영 장치(200)로부터 수신한 영상 데이터(Data_Vd)와 증강 현실 엔진(120)으로부터 수신한 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 기초하여 표출 영상(DV)을 사용자에게 송출할 수 있다. 일 실시예에서, 표출 영상(DV)은 영상 데이터(Data_Vd)에 기초한 제1 레이어와 공간 데이터(Data_Sp)에 기초한 제2 레이어를 포함할 수 있고, 제1 레이어에는 실제 촬영된 특정 장소의 모습이 사용자에게 송출되고, 제2 레이어에는 특정 장소에 대응되는 객체 정보가 사용자에게 송출될 수 있다.
본 개시의 기술적 사상에 따르면, 관제 시스템(100)이 데이터 베이스(DB)로부터 수신한 지도 데이터(Data_Mp)를 기초로 3차원의 공간 데이터(Data_Sp)를 생성하고, 공간 데이터(Data_Sp)와 영상 데이터(Data_Vd)를 병합하여 사용자에게 표출 영상(DV)를 송출함으로써, 관제 시스템(100)은 추가적인 프리미티브 생성 작업 없이 사용자에게 촬영 영상에 객체 정보를 추가적으로 송출할 수 있고, 이에 따라서, 사용자는 표출 영상(DV)에 대한 정보를 직관적으로 파악할 수 있다.
도 3은 본 개시의 예시적 실시예에 따른 영상 시스템의 동작 방법을 나타내는 순서도이다.
도 2 및 도 3을 참조하면, 촬영 장치(200)는 특정 장소를 촬영함으로써 영상 데이터(Data_Vd)을 생성하고(S10), 관제 시스템(100)은 촬영 장치(200)의 위치 정보(Info_P)에 기초하여 2차원 좌표에 기초한 지도 데이터(Data_Mp)를 획득할 수 있다(S20). 관제 시스템(100)은 위치 정보(Info_P)를 기초로 지도 데이터(Data_Mp)에 대한 변환을 수행함으로써 공간 데이터(Data_Sp)를 생성할 수 있다(S30). 관제 시스템(100)은 영상 데이터(Data_Vd)에 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고(S40), 생성된 병합 데이터에 대응하는 표출 영상(DV)을 사용자에게 디스플레이할 수 있다(S50).
도 4는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 2 및 도 4를 참조하면, 관제 시스템(100)은 촬영 장치(200)로부터 영상 데이터(Data_Vd)를 수신하고(S110), 영상 데이터(Data_Vd)로부터 촬영 장치(200)의 위치 정보(Info_P)를 파싱할 수 있다(S120). 또 다른 실시예에서, 관제 시스템(100)은 촬영 장치(200)로부터 촬영 장치의 위치 정보(Info_P)를 더 수신할 수 있다.
관제 시스템(100)은 파싱한 위치 정보(Info_P)를 이용하여 데이터 베이스(DB)로부터 2차원 좌표의 객체 정보를 포함하는 지도 데이터(Data_Mp)를 획득할 수 있다(S130). 관제 시스템(100)은 지도 데이터(Data_Mp) 중 적어도 일부의 객체 정보를 파싱할 수 있다(S140). 적어도 일부의 객체 정보에는 건물에 대한 정보, 도로에 대한 정보 등을 포함할 수 있다. 관제 시스템(100)은 파싱한 객체 정보를 기초로 3차원 변환을 통해 3차원의 공간 데이터(Data_Sp)를 생성할 수 있다(S150). 일 실시예에서, 관제 시스템(100)은 객체 정보에 대응되는 2차원 좌표를 촬영 장치(200)의 위치 정보(Info_P)를 기초로 3차원 좌표로 변환시킴으로써 공간 데이터(Data_Sp)를 생성할 수 있다.
관제 시스템(100)은 영상 데이터(Data_Vd)에 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고(S160), 병합 데이터에 대응되는 표출 영상(VD)을 사용자에게 디스플레이할 수 있다(S170). 일 예시에서, 표출 영상(VD)은 영상 데이터(Data_Vd)에 대응하는 제1 레이어와 공간 데이터(Data_Sp)에 대응하는 제2 레이어를 포함할 수 있다.
도 5는 본 개시의 예시적 실시예에 따른 증강 현실 엔진의 동작을 나타내는 도면이다.
도 5를 참조하면, 증강 현실 엔진은 데이터 베이스로부터 복수의 객체 정보들을 포함하는 지도 데이터(Data_Mp)를 수신할 수 있다. 일 예시에서, 복수의 객체 정보는 A 교차로, B 건물, C 백화점 및 D 카페와 같은 명칭 정보, 버스 전용 차선 표시, 횡단 보도 표시 및 도로 경계 표시와 같은 표시 정보를 포함할 수 있다.
증강 현실 엔진은 지도 데이터(Data_Mp)로부터 복수의 객체 정보를 추출할 수 있다. 일 예시에서, 증강 현실 엔진은 지도 데이터(Data_Mp)로부터 명칭 정보 및 표시 정보를 복수의 객체 정보로써 파싱할 수 있다. 증강 현실 엔진은 추출한 복수의 객체 정보들을 각각의 2차원 좌표 및 촬영 장치의 위치 정보를 기초로 3차원 변환을 수행할 수 있다. 즉, 증강 현실 엔진은 복수의 객체 정보에 대응하는 좌표가 촬영 장치의 시선에서 어디에 위치할지 계산하고, 계산된 좌표에 복수의 객체 정보들 각각을 대응시킬 수 있고, 이에 따라서 3차원 좌표에 대응된 복수의 객체 정보들을 포함하는 공간 데이터(Data_Sp)를 생성할 수 있다.
도 5의 예시에서, 지도 데이터(Data_Mp)에서, A 교차로에 해당하는 좌표는 촬영 장치의 시선에서 공간 데이터(Data_Sp)의 특정 좌표에 위치할 수 있고, 특정 좌표에 대응된 A 교차로가 공간 데이터(Data_Sp)로써 구축될 수 있다. B 건물, C 백화점 및 D 카페와 같은 명칭 정보도 같은 방식으로 공간 데이터(Data_Sp)로써 구축될 수 있다. 또한, 버스 전용 차선 표시, 도로 경계 표시 및 횡단 도로 표시와 같은 표시 정보 역시 유사한 방식으로 공간 데이터(Data_Sp)로써 구축될 수 있다.
본 개시의 기술적 사상에 따르면, 별도의 추가적인 프리미티브 생성 작업 없이 생성된 지도 데이터(Data_Mp)에 대한 3차원 변환 작업 만을 통해 공간 데이터(Data_Sp)가 생성될 수 있으므로, 증강 현실이 효율적으로 구현될 수 있고 시스템의 과부하가 감소할 수 있다.
도 6은 본 개시의 예시적 실시예에 따른 디스플레이부의 동작을 나타내는 도면이다.
도 6을 참조하면, 디스플레이부는 촬영 장치로부터 영상 데이터(Data_Vd)를 수신하고, 증강 현실 엔진으로부터 공간 데이터(Data_Sp)를 수신할 수 있다. 디스플레이부는 영상 데이터(Data_Vd)와 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터(Data_Mg)를 생성할 수 있다. 일 실시예에서, 디스플레이부는 제1 레이어에 영상 데이터(Data_Vd)에 대응하는 영상을 출력하고, 제2 레이어에 공간 데이터(Data_Sp)에 대응하는 영상을 출력함으로써 영상 데이터(Data_Vd)와 공간 데이터(Data_Sp)를 병합할 수 있다. 디스플레이부는 병합 데이터(Data_Mg)에 대응되는 표출 영상을 사용자에게 디스플레이할 수 있다.
본 개시의 기술적 사상에 따른 관제 시스템은 병합 데이터(Data_Mg)에 대응되는 표출 영상을 사용자에게 디스플레이함으로써 사용자는 영상 데이터(Data_Vd)에 대응하는 특정 장소의 실제 촬영 영상에 추가적으로 공간 데이터(Data_Sp)의 객체 정보를 함께 인지할 수 있고, 이에 따라서, 사용자의 촬영 영상에 대한 이해도가 높아질 수 있다.
도 7은 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 7을 참조하면, 사용자는 표출 영상에 포함되는 객체를 선택할 수 있다(S210). 일 실시예에서, 객체는 공간 데이터에 의해 표출되는 복수의 객체 정보 중 어느 하나에 대응할 수 있다. 관제 시스템은 선택된 객체의 3차원 좌표를 2차원 좌표로 변환할 수 있다(S220). 관제 시스템은 객체의 속성 정보를 수신할 수 있다(S230). 일 실시예에서, 관제 시스템은 객체의 속성 정보에 대응하는 좌표를 기초로 데이터 베이스에 객체의 속성 정보를 요청하고, 데이터 베이스로부터 객체의 속성 정보를 수신할 수 있다. 관제 시스템은 생성한 속성 정보를 사용자에게 디스플레이할 수 있다(S240).
본 개시의 기술적 사상에 따르면, 사용자가 선택한 객체의 3차원의 좌표를 2차원의 좌표로 변환 후 이를 기초로 속성 정보를 수신함으로써 별도의 3차원 좌표에 대응하는 속성 정보를 생성할 필요 없이 기생성된 속성 정보를 이용하여 사용자에게 필요한 정보를 표출할 수 있다. 이에 따라서, 관제 시스템의 오버 헤드가 감소하고, 효율적인 모니터링이 가능할 수 있다.
도 8은 본 개시의 예시적 실시예에 따른 표출 영상을 나타내는 도면이다. 상세하게는 도 8은 사용자가 객체를 선택함으로써 속성 정보를 디스플레이하는 실시예를 나타낸다
도 8을 참조하면, 사용자가 제1 객체(Ob_1)를 선택하면, 관제 시스템은 표출 영상 상의 좌표를 지도 데이터에 대응하는 좌표로 변환할 수 있다. 관제 시스템은 지도 데이터에 대응하는 좌표를 기초로 속성 정보를 획득할 수 있고, 획득한 속성 정보를 사용자에게 디스플레이할 수 있다. 도 8의 예시에서, 제1 객체(Ob_1)에 대응하는 속성 정보는 제1 항목(C1) 내지 제4 항목(C4)을 포함하고, 사용자가 제1 객체(Ob_1)를 선택하면, 관제 시스템은 제1 항목(C1)으로써 제1 값(Val1)을 디스플레이하고, 제2 항목(C2)으로써 제2 값(Val2)을 디스플레이할 수 있다. 또한, 관제 시스템은 제3 항목(C3)으로써 제3 값(Val3)을 디스플레이하고, 제4 항목(C4)으로써 제4 값(Val4)을 디스플레이할 수 있다.
도 9는 지도 정보의 3차원 좌표를 관제 시스템의 CCTV 화면과 평면으로(2차원적으로) 투영하는 변환 방법을 나타낸다
도 9를 참조하면, 촬영 장치는 (xs, ys, zs)의 3차원 좌표에 위치할 수 있고, 지도 데이터는 촬영 장치와 최단 거리인 초점 거리(f)에 위치하는 주점(P)을 가질 수 있다. 촬영 장치와 주점(P)까지의 직선 방정식 L(x, y, z)는 아래 수학식 1과 같이 표현될 수 있다.
Figure 112019054229613-pat00001
또한, 주점(P)은 아래 수학식 2과 같은 좌표를 가질 수 있다.
Figure 112019054229613-pat00002
주점(P)의 좌표 및 초점 거리(f)에 기초하여, 지도 데이터의 평면 방정식 F(x, y, z)는 아래 수학식 3와 같이 표현될 수 있다.
Figure 112019054229613-pat00003
사용자가 표출 화면 상의 A(xi, yi, zi)를 선택하면, 관제 시스템은 촬영 장치와 A까지의 직선 방정식 Li(x, y, z)를 아래 수학식 4와 같이 계산할 수 있다.
Figure 112019054229613-pat00004
관제 시스템은 계산한 직선 방정식 Li(x, y, z)와 상술한 지도 데이터의 평면 방정식 F(x, y, z)을 이용하여 지도 데이터와 촬영 장치에서 A 지점 연장선의 교점 O(xo, yo, zo)을 계산할 수 있다. 교점 O는 지도 데이터의 기준에서 2차원 좌표로 구성될 수 있으므로, 관제 시스템은 교점 O를 지도 데이터에 2차원 좌표로써 출력할 수 있다.
도 10은 본 개시의 예시적 실시예에 따른 영상 시스템의 구성 요소별 동작 방법을 나타내는 순서도이다.
도 10을 참조하면, 영상 시스템은 촬영 장치(200), 디스플레이부(110) 및 증강 현실 엔진(120)을 포함할 수 있다. 촬영 장치(200)는 특정 장소를 촬영한 영상 데이터 및 촬영 장치(200)의 위치 정보를 디스플레이부(110)에 출력할 수 있다(T110). 디스플레이부(110)는 위치 정보를 기초로 화면 영역에 대한 공간 정보를 데이터 베이스(DB)에 출력할 수 있다(T120). 공간 정보에는 촬영 장치의 2차원 좌표가 포함될 수 있다. 데이터 베이스(DB)는 공간 정보 및 객체 정보를 포함하는 지도 데이터를 증강 현실 엔진(120)에 출력할 수 있다(T130). 일 예시에서, 공간 정보는 실제로 지도에 표시되는 지리적 외형을 나타낼 수 있고, 객체 정보는 공간 정보를 설명하는 정보를 나타낼 수 있다.
증강 현실 엔진(120)은 2차원의 공간 정보 및 객체 정보를 분류하고, 스타일에 적용함으로써 3차원의 공간 데이터를 생성할 수 있다(T140). 증강 현실 엔진(120)은 생성한 공간 데이터를 디스플레이(110)에 출력할 수 있다(T150). 디스플레이부(110)는 영상 데이터 및 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 병합 데이터에 대응하는 표출 영상을 디스플레이할 수 있다(T160).
표출 영상을 디스플레이하는 중에 사용자가 표출 영상에 포함되는 객체를 선택하는 이벤트가 발생하면(T210), 디스플레이부(110)는 선택된 객체의 좌표를 증강 현실 엔진(120)에 출력할 수 있다(T220). 증강 현실 엔진(120)은 선택된 객체의 좌표를 지도 데이터에 대응하는 좌표로 변환하고, 지도 데이터에 대응하는 좌표에 대응하는 객체의 속성 정보를 생성할 수 있다(T230). 일 실시예에서, 증강 현실 엔진(120)은 지도 데이터로부터 객체의 속성 정보를 추출할 수 있다. 증강 현실 엔진(120)은 선택된 객체의 속성 정보를 디스플레이부(110)에 출력할 수 있고(T240), 디스플레이부(110)는 선택된 객체의 속성 정보를 디스플레이할 수 있다(T250).
도 11은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
도 11을 참조하면, 영상 시스템(1000)은 관제 시스템(1100), CCTV(1120) 및 방화벽(1300)을 포함할 수 있다. 관제 시스템(110)은 CCTV-AR 통합 플랫폼(1110), VMS(Video Management System)(1120), 스토리지(1130), 관제 메인 서버(1140), GIS/AR 서버(1150), 지능형 모듈 서버(1160) 및 버스(1170)를 포함할 수 있다.
CCTV-AR 통합 플랫폼(1110)은 상술한 디스플레이부 및 증강 현실 엔진의 역할을 수행할 수 있다. 즉, CCTV-AR 통합 플랫폼(1110)은 CCTV(1200)로부터 버스(1170)를 통해 영상 데이터를 수신하고, GIS/AR 서버(1150) 로부터 버스(1170)를 통해 지도 데이터를 수신할 수 있다. CCTV-AR 통합 플랫폼(1110)은 지도 데이터에 대한 3차원 변환을 수행함으로써 공간 데이터를 생성하고, 공간 데이터와 영상 데이터를 병합하고 디스플레이할 수 있다.
VMS(1120)는 CCTV 영상을 수집하고, 저장하고, 분배할 수 있다. VMS(1120)는 스토리지(1130)와 연결될 수 있고, CCTV(1200)로부터 수신한 영상 데이터를 스토리지(1130)에 저장할 수 있다.
관제 메인 서버(1140)는 CCTV 모니터링을 위한 각종 데이터를 수신하기 위산 서버를 나타낼 수 있고, GIS/AR 서버(1150)는 본 개시의 기술적 사상에 따른 2차원의 지도 데이터를 수신하기 위한 서버를 나타낼 수 있다. 지능형 모듈 서버(1160)는 다양한 지능형 어플리케이션과의 연동을 수행하는 서버를 나타낼 수 있다. CCTV-AR 통합 플랫폼(1110), VMS(1120), 관제 메인 서버(1140), GIS/AR 서버(1150) 및 지능형 모듈 서버(1160)는 버스(1170)를 통해 서로 연결될 수 있다.
CCTV(1200)는 특정 장소를 촬영할 수 있는 촬영 장치로써, 일 예시에서, PTZ 카메라, 전방위 카메라, 고정 IP(Internet Protocol) 카메라, 열적외선 카메라 중 어느 하나로 구성될 수 있다. CCTV(1200)는 특정 장소를 촬영한 결과 영상 데이터를 생성하고, 방화벽(1300)을 거쳐 관제 시스템(1100)에 출력할 수 있다. 방화벽(1300)은 외부에 영상 데이터로 유출되는 것을 막기 위한 것으로써 방화벽(1300)에 의해 보안이 증대될 수 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (11)

  1. 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 촬영 장치;
    지도 데이터를 수신하고, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대해 상기 촬영 장치의 위치 정보를 기초로 변환을 수행함으로써 3차원의 공간 데이터를 생성하는 증강 현실 엔진;및
    상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 대응하는 표출 영상을 사용자에게 디스플레이하는 디스플레이부;를 포함하고,
    사용자가 상기 표출 영상에 포함되는 객체를 선택하는 경우, 상기 디스플레이부는 선택된 객체의 3차원 좌표를 미리 결정된 공식을 이용하여 상기 지도 데이터에 대응하는 2차원의 좌표로 변환하고, 상기 2차원의 좌표를 이용하여 상기 지도 데이터로부터 획득한 상기 객체의 속성 정보를 디스플레이하는 것을 특징으로 하는 영상 시스템.
  2. 제1항에 있어서,
    상기 표출 영상은 상기 영상 데이터에 대응하는 제1 레이어 및 상기 공간 데이터에 대응하는 제2 레이어를 포함하는 것을 특징으로 하는 영상 시스템.
  3. 제1항에 있어서,
    상기 증강 현실 엔진은 공공 기관의 지도 데이터 베이스로부터 상기 지도 데이터를 수신하는 것을 특징으로 하는 영상 시스템.
  4. 제3항에 있어서,
    상기 디스플레이부는 상기 촬영 장치의 위치 정보에 포함되는 좌표값을 수신하고, 상기 좌표 값을 공공 기관의 지도 데이터 베이스에 출력함으로써 상기 지도 데이터를 획득하는 것을 특징으로 하는 영상 시스템.
  5. 제1항에 있어서,
    상기 촬영 장치는 도로를 촬영하는 CCTV(Closed Circuit Television)로서 역할을 수행하고, 상기 영상 데이터는 상기 도로에 대한 영상을 나타내는 것을 특징으로 하는 영상 시스템.
  6. 제5항에 있어서,
    상기 촬영 장치는 팬 틸트 줌 기능 카메라(Pan-Tilt-Zoom Camera; PTZ Camera), 전방위 카메라 및 열적외선 카메라 중 어느 하나인 것을 특징으로 하는 영상 시스템.
  7. 제5항에 있어서,
    상기 증강 현실 엔진은 상기 지도 데이터로부터 건물 또는 도로의 명칭에 관한 명칭 정보 및 지리적 표시 중 적어도 하나에 관한 표시 정보를 추출하고, 추출한 명칭 정보 및 표시 정보의 좌표를 상기 영상 데이터에 맞게 변환 시킴으로써 상기 공간 데이터에 포함시키는 것을 특징으로 하는 영상 시스템.
  8. 삭제
  9. 제1항에 있어서,
    상기 디스플레이부는 유무선 네트워크를 통해 상기 촬영 장치로부터 상기 영상 데이터를 수신하는 것을 특징으로 하는 영상 시스템.
  10. 촬영 장치를 이용하여 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 단계;
    지도 데이터를 수신하는 단계;
    상기 지도 데이터에 포함되는 적어도 하나의 객체에 대한 좌표를 변환함으로써공간 데이터를 생성하는 단계;
    상기 촬영 장치의 위치 정보에 기초하여 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하는 단계;
    상기 병합 데이터에 대응하는 표출 영상을 디스플레이하는 단계;
    상기 표출 영상에 포함되는 객체에 대한 선택 신호를 수신하는 단계;
    미리 결정된 공식을 이용하여 상기 객체의 상기 표출 영상 상의 3차원 좌표를 상기 지도 데이터에 대응되는 2차원 좌표로 변환하는 단계;
    상기 2차원 좌표에 기초하여 상기 지도 데이터로부터 상기 객체의 속성 정보를 수신하는 단계;및
    수신한 상기 속성 정보를 디스플레이 하는 단계;를 더 포함하는 관제 시스템 운용 방법.
  11. 삭제
KR1020190062061A 2019-05-27 2019-05-27 증강 현실을 이용한 지도 정보 표출 관제 시스템 KR102058628B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190062061A KR102058628B1 (ko) 2019-05-27 2019-05-27 증강 현실을 이용한 지도 정보 표출 관제 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190062061A KR102058628B1 (ko) 2019-05-27 2019-05-27 증강 현실을 이용한 지도 정보 표출 관제 시스템

Publications (1)

Publication Number Publication Date
KR102058628B1 true KR102058628B1 (ko) 2019-12-23

Family

ID=69051903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190062061A KR102058628B1 (ko) 2019-05-27 2019-05-27 증강 현실을 이용한 지도 정보 표출 관제 시스템

Country Status (1)

Country Link
KR (1) KR102058628B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101937096B1 (ko) * 2018-06-05 2019-01-09 서울시립대학교 산학협력단 3차원 bim 객체 모델을 이용한 3차원 모니터링 서버 및 이를 포함하는 3차원 모니터링 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101937096B1 (ko) * 2018-06-05 2019-01-09 서울시립대학교 산학협력단 3차원 bim 객체 모델을 이용한 3차원 모니터링 서버 및 이를 포함하는 3차원 모니터링 시스템

Similar Documents

Publication Publication Date Title
CN102148965B (zh) 多目标跟踪特写拍摄视频监控***
JP6647433B1 (ja) 点群データ通信システム、点群データ送信装置および点群データ送信方法
CN103901884A (zh) 信息处理方法和信息处理设备
JP2002152713A (ja) 被写体情報処理装置、被写体情報処理方法
US8811717B2 (en) Image generating apparatus and computer program
KR20130130544A (ko) 감시 영상 표시 방법 및 시스템
CN107018386A (zh) 一种视频流多分辨率观测***
CN109636763B (zh) 一种智能复眼监控***
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
KR20160078724A (ko) 카메라 감시 영역 표시 방법 및 장치
GB2557141A (en) Image generation system and image generation method
KR20140054650A (ko) 관심객체의 선택에 의한 영상 탐색장치 및 방법
KR101700651B1 (ko) 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치
KR102095454B1 (ko) 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법
KR101758786B1 (ko) 영상 내에서 특정 지점의 위치를 결정하기 위한 장치 및 그 방법
KR102058628B1 (ko) 증강 현실을 이용한 지도 정보 표출 관제 시스템
CN112217813A (zh) 一种前端设备控制方法及装置
KR20200101792A (ko) 블랙박스를 이용한 cctv 통합 관제 시스템
KR102242710B1 (ko) 반자유 시점 영상을 제공하는 장치
KR102468685B1 (ko) 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법
EP4075789A1 (en) Imaging device, imaging method, and program
KR20180085432A (ko) 카메라와 연계해서 증강현실 프리미티브와 이벤트를 연동시키는 시스템 및 그 시스템의 구동방법
CN104041015A (zh) 视频监控方法及相关***、监控服务器和监控摄像机
KR101583598B1 (ko) 고해상도 영상 처리 카메라, 서비스서버, 시스템 및 방법
KR20120137607A (ko) 전방위 영상 웹 서비스 시스템 및 그 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant