KR20190074936A - 혼합 현실 서비스 제공 방법 및 시스템 - Google Patents

혼합 현실 서비스 제공 방법 및 시스템 Download PDF

Info

Publication number
KR20190074936A
KR20190074936A KR1020180096262A KR20180096262A KR20190074936A KR 20190074936 A KR20190074936 A KR 20190074936A KR 1020180096262 A KR1020180096262 A KR 1020180096262A KR 20180096262 A KR20180096262 A KR 20180096262A KR 20190074936 A KR20190074936 A KR 20190074936A
Authority
KR
South Korea
Prior art keywords
terminal
building
virtual image
information
image
Prior art date
Application number
KR1020180096262A
Other languages
English (en)
Other versions
KR102010030B1 (ko
Inventor
김상훈
김경진
Original Assignee
주식회사 동우 이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 동우 이앤씨 filed Critical 주식회사 동우 이앤씨
Priority to KR1020180096262A priority Critical patent/KR102010030B1/ko
Priority to CN201880082551.3A priority patent/CN111492396A/zh
Priority to US16/956,392 priority patent/US11030359B2/en
Priority to PCT/KR2018/015197 priority patent/WO2019124818A1/ko
Publication of KR20190074936A publication Critical patent/KR20190074936A/ko
Application granted granted Critical
Publication of KR102010030B1 publication Critical patent/KR102010030B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • G06F17/5009
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 서버의 혼합 현실 서비스를 제공하기 위한 방법으로, 임의의 건축물에 대한 설계 정보를 포함하는 3차원 모델링 데이터를 로드하는 단계, 단말로부터 전송되는 트랙킹 정보를 기초로, 상기 3차원 모델링 데이터 및 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 생성하는 단계 및 상기 가상 이미지를 상기 단말로 전송하는 단계를 포함하되, 상기 트랙킹 정보는, 상기 단말의 지리적 위치 정보, 상기 단말이 위치한 현실 공간에 대한 식별 정보, 3차원 회전 정보 및 속도 정보 중 적어도 하나를 포함하고, 상기 가상 이미지는, 상기 건축물이 설계 정보에 따라 실제 크기로 표시될 수 있도록 생성되며, 상기 적어도 하나의 단말에서 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 하는 방법 및 이를 수행하는 시스템에 관한 것이다.

Description

혼합 현실 서비스 제공 방법 및 시스템{Method and system for providing mixed reality service}
본 발명은 혼합 현실 서비스 제공 방법 및 시스템에 관한 것으로, 보다 구체적으로 건축 현장에서 대응되는 3차원 모델링 데이터를 실제 건축물 크기의 혼합 현실 이미지로 제공하여, 건축물의 관리 및 유지/보수를 용이하게 수행할 수 있도록 하는 혼합 현실 서비스 제공 방법 및 시스템에 관한 것이다.
최근 3차원 영상 처리 기술이 급속도로 발전하면서, 영화, 게임, 인테리어 등 다양한 분야에 가상 현실(Virtual Reality; VR) 또는 증강 현실(Augmented Reality; AR)을 이용한 서비스가 제공되고 있다. 증강 현실 이후에 등장한 혼합 현실(Mixed Reality; MR)은 현실의 이미지와 3차원 모델링 데이터로 구현된 가상의 이미지를 합성하여 표시함으로써, 사용자에게 현실과 가상 이미지의 경계가 없는 이미지를 제공한다.
한편, 건축물의 설계 분야에서도 설계 데이터를 3차원 모델링 데이터 화하여 보다 입체감 있게 건축물의 구조를 파악할 수 있도록 하는 기술이 개발되고 있다.
그러나 현재까지의 건축물 설계 분야에서 혼합 현실의 적용은 단순히 현실 공간을 인지하여 가구 등 소규모 인테리어 구조물을 배치하는 수준에 그치고 있다. 실제 설계 현장에서는 수작업으로 건축물의 치수 등을 검증하고 관리하고 있어 많은 인력과 시간이 소모되는 문제가 있다.
본 발명은 상기한 문제점을 해결하기 위한 것으로, 건축 현장에서 대응되는 3차원 모델링 데이터를 실제 건축물 크기의 혼합 현실 이미지로 표시하는 혼합 현실 서비스 제공 방법 및 시스템을 제공한다.
또한, 본 발명은 혼합 현실 공간에서 혼합 현실 이미지로 표시된 3차원 모델링 데이터를 실시간 편집하고 다른 작업자와 공유할 수 있도록 하는 혼합 현실 서비스 제공 방법 및 시스템을 제공한다.
상술한 과제를 해결하기 위한 본 발명에 따른 혼합 현실 서비스 제공 방법은, 서버의 혼합 현실 서비스를 제공하기 위한 방법으로, 임의의 건축물에 대한 설계 정보를 포함하는 3차원 모델링 데이터를 로드하는 단계, 단말로부터 전송되는 트랙킹 정보를 기초로, 상기 3차원 모델링 데이터 및 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 생성하는 단계 및 상기 가상 이미지를 상기 단말로 전송하는 단계를 포함하되, 상기 트랙킹 정보는, 상기 단말의 지리적 위치 정보, 상기 단말이 위치한 현실 공간에 대한 식별 정보, 3차원 회전 정보 및 속도 정보 중 적어도 하나를 포함하고, 상기 가상 이미지는, 상기 건축물이 상기 설계 정보에 따라 실제 크기로 표시될 수 있도록 생성되며, 상기 적어도 하나의 단말에서 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 할 수 있다.
또한, 상기 가상 이미지를 생성하는 단계는, 상기 단말의 지리적 위치 정보에 따라, 상기 건축물의 외관 또는 내부 이미지를 획득하는 단계, 상기 단말의 트랙킹 정보에 따라, 상기 획득된 이미지 내에서 상기 단말의 정면 표시 영역에 대응되는 일 영역을 추출하는 단계 및 상기 추출된 일 영역으로부터 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 가상 이미지를 생성하는 단계는, 상기 건축물이 복수의 층으로 구성되는 경우, 사용자 입력 또는 트랙킹 정보에 의해 선택된 임의의 층에 대하여 상기 내부 이미지를 획득하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 적어도 하나의 사용자 인터페이스는, 상기 건축물에 대한 설계 정보의 추가, 편집, 삭제, 메모 관리 중 적어도 하나를 위한 사용자 인터페이스를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 가상 이미지를 생성하는 단계는, 상기 건축물 내의 적어도 하나의 객체 상에 상기 적어도 하나의 객체를 위한 사용자 인터페이스를 배치하여 상기 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 방법은, 상기 적어도 하나의 사용자 인터페이스를 통하여 상기 3차원 모델링 데이터에 대한 처리 요청을 수신하는 단계, 상기 처리 요청에 대응하여 상기 3차원 모델링 데이터를 편집하는 단계, 상기 편집된 3차원 모델링 데이터를 기초로 상기 가상 이미지를 재생성하는 단계 및 상기 재생성된 가상 이미지를 상기 단말로 전송하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 가상 이미지를 상기 단말로 전송한 이후에, 상기 단말로부터 변경된 트랙킹 정보를 수신하는 단계, 상기 변경된 트랙킹 정보를 기초로 상기 3차원 모델링 데이터 및 상기 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 재생성하는 단계 및 상기 재생성된 가상 이미지를 상기 단말로 전송하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상술한 과제를 해결하기 위한 본 발명에 따른 혼합 현실 서비스 제공 시스템은, 혼합 현실 서비스를 제공하는 시스템으로, 혼합 현실 서비스를 이용하는 동안 트랙킹 정보를 수집하여 전송하는 단말 및 임의의 건축물에 대한 설계 정보를 포함하는 3차원 모델링 데이터를 로드하고, 단말로부터 전송되는 트랙킹 정보를 기초로, 상기 3차원 모델링 데이터 및 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 생성하여 상기 단말로 전송하는 서버를 포함하되, 상기 트랙킹 정보는, 상기 단말의 지리적 위치 정보, 상기 단말이 위치한 현실 공간에 대한 식별 정보, 3차원 회전 정보 및 속도 정보 중 적어도 하나를 포함하고, 상기 가상 이미지는, 상기 건축물이 상기 설계 정보에 따라 실제 크기로 표시될 수 있도록 생성되며, 상기 적어도 하나의 단말에서 현실 이미지와 합성되어 혼합 현실 이미지로 표시되는 것을 특징으로 할 수 있다.
또한, 상기 서버는, 상기 단말의 지리적 위치 정보에 따라, 상기 건축물의 외관 또는 내부 이미지를 획득하고, 상기 단말의 트랙킹 정보에 따라, 상기 획득된 이미지 내에서 상기 단말의 정면 표시 영역에 대응되는 일 영역을 추출하여 상기 가상 이미지를 생성하는 것을 특징으로 할 수 있다.
또한, 상기 서버는, 상기 건축물이 복수의 층으로 구성되는 경우, 상기 단말로부터 수신되는 입력 또는 트랙킹 정보에 의해 선택된 임의의 층에 대하여 상기 내부 이미지를 획득하는 것을 특징으로 할 수 있다.
또한, 상기 단말은, 상기 적어도 하나의 사용자 인터페이스를 통하여 수신되는 사용자 입력을 기초로, 상기 3차원 모델링 데이터에 대한 처리 요청을 상기 서버로 전송하고, 상기 서버는, 상기 처리 요청에 대응하여 상기 3차원 모델링 데이터를 편집하고, 상기 편집된 3차원 모델링 데이터를 기초로 상기 가상 이미지를 재생성하여 상기 단말로 전송하는 것을 특징으로 할 수 있다.
본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 건축 현장에서 혼합 현실 이미지를 통해 건축물을 실제 건축물 크기의 3차원 모델링 데이터와 비교할 수 있도록 하여, 건축물의 검증, 관리 및 유지/보수를 용이하게 수행할 수 있도록 한다.
또한, 본 발명에 다른 혼합 현실 서비스 제공 방법 및 시스템은 혼합 현실 이미지로 표시된 3차원 모델링 데이터를 실시간으로 편집하고 다른 작업자와 공유할 수 있도록 한다.
도 1은 본 발명에 따른 혼합 현실 서비스 제공 시스템의 네트워크 구조를 나타낸 도면이다.
도 2는 본 발명에 따른 서버의 구조를 나타낸 도면이다.
도 3은 본 발명에 따른 단말의 구조를 나타낸 도면이다.
도 4는 본 발명에 따른 단말이 헤드 마운트 디스플레이 장치로 구현되는 일 예를 나타낸 도면이다.
도 5는 본 발명에 따른 혼합 현실 서비스의 제공 방법을 나타낸 흐름도이다.
도 6은 본 발명에 따른 혼합 현실 서비스 제공 방법에 있어서 3차원 모델링 데이터에 대한 처리를 수행하는 방법을 나타낸 흐름도이다.
도 7 및 도 8은 본 발명에 따른 혼합 현실 이미지의 일 예를 나타낸 도면이다.
본 명세서의 실시 예를 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명은 생략될 수 있다.
본 명세서에서 사용되는 "포함한다," "포함할 수 있다." 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.  
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 건축물 설계를 위해 제공될 수 있다. 보다 구체적으로, 본 발명에 따른 혼합 현실 서비스 제공 방법 및 시스템은 3차원 모델링 데이터로써 건축물의 설계 데이터를 혼합 현실 회의실에 입장한 다수의 사용자 단말에 혼합 현실로 표시하고, 설계 정보를 관리(추가/수정/삭제 등)할 수 있도록 하기 위해 구성될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명을 설명한다.
도 1은 본 발명에 따른 혼합 현실 서비스 제공 시스템의 네트워크 구조를 나타낸 도면이다.
도 1을 참조하면, 본 발명에 따른 혼합 현실 서비스 제공 시스템(1)은 혼합 현실 서비스를 제공하는 서버(10)와 혼합 현실 서비스를 제공받는 단말(20)을 포함하여 구성될 수 있다.
서버(10)는 본 발명에 따른 혼합 현실 서비스를 제공하기 위하여 마련되는 것으로, 혼합 현실 서비스의 제공자에 의해 운영되는 네트워크 서버, 애플리케이션 서버, 도메인 서버 등일 수 있다.
서버(10)는 단말(20)로부터 혼합 현실 서비스 제공 요청 시, 3차원 모델링 데이터로부터 가상 이미지를 생성하여 단말(20)에게 제공한다. 단말(20)에 제공된 가상 이미지는 단말(20)에서 촬영되는 현실 이미지와 합성되어 혼합 현실 이미지로 표시될 수 있다.
서버(10)는 또한 3차원 모델링 데이터에 대한 부가적인 처리를 수행하기 위한 다양한 사용자 인터페이스를 가상 이미지로 단말(20)에게 제공할 수 있다. 또한, 서버(10)는 사용자 인터페이스를 통하여 수신되는 사용자 명령에 따라 3차원 모델링 데이터를 수정하고 관리할 수 있다.
단말(20)은 서버(10)와 데이터 통신을 수행하여 혼합 현실 서비스를 제공받는다. 단말(20)은 서버(10)로부터 수신되는 가상 이미지를 단말(20)에서 촬영되는 현실 이미지와 합성하여 혼합 이미지를 생성하고 이를 좌안용 및 우안용 영상으로 표시함으로써, 현실 공간에서 사용자가 3차원 모델링 데이터를 사실적으로 체험할 수 있도록 한다.
본 발명의 다양한 실시 예에서 3차원 모델링 데이터는 건축물 설계를 위한 모델링 데이터일 수 있다. 특히, 3차원 모델링 데이터는 빌딩 정보 모델링(Building Information Modeling; BIM) 데이터로써 IFC(Industry Foundation Classes) 데이터일 수 있으나, 이에 한정되지는 않는다. 건축물 설계를 위한 3차원 모델링 데이터는 건축물의 구조, 형태, 치수, 재료, 재질, 색상, 무늬, 설비 등에 관련된 정보를 포함할 수 있다.
서버(10)와 단말(20)은 네트워크를 통해 상호 연결되어 데이터 통신을 수행하며, 혼합 현실 서비스를 위한 제어 동작을 수행한다. 이에 대하여 보다 구체적인 설명은 후술한다.
도 2는 본 발명에 따른 서버의 구조를 나타낸 도면이다.
도 2를 참조하면, 서버(10)는 통신부(11), 제어부(12) 및 저장부(13)를 포함하여 구성될 수 있다.
통신부(11)는 네트워크를 통해 외부와 데이터를 송수신할 수 있다. 일 예로 통신부(11)는 단말(20)로부터 사용자 입력에 대응하는 요청 및 가상 이미지 생성을 위해 필요한 정보 등을 수신하고, 제어부(12)의 제어에 따라 단말(20)로 현실 이미지 상에 합성될 가상 이미지를 전송할 수 있다.
제어부(12)는 본 발명에 따른 혼합 현실 서비스를 제공하기 위하여, 서버(10)의 각 구성 요소들을 제어하도록 구성된다. 보다 구체적으로, 제어부(12)는 혼합 현실 서비스 제공부(121) 및 가상 이미지 생성부(122)를 포함하여 구성될 수 있다.
혼합 현실 서비스 제공부(121)는 단말(20)로 혼합 현실 서비스를 제공하기 위한 각종 제어 동작들을 수행한다.
일 실시 예에서, 혼합 현실 서비스 제공부(121)는 혼합 현실 서비스를 제공받는 단말(20)의 사용자 계정을 생성하고 관리할 수 있다. 혼합 현실 서비스 제공부(121)는 혼합 현실 서비스를 통하여 생성되거나 획득되는 데이터를 사용자 계정과 연계하여 저장하고 관리할 수 있다. 일 예로, 혼합 현실 서비스 제공부(121)는 사용자 계정을 식별하기 위한 식별 정보로써 아이디(ID), 비밀번호(PASSWORD) 등을 저장하고 관리하며, 해당 사용자 계정과 관련된 모델링 데이터를 사용자 계정에 대응되는 데이터 디렉토리에 저장하고 관리할 수 있다.
혼합 현실 서비스 제공부(121)는 단말(20)의 요청에 의해 혼합 현실 서비스가 구동됨에 따라, 단말(20)로부터 가상 이미지 생성을 위해 필요한 정보, 예를 들어 트랙킹 정보를 수신하고, 수신된 정보를 가상 이미지 생성부(122)로 전달할 수 있다. 또한, 혼합 현실 서비스 제공부(121)는 가상 이미지 생성부(122)로부터 생성되는 가상 이미지를 단말(20)로 전달하여, 단말(20)에서 가상 이미지가 현실 이미지와 합성되어 혼합 현실 이미지로 구성될 수 있도록 한다.
혼합 현실 서비스 제공부(121)는 혼합 현실 서비스가 제공되는 동안, 단말(20)로부터 수신되는 사용자 입력에 따라 3차원 모델링 데이터에 대한 처리, 예를 들어 설계 정보에 대한 추가, 편집, 삭제, 메모 관리 등을 적용하여 저장할 수 있다. 혼합 현실 서비스 제공부(121)는 편집된 3차원 모델링 데이터를 가상 이미지 생성부(122)로 전달하여, 편집된 3차원 모델링 데이터에 기초한 가상 이미지가 생성될 수 있도록 한다. 임의의 단말(20)에 의해 3차원 모델링 데이터가 편집되는 경우, 이를 기초로 재생성된 가상 이미지는 해당 단말(20) 및 적어도 하나의 다른 장치들로 전송될 수 있다. 그에 따라, 혼합 현실 서비스를 제공받는 장치들은 3차원 모델링 데이터의 편집 상황을 공유하면서 협업을 수행할 수 있다.
가상 이미지 생성부(122)는 단말(20)로부터 수신된 트랙킹 정보를 기초로 가상 이미지를 생성할 수 있다. 트랙킹 정보는 예를 들어, 단말(20)의 현실 공간에 대한 식별 정보(예를 들어, 메쉬망 정보) 및 단말(20)의 지리적 위치 정보, 3차원 회전 정보, 속도 정보 등을 포함할 수 있다.
가상 이미지 생성부(122)는 단말(20)로부터 수신된 단말(20)의 트랙킹 정보를 기초로 3차원 모델링 데이터로부터 가상 이미지를 생성할 수 있다. 가상 이미지 생성부(122)는 3차원 모델링 데이터의 실측 사이즈로 가상 이미지를 생성하되, 트랙킹 정보에 따라 3차원 모델링 데이터의 표시 영역 등을 결정하여 가상 이미지를 생성할 수 있다.
또한, 가상 이미지 생성부(122)는 3차원 모델링 데이터에 대한 처리, 예를 들어 설계 정보의 추가, 편집, 삭제, 메모 관리(예를 들어, 메모 삽입, 메모 편집, 메모 삭제 등)등을 위한 사용자 인터페이스를 가상 이미지로 생성할 수 있다. 이때, 가상 이미지 생성부(122)는 객체의 3차원 형상이나 트랙킹 정보에 따라 사용자 인터페이스를 회전하거나 확대/축소하여 가상 이미지를 생성할 수 있다.
상술한 제어부(12)의 구성 요소들은 제어부(12) 내에 물리적으로 별개의 장치로써 구현될 수 있으나, 본 발명의 기술적 사상은 이에 한정되는 것은 아니다. 즉, 상술한 제어부(12)의 구성 요소들은 하나의 물리적인 프로세서 내에 모듈화되거나, 프로그램될 수 있다. 또한, 상술한 제어부(12)의 구성 요소들은 단순히 제어부(12)의 동작적인 측면으로 구분된 것에 불과하며, 상술한 구성 요소들의 적어도 하나 또는 전부는 하나의 구성 요소로 통합될 수 있다.
저장부(13)는 서버(10)의 동작을 위하여 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 본 발명의 다양한 실시 예에서, 저장부(13)는 적어도 하나의 3차원 모델링 데이터를 저장하고 관리할 수 있다. 일 실시 예에서, 적어도 하나의 3차원 모델링 데이터는 사용자 계정 및 지리적 위치 정보 등과 연계하여 저장될 수 있다.
도 3은 본 발명에 따른 단말의 구조를 나타낸 도면이다.
도 3을 참조하면, 본 발명에 따른 단말(20)은 카메라부(21), 센서부(22), 입력부(23), 표시부(24), 출력부(25), 통신부(26), 제어부(27) 및 저장부(28)를 포함하여 구성될 수 있다.
카메라부(21)는 적어도 하나의 카메라 모듈을 구비하여 사용자 전방의 영상을 촬영하도록 형성된다. 본 발명의 다양한 실시 예에서, 카메라부(32)는 사용자의 현실 공간(피사체)의 형태와 깊이감을 식별할 수 있는 깊이 카메라(depth camera)를 포함하여 구성될 수 있다. 또한, 카메라부(32)는 사용자의 핸드 제스처 등을 촬영하기 위한 적외선 카메라 등을 포함하여 구성될 수 있다.
센서부(22)는 단말(20)의 동작에 관한 다양한 정보를 감지할 수 있는 적어도 하나의 센서를 포함하여 구성될 수 있다. 본 발명의 다양한 실시 예에서, 센서부(22)는 사용자의 지리적 위치를 감지하기 위한 GPS 센서를 포함할 수 있다. 또한, 센서부(22)는 단말(20)의 3차원 회전이나 기울임, 속도와 같은 움직임을 감지하기 위한 자이로 센서, 속도 센서, 가속도 센서 등을 포함할 수 있다.
입력부(23)는 사용자의 다양한 입력을 수신한다. 입력부(23)는 터치 패드, 키 패드, 조그 다이얼, 돔 스위치, 버튼 등을 포함할 수 있다. 또는, 일 실시 예에서, 카메라부(21)를 통하여 사용자의 핸드 제스처를 입력으로 수신하는 경우, 입력부(23)는 카메라부(21)를 통하여 촬영된 핸드 제스처를 식별하는 동작을 수행하도록 구성될 수 있다. 또한, 다양한 실시 예에서, 입력부(23)는 사용자의 음성과 같은 음향을 입력받아 전기적인 음성 데이터로 처리하는 마이크를 더 포함할 수 있다.
표시부(24)는 단말(20)에서 처리되는 다양한 정보들을 시각적으로 표시할 수 있다. 본 발명의 다양한 실시 예에서, 단말(20)이 헤드 마운트 디스플레이(30)로 구성되는 경우 표시부(24)는 좌안용 영상을 표시하는 좌안용 표시부 및 우안용 영상을 표시하는 우안용 표시부를 포함하여 구성될 수 있다.
출력부(25)는 단말(20)에서 처리되는 정보들을 음향, 진동, 광 등의 다양한 형태로 출력하도록 구성된다. 이를 위하여, 출력부(25)는 스피커, 햅틱 모듈, LED 램프 등을 포함하여 구성될 수 있다.
통신부(26)는 네트워크를 통해 외부와 데이터를 송수신할 수 있다. 일 예로, 통신부(26)는 제어부(27)의 제어를 통하여, 서버(10)로 혼합 현실 서비스를 제공받기 위한 다양한 요청들 및/또는 정보를 전송하고, 서버(10)로부터 3차원 모델링 데이터 및/또는 다양한 오브젝트들에 대한 가상 이미지를 수신할 수 있다.
제어부(27)는 본 발명에 따른 혼합 현실 서비스를 제공받기 위하여, 단말(20)의 각 구성 요소들을 제어하도록 구성된다. 보다 구체적으로, 제어부(27)는 혼합 현실 서비스 관리부(271) 및 혼합 현실 생성부(272)를 포함하여 구성될 수 있다.
혼합 현실 서비스 관리부(271)는 서버(10)를 통하여 제공되는 혼합 현실 서비스에 관련된 동작을 제어한다.
구체적으로, 혼합 현실 서비스 관리부(271)는 사용자 입력에 대응하여, 서버(10)로 사용자 계정을 생성/관리하거나 사용자 계정에 로그인하기 위한 요청을 전송할 수 있다. 혼합 현실 서비스 관리부(271)는 서버(10)로 사용자 계정을 생성하거나 사용자 계정에 로그인하기 위한 식별 정보로써, 아이디, 비밀번호 등을 사용자에게 입력받고 이를 서버(10)로 전송할 수 있다.
혼합 현실 서비스 관리부(271)는 사용자 입력에 대응하여, 혼합 현실 서비스를 구동하기 위한 요청을 서버(10)로 전송할 수 있다. 혼합 현실 서비스가 구동함에 따라, 혼합 현실 서비스 관리부(271)는 카메라부(21) 및/또는 센서부(22)를 통하여 트랙킹 정보를 수집하고, 수집된 트랙킹 정보를 서버(10)로 전송할 수 있다. 혼합 현실 서비스 관리부(271)는 트랙킹 정보에 기초하여 생성된 가상 이미지를 서버(10)로부터 수신할 수 있다. 혼합 현실 서비스 관리부(271)는 수신된 가상 이미지를 혼합 현실 생성부(272)로 전달하여, 카메라부(21)를 통해 촬영되는 현실 이미지와 가상 이미지를 합성함으로써 혼합 현실 이미지가 생성되도록 할 수 있다.
혼합 현실 서비스 관리부(271)는 혼합 현실 서비스가 제공되는 동안, 서버(10)로부터 수신되고 혼합 현실 생성부(272)에 의해 표시된 적어도 하나의 사용자 인터페이스를 통하여, 사용자 입력, 예를 들어 3차원 모델링 데이터 내의 임의의 객체에 대한 추가, 편집, 삭제, 메모 관리 등을 위한 입력을 수신할 수 있다. 혼합 현실 서비스 관리부(271)는 사용자 입력을 처리하여 서버(10)로 전달하고, 그에 대한 응답을 서버(10)로부터 수신하여 처리할 수 있다.
혼합 현실 생성부(272)는 카메라부(21)를 통해 촬영된 현실 이미지와 서버(10)로부터 수신된 가상 이미지를 합성하여 혼합 현실 이미지를 생성한다. 생성된 혼합 현실 이미지는 표시부(24)를 통해 표시될 수 있다.
일 실시 예에서, 후술되는 바와 같이 단말(20)이 헤드 마운트 디스플레이(30)로 구성되는 경우, 혼합 현실 생성부(272)는 혼합 현실 이미지에 대한 좌안용 영상 및 우안용 영상을 생성할 수 있다. 생성된 좌안용 영상 및 우안용 영상은 헤드 마운트 디스플레이(30)의 좌안용 표시부 및 우안용 표시부에 각각 표시될 수 있다.
저장부(28)는 단말(20)의 동작을 위하여 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다.
한편, 본 발명의 다양한 실시 예에서, 단말(20)은 도 4에 도시된 바와 같이 헤드 마운트 디스플레이(30)로 구성될 수 있다.
헤드 마운트 디스플레이(30)는 프레임(29)으로 구성될 수 있다. 프레임(29)은 사용자의 두부 등에 착용이 용이하도록 플렉서블한 재질로 형성될 수 있으며, 예를 들어 사용자의 안면에 착용 가능하도록 안경형으로 형성될 수 있다. 프레임(29)은 본체부 또는 바디부 등으로 명명될 수 있다. 프레임(29)에는 상술한 카메라부(21), 센서부(22), 입력부(23), 표시부(24) 및 출력부(25) 등이 마련될 수 있다.
표시부(24)는 사용자가 착용한 상태에서 좌안 및 우안에 각각 대응되는 좌안용 및 우안용 표시부(24)를 구비할 수 있다. 그에 따라, 헤드 마운트 디스플레이(30)는 사용자로 하여금 좌안용 영상과 우안용 영상의 시차에 대응하는 깊이감을 느낄 수 있도록 하고 보다 현실성있는 혼합 현실 공간을 체험할 수 있도록 한다.
그러나 헤드 마운트 디스플레이(30)의 구조는 상술한 것에 한정되지 않으며, 헤드 마운트 디스플레이는 다양한 구조 및 형태를 가질 수 있다.
이하에서는, 본 발명에 따른 혼합 현실 서비스 제공 시스템(1)을 통하여 혼합 현실 서비스를 제공하는 방법을 보다 구체적으로 설명한다. 이하에서 설명되는 혼합 현실 서비스 제공 방법은, 단말(20)에 설치되는 애플리케이션, 프로그램, 소프트웨어 등을 통해 수행되거나, HTTP 기반 웹 서비스를 통하여 수행될 수 있다. 그러나 본 발명의 기술적 사상은 이에 한정되지는 않으며, 다양한 방식을 통해 본 발명에 따른 혼합 현실 서비스 제공 방법이 실행될 수 있다.
도 5는 본 발명에 따른 혼합 현실 서비스 제공 방법을 나타낸 흐름도이다.
도 5를 참조하면, 단말(20)은 혼합 현실 서비스의 구동을 위한 사용자 입력을 수신할 수 있다(501). 혼합 현실 서비스의 구동을 위한 사용자 입력은, 예를 들어 혼합 현실 서비스 제공을 위한 애플리케이션, 프로그램, 소프트웨어의 구동, 혼합 현실 서비스를 제공하는 웹 페이지로의 이동 등을 통하여 수신될 수 있다.
단말(20)은 사용자 입력에 대응하여 서버(10)로 혼합 현실 서비스의 구동 요청을 전송할 수 있다(502).
서버(10)는 단말(20)의 구동 요청에 대한 구동 응답을 단말(20)에게 전송할 수 있다(503). 다양한 실시 예에서, 서버(10)는 단말(20)에 대한 장치 인증 및/또는 보안 인증 등을 수행하여, 단말(20)에게 혼합 현실 서비스를 제공할 것인지 여부를 결정하고 단말(20)로 구동 응답을 전송할 수 있다.
다양한 실시 예에서, 상기와 같은 인증 과정은 별도로 수행되지 않을 수 있다.
다양한 실시 예에서, 혼합 현실 서비스의 최초 구동 이후에, 서버(10)와 단말(20)은 사용자 계정 생성 및/또는 사용자 계정 로그인을 위한 동작을 수행할 수 있다. 구체적으로, 단말(20)은 사용자 입력에 따라 계정 생성 요청 또는 계정 로그인 요청을 서버(10)로 전송할 수 있다. 계정 생성 요청 또는 계정 로그인 요청은 사용자의 식별 정보로써, 예를 들어 아이디(ID), 비밀번호(PASSWORD) 등을 포함할 수 있다. 서버(10)는 계정 생성 요청에 포함된 사용자의 식별 정보를 저장하고, 해당 사용자에 관련된 데이터를 사용자의 식별 정보와 연계하여 저장할 수 있도록 데이터 디렉토리를 설정하고 이를 로드할 수 있다. 또는 서버(10)는 계정 로그인 요청에 포함된 사용자의 식별 정보에 매칭되는 기저장된 사용자의 식별 정보를 검색하고, 매칭되는 사용자의 식별 정보가 존재하면 검색된 사용자의 식별 정보에 대응하여 저장된 데이터 디렉토리를 로드할 수 있다.
일부 실시 예들에서, 서버(10)가 사용자 계정 관련 서비스를 별도로 제공하지 않는 경우, 상기한 과정은 수행되지 않을 수 있다.
혼합 현실 서비스의 구동 응답이 수신되면, 단말(20)은 트랙킹 정보를 실시간으로 수집할 수 있다(504). 다양한 실시 예에서, 단말(20)은 카메라부(22) 및/또는 센서부(23)를 통해 트랙킹 정보를 수집할 수 있다. 단말(20)에서 수집되는 트랙킹 정보는 지리적 위치 정보, 현실 공간에 대한 식별 정보, 3차원 회전 정보, 속도 정보 등을 포함할 수 있다.
일 예로, 단말(20)은 GPS 센서를 통하여 단말(20)의 현재 지리적 위치를 판단할 수 있다.
또한, 단말(20)은 카메라부(21)를 통하여 촬영되는 현실 공간에 대한 이미지를 분석하여 현실 공간의 형태, 깊이감 등을 식별할 수 있다. 공간 식별을 통해 단말(20)은 사용자의 전방에 위치한 현실 공간의 지면, 건축물 등의 형태, 크기, 위치 등을 판단할 수 있다.
또한, 일 예로, 단말(20)은 센서부(22)를 통해 단말(20)의 3차원 회전이나 기울임, 속도(이동)와 같은 움직임을 감지할 수 있다.
본 발명에서 단말(20)에 의해 수집되는 트랙킹 정보는 상술한 공간 식별 정보 및 움직임 정보에 한정되는 것은 아니며, 가상 이미지를 생성하기 위해 요구되는 다양한 정보들, 예를 들어 마커 인지 정보, 핸드 제스처 식별 정보 등을 포함할 수 있다.
단말(20)은 수집된 트랙킹 정보를 실시간으로 서버(10)에 전송할 수 있다(505).
서버(10)는 3차원 모델링 데이터를 로드한다(506). 본 발명의 다양한 실시 예에서, 3차원 모델링 데이터는 건축물에 대한 설계를 포함하는 3차원 모델링 데이터일 수 있다.
서버(10)는 단말(20)에서 사용자 입력 등을 통해 선택된 3차원 모델링 데이터를 로드할 수 있다. 또는 서버(10)는 수신된 트랙킹 정보로부터 단말(20)의 지리적 위치를 판단하고, 해당 위치에 대응하는 기저장된 3차원 모델링 데이터를 로드할 수 있다. 예를 들어, 단말(20)이 특정 지리적 위치의 건축 현장에 위치하고 있을 때, 서버(10)는 해당 건축 현장에 대응하여 설계된 건축물의 3차원 모델링 데이터를 로드할 수 있다.
이후에, 서버(10)는 수신된 트랙킹 정보를 기초로 로드된 3차원 모델링 데이터에 대한 가상 이미지를 생성할 수 있다(507).
서버(10)는 트랙킹 정보를 통해 식별된 현실 공간상에 3차원 모델링 데이터로 작성된 건축물이 설계 정보에 따라 실제 크기로 표시될 수 있도록 가상 이미지를 생성할 수 있다. 이때, 서버(10)는 지리적 위치 정보를 기초로, 해당 건축물이 설계된 위치에 표시될 수 있도록 가상 이미지를 배치할 수 있다. 단말(20)의 지리적 위치에 따라 가상 이미지는 건축물의 외관으로 구성되거나 건축물 내부의 일 영역으로 구성될 수 있다. 여기서 건축물 내부의 일 영역은 건축물의 외관 또는 내부 이미지로부터 트랙킹 정보, 예를 들어 3차원 회전 정보를 기초로 추출되는 단말(20)의 정면 표시 영역(표시 방향)에 대응될 수 있다.
단말(20)의 지리적 위치가 건축물의 내부 위치에 대응하는 경우에, 서버(10)는 건축물 내부 이미지의 일부로 가상 이미지를 생성할 수 있다. 건축물이 복수의 층으로 구성되는 경우, 서버(10)는 사용자 입력 등에 의해 선택된 임의의 층에 대하여 내부의 일 영역을 가상 이미지로 생성할 수 있다. 일 실시 예에서, 해당 건축물이 실제로 건축된 이후에 본 발명에 따른 혼합 현실 서비스가 제공되는 경우, 단말(20)의 사용자는 건축물의 특정 층에 실제로 위치할 수 있다. 이 경우, 서버(10)는 트랙킹 정보로부터 단말(20)의 높이 정보를 획득하고, 그에 대응되는 층의 내부의 일 영역을 가상 이미지로 생성할 수 있다.
서버(10)는 3차원 모델링 데이터에 대한 처리를 수행하기 위한 사용자 인터페이스를 가상 이미지로 생성할 수 있다. 이러한 사용자 인터페이스는 표시된 건축물의 임의의 객체(예를 들어, 벽, 천장, 바닥, 문, 창문, 조명 등)의 구조(위치), 형태, 치수, 재료, 재질, 색상, 무늬, 설비 등을 추가, 편집, 삭제하기 위한 사용자 인터페이스를 포함할 수 있다. 또한, 사용자 인터페이스는 표시된 건축물의 임의의 객체에 대해 메모의 삽입, 편집, 삭제를 위한 사용자 인터페이스를 포함할 수 있다. 또한, 사용자 인터페이스는 표시되는 건축물의 층을 선택하거나 특정 설비에 대한 표시(예를 들어, 전기 설비, 가스 설비, 수도 설비 등)를 제어하기 위한 사용자 인터페이스 등을 포함할 수 있다.
서버(10)는 사용자 인터페이스를 대응되는 객체 상에 배치하여 가상 이미지를 생성할 수 있다. 또는, 서버(10)는 사용자 인터페이스를 화면상의 특정 위치, 예를 들어, 상단부, 측부 또는 하단부 등에 배치하여 가상 이미지를 생성할 수 있다. 서버(10)는 트랙킹 정보 및/또는 대응되는 객체의 배치 상태 등을 기초로, 사용자 인터페이스를 회전시키거나 확대/축소시킴으로써 가상 이미지를 생성할 수 있다.
서버(10)는 생성된 가상 이미지를 단말(20)로 전송할 수 있다(508).
단말(20)은 수신된 가상 이미지를 카메라부(21)를 통하여 촬영되는 현실 이미지에 합성하여 혼합 현실 이미지를 생성할 수 있다(509). 이렇게 생성된 혼합 현실 이미지는 단말(20)이 위치한 현실 공간상에 3차원 모델링 데이터에 대응하는 건축물이 실제 크기로 배치된 이미지일 수 있다. 또한, 생성된 혼합 현실 이미지는 표시된 건축물의 임의의 객체에 대한 처리를 수행할 수 있는 적어도 하나의 사용자 인터페이스가 해당 객체에 대응하는 위치에 및/또는 화면상의 특정 영역에 배치된 이미지일 수 있다.
단말(20)은 생성된 혼합 현실 이미지를 표시부(24)를 통해 표시할 수 있다(510).
혼합 현실 이미지가 표시되는 동안, 단말(20)은 계속해서 트랙킹 정보를 실시간으로 수집하고, 이를 서버(10)로 전송한다. 또한, 서버(10)는 계속해서 수신되는 트랙킹 정보를 기초로 가상 이미지를 생성하고 이를 단말(20)로 전송한다. 단말(20)에서는 실시간 트랙킹 정보에 따라 변화하는 가상 이미지를 현실 이미지에 합성하여 혼합 현실 이미지를 사용자에게 표시할 수 있다.
이와 같이 표시되는 혼합 현실 이미지의 일 예가 도 7 및 도 8에 도시되어 있다.
도 7 및 도 8에서 3차원 모델링 이미지(701, 801)는 대응되는 건축 현장에 실제 크기로 전시된다. 단말(20)의 지리적 위치가 건축물 설계 위치의 외부인 경우, 도 7에 도시된 것처럼 사용자는 표시된 혼합 현실 이미지를 통하여 설계된 위치에 실제 크기의 건축물이 전시된 것처럼 느낄 수 있다. 반대로, 단말(20)의 지리적 위치가 건축물 설계 위치의 내부인 경우, 도 8에 도시된 것처럼 사용자는 3차원 모델링 데이터에 의해 건축된 건축물의 내부에 위치하고 있는 것처럼 느낄 수 있다.
본 발명에 따르면, 사용자는 건축물이 실제로 설계되기 이전에 건축 현장에서 건축물이 실제로 건설되었을 때의 형상을 간접적으로 현실감있게 체험할 수 있다. 일 실시 예에서, 3차원 모델링 데이터의 설계 내용에 따라 건축물을 실제로 건축한 이후에 본 발명에 따른 혼합 현실 서비스를 이용하는 경우, 사용자는 건축된 건축물을 혼합 현실로 표시된 3차원 모델링 데이터와 비교하여, 건축물이 설계된 모델링 데이터와 합치되게 건축되었는지 여부를 검수할 수 있다. 또한, 건축된 건축물을 혼합 현실로 표시된 3차원 모델링 데이터와 비교하여, 건축 이후에 건축물이 손상되거나 변경된 부분을 식별하여 그에 대한 유지/보수를 수행할 수 있다.
표시된 3차원 모델링 데이터 상에는 상술한 바와 같이 임의의 객체에 대해 이용 가능한 제어를 수행하기 위해 적어도 하나의 사용자 인터페이스(702, 802)가 표시될 수 있다. 본 발명에서는 이러한 사용자 인터페이스를 통하여 3차원 모델링 데이터에 대한 처리를 수행할 수 있도록 한다. 이에 대하여 도 6을 참조하여 설명한다.
도 6은 본 발명에 따른 혼합 현실 서비스 제공 방법에 있어서 3차원 모델링 데이터에 대한 처리를 수행하는 방법을 나타낸 흐름도이다.
도 6을 참조하면, 혼합 현실 이미지가 표시되는 동안, 단말(20)은 카메라부(21), 센서부(22) 및/또는 입력부(23)를 통하여 입력되는 사용자 입력을 감지할 수 있다(601).
사용자 입력은 3차원 모델링 데이터 내의 설계 정보에 대한 처리로써, 임의의 객체에 대한 구조, 형태, 치수, 재료, 재질, 색상, 무늬, 설비의 편집을 위한 정보를 포함할 수 있다.
사용자 입력은 표시된 사용자 인터페이스를 통하여 수신될 수 있다. 본 발명의 다양한 실시 예에서, 단말(20)은 적외선 카메라를 통하여 사용자의 핸드 제스처 식별을 통해 사용자 입력을 감지할 수 있다. 일 예로, 특정 위치를 손가락으로 포인팅하는 핸드 제스처가 식별되는 경우, 단말(20)은 손가락이 포인팅한 위치에 표시된 사용자 인터페이스를 실행하기 위한 사용자 입력을 감지할 수 있다. 또는, 일 예로, 모든 손가락을 오므렸다 펴는 핸드 제스처가 식별되는 경우, 단말(20)은 그에 대응하는 메뉴 또는 목록 등을 표시하기 위한 사용자 입력을 감지할 수 있다. 또는, 일 예로, 단말(20)은 사용자 손가락의 개수를 식별하여, 그에 대응하는 층에서의 혼합 현실 이미지를 표시하기 위한 사용자 입력을 감지할 수 있다. 본 발명에서 사용자의 핸드 제스처에 대응하는 사용자 입력은 그 종류나 형태를 특별히 제한하지 않는다.
단말(20)은 사용자 입력에 대응하여 3차원 모델링 데이터에 대한 처리 요청을 서버(10)로 전송할 수 있다(602).
서버(10)는 3차원 모델링 데이터에 대한 처리 요청에 응답하여, 3차원 모델링 데이터를 처리할 수 있다(603). 서버(10)는 3차원 모델링 데이터 내의 처리 요청에 의해 선택된 객체에 대하여, 처리 요청에 대응하여 크기를 변경하거나, 배치를 변경하거나, 색상, 재질, 무늬 등을 변경할 수 있다.
서버(10)는 처리된 3차원 모델링 데이터를 저장하거나, 처리되기 이전의 3차원 모델링 데이터를 백업용으로 저장하는 등 3차원 모델링 데이터에 대한 관리 및 저장 동작을 수행할 수도 있다.
이후에, 서버(10)는 편집된 3차원 모델링 데이터를 기초로 가상 이미지를 생성하여(604), 단말(20)로 전송할 수 있다(605). 단말(20)은 서버(10)로부터 전송된 가상 이미지를 기초로 혼합 현실 이미지를 생성(607)하고 이를 표시함으로써(608), 3차원 모델링 데이터에 대응하는 건축물 내의 객체들에 대한 다양한 형태를 가상으로 체험할 수 있다.
다양한 실시 예에서, 단말(20)은 혼합 현실 이미지로 표시된 3차원 모델링 데이터를 서버(10)에 저장함으로써, 다른 단말에서 3차원 모델링의 처리 현황을 확인하게 할 수 있다. 또는 단말(20)은 혼합 현실 회의 등을 통해 3차원 모델링 데이터를 다른 단말과 실시간으로 공유할 수 있다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
1: 혼합 현실 서비스 제공 시스템
10: 서버 11: 통신부
12: 제어부 121: 혼합 현실 서비스 제공부
122: 가상 이미지 생성부 13: 저장부
20: 단말 21: 카메라부
22: 센서부 23: 입력부
24: 표시부 25: 출력부
26: 통신부 27: 제어부
271: 혼합 현실 서비스 제공부 272: 혼합 현실 생성부
28: 저장부 29: 프레임
30: 헤드 마운트 디스플레이

Claims (10)

  1. 서버의 혼합 현실 서비스를 제공하기 위한 방법으로,
    임의의 건축물에 대한 설계 정보를 포함하는 3차원 모델링 데이터를 로드하는 단계;
    단말로부터 전송되는 트랙킹 정보를 기초로, 상기 3차원 모델링 데이터 및 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 생성하는 단계; 및
    상기 가상 이미지를 상기 단말로 전송하는 단계를 포함하되,
    상기 트랙킹 정보는,
    상기 단말의 지리적 위치 정보, 상기 단말이 위치한 현실 공간에 대한 식별 정보, 3차원 회전 정보 및 속도 정보 중 적어도 하나를 포함하고,
    상기 가상 이미지는,
    상기 건축물이 상기 설계 정보에 따라 실제 크기로 표시될 수 있도록 생성되며, 상기 적어도 하나의 단말에서 현실 이미지와 합성되어 혼합 현실 이미지로 표시되며,
    상기 가상 이미지는,
    상기 단말의 지리적 위치가 상기 실제 크기로 표시되는 상기 건축물의 내부 위치에 대응하는 경우 상기 건축물의 내부 이미지를 이용하여 생성되고 상기 건축물의 외부 위치에 대응하는 경우 상기 건축물의 외관 이미지를 이용하여 생성되며,
    상기 가상 이미지를 생성하는 단계는,
    상기 건축물이 복수의 층으로 구성되는 경우, 상기 단말로부터 수신되는 입력 또는 트랙킹 정보에 의해 선택된 임의의 층에 대하여 상기 내부 이미지를 획득하는 단계; 및
    상기 획득된 내부 이미지를 기초로 상기 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 상기 가상 이미지를 생성하는 단계는,
    상기 단말의 지리적 위치 정보에 따라, 상기 건축물의 외관 또는 내부 이미지를 획득하는 단계;
    상기 단말의 트랙킹 정보에 따라, 상기 획득된 이미지 내에서 상기 단말의 정면 표시 영역에 대응되는 일 영역을 추출하는 단계; 및
    상기 추출된 일 영역으로부터 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서, 상기 적어도 하나의 사용자 인터페이스는,
    상기 건축물에 대한 설계 정보의 추가, 편집, 삭제, 메모 관리 중 적어도 하나를 위한 사용자 인터페이스를 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서, 상기 가상 이미지를 생성하는 단계는,
    상기 건축물 내의 적어도 하나의 객체 상에 상기 적어도 하나의 객체를 위한 사용자 인터페이스를 배치하여 상기 가상 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 적어도 하나의 사용자 인터페이스를 통하여 상기 3차원 모델링 데이터에 대한 처리 요청을 수신하는 단계;
    상기 처리 요청에 대응하여 상기 3차원 모델링 데이터를 편집하는 단계;
    상기 편집된 3차원 모델링 데이터를 기초로 상기 가상 이미지를 재생성하는 단계; 및
    상기 재생성된 가상 이미지를 상기 단말로 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  6. 제1항에 있어서, 상기 가상 이미지를 상기 단말로 전송한 이후에,
    상기 단말로부터 변경된 트랙킹 정보를 수신하는 단계;
    상기 변경된 트랙킹 정보를 기초로 상기 3차원 모델링 데이터 및 상기 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 재생성하는 단계; 및
    상기 재생성된 가상 이미지를 상기 단말로 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  7. 혼합 현실 서비스를 제공하는 시스템으로,
    혼합 현실 서비스를 이용하는 동안 트랙킹 정보를 수집하여 전송하는 단말; 및
    임의의 건축물에 대한 설계 정보를 포함하는 3차원 모델링 데이터를 로드하고, 상기 단말로부터 전송되는 상기 트랙킹 정보를 기초로, 상기 3차원 모델링 데이터 및 적어도 하나의 사용자 인터페이스에 대한 가상 이미지를 생성하여 상기 단말로 전송하는 서버를 포함하되,
    상기 트랙킹 정보는,
    상기 단말의 지리적 위치 정보, 상기 단말이 위치한 현실 공간에 대한 식별 정보, 3차원 회전 정보 및 속도 정보 중 적어도 하나를 포함하고,
    상기 가상 이미지는,
    상기 건축물이 상기 설계 정보에 따라 실제 크기로 표시될 수 있도록 생성되며, 상기 적어도 하나의 단말에서 현실 이미지와 합성되어 혼합 현실 이미지로 표시되며,
    상기 가상 이미지는,
    상기 단말의 지리적 위치가 상기 실제 크기로 표시되는 상기 건축물의 내부 위치에 대응하는 경우 상기 건축물의 내부 이미지를 이용하여 생성되고 상기 건축물의 외부 위치에 대응하는 경우 상기 건축물의 외관 이미지를 이용하여 생성되며,
    상기 서버는,
    상기 건축물이 복수의 층으로 구성되는 경우, 상기 단말로부터 수신되는 입력 또는 트랙킹 정보에 의해 선택된 임의의 층에 대하여 상기 내부 이미지를 획득하고, 상기 획득된 내부 이미지를 기초로 상기 가상 이미지를 생성하는 것을 특징으로 하는 시스템.
  8. 제7항에 있어서, 상기 서버는,
    상기 단말의 지리적 위치 정보에 따라, 상기 건축물의 외관 또는 내부 이미지를 획득하고, 상기 단말의 트랙킹 정보에 따라, 상기 획득된 이미지 내에서 상기 단말의 정면 표시 영역에 대응되는 일 영역을 추출하여 상기 가상 이미지를 생성하는 것을 특징으로 하는 시스템.
  9. 제7항에 있어서, 상기 적어도 하나의 사용자 인터페이스는,
    상기 건축물에 대한 설계 정보의 추가, 편집, 삭제, 메모 관리 중 적어도 하나를 위한 사용자 인터페이스를 포함하는 것을 특징으로 하는 시스템.
  10. 제9항에 있어서, 상기 단말은,
    상기 적어도 하나의 사용자 인터페이스를 통하여 수신되는 사용자 입력을 기초로, 상기 3차원 모델링 데이터에 대한 처리 요청을 상기 서버로 전송하고,
    상기 서버는,
    상기 처리 요청에 대응하여 상기 3차원 모델링 데이터를 편집하고, 상기 편집된 3차원 모델링 데이터를 기초로 상기 가상 이미지를 재생성하여 상기 단말로 전송하는 것을 특징으로 하는 시스템.
KR1020180096262A 2017-12-19 2018-08-17 혼합 현실 서비스 제공 방법 및 시스템 KR102010030B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180096262A KR102010030B1 (ko) 2018-08-17 2018-08-17 혼합 현실 서비스 제공 방법 및 시스템
CN201880082551.3A CN111492396A (zh) 2017-12-19 2018-12-03 混合现实服务提供方法及***
US16/956,392 US11030359B2 (en) 2017-12-19 2018-12-03 Method and system for providing mixed reality service
PCT/KR2018/015197 WO2019124818A1 (ko) 2017-12-19 2018-12-03 혼합 현실 서비스 제공 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180096262A KR102010030B1 (ko) 2018-08-17 2018-08-17 혼합 현실 서비스 제공 방법 및 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170175376 Division 2017-12-19 2017-12-19

Publications (2)

Publication Number Publication Date
KR20190074936A true KR20190074936A (ko) 2019-06-28
KR102010030B1 KR102010030B1 (ko) 2019-08-12

Family

ID=67068728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180096262A KR102010030B1 (ko) 2017-12-19 2018-08-17 혼합 현실 서비스 제공 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102010030B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102191539B1 (ko) * 2019-10-29 2020-12-15 박정기 도시재생 기반의 정비 시스템 및 그 방법
CN112130666A (zh) * 2020-09-16 2020-12-25 博彦科技(上海)有限公司 数据处理方法及***
KR102248080B1 (ko) * 2019-12-27 2021-05-04 농업회사법인 한국도시농업 주식회사 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
KR102336069B1 (ko) * 2020-10-29 2021-12-08 주식회사 에이디 건축 설계 협업을 위한 장치 및 방법
KR20230057148A (ko) * 2021-10-21 2023-04-28 스케일아키텍쳐앤테크놀로지 주식회사 사용자 맞춤형 메타버스 건축 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107542A (ko) * 2010-03-25 2011-10-04 에스케이텔레콤 주식회사 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법
KR20150058617A (ko) * 2013-11-18 2015-05-29 순천대학교 산학협력단 모바일 증강현실 기반의 설계도면 3차원 모델 시각화 시스템 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107542A (ko) * 2010-03-25 2011-10-04 에스케이텔레콤 주식회사 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법
KR20150058617A (ko) * 2013-11-18 2015-05-29 순천대학교 산학협력단 모바일 증강현실 기반의 설계도면 3차원 모델 시각화 시스템 및 그 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102191539B1 (ko) * 2019-10-29 2020-12-15 박정기 도시재생 기반의 정비 시스템 및 그 방법
KR102248080B1 (ko) * 2019-12-27 2021-05-04 농업회사법인 한국도시농업 주식회사 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
CN112130666A (zh) * 2020-09-16 2020-12-25 博彦科技(上海)有限公司 数据处理方法及***
KR102336069B1 (ko) * 2020-10-29 2021-12-08 주식회사 에이디 건축 설계 협업을 위한 장치 및 방법
KR20230057148A (ko) * 2021-10-21 2023-04-28 스케일아키텍쳐앤테크놀로지 주식회사 사용자 맞춤형 메타버스 건축 방법

Also Published As

Publication number Publication date
KR102010030B1 (ko) 2019-08-12

Similar Documents

Publication Publication Date Title
KR101918262B1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
US20220044019A1 (en) Augmented reality smartglasses for use at cultural sites
KR20190074936A (ko) 혼합 현실 서비스 제공 방법 및 시스템
US20210272372A1 (en) Augmented and virtual reality
US11087551B2 (en) Systems and methods for attaching synchronized information between physical and virtual environments
KR20130110907A (ko) 가상 현실과 증강 현실을 이용한 원격 제어 장치 및 방법
KR20170041905A (ko) 원격 전문가 시스템
US12020667B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
US11030359B2 (en) Method and system for providing mixed reality service
WO2020048441A1 (zh) 通信连接方法、终端设备及无线通信***
JP2021044804A (ja) 映像通話をしながら使用する360度パノラマ背景提供方法および装置
CN108028910A (zh) 信息处理设备、信息处理方法与程序
KR101286866B1 (ko) Ar 태그 정보를 생성하는 사용자 단말기 및 그 방법, 그리고, 시스템
CN110770798A (zh) 信息处理装置、信息处理方法及程序
US20230135750A1 (en) Device and method for providing augmented reality interaction
KR102010023B1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
KR102248080B1 (ko) 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
CN111695424A (zh) 基于三维实景的犯罪现场还原方法、***和存储介质
CN111311759A (zh) 移动增强现实视频编辑***
JP6839771B2 (ja) 補正パターン分析による映像補正方法およびシステム
JP7508271B2 (ja) 画像特定システムおよび画像特定方法
CN116233513A (zh) 虚拟现实直播间虚拟礼物特效播放处理方法、装置和设备
JP2022075084A (ja) 情報管理装置、及び情報抽出方法
CN113769397A (zh) 虚拟物体的设置方法、装置、设备、介质及程序产品

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant