KR20220058306A - 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법 - Google Patents

몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법 Download PDF

Info

Publication number
KR20220058306A
KR20220058306A KR1020200143917A KR20200143917A KR20220058306A KR 20220058306 A KR20220058306 A KR 20220058306A KR 1020200143917 A KR1020200143917 A KR 1020200143917A KR 20200143917 A KR20200143917 A KR 20200143917A KR 20220058306 A KR20220058306 A KR 20220058306A
Authority
KR
South Korea
Prior art keywords
touch
tracker
content
information
user
Prior art date
Application number
KR1020200143917A
Other languages
English (en)
Other versions
KR102523091B1 (ko
Inventor
최대길
Original Assignee
주식회사 유캔스타
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유캔스타 filed Critical 주식회사 유캔스타
Priority to KR1020200143917A priority Critical patent/KR102523091B1/ko
Publication of KR20220058306A publication Critical patent/KR20220058306A/ko
Application granted granted Critical
Publication of KR102523091B1 publication Critical patent/KR102523091B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Human Resources & Organizations (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법에 관한 것으로, 보다 구체적으로 사용자가 착용 가능하도록 구비되는 트래커, 상기 트래커를 인식하고, 사용자의 위치정보 및 동작정보를 생성하는 모션베이스, 몰입형 VR 체험공간 내 벽체 상부에 배치되고, 상기 벽체로 컨텐츠를 투영시키는 프로젝터, 상기 프로젝터와 인접하게 설치되고, 상기 벽체를 일정 크기로 촬영하는 카메라, 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부 및 기 저장된 상기 컨텐츠를 상기 프로젝터에 전송하고, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 상기 컨텐츠에 반영하는 컨텐츠 제공부를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법에 관한 것이다.

Description

몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법 {System and Method for Providing Location-based Content using Motion Base and Tracker in Immersive VR Experience Space}
본 발명은 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법에 관한 것으로, 보다 구체적으로 3면 빔 프로젝트를 이용한 몰입형 VR 체험공간에서 트래커를 착용한 사용자의 동작과 위치를 인식하여 컨텐츠에 반영하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법에 관한 것이다.
컴퓨팅 환경이 향상되고, 다양한 단말 장치들의 전기적 연결이 가능해지면서, 사용자 친화적인 입출력 장치들에 대한 연구들이 증가하고 있다. 예를 들면, 통상적인 컴퓨터 모니터, TV 스크린과 달리, 최근에는 사용자의 손목, 안경 등에 착용되어 데이터를 표시하는 갤럭시 기어, 애플 워치, 구글 글래스 등과 같은 입출력 장치들이 개발되었다. 또한, 종래의 대표적인 입력 장치인 키보드, 마우스와 다르게, 표시 화면을 손가락으로 터치하여 직감적인 입력을 제공하는 터치스크린도 널리 보급되고 있다.
이러한 추세에서, 닌텐도 위(Wii), 마이크로소프트의 Xbox 키넥트(Kinect) 등과 같이 사용자의 신체 움직임에 기초하여 입력을 제공받는 입력 장치들이 개발 및 보급되고 있다. 이러한 입력 장치들은 사용자의 움직임을 감지하는 모션 트래커(motion tracker)를 포함할 수 있다.
다만, 종래에는 이러한 입력 장치들과 2차원 스크린과의 결합으로 구비되거나 헤드마운트 디스플레이를 착용하여 VR 컨텐츠를 볼 수 있도록 구비되어, 사용자가 컨텐츠에 온전히 집중하는데 어려움이 있다.
또한, 최근 기억력 및 인지 기능이 연령, 교육 수준에 비해 유의하게 저하된 상태이나 생활에 지장을 초래하지 않는 치매 전 임상단계인 경도 인지 장애 발병률이 급증하고 있다. 통계적으로 국내의 경우 여성이 남성에 비해 2.2배 정도 높으며, 65세 이상의 고령자의 28% 정도가 경도 인지 장애를 가지고 있는 것으로 확인되고 있다.
이러한 경도 인지 장애를 치료하지 않으면 치매로의 전환이 빨라질 수 있으므로, 치매 방지와 노후 삶의 질 향상을 위해 경도 인지 장애를 꾸준히 치료할 수 있는 몰입형 훈련 시스템 및 프로그램이 필요하다.
관련문헌 1은 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치에 관한 것으로, 다수의 손가락을 이용한 모션 캡쳐 인터페이스를 이용해 가상현실 또는 증강현실에서 보다 정확하게 가상의 객체와 상호작용을 할 수 있으나, 디스플레이와의 결합으로 모션 캡쳐가 반영된 컨텐츠를 제공하는 것은 포함하고 있지 않으므로, 2차원 스크린과의 결합으로 구비되거나 헤드마운트 디스플레이를 착용하여 VR 컨텐츠를 볼 수 있도록 구비된다면 사용자가 컨텐츠에 온전히 집중하는데 어려움이 있다.
관련문헌 2는 터치입력을 이용한 인지장애 진단 시스템 및 방법에 관한 것으로, 보다 구체적으로 사용자의 단말기에 인가된 터치입력을 기초로 사용자의 인지장애여부를 판단하고 해당 사용자에게 적합한 치료 프로그램을 제공하기 위한 인지장애 시스템 및 방법에 관한 것이다.
상기 관련문헌 2는 사용자의 단말기 디스플레이부에 화상을 표시하고 인가된 입력 패턴을 이용하여 인지장애여부를 판단하지만, 작은 단말기를 이용하여 손가락의 패턴만으로 인지장애여부를 판단함으로 매우 제한적인 정보를 활용하여 결과를 제공하고 있으며, 전신을 움직이는 활동을 유도하여 이에 맞는 몰입형 훈련 프로그램을 제공할 수 없다는 단점이 있다.
KR 10-2020-0061861 KR 10-2020-0005987
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로 사용자가 온전히 컨텐츠에 몰입할 수 있도록 몰입형 VR 체험공간 내 벽체에 컨텐츠가 모두 투영시키는 프로젝터, 벽체를 일정 크기로 촬영하는 카메라, 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법을 얻고자 하는 것을 목적으로 한다.
본 발명의 목적은 사용자가 전신을 움직이는 활동을 유도하여 경도 인지 장애를 판단 및 예방할 수 있도록 사용자의 트래커를 인식하고 위치정보 및 동작정보를 생성하는 모션베이스, 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부 및 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 컨텐츠에 반영하는 컨텐츠 제공부를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법을 제공하는 것이다.
상기 목적을 달성하기 위하여, 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템은 사용자가 착용 가능하도록 구비되는 트래커; 상기 트래커를 인식하고, 사용자의 위치정보 및 동작정보를 생성하는 모션베이스; 몰입형 VR 체험공간 내 벽체 상부에 배치되고, 상기 벽체로 컨텐츠를 투영시키는 프로젝터; 상기 프로젝터와 인접하게 설치되고, 상기 벽체를 일정 크기로 촬영하는 카메라; 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부; 및 기 저장된 상기 컨텐츠를 상기 프로젝터에 전송하고, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 상기 컨텐츠에 반영하는 컨텐츠 제공부;를 제공한다.
상기 목적을 달성하기 위하여, 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법은 프로젝터에 의하여, 컨텐츠 제공부로부터 전송된 컨텐츠가 몰입형 VR 체험공간 내 벽체에 투영되는 컨텐츠 투영단계; 터치 인식부에 의하여, 카메라로부터 촬영된 상기 벽체에 사용자로부터 입력된 터치가 인식되고, 터치정보가 생성되는 터치 인식단계; 모션베이스에 의하여, 사용자로부터 착용된 트래커가 인식되고, 사용자의 위치정보 및 동작정보가 생성되는 트래커 인식단계; 및 상기 컨텐츠 제공부에 의하여, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나가 상기 컨텐츠에 반영되는 정보 반영단계; 를 제공한다.
이상과 같이 본 발명에 의하면 몰입형 VR 체험공간 내 벽체에 컨텐츠가 모두 투영시키는 프로젝터, 벽체를 일정 크기로 촬영하는 카메라, 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부를 구비함으로써, 사용자가 외부환경에 영향을 받지 않고 온전히 컨텐츠에 몰입할 수 있는 효과가 있다.
본 발명은 사용자의 트래커를 인식하고 위치정보 및 동작정보를 생성하는 모션베이스, 상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부 및 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 컨텐츠에 반영하는 컨텐츠 제공부를 구비함으로써, 사용자가 전신을 움직이는 활동을 유도하여 경도 인지 장애를 판단 및 예방할 수 있는 효과가 있다.
도 1은 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 구성도이다.
도 2는 본 발명의 일 실시예에 따른 공간 내 프로젝터 및 카메라의 설치도면이다.
도 3은 본 발명의 일 실시예에 따른 가상맵 생성부로부터 생성된 가상맵을 표시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 좌표위치 생성부와 터치좌표 설정부로부터 설정된 좌표위치 및 터치좌표를 표시한 도면이다
도 5는 본 발명의 일 실시예에 따른 터치좌표 설정부로부터 자동 설정된 좌표를 표시한 도면이다.
도 6은 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법 흐름도이다.
본 명세서에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템
이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 1은 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 구성도이다. 도 2는 본 발명의 일 실시예에 따른 공간 내 프로젝터(300a, 300b, 300c) 및 카메라(400a, 400b, 400c)의 설치도면이다.
도 1을 보면, 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템은 트래커(100), 모션베이스(200), 프로젝터(300a, 300b, 300c), 카메라(400a, 400b, 400c), 터치 인식부(500) 및 컨텐츠 제공부(600)를 포함한다.
보다 구체적으로, 상기 트래커(100)는 사용자가 착용 가능하도록 구비된다. 즉, 상기 트래커(100)는 시계, 안경, 조이스틱 등 다양한 형태로 구비될 수 있고, 상기 언급한 것에 한정되지 않는다.
가장 바람직하게, 상기 트래커(100)는 VIVE 트래커이다. 일반적으로 VIVE 트래커는 신체 일부나 현실에 있는 소품에 부착하여 그 모션을 추적해 VR 콘텐츠 내에 구현할 수 있도록 하여 실감나고 몰입도 높은 VR 컨텐츠를 즐길 수 있도록 하는 것이다. 예컨대, 특수 제작한 장갑에 VIVE 트래커를 부착하면 손가락의 움직임을 반영하여 손을 사용하는 세밀한 콘텐츠를 체험할 수 있도록 하고, 총기류에 부착하면 실제 총을 조준하고 발사하면서 실감나는 슈팅게임을 체험할 수 있도록 한다.
다음으로, 상기 모션베이스(200)는 상기 트래커(100)를 인식하여 사용자의 위치정보 및 동작정보를 생성한다.
상기 모션베이스(200)는 상기 트래커(100)가 위치할 수 있는 영역을 감지할 수 있도록 설치 또는 배치되고, 상기 트래커(100)가 움직이면 이를 인식하여 위치정보 및 동작정보를 생성한다. 이때, 상기 트래커(100)는 사용자가 착용 가능하도록 구비되므로, 상기 트래커(100)의 위치와 사용자의 위치를 동일시 할 수 있다.
여기서, 사용자는 트래커(100)를 착용하고 몰입형 VR 체험공간 안으로 들어갈 수 있다. 상기 몰입형 VR 체험공간은 벽체로 둘러싸여 있고, 상기 벽체는 사용자를 기준으로 전면, 양 측면, 하부면 및 상부면을 포함할 수 있다. 그리고 사용자는 상기 공간에 입장하면 하부면에 표시된 특정 위치에 위치할 수 있다.
즉, 상기 위치정보는 상기 특정 위치로부터 상기 트래커(100)의 변위를 측정한 수치를 포함할 수 있다. 그리고 상기 동작정보는 사용자가 상기 컨텐츠에 따라 특정 동작을 하면 상기 트래커(100)도 함께 동작하므로, 상기 트래커(100)의 특정 동작 또는 변경된 방향을 측정한 수치를 포함할 수 있다.
다음으로, 도 2를 보면, 상기 프로젝터(300a, 300b, 300c)는 몰입형 VR 체험공간 내 벽체 상부에 배치되고, 상기 벽체로 컨텐츠를 투영시킨다. 가장 바람직하게 상기 프로젝터(300a, 300b, 300c)는 상기 몰입형 VR 체험공간에서 전면, 양 측면에 상기 컨텐츠를 투영시킬 수 있도록 다수 개가 구비될 수 있고 전면(C), 양 측면(A, B) 상부에 각각 배치될 수 있다.
또한, 상기 프로젝터(300a, 300b, 300c)는 광원에서 방출되는 빛을 이용하여 영상을 투영할 수 있고, 가장 바람직하게 매우 가까운 근거리에서 대화면을 만들어주는 렌즈가 장착된 초단초점 프로젝터일 수 있다. 초단초점 프로젝터를 권장하는 이유는 일반적으로 프로젝터와 스크린 사이의 일정거리로 인해 그림자가 화면에 발생되는 문제점을 해결하고, 공간의 활용성을 높이기 위함이다.
또한, 상기 프로젝터(300a, 300b, 300c)는 각 프로젝터 당 상이한 컨텐츠를 투영할 수 있는 일반모드와, 하나의 컨텐츠를 연결하여 투영할 수 있도록 화면 확장모드를 포함할 수 있다.
그리고 상기 벽체는 상기 프로젝터(300a, 300b, 300c)로부터 투영된 상기 컨텐츠를 반사한다. 이에 따라, 사용자가 상기 컨텐츠를 시각적으로 확인할 수 있도록 한다.
다음으로, 상기 카메라(400a, 400b, 400c)는 상기 프로젝터(300a, 300b, 300c)와 인접하게 설치되고, 상기 벽체를 일정 크기로 촬영한다. 가장 바람직하게, 상기 카메라(400a, 400b, 400c)는 사물이나 사람을 입체로 인식하는 뎁스(depth) 카메라, ToF 카메라, 리얼센스 등일 수 있다.
그리고 상기 카메라(400a, 400b, 400c)는 상기 프로젝터(300a, 300b, 300c)와 같은 방향을 바라보도록 설치될 수 있고 상기 프로젝터(300a, 300b, 300c)와 동일한 개수로 구비될 수 있는데, 이는 상기 컨텐츠가 표시되는 모든 벽체에서 터치가 가능하도록 하기 위함이다.
이에 따라, 상기 프로젝터(300a, 300b, 300c)는 상기 컨텐츠를 투영하고, 상기 카메라(400a, 400b, 400c)는 사용자에 의해서 상기 컨텐츠에 따라 입력된 터치여부 및 터치위치를 촬영할 수 있다.
다음으로, 상기 터치 인식부(500)는 상기 카메라(400a, 400b, 400c)로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성한다.
즉, 상기 터치 인식부(500)는 상기 카메라(400a, 400b, 400c)에 의하여 촬영된 일정 크기의 상기 벽체에 사용자의 터치여부 및 터피위치를 파악하여 터치정보를 생성할 수 있다.
이때, 상기 터치 인식부(500)는 터치여부 및 터치위치를 정확하게 파악할 수 있도록 카메라변수 입력부(510), 가상맵 생성부(520), 좌표위치 생성부(530) 및 터치좌표 설정부(540)을 포함할 수 있다.
상기 카메라변수 입력부(510)는 상기 카메라(400a, 400b, 400c)에 대한 변수를 입력받을 수 있다.
상기 카메라변수는 연결된 상기 카메라의 총 개수(CameraIndex), 연결된 상기 카메라의 행의 개수(CameraGridWidth), 연결된 상기 카메라의 열의 개수(cameraGridHeight), 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth), 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight), 상기 카메라 화면의 가로길이(screenWidth), 상기 카메라 화면의 세로길이(screenHeight), 상기 카메라 화면의 해상도(ofGetWidth, ofGetHeight) 중 적어도 하나를 포함할 수 있다.
다음으로, 상기 가상맵 생성부(520)는 상기 카메라변수에 따른 가상맵을 생성할 수 있다. 상기 가상맵은 상기 카메라(400a, 400b, 400c)가 촬영하고 있는 2D화면을 상기 카메라(400a, 400b, 400c)의 개수만큼 확장한 가상 화면이다.
즉, 가상맵 생성부(520)는 상기 카메라 화면의 해상도의 가로길이(ofGetWidth)와 연결된 상기 카메라의 열의 개수(cameraGridHeight)를 곱한 값이 상기 가상맵의 가로길이로 설정되고, 상기 카메라 화면의 해상도의 세로길이(cameraGridHeight)와 상기 카메라의 행의 개수(calibrationGridWidth)를 곱한 값이 상기 가상맵의 세로길이로 설정되는 것을 특징으로 한다.
도 3은 본 발명의 일 실시예에 따른 가상맵 생성부(520)로부터 생성된 가상맵을 표시한 도면이다.
도 3을 보면, 상기 카메라가 3대가 일렬로 설치되어 있을 경우 상기 카메라 3대의 화면이 하나의 화면으로 인식되어 움직일 수 있도록 하나의 가상맵을 생성할 수 있다. 만약, 1대의 카메라 화면의 해상도가 1920×1080이면, 일렬로 설치된 카메라의 개수 3을 곱한 5760×1080의 크기로 상기 가상맵이 생성될 수 있다.
또한, 만약 1대의 카메라 화면의 해상도가 1920×1080이고 연결된 카메라가 행방향으로 2대, 열방향으로 3대가 설치된다면, 상기 가상맵의 가로길이는 상기 카메라 화면의 해상도의 가로길이(ofGetWidth)인 1920과 연결된 상기 카메라의 열의 개수(cameraGridHeight)인 3을 곱한 5760이 된다. 그리고 상기 가상맵의 세로길이는 상기 카메라 화면의 해상도의 세로길이(cameraGridHeight)인 1080과 상기 카메라의 행의 개수(calibrationGridWidth)인 2를 곱한 2160이 된다. 즉, 가상맵 생성부(520)로부터 5760×2160 크기의 가상맵이 생성될 수 있다.
다음으로, 상기 좌표위치 생성부(530)는 상기 가상맵 내에 좌표위치를 생성할 수 있다. 즉, 상기 좌표위치 생성부(530)는 상기 카메라변수에 포함된 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth), 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight), 상기 카메라 화면의 해상도(ofGetWidth, ofGetHeight)를 이용하여 상기 가상맵 내에 좌표위치를 생성할 수 있다.
다음으로, 상기 터치좌표 설정부(540)는 상기 좌표위치에 터치좌표를 설정할 수 있다. 즉, 상기 좌표위치 생성부(530)로부터 생성된 좌표위치는 임시적으로 좌표를 표시해 놓을 것이다. 따라서 상기 터치좌표 설정부(540)는 터치가 입력되었을 때 해당위치를 파악하기 위해서 터치좌표를 최종적으로 설정해주는 것이다.
도 4는 본 발명의 일 실시예에 따른 좌표위치 생성부(530)와 터치좌표 설정부(540)로부터 설정된 좌표위치 및 터치좌표를 표시한 도면이다
도 4를 보면, 도 4의 (a)와 같이, 1대의 카메라 화면의 해상도가 1920×1080이고, 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth)가 3개, 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight)가 3개로 입력될 수 있다.
이때, 카메라 화면의 행에는 x좌표로 0, 640, 1280, 1290 값을 갖는 좌표가 생성되고 카메라 화면의 열에는 y좌표로 0. 360, 720, 1080 값을 갖는 좌표가 생성될 수 있다.
즉, 도 4의 (a)와 같이, 상기 x좌표 4개와 y좌표 4개를 행렬로 표시되고, 카메라 1개의 화면에는 16개의 좌표위치가 생성될 수 있다.
그리고 도 4의 (a)는 카메라 3대를 나열하여 가상맵을 생성하였으므로, 카메라 3대의 화면에 각각 상기 x좌표 4개와 y좌표 4개를 행렬로 표시하면 총 48개의 좌표위치가 생성될 수 있다.
또한, 도 4의 (b)와 같이, 상기 터치좌표 설정부(540)는 상기 좌표위치 생성부(530)로부터 생성된 48개의 좌표위치에 최종적으로가 터치좌표가 설정되도록 할 수 있다.
우선, 상기 터치좌표 설정부(540)는 카메라 1대의 화면에 대해 상기 좌표위치 생성부(530)로부터 생성된 16개의 좌표위치를 불러올 수 있다. 그리고 순서대로 붉은색 원을 표시할 수 있다.
그리고 사용자에 의해서 터치가 입력되면 붉은색 원이 파란색으로 채워지도록 하고, 터치가 완전히 인식되어 터치좌표가 설정되면 흰색으로 표시된다. 즉, 흰색으로 표시된 좌표가 최종적으로 설정된 터치좌표일 수 있다.
상기 터치좌표 설정부(540)는 상기 카메라(400a, 400b, 400c)가 상기 프로젝터(300a, 300b, 300c)로부터 투영되는 컨텐츠보다 넓은 범위를 찍거나, 화각에 의해서 정확한 사각형으로 비추어지지 않는 경우를 대비한 것으로, 상기 터치좌표 설정부(540)는 상기 좌표위치 생성부(530)로부터 생성된 좌표위치에 터치좌표를 설정함으로써 왜곡이 보정될 수 있다.
다시 말하면, 상기 터치 인식부(500)는 상기 터치좌표 중 적어도 하나에 터치가 입력되면 상기 가상맵에서 터치좌표의 위치를 포함하는 상기 터치정보를 생성할 수 있다.
다음으로, 상기 컨텐츠 제공부(600)는 기 저장된 상기 컨텐츠를 상기 프로젝터에 전송하고, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 상기 컨텐츠에 반영한다.
가장 바람직하게, 상기 컨텐츠는 사용자의 경도 인지 장애를 예방할 수 있는 훈련영상인 것을 특징으로 한다. 상기 훈련영상은 경도 인지 장애가 있는 사용자를 대상으로 하며, 자신이 놓인 상황을 시간적, 공간적으로 바르게 파악하여 이것과 관계되는 주위 사람이나 대상을 인지할 수 있는 지남력, 계산력, 기억력, 언어능력 및 소근육운동 중 적어도 하나를 훈련할 수 있도록 하는 영상일 수 있다.
즉, 상기 컨텐츠는 사용자가 상기 몰입형 VR 체험공간에서 다양하게 움직임 및 선택을 요구하게 되고, 사용자는 상기 컨텐츠에 따라 상기 트래커(100)를 움직이거나, 상기 벽체를 터치할 수 있다. 그러면, 상기 모션베이스(200)는 사용자와 함께 움직이는 상기 트래커(100)를 인식하여 상기 위치정보 및 동작정보를 생성하고, 상기 터치 인식부(500)는 인식정보를 생성할 수 있다.
그리고 상기 컨텐츠 제공부(600)는 상기 컨텐츠에 상기 위치정보, 동작정보 및 터치정보를 실시간으로 반영함으로써, 상기 컨텐츠에서 요구하는 다양한 움직임 및 선택을 수행 처리할 수 있다.
이에 따라, 본 발명은 공간 내 전면, 및 양 측면에 상기 컨텐츠를 제공하여 사용자가 온전히 상기 컨텐츠에 몰입할 수 있도록 할 수 있는 효과가 있다. 그리고 상기 위치정보, 동작정보 및 터치정보가 실시간으로 반영된 컨텐츠를 제공함으로써 사용자가 전신을 움직이는 활동을 유도하여 경도 인지 장애를 판단 및 예방할 수 있는 효과가 있다.
몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법
이하, 본 발명에 따른 실시예를 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 6은 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법 흐름도이다.
도 6을 보면, 본 발명의 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법은 컨텐츠 투영단계(S100), 터치 인식단계(S200), 트래커 인식단계(S300) 및 정보 반영단계(S400)를 포함한다.
보다 구체적으로, 상기 컨텐츠 투영단계(S100)는 프로젝터(300a, 300b, 300c)에 의하여, 컨텐츠 제공부(600)로부터 전송된 컨텐츠가 몰입형 VR 체험공간 내 벽체에 투영된다.
몰입형 VR 체험공간은 벽체로 둘러싸여 있고, 상기 벽체는 사용자를 기준으로 전면, 양 측면, 하부면 및 상부면을 포함할 수 있다.
상기 컨텐츠는 사용자의 경도 인지 장애를 예방할 수 있는 훈련영상인 것을 특징으로 한다. 상기 훈련영상은 경도 인지 장애가 있는 사용자를 대상으로 하며, 자신이 놓인 상황을 시간적, 공간적으로 바르게 파악하여 이것과 관계되는 주위 사람이나 대상을 인지할 수 있는 지남력, 계산력, 기억력, 언어능력 및 소근육운동 중 적어도 하나를 훈련할 수 있도록 하는 영상일 수 있다.
상기 터치 인식단계(S200)는 터치 인식부(500)에 의하여, 카메라(400a, 400b, 400c)로부터 촬영된 상기 벽체에 사용자로부터 입력된 터치가 인식되고, 터치정보가 생성된다.
한편, 상기 터치 인식단계(S200)는 사용자의 터치를 정확하게 인식하기 위하여, 카메라변수 입력단계(S210), 가상맵 생성단계(S220), 좌표위치 생성단계(S230) 및 터치좌표 설정단계(S240)를 포함할 수 있다.
보다 구체적으로, 상기 카메라변수 입력단계(S210)는 상기 카메라변수 입력부(510)에 의하여, 상기 카메라(400a, 400b, 400c)에 대한 카메라변수가 입력될 수 있다.
상기 카메라변수는 연결된 카메라의 총 개수(CameraIndex), 연결된 상기 카메라의 행의 개수(CameraGridWidth), 연결된 상기 카메라의 열의 개수(cameraGridHeight), 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth), 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight), 상기 카메라 화면의 가로길이(screenWidth), 상기 카메라 화면의 세로길이(screenHeight), 상기 카메라 화면의 해상도(ofGetWidth, ofGetHeight) 중 적어도 하나를 포함할 수 있다.
다음으로, 상기 가상맵 생성단계(S220)는 상기 가상맵 생성부(520)에 의하여, 상기 카메라변수에 따른 가상맵이 생성될 수 있다.
즉, 상기 가상맵 생성단계(S220)는 상기 카메라 화면의 해상도의 가로길이(ofGetWidth)와 연결된 상기 카메라의 열의 개수(cameraGridHeight)를 곱한 값이 상기 가상맵의 가로길이로 설정되고, 상기 카메라 화면의 해상도의 세로길이(cameraGridHeight)와 상기 카메라의 행의 개수(calibrationGridWidth)를 곱한 값이 상기 가상맵의 세로길이로 설정되는 것을 특징으로 한다.
도 3을 보면, 상기 카메라가 3대가 일렬로 설치되어 있을 경우 도 3과 같이 카메라 3대의 화면이 하나의 화면으로 인식되어 움직일 수 있도록 하나의 가상맵을 생성해야한다. 만약, 1대의 카메라 화면의 해상도가 1920×1080이면, 일렬로 설치된 카메라의 개수 3을 곱한 5760×1080의 크기로 상기 가상맵이 생성되는 것이다.
또한, 만약 1대의 카메라 화면의 해상도가 1920×1080이고 연결된 카메라가 행방향으로 2대, 열방향으로 3대가 설치된다면, 상기 가상맵의 가로길이는 상기 카메라 화면의 해상도의 가로길이(ofGetWidth)인 1920과 연결된 상기 카메라의 열의 개수(cameraGridHeight)인 3을 곱한 5760이 된다. 그리고 상기 가상맵의 세로길이는 상기 카메라 화면의 해상도의 세로길이(cameraGridHeight)인 1080과 상기 카메라의 행의 개수(calibrationGridWidth)인 2를 곱한 2160이 된다. 즉, 상기 가상맵 생성단계(S220)로부터 5760×2160 크기의 가상맵이 생성될 수 있다.
다음으로, 상기 좌표위치 생성단계(S230)는 상기 좌표위치 생성부(530)에 의하여, 상기 가상맵 내에 좌표위치가 생성될 수 있다.
즉, 상기 좌표위치 생성단계(S230)는 상기 카메라변수에 포함된 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth), 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight) 및 상기 가상맵의 크기에 맞게 좌표가 생성될 수 있다.
예컨대 도 4의 (a)와 같이, 1대의 카메라 화면의 해상도가 1920×1080이고, 카메라 화면 당 행의 위치를 잡아줄 좌표의 개수(calibrationGridWidth)가 3개, 카메라 화면 당 열의 위치를 잡아줄 좌표의 개수(calibrationGridHeight)가 3개로 입력될 수 있다. 이때, 카메라 화면의 행에는 x좌표로 0, 640, 1280, 1290 값을 갖는 좌표가 생성되고 카메라 화면의 열에는 y좌표로 0. 360, 720, 1080 값을 갖는 좌표가 생성될 수 있다.
즉, 도 4의 (a)와 같이, 상기 x좌표 4개와 y좌표 4개를 행렬로 표시되고, 카메라 1개의 화면에는 16개의 좌표위치가 생성될 수 있다.
또한, 도 4의 (a)는 카메라 3대를 나열하여 가상맵을 생성하였으므로, 카메라 3대의 화면에 각각 상기 x좌표 4개와 y좌표 4개를 행렬로 표시하면 총 48개의 좌표위치가 생성될 수 있다.
다음으로, 상기 터치좌표 설정단계(S240)는 상기 터치좌표 설정부(540)에 의하여, 상기 카메라의 화면에 상기 터치좌표가 설정될 수 있다.
즉, 도 4의 (b)와 같이, 상기 터치좌표 설정단계(S240)는 상기 좌표위치 생성단계(S230)로부터 생성된 48개의 좌표위치에 최종적으로가 터치좌표가 설정될 수 있다.
우선, 상기 터치좌표 설정단계(S240)는 카메라 1대의 화면에 대해 상기 좌표위치 생성단계(S230)로부터 생성된 16개의 좌표위치가 불러진다. 그리고 순서대로 붉은색 원이 표시된다.
그리고 사용자에 의해서 터치가 입력되면 붉은색 원이 파란색으로 채워지도록 하고, 터치가 완전히 인식되어 터치좌표가 설정되면 흰색으로 표시된다. 즉, 흰색으로 표시된 좌표가 터치좌표이다.
상기 터치좌표 설정단계(S240)는 상기 카메라(400a, 400b, 400c)의 화면이 상기 프로젝터(300a, 300b, 300c)로부터 투영되는 영상보다 넓은 범위를 촬영하거나, 화각에 의해서 정확한 사각형으로 비추어지지 않는 경우를 대비한 것이다.
즉, 상기 터치좌표 설정단계(S240)는 상기 좌표위치 생성단계(S230)로부터 생성된 좌표위치에 터치좌표가 설정됨으로써, 상기 카메라(400a, 400b, 400c)로부터 터치가 인식되는 범위가 조정될 수 있고, 왜곡이 보정될 수 있다.
다음으로, 상기 트래커 인식단계(S300)는 모션베이스(200)에 의하여, 사용자로부터 착용된 트래커(100)가 인식되어 사용자의 위치정보 및 동작정보가 생성된다.
여기서, 사용자는 트래커(100)를 착용하고 몰입형 VR 체험공간 안으로 들어갈 수 있다. 상기 몰입형 VR 체험공간은 벽체로 둘러싸여 있고, 사용자를 기준으로 전면, 양 측면, 하부면 및 상부면을 포함할 수 있다. 사용자는 상기 몰입형 VR 체험공간에 입장하면 하부면에 표시된 특정 위치에 위치할 수 있다.
즉, 상기 위치정보는 상기 특정 위치로부터 상기 트래커(100)의 변위를 측정한 수치를 포함할 수 있다. 그리고 상기 동작정보는 사용자가 상기 컨텐츠에 따라 특정 동작을 하면 상기 트래커(100)도 함께 동작하므로, 상기 트래커(100)의 특정 동작 또는 변경된 방향을 측정한 수치를 포함할 수 있다.
다음으로, 상기 정보 반영단계(S400)는 컨텐츠 제공부(600)에 의하여, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나가 상기 컨텐츠에 반영될 수 있다. 그리고 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나가 반영된 컨텐츠가 상기 프로젝터(300a, 300b, 300c)에 전송될 수 있다.
가장 바람직하게, 상기 컨텐츠는 사용자의 경도 인지 장애를 예방할 수 있는 훈련영상인 것을 특징으로 한다. 상기 훈련영상은 경도 인지 장애가 있는 사용자를 대상으로 하며, 자신이 놓인 상황을 시간적, 공간적으로 바르게 파악하여 이것과 관계되는 주위 사람이나 대상을 인지할 수 있는 지남력, 계산력, 기억력, 언어능력 및 소근육운동 중 적어도 하나를 훈련할 수 있도록 하는 영상일 수 있다.
즉, 상기 컨텐츠는 사용자에게 상기 몰입형 VR 체험공간에서 다양한 움직임 및 선택을 요구하게 되는데, 상기 정보 반영단계(S400)로부터 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나가 상기 컨텐츠에 실시간으로 반영되어 상기 컨텐츠에서 요구하는 다양한 움직임 및 선택이 수행 처리될 수 있다.
이에 따라, 본 발명은 공간 내 전면, 및 양 측면에 상기 컨텐츠를 제공하여 사용자가 온전히 상기 컨텐츠에 몰입할 수 있도록 할 수 있는 효과가 있다. 그리고 상기 위치정보, 동작정보 및 터치정보가 실시간으로 반영된 컨텐츠를 제공함으로써 사용자가 전신을 움직이는 활동을 유도하여 경도 인지 장애를 판단 및 예방할 수 있는 효과가 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100.. 트래커
200.. 모션베이스
300a, 300b, 300c.. 프로젝터
400a, 400b, 400c.. 카메라
500.. 터치 인식부
510.. 카메라변수 입력부
520.. 가상맵 생성부
530.. 좌표위치 생성부
540.. 터치좌표 설정부
600.. 컨텐츠 제공부

Claims (5)

  1. 사용자가 착용 가능하도록 구비되는 트래커;
    상기 트래커를 인식하고, 사용자의 위치정보 및 동작정보를 생성하는 모션베이스;
    몰입형 VR 체험공간 내 벽체 상부에 배치되고, 상기 벽체로 컨텐츠를 투영시키는 프로젝터;
    상기 프로젝터와 인접하게 설치되고, 상기 벽체를 일정 크기로 촬영하는 카메라;
    상기 카메라로부터 촬영된 상기 벽체에 사용자에 의하여 입력된 터치를 인식하고, 터치정보를 생성하는 터치 인식부; 및
    기 저장된 상기 컨텐츠를 상기 프로젝터에 전송하고, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나를 상기 컨텐츠에 반영하는 컨텐츠 제공부;를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템.
  2. 제 1항에 있어서,
    상기 터치 인식부는,
    상기 카메라에 대한 변수를 입력받는 카메라변수 입력부;
    상기 카메라변수에 따른 가상맵을 생성하는 가상맵 생성부;
    상기 가상맵 내에 좌표위치를 생성하는 좌표위치 생성부; 및
    상기 좌표위치에 터치좌표를 설정하는 터치좌표 설정부;를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템.
  3. 제 1항에 있어서,
    상기 위치정보는 몰입형 VR 체험공간 내 하부면에 표시된 특정 위치로부터 상기 트래커의 변위를 측정한 수치를 포함하고,
    상기 동작정보는 상기 트래커의 특정 동작 또는 변경된 방향을 측정한 수치를 포함하는 것을 특징으로 하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템.
  4. 제 1항에 있어서,
    상기 컨텐츠는,
    사용자의 경도 인지 장애를 예방할 수 있는 훈련영상인 것을 특징으로 하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템.
  5. 프로젝터에 의하여, 컨텐츠 제공부로부터 전송된 컨텐츠가 몰입형 VR 체험공간 내 벽체에 투영되는 컨텐츠 투영단계;
    터치 인식부에 의하여, 카메라로부터 촬영된 상기 벽체에 사용자로부터 입력된 터치가 인식되고, 터치정보가 생성되는 터치 인식단계;
    모션베이스에 의하여, 사용자로부터 착용된 트래커가 인식되고, 사용자의 위치정보 및 동작정보가 생성되는 트래커 인식단계; 및
    상기 컨텐츠 제공부에 의하여, 상기 위치정보, 동작정보 및 터치정보 중 적어도 하나가 상기 컨텐츠에 반영되는 정보 반영단계; 를 포함하는 몰입형 VR 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 방법.
KR1020200143917A 2020-10-30 2020-10-30 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법 KR102523091B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200143917A KR102523091B1 (ko) 2020-10-30 2020-10-30 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200143917A KR102523091B1 (ko) 2020-10-30 2020-10-30 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20220058306A true KR20220058306A (ko) 2022-05-09
KR102523091B1 KR102523091B1 (ko) 2023-04-18

Family

ID=81582198

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200143917A KR102523091B1 (ko) 2020-10-30 2020-10-30 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102523091B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102646876B1 (ko) * 2023-01-09 2024-03-12 (주)휴먼아이티솔루션 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템
KR20240057134A (ko) 2022-10-24 2024-05-02 박상규 사용자 맞춤 몰입형 서비스 제공 시스템 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482965B1 (ko) * 2014-08-24 2015-01-21 연합정밀주식회사 움직임 감지 정확도를 향상시킨 모션 트래커 시스템
KR101530340B1 (ko) * 2014-12-05 2015-06-22 연합정밀주식회사 모션 트래커 시스템 및 자세방위 시스템을 통합하여 3차원 가상공간에서 손의 위치 및 자세 정보를 구현하는 움직임 감지 시스템
KR20160051384A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
KR20190044439A (ko) * 2017-10-20 2019-04-30 주식회사 씨오티커넥티드 스테레오 이미지들에 관한 깊이 맵 스티칭 방법
KR20200005987A (ko) 2018-07-09 2020-01-17 주식회사 두브레인 터치입력을 이용한 인지장애 진단 시스템 및 방법
KR20200061861A (ko) 2018-11-26 2020-06-03 재단법인 실감교류인체감응솔루션연구단 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101482965B1 (ko) * 2014-08-24 2015-01-21 연합정밀주식회사 움직임 감지 정확도를 향상시킨 모션 트래커 시스템
KR20160051384A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
KR101530340B1 (ko) * 2014-12-05 2015-06-22 연합정밀주식회사 모션 트래커 시스템 및 자세방위 시스템을 통합하여 3차원 가상공간에서 손의 위치 및 자세 정보를 구현하는 움직임 감지 시스템
KR20190044439A (ko) * 2017-10-20 2019-04-30 주식회사 씨오티커넥티드 스테레오 이미지들에 관한 깊이 맵 스티칭 방법
KR20200005987A (ko) 2018-07-09 2020-01-17 주식회사 두브레인 터치입력을 이용한 인지장애 진단 시스템 및 방법
KR20200061861A (ko) 2018-11-26 2020-06-03 재단법인 실감교류인체감응솔루션연구단 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240057134A (ko) 2022-10-24 2024-05-02 박상규 사용자 맞춤 몰입형 서비스 제공 시스템 및 방법
KR102646876B1 (ko) * 2023-01-09 2024-03-12 (주)휴먼아이티솔루션 디지털 헬스케어 서비스 제공 공간에 대한 다면 영상 출력 시스템

Also Published As

Publication number Publication date
KR102523091B1 (ko) 2023-04-18

Similar Documents

Publication Publication Date Title
US11925863B2 (en) Tracking hand gestures for interactive game control in augmented reality
CN114020156B (zh) 能够进行眼睛追踪的可穿戴设备
WO2018003861A1 (ja) 表示装置および制御装置
RU2455676C2 (ru) Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US6478432B1 (en) Dynamically generated interactive real imaging device
US7268781B2 (en) Image display control method
US8188968B2 (en) Methods for interfacing with a program using a light input device
EP3564731A1 (en) Virtual reality head-mounted apparatus
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
US10537814B2 (en) Screen coding methods and camera based game controller for video shoot game
KR102523091B1 (ko) 몰입형 vr 체험공간에서 모션 베이스 및 트래커를 이용한 위치기반 컨텐츠 제공 시스템 및 방법
US11928291B2 (en) Image projection device
CN103347437A (zh) 3d映射环境中的凝视检测
US9733048B2 (en) Shooting training and game system with virtual target
CN110286906B (zh) 用户界面显示方法、装置、存储介质与移动终端
TW578031B (en) Projection system with an image capturing device
JP2006350452A (ja) 撮影表示装置およびそのキャリブレーションデータ算出方法
KR20160105169A (ko) 체험형 영유아 안전교육 시스템 및 방법
US20200241721A1 (en) Interactive display apparatus and method
JP6278494B2 (ja) 赤外光の調整方法及び位置検出システム
KR102354750B1 (ko) 터치가 가능한 미디어 파사드 구현 시스템 및 구현 방법
US20160320897A1 (en) Interactive display system, image capturing apparatus, interactive display method, and image capturing method
Hough Towards achieving convincing live interaction in a mixed reality environment for television studios
Budhiraja Interaction Techniques using Head Mounted Displays and Handheld Devices for Outdoor Augmented Reality
WO2024064230A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant