KR100963238B1 - 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법 - Google Patents

개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법 Download PDF

Info

Publication number
KR100963238B1
KR100963238B1 KR1020080012710A KR20080012710A KR100963238B1 KR 100963238 B1 KR100963238 B1 KR 100963238B1 KR 1020080012710 A KR1020080012710 A KR 1020080012710A KR 20080012710 A KR20080012710 A KR 20080012710A KR 100963238 B1 KR100963238 B1 KR 100963238B1
Authority
KR
South Korea
Prior art keywords
interface
mobile
augmented reality
module
collaboration
Prior art date
Application number
KR1020080012710A
Other languages
English (en)
Other versions
KR20090087332A (ko
Inventor
나세원
우운택
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020080012710A priority Critical patent/KR100963238B1/ko
Priority to PCT/KR2009/000627 priority patent/WO2009102138A2/ko
Priority to US12/867,420 priority patent/US8823697B2/en
Priority to EP09710554.8A priority patent/EP2267595A4/en
Publication of KR20090087332A publication Critical patent/KR20090087332A/ko
Application granted granted Critical
Publication of KR100963238B1 publication Critical patent/KR100963238B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B1/00Hats; Caps; Hoods
    • A42B1/24Hats; Caps; Hoods with means for attaching articles thereto, e.g. memorandum tablets or mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D23/00Scarves; Head-scarves; Neckerchiefs
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B1/00Hats; Caps; Hoods
    • A42B1/018Hats; Caps; Hoods with means for protecting the eyes, ears or nape, e.g. sun or rain shields; with air-inflated pads or removable linings
    • A42B1/0186Hats; Caps; Hoods with means for protecting the eyes, ears or nape, e.g. sun or rain shields; with air-inflated pads or removable linings with means for protecting the ears or nape
    • A42B1/0187Removable protection for the nape, e.g. sun or rain shields
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B1/00Hats; Caps; Hoods
    • A42B1/018Hats; Caps; Hoods with means for protecting the eyes, ears or nape, e.g. sun or rain shields; with air-inflated pads or removable linings
    • A42B1/0186Hats; Caps; Hoods with means for protecting the eyes, ears or nape, e.g. sun or rain shields; with air-inflated pads or removable linings with means for protecting the ears or nape
    • A42B1/0188Protection for the ears, e.g. removable ear muffs
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B1/00Hats; Caps; Hoods
    • A42B1/04Soft caps; Hoods
    • A42B1/046Balaclavas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Textile Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법에 관한 것이다. 보다 상세하게는 사용자간의 협업 공간을 제공하는 테이블 인터페이스에 사용자 개인 공간을 제공하는 모바일 인터페이스를 더함으로써 테이블 상의 정보를 개인 모바일 장치로 가져와 사용자가 직접적으로 제어하거나 개인적인 조작이 가능하도록 하고, 테이블에 대하여 공평한 제어권을 가지도록 하며, 개인화된 결과물을 다수 사용자가 공유함으로써 상호협력할 수 있도록 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법에 관한 것이다.
이를 위하여 본 발명은 테이블 위에 투영된 영상의 특정 컨텐츠를 터치하거나 상기 특정 컨텐츠 상에 올려놓은 객체를 통해 사용자와 상호작용하도록 하는 협업 공간을 제공하는 테이블 인터페이스; 및 상기 객체를 인식하고 추적하여 상기 투영된 영상에 3차원 컨텐츠를 증강시키는 개인 공간을 제공하는 모바일 인터페이스를 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템을 제공한다.
증강현실, 테이블, 테이블 인터페이스, 모바일 인터페이스, 개인화, 협업

Description

개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법{Tabletop-Mobile augmented reality systems for individualization and co-working and Interacting methods using augmented reality}
본 발명은 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법에 관한 것이다. 보다 상세하게는 사용자간의 협업 공간을 제공하는 테이블 인터페이스에 사용자 개인 공간을 제공하는 모바일 인터페이스를 더함으로써 테이블 상의 정보를 개인 모바일 장치로 가져와 사용자가 직접적으로 제어하거나 개인적인 조작이 가능하도록 하고, 테이블에 대하여 공평한 제어권을 가지도록 하며, 개인화된 결과물을 다수 사용자가 공유함으로써 상호협력할 수 있도록 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법에 관한 것이다.
증강현실(Augmented Reality)은 가상현실(Virtual Reality)의 한 분야로, 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다.
증강현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상현실과 달리, 현실세계의 기반위에 가상의 사물을 합성하여 현실세계 만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가지고 있다. 즉, 가상현실기술은 일반적으로 사용자로 하여금 가상의 환경에 몰입하게 하므로 사용자는 실제 환경을 볼 수 없는 반면, 증강현실기술에서는 사용자가 실제 환경을 볼 수 있으며, 실제 환경과 가상의 객체가 혼합된 형태를 띤다. 다시 말하면, 가상현실은 현실세계를 대체하여 사용자에게 보여주지만 증강현실은 현실세계에 가상의 물체를 중첩함으로서 현실세계를 보충하여 사용자에게 보여준다는 차별성을 가지며, 가상현실에 비해 사용자에게 보다 나은 현실감을 제공한다는 특징이 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상현실과 달리 다양한 현실환경에 응용이 가능하며 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
이러한 증강현실 기술을 테이블탑 시스템(table-top system)에 활용할 수 있다. 테이블은 가정이나 사무실의 한가운데 놓여져 사람들이 그 주위에서 서로 토론을 하거나 게임을 즐길 수 있도록 하는 공간이다. 테이블탑 시스템은 이러한 점에 착안하여, 다자간 회의나 엔터테인먼트, 교육, 전시 등에 다자간 협업환경을 제공한다.
테이블탑 시스템에서의 초기 이슈는 키보드나 마우스와 같은 종래의 입력장치를 사용하지 않고 사용자의 손과 객체를 이용하여 테이블 위의 2차원 정보를 직관적으로 조작하는 것이었다. 이러한 이슈를 해결하기 위해 두 개 이상의 손가락 터치를 동시에 인식하여 다양한 형태의 입력을 받아들일 수 있도록 한 연구가 있으나, 이는 터치 스크린의 크기가 커질수록 제작 비용이 증가하는 단점이 있다. 한편, 손에 쥘 수 있는 형태의 물리적 객체를 이용한 상호작용 방법이 제안된 바 있으나, 이는 다수 사용자 환경에서는 물리적 객체의 수에 의존적으로 모든 사용자가 동시에 상호작용할 수 있는 제어권을 얻을 수 없는 단점이 있다.
일반적으로 수직의 디스플레이 장치를 가지는 데스크탑(desk-top)과는 달리, 수평의 디스플레이 장치를 가진 테이블탑 시스템은 표시된 정보나 컨텐츠가 한쪽 방향으로 치우쳐 있기 때문에 여러 방향에 있는 사용자가 동시에 같은 컨텐츠를 보는 것이 쉽지 않다. 이러한 문제를 해결하기 위해 테이블 화면을 사용자 수에 맞게 분할하거나 테이블 화면을 좌우로 회전 가능하도록 원형 형태로 구성한 연구가 있다. 전자의 경우 사람 수가 많아질수록 분할된 화면이 작아지는 단점이 있고, 후자의 경우 사용자들이 원형의 화면을 회전시키기 위한 제어권을 놓고 경쟁해야 하는 단점이 있다.
테이블탑 시스템의 이러한 단점을 해결하고, 사용자별로 개인화된 인터페이스를 제공하여 사용자가 직접적으로 제어함으로써 개인화된 조작이 가능하도록 하면서도, 사용자간에 개인화된 결과물을 공유하고 상호협력하여 변환하도록 하는 협업 환경을 위한 시스템의 개발 필요성이 대두된다.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 특히 테이블 상의 정보를 개인 모바일 장치로 가져와 사용자가 직접적으로 제어하거나 개인적인 조작이 가능하도록 하고, 테이블에 대하여 공평한 제어권을 가지도록 하며, 개인화된 결과물을 다수 사용자가 공유함으로써 상호협력할 수 있도록 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법을 제공하는 데 그 목적이 있다.
상기 목적을 달성하기 위해 안출된 본 발명에 따른 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템은 테이블 위에 투영된 영상의 특정 컨텐츠를 터치하거나 상기 특정 컨텐츠 상에 올려놓은 객체를 통해 사용자와 상호작용하도록 하는 협업 공간을 제공하는 테이블 인터페이스; 및 상기 객체를 인식하고 추적하여 상기 투영된 영상에 3차원 컨텐츠를 증강시키는 개인 공간을 제공하는 모바일 인터페이스를 포함하는 것을 특징으로 한다.
또한, 상기 테이블 인터페이스는 상기 사용자의 입력을 받기 위한 입력 모듈과, 상기 입력 모듈로부터 전송된 데이터로 장면을 구성하는 장면 구성 모듈과, 상기 장면 구성 모듈을 통해 구성된 장면을 디스플레이하는 뷰어 모듈, 및 상기 모바일 인터페이스와의 연결을 위한 네트워크 모듈을 포함할 수 있다.
또한, 상기 입력 모듈은 상기 사용자의 터치를 인식하는 터치 프레임일 수 있다.
또한, 상기 입력 모듈은 상기 객체를 인식하는 카메라일 수 있다.
또한, 상기 모바일 인터페이스는 상기 객체를 인식하고 추적하는 추적 모듈과, 상기 테이블 인터페이스와의 연결을 위한 네트워크 모듈과, 상기 추적 모듈로부터 전송된 영상에 3차원 컨텐츠를 증강하는 정합 모듈, 및 상기 정합 모듈을 통해 증강된 영상을 디스플레이하는 뷰어 모듈을 포함할 수 있다.
또한, 상기 추적 모듈은 카메라를 포함할 수 있다.
또한, 상기 모바일 인터페이스는 상기 3차원 컨텐츠와의 상호 작용을 위한 입력 모듈을 더 구비할 수 있다.
또한, 상기 입력 모듈은 터치 패널을 포함할 수 있다.
또한, 상기 객체는 상기 테이블 인터페이스와 상기 모바일 인터페이스에서 동일한 좌표값을 가질 수 있다.
또한, 상기 테이블 인터페이스와 상기 모바일 인터페이스는 네트워킹을 통해 상기 객체의 좌표 데이터를 교환 전송하며, 상기 전송은 시간적으로 동기화되어 수행될 수 있다.
본 발명에 따른 증강현실을 이용한 상호작용방법은 (a) 테이블 인터페이스 위에 객체를 놓는 단계; (b) 모바일 인터페이스에 장착된 카메라를 통해 상기 객체를 인식하고 추적하는 단계; (c) 상기 카메라를 통해 획득한 영상에 3차원 컨텐츠를 증강하는 단계; (d) 상기 3차원 컨텐츠를 선택 또는 조작함으로써 상호작용을 수행하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 증강현실을 이용한 상호작용방법은 상기 테이블 인터페이스 상의 객체를 조작하는 단계를 더 포함할 수 있다.
본 발명에 의하면 사용자별로 개인화된 인터페이스를 제공하여 사용자가 직접적으로 제어함으로써 개인화된 조작이 가능하도록 하면서도, 각 사용자가 조작한 결과물을 공유하고 상호협력하여 작업할 수 있도록 하여 개인 공간과 협업 공간을 동시에 제공하는 효과가 있다.
또한, 본 발명에 의하면 테이블 인터페이스를 통해 키보드나 마우스와 같은 종래의 입력 장치의 사용 없이 사용자의 손과 객체를 인식하여 테이블 위의 2차원 정보를 직관적으로 조작할 수 있는 효과가 있다.
또한, 본 발명에 의하면 다수의 사용자가 테이블 인터페이스를 사용하되 공평한 제어권을 가지며 가시거리를 확장함으로써 사용자에게 편의를 제공하는 효과가 있다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시 예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.
도 1은 본 발명의 바람직한 실시예에 따른 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템의 구성도이다.
본 발명의 바람직한 실시예에 따른 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템(이하, "증강현실 시스템")은, 도 1을 참조하면, 테이블 인터페이스(100)와 모바일 인터페이스(200)를 포함한다.
테이블 인터페이스(100)는 테이블 위에 투영된 영상의 특정 컨텐츠를 터치하거나 특정 컨텐츠 상에 올려놓은 객체를 통해 사용자와 상호작용하도록 하는 협업 공간을 제공한다. 여기서, '객체'는 마커(marker)와 감각형 오브젝트(tangible object)를 포함하는 것으로, 증강의 매개체 역할을 하는 것이다.
테이블 인터페이스(100)는 입력 모듈(10), 장면 구성 모듈(20), 뷰어 모듈(30), 및 네트워크 모듈(40)을 포함한다.
입력 모듈(10)은 사용자의 입력을 받기 위한 부분으로, 사용자의 터치를 인식하는 터치 프레임(touch frame)과 객체를 인식하는 카메라를 포함한다.
장면 구성 모듈(20)은 입력 모듈(10)로부터 전송된 데이터로 장면을 구성하는 부분이다.
뷰어 모듈(30)은 장면 구성 모듈(20)을 통해 구성된 장면을 디스플레이하는 부분이다.
네트워크 모듈(40)은 모바일 인터페이스(200)와의 연결을 위한 부분이다. 일례로, 테이블 인터페이스(100)의 네트워크 모듈(40)은 모바일 인터페이스(200)의 네트워크 모듈(240)과 이더넷 네트워킹에 의해 무선으로 연결되며, TCP/IP를 이용하여 통신할 수 있다.
모바일 인터페이스(200)는 객체를 인식하고 추적하여 3차원 컨텐츠를 증강시키는 개인 공간을 제공한다. 모바일 인터페이스(200)는 증강현실 기술을 적용하여 테이블 인터페이스(100)로의 접근성을 증가시키고, 증강된 3차원 컨텐츠를 쉽게 볼 수 있도록 해 준다. 사용자는 모바일 인터페이스(200)를 이용하여 키보드나 마우스를 사용하지 않고서도 3차원 공간과 상호작용을 할 수 있게 된다. 모바일 인터페이스(200)는 사용자에게 개인화된 인터페이스를 제공하고, 사용자의 가시거리를 확장한다. 더불어, 모바일 인터페이스(200)는 사용자가 어디에 있든지 동일한 제어권을 가질 수 있도록 한다. 따라서, 모바일 인터페이스(200)에 의하면 배경기술에서 언급한 바와 같이 테이블 화면을 사용자 수에 맞게 분할한 경우에 사람 수가 많아질수록 분할된 화면이 작아진다든지, 테이블 화면을 좌우로 회전 가능하도록 원형 형태로 구성한 경우 사용자들이 원형의 화면을 회전시키기 위한 제어권을 놓고 경쟁해야 하는 문제점이 해결된다.
모바일 인터페이스(200)는 카메라를 통해 객체를 인식하고 추적하는 추적 모듈(210), 추적 모듈(210)로부터 전송된 영상에 3차원 컨텐츠를 증강하는 정합 모듈(220), 정합 모듈(220)을 통해 증강된 영상을 디스플레이하는 뷰어 모듈(230), 및 테이블 인터페이스(100)와의 연결을 위한 네트워크 모듈(240)을 포함한다. 도시 되지 않았으나, 모바일 인터페이스(200)는 3차원 컨텐츠와의 상호 작용을 위한 입력 모듈을 더 구비할 수 있다.
도 2는 테이블 인터페이스의 개념도이다.
테이블 인터페이스는 공동 사용자의 협업 환경으로 기능한다. 협업 공간에서 다수의 사용자들은 손으로 테이블(150) 위의 가상 컨텐츠를 조작하거나 객체를 컨텐츠 위에 올려 놓음으로써 가상 컨텐츠를 선택할 수 있다. 도 2에서 화살표는 객체를 지시한다. 이때, 사용자의 손이나 객체는 터치 프레임(160)과 테이블(150) 아래의 카메라(180)를 이용하여 인식되고 추적된다. 프로젝터(170)는 테이블(150)에 가상 공간의 2차원 이미지를 투영한다. 예컨대, 가상 공간 네비게이션을 구현하고자 하는 경우 프로젝터(170)는 테이블(150) 표면에 가상 공간의 2차원 지도를 투영하여 사용자로 하여금 전체 가상 공간에서 현재 탐험중인 위치를 쉽게 파악할 수 있도록 하고, 이동에 따라 적절한 피드백을 제공한다.
터치 프레임은 일반적으로 한 번에 한가지 객체의 위치를 탐지하므로, 하나의 객체가 테이블 위에 놓여진 후 두 번째 객체가 놓이면 정확한 위치를 계산하기가 용이하지 않다. 이를 위해 터치 프레임(160)의 높이를 테이블(150) 표면으로부터 소정 간격 이격시킬 수 있다. 이 경우, 객체 마커가 테이블 위에 놓이거나 제거되는 것을 탐지할 수 있고 2개 이상의 객체가 테이블에 놓이더라도 이전에 놓인 객체는 다음 객체의 탐지를 방해하지 않게 된다. 이와 같이 함으로써 여러 사람이 동시에 자신의 객체를 테이블(150) 위에 놓을 수 있고 각 객체는 테이블 인터페이스가 표시하는 컨텐츠와 연결된다. 객체가 테이블(150)에 놓여지면 테이블(150) 아래 의 카메라(180)에 의해 객체의 종류와 위치가 추적되어 사용자들이 여러 객체를 동시에 움직이더라도 정확하게 추적이 수행될 수 있다.
도 3은 테이블 인터페이스에 구비된 버튼의 일례를 도시한 도면이다.
테이블 인터페이스에는 표시된 컨텐츠를 용이하게 조작하기 위해 버튼(B1~B4)이 구비될 수 있다. 예컨대, 높이 감소 버튼(B1)을 터치하면 가상 컨텐츠인 건물의 높이가 감소되고, 높이 증가 버튼(B2)을 터치하면 높이 감소 버튼(B1)과 반대 현상이 발생한다. 또한, 회전 버튼(B3)을 터치하면 건물이 좌우로 회전하게 된다. 버튼은 컨텐츠의 생성 또는 삭제와 같은 1회성 동작에 적합한 단순 선택형 버튼과, 손의 움직임에 따라서 컨텐츠의 속성이 변하여 컨텐츠의 위치나 모양 변경과 같이 지속적인 변화를 주는 동작에 적합한 손 제스쳐 인식 기반 버튼 등으로 구성될 수 있다.
도 4는 모바일 인터페이스의 개념도이고, 도 5는 사용자와 모바일 인터페이스 및 테이블 인터페이스 간의 상호작용을 도시한 개념도이다.
모바일 인터페이스(200)는 테이블 인터페이스(100)의 객체에 증강된 영상을 사용자에게 제공할 뿐만 아니라, 모바일 인터페이스(200)의 입력 모듈을 이용하여 사용자가 추가적인 조작을 수행하고 이를 테이블 인터페이스(100)로 전송함으로써 3차원 컨텐츠와 상호작용을 수행한다. 이때, 사용자의 조작 내용은 모바일 인터페이스(200)의 네트워크 모듈(240)로부터 테이블 인터페이스(100)의 네트워크 모듈(40)로 전송된다. 이를 위해 모바일 인터페이스(200)의 입력 모듈은 3차원 컨텐츠를 선택하거나 조작할 수 있도록 터치 패널을 구비할 수 있다. 도 4를 참조하면, 모바일 인터페이스(200)의 터치 패널 상에는 테이블 인터페이스 상에 구비된 버튼(도 3 참조)과 동일 또는 유사한 버튼이 구비된다. 이를 통해 사용자는 특정 건물의 높이를 증가 또는 감소시키고 회전시킬 수 있으며, 이러한 조작 결과를 테이블 인터페이스에 반영할 수 있다. 또한, 모바일 인터페이스(200)에는 3차원 컨텐츠를 사용하기 위해 광선-추적 기법이 사용될 수 있다.
테이블 상의 객체는 테이블 인터페이스(100)와 모바일 인터페이스(200)에 의해서 동시에 인식되고 추적된다. 모바일 인터페이스(200)는 카메라를 통해 객체를 추적하고 이를 모바일 인터페이스(200)의 상대적인 3차원 자세를 계산하는 데 사용한다. 모바일 인터페이스(200)는 카메라로부터 입력된 실제 영상과 3차원 컨텐츠를 정합하여 디스플레이한다. 사용자가 각자의 모바일 인터페이스(200)를 통해 협업 공간인 테이블 인터페이스(100)에 접근한 경우, 사용자들은 테이블 인터페이스(100)를 기준으로 한 각자의 위치에 무관하게 테이블 인터페이스(100) 전체를 볼 수 있으므로 가시거리가 확장된다. 또한, 사용자들은 테이블 인터페이스(100)를 기준으로 한 각자의 위치에 무관하게 테이블 인터페이스(100) 상의 컨텐츠에 대하여 동일한 제어권을 가지게 된다. 예컨대, 도 5에 도시된 바와 같이 사용자 A, B, C가 각자의 모바일 인터페이스(200)를 통해 테이블 인터페이스(100)에서 공동 작업을 수행하는 경우 각자의 모바일 인터페이스(200)에는 모바일 인터페이스(200)의 카메라 위치와 각도에 따라 다른 정보가 표시된다. 또한, 각 사용자가 모바일 인터페이스(200)를 통해 3차원 컨텐츠를 조작한 결과는 협업 공간인 테이블 인터페이스(100)에 반영된다.
도 6은 테이블 인터페이스와 모바일 인터페이스의 공간적 좌표 시스템을 일치시켜 공동 공간을 생성하는 것을 설명하기 위한 개념도이고, 도 7은 테이블 인터페이스와 모바일 인터페이스의 시간적 동기화를 통해 공동 공간을 생성하는 것을 설명하기 위한 개념도이다.
본 발명에 따른 증강현실 시스템은 사용자가 테이블 인터페이스와 모바일 인터페이스 간에 이질감을 느끼지 않도록 하기 위해, 즉 두 인터페이스가 마치 하나인 것처럼 느끼도록 하기 위해 공동 공간을 제공한다. 이를 위해 증강현실 시스템은 두 인터페이스의 공간적인 좌표 시스템을 하나로 일치시키고, 시간적 동기화와 정형화된 데이터 공유를 제공한다.
도 6을 참조하면, 테이블 상에 놓여진 물리적 객체는 3차원 컨텐츠의 증강을 위한 매개체로서의 역할뿐만 아니라, 두 인터페이스의 공간 좌표를 일치시키는 매개체 역할을 수행한다.
두 인터페이스의 공간 좌표를 일치시키기 위해, 먼저 모바일 인터페이스의 좌표계에 관련된 객체의 3차원 상대 좌표와, 테이블 인터페이스 상에 놓여진 객체의 2차원 절대 좌표의 조합을 통해 객체의 3차원 절대 좌표를 얻는다. 도 6에서 "u"는 테이블 인터페이스에서의 객체의 2차원 절대 좌표를, "v"는 모바일 인터페이스에서의 객체의 3차원 상대 좌표를, 그리고 "w"는 u와 v를 통해 계산된 객체의 3차원 절대 좌표를 나타낸다. 모바일 인터페이스와 테이블 인터페이스는 네트워킹을 통하여 좌표 데이터를 교환한다.
이러한 좌표 데이터의 교환을 위한 전송시 데이터 범람이나 지연에 의한 데 이터 정체를 방지하기 위해 시간적 동기화 아래에서 데이터 전송이 이루어지는 것이 바람직하다. 예컨대, 시간적 동기화는 도 7과 같이 퍼스트인-퍼스트아웃(FIFO)과 같은 파이프 형태로 데이터를 직렬화하고 이를 제어함으로써 수행될 수 있다. 이러한 구조는 시간이 경과된 데이터나 불필요한 데이터들을 걸러내는 필터 역할을 수행한다.
도 8a 및 도 8b는 테이블 인터페이스의 일례를 나타낸 사진이다.
테이블 인터페이스는 두 종류의 입력 모듈을 포함한다.
도 8a를 참조하면 테이블 인터페이스는 터치 프레임을 이용한 손추적 장치를 구비할 수 있다. 사용자는 손가락을 이용하여 테이블 인터페이스 상의 3차원 컨텐츠나 버튼을 직관적으로 선택하거나 조작할 수 있다. 도 8a에서 흰색 원은 현재 사용자가 손가락으로 클릭한 위치를 나타낸다.
도 8b를 참조하면 테이블 인터페이스는 테이블 상에 올려놓은 객체를 인식하고 추적하기 위한 카메라 장치를 구비할 수 있다. 사용자는 테이블 인터페이스 상에 표시되는 가상의 3차원 컨텐츠를 선택하기 위해 객체를 올려놓을 수 있다. 도 8b와 같이 여러 객체를 올려놓은 경우 테이블 인터페이스는 이들을 동시에 인식할 수 있다.
도 9는 사용자가 모바일 장치를 사용하여 테이블 주위에서 테이블을 바라보는 사진이다. 도 9와 같이 사용자는 한 손에 모바일 장치를 들고 다른 한 손으로 가상 콘텐츠를 보거나 상호작용할 수 있다.
도 10a 내지 도 10e는 모바일 인터페이스의 일례를 나타낸 사진이다.
모바일 인터페이스의 입력 모듈은 터치 패널을 이용하여 구현될 수 있다. 사용자는 모바일 인터페이스의 터치 패널을 터치함으로써 3차원 컨텐츠를 선택하고 조작할 수 있다.
테이블 인터페이스 상의 특정 위치에 감각형 오브젝트와 같은 객체를 놓고 각 객체에 부합하는 3차원 가상 컨텐츠를 증강하여 사용자가 모바일 인터페이스를 통해 정합된 영상을 보게 된다(도 10a 참조). 사용자가 3차원 컨텐츠를 선택하면 선택된 가상 컨텐츠를 구별할 수 있도록 흰색 선으로 가상 컨텐츠를 표시한다(도 10b 참조). 또한, 컨텐츠가 선택되면 선택된 컨텐츠에 대하여 가능한 조작을 사용자가 볼 수 있도록 가상 컨텐츠 아래에 버튼을 표시한다. 버튼 중 높이 증가 버튼을 터치하면 가상 컨텐츠인 건물의 높이가 증가되고 회전 버튼을 터치하면 건물이 좌우로 회전하게 된다(도 10c 참조). 한편, 여러 개의 3차원 컨텐츠를 선택하여 한 번에 조작할 수도 있고(도 10d 참조), 삭제 버튼을 통해 컨텐츠를 삭제할 수도 있다(도 10e 참조).
도 11은 본 발명의 바람직한 실시예에 따른 증강현실을 이용한 상호작용방법의 흐름도이다.
본 발명의 바람직한 실시예에 따른 증강현실을 이용한 상호작용방법은, 도 11을 참조하면, 객체 놓기 단계(S10), 객체 인식 및 추적 단계(S20), 3차원 컨텐츠 증강 단계(S30), 및 3차원 컨텐츠 조작 단계(S40)를 포함하여 이루어진다. 도시되지 않았으나, 증강현실을 이용한 상호작용방법은 테이블 인터페이스 상의 객체를 조작하는 단계를 더 포함할 수 있다.
10단계는 테이블 인터페이스 위에 객체를 놓는 단계이다. 사용자는 자신이 원하는 위치에 마커 또는 감각형 오브젝트를 놓는다.
20단계는 모바일 인터페이스에 장착된 카메라를 통해 객체를 인식하고 추적하는 단계이다.
30단계는 카메라를 통해 획득한 영상에 3차원 컨텐츠를 증강하는 단계이다. 사용자는 카메라를 통해 획득한 비디오 영상과 정합된 3차원 컨텐츠를 모바일 인터페이스로 볼 수 있다.
40단계는 3차원 컨텐츠를 선택 또는 조작함으로써 상호작용을 수행하는 단계이다. 사용자는 모바일 인터페이스에 구비된 버튼을 터치함으로써 3차원 컨텐츠를 선택하여 조작을 가하고, 이러한 조작 결과가 테이블 인터페이스에 반영되도록 한다.
한편, 이와 같이 모바일 인터페이스를 통해 3차원 컨텐츠를 선택하고 조작하는 것과 별도로, 테이블 인터페이스를 통해 3차원 컨텐츠를 선택하고 조작할 수도 있음은 도 8a 및 도 8b에 대한 설명에서 상술한 바와 같다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명은 테이블 인터페이스에 의한 협업 공간에 모바일 인터페이스에 의한 개인 공간을 더함으로써 도시계획을 비롯하여 교육, 훈련, 전시, 엔터테인먼트 등의 다양한 응용분야에 활용될 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 개인화 및 협업을 위한 증강현실 시스템의 구성도,
도 2는 테이블 인터페이스의 개념도,
도 3은 테이블 인터페이스에 구비된 버튼의 일례를 도시한 도면,
도 4는 모바일 인터페이스의 개념도,
도 5는 사용자와 모바일 인터페이스 및 테이블 인터페이스 간의 상호작용을 도시한 개념도,
도 6은 테이블 인터페이스와 모바일 인터페이스의 공간적 좌표 시스템을 일치시켜 공동 공간을 생성하는 것을 설명하기 위한 개념도,
도 7은 테이블 인터페이스와 모바일 인터페이스의 시간적 동기화를 통해 공동 공간을 생성하는 것을 설명하기 위한 개념도,
도 8a 및 도 8b는 테이블 인터페이스의 일례를 나타낸 사진,
도 9는 사용자가 모바일 장치를 사용하여 테이블 주위에서 테이블을 바라보는 사진,
도 10a 내지 도 10e는 모바일 인터페이스의 일례를 나타낸 사진,
도 11은 본 발명의 바람직한 실시예에 따른 증강현실을 이용한 상호작용방법의 흐름도이다.
<도면의 주요부분에 대한 부호의 설명>
10 - 입력 모듈 20 - 장면 구성 모듈
30, 230 - 뷰어 모듈 40, 240 - 네트워크 모듈
100 - 테이블 인터페이스 200 - 모바일 인터페이스
210 - 추적 모듈 220 - 정합 모듈

Claims (12)

  1. 테이블 위에 투영된 영상의 특정 컨텐츠를 터치하거나 상기 특정 컨텐츠 상에 올려놓은 객체를 통해 사용자와 상호작용하도록 하는 협업 공간을 제공하는 테이블 인터페이스; 및
    상기 객체를 인식하고 추적하여 상기 투영된 영상에 3차원 컨텐츠를 증강시키는 개인 공간을 제공하는 모바일 인터페이스
    를 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  2. 제1항에 있어서, 상기 테이블 인터페이스는
    상기 사용자의 입력을 받기 위한 입력 모듈과, 상기 입력 모듈로부터 전송된 데이터로 장면을 구성하는 장면 구성 모듈과, 상기 장면 구성 모듈을 통해 구성된 장면을 디스플레이하는 뷰어 모듈, 및 상기 모바일 인터페이스와의 연결을 위한 네트워크 모듈을 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  3. 제2항에 있어서,
    상기 입력 모듈은 상기 사용자의 터치를 인식하는 터치 프레임인 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  4. 제2항에 있어서,
    상기 입력 모듈은 상기 객체를 인식하는 카메라인 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  5. 제1항에 있어서, 상기 모바일 인터페이스는
    상기 객체를 인식하고 추적하는 추적 모듈과, 상기 테이블 인터페이스와의 연결을 위한 네트워크 모듈과, 상기 추적 모듈로부터 전송된 영상에 3차원 컨텐츠를 증강하는 정합 모듈, 및 상기 정합 모듈을 통해 증강된 영상을 디스플레이하는 뷰어 모듈을 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  6. 제5항에 있어서,
    상기 추적 모듈은 카메라를 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  7. 제5항에 있어서,
    상기 모바일 인터페이스는 상기 3차원 컨텐츠와의 상호 작용을 위한 입력 모듈을 더 구비하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  8. 제7항에 있어서,
    상기 입력 모듈은 터치 패널을 포함하는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  9. 제1항에 있어서,
    상기 객체는 상기 테이블 인터페이스와 상기 모바일 인터페이스에서 동일한 좌표값을 갖는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  10. 제 1 항에 있어서,
    상기 테이블 인터페이스와 상기 모바일 인터페이스는 네트워킹을 통해 상기 객체의 좌표 데이터를 교환 전송하며, 상기 전송은 시간적으로 동기화되어 수행되는 것을 특징으로 하는 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템.
  11. (a) 테이블 인터페이스 위에 객체를 놓는 단계;
    (b) 모바일 인터페이스에 장착된 카메라를 통해 상기 객체를 인식하고 추적하는 단계;
    (c) 상기 카메라를 통해 획득한 영상에 3차원 컨텐츠를 증강하는 단계;
    (d) 상기 3차원 컨텐츠를 선택 또는 조작함으로써 상호작용을 수행하는 단계
    를 포함하는 것을 특징으로 하는 증강현실을 이용한 상호작용방법.
  12. 제11항에 있어서,
    상기 테이블 인터페이스 상의 객체를 조작하는 단계를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 상호작용방법.
KR1020080012710A 2008-02-12 2008-02-12 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법 KR100963238B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020080012710A KR100963238B1 (ko) 2008-02-12 2008-02-12 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
PCT/KR2009/000627 WO2009102138A2 (ko) 2008-02-12 2009-02-11 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과 증강현실을 이용한 상호작용방법
US12/867,420 US8823697B2 (en) 2008-02-12 2009-02-11 Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
EP09710554.8A EP2267595A4 (en) 2008-02-12 2009-02-11 MOBILE TABLE INCREASED CUSTOMIZATION TABLE REALITY SYSTEM AND COOPERATION, AND INTERACTION METHOD USING ENHANCED REALITY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080012710A KR100963238B1 (ko) 2008-02-12 2008-02-12 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법

Publications (2)

Publication Number Publication Date
KR20090087332A KR20090087332A (ko) 2009-08-17
KR100963238B1 true KR100963238B1 (ko) 2010-06-10

Family

ID=40957369

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080012710A KR100963238B1 (ko) 2008-02-12 2008-02-12 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법

Country Status (4)

Country Link
US (1) US8823697B2 (ko)
EP (1) EP2267595A4 (ko)
KR (1) KR100963238B1 (ko)
WO (1) WO2009102138A2 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329935B1 (ko) 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법
KR101332816B1 (ko) * 2010-07-26 2013-11-27 주식회사 팬택 프라이빗 태그를 제공하는 증강 현실 장치 및 방법
US9277283B2 (en) 2011-01-07 2016-03-01 Samsung Electronics Co., Ltd. Content synchronization apparatus and method
WO2019146830A1 (ko) * 2018-01-25 2019-08-01 (주)이지위드 공간상 좌표를 마커로 활용하는 실시간 동기화된 증강현실 콘텐츠 제공 장치 및 방법
KR102208708B1 (ko) * 2019-08-14 2021-01-28 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
KR20230064788A (ko) 2021-11-04 2023-05-11 한국기술교육대학교 산학협력단 가상현실 서비스에서 복수의 사용자 사이에 객체의 정보를 동기화 하기 위한 방법 및 장치

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4740990B2 (ja) * 2008-10-10 2011-08-03 東芝テック株式会社 飲食店用テーブル及びこのテーブルを用いた電子メニュー装置
GB0920754D0 (en) * 2009-11-27 2010-01-13 Compurants Ltd Inamo big book 1
KR101722550B1 (ko) * 2010-07-23 2017-04-03 삼성전자주식회사 휴대용 단말에서 증강현실 컨텐츠 제작과 재생 방법 및 장치
US8502659B2 (en) 2010-07-30 2013-08-06 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
WO2012015956A2 (en) * 2010-07-30 2012-02-02 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US8519844B2 (en) 2010-07-30 2013-08-27 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US8493206B2 (en) 2010-07-30 2013-07-23 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
KR101357262B1 (ko) 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
US9092135B2 (en) * 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
JP5655515B2 (ja) * 2010-11-11 2015-01-21 ソニー株式会社 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム
JP5776201B2 (ja) * 2011-02-10 2015-09-09 ソニー株式会社 情報処理装置、情報共有方法、プログラム及び端末装置
CN102147658B (zh) * 2011-02-12 2013-01-09 华为终端有限公司 实现扩增实境互动的方法、扩增实境互动装置及移动终端
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US10242456B2 (en) * 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US9886552B2 (en) 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
KR101330807B1 (ko) * 2011-08-31 2013-11-18 주식회사 팬택 증강 현실을 활용한 데이터 공유 장치 및 방법
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US20130083018A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Personal audio/visual system with holographic objects
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
US9041739B2 (en) * 2012-01-31 2015-05-26 Microsoft Technology Licensing, Llc Matching physical locations for shared virtual experience
US9020203B2 (en) 2012-05-21 2015-04-28 Vipaar, Llc System and method for managing spatiotemporal uncertainty
WO2014032089A1 (en) * 2012-08-28 2014-03-06 University Of South Australia Spatial augmented reality (sar) application development system
US9116604B2 (en) * 2012-10-25 2015-08-25 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Multi-device visual correlation interaction
SK500492012A3 (sk) * 2012-10-31 2014-05-06 Andrej Grék Spôsob interakcie pomocou rozšírenej reality
FR2998389B1 (fr) * 2012-11-20 2016-07-08 Immersion Dispositif et procede de partage visuel de donnees
US9922446B2 (en) 2012-12-21 2018-03-20 Apple Inc. Method for representing virtual information in a real environment
US9710968B2 (en) 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
EP3517190B1 (en) 2013-02-01 2022-04-20 Sony Group Corporation Information processing device, terminal device, information processing method, and programme
US9081473B2 (en) 2013-03-14 2015-07-14 Google Inc. Indicating an object at a remote location
JP6032350B2 (ja) * 2013-03-21 2016-11-24 富士通株式会社 動作検知装置及び動作検知方法
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US9940750B2 (en) 2013-06-27 2018-04-10 Help Lighting, Inc. System and method for role negotiation in multi-reality environments
KR101579491B1 (ko) * 2013-07-17 2015-12-23 한국과학기술원 증강현실에서의 원격 협업을 위한 디지로그 공간 생성기 및 그를 이용한 디지로그 공간 생성 방법
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9972131B2 (en) * 2014-06-03 2018-05-15 Intel Corporation Projecting a virtual image at a physical surface
CN104093061B (zh) * 2014-07-18 2020-06-02 北京智谷睿拓技术服务有限公司 内容分享方法和装置
GB2532025A (en) * 2014-11-05 2016-05-11 Virtual Coherence Ltd A mixed-reality system for intelligent virtual object interaction
KR101687309B1 (ko) * 2015-04-02 2016-12-28 한국과학기술원 Hmd가 구비된 단말의 정보 제공 서비스 방법 및 장치
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
KR101876419B1 (ko) * 2016-01-07 2018-07-10 한국전자통신연구원 프로젝션 기반 증강현실 제공장치 및 그 방법
CN105807916B (zh) * 2016-02-29 2019-09-10 深圳前海勇艺达机器人有限公司 一种使机器人具备玩ar游戏的方法
US10720082B1 (en) 2016-09-08 2020-07-21 Ctskh, Llc Device and system to teach stem lessons using hands-on learning method
EP3616035B1 (en) 2017-06-19 2024-04-24 Apple Inc. Augmented reality interface for interacting with displayed maps
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10777007B2 (en) 2017-09-29 2020-09-15 Apple Inc. Cooperative augmented reality map interface
WO2019106558A1 (ru) * 2017-11-29 2019-06-06 ГИОРГАДЗЕ, Анико Тенгизовна Взаимодействие пользователей в коммуникационной системе с использованием объектов дополненной реальности
WO2019127571A1 (zh) * 2017-12-30 2019-07-04 神画科技(深圳)有限公司 一种基于投影仪的道具识别方法及***
US11527044B2 (en) 2018-06-27 2022-12-13 Samsung Electronics Co., Ltd. System and method for augmented reality
KR101977332B1 (ko) 2018-08-03 2019-05-10 주식회사 버넥트 증강현실 원격화상통신환경에서 직관적인 가이드를 위한 테이블탑 시스템
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
JP7206706B2 (ja) * 2018-08-31 2023-01-18 積水ハウス株式会社 シミュレーションシステム
EP3891719A1 (de) * 2018-12-03 2021-10-13 SmartMunk GmbH Objektbasiertes verfahren und system zur kollaborativen lösungsfindung
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
KR102439337B1 (ko) * 2019-11-22 2022-09-01 주식회사 코이노 증강현실 공유 기반 다자참여 원격 협업 시스템 및 그 방법
CN111177439A (zh) * 2019-12-12 2020-05-19 闪维(北京)文化有限公司 一种ar互动桌及其识别方法
US11273375B1 (en) 2020-08-28 2022-03-15 Justin Hanyan Wong Methods and systems for rendering virtual three-dimensional field of play for AR-enhanced gameplay experience
US11651557B2 (en) 2021-01-12 2023-05-16 Ford Global Technologies, Llc Systems and methods of using mixed reality for interacting with a display system
US11543931B2 (en) * 2021-01-27 2023-01-03 Ford Global Technologies, Llc Systems and methods for interacting with a tabletop model using a mobile device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038470A (ja) 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2007052780A (ja) 2005-08-11 2007-03-01 Samsung Electronics Co Ltd 移動通信端末のユーザー入力方法及び装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP2004534963A (ja) * 2001-03-30 2004-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 強化現実のための方法、システム及び装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
CN101080762A (zh) * 2004-11-19 2007-11-28 Daem交互有限公司 具有图像获取功能、应用于扩充现实性资源的个人装置和方法
US20060223635A1 (en) * 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038470A (ja) 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2007052780A (ja) 2005-08-11 2007-03-01 Samsung Electronics Co Ltd 移動通信端末のユーザー入力方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
박영민외 1인, "ARTable: 감각형 오브젝트를 이용한 증강현실 기반 상호작용 시스템", 한국컴퓨터종합학술대회 2005 논문집 Vol.32, No.1(B)
하태진외 3인, "증강현실 기반 제품 디자인의 몰입감 향상 기법", 전자공학회 논문지 제44권 CI편 제2호, 2007.03

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101332816B1 (ko) * 2010-07-26 2013-11-27 주식회사 팬택 프라이빗 태그를 제공하는 증강 현실 장치 및 방법
US9277283B2 (en) 2011-01-07 2016-03-01 Samsung Electronics Co., Ltd. Content synchronization apparatus and method
US9979788B2 (en) 2011-01-07 2018-05-22 Samsung Electronics Co., Ltd. Content synchronization apparatus and method
KR101329935B1 (ko) 2011-01-27 2013-11-14 주식회사 팬택 이종 마커를 이용해서 원격으로 증강현실 서비스를 공유하는 증강현실 시스템 및 그 방법
WO2019146830A1 (ko) * 2018-01-25 2019-08-01 (주)이지위드 공간상 좌표를 마커로 활용하는 실시간 동기화된 증강현실 콘텐츠 제공 장치 및 방법
KR102208708B1 (ko) * 2019-08-14 2021-01-28 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
WO2021029566A1 (ko) * 2019-08-14 2021-02-18 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
US12002162B2 (en) 2019-08-14 2024-06-04 Korea Institute Of Science And Technology Method and apparatus for providing virtual contents in virtual space based on common coordinate system
KR20230064788A (ko) 2021-11-04 2023-05-11 한국기술교육대학교 산학협력단 가상현실 서비스에서 복수의 사용자 사이에 객체의 정보를 동기화 하기 위한 방법 및 장치

Also Published As

Publication number Publication date
WO2009102138A2 (ko) 2009-08-20
EP2267595A2 (en) 2010-12-29
US20100315418A1 (en) 2010-12-16
EP2267595A4 (en) 2014-05-14
KR20090087332A (ko) 2009-08-17
US8823697B2 (en) 2014-09-02
WO2009102138A3 (ko) 2009-11-12

Similar Documents

Publication Publication Date Title
KR100963238B1 (ko) 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
de Belen et al. A systematic review of the current state of collaborative mixed reality technologies: 2013–2018
Polvi et al. SlidAR: A 3D positioning method for SLAM-based handheld augmented reality
Hedley et al. Explorations in the use of augmented reality for geographic visualization
US20150193979A1 (en) Multi-user virtual reality interaction environment
US8808089B2 (en) Projection of interactive game environment
US10192363B2 (en) Math operations in mixed or virtual reality
Kunert et al. Photoportals: shared references in space and time
Stuerzlinger et al. The value of constraints for 3D user interfaces
Zillner et al. 3D-board: a whole-body remote collaborative whiteboard
Benko Beyond flat surface computing: challenges of depth-aware and curved interfaces
Nor'a et al. Integrating virtual reality and augmented reality in a collaborative user interface
US20230115736A1 (en) Interactive environment with virtual environment space scanning
Pinhanez et al. Ubiquitous interactive graphics
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
Hagler et al. Animating participants in co-located playful mixed-reality installations
Ducher Interaction with augmented reality
Fischbach et al. A Mixed Reality Space for Tangible User Interaction.
Beimler et al. Immersive guided tours for virtual tourism through 3D city models
Hauber et al. Tangible teleconferencing
Greimel A survey of interaction techniques for public displays
Kim et al. DuplicateSpace: Enhancing operability of virtual 3D objects by asymmetric bimanual interaction
JP2016218830A (ja) 触覚提示システム、触覚提示方法、およびプログラム
Hsu based Tangible User Interface as interaction in mixed reality
Lala et al. Enhancing communication through distributed mixed reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130313

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140519

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160512

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170530

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190523

Year of fee payment: 10