KR102256329B1 - 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치 - Google Patents

인터랙티브 가상현실 컨텐츠의 제공방법 및 장치 Download PDF

Info

Publication number
KR102256329B1
KR102256329B1 KR1020200020833A KR20200020833A KR102256329B1 KR 102256329 B1 KR102256329 B1 KR 102256329B1 KR 1020200020833 A KR1020200020833 A KR 1020200020833A KR 20200020833 A KR20200020833 A KR 20200020833A KR 102256329 B1 KR102256329 B1 KR 102256329B1
Authority
KR
South Korea
Prior art keywords
image
posture
performer
selection
connection
Prior art date
Application number
KR1020200020833A
Other languages
English (en)
Inventor
김동규
김원일
Original Assignee
주식회사 비전브이알
김동규
최숭
김원일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비전브이알, 김동규, 최숭, 김원일 filed Critical 주식회사 비전브이알
Priority to KR1020200020833A priority Critical patent/KR102256329B1/ko
Priority to US17/235,301 priority patent/US11605196B2/en
Application granted granted Critical
Publication of KR102256329B1 publication Critical patent/KR102256329B1/ko
Priority to US18/150,138 priority patent/US11935173B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

아이들 영상과 분지 영상을 자연스럽게 연결함으로써 사용자의 몰입도를 높일 수 있는 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치가 제공된다. 인터랙티브 가상현실 컨텐츠의 제공방법은 컴퓨팅 장치에 의해서 수행되는 인터랙티브 가상현실 컨텐츠의 제공방법에서, 선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하는 단계; 상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받는 단계; 상기 선택을 입력받은 후에, 연결 영상을 제공하는 단계; 및 상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하는 단계를 포함하되, 상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 한다.

Description

인터랙티브 가상현실 컨텐츠의 제공방법 및 장치{Providing method and device of interactive virtual reality contents}
본 발명은 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치에 관한 것이다.
가상현실 컨텐츠(virtual reality contents)는 실제와 유사하지만 실제가 아닌, 어떤 특정한 환경/상황을 컴퓨터로 만들어서, 사용자가 마치 실제 상황/환경과 상호작용을 하고 있는 것처럼 만들어 준다.
또한, 인터랙티브 컨텐츠(interactive contents)는 사용자가 컨텐츠(예를 들어, 영화, 게임, 책 등)의 스토리 진행 과정에 능동적으로 참여할 수 있게 한다. 따라서, 하나의 인터랙티브 컨텐츠를 경험하더라도, 다수의 사용자들은 여러 개의 서로 다른 결말을 맞이할 수 있다.
가상현실 컨텐츠와 인터랙티브 컨텐츠는, 사용자가 컨텐츠를 수동적으로 경험하는 것이 아니고, 능동적으로 플레이(play)한다는 점에서 유사하다. 따라서, 인터랙티브 기능이 추가된 가상현실 컨텐츠(이하, "인터랙티브 가상현실 컨텐츠"라 함) 제작이 논의되고 있다.
한편, 인터랙티브 가상현실 컨텐츠를 제공하는 중간에(예를 들어, 영상을 상영하는 중간에) 컨텐츠의 진행을 멈추고, 사용자에게 다수의 선택지를 제공하고, 사용자의 선택에 대응되는 분지 영상을 제공할 수 있다. 그런데, 다수의 선택지를 제공하는 영상(이하, "아이들(idle) 영상"이라 함)과, 아이들 영상에 이어지는 분지 영상의 연결성이 떨어지면, 인터랙티브 가상현실 컨텐츠에 대한 사용자(즉, 관람객)의 몰입도가 떨어지게 된다.
본 발명이 해결하고자 하는 과제는, 아이들 영상과 분지 영상을 자연스럽게 연결함으로써 사용자의 몰입도를 높일 수 있는 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치를 제공하는 것이다.
상기 과제를 해결하기 위해서, 본 발명의 인터랙티브 가상현실 컨텐츠의 제공방법의 일 면(aspect)은, 컴퓨팅 장치에 의해서 수행되는 인터랙티브 가상현실 컨텐츠의 제공방법에서, 선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하는 단계; 상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받는 단계; 상기 선택을 입력받은 후에, 연결 영상을 제공하는 단계; 및 상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하는 단계를 포함하되, 상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 한다.
상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직일 수 있다.
다수의 연결 영상을 저장하는 단계를 더 포함하되, 상기 다수의 연결 영상은 상기 연기자가 상기 제1 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제1 연결 영상과, 상기 연기자가 상기 제2 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제2 연결 영상을 포함할 수 있다.
상기 선택을 입력받는 시점의 상기 연기자의 제1 자세를 체크하는 단계를 더 포함하고, 상기 연결 영상을 제공하는 단계는, 상기 체크된 제1 자세에 따라, 상기 제1 연결 영상 또는 제2 연결 영상을 선택적으로 제공하는 것을 포함할 수 있다.
상기 연기자의 제1 자세를 체크하는 단계는, 상기 아이들 영상 내의 연기자가 상기 제1 대기 자세일 때 대응되는 제1 타임 스탬프와, 상기 제1 대기 자세와 상기 제2 대기 자세 사이의 시간 간격과, 상기 선택을 입력받는 시점의 제2 타임 스탬프를 이용하는 것을 포함할 수 있다.
또한, 상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 그 후 제2 대기 자세에서 제1 대기 자세로 복귀하고, 상기 선택을 입력받는 시점에, 상기 아이들 영상 내의 연기자가, 상기 제1 대기 자세보다 상기 제2 대기 자세에 가깝더라도, 상기 아이들 영상 내의 연기자는 상기 제1 대기 자세로 복귀하고, 상기 제1 대기 자세로 복귀한 후에, 상기 연결 영상을 제공할 수 있다.
상기 연결 영상은 상기 연기자의 제1 대기 자세에서의 의복을, 상기 연기자의 제2 자세에서의 의복으로 디졸브(dissolve)시키는 것을 포함할 수 있다.
상기 분지 영상의 시작 구간에서의, 상기 연기자의 동작 특성을 체크하는 단계를 더 포함하고, 상기 동작 특성에 따라, 상기 연기자의 제1 대기 자세에서의 의복 중에서 디졸브가 먼저 적용되는 영역이 변경될 수 있다.
상기 과제를 해결하기 위해서, 본 발명의 인터랙티브 가상현실 컨텐츠의 제공장치의 일 면은, 메모리; 및 프로세서를 포함하되, 상기 메모리는 상기 프로세서가 선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하고, 상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받고, 상기 선택을 입력받은 후에, 연결 영상을 제공하고, 상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하고, 상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하는, 인스트럭션들을 포함한다.
또한, 상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 상기 메모리는 다수의 연결 영상을 저장하되, 상기 다수의 연결 영상은 상기 연기자가 상기 제1 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제1 연결 영상과, 상기 연기자가 상기 제2 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제2 연결 영상을 포함하고, 상기 메모리는 상기 프로세서가 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세를 체크하고, 상기 체크된 제1 자세에 따라, 상기 제1 연결 영상 또는 제2 연결 영상을 선택적으로 제공하도록 하는, 인스트럭션들을 포함한다.
상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 그 후 제2 대기 자세에서 제1 대기 자세로 복귀하고, 상기 메모리는 상기 프로세서가 상기 선택을 입력받는 시점에, 상기 아이들 영상 내의 연기자가, 상기 제1 대기 자세보다 상기 제2 대기 자세에 가깝더라도, 상기 아이들 영상 내의 연기자는 상기 제1 대기 자세로 복귀하고, 상기 제1 대기 자세로 복귀한 후에, 상기 연결 영상을 제공하되, 상기 연결 영상은 상기 연기자의 제1 대기 자세에서의 의복을, 상기 연기자의 제2 자세에서의 의복으로 디졸브(dissolve)시키는 것을 포함할 수 있다.
도 1은 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공 시스템을 설명하기 위한 개념도이다.
도 2는 도 1에 도시된 컨텐츠 제공장치의 구성을 설명하기 위한 예시적 블록도이다.
도 3은 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서, 아이들(idle) 영상을 설명하기 위한 도면이다.
도 5는 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서, 아이들 영상을 설명하기 위한 도면이다.
도 6 내지 도 9는 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서, 아이들 영상과 분지 영상을 연결하는 연결 영상을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다.
도 11은 본 발명의 다른 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다.
도 12는 본 발명의 또 다른 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다.
도 13은 본 발명의 또 다른 실시예에 따른 가상현실 컨텐츠의 제공방법을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부한 도면들을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. 본 명세서에서, 사용자(또는 관람객)라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공 시스템을 설명하기 위한 개념도이다. 도 2는 도 1에 도시된 컨텐츠 제공장치의 구성을 설명하기 위한 예시적 블록도이다.
도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공 시스템에서, 네트워크(250)를 통해서 사용자들(즉, 관람객들)의 사용자 장치(100), 컨텐츠 제공장치(200) 등에 연결된다.
네트워크(250)는 예를 들어, 유선 및 무선 방식을 모두 포함한다. 특히, 무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 또는, 무선 통신은, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service), 컴퓨터 네트워크(예: LAN 또는 WAN) 등 중 적어도 하나를 포함할 수 있다.
컨텐츠 제공장치(200)는 후술할 인터랙티브 가상현실 컨텐츠를 제공하기 위한 장치이다. 예를 들어, 컨텐츠 제공장치(200)는 하나 이상의 서버로 구현될 수 있으나 이에 한정되지 않는다. 예를 들어 데이터베이스 서버, 파일 서버, 메일 서버, 웹 서버 등 다양한 서버의 조합일 수 있다. 컨텐츠 제공장치(200)는 중앙 집중형 서버 형태일 수도 있고, 분산형 서버 형태로 구현될 수도 있다.
사용자 장치(100)는 사용자들(관람객들)이 가상현실 컨텐츠를 관람하기 위해 사용하는 장치로서, 예를 들어, 웨어러블 장치일 수 있다. 웨어러블 장치의 예로는 헤드 마운트 디스플레이(Head Mounted Display, HMD), 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈 등), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 사용자 장치(100)는 다른 형태로도 구현 가능하고, 예를 들면, 스마트폰, 태블릿 PC, PDA, PMP(portable multimedia player), 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다.
사용자(즉, 관람객)은 사용자 장치(100)를 이용하여 개인 장소(예를 들어, 집, 회사 등)에서 개별적으로 가상현실 컨텐츠를 관람할 수도 있다. 또는, 다수의 사용자들이 모여서, 상영관과 같은 공동 장소에서 가상현실 컨텐츠를 관람할 수도 있다. 공동 장소에서 가상현실 컨텐츠를 관람할 때에는, 사용자 장치(100)가 좌석에 고정식/부착식으로 설치될 수도 있다. 또는, 사용자 장치(100)가 좌석에 설치되어 있지 않는 경우에는, 사용자들(관람객들)이 사용자 장치(100)를 상영관으로부터 제공받아 사용하거나, 사용자들(관람객들)이 별도의 개인용 전자 장치를 들고 들어와 사용할 수도 있다.
여기서, 도 2를 참조하면, 컨텐츠 제공장치(200)는 버스(280)에 의해서, 통신모듈(230), 프로세서(260), 메모리(270), 입출력 인터페이스 등의 다양한 구성요소가 서로 연결 및 통신(즉, 제어 메시지 전달 및 데이터 전달)할 수 있다.
통신모듈(230)은 도 1에서 설명한 다양한 유선/무선 네트워크(250)를 통해서 다른 사용자 장치(100), 컨텐츠 제공장치(200) 등에 통신하기 위한 모듈이다.
본 명세서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다.
프로세서(260)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(260)는, 예를 들면, 컨텐츠 제공장치(200)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(270)는 휘발성 메모리(예를 들어, DRAM, SRAM, 또는 SDRAM) 및/또는 비휘발성 메모리(예를 들어, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, PRAM, RRAM, MRAM, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD))를 포함할 수 있다. 메모리(270)는 내장 메모리 및/또는 외장 메모리를 포함할 수 잇다. 메모리(270)는, 예를 들면, 컨텐츠 제공장치(200)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 또한, 메모리(270)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다.
메모리(270)는 다음의 인터랙티브 가상현실 컨텐츠의 상영 방법을 수행하기 위한 인스트럭션들(instructions)을 저장하고 있다.
구체적으로, 메모리(270)는 프로세서(260)가 선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하고, 상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받고, 상기 선택을 입력받은 후에, 연결 영상을 제공하고, 상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하고, 상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하는, 인스트럭션들을 포함한다.
또한, 상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 상기 메모리(270)는 다수의 연결 영상을 저장하되, 상기 다수의 연결 영상은 상기 연기자가 상기 제1 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제1 연결 영상과, 상기 연기자가 상기 제2 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제2 연결 영상을 포함하고, 상기 메모리(270)는 상기 프로세서(260)가 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세를 체크하고, 상기 체크된 제1 자세에 따라, 상기 제1 연결 영상 또는 제2 연결 영상을 선택적으로 제공하도록 하는, 인스트럭션들을 포함한다.
상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 그 후 제2 대기 자세에서 제1 대기 자세로 복귀하고, 상기 메모리(270)는 상기 프로세서(260)가 상기 선택을 입력받는 시점에, 상기 아이들 영상 내의 연기자가, 상기 제1 대기 자세보다 상기 제2 대기 자세에 가깝더라도, 상기 아이들 영상 내의 연기자는 상기 제1 대기 자세로 복귀하고, 상기 제1 대기 자세로 복귀한 후에, 상기 연결 영상을 제공하되, 상기 연결 영상은 상기 연기자의 제1 대기 자세에서의 의복을, 상기 연기자의 제2 자세에서의 의복으로 디졸브(dissolve)시키는 것을 포함할 수 있다.
이러한 인터랙티브 가상현실 컨텐츠의 제공방법은 도 3 내지 도 13을 이용하여 구체적으로 후술한다.
본 명세서에서, 이전 영상, 아이들(idle) 영상, 연결 영상, 분지 영상 등과 같이 "영상"으로 표현되는 것은, 영화, 게임, 동영상 등 다양한 가상현실 컨텐츠에서 사용되는 영상을 의미한다.
도 3은 본 발명의 몇몇 실시예에 따른 가상현실 컨텐츠의 제공방법을 설명하기 위한 도면이다. 도 4는 가상현실 컨텐츠의 분지점에서 선택지가 등장하는 것을 설명하기 위한 도면이다.
우선 도 3을 참조하면, 본 발명의 몇몇 실시예에 따른 가상현실 컨텐츠의 제공방법에서, 시간 t0에서 시간 t1까지, 이전 영상(A0)이 제공된다. 사용자는 사용자 장치(100)를 통해서 이전 영상(A0)을 관람한다.
이전 영상(A0)이 제공된 후, 제1 분지점(Q1)에서(예를 들어, 시간 t1에서), 적어도 하나의 선택지가 제공된다.
이어서, 사용자로부터(즉, 사용자 장치(100)를 통해서) 상기 선택지에 대응하는 선택을 입력받는다.
시간 t1에서 시간 t2까지, 상기 사용자의 선택에 따라 대응되는 분지 영상(A1 또는 A2)이 제공된다. 사용자는 사용자 장치(100)를 통해서 분지 영상(A1 또는 A2)을 관람한다.
구체적으로 도 4를 예를 들면, 이전 영상(A0)에서, 불시착 이후에 연기자("영희")(3710)가 외딴 섬을 헤메다가 오래된 다리를 발견한다. 이 때 선택지(370a)가 등장한다. 1번옵션(OP1)은 "다리를 건넌다"이고, 2번옵션(OP2)은 "다리를 건너지 않고 돌아간다"일 수 있다. 사용자가 1번옵션(OP1)을 선택하면, 다리를 건너는 분지 영상이 디스플레이된다(즉, 분지영상(A1)이 제공됨). 사용자가 2번옵션(OP2)을 선택하면, 다리를 건너지 않고 돌아가는 분지 영상이 디스플레이된다(즉, 분지영상(A2)가 제공됨).
다시 도 3을 참조하면, 이어서, 분지영상(A1)이 제공된 후, 제2 분지점(Q2)에서(예를 들어, 시간 t2에서), 적어도 하나의 선택지가 다시 제공된다.
이어서, 사용자로부터(즉, 사용자 장치(100)를 통해서) 상기 선택지에 대응하는 선택을 입력받는다. 이어서, 시간 t2에서 시간 t3 까지, 상기 사용자의 선택에 따라 대응되는 분지영상(A11 또는 A12)이 제공된다. 사용자는 사용자 장치(100)를 통해서 분지영상(A11 또는 A12)을 관람한다.
또는, 분지영상(A2)이 제공된 후, 제3 분지점(Q3)에서(예를 들어, 시간 t2에서), 적어도 하나의 선택지가 제공된다.
이어서, 사용자로부터(즉, 사용자 장치(100)를 통해서) 상기 선택지에 대응하는 선택을 입력받는다. 이어서, 시간 t2에서 시간 t3 까지, 상기 사용자의 선택에 따라 대응되는 분지영상(A21 또는 A22)이 제공된다. 사용자는 사용자 장치(100)를 통해서 분지영상(A21 또는 A22)을 관람한다.
전술한 적어도 한번의 사용자의 선택에 따라서, 인터랙티브 가상현실 컨텐츠의 결론(R1, R2, R3, R4)이 달라질 수 있다.
도 3에서는, 제2 분지점(Q2)과 제3 분지점(Q3)이 동일한 시간(t2)에 배치되는 것으로 도시하였으나, 이에 한정되지 않는다. 즉, 분지영상(A1), 분지영상(A2)의 길이에 따라, 제2 분지점(Q2)과 제3 분지점(Q3)의 위치가 달라질 수 있다.
여기서, 도 5를 참조하여, 분지점(예를 들어, Q1)에서 제공되는, 선택지가 포함되는 아이들 영상에 대해서 구체적으로 설명한다.
도 5는 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서, 아이들 영상을 설명하기 위한 도면이다. 아이들 영상에서 연기자의 움직임을 자세히 설명하기 위해서, 선택지(도 4의 370a 참조)를 도시하지 않았다.
도 5에 도시된 것과 같이, 아이들 영상 내의 연기자는 움직임을 갖는다. 인터랙티브 가상현실 컨텐츠에서, 사용자가 선택을 하는 동안(즉, 아이들 영상 내의) 연기자가 움직이지 않고 고정되어 있다면, 사용자의 몰입도가 떨어질 수 있다. 예를 들어, 연기자가 사용자에게 질문을 하고, 연기자가 사용자의 답변(즉, 선택)을 기다리는 동안 연기자는 자연스러운 동작을 수행하고 있어야, 사용자의 몰입도를 높일 수 있다.
예를 들어, 아이들 영상 내의 연기자는 제1 대기 자세(371)에서 제2 대기 자세(372)로 움직일 수 있다. 또한, 아이들 영상 내의 연기자는, 제1 대기 자세(371)에서 제2 대기 자세(372)로 움직이고, 그 후 제2 대기 자세(372)에서 제1 대기 자세(371)로 복귀할 수 있다. 즉, 아이들 영상 내의 연기자는, 사용자의 답변(즉, 선택)을 기다리는 동안, 기설정된 동작을 반복할 수 있다.
한편, 도 5에서는, 아이들 영상 내의 연기자가 제1 대기 자세(371)에서 제2 대기 자세(372)로 움직이거나 및/또는 복귀하는 것을 예로 들었으나, 이에 한정되지 않는다.
별도로 도시하지 않았으나, 예를 들어, 연기자는 제1 대기 자세(371)에서 왼쪽으로 움직여 제2 대기 자세(372)까지 움직이고, 제2 대기 자세(372)에서 오른쪽으로 움직여 제1 대기 자세(371)를 지나서 다른 대기 자세까지 움직이고, 상기 다른 대기 자세에서 왼쪽으로 움직여 제1 대기 자세(371)로 복귀할 수 있다.
한편, 아이들 영상이 제공되는 도중에, 사용자로부터 선택지(예를 들어, 370a)에 대응되는 선택을 입력받는다. 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서는, 선택을 입력받은 후에, 연결 영상을 제공한다. 연결 영상을 제공한 후에, 사용자의 선택에 따라 대응되는 분지 영상을 제공하게 된다.
도 6 내지 도 9를 이용하여 구체적으로, 아이들 영상과 분지 영상을 연결하는 연결 영상을 설명한다.
아이들 영상 속의 연기자는 대기 동작을 수행하는데, 대기 동작은 제1 대기 자세(도 5의 371)와 제2 대기 자세(도 5의 372) 사이를 움직이는 것이라고 가정한다. 또한, 사용자의 선택을 입력받는 시점에서 연기자의 자세를 제1 자세(도 6의 3911 또는 도 8의 3912)라 하고, 분지 영상(A1)의 시작 시점의 상기 연기자의 제2 자세(381)라고 하자.
우선, 도 6 및 도 7을 참고하면, 시간 t1 이전에는 이전 영상(A0)이 제공된다.
시간 t1에서부터 아이들 영상(I0)이 제공된다. 아이들 영상(I0) 내의 연기자는 대기 동작을 수행한다. 즉, 아이들 영상 속의 연기자가 제1 대기 자세(371)와 제2 대기 자세(372) 사이를 움직인다고 가정한다.
시간 t11에서, 아이들 영상(I0)이 제공되는 도중에(즉, 연기자가 대기 동작을 수행하는 도중에), 사용자로부터 선택지에 대응되는 선택(S1)이 입력된다. 사용자의 선택을 입력받는 시점에서, 연기자는 제1 대기 자세(371)에 대응되거나, (제2 대기 자세(372)보다) 제1 대기 자세(371)에 가까운 위치에 있을 수 있다. 즉, 사용자의 선택을 입력받는 시점에서, 연기자의 제1 자세(3911)는 제1 대기 자세(371)에 대응되는 위치에 있을 수 있다.
시간 t11에서 시간 t12까지, 제1 연결 영상(C11)이 제공된다. 구체적으로, 선택(S1)이 입력되는 시점에 따라 (또는, 선택(S1)이 입력되는 시점의 연기자의 자세에 따라) 연결 영상이 달라질 수 있다. 도 6 및 도 7에서는, 연기자의 제1 자세(3911)는 제1 대기 자세(371)에 대응되는 위치에 있기 때문에, 제1 연결 영상(C11)이 제공된다.
제1 연결 영상(C11)은 아이들 영상(I0)과 (시간 t12에서부터 제공될) 분지 영상(A1)을 부드럽게 연결한다. 여기서, 제1 연결 영상(C11)에서, (아이들 영상(I0)의) 연기자는 제1 대기 자세(371)에서 (분지 영상(A1)의) 시작 시점의 제2 자세(381)로 움직이게 된다(도면부호 391 참조).
도 8 및 도 9를 참고하면, 시간 t1 이전에는 이전 영상(A0)이 제공된다.
시간 t1에서부터 아이들 영상(I0)이 제공된다. 아이들 영상(I0) 내의 연기자는 대기 동작을 수행한다. 즉, 아이들 영상 속의 연기자가 제1 대기 자세(371)와 제2 대기 자세(372) 사이를 움직인다고 가정한다.
시간 t21에서, 아이들 영상(I0)이 제공되는 도중에(즉, 연기자가 대기 동작을 수행하는 도중에), 사용자로부터 선택지에 대응되는 선택(S1)이 입력된다. 사용자의 선택을 입력받는 시점에서, 연기자는 제2 대기 자세(372)에 대응되거나, (제1 대기 자세(371)보다) 제2 대기 자세(372)에 가까운 위치에 있을 수 있다. 즉, 사용자의 선택을 입력받는 시점에서, 연기자의 제1 자세(3912)는 제2 대기 자세(372)에 대응되는 위치에 있을 수 있다.
시간 t21에서 시간 t22까지, 제2 연결 영상(C12)이 제공된다. 구체적으로, 선택(S1)이 입력되는 시점에 따라 (또는, 선택(S1)이 입력되는 시점의 연기자의 자세에 따라) 연결 영상이 달라질 수 있다. 도 8 및 도 9에서는, 연기자의 제1 자세(3912)는 제2 대기 자세(372)에 대응되는 위치에 있기 때문에, 제2 연결 영상(C12)이 제공된다.
제2 연결 영상(C12)은 아이들 영상(I0)과 (시간 t22에서부터 제공될) 분지 영상(A1)을 부드럽게 연결한다. 여기서, 제2 연결 영상(C12)에서, (아이들 영상의) 연기자는 제2 대기 자세(372)에서 (분지 영상(A1)의) 시작 시점의 제2 자세(381)로 움직이게 된다(도면부호 392 참조).
도 5 내지 도 9를 참조하면, 연결 영상(C11 또는 C12) 내에서, 연기자의 적어도 일부는 컴퓨터 그래픽 처리되어 있고, 연기자가 연결 동작(391, 392 참조)을 수행함으로써, 선택(S1)을 입력받는 시점의 연기자의 제1 자세(3911 또는 3912)에서부터 분지 영상(A1)의 시작 시점의 연기자의 제2 자세(381)로 부드럽게 연결되도록 한다.
한편, 연결 영상(C11 또는 C12)은 다수개가 미리 준비되어 있다(예를 들어, 도 2의 메모리(270)에 저장되어 있을 수 있음). 즉, 대기 영상을 제공하는 과정 중에 사용자의 선택(S1)이 언제 입력될지 알 수 없기 때문에, 분지 영상(A1)으로의 부드러운 연결을 위해 다수의 연결 영상(예를 들어, C11 또는 C12)이 저장되어 있다.
도 5 내지 도 9에서는, 2개의 연결 영상(C11 또는 C12)만을 기초로 설명하였으나, 이에 한정되지 않는다. 즉, 3개 이상의 연결 영상이 준비될 수도 있다. 예를 들어, 제1 대기 자세(371)와 제2 대기 자세(372) 사이에 제3 대기 자세가 있을 수 있다. 즉, 아이들 영상에서, 연기자는 제1 대기 자세(371)에서 제3 대기 자세를 거쳐서 제2 대기 자세(372)로 움직이고, 반대로 제2 대기 자세(372)에서 제3 대기 자세를 거쳐서 제1 대기 자세(371)로 움직일 수 있다. 사용자로부터 입력을 입력받는 시점에서, 연기자의 자세가 제1 대기 자세(371), 제2 대기 자세(372) 및 제3 대기 자세 중에서 어느 자세에 가장 가까운지를 체크한다. 제1 연결 영상(C11)은 제1 대기 자세(371)에서 제2 자세(381)로 움직이고, 제2 연결 영상(C12)은 제2 대기 자세(372)에서 제2 자세(381)로 움직이고, 제3 연결 영상은 제3 대기 자세에서 제2 자세(381)로 움직이는 것일 수 있다. 체크 결과, 사용자로부터 입력을 입력받는 시점에서, 연기자의 자세가 제3 대기 자세와 가장 유사하면, 아이들 영상(I0) 후에 제3 연결 영상이 제공될 수 있다.
만약, 아이들 영상(I0)이 제공되는 도중에 사용자의 선택(S1)이 입력되고, 연결 영상(C11 또는 C12) 없이, 바로 분지 영상(A1)으로 점프하게 되면, 아이들 영상(I0)의 가장 마지막 장면(즉, 선택을 입력받는 시점의 연기자의 자세)과, 분지 영상(A1)의 시작 시점의 장면(즉, 연기자의 시작 시점의 자세)의 차이가 클 수 있다. 이러한 경우, 인터랙티브 가상현실 컨텐츠에 대한 사용자(즉, 관람객)의 몰입도가 떨어지게 된다.
반면, 아이들 영상(I0)이 제공되는 도중에 사용자의 선택(S1)이 입력되었음에도 불구하고, 아이들 영상(I0)을 끝까지 보여준 후에 분지 영상(A1)으로 넘어간다면, 사용자는 자신의 선택(S1)이 즉각적으로 반영되지 않고, 연기자의 반응이 너무 느리다고 생각할 수 있다. 이러한 경우에도, 인터랙티브 가상현실 컨텐츠에 대한 사용자(즉, 관람객)의 몰입도가 떨어지게 된다.
따라서, 본 발명의 몇몇 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법에서는, 아이들 영상(I0)이 제공되는 도중에 사용자의 선택(S1)이 입력되면 즉각적으로 화면 전환을 시도하여(즉, 연결 영상(C11 또는 C12)을 제공하여), 사용자가 자신의 선택(S1)이 즉각적으로 반영된다고 느끼게 할 수 있다. 또한, 연결 영상(C11 또는 C12)은, 아이들 영상(I0)의 가장 마지막 장면(즉, 선택을 입력받는 시점의 연기자의 자세)과, 분지 영상(A1)의 시작 시점의 장면(즉, 연기자의 시작 시점의 자세)을 부드럽게 연결함으로써, 영상이 점프하면 발생하는 어색함을 제거할 수 있다(도 6의 391, 도 8의 392 참조).
또한, 연결 영상(C11 또는 C12)을 만드는 방법은, 컴퓨터 그래픽 처리를 이용하여 다양하게 수행할 수 있다.
단색 스크린(예를 들어, 그린 스크린 또는 블루 스크린)을 배경으로, 연기자가 미리 제1 대기 자세(371)에서 제2 자세(381)로 또는 제2 대기 자세(372)에서 제2 자세(381)로 연기를 한다. 이러한 연기를 이용하여 다수의 연결 영상(C11 또는 C12)를 제작하게 된다.
또한, 가상현실 컨텐츠는 통상적인 2D 영상과는 달리, 깊이감(depth)이 있기 때문에, 아이들 영상(I0)에 분지 영상(A1)을 바로 연결하면, 이질감(어색함)이 발생한다. 예를 들어, 아이들 영상(I0)의 연기자의 의복(주름, 흐름 등)과, 분지 영상(A1)의 연기자의 의복(주름, 흐름 등)이 매치되지 않기 때문에, 이질감(어색함)이 발생한다. 따라서, 연결 영상(C11 또는 C12)에서 연기자를 컴퓨터 그래픽 처리하여, 아이들 영상(I0)과 연결 영상(C11 또는 C12)의 연결, 또는 연결 영상(C11 또는 C12)과 분지 영상(A1)의 연결을 부드럽게 한다. 특히, 연결 영상(C11 또는 C12)에서의 연기자의 의복(주름, 흐름 등) 등이 다른 영상(I0 또는 A1)에서의 의복과 부드럽게 매칭되도록 한다. 추가적으로, 연결 영상(C11 또는 C12)에서의 연기자의 의복(주름, 흐름 등) 등을 다른 영상(예를 들어, A1)에서의 의복으로 디졸브(dissolve)시킬 수도 있다.
이하, 도 10 내지 도 12를 참조하여, 준비된 다수의 연결 영상 중에서 어떠한 연결 영상을 제공할지에 대한 판단방법을 구체적으로 설명한다.
도 10은 본 발명의 일 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다. 설명의 편의를 위해서 도 4 내지 도 9를 이용하여 설명한 것과 실질적으로 동일한 내용은 생략한다. 도 10에서, 아이들 영상 속의 연기자는 대기 동작을 수행할 때, 대기 동작은 제1 대기 자세(도 5의 371 참조)와 제2 대기 자세(도 5의 372 참조) 사이를 움직이는 것이라고 가정한다.
도 10을 참조하면, 이전 영상이 제공된 후, 아이들 영상이 제공된다. 아이들 영상이 제공되는 도중에, 사용자로부터 선택지에 대응되는 선택(S1)이 입력된다. 선택(S1)을 입력받는 시점의 연기자의 자세(즉, 제1 자세(3911 또는 3912))를 체크한다(S410). 선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사한지 여부를 판단한다(S420).
구체적으로, 선택(S1)을 입력받는 시점의 연기자의 자세(즉, 제1 자세)를 체크하는 방법은 다양할 수 있다.
예를 들면, 영상 분석을 통해서, 제1 자세와 제1 대기 자세(371) 사이의 유사도, 제1 자세와 제2 대기 자세(372) 사이의 유사도를 계산함으로써, 제1 자세가 어떤 대기 자세(371 또는 372)와 유사한지 판단할 수 있다.
또는, 아이들 영상 내의 연기자가 제1 대기 자세(371)일 때 대응되는 제1 타임 스탬프와, 제1 대기 자세(371)와 제2 대기 자세(372) 사이의 시간 간격과, 선택(S1)을 입력받는 시점의 제2 타임 스탬프를 비교하여 판단한다. 예를 들어, 제1 타임 스탬프가 1시 10분 10초이고, 제1 대기 자세(371)와 제2 대기 자세(372) 사이의 시간 간격이 10초이다. 즉, 연기자가 제2 대기 자세(372)가 될 시간은 1시 10분 20초로 예상된다. 여기서, 제2 타임 스탬프가 1시 10분 16초라면, 1시 10분 10초보다 1시 10분 20초에 더 가깝기 때문에, 제1 자세는 제1 대기 자세(371)보다 제2 대기 자세(372)에 더 유사하다고 판단될 수 있다.
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사하다면, 제1 연결 영상(C11)이 제공된다(S451).
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사하지 않다면(즉, 제2 대기 자세(372)와 유사하다면), 제2 연결 영상(C12)이 제공된다(S451).
도 11은 본 발명의 다른 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다. 설명의 편의를 위해서 도 4 내지 도 10을 이용하여 설명한 것과 실질적으로 동일한 내용은 생략한다. 도 11에서, 제1 대기 자세(371)와 제2 대기 자세(372) 사이에 제3 대기 자세가 있을 수 있다. 즉, 아이들 영상에서, 연기자는 제1 대기 자세(도 5의 371 참조)에서 제3 대기 자세를 거쳐서 제2 대기 자세(도 5의 372 참조)로 움직이고, 반대로 제2 대기 자세(372)에서 제3 대기 자세를 거쳐서 제1 대기 자세(371)로 움직일 수 있다.
도 11을 참조하면, 이전 영상이 제공된 후, 아이들 영상이 제공된다. 아이들 영상이 제공되는 도중에, 사용자로부터 선택지에 대응되는 선택(S1)이 입력된다. 선택(S1)을 입력받는 시점의 연기자의 자세를 체크한다(S410).
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사한지 여부를 판단한다(S420).
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사하다면, 제1 연결 영상(C11)이 제공된다(S451).
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)와 유사하지 않다면, 선택(S1)을 입력받는 시점의 연기자의 자세가 제2 대기 자세(372)와 유사한지 여부를 판단한다(S430).
선택(S1)을 입력받는 시점의 연기자의 자세가 제2 대기 자세(372)와 유사하다면, 제2 연결 영상(C12)이 제공된다(S452).
선택(S1)을 입력받는 시점의 연기자의 자세가 제2 대기 자세(372)와 유사하지 않다면(즉, 제3 대기 자세와 유사하다면), 제3 연결 영상이 제공된다(S453).
도 12는 본 발명의 또 다른 실시예에 따른 인터랙티브 가상현실 컨텐츠의 제공방법을 설명하기 위한 순서도이다. 설명의 편의를 위해서 도 4 내지 도 11을 이용하여 설명한 것과 실질적으로 동일한 내용은 생략한다. 도 12에서, 아이들 영상에서, 연기자는 제1 대기 자세(도 5의 371 참조)에서 제3 대기 자세를 거쳐서 제2 대기 자세(도 5의 372 참조)로 움직이고, 반대로 제2 대기 자세(372)에서 제3 대기 자세를 거쳐서 제1 대기 자세(371)로 움직일 수 있다.
도 12를 참조하면, 이전 영상이 제공된 후, 아이들 영상이 제공된다. 아이들 영상이 제공되는 도중에, 사용자로부터 선택지에 대응되는 선택(S1)이 입력된다. 선택(S1)을 입력받는 시점의 연기자의 자세를 체크한다(S410).
선택(S1)을 입력받는 시점의 연기자의 자세가 제1 대기 자세(371)에서 이동하는지 여부를 판단한다(S421). YES는 제1 대기 자세(371)에서부터 제3 대기 자세 및/또는 제2 대기 자세(372) 방향으로 이동하는 것을 의미하고, NO는 제3 대기 자세 및/또는 제2 대기 자세(372)에서부터 제1 대기 자세(371) 방향으로 이동하는 것을 의미한다.
이어서, S421단계에서 YES이면, 제3 대기 자세에서 제2 대기 자세(372)로 이동하는지 여부를 검토한다(S423).
S423단계에서 YES이면(즉, 제3 대기 자세에서 제2 대기 자세(372)로 이동하면), 제2 연결 영상(C12)이 제공된다(S452). 즉, 제2 대기 자세(372)에서 제2 자세(381)로 움직이는 것을 포함하는 제2 연결 영상(C12)이 제공된다.
S423단계에서 NO이면(즉, 제1 대기 자세(371)에서 제3 대기 자세로 이동하면), 제3 연결 영상이 제공된다(S453). 즉, 제3 대기 자세에서 제2 자세(381)로 움직이는 것을 포함하는 제3 연결 영상이 제공된다.
한편, S421단계에서 NO이면, 제2 대기 자세(372)에서 제3 대기 자세로 이동하는지 여부를 검토한다(S422).
S422단계에서 YES이면(즉, 제2 대기 자세(372)에서 제3 대기 자세로 이동하면), 제3 연결 영상이 제공된다(S453). 즉, 제3 대기 자세에서 제2 자세(381)로 움직이는 것을 포함하는 제3 연결 영상이 제공된다.
S422단계에서 NO이면(즉, 제3 대기 자세에서 제1 대기 자세(371)로 이동하면), 제1 연결 영상이 제공된다(S451). 즉, 제1 대기 자세(371)에서 제2 자세(381)로 움직이는 것을 포함하는 제1 연결 영상(C11)이 제공된다.
이와 같이 하는 이유는 다음과 같다. 예를 들어, 연기자가 제1 대기 자세(371)에서 제3 대기 자세로 움직이는 도중에, 선택(S1)이 입력된다. 선택(S1)이 입력되는 시점의 연기자의 자세가 제1 대기 자세(371)에 더 가깝더라도, 제1 연결 영상(C11)(즉, 제1 대기 자세(371)에서 제2 자세(381)로 움직임)을 제공하지 않고, 제3 연결 영상(즉, 제3 대기 자세에서 제2 자세(381)로 움직임)을 제공한다. 이와 같이, 연기자의 운동 방향(즉, 제1 대기 자세(371)에서 제3 대기 자세로 움직이는 것)에 맞추어서 연결 영상(즉, 제3 대기 자세에서 제2 자세(381)로 움직이는 것)을 제공하기 때문에, 사용자는 연기자의 반응이 자연스럽다고 느낄 수 있다.
도 13은 본 발명의 또 다른 실시예에 따른 가상현실 컨텐츠의 제공방법을 설명하기 위한 도면이다.
도 13을 참조하면, 아이들 영상 내의 연기자는, 제1 대기 자세(371)에서 제2 대기 자세(372)로 움직이고, 그 후 제2 대기 자세(372)에서 제1 대기 자세(371)로 복귀하는 것을 반복한다.
전술한 것과 달리, 선택(S1)을 입력받는 시점에, 아이들 영상 내의 연기자가, 제1 대기 자세(371)보다 제2 대기 자세(372)에 가깝더라도, 아이들 영상 내의 연기자는 제1 대기 자세(371)로 복귀한다. 제1 대기 자세(371)로 복귀한 후에, 제1 연결 영상(즉, 제1 대기 자세(371)에서 제2 자세(381)로 움직임)을 제공한다.
여기서, 제1 연결 영상(C11)은, 연기자의 제1 대기 자세(371)에서의 의복을, 연기자의 제2 자세(381)에서의 의복으로 디졸브(dissolve)시키는 컴퓨터 그래픽 처리를 더 포함할 수 있다. 전술한 것과 같이, 제1 대기 자세(371)에서의 의복과 제2 자세(381)에서의 의복이 같은 종류의 옷이라고 하더라도, 주름, 흐름 등이 다를 수 있다. 따라서, 주름, 흐름 등을 동일하게 함으로써, 분지 영상(A1)으로의 연결을 더 자연스럽게 할 수 있다.
추가적으로, 분지 영상의 시작 구간에서의, 연기자의 동작 특성을 더 체크할 수 있다. 동작 특성에 따라, 연기자의 제1 대기 자세(371)에서의 의복 중에서 디졸브가 먼저 적용되는 영역이 변경될 수 있다.
구체적으로 예를 들면, 분지 영상의 시작 구간에서, 연기자가 우측 방향으로 움직일 수 있다. 이러한 경우, 제1 대기 자세(371)에서의 의복 중에서 우측 부분부터 먼저 디졸브가 적용될 수 있다. 도 13에서 우측 부분(399a), 가운데 부분(399b), 좌측 부분(399c) 순서로 디졸부가 적용될 수 있다. 일반적으로 사용자(관람객)은 연기자가 움직이는 방향에 더 주목하게 된다. 따라서, 연기자가 움직이는 방향에서부터 디졸부가 적용되면, 사용자(관람객)은 분지 영상(A1)으로의 연결을 더 자연스럽게 느낄 수 있다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 사용자 장치 200: 컨텐츠 제공장치
230: 통신 모듈 260: 프로세서
270: 메모리 250: 네트워크

Claims (11)

  1. 컴퓨팅 장치에 의해서 수행되는 인터랙티브 가상현실 컨텐츠의 제공방법에서,
    선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 제1 대기 자세에서 제2 대기 자세로 움직이는 대기 동작을 수행하는 단계;
    상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받는 단계;
    상기 선택을 입력받은 후에, 연결 영상을 제공하는 단계; 및
    상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하는 단계를 포함하되,
    상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하고,
    다수의 연결 영상을 저장하는 단계를 더 포함하되, 상기 다수의 연결 영상은
    상기 연기자가 상기 제1 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제1 연결 영상과,
    상기 연기자가 상기 제2 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제2 연결 영상을 포함하는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  2. 제 1항에 있어서,
    상기 선택을 입력받는 시점의 상기 연기자의 제1 자세를 체크하는 단계를 더 포함하고,
    상기 연결 영상을 제공하는 단계는, 상기 체크된 제1 자세에 따라, 상기 제1 연결 영상 또는 제2 연결 영상을 선택적으로 제공하는 것을 포함하는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  3. 제 2항에 있어서,
    상기 연기자의 제1 자세를 체크하는 단계는, 상기 아이들 영상 내의 연기자가 상기 제1 대기 자세일 때 대응되는 제1 타임 스탬프와, 상기 제1 대기 자세와 상기 제2 대기 자세 사이의 시간 간격과, 상기 선택을 입력받는 시점의 제2 타임 스탬프를 이용하는 것을 포함하는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  4. 컴퓨팅 장치에 의해서 수행되는 인터랙티브 가상현실 컨텐츠의 제공방법에서,
    선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하는 단계;
    상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받는 단계;
    상기 선택을 입력받은 후에, 연결 영상을 제공하는 단계; 및
    상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하는 단계를 포함하되,
    상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하고,
    상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 그 후 제2 대기 자세에서 제1 대기 자세로 복귀하고,
    상기 선택을 입력받는 시점에, 상기 아이들 영상 내의 연기자가, 상기 제1 대기 자세보다 상기 제2 대기 자세에 가깝더라도, 상기 아이들 영상 내의 연기자는 상기 제1 대기 자세로 복귀하고,
    상기 제1 대기 자세로 복귀한 후에, 상기 연결 영상을 제공하는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  5. 제 4항에 있어서,
    상기 연결 영상은 상기 연기자의 제1 대기 자세에서의 의복을, 상기 연기자의 제2 자세에서의 의복으로 디졸브(dissolve)시키는 것을 포함하는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  6. 제 5항에 있어서,
    상기 분지 영상의 시작 구간에서의, 상기 연기자의 동작 특성을 체크하는 단계를 더 포함하고,
    상기 동작 특성에 따라, 상기 연기자의 제1 대기 자세에서의 의복 중에서 디졸브가 먼저 적용되는 영역이 변경되는, 인터랙티브 가상현실 컨텐츠의 제공방법.
  7. 메모리; 및
    프로세서를 포함하되,
    상기 메모리는 상기 프로세서가
    선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 제1 대기 자세에서 제2 대기 자세로 움직이는 대기 동작을 수행하고,
    상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받고,
    상기 선택을 입력받은 후에, 연결 영상을 제공하고,
    상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하고,
    상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하는,
    인스트럭션들을 포함하고,
    상기 메모리는 다수의 연결 영상을 저장하되, 상기 다수의 연결 영상은 상기 연기자가 상기 제1 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제1 연결 영상과, 상기 연기자가 상기 제2 대기 자세에서 상기 제2 자세로 움직이는 것을 포함하는 제2 연결 영상을 포함하고,
    상기 메모리는 상기 프로세서가
    상기 선택을 입력받는 시점의 상기 연기자의 제1 자세를 체크하고,
    상기 체크된 제1 자세에 따라, 상기 제1 연결 영상 또는 제2 연결 영상을 선택적으로 제공하도록 하는,
    인스트럭션들을 포함하는,
    인터랙티브 가상현실 컨텐츠의 제공장치.
  8. 메모리; 및
    프로세서를 포함하되,
    상기 메모리는 상기 프로세서가
    선택지를 포함하는 아이들(idle) 영상을 제공하되, 상기 아이들 영상 내의 연기자는 대기 동작을 수행하고,
    상기 연기자가 상기 대기 동작을 수행하는 도중에, 사용자로부터 상기 선택지에 대응되는 선택을 입력받고,
    상기 선택을 입력받은 후에, 연결 영상을 제공하고,
    상기 연결 영상을 제공한 후에, 상기 사용자의 선택에 따라 대응되는 분지 영상을 제공하고,
    상기 연결 영상 내에서, 상기 연기자의 적어도 일부는 컴퓨터 그래픽 처리되고, 상기 연기자가 연결 동작을 수행함으로써 상기 선택을 입력받는 시점의 상기 연기자의 제1 자세에서부터 상기 분지 영상의 시작 시점의 상기 연기자의 제2 자세로 부드럽게 연결되도록 하는,
    인스트럭션들을 포함하고,
    상기 아이들 영상 내의 연기자는, 제1 대기 자세에서 제2 대기 자세로 움직이고, 그 후 제2 대기 자세에서 제1 대기 자세로 복귀하되,
    상기 메모리는 상기 프로세서가
    상기 선택을 입력받는 시점에, 상기 아이들 영상 내의 연기자가, 상기 제1 대기 자세보다 상기 제2 대기 자세에 가깝더라도, 상기 아이들 영상 내의 연기자는 상기 제1 대기 자세로 복귀하고,
    상기 제1 대기 자세로 복귀한 후에, 상기 연결 영상을 제공하되, 상기 연결 영상은 상기 연기자의 제1 대기 자세에서의 의복을, 상기 연기자의 제2 자세에서의 의복으로 디졸브(dissolve)시키는 것을 포함하는,
    인스트럭션들을 포함하는,
    인터랙티브 가상현실 컨텐츠의 제공장치.

  9. 삭제
  10. 삭제
  11. 삭제
KR1020200020833A 2020-02-20 2020-02-20 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치 KR102256329B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200020833A KR102256329B1 (ko) 2020-02-20 2020-02-20 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치
US17/235,301 US11605196B2 (en) 2020-02-20 2021-04-20 Providing method and device of interactive virtual reality contents
US18/150,138 US11935173B2 (en) 2020-02-20 2023-01-04 Providing method and device of interactive virtual reality contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200020833A KR102256329B1 (ko) 2020-02-20 2020-02-20 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치

Publications (1)

Publication Number Publication Date
KR102256329B1 true KR102256329B1 (ko) 2021-05-27

Family

ID=76135892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200020833A KR102256329B1 (ko) 2020-02-20 2020-02-20 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치

Country Status (2)

Country Link
US (2) US11605196B2 (ko)
KR (1) KR102256329B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200356A (ja) * 2000-04-28 2002-07-16 Square Co Ltd インタラクティブなゲームを処理するゲーム制御方法及び記録媒体、ゲーム装置、及びゲームプログラム
KR20110074191A (ko) * 2009-12-24 2011-06-30 주식회사 손노리 퀘스트 발급 장치 및 이를 이용한 퀘스트 발급 방법
KR20180101047A (ko) * 2017-03-03 2018-09-12 엘지전자 주식회사 전자장치 및 그 제어 방법
KR20200008706A (ko) * 2018-07-17 2020-01-29 주식회사 씨투몬스터 가상현실 컨텐츠 제작 시스템 및 제작 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070165022A1 (en) * 1998-07-15 2007-07-19 Shmuel Peleg Method and system for the automatic computerized audio visual dubbing of movies
US8243078B2 (en) * 2005-02-28 2012-08-14 Kenneth Perlin Method and apparatus for creating a computer simulation of an actor
US8811719B2 (en) * 2011-04-29 2014-08-19 Microsoft Corporation Inferring spatial object descriptions from spatial gestures
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
KR102106135B1 (ko) * 2013-10-01 2020-05-04 한국전자통신연구원 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
JP6727036B2 (ja) * 2016-06-01 2020-07-22 キヤノン株式会社 電子機器、その制御方法、プログラム及び記録媒体
US10726248B2 (en) * 2018-02-01 2020-07-28 Ford Global Technologies, Llc Validating gesture recognition capabilities of automated systems
US20200211406A1 (en) * 2019-01-02 2020-07-02 Xio Research, Inc. Managing multi-role activities in a physical room with multimedia communications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200356A (ja) * 2000-04-28 2002-07-16 Square Co Ltd インタラクティブなゲームを処理するゲーム制御方法及び記録媒体、ゲーム装置、及びゲームプログラム
KR20110074191A (ko) * 2009-12-24 2011-06-30 주식회사 손노리 퀘스트 발급 장치 및 이를 이용한 퀘스트 발급 방법
KR20180101047A (ko) * 2017-03-03 2018-09-12 엘지전자 주식회사 전자장치 및 그 제어 방법
KR20200008706A (ko) * 2018-07-17 2020-01-29 주식회사 씨투몬스터 가상현실 컨텐츠 제작 시스템 및 제작 방법

Also Published As

Publication number Publication date
US11935173B2 (en) 2024-03-19
US11605196B2 (en) 2023-03-14
US20210375024A1 (en) 2021-12-02
US20230144035A1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
JP6144738B2 (ja) ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
CN108632633A (zh) 一种网络直播的数据处理方法和装置
CN108632632A (zh) 一种网络直播的数据处理方法和装置
US20230079893A1 (en) Multi-Viewpoint Multi-User Audio User Experience
CN108635863A (zh) 一种网络直播的数据处理方法和装置
EP3886031A1 (en) Product customizing method via terminal
CN112190943B (zh) 游戏展示方法及装置、处理器、电子设备
US10721281B2 (en) Method, system and non-transitory computer-readable recording medium for providing a multilateral communication service
CN108271056B (zh) 视频互动方法、用户客户端、服务器及存储介质
Surale et al. Arcall: Real-time ar communication using smartphones and smartglasses
CN105721919A (zh) 应用切换处理方法、装置及智能机顶盒设备
KR102256329B1 (ko) 인터랙티브 가상현실 컨텐츠의 제공방법 및 장치
CN114210071A (zh) 游戏直播的显示方法和装置、存储介质及电子设备
JP7104210B1 (ja) インタラクティブ仮想現実コンテンツの提供方法および装置
US20220078524A1 (en) Method, system, and non-transitory computer-readable recording medium for providing content comprising augmented reality object by using plurality of devices
CN114040213A (zh) 一种任务处理方法、装置、电子设备及存储介质
CN116561439A (zh) 一种社交互动方法、装置、设备及存储介质、程序产品
KR20180079145A (ko) 가상 현실에서의 동영상 서비스 제공 방법
KR102344318B1 (ko) 가상현실 컨텐츠 상영관에서의 가상현실 컨텐츠의 상영 방법 및 상영시스템
US20230236792A1 (en) Audio configuration switching in virtual reality
JP7480965B2 (ja) コンピュータプログラム、方法、及び、サーバ
CN108322766A (zh) 虚拟挂件的形象更新方法、终端设备及介质
KR102629990B1 (ko) 허브 및 이를 포함하는 전자 디바이스
JP2017131755A (ja) ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
Bhokare Interaction Paradigm of IoT using Augmented Reality

Legal Events

Date Code Title Description
GRNT Written decision to grant