KR102085440B1 - 가상 현실 제어 시스템 - Google Patents

가상 현실 제어 시스템 Download PDF

Info

Publication number
KR102085440B1
KR102085440B1 KR1020180097683A KR20180097683A KR102085440B1 KR 102085440 B1 KR102085440 B1 KR 102085440B1 KR 1020180097683 A KR1020180097683 A KR 1020180097683A KR 20180097683 A KR20180097683 A KR 20180097683A KR 102085440 B1 KR102085440 B1 KR 102085440B1
Authority
KR
South Korea
Prior art keywords
character
virtual
area
location information
user
Prior art date
Application number
KR1020180097683A
Other languages
English (en)
Other versions
KR20190078472A (ko
Inventor
이후정
김재영
한상우
육종현
Original Assignee
(주)스코넥엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)스코넥엔터테인먼트 filed Critical (주)스코넥엔터테인먼트
Priority to PCT/KR2018/016684 priority Critical patent/WO2019132522A1/ko
Priority to US16/958,545 priority patent/US11648478B2/en
Publication of KR20190078472A publication Critical patent/KR20190078472A/ko
Application granted granted Critical
Publication of KR102085440B1 publication Critical patent/KR102085440B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5375Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/575Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for trading virtual items
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)

Abstract

본 발명의 일 양상에 따르면, 광 신호를 검출하는 센싱부, 사용자에게 영상을 출력하는 디스플레이, 상기 디스플레이를 제어하는 적어도 하나 이상의 제어부 및 상기 사용자의 입력에 의한 입력신호를 상기 제어부로 전달하는 입력 장치를 포함하고, 상기 제어부는 상기 광 신호에 기초한 정보를 이용하여 상기 사용자의 위치 정보를 산출하고, 상기 사용자의 위치 정보에 기초하여 가상 위치 정보를 산출하며, 상기 디스플레이에는 상기 가상 위치 정보에 기초하여 복수의 영역이 표시되고, 상기 복수의 영역은 상기 가상 위치 정보에 기초한 캐릭터의 이동이 가능한 이동 가능 영역 및 상기 캐릭터의 이동이 불가능한 이동 불가 영역을 포함하고, 상기 캐릭터로부터 참조거리 이내에 위치한 상기 이동 가능 영역에는 이동 가능 표식이 제공되되, 상기 제어부는 상기 입력 장치의 위치 정보에 대응되는 가상 오브젝트가 선택 시점에서 상기 참조거리 이내에 위치한 상기 이동 가능 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 디스플레이에 표시되는 시야 범위를 상기 가상 위치 정보에 대응되는 시야 범위에서 상기 가상 오브젝트가 상기 선택 시점에서 지향한 상기 이동 가능 영역에 대응되는 시야 범위로 전환시키며, 상기 입력 장치 오브젝트가 상기 이동 불가 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우에는 상기 디스플레이에 표시되는 시야 범위를 전환시키지 않는 가상 현실 제어 시스템이 제공될 수 있다.

Description

가상 현실 제어 시스템{Virtual Reality Control System}
아래의 실시예들은 가상 현실 제어 시스템에 관한 것이다.
가상 환경은 현실을 기반으로 현실에 가상의 정보를 부가하여 사용자에게 제공하거나 현실에서의 대상체의 상태를 프로그램에 의해 생성된 가상 환경 이미지로써 제공하는 기술일 수 있다.
이러한 가상 환경 제공 기술에는 현실에 제공되는 사용자나 오브젝트 등의 대상체의 상태에 대한 정보를 기반으로 프로그램에 의해 가상 공간, 가상 캐릭터 및 가상 오브젝트 등을 생성하는 기술이 포함될 수 있고, 이 때 다양한 센서를 이용하여 대상체의 상태에 대한 정보를 획득하게 된다.
한편, 가상 환경 내에서 대상체의 상태에 따라 가상 캐릭터를 이동시키는 방법에 있어서 사용자의 이동에 따라 가상 캐릭터가 이동하는 방법이 제공될 수 있으나, 이 때 현실에서 사용자가 이동할 수 있는 공간과 가상 환경에서 가상 캐릭터가 이동할 수 있는 공간은 차이가 있어 사용자가 이동하는 데에 불편함을 느낄 수 있다.
따라서 현실에서 사용자의 이동에 따라 가상 환경 내에서 가상 캐릭터를 보다 효과적으로 이동시키는 방법이 요구된다.
일 과제는 사용자에게 가상 체험이 제공됨에 있어서 가상 현실 내에서 사용자에 대응하는 캐릭터가 자유롭게 이동할 수 있게 하기 위해 가상 현실을 구현하는 방법과 현실에서 사용자의 움직임에 따라 가상 환경에서 가상 캐릭터를 이동시키는 방법을 제공함에 있다.
본 발명의 일 양상에 따르면, 광 신호를 검출하는 센싱부, 사용자에게 영상을 출력하는 디스플레이, 상기 디스플레이를 제어하는 적어도 하나 이상의 제어부 및 상기 사용자의 입력에 의한 입력신호를 상기 제어부로 전달하는 입력 장치를 포함하고, 상기 제어부는 상기 광 신호에 기초한 정보를 이용하여 상기 사용자의 위치 정보를 산출하고, 상기 사용자의 위치 정보에 기초하여 가상 위치 정보를 산출하며, 상기 디스플레이에는 상기 가상 위치 정보에 기초하여 복수의 영역이 표시되고, 상기 복수의 영역은 상기 가상 위치 정보에 기초한 캐릭터의 이동이 가능한 이동 가능 영역 및 상기 캐릭터의 이동이 불가능한 이동 불가 영역을 포함하고, 상기 캐릭터로부터 참조거리 이내에 위치한 상기 이동 가능 영역에는 이동 가능 표식이 제공되되, 상기 제어부는 상기 입력 장치의 위치 정보에 대응되는 가상 오브젝트가 선택 시점에서 상기 참조거리 이내에 위치한 상기 이동 가능 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 디스플레이에 표시되는 시야 범위를 상기 가상 위치 정보에 대응되는 시야 범위에서 상기 가상 오브젝트가 상기 선택 시점에서 지향한 상기 이동 가능 영역에 대응되는 시야 범위로 전환시키며, 상기 입력 장치 오브젝트가 상기 이동 불가 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우에는 상기 디스플레이에 표시되는 시야 범위를 전환시키지 않는 가상 현실 제어 시스템이 제공될 수 있다.
본 발명의 다른 양상에 따르면, 제1 광 신호를 검출하는 제1 센싱부, 제2 광 신호를 검출하는 제2 센싱부, 제1 사용자에게 영상을 출력하는 제1 디스플레이, 제2 사용자에게 영상을 출력하는 제2 디스플레이, 상기 제1 디스플레이 및 제2 디스플레이 중 어느 하나를 제어하는 적어도 하나 이상의 제어부 및 상기 제1 사용자의 입력에 의한 입력신호를 상기 제어부로 전달하는 입력 장치를 포함하고, 상기 적어도 하나 이상의 제어부는 상기 제1 광 신호에 기초한 제1 사용자의 제1 위치 정보를 산출해, 상기 제1 위치 정보에 기초하여 제1 가상 위치 정보를 산출하고, 상기 제2 광 신호에 기초한 제2 사용자의 제2 위치 정보를 산출해, 상기 제2 위치 정보에 기초하여 제2 가상 위치 정보를 산출하며, 상기 제1 디스플레이에 및 상기 제2 디스플레이 중 적어도 어느 하나에는 상기 제1 가상 위치 정보 또는 상기 제2 가상 위치 정보 중 적어도 어느 하나에 기초하여 복수의 영역이 표시되고, 상기 복수의 영역은 상기 제1 가상 위치 정보에 기초한 제1 캐릭터 또는 상기 제2 가상 위치 정보에 기초한 제2 캐릭터가 이동이 가능한 이동 가능 영역 및 상기 제1 캐릭터 및 상기 제2 캐릭터가 이동이 불가능한 이동 불가 영역을 포함하고, 상기 제1 캐릭터로부터 제1 참조거리 이내에 위치한 상기 이동 가능 영역에는 제1 이동 가능 표식이 제공되고, 상기 제어부는 상기 입력 장치의 위치 정보에 대응되는 가상 오브젝트가 상기 제1 이동 가능 표식을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 제1 디스플레이에 표시되는 시야 범위를 상기 제1 가상 위치 정보에 대응되는 시야 범위에서 상기 제1 이동 가능 표식이 제공된 상기 이동 가능 영역에 대응되는 시야 범위로 전환시키며, 상기 가상 오브젝트가 상기 이동 불가 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우에는 상기 제1 디스플레이에 표시되는 시야 범위를 전환시키지 않는 가상 현실 제어 시스템이 제공될 수 있다.
일 실시예에 따르면, 사용자에게 가상 체험이 제공됨에 있어서 가상 현실 내에서 사용자에 대응하는 캐릭터가 쉽게 이동 가능 영역을 인지하고 자유롭게 이동할 수 있어 가상 체험에 대한 몰입감과 흥미도를 증대시킬 수 있다.
또 다른 일 실시예에 따르면, 복수의 사용자에게 가상 체험이 제공됨에 있어서 가상 현실 내에서 각각의 사용자에 대응하는 캐릭터들이 이동 가능 영역을 구분하고 동선이 혼선되지 않아 가상 체험에 대한 몰입감과 흥미도 뿐만 아니라 안전성도 증대시킬 수 있다.
도 1은 일 실시예에 따른 가상 제어 시스템을 나타내는 환경도이다.
도 2는 일 실시예에 따른 디텍팅 장치를 나타내는 블록도이다.
도 3은 일 실시예에 따른 서버를 나타내는 블록도이다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 블록도이다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 블록도이다.
도 6은 일 실시예에 따른 가상 현실 제어 시스템(10)의 구현을 나타내는 예시도이다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 8은 일 실시예에 따른 가상 환경 이미지가 착용형 디스플레이 장치를 통해 출력되는 것을 나타내는 예시도이다.
도 9는 일 실시예에 따라 사용자에게 가상 체험이 제공되기 위한 가상 현실 제어 시스템을 나타내는 예시도이다.
도 10은 일 실시예에 따른 튜토리얼 가상 공간을 나타내는 예시도이다.
도 11은 일 실시예에 따른 착용형 디스플레이 장치에 출력되는 서바이벌 가상 공간을 나타내는 예시도이다.
도 12는 일 실시예에 따른 서바이벌 가상 공간 내 형성되어 있는 지형을 나타내는 에시도이다.
도 13은 일 실시예에 따른 캐릭터가 이동 가능 영역에 위치한 것을 나타내는 예시도이다.
도 14는 일 실시예에 따른 캐릭터가 리스폰 영역에 있을 때 캐릭터의 이동 범주 내에 위치한 이동 가능 영역에 이동 표식이 표시되는 것을 나타내는 예시도이다.
도 15는 일 실시예에 따른 리스폰 영역에 위치했던 캐릭터가 이동 가능 영역으로 이동한 경우 캐릭터의 새로운 가상 위치를 기준으로 이동 표식이 표시되는 것을 나타내는 도면이다.
도 16은 일 실시예에 따른 서바이벌 가상 공간에서 캐릭터가 이동 대상 영역으로 이동하는 과정을 나타내는 순서도이다.
도 17은 일 실시예에 따른 도 16의 표시 단계를 나타내는 예시도이다.
도 18은 일 실시예에 따른 도 16의 선택 단계 및 로딩 단계를 나타내는 예시도이다.
도 19는 일 실시예에 따른 도 16의 조작 단계를 나타내는 예시도이다.
도 20은 일 실시예에 따른 연장선이 구현되는 다른 방법을 나타내는 예시도이다.
도 21은 일 실시예에 따른 서바이벌 가상 공간에서 복수의 캐릭터가 존재하는 경우 이동 표식이 표시되는 방식을 나타내는 예시도이다.
도 22는 일 실시예에 따른 복수의 사용자가 서바이벌 컨텐츠를 진행할 때, 일부 사용자가 착용한 착용형 디스플레이 장치에 출력되는 시야 범위를 나타내는 예시도이다.
도 23은 일 실시예에 따른 이동 가능 영역에 아이템이 존재하는 것을 나타내는 예시도이다.
도 24는 일 실시예에 따른 캐릭터가 컨트롤 오브젝트를 이용하여 아이템을 획득하는 것을 나타내는 예시도이다.
도 25는 일 실시예에 따른 서바이벌 컨텐츠 진행에 있어서 캐릭터를 공격하는 방법을 나타내는 예시도이다.
도 26은 일 실시예에 따른 착용형 디스플레이 장치에 피격 디텍터가 표시된 이미지가 출력되는 것을 나타내는 예시도이다.
도 27은 일 실시예에 따른 캐릭터가 착용형 디스플레이 장치에 출력되는 시야 범위 내에 존재하는 캐릭터에 의해 공격받는 경우를 나타내는 예시도이다.
도 28은 일 실시예에 따른 캐릭터가 착용형 디스플레이 장치에 출력되는 시야 범위 밖에 위치하는 캐릭터에 의해 공격받는 경우를 나타내는 예시도이다.
도 29는 일 실시예에 따른 피격 디텍터가 표시되는 모양을 나타내는 예시도이다
도 30은 일 실시예에 따른 캐릭터가 이동 가능 영역 중 안전 영역 밖에 위치하는 것을 나타내는 예시도이다.
도 31은 일 실시예에 따른 캐릭터가 이동 가능 영역 중 안전 영역 밖에 위치하는 경우 보조 컴퓨팅 장치에 의해 착용형 디스플레이 장치가 표시하는 영상을 나타내는 예시도이다.
도 32는 일 실시예에 따른 이동 가능 영역 내 배리어 영역에 배리어가 형성되는 것을 나타내는 예시도이다.
도 33은 일 실시예에 따른 복수의 캐릭터가 서바이벌 가상 공간에서 배리어를 이용하는 것을 나타내는 예시도이다.
도 34는 일 실시예에 따른 배리어가 피격됨에 따라 내구상태가 변경되는 것을 나타내는 예시도이다.
도 35는 일 실시예에 따른 서바이벌 가상 공간에서 서바이벌 컨텐츠가 진행되는 방법을 나타내는 순서도이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
가상 현실은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.
이러한 가상 현실은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 현실을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.
이하에서 설명되는 가상 현실을 설명함에 있어서 가상 현실은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 가상 환경을 의미할 수 있다.
이하에서는 도 1을 참조하여 일 실시예에 따른 가상 현실을 제공하기 위한 가상 현실 제어 시스템(10)에 대해서 설명하도록 한다.
도 1은 일 실시예에 따른 가상 현실 제어 시스템(10)을 나타내는 환경도이다.
도 1을 참조하면, 가상 현실 제어 시스템(10)은 디텍팅 장치(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다.
일 실시예에 따르면 디텍팅 장치(100)는 서버(200)와 연결될 수 있다.
디텍팅 장치(100)는 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다.
예를 들어 대상체는 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.
또한 일 실시예에 따른 대상체의 추적은 현실 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다.
예를 들어 대상체의 추적은 현실 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로위치 정보 획득될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따르면 디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 디텍팅 정보, 디텍팅 장치(100)가 획득한 이미지 정보 및 디텍팅 장치(100)의 상태 정보 중 적어도 하나를 획득할 수 있다.
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.
일 실시예에 따르면 서버(200)는 보조 컴퓨팅 장치(300) 또는 착용형 디스플레이 장치(400)를 제어할 수 있다.
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.
다른 예로 서버(200)는 디텍팅 장치(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.
또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 생성하거나 대상체의 위치에 대응하는 가상 환경에서의 가상 위치 정보를 생성할 수 있다.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 프로그램 또는 어플리케이션의 인증을 수행할 수 있다.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.
예를 들어 서버(200)는 디텍팅 장치(100)와 연결되어 디텍팅 정보에 기초하여 위치 정보를 획득하는 디텍팅 서버, 가상 현실 제어 시스템(10)에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 가상 현실 제어 시스템(10)의 각 구성 중 적어도 하나의 구성에서 실행되는 프로그램 또는 어플리케이션에 대한 인증을 수행하는 라이선스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.
한편, 서버(200)는 보조 컴퓨팅 장치(300)가 입력 장치(500)로부터 획득한 입력신호 또는 입력신호에 기초한 입력 정보를 제공 받을 수 있다.
입력 정보는 가상 현실 내 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.
보조 컴퓨팅 장치는(300)는 디텍팅 장치(100), 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 장치(300)는 서버(200)로부터 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또는 보조 컴퓨팅 장치(300)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보를 가공하여 대상체의 위치 정보를 산출하거나 가상 위치 정보를 산출할 수 있다.
보조 컴퓨팅 장치(300)는 미리 저장된 프로그램 또는 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 이미지를 제공할 수 있다.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다.
일 실시예에 따르면, 보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션 또는 프로그램을 통해 위치 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력신호에 기초하여 입력 정보를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 장치(400)는 사용자에게 가상 환경에 대한 이미지를 제공할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 환경 이미지를 사용자에게 시각적으로 출력할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.
입력 장치(500)는 가상 환경에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력신호를 제공할 수 있다.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.
이상에서 설명된 가상 현실 제어 시스템(10)은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 가상 현실 제어 시스템(10)이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 가상 현실 제어 시스템(10)을 예시로 하여 설명하도록 한다.
이하에서는 도 2를 참조하여 일 실시예에 따른 디텍팅 장치(100)에 대하여 설명하도록 한다.
도 2는 일 실시예에 따른 디텍팅 장치(100)를 나타내는 블록도이다.
도 2를 참조하면, 디텍팅 장치(100)는 발광부(110) 및 센싱부(120)를 포함할 수 있다.
발광부(110)는 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.
일 예로, 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.
다른 예로, 센싱부(120)는 대상체에 제공되는 마커가 반사한 광에 대한 신호를 획득할 수 있다.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.
도 3은 일 실시예에 따른 서버(200)를 나타내는 블록도이다.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.
서버 통신부(210)는 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
서버 저장부(220)는 데이터를 저장할 수 있다.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다.
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 블록도이다.
도 4를 참조하면, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.
또한, 보조 컴퓨팅 저장부(320)는 사용자에게 가상 체험을 제공하기 위한 어플리케이션 또는 프로그램 등을 저장할 수 있다.
보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.
도 5는 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 블록도이다.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 어플리케이션 또는 프로그램을 저장할 수 있다.
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.
착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.
일 예로 착용형 디스플레이 화면 출력부(450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.
도 6은 일 실시예에 따른 가상 현실 제어 시스템(10)의 구현을 나타내는 예시도이다.
도 6을 참조하면 가상 현실 제어 시스템(10)은 적어도 하나의 사용자(800)에게 가상 체험을 위한 추적 영역(600)이 제공될 수 있다.
또한 추적 영역(600)에서 사용자(800)에게 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나가 제공될 수 있다.
또한 사용자(800)에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.
마커(M)가 제공되는 패턴에 대해서는 후술하도록 한다.
또한 추적 영역(600)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.
이러한 디텍팅 장치(100)는 추적 영역(600)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.
또한 디텍팅 장치(100)는 추적 영역(600)을 지향하도록 제공될 수 있다.
디텍팅 장치(100)는 미리 설치된 프레임에 고정되어 설치 될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.
디텍팅 장치(100)는 추적 영역(600)에 대한 디텍팅 정보를 획득할 수 있다.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 추적 영역(600) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)는 디텍팅 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.
서버(200)는 디텍팅 정보에 기초하여 대상체의 실시간 위치 정보를 획득할 수 있다.
도 6에 도시된 바와 같이 추적 영역(600)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200) 또는 보조 컴퓨팅 장치(300)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
또한 서버(200) 또는 보조 컴퓨팅 장치(300)는 대상체들의 위치 정보에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 사용자(800)의 현실에서의 위치 정보에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 가상 현실에서 사용자(800)에 대응하는 캐릭터의 가상 위치 정보로 획득할 수 있다.
서버(200)는 대상체의 위치 정보 및 가상 위치 정보 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 가상 환경 이미지를 획득할 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 저장부(320)에 저장된 프로그램 또는 어플리케이션에 의해 가상 체험에 필요한 가상 환경이 구축되고 획득한 가상 위치 정보에 기초하여 가상 환경에서 가상 환경 이미지 영역을 획득할 수 있다. 보조 컴퓨팅 장치(300)는 가상 환경 이미지 영역에 대한 가상 환경 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 가상 환경 이미지를 사용자(800)에게 출력할 수 있다.
또한 서버(300)는 모니터링 디스플레이(700)로 가상 환경 이미지를 제공할 수 있다.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 환경 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 환경 이미지를 획득할 수 있으며, 획득한 가상 환경 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 환경 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 환경 이미지를 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 환경 내 가상 카메라 위치에 기초하여 가상 환경 이미지를 획득할 수 있다.
또한 서버(300)는 획득한 가상 환경 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
모니터링 디스플레이(700)는 서버(300)로부터 획득한 가상 환경 이미지를 출력할 수 있다.
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.
입력 장치(500)는 각각의 사용자(800)가 소지하도록 제공될 수 있다.
일 예로 사용자(800)는 입력 장치(400)를 손에 휴대할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(500)의 위치 정보를 획득할 수 있다. 또한 입력 장치(500)의 위치 정보는 추적 영역(600)에서의 입력 장치(500)의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(500)의 위치 정보에 기초하여 가상 환경에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 환경에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상 환경에서 입력 장치(500)에 대응하는 총이 입력 장치(500)의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.
또한 또한 보조 컴퓨팅 장치(300)는 가상 환경에서 입력 장치(500)를 통한 사용자(800)의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치가 사용자(800)에 의해 눌린 경우 가상 환경에서 사용자(800)에 대응하는 캐릭터가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.
도 7을 참조하면 대상체에는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야 할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체임을 식별 가능할 수 있다.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 등에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.
패턴은 마커(M)의 마커 좌표에 의해 형성될 수 있다.
일 예로, 세 개의 마커(M)가 디텍팅 장치(100)에 의해 추적되어 디텍팅 정보로 제1 마커 좌표(MP1-1), 제2 마커 좌표(MP1-2) 및 제3 마커 좌표(MP1-3)가 획득될 수 있고 제1 마커 좌표(MP1-1) 내지 제3 마커 좌표(MP1-3)는 삼각형의 패턴을 형성할 수 있다.
또한 마커(M) 는 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.
일 예로, 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 복수의 대상체에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.
일 예로 가상 현실 제어 시스템(10)에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두 가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있고 입력 장치(500)에는 제2 패턴으로 마커가(M) 제공될 수 있다.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자(800)의 식별에도 사용될 수 있다.
일 예로 제1 패턴은 제1 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제2 패턴은 제1 사용자가 소지한 입력 장치로 식별될 수 있다. 또한 제3 패턴은 제2 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제4 패턴은 제2 사용자가 소지한 입력 장치로 식별될 수 있다.
대상체의 추적에 대해서 설명하면 서버(200)는 디텍팅 장치(100)로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 산출할 수 있다.
디텍팅 장치(100)가 서버(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 장치(100)의 발광부(110)는 추적 영역(600)의 적어도 일부 영역에 신호를 발신할 수 있다.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 추적 영역(600)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버(200)로 제공할 수 있다.
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버(200)로 제공할 수 있다.
도 7에는 하나의 센싱부(120)만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버(200)로 제공할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 여부를 판단할 수 있다. 또한 서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.
일 예로 서버(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버(200)는 복수의 패턴을 식별할 수 있다.
이러한 패턴은 서버(200)에 미리 저장될 수 있으며, 서버(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
한편, 서버(200)에 미리 저장된 패턴 각각에 대해 대표점(RP)이 설정될 수 있다.
대표점(RP)은 패턴을 대표하는 점(point)일 수 있다.
대표점(RP)은 패턴 밖에 존재할 수 있다.
일 예로, 대표점(RP)은 제1 마커 좌표(MK1-1), 제2 마커 좌표(MK1-2) 및 제3 마커 좌표(MK1-3)가 이루는 평면으로부터 일정 거리 떨어진 점으로 설정될 수 있다.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되며, 서버(200)는 패턴을 대표하는 대표점(RP)을 패턴이 제공된 대상체의 위치 정보로 획득할 수 있다.
따라서, 서버(200)는 대상체의 위치 정보를 획득함으로써 대상체를 추적할 수 있다.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀 수에 기초하여 사물의 크기를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공 유형의 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대적인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.
도 8은 일 실시예에 따른 가상 환경 이미지(452)가 착용형 디스플레이 장치(400)를 통해 출력되는 것을 나타내는 도면이다.
도 8을 참조하면, 가상 현실 제공 시스템(10)은 착용형 디스플레이 장치(400)를 통하여 사용자(800)에게 가상 환경의 적어도 일부에 대한 가상 환경 이미지(452)를 제공할 수 있다.
가상 환경은 배경, 지형, 가상 오브젝트 및 캐릭터 등을 포함할 수 있다.
일 예로 가상 환경에는 사용자(800)에 대응하는 캐릭터가 제공될 수 있다.
다른 예로 가상 환경에는 사용자(800)가 소지한 입력 장치(500)에 대응하는 손 또는 총 등의 가상 오브젝트가 제공될 수 있다.
또 다른 예로, 가상 오브젝트는 가상 환경 내에 구현되어 가상 체험 중에 사용자(800)가 이용할 수 있는 오브젝트를 포함할 수 있다.
지형은 가상 환경의 미리 정해진 위치에 제공될 수 있다.
또한 지형은 캐릭터가 이동 가능한 영역과 이동 불가능한 영역을 포함할 수 있다.
지형에 대해서는 추후 설명하도록 한다.
캐릭터는 보조 컴퓨팅 장치(300)에 미리 저장된 어플리케이션 또는 프로그램에 의해 제공되는 NPC 캐릭터 및 사용자 캐릭터를 포함할 수 있다.
가상 환경에 있어서 캐릭터 또는 오브젝트의 위치 정보는 가상 위치 정보로 나타낼 수 있다.
한편, 현실에서 위치 정보는 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함할 수 있다.
일 예로 위치 정보는 추적 영역(600) 상에 위치한 대상체의 위치 좌표일 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표값을 미리 저장할 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
서버(200)는 디텍팅 정보 및 추적 영역(600)에 대한 좌표계에 기초하여 대상체의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 추적 영역(600)에서의 좌표값을 위치 정보로 획득할 수 있다.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 추적 영역(600)에서의 좌표값에 기초하여 마커가 형성하는 패턴을 판단할 수 있으며, 마커가 형성하는 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커가 형성하는 패턴 및 마커의 추적 영역(600)에서의 좌표값에 기초하여 대상체의 대표점(RP)을 획득할 수 있으며, 대상체의 대표점(RP)의 좌표값을 대상체의 위치 정보로 획득할 수 있다.
서버(200)는 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경에 대한 좌표값을 미리 저장할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
보조 컴퓨팅 장치(300)는 위치 정보 및 가상 환경에 대한 좌표계에 기초하여 대상체의 가상 환경에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 환경에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 위치 정보에 포함된 좌표값에 대응하는 가상 환경에서의 좌표값을 획득할 수 있으며, 획득한 가상 환경에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자(800)에게 출력할 가상 환경 이미지(452)를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 범위(451)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 가상 카메라의 시야 범위(451)로 획득할 수 있다.
한편, 가상 카메라의 시야 범위(451)는 착용형 디스플레이 장치(400)의 가상 위치 정보 이외에도 가상 환경 내 특정 가상 위치 정보에 의해서도 획득될 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 환경에서 가상 카메라의 시야 범위(451)에 대응하는 가상 환경 이미지(452)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 환경 이미지(452)를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 획득한 가상 환경 이미지(452)를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자(800)에게 출력할 수 있다.
이하에서는 도 9 및 도 10을 참조하여 본 발명의 일 실시예에 따른 가상 현실 제어 시스템(10)이 사용자(800)에게 가상 체험의 일환으로 서바이벌 컨텐츠를 제공하는 방법에 대해서 설명한다.
도 9는 일 실시예에 따라 사용자(800)에게 가상 체험이 제공되기 위한 가상 현실 제어 시스템(10)을 나타내는 도면이다.
도 9를 참조하면, 가상 현실 제어 시스템(10)은 디텍팅 장치(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400), 입력 장치(500), 구조물(620) 및 모니터링 디스플레이(700)를 포함할 수 있다.
가상 현실 제어 시스템(10)은 적어도 하나 이상의 사용자(800)에게 가상 체험을 제공할 수 있다.
사용자(800)는 제1 사용자(801), 제2 사용자(802), 제3 사용자(803) 및 제4 사용자(804)를 포함할 수 있다.
구조물(620)은 사용자(800)가 가상 체험할 수 있는 공간을 제공할 수 있다.
구조물(620)은 다수의 기둥을 포함할 수 있다.
구조물(620)은 복수 개의 트러스로 구성될 수 있다.
구조물(620)은 디텍팅 장치(100)를 지지할 수 있다.
일 실시예로, 구조물(620)은 밑면이 다각형 또는 원인 기둥 형상의 공간을 제공할 수 있다.
착용형 디스플레이 장치(400)는 사용자(800)에게 가상 현실 이미지 또는 가상 현실 영상을 제공할 수 있다.
착용형 디스플레이 장치(400)는 제1 착용형 디스플레이 장치(401), 제2 착용형 디스플레이 장치(402), 제3 착용형 디스플레이 장치(403) 및 제4 착용형 디스플레이 장치(404)를 포함할 수 있다.
제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)는 상기 제1 사용자(801) 내지 제4 사용자(804)에게 각각 착용되어 가상 현실 이미지 또는 가상 현실 영상을 제공할 수 있다.
제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)는 디텍팅 장치(100)가 각각의 위치를 추적할 수 있도록 서로 다른 패턴으로 마커(M)가 부착되어 구별될 수 있다.
일 실시예로, 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)에는 각각 서로 다른 길이의 변 또는 내각을 갖는 삼각형 패턴으로 마커(M)가 부착될 수 있다.
보조 컴퓨팅 장치(300)는 프로그램 또는 어플리케이션을 실행하여 착용형 디스플레이 장치(400)를 제어할 수 있다.
보조 컴퓨팅 장치(300)는 서버(200)로부터 위치 정보를 획득하여 이용할 수 있다.
일 실시예로 보조 컴퓨팅 장치(300)는 사용자(800)의 위치 정보에 기초하여 가상 위치 정보를 산출하여 이를 기초로 가상 현실에 대한 이미지를 착용형 디스플레이 장치(400)에 출력할 수 있다.
보조 컴퓨팅 장치(300)는 제1 보조 컴퓨팅 장치(301), 제2 보조 컴퓨팅 장치(302), 제3 보조 컴퓨팅 장치(303) 및 제4 보조 컴퓨팅 장치(304)를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 서버(200) 또는 착용형 디스플레이 장치(400)와의 통신 방법에 따라 사용자(800)가 소지할 수 있는 형태 또는 구조물(620) 밖에 별도의 장소에 비치되는 형태로 제공될 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 사용자(800)가 멜 수 있는 Backpack PC 형태로 제공될 수 있다.
또는 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)에 내장되는 형태로 제공될 수 있다.
제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304)는 각각 프로그램 또는 어플리케이션을 실행하여 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)를 제어할 수 있다.
입력 장치(500)는 사용자(800)의 입력을 받아 보조 컴퓨팅 장치(300)에 입력신호를 전달할 수 있다.
일 예로, 입력 장치(500)는 적어도 하나의 버튼을 포함하고, 버튼이 사용자에 의해 가압되는 경우 입력신호를 보조 컴퓨팅 장치(300)에 전달할 수 있다.
또는 입력신호는 입력 장치(500)의 이동에 기초하여 보조 컴퓨팅 장치(300)에 전달될 수도 있다.
예를 들어, 입력 장치(500)가 미리 정해진 궤적을 그리며 이동하는 경우 입력신호는 입력 장치(500)로부터 보조 컴퓨팅 장치(300)에 전달될 수 있다.
한편, 입력 장치(500)는 서버(200)에 입력신호를 전달할 수도 있다.
입력 장치(500)는 제1 입력 장치(501), 제2 입력 장치(502), 제3 입력 장치(503) 및 제4 입력 장치(504)를 포함할 수 있다.
제1 입력 장치(501) 내지 제4 입력 장치(504)는 제1 사용자(801) 내지 제4 사용자(804)가 한 손 또는 양손으로 휴대할 수 있도록 적어도 하나 이상의 파지형 장비로 제공될 수 있다.
제1 입력 장치(501) 내지 제4 입력 장치(504)는 디텍팅 장치(100)가 각각의 위치를 추적할 수 있도록 서로 다른 패턴으로 마커(M)가 부착되어 구별될 수 있다.
일 실시예로, 제1 입력 장치(501) 내지 제4 입력 장치(504)에는 각각 서로 다른 길이의 변 또는 내각을 갖는 삼각형 패턴으로 마커(M)가 부착될 수 있다.
한편, 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404) 및 제1 입력 장치(501) 내지 제4 입력 장치(504)에 부착된 마커(M)의 패턴은 서로 다른 패턴일 수 있다.
서버(200)는 디텍팅 장치(100)로부터 디텍팅 정보를 획득하여 사용자(800)의 위치 정보 또는 가상 위치 정보를 산출하여 보조 컴퓨팅 장치(300)에 전달할 수 있다.
서버(200)는 구조물(620)에 부착되거나 구조물(620) 밖에 위치할 수 있다.
한편, 서버(200)는 보조 컴퓨팅 장치(300)의 기능을 대신할 수도 있다.
일 예로, 서버(200)는 획득한 디텍팅 정보로부터 사용자(800)의 위치 정보 또는 가상 위치 정보를 산출하고 이를 반영하는 프로그램 또는 어플리케이션을 실행하여 착용형 디스플레이 장치(400)를 제어할 수 있다.
서버(200)는 프로그램 또는 어플리케이션을 실행하여 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)에 동일하거나 서로 다른 가상 현실 이미지를 출력할 수 있다.
디텍팅 장치(100)는 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 위치를 추적하여 획득한 디텍팅 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 전달할 수 있다.
디텍팅 장치(100)는 구조물(620)에 부착되어 사용자(800)로부터 일정 거리 이격되어 위치할 수 있다.
디텍팅 장치(100)가 사용자(800)로부터 이격되어 있는 거리에 비례하여 사용자(800)의 움직임이 추적될 수 있는 영역이 넓어질 수 있다.
디텍팅 장치(100)는 제1 디텍팅 시스템(101) 및 제2 디텍팅 시스템(102)을 포함할 수 있다.
가상 현실 제어 시스템(10)은 디텍팅 장치(100)에 의해 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체가 추적될 수 있는 추적 영역(600)을 포함할 수 있다.
추적 영역(600)은 구조물(620)에 의해 정의될 수 있다. 추적 영역(600)은 구조물(620)이 설치된 영역과 대응되는 영역일 수 있다.
추적 영역(600)에는 발광부(110)로부터 광 신호가 송출될 수 있고 센싱부(120)는 추적 영역(600)로부터 광 신호를 수신할 수 있으며 추적 영역(600) 밖에서는 발광부(110)로부터 광 신호가 송출되지 않거나 센싱부(120)가 광 신호를 수신하지 않을 수 있다.
또한, 사용자(800)가 추적 영역(600) 내에 위치하는 경우 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)에 의해 가상 현실에 관한 이미지를 출력할 수 있다.
한편, 사용자(800) 가 추적 영역(600) 밖에 위치하는 경우 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 제어하여 사용자(800)를 추적 영역(600)으로 이동하도록 유도할 수 있다.
추적 영역(600)은 제1 추적 영역(601), 제2 추적 영역(602), 제3 추적 영역(603) 및 제4 추적 영역(604)을 포함할 수 있다.
제1 추적 영역(601) 내지 제4 추적 영역(604)은 직육면체 형상으로 제공될 수 있고 서로 붙어 있거나 이격되어 위치할 수 있다.
제1 추적 영역(601) 내지 제4 추적 영역(604)에는 제1 사용자(801) 내지 제4 사용자(804)가 위치할 수 있다.
한편, 가상 현실 제어 시스템(10)은 제1 추적 영역(601) 내지 제4 추적 영역(604)을 구분하기 위해 경계 영역(630)을 더 포함할 수 있다.
경계 영역(630)은 제1 추적 영역(601)과 제2 추적 영역(602) 사이에 위치할 수 있고, 경계 영역(630)은 제2 추적 영역(602) 및 제3 추적 영역(603) 사이에 위치할 수 있고, 경계 영역(630)은 제3 추적 영역(603) 및 제4 추적 영역(604) 사이에 위치할 수 있고, 경계 영역(603)은 제1 추적 영역(601) 및 제4 추적 영역(604) 사이에 위치할 수 있다.
경계 영역(630)은 십자 형상으로 제공되어 현실 공간을 제1 추적 영역(601) 내지 제4 추적 영역(604)으로 구분할 수 있다.
추적 영역(600)은 디텍팅 장치(100)에 의해 사용자(800)의 추적이 용이하고 사용자(800)가 내부 또는 외부 충돌로부터 보호될 수 있는 이동 권장 영역을 포함할 수 있다.
이동 권장 영역은 추적 영역(600)의 크기와 같거나 작을 수 있다.
이동 권장 영역은 추적 영역(600) 내에서 디텍팅 장치(100)에 의해 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800)의 움직임이 상대적으로 높은 정확도로 추적되는 영역일 수 있다.
이동 권장 영역은 제1 이동 권장 영역(611), 제2 이동 권장 영역(612), 제3 이동 권장 영역(613) 및 제4 이동 권장 영역(614)을 포함할 수 있다.
제1 추적 영역(601) 내지 제4 추적 영역(604)은 각각 제1 이동 권장 영역(611) 내지 제4 이동 권장 영역(614)을 포함할 수 있다.
제1 이동 권장 영역(611) 내지 제4 이동 권장 영역(614)은 제1 이동 권장 영역(611) 내지 제4 이동 권장 영역(614) 내에 각각 제1 사용자(801) 내지 제4 사용자(804)가 위치하는 경우 제1 사용자(801) 내지 제4 사용자(804)가 서로 충돌하지 않도록 설정될 수 있다.
한편, 가상 현실 시스템(10)은 사용자(800)의 가상 체험 과정을 모니터링 할 수 있도록 모니터링 디스플레이(700)를 더 포함할 수 있다.
모니터링 디스플레이(700)는 서버(200) 또는 보조 컴퓨팅 장치(300)로부터 가상 현실 이미지를 수신하여 가상 현실 내 가상 카메라의 시야 범위를 출력할 수 있다.
일 예로, 구조물(620)에 설치된 모니터링 디스플레이(700)는 서버(200)와 유선 또는 무선 통신으로 연결되어 서버(200)로부터 서버 디스플레이부(250)에 출력되는 영상 또는 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404) 중 적어도 어느 하나에 출력되는 영상을 전달 받아 출력할 수 있다.
도 10은 일 실시예에 따른 튜토리얼 가상 공간(20)을 나타내는 도면이다.
도 10을 참조하면 착용형 디스플레이 장치(400)를 통해 사용자(800)에게 튜토리얼 가상 공간(20)이 제공될 수 있다.
가상 현실 제어 시스템(10)에 의해 사용자(800)에게 튜토리얼 가상 공간(20)이 제공될 수 있다.
튜토리얼 가상 공간(20)은 보조 컴퓨팅 장치(300)에서 프로그램 또는 어플리케이션 실행 시 구축되는 가상 공간일 수 있다.
튜토리얼 가상 공간(20)은 캐릭터(900), 대표 가상 위치 정보(930) 및 튜토리얼 영역을 포함할 수 있다.
캐릭터(900)는 튜토리얼 영역에 위치할 수 있다.
캐릭터(900)는 제1 캐릭터(901), 제2 캐릭터(902), 제3 캐릭터(903) 및 제4 캐릭터(904)를 포함할 수 있다.
캐릭터(900)는 튜토리얼 가상 공간(20)에서 사용자(800)의 움직임에 따라 움직일 수 있다.
캐릭터(900)는 사용자(800)의 움직임에 따라 변화하는 위치 정보에 기초하여 산출된 가상 위치 정보의 변화에 따라 이동할 수 있다.
가상 위치 정보는 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 현실에서의 위치에 대응되는 가상 현실에서의 가상 위치에 대한 정보일 수 있다.
가상 위치 정보는 대상체에 대한 위치 정보를 통해 산출될 수 있다.
또는, 가상 위치 정보는 대상체에 부착된 마커(M)의 위치정보를 통해 산출될 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 각각의 대상체와 대응되는 가상 오브젝트를 가상 공간 상에 생성할 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400) 및 입력 장치(500)의 가상 위치 정보에 기초하여 가상 현실에서 캐릭터(900)를 생성할 수 있다. 이 때, 캐릭터(900)의 머리, 몸체 부분은 착용형 디스플레이 장치(400)의 가상 위치 정보에 기초하고 캐릭터(900)의 손, 팔 부분은 입력 장치(500)의 가상 위치 정보에 기초하여 생성될 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)에서 생성한 가상 오브젝트를 출력할 수 있다.
일 예로, 입력 장치(500)와 대응되는 가상 공간 내 가상 오브젝트는 캐릭터(900)의 손이나 캐릭터(900)가 소지하는 기본 장비일 수 있다.
튜토리얼 가상 공간(20)에는 대표 가상 위치 정보(930)가 표시될 수 있다. 대표 가상 위치 정보(930)는 각각의 대상체로부터 산출된 다수의 가상 위치 정보 중 어느 하나일 수 있다.
대표 가상 위치 정보(930)는 캐릭터(900)의 최상단과 대응되는 가상좌표일 수 있다. 대표 가상 위치 정보(930)는 캐릭터(900)가 점유하고 있는 영역 중 z축 방향으로 최상단에 위치한 영역에 대한 좌표일 수 있다.
대표 가상 위치 정보(930)는 착용형 디스플레이 장치(400)의 위치 정보에 따라 산출될 수 있다.
대표 가상 위치 정보(930)는 착용형 디스플레이 장치(400)와 일정거리 이격된 위치 정보일 수 있다.
대표 가상 위치 정보(930)는 착용형 디스플레이 장치(400)로부터 시야 범위와 반대방향으로 이격되고, 착용형 디스플레이 장치(400)로부터 z축방향으로 지면으로부터 멀어지는 방향으로 이격된 위치 정보일 수 있다.
한편 대표 가상 위치 정보(930)는 착용형 디스플레이 장치(400)의 대표점(RP)에 대응되는 가상 좌표일 수도 있다.
대표 가상 위치 정보(930)는 제1 대표 가상 위치 정보(931), 제2 대표 가상 위치 정보(932), 제3 대표 가상 위치 정보(933) 및 제4 대표 가상 위치 정보(934)를 포함할 수 있다.
제1 대표 가상 위치 정보(931) 내지 제4 대표 가상 위치 정보(934)는 제1 캐릭터(901) 내지 제4 캐릭터(904) 주변에 원, 구, 사각형 등 다양한 모양으로 표시될 수 있다.
한편, 제1 대표 가상 위치 정보(931) 내지 제4 대표 가상 위치 정보(934)는 표시되지 않을 수 있다.
튜토리얼 가상 공간(20)은 캐릭터(900)가 점유할 수 있는 튜토리얼 영역을 포함할 수 있다.
튜토리얼 영역은 추적 영역(600)에 대응되는 영역으로 추적 영역(600)과 유사한 크기와 유사한 모양을 가질 수 있다.
튜토리얼 영역은 제1 튜토리얼 영역(921), 제2 튜토리얼 영역(922), 제3 튜토리얼 영역(923) 및 제4 튜토리얼 영역(924)을 포함할 수 있다.
제1 튜토리얼 영역(921) 내지 제4 튜토리얼 영역(924)은 제1 추적 영역(601) 내지 제4 추적 영역(604)에 대응되는 영역일 수 있다.
제1 튜토리얼 영역(921) 내지 제4 튜토리얼 영역(924)에는 각각 제1 캐릭터(901) 내지 제4 캐릭터(904)가 위치할 수 있다.
또는 제1 튜토리얼 영역(921) 내지 제4 튜토리얼 영역(924)에는 각각 제1 대표 가상 위치 정보(931) 내지 제4 대표 가상 위치 정보(934)가 위치할 수 있다.
가상 체험이 제공되기 앞서 제1 사용자(801) 내지 제4 사용자(804)는 각각 제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304) 및 제1 입력 장치(501) 내지 제4 입력 장치(504)를 소지하고 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)를 착용한 상태로 제1 추적 영역(601) 내지 제4 추적 영역(604)에 위치할 수 있다.
바람직하게는, 제1 사용자(801) 내지 제4 사용자(804)는 각각 제1 이동 권장 영역(611) 내지 제4 이동 권장 영역(614)에 위치할 수 있다.
제1 디텍팅 장치(101) 및 제2 디텍팅 장치(102)는 추적 영역(600)에서의 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 디텍팅 정보를 획득할 수 있다.
제1 디텍팅 장치(101) 및 제2 디텍팅 장치(102)는 각각 다수의 카메라를 포함할 수 있다.
서버(200)는 제1 디텍팅 장치(101) 및 제2 디텍팅 장치(102)로부터 획득된 디텍팅 정보에 기초하여 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 위치 정보를 산출할 수 있다.
한편, 제1 디텍팅 장치(101)와 제2 디텍팅 장치(102)는 추적 영역(600) 내에서 서로 다른 추적영역에 위치하는 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 디텍팅 정보를 획득할 수 있다.
일 예로, 제1 디텍팅 장치(101)는 제1 추적 영역(601) 내에 위치하는 제1 착용형 디스플레이 장치(401), 제1 입력 장치(501) 또는 제1 사용자(801)의 디텍팅 정보를 획득할 수 있다.
제1 디텍팅 장치(101)는 다수의 카메라를 포함할 수 있고 서버(200)는 제1 디텍팅 장치(101)를 구성하는 다수의 카메라로부터 획득된 디텍팅 정보에 기초하여 제1 착용형 디스플레이 장치(401), 제1 입력 장치(501) 또는 제1 사용자(801)의 위치 정보를 산출할 수 있다.
또 다른 예로, 제2 디텍팅 장치(102)는 제2 추적 영역(602) 내에 위치하는 제2 착용형 디스플레이 장치(402), 제2 입력 장치(502) 또는 제2 사용자(802)의 디텍팅 정보를 획득할 수 있다.
제2 디텍팅 장치(102)는 다수의 카메라를 포함할 수 있고 서버(200)는 제2 디텍팅 장치(102)를 구성하는 다수의 카메라로부터 획득된 디텍팅 정보에 기초하여 제2 착용형 디스플레이 장치(402), 제2 입력 장치(502) 또는 제2 사용자(802)의 위치 정보를 산출할 수 있다.
또 다른 예로, 제1 디텍팅 장치(101)는 제1 추적 영역(601) 및 제4 추적 영역(602) 내의 제1 사용자(801) 및 제4 사용자(802)를 추적하고, 제2 디텍팅 시스템(102)은 제2 추적 영역(602) 및 제3 추적 영역(603) 내의 제2 사용자(802) 및 제3 사용자(803)를 추적하여 디텍팅 정보를 획득할 수도 있다.
서버(200)는 산출된 착용형 디스플레이 장치(400), 입력 장치(500) 또는 사용자(800) 등 대상체의 위치 정보 전부 또는 일부를 제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304)에 전달할 수 있다.
제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304)는 서버(200)로부터 획득한 위치 정보에 기초하여 제1 대표 가상 위치 정보(931) 내지 제4 대표 가상 위치 정보(934) 전부 또는 일부를 산출할 수 있다.
제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304)는 제1 대표 가상 위치 정보(931) 내지 제4 대표 가상 위치 정보(934)에 기초하여 제1 사용자(801) 내지 제4 사용자(804)에 대응하는 제1 캐릭터(901) 내지 제4 캐릭터(904)를 생성할 수 있다.
또한 제1 보조 컴퓨팅 장치(301) 내지 제4 보조 컴퓨팅 장치(304)는 각각 프로그램을 실행하여 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)에 제1 캐릭터(901) 내지 제4 캐릭터(904) 전부 또는 일부가 포함된 이미지를 출력할 수 있다.
일 실시예로, 제1 착용형 디스플레이 장치(401)에는 제1 캐릭터(901)의 시야 범위로써 제2 캐릭터(902) 내지 제4 캐릭터(903)를 포함하는 이미지가 출력될 수 있다.
모니터링 디스플레이(700)에는 제1 캐릭터(901) 내지 제4 캐릭터(904) 전부 또는 일부가 포함된 이미지가 출력될 수 있다.
가상 현실 시스템(10)은 사용자(800)에게 튜토리얼 가상 공간(20)을 통해 서바이벌 컨텐츠에 대한 튜토리얼을 제공할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자(800)에게 튜토리얼 가상 공간(20) 내 가상 카메라의 시야 범위를 제공할 수 있다.
가상 카메라의 시야 범위는 튜토리얼 가상 공간(20) 내 착용형 디스플레이 장치(400)의 가상 위치 정보에 기초하거나 가상 현실 내 특정 지점에서의 시야 범위일 수 있다.
일 실시예로, 제1 착용형 디스플레이 장치(401)에는 튜토리얼 가상 공간(20) 내에서 제1 캐릭터(901)의 시야 범위가 출력될 수 있다.
착용형 디스플레이 장치(400)에는 기본적인 동작에 대한 안내 메시지 또는 안내 음성이 출력될 수 있다.
기본적인 동작은 이동, 사격, 앉기, 엄폐, 아이템 획득 등 서바이벌 컨텐츠를 체험하는 데 필요한 동작을 포함할 수 있다.
사용자(800)는 안내 메시지 또는 안내 음성에 따라 움직이거나 입력 장치(500)를 조작함으로써 기본적인 동작에 익숙해질 수 있다.
이하에서는 도 11을 참조하여 가상 현실 시스템(10)에 의해 사용자에게 서바이벌 가상 공간(30)이 제공되는 방법에 대해 설명한다.
도 11은 착용형 디스플레이 장치(400)에 출력되는 서바이벌 가상 공간(30)을 나타내는 도면이다.
튜토리얼이 끝나면 가상 현실 제어 시스템(10)은 사용자(800)에게 서바이벌 가상 공간(30)을 제공할 수 있다.
서바이벌 가상 공간(30)은 서바이벌을 위해 보조 컴퓨팅 장치(300)에 의해 구축되는 가상 공간일 수 있다.
도 11을 참조하면, 서바이벌 가상 공간(30)은 캐릭터(900), 지형(1000), 전광판(1010), 이동 표식(1400), 아이템(1500) 및 배리어(1800) 등을 포함할 수 있다.
캐릭터(900)는 사용자(800)에 대응되며 서바이벌 가상 공간(30)에서 사용자(800)의 움직임이나 조작에 따라 움직이거나 동작할 수 있다.
지형(1000)은 서바이벌 가상 공간(30)에서 캐릭터(900)가 이동하거나 캐릭터(900), 이동 표식(1400), 아이템(1500) 또는 배리어(1800) 등이 위치할 수 있는 부분이다.
지형(1000)은 서바이벌 가상 공간(30)에서 배경의 일부가 될 수 있다.
전광판(1010)은 서바이벌 가상 공간(30)에서 서바이벌 컨텐츠가 진행되는 상황을 나타내어 사용자(800) 및 모니터링 디스플레이(700)를 통해 관전하는 사람들이 서바이벌 컨텐츠의 흐름을 용이하게 파악할 수 있다.
일 실시예로, 전광판(1010)에는 가상 체험 종료까지 남은 시간, 캐릭터(900)의 킬 및 데스 정보, 점수 정보, 순위 정보 등을 나타낼 수 있다.
전광판(1010)은 지형(1000)에 연결되거나 독립적으로 공중에 부유한 상태로 서바이벌 가상 공간(30) 내 중앙에 배치될 수 있다.
전광판(1010)은 직육면체 형상일 수 있고, 옆면에 서바이벌 컨텐츠 진행 상황에 대한 정보를 나타낼 수 있다.
이동 표식(1400)은 캐릭터(900)가 다른 영역으로 이동하는 것을 돕기 위해 표시되는 표식이다.
사용자(800)는 입력 장치(500)를 이용하여 캐릭터(900)를 이동 표식(1400)이 있는 영역으로 이동시킬 수 있다.
이동 표식(1400)은 캐릭터(900)가 이동할 수 있는 이동 가능 영역(1100) 또는 특수 영역(1310) 중 비교적 가까운 이동 가능 영역(1100) 또는 특수 영역(1310)에 표시될 수 있다.
이동 표식(1400)은 다양한 모양으로 이동 가능 영역(1100)에 연결되거나 이동 가능 영역(1100) 위에 부유하여 표시될 수 있다.
이동 표식(1400)을 이용하여 캐릭터(900)가 지형(1000) 내에서 이동하는 방법에 대한 구체적인 내용은 후술하도록 한다.
아이템(1500)은 캐릭터(900)가 서바이벌 컨텐츠를 체험하는 데에 이용할 수 있는 도구를 포함할 수 있다.
일 실시예로, 아이템(1500)은 칼, 활, 수류탄, 핸드 건, 샷 건, 미니 건, 레이저 건, 로켓 런처, 램페이지 등의 장비류, 구급박스, 회복 캡슐 등을 포함할 수 있다.
사용자(800)는 입력 장치(500)를 조작하여 캐릭터(900)가 아이템(1500)을 획득하게 할 수 있다.
배리어(1800)는 외부의 공격으로부터 캐릭터(900)를 보호할 수 있다.
배리어(1800)는 지형(1000) 내 캐릭터(900) 주위에 위치하여 외부로부터 캐릭터(900)를 향해 날아오는 공격을 대신 받을 수 있다.
배리어(1800)는 다각형, 곡선으로 이루어진 도형 등 다양한 모양을 가질 수 있고 다양한 높이와 너비를 가질 수 있다.
배리어(1800)의 형상과 기능에 대한 구체적인 내용은 후술하도록 한다.
튜토리얼 가상 공간(20)에서 튜토리얼을 마치면 착용형 디스플레이 장치(400)는 서바이벌 가상 공간(30)에 대한 이미지를 출력할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)에 서바이벌 가상 공간(30) 내 가상 카메라의 시야 범위를 출력할 수 있다.
도 11은 캐릭터(900)가 서바이벌 가상 공간(30) 내 지형(1000) 내에 위치한 상태에서 캐릭터(900) 상부에 위치하는 가상 카메라의 시야 범위일 수 있다.
이 때, 가상 카메라의 시야 범위는 서바이벌 가상 공간(30) 내 특정 위치에서의 시야 범위일 수도 있다.
따라서, 착용형 디스플레이 장치(400)에는 캐릭터(900) 뒤쪽에서 바라본 시야 범위가 출력되어 캐릭터(900)가 표시되거나 캐릭터(900)의 시야에서 바라본 시야 범위가 출력되어 캐릭터(900)가 표시되지 않을 수 있다.
사용자(800)는 입력 장치(500)를 조작하여 지형(1000) 내 이동 표식(1400)이 존재하는 이동 가능 영역(1100)으로 이동하거나 아이템(1500)을 획득하여 서바이벌 컨텐츠를 진행할 수 있다.
서바이벌 가상 공간(30)에는 캐릭터(900)가 공격해야 하는 공격 대상이 존재할 수 있다.
사용자(800)가 캐릭터(900)를 조작함으로써 공격 대상을 처치하면 점수가 부여될 수 있고, 누적된 점수 및 공격 대상 처치 횟수 등이 실시간으로 전광판(1010)에 표시될 수 있다.
한편, 복수의 사용자(800)가 서바이벌 컨텐츠를 진행하는 경우 제1 사용자(801) 내지 제4 사용자(804)가 착용한 제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404)에는 제1 캐릭터(901) 내지 제4 캐릭터(904)의 시야 범위가 출력될 수 있다.
제1 착용형 디스플레이 장치(401) 내지 제4 착용형 디스플레이 장치(404) 각각에 출력되는 시야 범위에는 제1 캐릭터(901) 내지 제4 캐릭터(904) 중 전부 또는 일부가 표시될 수 있다.
서바이벌 컨텐츠 진행 방법에 대한 구체적인 내용은 후술하도록 한다.
도 12는 서바이벌 가상 공간(30) 내 형성되어 있는 지형(1000)을 나타내는 도면이다.
사용자(800)에게 제공되는 서바이벌 가상 공간(30)은 캐릭터(900)가 위치할 수 있는 지형(1000)을 포함할 수 있다.
도 12를 참조하면, 지형(1000)은 이동 가능 영역(1100), 이동 불가 영역(1200), 리스폰 영역(1300) 및 특수 영역(1310)을 포함할 수 있다.
이동 가능 영역(1100)은 지형(1000) 내에서 캐릭터(900)가 위치하거나 이동할 수 있는 영역이다.
이동 가능 영역(1100)은 밑면이 다양한 크기의 다각형 또는 원 등의 도형이고 다양한 높이를 가지는 기둥 형상의 블록으로 구현될 수 있다.
이동 가능 영역(1100)은 보조 컴퓨팅 장치(300)에 의해 지형(1000) 내 일부 영역에 무작위로 배치될 수 있다.
이동 불가 영역(1200)은 지형(1000) 내에서 캐릭터(900)가 위치하거나 이동할 수 없는 영역이다.
이동 불가 영역(1200)은 보조 컴퓨팅 장치(300)에 의해 지형(1000) 내 일부 영역에 무작위로 배치될 수 있다.
이동 불가 영역(1200)은 이격되어 있는 이동 가능 영역(1100) 사이에 배치될 수 있다.
이동 불가 영역(1200)은 밑면이 다양한 크기의 다각형 또는 원 등의 도형이고 다양한 높이를 가지는 기둥 형상의 블록으로 구현될 수 있다.
또는, 이동 불가 영역(1200)은 이동 가능 영역(1100), 리스폰 영역(1300), 또는 특수 영역(1310)에 부착될 수 있도록 이동 가능 영역(1100), 리스폰 영역(1300), 또는 특수 영역(1310)의 옆면과 유사한 옆면을 갖는 기둥 형상의 블록으로 구현될 수 있다.
리스폰 영역(1300)은 사용자(800)에게 서바이벌 가상 공간(30)이 제공될 때 캐릭터(900)가 처음 위치하는 영역 또는 서바이벌 컨텐츠 진행 과정에서 캐릭터(900)에게 사망 이벤트가 발생하는 경우 캐릭터(900)가 위치하게 되는 영역일 수 있다.
리스폰 영역(1300)은 보조 컴퓨팅 장치(300)에 의해 지형(1000) 내 일부 영역에 무작위로 배치될 수 있다.
또는 리스폰 영역(1300)의 수는 가상 현실 제어 시스템(10)이 제공되는 사용자(800)의 수 또는 서바이벌 가상 공간(30)에 존재하는 캐릭터(900)의 수에 따라 정해질 수 있다.
일 실시예로, 서바이벌 가상 공간(30)에 제1 사용자(801)에 대응하는 제1 캐릭터(901)만 존재하는 경우 리스폰 영역(1300)은 하나이고, 서바이벌 가상 공간(30)에 제1 사용자(801) 내지 제4 사용자(804)에 대응하는 제1 캐릭터(901) 내지 제4 캐릭터(904)가 존재하는 경우 리스폰 영역(1300)은 적어도 하나 이상일 수 있다.
또는, 제1 사용자(801) 내지 제4 사용자(804)는 복수의 팀을 구성할 수 있고 팀별로 동일한 리스폰 영역(1300)을 사용할 수 있다.
리스폰 영역(1300)은 밑면이 다양한 크기의 다각형 또는 원 등의 도형이고 다양한 높이를 가지는 기둥 형상의 블록으로 구현될 수 있다.
또는, 리스폰 영역(1300)은 복수의 블록이 조립되어 형성될 수 있다.
특수 영역(1310)은 캐릭터(900)가 위치하는 경우 특수한 이벤트를 발생시키는 영역이다.
특수한 이벤트는 보조 컴퓨팅 장치(300)가 실행하는 프로그램 내에 설정된 이벤트로 캐릭터(900)가 공중으로 부양하는 이벤트, 각종 아이템이 제공되는 이벤트, 특수 아이템이 제공되는 이벤트 또는 캐릭터(900)의 체력을 회복하는 이벤트 등 사용자(800)가 서바이벌 컨텐츠를 진행하면서 필요한 이벤트를 포함할 수 있다.
특수 영역(1310)은 보조 컴퓨팅 장치(300)에 의해 지형(1000) 내 일부 영역에 무작위로 배치될 수 있다.
특수 영역(1310)은 밑면이 다양한 크기의 다각형 또는 원 등의 도형이고 다양한 높이를 가지는 기둥 형상의 블록으로 구현될 수 있다.
서바이벌 가상 공간(30)에 제공되는 지형(1000)은 적어도 둘 이상의 블록들이 조립되어 형성될 수 있다.
지형(1000)을 구성하는 블록들은 각각 이동 가능 영역(1100), 이동 불가 영역(1200), 리스폰 영역(1300) 및 특수 영역(1310) 중 어느 하나일 수 있다.
이동 가능 영역(1100), 이동 불가 영역(1200) 및 특수 영역(1310)은 상호 구별되기 위해 서로 다른 높이를 가지는 블록으로 구현될 수 있다.
리스폰 영역(1300)은 다른 영역들에 비해 큰 크기의 블록으로 구현되거나 복수의 블록들이 조립된 형상으로 구현될 수 있다.
이동 불가 영역(1200)은 이동 가능 영역(1100), 리스폰 영역(1300) 및 특수 영역(1310) 사이에 배치되어 각 영역이 연결되고 이로써 서바이벌 가상 공간(30) 내 지형(1000)이 구축될 수 있다.
이동 가능 영역(1100), 이동 불가 영역(1200), 리스폰 영역(1300) 및 특수 영역(1310)은 서로 다른 크기와 모양으로 구별될 수도 있고 더불어 서로 다른 색으로 구별될 수도 있다.
한편, 보조 컴퓨팅 장치(300)에 의해 지형(1000)은 다양한 구조 및 구성으로 구현될 수 있다.
서바이벌 컨텐츠 제공을 위한 프로그램 또는 어플리케이션을 통해 보조 컴퓨팅 장치(300)는 다양한 구조 및 구성의 지형(1000)을 생성할 수 있다.
일 예로, 사용자(800)는 보조 컴퓨팅 입력부(330)를 통해 서바이벌 컨텐츠가 진행되는 지형(1000)을 생성 또는 변형할 수 있다.
이 때, 지형(1000)을 구성하기 위한 영역들이 육각기둥 블록으로 제공될 수 있다. 캐릭터(900)가 이동 가능하거나 불가능한 성질, 특수 기능을 갖는 성질 등을 갖는 육각기둥 블록을 서로 연결하여 지형(1000)이 구성될 수 있다.
또한, 기존에 형성된 지형(1000)에 상기 성질들을 갖는 육각기둥 블록들을 추가하거나 제거하여 지형(1000)을 변형할 수 있다.
한편, 지형(1000)을 구성하는 영역들은 육각기둥 블록 외에도 상호 연결되기 쉬운 블록들로 제공될 수 있고, 서로 다른 형상을 갖는 블록들의 결합으로 제공될 수도 있다.
생성되는 지형(1000)은 적어도 하나 이상의 리스폰 영역(1300), 적어도 둘 이상의 이동 가능 영역(1100), 적어도 하나 이상의 이동 불가 영역(1200)을 포함할 수 있다.
지형(1000)이 다양하게 생성되거나 변형됨에 따라 서바이벌 컨텐츠의 난이도가 조정될 수 있다.
또한, 사용자(800)에 의해 생성되거나 변형된 지형(1000)이 서바이벌 가상 공간(30)을 구축하는 경우 사용자(800)의 가상 체험에 대한 흥미를 향상시킬 수 있다.
도 13은 캐릭터(900)가 이동 가능 영역(1100)에 위치한 것을 나타내는 도면이다.
도 13을 참조하면, 서바이벌 가상 공간(30)에서 캐릭터(900)는 대표 가상 위치 정보(930)에 기초하여 존재할 수 있고, 이동 가능 영역(1100)은 안전 영역(1110) 및 배리어 영역(1120)을 포함할 수 있다.
캐릭터(900)는 서바이벌 가상 공간(30)에서 가상 좌표들의 집합으로 구현될 수 있다.
캐릭터(900)를 구현하는 가상 좌표들의 집합은 대표 가상 위치 정보(930)에 기초할 수 있다.
대표 가상 위치 정보(930)는 서버(200)가 디텍팅 장치(100)로부터 획득한 디텍팅 정보를 가공하여 위치 정보를 산출하고, 산출된 위치 정보를 보조 컴퓨팅 장치(300)가 획득하고 가공하여 산출될 수 있다.
따라서, 대표 가상 위치 정보(930)는 현실에서 대상체의 움직임에 따라 실시간으로 변경될 수 있다.
도 13에서 대표 가상 위치 정보(930)는 캐릭터(900)의 머리 위의 가상 좌표일 수 있다.
이동 가능 영역(1100)은 현실에서의 추적 영역(600)에 대응되는 영역으로 추적 영역(600)과 유사한 크기와 유사한 모양을 가질 수 있다.
또는 이동 가능 영역(1100)은 추적 영역(600) 보다 작은 면적을 가지되 추적 영역(600)과 다른 모양을 가질 수 있다.
또는, 이동 가능 영역(1100)은 필요에 따라 추적 영역(600) 보다 큰 면적을 가질 수도 있다.
안전 영역(1110)은 현실에서의 이동 권장 영역에 대응되는 영역으로 이동 권장 영역과 유사한 크기와 유사한 모양을 가지되, 이동 가능 영역(1100) 내에 포함될 수 있다.
또는, 안전 영역(1110)은 필요에 따라 이동 권장 영역 보다 작거나 큰 면적을 가지되 이동 가능 영역(1100) 내에 포함될 수 있다.
배리어 영역(1120)은 이동 가능 영역(1100) 중 안전 영역(1110)에 해당하지 않는 영역이다.
배리어 영역(1120)에는 배리어(1800)가 생성될 수 있고 배리어(1800)는 외부의 공격으로부터 캐릭터(900)를 보호해 줄 수 있다.
배리어(1800)의 생성 과정, 기능 및 역할 등 구체적인 내용에 대해서는 추후 설명하도록 한다.
캐릭터(900)는 사용자(800)의 움직임 또는 조작에 따라 이동 가능 영역(1100)에서 이동할 수 있다.
한편, 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)에 기초하여 캐릭터(900)가 이동 가능 영역(1100)에 위치하는지 판단할 수 있다.
나아가 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)에 기초하여 캐릭터(900)가 이동 가능 영역(1100) 내 안전 영역(1110) 또는 배리어 영역(1120) 중 어느 영역에 위치하는지 판단할 수 있다.
사용자(800)는 현실에서 가상 체험이 제공되기 전에 또는 튜토리얼 가상 공간(20)에서 사용자(800)가 이동 가능한 범위에 대해 교육 받을 수 있다.
사용자(800)의 움직임 또는 조작에 따라 캐릭터(900)가 이동 가능 영역(1100) 또는 안전 영역(1110)을 벗어날 수 있다.
일 예로, 사용자(800)가 현실에서 추적 영역(600) 또는 이동 권장 영역 밖으로 이동하는 경우 서바이벌 가상 공간(30)에서 캐릭터(900)는 이동 가능 영역(1100) 또는 안전 영역(1110)을 벗어날 수 있다.
이 때, 보조 컴퓨팅 장치(300) 또는 서버(200)는 사용자(800)가 착용한 착용형 디스플레이 장치(400)를 제어하여 사용자(800)를 추적 영역(600) 또는 이동 권장 영역 내로 위치하도록 유도할 수 있다.
착용형 디스플레이 장치(400)를 제어하여 사용자(800)의 움직임 또는 조작을 유도하는 방법에 대해서는 추후 설명하도록 한다.
이하에서는 도 14 및 도 15를 참조하여 서바이벌 가상 공간(30) 내 지형(1000)에서 캐릭터(900)의 위치에 따라 이동 가능 영역(1100)에 이동 표식(1400)이 표시되는 방법을 설명한다.
도 14는 캐릭터(900)가 리스폰 영역(1300)에 있을 때 캐릭터(900)의 이동 범주(910) 내에 위치한 이동 가능 영역(1100)에 이동 표식(1400)이 표시되는 것을 나타내는 도면이다.
보조 컴퓨팅 장치(300)에서 실행되는 프로그램 또는 어플리케이션에 의해 이동 표식(1400)은 지형(1000) 내 이동 가능 영역(1100) 또는 특수 영역(1310)에 표시될 수 있다.
이동 표식(1400)은 이동 불가 영역(1200) 및 리스폰 영역(1300)에는 표시되지 않을 수 있다.
이동 표식(1400)은 이동 가능 영역(1100) 또는 특수 영역(1310)내 중앙에 부유한 형태로 표시될 수 있다.
한편, 캐릭터(900)는 한 번에 이동 가능한 범위에 해당하는 이동 범주(910)를 가질 수 있다.
이동 범주(910)는 보조 컴퓨팅 장치(300)가 실행하는 프로그램 또는 어플리케이션에 의해 대표 가상 위치 정보(930)에 기초하여 설정될 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)을 기준으로 미리 정해진 거리 이내를 이동 범주(910)로 설정할 수 있다.
이동 범주(910)는 착용형 디스플레이 장치(400)에 표시되거나 표시되지 않을 수 있다.
이동 표식(1400)은 캐릭터(900)의 이동 범주(930) 내에 있는 이동 가능 영역(1100)에 표시될 수 있다.
한편, 보조 컴퓨팅 장치(300)는 이동 범주(910)를 따로 설정하지 않고 이동 가능 영역(1100)에 이동 표식(1400)을 표시할 수도 있다.
일 예로, 이동 가능 영역(1100)과 대표 가상 위치 정보(930)를 연결하는 가상의 연결선이 있을 때, 가상의 연결선으로부터 일정 범위 이내에 또 다른 이동 가능 영역이 없는 경우 상기 이동 가능 영역(1100)에 이동 표식(1400)을 표시할 수 있다.
또 다른 예로, 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)와 상관없이 무작위로 지형(1000) 내 이동 가능 영역(1100)에 이동 표식(1400)을 표시할 수도 있다.
도 15는 도 14에서 리스폰 영역(1300)에 위치했던 캐릭터(900)가 이동 가능 영역(1100)으로 이동한 경우 캐릭터(900)의 새로운 대표 가상 위치 정보(930)를 기준으로 이동 표식(1400)이 표시되는 것을 나타내는 도면이다.
도 14에서 캐릭터(900)가 이동 표식(1400)이 표시된 세 군데의 이동 가능 영역(1100) 중 가장 오른쪽에 있는 이동 가능 영역(1100)으로 이동한 경우, 도 15에서와 같이 이동 후의 대표 가상 위치 정보(930)에 기초한 이동 범주(910) 내에 위치한 이동 가능 영역(1100)에 이동 표식(1400)이 표시될 수 있다.
한편, 도 15에서 리스폰 영역(1300)은 이동 범주(910) 내에 위치할 수 있지만 이동 표식(1400)이 표시되지 않을 수 있다.
여기서는 캐릭터(900)가 리스폰 영역(1300)에서부터 이동 가능 영역(1100)으로 이동하는 과정을 설명하였으나, 캐릭터(900)는 현재 점유하고 있는 이동 가능 영역으로부터 다른 이동 가능 영역으로 이동할 수도 있다. 아래의 도면들을 참조하여 캐릭터(900)가 현재 점유하고 있는 이동 가능 영역으로부터 다른 이동 가능 영역으로 이동하는 경우에 대해 설명한다.
이하에서는 도 16 내지 도 20을 참조하여 서바이벌 가상 공간(30)에서 캐릭터(900)가 이동 표식(1400)이 표시된 이동 대상 영역(1105)으로 이동하는 과정에 대해 설명한다.
도 16은 서바이벌 가상 공간(30)에서 캐릭터(900)가 이동 대상 영역(1105)으로 이동하는 과정을 나타내는 순서도이다.
도 16을 참조하면, 캐릭터(900)의 이동은 이동 대상 영역(1105)에 이동 표식(1400)이 표시되는 표시 단계(S1000), 사용자(800)의 입력 장치(500) 이동에 의해 캐릭터(900)가 이동 표식(1400)에 컨트롤 오브젝트(2000)를 지향하는 선택 단계(S1100), 이동 표식(1400)에 지향 효과(1410)가 발생하는 로딩 단계(S1200) 및 사용자(800)에 의해 입력 장치(500)가 조작되는 조작 단계(S1300)를 통해 이루어진다.
표시 단계(S1000)에서 이동 표식(1400)은 대표 가상 위치 정보(930)에 따라 이동 범주(910) 내에 위치하는 이동 가능 영역(1100)에 표시될 수 있다.
사용자(800)는 이동 표식(1400)이 표시됨으로써 캐릭터(900)가 이동 가능 한 이동 대상 영역(1105)을 인지할 수 있다.
선택 단계(S1100)에서 캐릭터(900)는 이동 대상 영역(1105) 방향으로 컨트롤 오브젝트(2000)를 지향할 수 있다.
이 때, 컨트롤러 오브젝트(2000)의 지향 방향은 사용자(800)가 입력 장치(500)를 이용하여 조정할 수 있다.
로딩 단계(S1200)에서 일정 시간 컨트롤러 오브젝트(2000)가 지향한 이동 표식(1400)에는 지향 효과(1410)가 발생할 수 있다.
조작 단계(S1300)에서 사용자(800)의 입력 장치(500) 조작에 의해 캐릭터(900)가 이동하고자 하는 영역으로 이동할 수 있다.
도 17은 도 16의 표시 단계(S1000)를 나타내는 도면이다.
도 17을 참조하면, 캐릭터(900)가 위치하는 이동 가능 영역(1100)과 이동 표식(1400)이 표시된 이동 대상 영역(1105)이 존재할 수 있다.
이동 대상 영역(1105)은 도 14 및 도 15에서 이동 표식(1400)이 표시되는 방법에 따라 캐릭터(900)의 이동 범주(910)에 이동 표식(1400)이 표시된 이동 가능 영역(1100)일 수 있다.
캐릭터(900)의 이동 범주(910) 내에는 이동 표식(1400)이 표시된 이동 대상 영역(1105)이 존재할 수 있다.
사용자(800)는 착용형 디스플레이 장치(400)를 통해 이동 대상 영역(1105)을 확인할 수 있다
한편, 캐릭터(900)는 컨트롤 오브젝트(2000)를 소지할 수 있다.
컨트롤 오브젝트(2000)는 사용자(800)가 소지하는 입력 장치(500)에 대응하는 서바이벌 가상 공간(30) 내 오브젝트일 수 있다.
디텍팅 장치(100)는 입력 장치(500)를 추적하여 디텍팅 정보를 서버(200)에 전달하고 서버(200)는 입력 장치(500)의 위치 정보를 산출하여 보조 컴퓨팅 장치(300) 전달하며, 보조 컴퓨팅 장치(300)는 입력 장치(500)의 위치 정보에 기반하여 서바이벌 가상 공간(30) 내에서 입력 장치(500)의 가상 위치 정보인 컨트롤 오브젝트 가상 위치 정보(2030)를 산출하고 이에 기초하여 컨트롤 오브젝트(2000)를 구현할 수 있다.
컨트롤 오브젝트(2000)는 필요에 따라 다양한 형상을 가질 수 있다.
일 예로, 컨트롤 오브젝트(2000)는 캐릭터(900)의 손이나 캐릭터(900)가 소지하는 총, 칼 따위의 기본 무기일 수 있다.
또한, 컨트롤 오브젝트(2000)는 서바이벌 컨텐츠가 진행됨에 따라 모양이 변경될 수 있다.
일 예로, 캐릭터(900)가 서바이벌 가상 공간(30)에서 아이템(1500)을 획득하는 경우 컨트롤 오브젝트(2000)는 아이템(1500) 모양으로 변경될 수 있다.
도 18은 도 16의 선택단계(S1100) 및 로딩단계(S1200)를 나타내기 위한 도면이다.
도 18을 참조하면, 컨트롤 오브젝트(2000)가 지향하는 방향과 동일한 방향을 갖는 연장선(1600)의 범위 내에 이동 표식(1400)이 존재하는 경우 상기 이동 표식(1400)에 지향 효과(1410)가 발생할 수 있다.
연장선(1600)은 캐릭터(900)가 컨트롤 오브젝트(2000)를 어느 한 방향으로 지향하는 경우 컨트롤 오브젝트(2000)의 지향 방향과 같은 방향성을 갖는 가상의 직선 또는 반직선이다.
연장선(1600)은 컨트롤 오브젝트 가상 위치 정보(2030)에 따라 변경될 수 있다.
따라서, 사용자(800)가 입력 장치(500)를 이동시키면 연장선(1600)의 방향이나 위치가 변경될 수 있다.
일 예로, 컨트롤 오브젝트(2000)가 총인 경우, 연장선(1600)은 총구를 시작점으로 하고 총구의 방향으로 연장되는 반직선일 수 있다.
또 다른 예로, 연장선(1600)은 지형(1000)을 기준으로 컨트롤 오브젝트(2000)가 지향하는 방향에 의해 변경되는 포물선일 수 있다.
한편, 연장선(1600)은 착용형 디스플레이 장치(400)에 색을 갖는 점선 또는 실선으로 표시될 수 있다.
또는 연장선(1600)은 보이지 않는 가상의 선으로 착용형 디스플레이 장치(400)에 표시되지 않을 수 있다.
지향 효과(1410)는 이동 표식(1400)이 연장선(1600)으로부터 일정 범위 이내에 있는 경우 이동 표식(1400)에 표시되는 효과이다.
일 예로, 연장선(1600)을 축으로 하여 일정 길이의 반지름을 갖는 가상의 원기둥이 존재할 때, 이동 표식(1400)이 가상 원기둥 내부에 있는 경우 지향 효과(1410)가 표시될 수 있다.
한편, 지향 효과(1410)는 연장선(1600)으로부터 일정 범위 이내에 이동 대상 영역(1105)이 존재하더라도 이동 표식(1400)에 표시될 수 있다.
지향 효과(1410)는 이동 표식(1400)에 표시됨으로써 사용자(800)에게 이동 대상 영역(1105)이 선택된 사실을 알려줄 수 있다.
지향 효과(1410)가 표시됨으로써 이동 표식(1410)이 연장선(1600)으로부터 일정 범위 이내에 있는 경우와 없는 경우가 구분될 수 있다.
일 예로, 지향 효과(1410)는 이동 표식(1400) 주위에 일정 속도로 회전하는 원반을 출력하는 애니메이션일 수 있다.
사용자(800)가 입력 장치(500)를 움직이면 캐릭터(900)는 컨트롤 오븐젝트(2000)로 이동하고자 하는 영역을 지향할 수 있다.
디텍팅 장치(100)는 사용자(800)가 움직인 입력 장치(500)를 추적하여 디텍팅 정보를 서버(200)에 전달하고, 서버(200)는 입력 장치(500)의 위치 정보를 산출하여 보조 컴퓨팅 장치(300)에 전달할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(500)의 위치 정보에 기초하여 가상 위치 정보를 산출하고 상기 가상 위치 정보에 기반하여 서바이벌 가상 공간(30) 내 컨트롤러 오브젝트(2000) 및 연장선(1600)을 구현할 수 있다.
연장선(1600)은 컨트롤러 오브젝트(2000)를 구성하는 적어도 하나 이상의 가상좌표에 의해 산출될 수 있다.
연장선(1600)은 입력 장치(500)에 부착된 다수의 마커(M)에 기초하여 산출된 다수의 가상좌표에 의해 산출될 수 있다.
이 때, 착용형 디스플레이 장치(400)에는 캐릭터(900)가 이동 대상 영역(1105) 내에 표시된 이동 표식(1400)을 컨트롤 오브젝트(2000)로 지향하는 이미지가 표시될 수 있다.
연장선(1600)으로부터 일정 범위 이내에 이동 표식(1400)이 위치하면 착용형 디스플레이 장치(400)는 지향 효과(1410)를 일정 시간 동안 표시할 수 있다.
도 19는 도 16의 조작단계(S1300)를 나타내는 도면이다.
도 19를 참조하면, 이동 표식(1400)에 지향 효과(1410)가 표시된 상태에서 사용자(800)가 입력 장치(500)를 조작하는 경우 캐릭터(900)는 이동 대상 영역(1105)으로 이동할 수 있다.
일 예로, 지향 효과(1410)가 표시된 상태에서 사용자(800)가 입력 장치(500)를 조작하여 입력신호가 보조 컴퓨팅 장치(300)로 전달되는 경우 캐릭터(900)가 이동 대상 영역(1105)으로 이동할 수 있다.
입력신호는 사용자(800)가 입력 장치(500)에 구비된 버튼을 누르거나 입력 장치(500)를 일정 궤도로 움직임으로써 보조 컴퓨팅 장치(300)에 전달될 수 있다.
한편, 사용자(800)가 입력 장치(500)를 조작하는 타이밍은 지향 효과(1410)가 표시된 후 일정 시간 경과한 후일 수 있다.
사용자(800)는 착용형 디스플레이 장치(400)에 출력되는 시야 범위가 이동 가능 영역(1100)에 대응하는 시야 범위에서 이동 대상 영역(1105)에 대응하는 시야 범위로 변경됨으로써 캐릭터(900)가 이동했음을 인지할 수 있다.
캐릭터(900)가 이동 대상 영역(1105)으로 이동하는 경우 이동 대상 영역(1105)에는 이동 표식(1400)이 표시되지 않을 수 있다.
반대로 캐릭터(900)가 위치했던 이동 가능 영역(1100)에는 도 14 및 도 15에서 이동 표식(1400)이 표시되는 방법에 따라 이동 표식(1400)이 표시될 수 있다.
한편, 도 20은 연장선(1600)이 구현되는 다른 방법을 나타내는 도면이다.
도 20을 참조하면 연장선(1600)은 대표 가상 위치 정보(930)와 컨트롤 오브젝트 가상 위치 정보(2030)에 따라 구현될 수 있다.
사용자(800)가 착용한 착용형 디스플레이 장치(400)의 위치 정보에 기초한 대표 가상 위치 정보(930)가 존재하고, 사용자(800)가 소지하는 입력 장치(500)의 위치 정보에 기초한 컨트롤 오브젝트 가상 위치 정보(2030)가 존재할 때, 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)를 시작점하고 컨트롤 오브젝트 가상 위치 정보(2030)를 지나는 직선 또는 반직선을 연장선(1600)으로 설정할 수 있다. 이 때, 대표 가상 위치 정보(930)는 연장선(1600)의 지향 방향에 영향을 주고 컨트롤 오브젝트 가상 위치 정보(2030)는 연장선(1600)의 시작점에 영향을 줄 수 있다.
일 예로, 사용자(800)에 의해 착용형 디스플레이 장치(400)가 회전하는 경우 보조 컴퓨팅 장치(300)는 연장선(1600)의 지향 방향을 착용형 디스플레이 장치(400)가 지향하는 방향과 같도록 설정할 수 있다.
또한, 사용자(800)에 의해 입력 장치(500)가 움직임에 따라 보조 컴퓨팅 장치(300)는 연장선(1600)의 시작점을 다르게 설정할 수 있다.
한편, 연장선(1600)은 대표 가상 위치 정보(930)와 착용형 디스플레이 장치(400)의 회전 정보에 기초하여 설정될 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 대표 가상 위치 정보(930)를 시작점으로 하고 착용형 디스플레이 장치(400)가 지향하는 방향과 동일한 방향을 갖는 연장선(1600)을 구현할 수 있다.
이 때, 착용형 디스플레이 센서부(430)에서 획득한 착용형 디스플레이 장치(400)의 회전 정보가 보조 컴퓨팅 장치(300)에 전달되고, 보조 컴퓨팅 장치(300)는 회전 정보를 기초로 연장선(1600)의 지향 방향을 설정할 수 있다.
이하에서는 도 21 및 도 22를 참조하여 서바이벌 가상 공간(30) 내 캐릭터(900)가 복수인 경우 착용형 디스플레이 장치(400)에 이동 표식(1400)이 표시되는 방법에 대해 설명한다.
도 21은 서바이벌 가상 공간(30)에서 복수의 캐릭터(900)가 존재하는 경우 이동 표식(1400)이 표시되는 방식을 나타내는 도면이다.
도 21을 참조하면, 서바이벌 가상 공간(30)에 제1 캐릭터(901) 및 제2 캐릭터(902)가 존재한다.
이 때, 제1 캐릭터(901)의 제1 이동 범주(911) 내 위치한 이동 가능 영역(1100)에는 제1 이동 표식(1401)이 존재하며, 제2 캐릭터(902)의 제2 이동 범주(912) 내 위치한 이동 가능 영역(1100)에는 제2 이동 표식(1402)이 존재할 수 있다.
제1 이동 범주(911) 및 제2 이동 범주(912)는 도 14에서 이동 범주(910)가 설정된 방법과 마찬가지로 제1 대표 가상 위치 정보(931) 및 제2 대표 가상 위치 정보(932)에 의해 설정될 수 있다.
제1 이동 범주(911)와 제2 이동 범주(912)는 서로 다른 범위를 가질 수 있다.
한편, 복수의 캐릭터(900)가 서바이벌 가상 공간(30)에 있는 경우, 제1 캐릭터(901)의 제1 이동 범주(911) 내 이동 가능 영역(1100)이 위치하더라도 상기 이동 가능 영역(1100)에 제2 캐릭터(902)가 존재한다면 제1 이동 표식(1401)은 표시되지 않을 수 있다.
제1 캐릭터(901)의 제1 이동 범주(911) 내 존재하는 이동 가능 영역(1100)은 제2 캐릭터(902)가 위치하는 제2 캐릭터 점유 영역(1210)을 포함할 수 있다.
제2 캐릭터 점유 영역(1210)은 제1 캐릭터(901)의 관점에서는 이동 불가 영역(1200)과 동일하게 처리될 수 있다.
일 예로, 제2 캐릭터 점유 영역(1210)에 제1 이동 표식(1401)이 표시되지 않음으로써 제1 캐릭터(901)의 제1 컨트롤 오브젝트(2001)가제2 캐릭터 점유 영역(1210)을 지향한 상태에서 제1 사용자(802)가 제1 입력 장치(502)를 조작한다고 하더라도 제1 캐릭터(901)는 제2 캐릭터 점유 영역(1210)으로 이동하지 않을 수 있다.
제2 캐릭터(902)가 다른 이동 가능 영역(1100)으로 이동함에 따라 제2 캐릭터 점유 영역(1210)에 제2 캐릭터(902)가 존재하지 않고, 제2 캐릭터 점유 영역(1210)이 여전히 제1 이동 범주(911) 내에 위치하는 경우 다시 제1 이동 표식(1401)이 표시될 수 있다.
제1 이동 표식(1401) 및 제2 이동 표식(1402)은 서로 다른 모양을 갖거나 서로 다른 색으로 표시될 수 있다.
도 22는 복수의 사용자가 서바이벌 컨텐츠를 진행할 때, 제1 사용자(801)가 착용한 제1 착용형 디스플레이 장치(401)에 출력되는 시야 범위를 나타내는 도면이다.
도 22를 참조하면, 제1 착용형 디스플레이 장치(401)에는 지형(1000), 지형(1000) 내 이동 가능 영역(1100)을 이동하는 제2 캐릭터(902), 아이템(1500), 전광판(1010) 또는 제1 이동 표식(1401) 등이 표시될 수 있다.
제1 착용형 디스플레이 장치(401)에 서바이벌 가상 공간(30)에 대한 이미지를 출력하는 제1 보조 컴퓨팅 장치(301)는 제2 사용자(802)의 제2 입력 장치(502) 조작에 따른 입력신호를 제공받을 수 있다.
한편, 제2 입력 장치(502)에 의한 입력신호는 서버(200)를 통해 제1 보조 컴퓨팅 장치(502)에 제공될 수도 있다.
제1 보조 컴퓨팅 장치(301)는 제2 입력 장치(502)에 의한 입력신호에 기초하여 제2 캐릭터(902)의 이동 여부를 판단하고 제1 착용형 디스플레이 장치(401)에 제2 캐릭터(902)의 이동 여부를 반영한 이미지를 출력할 수 있다.
한편, 제1 착용형 디스플레이 장치(401)에는 제2 이동 표식(1402)이 표시되지 않을 수 있다.
마찬가지로, 제2 사용자(802)가 착용하는 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위에는 지형(1000), 지형(1000) 내 이동 가능 영역(1100)을 이동하는 제1 캐릭터(901), 아이템(1500), 전광판(1010) 및 제2 이동 표식(1402) 등이 표시되되, 제1 이동 표식(1401)은 표시되지 않을 수 있다.
이동 가능 영역(1100)은 제1 캐릭터(901)의 제1 이동 범주(911) 내에 위치하면서 동시에 제2 캐릭터(902)의 제2 이동 범주(912) 내에 위치할 수 있다.
이 때, 제1 이동 표식(1401) 및 제2 이동 표식(1402)은 상기 이동 가능 영역(1100)에 동시에 존재할 수 있다.
다만, 제1 착용형 디스플레이 장치(401)에는 제1 이동 표식(1401)만 표시되고, 제2 착용형 디스플레이 장치(402)에는 제2 이동 표식(1402)만 표시될 수 있다.
한편, 하나의 이동 가능 영역(1100)에 제1 이동 표식(1401) 및 제2 이동 표식(1402)이 동시에 존재할 때 제1 사용자(801)가 제1 입력 장치(501)를 조작한 시점이 제2 사용자(802)가 제2 입력 장치(502)를 조작한 시점보다 이르다면 상기 이동 가능 영역(1100)에는 제1 사용자(801)에 대응하는 제1 캐릭터(901)가 이동하게 된다. 또는, 제1 입력 장치(501)가 조작된 시점과 제2 입력 장치(502)가 조작된 시점이 동일한 경우 제1 캐릭터(901) 및 제2 캐릭터(902) 모두 이동되지 않거나 미리 설정된 우선 순위에 따라 제1 캐릭터(901) 및 제2 캐릭터(902) 중 어느 하나가 이동될 수 있다.
이하에서는 도 23 및 도 24를 참조하여 서바이벌 가상 공간(30)에서 캐릭터(900)가 아이템(1500)을 획득하는 방법에 대해서 설명한다.
도 23은 이동 가능 영역(1100)에 아이템(1500)이 존재하는 것을 나타내는 도면이다.
아이템(1500)은 캐릭터(900)가 서바이벌 컨텐츠를 진행하면서 이용할 수 있는 도구 또는 장비일 수 있다.
일 실시예로, 아이템(1500)은 칼, 활, 수류탄, 핸드 건, 샷 건, 미니 건, 레이저 건, 로켓 런처, 램페이지 등의 장비류, 구급박스, 회복 캡슐 등을 포함할 수 있다.
캐릭터(900)는 아이템(1500)을 이용하여 보다 효과적으로 외부로부터의 공격을 방어할 수 있고, 캐릭터(900)의 체력을 회복하거나 다른 캐릭터들을 공격할 수 있다.
아이템(1500)은 성능 또는 기능에 따라 여러 종류의 아이템(1500)으로 나누어질 수 있다.
일 예로, 아이템(1500)은 종류에 따라 다른 공격력을 가질 수 있고, 공격력에 따라 아이템(1500)을 사용시 표시되는 효과가 다를 수 있다.
서바이벌 가상 공간(30)에서 아이템(1500)은 지형(1000) 내 무작위로 배치될 수 있다.
또는, 아이템(1500)은 종류에 따라 지형(1000) 내 미리 설정된 위치에 배치될 수 있다.
아이템(1500)은 이동 불가 영역(1200) 및 리스폰 영역(1300)에는 표시되지 않을 수 있다.
아이템(1500)은 이동 가능 영역(1100) 또는 특수 영역(1310) 내 표시될 수 있다.
일 예로, 아이템(1500)은 이동 가능 영역(1100) 내 중앙에 부유한 형태로 표시될 수 있다.
아이템(1500)은 종류에 따라 리스폰 영역(1300)으로부터 떨어져 있는 거리가 다를 수 있다.
일 예로, 공격력이 강할수록 리스폰 영역(1300)에서 멀리 떨어져 있는 이동 가능 영역(1100) 또는 특수 영역(1310)에 배치될 수 있다.
다른 예로, 리스폰 영역(1300)이 복수이고 지형(1000)에 대칭을 이루며 배치되어 있을 때 공격력이 가장 강한 아이템(1500)은 지형(1000) 중앙에 위치한 이동 가능 영역(1100)에 배치될 수 있다.
한편, 캐릭터(900)가 아이템(1500)을 획득한 경우, 아이템(1500)은 이동 가능 영역(1100)에서 사라지고 일정 시간 뒤에 다시 생성될 수 있다.
보조 컴퓨팅 장치(300)는 아이템(1500)이 다시 생성되는 영역을 설정할 수 있다.
다시 생성되는 아이템(1500)은 생성되기 전 위치하였던 이동 가능 영역(1100) 또는 특수 영역(1310)에 생성되거나 다른 영역에 생성될 수 있다.
아이템(1500)이 다시 생성되는 영역에 캐릭터(900)가 존재하는 경우 보조 컴퓨팅 장치(300)는 아이템(1500)을 생성시키지 않거나 캐릭터(900)가 아이템(1500)을 바로 획득하게 하거나 그대로 아이템(1500)을 생성시킬 수 있다.
도 24는 캐릭터(900)가 컨트롤 오브젝트(2000)를 이용하여 아이템(1500)을 획득하는 것을 나타내는 도면이다.
도 24를 참조하면, 캐릭터(900)는 컨트롤 오브젝트(2000)를 아이템(1500) 쪽으로 지향하여 아이템(1500)을 획득할 수 있다.
컨트롤 오브젝트(2000)는 서바이벌 가상 공간(30)에서 사용자(800)가 소지하는 입력 장치(500)에 대응되는 오브젝트로 다양한 모양을 가질 수 있다.
일 예로, 캐릭터(900)가 아이템(1500)을 처음 획득하는 경우라면 컨트롤 오브젝트(2000)는 캐릭터(900)의 손 모양이거나 서바이벌 컨텐츠 시작 시 지급되는 기본 장비 모양일 수 있다.
다른 예로, 캐릭터(900)가 이미 장비 또는 도구를 갖고 있는 상태에서 아이템(1500)을 획득하는 경우라면 컨트롤 오브젝트(2000)는 캐릭터(900)가 소지하고 있던 장비 또는 도구 모양일 수 있다.
연장선(1600)은 도 18 및 도 20에서 서술된 것과 같이 컨트롤 오브젝트(2000)에 의해 변경되는 선일 수 있다.
사용자(800)는 착용형 디스플레이 장치(400)를 통해 아이템(1500)이 존재하는 영역을 확인하고 도 16에 따른 단계를 통해 아이템(1500)이 존재하는 영역으로 이동할 수 있다.
사용자(800)는 입력 장치(500)를 이용하여 캐릭터(900)가 컨트롤 오브젝트(2000)를 아이템(1500) 방향으로 지향하게 할 수 있다.
컨트롤 오브젝트(2000)의 지향 방향에 따라 변경되는 연장선(1600)으로부터 일정 범위 내에 아이템(1500)이 존재하고 일정 시간 동안 지향한 상태가 지속되면 캐릭터(900)는 아이템(1500)을 획득할 수 있다.
또는, 연장선(1600)으로부터 일정 범위 내에 아이템(1500)이 존재하는 상태에서 사용자(800)가 입력 장치(500)를 조작하여 입력신호가 보조 컴퓨팅 장치(300)에 전달되는 경우 캐릭터(900)는 아이템(1500)을 획득할 수 있다.
캐릭터(900)가 아이템(1500)을 획득하는 경우 아이템 획득 효과가 발생할 수 있다.
일 예로, 컨트롤 오브젝트(2000)의 모양이 아이템(1500) 모양으로 변경될 수 있다.
또 다른 예로, 캐릭터(900)의 체력이 회복되는 효과가 발생할 수 있다.
도 25는 서바이벌 컨텐츠 진행에 있어서 캐릭터(900)를 공격하는 방법을 나타내는 도면이다.
도 25를 참조하면, 캐릭터(900)는 다른 캐릭터를 공격할 수 있다.
캐릭터(900)는 제1 사용자(801)에 대응하는 제1 캐릭터(901) 및 제2 사용자(802)에 대응하는 제2 캐릭터(902)를 포함할 수 있다.
한편, 제2 캐릭터(902)는 제2 사용자(802)에 대응되지 않고 보조 컴퓨팅 장치(300)에 의해 실행되는 프로그램 또는 어플리케이션에서 미리 설정된 서바이벌 컨텐츠 내 가상 캐릭터 또는 오브젝트일 수 있다.
이동 가능 영역(1100)은 제1 이동 가능 영역(1101) 및 제2 이동 가능 영역(1102)을 포함할 수 있다.
제1 캐릭터(901)는 제1 이동 가능 영역(1101)에 위치하고 제2 캐릭터(902)는 제2 이동 가능 영역(1102)에 위치할 수 있다.
제1 캐릭터(901)는 제1 대표 가상 위치 정보(931)를 가질 수 있고, 제2 캐릭터(902)는 제2 대표 가상 위치 정보(932)를 가질 수 있다.
제1 이동 가능 영역(1101) 및 제2 이동 가능 영역(1102)은 지형(1000) 내 무작위로 위치할 수 있다.
컨트롤 오브젝트(2000)는 제1 입력 장치(501)에 대응되는 제1 컨트롤 오브젝트(2001) 및 제2 입력 장치(502)에 대응되는 제2 컨트롤 오브젝트(2002)를 포함할 수 있다.
제1 캐릭터(901) 및 제2 캐릭터(902)는 각각 제1 컨트롤 오브젝트(2001) 및 제2 컨트롤 오브젝트(2002)를 소지할 수 있다.
연장선(1600)은 제1 컨트롤 오브젝트(2001)에 의해 변경되는 제1 연장선(1601)을 포함할 수 있다.
제1 연장선(1601)은 도 18 또는 도 20에서 서술한 것과 마찬가지로 제1 컨트롤 오브젝트(2001)의 가상 위치 정보에 기초하여 생성될 수 있다.
제1 사용자(801)는 제1 입력 장치(501)를 조작하면 제1 캐릭터(901)가 제2 캐릭터(902) 방향으로 제1 컨트롤 오브젝트(2001)를 지향할 수 있다.
제1 컨트롤 오브젝트(2001)의 이동에 의해 이동된 제1 연장선(1601)으로부터 일정 범위 내에 제2 캐릭터(902)가 위치할 수 있다.
또는, 제1 컨트롤 오브젝트(2001)의 이동에 의해 이동된 제1 연장선(1601)으로부터 일정 범위 내에 제2 대표 가상 위치 정보(932)가 위치할 수 있다.
제1 연장선(1601)으로부터 일정 범위 내에 제2 캐릭터(902)의 적어도 일부 영역이 존재하는 상태에서 제1 사용자(801)가 제1 입력 장치(501)를 조작하여 입력신호가 제1 보조 컴퓨팅 장치(301), 서버(200) 또는 제2 보조 컴퓨팅 장치(302)에 전달되는 경우 제2 캐릭터(902)는 피격될 수 있다.
제1 연장선(1601)으로부터 일정 범위 내에 제2 대표 가상 위치 정보(932)를 기준으로 미리 설정된 범위가 위치하는 상태에서 제1 사용자(801)가 제1 입력 장치(501)를 조작하여 입력신호가 제1 보조 컴퓨팅 장치(301), 서버(200) 또는 제2 보조 컴퓨팅 장치(302)에 전달되는 경우 제2 보조 컴퓨팅 장치(302)는 피격정보를 전달받을 수 있다.
제1 사용자(801)가 제1 입력 장치(501)에 구비된 버튼을 누르거나 제1 입력 장치(501)를 일정 궤적으로 움직이는 경우 입력신호가 제1 보조 컴퓨팅 장치(301), 서버(200) 또는 제2 보조 컴퓨팅 장치(302)에 전달될 수 있다.
제2 캐릭터(902)가 피격되는 경우 제1 착용형 디스플레이 장치(401) 및 제2 착용형 디스플레이 장치(402) 중 적어도 하나는 제2 캐릭터(902)에 피격 효과를 표시할 수 있다.
피격 효과는 캐릭터(900)의 피격 당한 부분이 손상되거나 상처가 발생하는 효과 또는 피를 흘리는 효과 등을 포함할 수 있다.
피격 효과는 캐릭터(900)의 피격 당한 부분에 따라 다르게 표시될 수 있다.
보조 컴퓨팅 장치(300)는 캐릭터(900)가 피격 당한 정도에 따라 캐릭터(900)의 상태를 변경시킬 수 있다.
캐릭터(900)는 피격 정도에 따라 부상 상태, 사망 상태 등을 가질 수 있다.
일 예로, 제2 캐릭터(902)가 피격되는 경우 제2 캐릭터(902)의 체력이 감소할 수 있고, 체력이 일정 수준 이하가 되면 사망 이벤트가 발생할 수 있다.
피격 정도는 피격 횟수 또는 캐릭터(900)를 공격한 가상 오브젝트의 공격력에 따라 설정될 수 있다.
이하에서는 도 26 내지 도 29를 참조하여 캐릭터(900)가 피격 받은 경우 착용형 디스플레이 장치(400)에 피격 디텍터(1700)가 표시되는 과정에 대해 설명한다.
도 26은 착용형 디스플레이 장치(400)에 피격 디텍터(1700)가 표시된 이미지가 출력되는 것을 나타내는 도면이다.
도 26을 참조하면, 피격 디텍터(1700)는 캐릭터(900)를 공격한 표적의 위치에 따라 착용형 디스플레이 장치(400)에 출력되는 시야 범위 내에서 다양한 방향으로 표시될 수 있다.
서바이벌 가상 공간(30)에서 캐릭터(900)를 공격하는 표적은 다른 사용자에 대응하는 캐릭터, 보조 컴퓨팅 장치(300)에 의해 실행되는 프로그램 또는 어플리케이션에서 미리 설정된 가상 캐릭터 또는 오브젝트를 포함할 수 있다.
피격 디텍터(1700)는 캐릭터(900)가 피격 당한 경우 사용자(800)가 어느 방향에서 공격을 받았는지 인지시켜주기 위해 착용형 디스플레이 장치(400)가 출력하는 시야 범위 내에 표시될 수 있다.
일 예로, 피격 디텍터(1700)는 착용형 디스플레이 장치(400)에 출력되는 시야 범위 내 중앙 또는 가장자리에 표시될 수 있다.
보조 컴퓨팅 장치(300)는 캐릭터(900)의 가상 위치 정보를 이용하여 착용형 디스플레이 장치(400)에 피격 디텍터(1700)를 표시하거나 표시하지 않을 수 있다.
도 27은 캐릭터(900)가 착용형 디스플레이 장치(400)에 출력되는 시야 범위 내에 존재하는 캐릭터에 의해 공격받는 경우를 나타내는 도면이고, 도 28은 캐릭터(900)가 착용형 디스플레이 장치(400)에 출력되는 시야 범위 밖에 위치하는 캐릭터에 의해 공격받는 경우를 나타내는 도면이다.
착용형 디스플레이 장치(400)에 출력되는 시야 범위는 캐릭터(900)의 시야 범위를 포함할 수 있다.
캐릭터(900)의 시야 범위는 캐릭터(900)의 대표 가상 위치 정보(930)에 대응하는 가상 카메라의 시야 범위를 포함할 수 있다.
한편, 공격을 하는 캐릭터는 사용자(800)에 대응되지 않고 보조 컴퓨팅 장치(300)에 의해 실행되는 프로그램 또는 어플리케이션에서 미리 설정된 서바이벌 컨텐츠 내 가상 캐릭터 또는 오브젝트를 포함할 수 있다.
도 27(a)는 제2 캐릭터(902)의 시야 범위 내에 있는 제1 캐릭터(901)가 제2 캐릭터(902)를 공격하는 것을 나타내는 도면이다.
도 27(b)는 제2 착용형 디스플레이 장치(402)에 피격 디텍터(1700)가 표시되지 않는 것을 나타내는 도면이다.
도 27을 참조하면 제2 캐릭터(902)가 제2 캐릭터(902)의 시야 범위 내에 있는 제1 캐릭터(901)로부터 피격 당하는 경우 제2 착용형 디스플레이 장치(402)에는 피격 디텍터(1700)가 표시되지 않을 수 있다.
제1 캐릭터(901)는 도 25에서와 같이 제2 캐릭터(902)를 공격할 수 있다.
제1 사용자(801)의 제1 입력 장치(501) 조작에 의해 제1 캐릭터(901)는 제2 캐릭터(902)를 공격할 수 있다.
제2 캐릭터(902)가 피격 당한 피격 시점에 제1 사용자(801)의 제1 대표 가상 위치 정보(931) 또는 제1 캐릭터(901)가 제2 캐릭터(902)의 시야 범위 내에 있는 경우 제2 착용형 디스플레이 장치(402)에 피격 디텍터(1700)가 표시되지 않을 수 있다.
제2 보조 컴퓨팅 장치(302)는 제2 캐릭터(902)가 피격 당한 피격 정보를 전달 받는 경우 제1 캐릭터(901)의 제1 대표 가상 위치 정보(931)가 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 있는지 여부를 판단할 수 있다.
이 때, 제2 착용형 디스플레이 장치(402)의 회전정보가 이용될 수 있다.
한편, 회전 정보는 사용자(800)에 의해 착용형 디스플레이 장치(400)가 회전하는 경우 착용형 디스플레이 센서부(430)에 의해 획득될 수 있다.
일 예로, 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위는 제2 사용자(802)에 의해 제2 착용형 디스플레이 장치(402)가 회전함에 따라 변경될 수 있다.
따라서 제2 보조 컴퓨팅 장치(302)는 제2 착용형 디스플레이 장치(402)의 회전 정보에 기초하여 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 제1 대표 가상 위치 정보(931)가 존재하는지 여부를 판단하여 상기 시야 범위 내 제1 캐릭터(901)의 전부 또는 일부가 존재하는지 여부를 판단할 수 있다.
제2 보조 컴퓨팅 장치(302)는 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 제1 캐릭터(901)의 전부 또는 일부가 존재한다면 피격 디텍터(1700)를 표시하지 않을 수 있다.
도 28(a)는 제2 캐릭터(902)의 시야 범위 밖에 있는 제1 캐릭터(901)가 제2 캐릭터(902)를 공격하는 것을 나타내는 도면이다.
도 28(b)는 제2 착용형 디스플레이 장치(402)에 피격 디텍터(1700)가 표시되는 것을 나타내는 도면이다.
도 28을 참조하면 제2 캐릭터(902)가 제2 캐릭터(902)의 시야 범위 밖에 있는 제1 캐릭터(901)로부터 피격 당하는 경우 제2 착용형 디스플레이 장치(402)에는 피격 디텍터(1700)가 표시될 수 있다.
피격 디텍터(1700)는 제1 캐릭터(901)를 제2 캐릭터(902)의 시야 범위 내에 위치시키기 위해 제2 착용형 디스플레이 장치(402)가 회전해야 하는 방향을 지시할 수 있다.
제2 보조 컴퓨팅 장치(302)는 제2 캐릭터(902)가 피격 당한 피격 정보를 전달 받는 경우 제1 캐릭터(901)의 제1 대표 가상 위치 정보(931)가 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 있는지 여부를 판단할 수 있다.
일 예로, 제2 보조 컴퓨팅 장치(302)는 제2 착용형 디스플레이 장치(402)의 회전 정보에 기초하여 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 제1 대표 가상 위치 정보(931) 존재하는지 여부를 판단하여 상기 시야 범위 내 제1 캐릭터(901)의 전부 또는 일부가 존재하는지 여부를 판단할 수 있다.
제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위 내에 제1 캐릭터(901)가 존재하지 않으면 피격 디텍터(1700)를 표시할 수 있다.
한편, 제2 착용형 디스플레이 장치(402)에 출력되는 시야 범위에 제1 캐릭터(901)의 일부가 존재하는 경우 피격 디텍터(1700)는 표시되지 않을 수 있다.
도 29는 일 실시예에 따른 피격 디텍터(1700)가 표시되는 모양을 나타내는 도면이다
도 29를 참조하면, 피격 디텍터(1700) 모양은 시작점(1710)과 끝점(1720)을 가지는 화살표 모양을 포함할 수 있다.
또는, 피격 디텍터(1700) 모양은 시작점(1710)과 끝점(1720)을 가지는 3D 입체 화살표 모양을 포함할 수 있다.
피격 디텍터(1700)는 지시하고자 하는 방향, 거리, 캐릭터(900)를 공격하는 표적 수 또는 착용형 디스플레이 장치(400)가 회전해야 하는 회전각도에 따라 다양한 모양을 가질 수 있다.
일 예로, 피격 디텍터(1700)의 길이는 회전각도에 비례하여 증감될 수 있다.
일 예로, 표적 수에 비례하여 피격 디텍터(1700) 두께가 증가할 수 있다.
한편, 표적 수에 따라 복수의 피격 디텍터(1700)가 표시될 수도 있다.
이 밖에도 피격 디텍터(1700)는 시야 범위(451) 가장자리를 붉게 표시하는 등 다양한 형태로 표시될 수 있다.
또한, 피격 디텍터(1700)는 착용형 디스플레이 음향 출력부(460)에 의해 음성으로 출력될 수도 있다.
피격 디텍터(1700)는 캐릭터(900)의 대표 가상 위치 정보(930)에 기초하여 출력되되, 피격 이벤트가 발생한 시점과 피격 디텍터(1700)가 출력되는 시점이 고려될 수 있다.
제1 시점에서 제2 캐릭터(902)에게 피격 이벤트가 발생할 수 있고, 제1 시점에서 제1 캐릭터(901)는 제1 피격 가상 위치 정보를 가지고 제2 캐릭터(902)는 제2 피격 가상 위치 정보를 가질 수 있다.
제2 시점에서 제2 착용형 디스플레이 장치(402)에 피격 디텍터(1700)가 출력될 수 있고, 제2 시점에서 제1 캐릭터(901)는 제1 출력 가상 위치 정보를 가지고 제2 캐릭터(902)는 제2 출력 가상 위치 정보를 가질 수 있다.
피격 디텍터(1700)는 제1 피격 가상 위치 정보 및 제1 출력 가상 위치 정보 중 어느 하나와 제2 피격 가상 위치 정보 및 제2 출력 가상 위치 정보 중 어느 하나에 기초하여 표시될 수 있다.
일 예로, 피격 디텍터(1700)는 제1 피격 가상 위치 정보와 제2 피격 가상 위치 정보에 기초하여 표시될 수 있다.
또는, 피격 디텍터(1700)는 제1 출력 가상 위치 정보와 제2 출력 가상 위치 정보에 기초하여 표시될 수 있다.
또는, 피격 디텍터(1700)는 제1 피격 가상 위치 정보와 제2 출력 가상 위치 정보에 기초하여 표시될 수 있다.
피격 디텍터(1700)는 제2 캐릭터(902)가 피격 당한 피격 시점으로부터 일정 시간 동안 출력될 수 있다.
일 예로, 피격 디텍터(1700)는 피격 시점으로부터 일정 시간 동안 주기적으로 출력되되, 그 주기는 제2 캐릭터(902)가 표적으로부터 피격을 당한 횟수에 반비례할 수 있다.
피격 디텍터(1700)는 제2 캐릭터(902)가 피격 당하는 횟수에 따라 변경되어 표시될 수 있다.
제2 캐릭터(902)가 제2 캐릭터(902)의 시야 범위 밖의 둘 이상의 표적으로부터 피격을 당하는 경우 피격 디텍터(1700)는 하나의 표적에 대해서만 표시될 수 있다.
이 때, 제2 보조 컴퓨팅 장치(301)는 제2 캐릭터(902)의 시야 범위 밖에서 제2 캐릭터(902)를 공격한 표적을 제2 캐릭터(902)의 시야 범위 내에 위치시키기 위해 제2 착용형 디스플레이 장치(402)가 회전해야 하는 회전 각도를 고려할 수 있다.
일 예로, 제2 캐릭터(902)가 제2 캐릭터(902)의 시야 범위 밖에서 제1 캐릭터(901) 및 가상 캐릭터로부터 피격 당하는 경우, 제2 착용형 디스플레이 장치(402)가 회전해야 하는 회전 각도는 제1 회전 각도 및 제2 회전 각도를 포함할 수 있다.
제1 회전 각도는 제1 캐릭터(901)를 제2 캐릭터(902)의 시야 범위 내에 위치시키기 위해 제2 착용형 디스플레이 장치(402)를 회전해야 하는 각도이다.
제2 회전 각도는 가상 캐릭터를 제2 캐릭터(902)의 시야 범위 내에 위치시키기 위해 제2 착용형 디스플레이 장치(402)를 회전해야 하는 각도이다.
제2 보조 컴퓨팅 장치(302)는 제1 회전각도 및 제2 회전각도를 비교하여 제2 착용형 디스플레이 장치(402)에 피격 디텍터(1700)를 표시할 수 있다.
일 예로, 제1 회전각도가 제2 회전각도보다 큰 경우 제2 보조 컴퓨팅 장치(302)는 제2 착용형 디스플레이 장치(402)에 가상 캐릭터를 제2 캐릭터(902)의 시야 범위 내에 위치시키기 위해 피격 디텍터(1700)를 표시할 수 있다.
한편, 제2 캐릭터(902)의 시야 범위 밖에 위치한 둘 이상의 표적으로부터 피격을 당하는 경우 각각의 표적에 대응하도록 복수의 피격 디텍터(1700)가 표시될 수도 있다.
피격 디텍터(1700)가 표시되는 방법으로 피격 디텍터(1700)의 시작점(1710)은 제2 캐릭터(902)에 연결되고 끝점(1720)은 제1 캐릭터(901)에 연결될 수 있다.
또는, 피격 디텍터(1700)는 시작점(1710)과 끝점(1720)을 연결하는 연장선으로부터 일정 범위 내에 제1 캐릭터(901)또는 제1 대표 가상 위치 정보(931)가 존재하도록 표시될 수 있다.
제2 사용자(802)가 제2 착용형 디스플레이 장치(402)를 제1 캐릭터(901) 방향으로 회전함에 따라 피격 디텍터(1700)의 길이가 감소할 수 있다.
한편, 제1 캐릭터(901)가 제2 캐릭터(902)의 시야 범위 밖에서 공격한 뒤 일정 시간 후 제2 캐릭터(902)의 시야 범위 내에 위치하는 경우 피격 디텍터(1700)는 제1 캐릭터(901)가 제2 캐릭터(902)의 피격 시점부터 시야 범위 밖에 있었던 시간 동안만 표시될 수 있다.
또는, 제1 캐릭터(901)가 제2 캐릭터(902)의 시야 범위 밖에서 공격한 뒤 일정 시간 후 제2 캐릭터(902)의 시야 범위 내에 위치하는 경우 피격 디텍터(1700)는 제1 캐릭터(901)가 제2 캐릭터(902)의 시야 범위 내에 들어온 후 일정 시간 동안 더 표시될 수 있다.
이하에서는 도 30 및 도 31를 참조하여 서바이벌 가상 공간(30) 에서 캐릭터(900)가 안전 영역(1110) 밖에 위치하는 경우 보조 컴퓨팅 장치(300)가 착용형 디스플레이 장치(400)를 제어하여 캐릭터(900)를 안전 영역(1110)으로 유도하는 방법에 대해 설명한다.
도 30은 캐릭터(900)가 이동 가능 영역(1100) 중 안전 영역(1110) 밖에 위치하는 것을 나타내는 도면이다.
보조 컴퓨팅 장치(300)는 사용자(800)의 가상 위치 정보(930)를 이용하여 캐릭터(900)가 이동 가능 영역(1100) 내 안전 영역(1110)에 위치하고 있는지 여부를 판단할 수 있다.
사용자(800)가 현실에서 추적 영역(600) 내 이동 권장 영역 밖에 위치하는 경우 서바이벌 가상 공간(30)에서 캐릭터(900)는 이동 가능 영역(1100) 내 안전 영역(1110) 밖에 위치할 수 있다.
캐릭터(900)가 이동 가능 영역(1100) 중 안전 영역(1110) 밖에 위치하는 경우 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 제어하여 사용자(800)에게 안전 영역(1110) 밖에 있음을 알릴 수 있다.
도 31은 캐릭터(900)가 이동 가능 영역(1100) 중 안전 영역(1110) 밖에 위치하는 경우 보조 컴퓨팅 장치(300)에 의해 착용형 디스플레이 장치(400)가 표시하는 영상을 나타내는 도면이다.
도 31을 참조하면, 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)에 유도 이미지(1900)를 출력할 수 있다.
유도 이미지(1900)는 사용자(800)가 추적 영역(600) 내 이동 권장 영역 밖에 있는 경우 사용자(800)를 이동 권장 영역으로 이동하도록 유도할 수 있다.
일 예로, 유도 이미지(1900)는 착용형 디스플레이 장치(400)에 출력되어야 하는 이미지를 일정 해상도 이하로 낮춘 이미지를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)에 서바이벌 컨텐츠 진행에 따른 이미지를 출력하되 해상도를 낮추어 출력할 수 있다.
또 다른 예로, 유도 이미지(1900)는 사용자(800)에게 캐릭터(900)가 안전 영역(1110)을 벗어났음을 알리는 경고 메시지를 포함할 수 있다.
유도 이미지(1900)는 캐릭터(900)의 시야 범위 전체 또는 일부분에 표시될 수 있다.
사용자(800)는 추적 영역(600) 내 이동 권장 영역에서 서바이벌 컨텐츠를 체험할 수 있다.
서바이벌 컨텐츠가 진행됨에 따라 사용자(800)는 이동 권장 영역 밖으로 이동할 수 있다.
사용자(800)가 이동 권장 영역 밖으로 이동하는 경우, 서바이벌 가상 공간(30) 내 캐릭터(900)는 안전 영역(1110) 밖으로 이동할 수 있다.
보조 컴퓨팅 장치(300)는 사용자(800)의 위치 정보에 기초한 가상 위치 정보(930)가 안전 영역(1110) 밖에 존재하는 경우 착용형 디스플레이 장치(400)에 유도 이미지(1900)를 출력할 수 있다.
사용자(800)는 착용형 디스플레이 장치(400)에 유도 이미지(1900)가 출력되는 것을 피하기 위해 추적 영역(600) 내 이동 권장 영역으로 이동할 수 있다.
일 예로, 사용자(800)의 가상 위치 정보가 안전 영역(1110) 밖에 존재하면서 착용형 디스플레이 장치(400)가 안전 영역(1110) 방향으로 지향되는 경우 유도 이미지(1900)를 출력하지 않을 수 있다. 이로써 사용자(800)가 쉽게 안전영역(1110)으로 복귀하는 것을 유도할 수 있다.
또 다른 예로, 유도 이미지(1900)는 사용자(800)의 가상 위치 정보가 안전 영역(1110) 밖에 존재하면서 캐릭터(900)의 시야 범위에 안전 영역(1110)이 위치하지 않는 경우에 출력될 수 있다.
한편, 캐릭터(900)의 일부는 안전 영역(1110) 내에 위치하고 캐릭터(900)의 다른 일부는 안전 영역(1110) 밖에 위치하는 경우, 캐릭터(900)의 시야 범위 중 안전 영역(1110) 밖에 대응되는 부분에 유도 이미지(1900)가 표시될 수 있다.
한편, 캐릭터(900)가 안전 영역(1110) 밖에 위치하는 상태에서 사용자(800)가 입력 장치(500)를 조작하는 경우 보조 컴퓨팅 장치(300)는 아무런 효과도 발생시키지 않을 수 있다.
한편, 보조 컴퓨팅 장치(300)는 착용형 디스플레이 음향 출력부(460)를 통해 유도 메시지를 출력하여 사용자(800)를 이동 권장 영역으로 유도할 수도 있다.
이하에서는 도 32 내지 도 34를 참조하여 서바이벌 가상 공간(30) 내 이동 가능 영역(1100)에 배리어(1800)가 표시되고 배리어(1800)가 캐릭터(900)를 외부의 공격으로부터 보호하는 방법에 대해 설명한다.
도 32는 이동 가능 영역(1100) 내 배리어 영역(1120)에 배리어(1800)가 형성되는 것을 나타내는 도면이다.
도 32를 참조하면, 배리어(1800)는 제1 배리어(1810), 제2 배리어(1830), 제3 배리어(1850) 및 제4 배리어(1870)를 포함할 수 있다.
배리어(1800)는 중립 배리어, 적 배리어 및 아군 배리어를 포함할 수 있다.
중립 배리어는 어떤 캐릭터(900)도 위치하지 않은 이동 가능 영역(1100)에 표시되는 배리어(1800)일 수 있다.
적 배리어는 캐릭터(900)를 공격하는 캐릭터가 위치한 이동 가능 영역(1100)에 표시되는 배리어(1800)일 수 있다.
아군 배리어는 캐릭터(900) 또는 캐릭터(900)와 팀을 이루는 캐릭터가 위치한 이동 가능 영역(1100)에 표시되는 배리어(1800)일 수 있다.
중립 배리어, 적 배리어, 아군 배리어는 색으로 구별될 수 있다.
배리어(1800) 모양은 다각형 모양 및 곡선으로 이루어진 도형 모양을 포함할 수 있다.
배리어(1800) 형상은 각진 입체 도형 또는 굴곡을 갖는 입체 도형 형상을 포함할 수 있다.
배리어(1800)는 다양한 높이와 크기 및 두께를 가질 수 있다.
배리어(1800)는 배리어 영역(1120) 내에 배치될 수 있다.
또는, 배리어(1800)는 안전 영역(1110)이 아닌 영역에 배치될 수 있다.
또는, 배리어(1800)는 이동 가능 영역(1100)의 상면 중 배리어 영역(1120)을 둘러싸는 영역에 배치될 수 있다.
또는 배리어(1800)는 안전 영역(1110)에 위치할 수도 있다. 배리어(1800)는 안전 영역(1110)의 외곽에 위치할 수 있다. 배리어(1800)는 안전 영역(1110)과 배리어 영역(1120)의 경계에 위치할 수 있다.
배리어(1800)는 배리어 영역(1120)의 각 변에 일정 수로 형성될 수 있다.
일 예로, 배리어(1120)는 배리어 영역(1120)의 각 변에 두 개씩 배치될 수 있다.
배리어(1800)는 컨트롤 오브젝트(2000)로부터 발생되는 연장선(1600)이 통과할 수 있도록 공백 영역을 포함할 수 있다.
공백 영역은 배리어(1800)의 일부분에 형성될 수 있다.
복수의 배리어(1800)가 붙어 있는 경우 각 배리어(1800)의 공백 영역이 합쳐져 틈(1890)을 형성할 수 있다.
일 예로, 가장자리에 공백 영역을 포함하며 서로 대칭인 두 배리어(1800)가 나란히 배치되는 경우 두 배리어(1800)의 공백 영역이 합쳐져 틈(1890)이 형성될 수 있다.
제1 배리어(1810) 내지 제4 배리어(1870)는 각각 제1 공백 영역(1820) 내지 제4 공백 영역 (1880)을 포함할 수 있다.
제1 공백 영역(1820) 내지 제4 공백 영역(1880)은 각각 제1 배리어(1810) 내지 제4 배리어(1870)의 일부분에 형성될 수 있다.
제1 배리어(1810) 및 제2 배리어(1830), 제3 배리어(1850) 및 제4 배리어(1870)는 서로 대칭일 수 있다.
제1 배리어(1810) 및 제2 배리어(1830)는 제3 배리어(1850) 및 제4 배리어(1870) 보다 더 높게 형성될 수 있다.
제1 배리어(1810) 및 제2 배리어(1830)가 나란히 배치되면 제1 공백 영역(1820) 및 제2 공백 영역(1840)이 틈(1890)을 형성할 수 있다.
제3 배리어(1850) 및 제4 배리어(1870)가 나란히 배치되면 제3 공백 영역(1860) 및 제4 공백 영역(1880)이 틈(1890)을 형성할 수 있다.
제1 배리어(1810) 및 제2 배리어(1830)는 배리어 영역(1120)의 한 변에 나란히 배치될 수 있다.
제3 배리어(1850) 및 제4 배리어(1870)는 배리어 영역(1120)의 한 변에 나란히 배치될 수 있다.
배리어 영역(1120) 각 변에는 두 개의 배리어(1800)가 배치되되, 한 변에는 제1 배리어(1810) 및 제2 배리어(1830)가, 이웃하는 변에는 제3 배리어(1850) 및 제4 배리어(1870)가 번갈아 배치될 수 있다.
또는, 배리어 영역(1120) 각 변에 제1 배리어(1810) 및 제2 배리어(1830) 또는 제3 배리어(1850) 및 제4 배리어(1870)가 무작위로 배치될 수 있다.
이동 가능 영역(1100)에 캐릭터(900)가 위치하는 경우 배리어(1800)가 형성될 수 있다.
배리어(1800)는 캐릭터(900)가 이동 가능 영역(1100)으로 이동해 오는 경우 상기 이동 가능 영역(1100) 내 배리어 영역(1120)에 서서히 표시될 수 있다.
일 예로, 캐릭터(900)가 도 17 내지 도 19에서 설명한 방법으로 이동 가능 영역(1100)으로 이동해 온 경우 배리어 영역(1120)에 배리어(1800)가 밑에서부터 위로 생성될 수 있다.
또 다른 예로, 배리어 영역(1120)에 제1 배리어(1810) 내지 제4 배리어(1870)가 순차적으로 또는 무작위 순서로 형성될 수 있다.
한편, 캐릭터(900)가 위치하지 않는 이동 가능 영역(1100)에는 배리어(1800)가 표시되지 않을 수 있다.
또는, 캐릭터(900)가 위치하지 않는 이동 가능 영역(1100)에도 배리어(1800)가 표시될 수도 있다. 이 때 배리어(1800)는 중립 배리어 역할을 수행할 수 있다.
도 33은 복수의 캐릭터(900)에게 서바이벌 가상 공간(30) 내에서 서바이벌 컨텐츠가 제공될 때, 배리어(1800)가 이용되는 것을 나타내는 도면이다.
도 33을 참조하면, 제1 이동 가능 영역(1101)에 위치하는 제1 캐릭터(901)는 제1 컨트롤 오브젝트(2001)를 이용해 제2 이동 가능 영역(1102)에 위치하는 제2 캐릭터(902)를 공격할 수 있다.
제2 캐릭터(902)는 제2 사용자(802)에 대응되지 않고 보조 컴퓨팅 장치(300)에 저장된 프로그램 또는 어플리케이션에 의해 생성된 가상 캐릭터 또는 오브젝트를 포함할 수 있다.
제1 이동 가능 영역(1101) 및 제2 이동 가능 영역(1102)은 서바이벌 가상 공간(30) 내 지형(1000)을 구성할 수 있다.
배리어(1800)는 제1 캐릭터 배리어(1801) 및 제2 캐릭터 배리어(1802)를 포함할 수 있다.
배리어 영역(1120)은 제1 이동 가능 영역(1101) 내에 존재하는 제1 배리어 영역(1121) 및 제2 이동 가능 영역(1102) 내에 존재하는 제2 배리어 영역(1122)을 포함할 수 있다.
제1 배리어 영역(1121)에는 제1 캐릭터 배리어(1801)가 형성될 수 있고, 제2 배리어 영역(1122)에는 제2 캐릭터 배리어(1802)가 형성될 수 있다.
제1 사용자(801)의 제1 대표 가상 위치 정보(931)가 제1 이동 가능 영역(1101) 내 존재하는 경우, 제1 보조 컴퓨팅 장치(301)는 제1 착용형 디스플레이 장치(401)에 제1 캐릭터 배리어(1801)를 표시할 수 있다.
제2 사용자(802)의 제2 대표 가상 위치 정보(932)가 제2 이동 가능 영역(1102) 내 존재하는 경우, 제2 보조 컴퓨팅 장치(302)는 제2 착용형 디스플레이 장치(402)에 제2 캐릭터 배리어(1802)를 표시할 수 있다.
또는, 제1 배리어 영역(1121) 및 제2 배리어 영역(1122)에는 같은 배리어(1800)가 형성될 수도 있다.
한편, 같은 배리어(1800)라고 하더라도 제1 착용형 디스플레이 장치(401)와 제2 착용형 디스플레이 장치(402)에 각각 다른 색으로 표시될 수 있다.
사용자(800)가 착용하는 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)에 의해 사용자(800)를 기준으로 서바이벌 가상 공간(30)에 대한 이미지를 출력할 수 있다.
일 예로, 아군 배리어가 파란색으로 표시되고 적 배리어가 빨간색으로 표시될 때, 제1 배리어 영역(1121)에 위치한 제1 캐릭터 배리어(1801)는 제1 착용형 디스플레이 장치(401)에서는 파란색으로 표시되되 제2 착용형 디스플레이 장치(402)에서는 빨간색으로 표시될 수 있다.
마찬가지로, 제2 배리어 영역(1122)에 위치한 제2 캐릭터 배리어(1802)는 제2 착용형 디스플레이 장치(402)에는 파란색으로 표시되되 제1 착용형 디스플레이 장치(401)에는 빨간색으로 표시될 수 있다.
서바이벌 컨텐츠가 진행됨에 따라, 제1 캐릭터(901) 및 제2 캐릭터(902)는 도 25에서 설명한 방법으로 서로를 공격할 수 있다.
제1 캐릭터 배리어(1801)는 제1 캐릭터(901)를 외부의 공격으로부터 보호할 수 있고 제2 캐릭터 배리어(1802)는 제2 캐릭터(902)를 외부의 공격으로부터 보호할 수 있다.
제1 캐릭터(901)는 제1 사용자(800)가 소지하는 제1 입력 장치(501)에 대응되는 제1 컨트롤 오브젝트(2001)를 소지할 수 있다.
제1 컨트롤 오브젝트(2001)에 기초하여 변경되는 제1 연장선(1601)이 존재할 수 있다.
제1 연장선(1601)으로부터 일정 범위 내에 제2 캐릭터(902) 및 제2 캐릭터 배리어(1802)가 존재할 수 있다.
또한, 제1 연장선(1601)은 제1 캐릭터 배리어(1801) 내 존재하는 틈(1890) 사이로 통과하되, 제2 캐릭터 배리어(1802) 내 존재하는 틈(1890) 사이로는 통과하지 않을 수 있다.
한편, 제1 캐릭터(901)는 틈(1890) 사이로 제2 캐릭터(902)를 공격하기 위해 앉은 자세로 공격을 할 수 있다.
보조 컴퓨팅 장치(300) 또는 서버(200)는 컨트롤 오브젝트(2000)에 의해 변경되는 연장선(1600)으로부터 일정 범위 내에 배리어(1800)가 존재할 때, 사용자(800)의 입력 장치(500) 조작으로 입력신호가 보조 컴퓨팅 장치(300) 또는 서버(200)로 전달되면 배리어(1800)가 피격되었음을 판단할 수 있다.
일 예로, 제1 캐릭터(901)의 제1 컨트롤 오브젝트(2001)의 가상 위치 정보에 의해 변경되는 제1 연장선(1601)이 존재하고 제1 연장선(1601)으로부터 일정 범위 내에 제2 캐릭터(902)가 존재하되, 제1 캐릭터(901)와 제2 캐릭터(902) 사이에 제2 캐릭터 배리어(1802)가 존재하는 경우 제1 사용자(801)가 제1 입력 장치(501)를 조작하여 입력신호가 제1 보조 컴퓨팅 장치(301) 또는 서버(200)에 전달 되면 제1 착용형 디스플레이 장치(401)는 제2 캐릭터 배리어(1802)에 피격 효과를 표시할 수 있다.
제1 사용자(801) 및 제2 사용자(802)는 서바이벌 가상 공간(30) 내에서 서로의 공격을 회피하거나 방어하기 위해 배리어(1800)를 이용할 수 있다.
일 예로, 제1 사용자(801)가 몸을 낮추는 등의 모션을 취하면 서바이벌 가상 공간(30) 내에서 제1 캐릭터(901)는 제1 캐릭터 배리어(1801) 뒤에 엄폐하여 제2 캐릭터(902)의 공격이 제1 캐릭터 배리어(1801)에 흡수되도록 할 수 있다.
제1 사용자(801) 및 제2 사용자(802)는 서바이벌 가상 공간(30) 내에서 배리어(1800)에 형성된 틈(1890)을 이용해 상대 캐릭터를 공격할 수 있다.
일 예로, 제1 사용자(801)는 제1 입력 장치(501)를 이용해 제1 캐릭터(901)가 틈(1890) 사이로 제1 컨트롤 오브젝트(2001)를 위치시켜 제2 캐릭터(902)를 지향한 상태에서 제1 입력 장치(501) 조작을 통해 공격할 수 있다.
보조 컴퓨팅 장치(300)는 배리어(1800)가 캐릭터(900)에 의해 피격 당하는 경우 또는 캐릭터(900)를 대신하여 피격 당하는 경우 피격 정도에 따른 내구상태를 저장할 수 있다.
보조 컴퓨팅 장치(300)는 저장된 배리어(1800)의 내구상태를 반영하여 착용형 디스플레이 장치(400)에 출력되는 배리어(1800)의 모습을 변경할 수 있다.
배리어(1800)의 내구상태에 대한 구체적인 내용은 도 34에서 후술하도록 한다.
도 34는 배리어(1800)가 피격됨에 따라 내구상태가 변경되는 것을 나타내는 도면이다.
도 34를 참조하면 제1 배리어(1810) 및 제3 배리어(1850)가 피격 당한 경우 피격 정도에 따라 내구상태가 변경될 수 있다.
이 때, 제2 배리어(1830)가 피격 당한 경우 피격 정도에 따라 제1 배리어(1810)와 유사하게 상태가 변경될 수 있고, 제4 배리어(1870)가 피격 당한 경우 피격 정도에 따라 제3 배리어(1850)와 유사하게 상태가 변경될 수 있다.
내구상태는 기초상태, 제1 상태(1811), 제2 상태(1812), 제3 상태(1851) 및 제4 상태(1852)를 포함할 수 있다.
제1 배리어(1810)는 피격 정도에 따라 기초상태, 제1 상태(1811) 및 제2 상태(1812)를 가질 수 있다.
또한, 제3 배리어(1850)는 피격 정도에 따라 기초상태, 제3 상태(1851) 및 제4 상태(1852)를 가질 수 있다.
한편, 제1 배리어(1810)는 피격 정도에 따라 제3 배리어(1850)가 될 수 있다.
피격 정도는 배리어(1800)가 받은 피격 횟수 또는 배리어(1800)를 공격한 캐릭터(900)가 소지하는 컨트롤 오브젝트(2000) 또는 아이템(1500)의 공격력에 의해 정해질 수 있다.
배리어(1800)가 받은 피격 정도는 배리어(1800)에 의해 보호되는 캐릭터(900)로부터 받은 피격까지 포함될 수 있다.
일 예로, 도 33에서 제2 캐릭터(902)를 보호하는 제2 캐릭터 배리어(1802)는 제1 캐릭터(901)의 공격뿐만 아니라 제2 캐릭터(902)의 공격에 의해서도 피격될 수 있다.
제1 상태(1811)에서 제1 배리어(1810)의 일부분에 충격에 따른 균열 발생 효과 또는 일부가 손상된 효과가 표시될 수 있다.
제2 상태(1812)에서 제1 배리어(1810) 일부분이 파괴되는 효과가 표시될 수 있다.
제2 상태(1812)에서 파괴되는 부분은 제1 상태(1811)에서 충격에 따른 균열 발생 효과 또는 일부가 손상된 효과가 표시된 부분일 수 있다.
제3 상태(1851)에서 제3 배리어(1850)의 전부 또는 일부분에 충격에 따른 균열 발생 효과 또는 일부가 손상된 효과가 표시될 수 있다.
제4 상태(1852)에서 제3 배리어(1850)가 전부 파괴되는 효과가 표시될 수 있다.
한편 제1 상태(1811) 내지 제4 상태(1852)는 배리어(1800)가 피격 당한 경우 나타날 수 있는 상태의 예시로, 배리어(1800)의 내구상태는 피격 정도에 따라 더 많은 상태를 포함할 수 있다.
도 33에서 제1 캐릭터(901)가 제2 캐릭터(902)를 공격하고 제2 캐릭터 배리어(1802)가 대신하여 피격 받는 경우 피격 정도에 따라 제1 보조 컴퓨팅 장치(301) 또는 제2 보조 컴퓨팅 장치(302)는 제2 캐릭터 배리어(1802)의 내구상태를 변경하여 표시할 수 있다.
일 예로, 제2 캐릭터(902)가 제2 캐릭터 배리어(1802) 뒤로 엄폐하여 제1 캐릭터(901)가 제2 캐릭터 배리어(1802)를 제1 컨트롤 오브젝트(2001)로 지향한 상태에서 제1 입력 장치에 의한 입력신호가 제1 보조 컴퓨팅 장치(301) 또는 서버(200)에 일정 횟수 이상 전달되면 제1 착용형 디스플레이 장치(401) 및 제2 착용형 디스플레이 장치(402) 중 적어도 하나에는 제2 캐릭터 배리어(1802)가 제1 상태(1811) 내지 제4 상태(1852) 중 어느 하나로 표시될 수 있다.
또 다른 예로, 배리어(1800)는 피격 횟수 및 피격 정도에 따라 제1 상태(1811)를 거쳐 제2 상태(1812)로 표시되거나 제3 상태(1851)를 거쳐 제4 상태(1852)로 표시될 수도 있다.
한편, 배리어(1800)는 캐릭터(900)에 의한 피격으로 내구상태가 변경된 경우 서바이벌 컨텐츠가 진행 중에는 같은 내구상태로 유지될 수 있다.
일 예로, 제1 시점에서 제1 캐릭터 배리어(1801)의 내구상태가 제1 상태(1811)인 경우, 제1 시점으로부터 일정 시간이 경과한 제2 시점에서 제1 캐릭터 배리어(1801)의 내구상태는 제1 상태(1811)일 수 있다.
또 다른 예로, 제1 시점에서 제1 이동 가능 영역(1101) 내 제1 캐릭터(901)가 위치하고 제1 배리어 영역(1121) 내 제1 상태(1811)를 갖는 제1 캐릭터 배리어(1801)가 존재할 때, 제2 시점에서 제1 캐릭터(901)가 다른 이동 대상 영역(1105)으로 이동하고 제3 시점에서 상기 제1 이동 가능 영역(1101)으로 다시 이동해 온 경우 제1 배리어 영역(1121)에는 제1 상태(1811)를 갖는 제1 캐릭터 배리어(1801)가 형성될 수 있다.
또 다른 예로, 제1 시점에서 이동 가능 영역(1100)에 제1 캐릭터(901)가 위치하여 배리어 영역(1120)에 제1 캐릭터 배리어(1801)가 형성되고 피격에 의해 제2 상태(1812)를 가질 때, 제2 시점에서 제1 캐릭터(901)가 다른 이동 가능 영역으로 이동 하고 상기 이동 가능 영역(1100)에 제2 캐릭터(902)가 위치하면 배리어 영역(1120)에는 제2 상태(1812)를 갖는 제2 캐릭터 배리어(1802)가 형성될 수 있다.
한편, 피격 정도에 따라 변경된 배리어(1800)의 내구상태는 일정 시간이 경과하면 기초상태로 회복될 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 제4 상태(1852)를 갖는 제3 배리어(1850)를 일정 시간 경과 후 제3 상태(1851)를 거쳐 기초상태를 갖는 제3 배리어(1800)로 표시하거나 제3 상태(1851), 제2 상태(1812) 및 제1 상태(1811)를 차례로 거쳐 기초상태를 갖는 제1 배리어(1810)로 표시할 수 있다.
또는, 제1 상태(1811) 내지 제4 상태(1852)를 갖는 배리어(1800)는 일정 시간 경과 후 바로 기초상태를 갖는 배리어(1800)로 회복될 수 있다.
도 35는 서바이벌 가상 공간(30)에서 서바이벌 컨텐츠가 진행되는 방법을 나타내는 순서도이다.
도 35를 참조하면, 서바이벌 컨텐츠는 리스폰 영역(1300)에 캐릭터(900)가 배치되는 초기 배치 단계(S2000), 서바이벌이 진행되는 서바이벌 단계(S2100), 실시간으로 캐릭터(900)의 피격 및 피격에 따른 체력 유무 등을 확인하는 상황 판단 단계(S2200), 서바이벌 컨텐츠 진행 시간을 확인 하는 시간 체크 단계(S2300) 및 팀별 킬 수 및 데스 수를 확인하는 평가 단계(S2400)를 통해 진행될 수 있다.
초기 배치 단계(S2000)에서, 도 10에서 설명한 튜토리얼 가상 공간(20) 내에서의 튜토리얼이 종료되면 사용자(800)에 대응하는 캐릭터(900)는 서바이벌 가상 공간(30) 내 리스폰 영역(1300)에 배치될 수 있다.
사용자(800)가 복수인 경우 선택에 따라 개인전 또는 팀전으로 서바이벌 컨텐츠가 진행될 수 있다.
개인전의 경우 캐릭터(900)는 각각의 서로 다른 리스폰 영역(1300)에 배치되고 팀전의 경우 캐릭터(900)는 팀별로 리스폰 영역(1300)에 배치될 수 있다.
서바이벌 단계(S2100)에서 캐릭터(900)는 서바이벌 가상 공간(30) 내 지형(1000)을 구성하는 이동 가능 영역(1100) 또는 특수 영역(1310)을 이동하며 다른 캐릭터를 공격할 수 있다.
이 때, 캐릭터(900)는 서바이벌 가상 공간(30) 내 배치되는 아이템(1500), 특수 영역(1310) 또는 배리어(1800) 등을 이용할 수 있다.
상황 판단 단계(S2200)에서 보조 컴퓨팅 장치(300) 또는 서버(200)는 캐릭터(900)가 피격 당한 횟수 및 피격 당한 정도, 캐릭터(900)가 다른 캐릭터를 공격한 횟수 및 공격하여 입힌 피해 등을 공유할 수 있다.
또한, 보조 컴퓨팅 장치(300) 또는 서버(200)는 피격에 따라 캐릭터(900)의 체력이 없는 경우 사망 이벤트를 발생시킬 수 있고, 캐릭터(900)는 사망 이벤트 발생 시 일정 시간 후에 리스폰 영역(1300)으로 이동할 수 있다.
또한, 보조 컴퓨팅 장치(300) 또는 서버(200)는 캐릭터(900)의 공격에 따라 공격 받은 다른 캐릭터의 체력이 없는 경우 킬 이벤트를 발생시킬 수 있고, 킬 당한 캐릭터는 일정 시간 후에 리스폰 영역(1300)으로 이동할 수 있다.
한편, 보조 컴퓨팅 장치(300) 또는 서버(200)는 상황 판단 단계(S2200)에서 판단한 캐릭터(900)의 킬, 데스 수를 기록하여 착용형 디스플레이 장치(400)를 통해 서바이벌 가상 공간(30) 내에 위치한 전광판(1010)에 표시할 수 있다.
시간 체크 단계(S2300)에서 보조 컴퓨팅 장치(300) 또는 서버(200)는 서바이벌 컨텐츠가 진행된 시간을 체크하고 미리 설정된 시간과 같거나 미리 설정된 시간을 경과하는 경우 서바이벌 컨텐츠를 종료시킬 수 있다.
보조 컴퓨팅 장치(300) 또는 서버(200)는 착용형 디스플레이 장치(400)를 통해 서바이벌 컨텐츠를 종료시키기 전에 사용자(800)에게 미리 종료까지 남은 시간을 알려줄 수 있다.
평가 단계(S2400)에서 보조 컴퓨팅 장치(300) 또는 서버(200)는 서바이벌 컨텐츠가 진행되는 동안 캐릭터(900)의 킬 수 및 데스 수, 피격 횟수 및 피격 정도, 공격 횟수 및 공격하여 입힌 피해량 등을 고려하여 캐릭터(900)에게 순위를 메길 수 있다.
보조 컴퓨팅 장치(300) 또는 서버(200)는 캐릭터(900)의 순위에 따라 튜토리얼 가상 공간(20)에서 벌칙 이벤트를 발생시킬 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
가상 현실 제어 시스템 10 디텍팅 장치 100
서버 200 보조 컴퓨팅 장치 300
착용형 디스플레이 장치 400 입력 장치 500

Claims (17)

  1. 광 신호를 검출하는 센싱부;
    사용자에게 영상을 출력하는 디스플레이;
    상기 디스플레이를 제어하는 적어도 하나 이상의 제어부; 및
    상기 사용자의 입력에 의한 입력신호를 상기 제어부로 전달하는 입력 장치를 포함하고,
    상기 제어부는,
    상기 광 신호에 기초한 정보를 이용하여 상기 사용자의 위치 정보를 산출하고,
    상기 사용자의 위치 정보에 기초하여 가상 위치 정보를 산출하며,
    상기 디스플레이에는 상기 가상 위치 정보에 기초하여 복수의 영역이 표시되고,
    상기 복수의 영역은 상기 가상 위치 정보에 기초한 캐릭터의 이동이 가능한 이동 가능 영역 및 상기 캐릭터의 이동이 불가능한 이동 불가 영역을 포함하고,
    상기 캐릭터로부터 참조거리 이내에 위치한 상기 이동 가능 영역에는 이동 가능 표식이 제공되고,
    상기 제어부는 상기 입력 장치의 위치 정보에 대응되는 가상 오브젝트가 선택 시점에서 상기 참조거리 이내에 위치한 상기 이동 가능 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 디스플레이에 표시되는 시야 범위를 상기 가상 위치 정보에 대응되는 시야 범위에서 상기 가상 오브젝트가 상기 선택 시점에서 지향한 상기 이동 가능 영역에 대응되는 시야 범위로 전환시키며,
    상기 입력 장치 오브젝트가 상기 이동 불가 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우에는 상기 디스플레이에 표시되는 시야 범위를 전환시키지 않고,
    상기 이동 가능 영역은 상기 이동 가능 영역 보다 작은 면적을 갖는 제1 영역 및 상기 이동 가능 영역에서 상기 제1 영역을 제외한 제2 영역을 포함하고,
    상기 제어부는 상기 캐릭터의 적어도 일부가 상기 제2 영역에 위치하는 경우 알림을 제공하는,
    가상 현실 제어 시스템.
  2. 제1 항에 있어서,
    상기 디스플레이에는 적어도 둘 이상의 블록으로 구성된 지형이 표시되고,
    상기 블록 중 적어도 일부는 상기 이동 가능 영역이고,
    상기 블록 중 적어도 일부는 상기 이동 불가 영역인,
    가상 현실 제어 시스템.
  3. 제2 항에 있어서,
    상기 블록은 육각기둥 형상인,
    가상 현실 제어 시스템.
  4. 제1 항에 있어서,
    상기 이동 가능 영역 및 상기 이동 불가 영역은 서로 다른 색으로 구분되는,
    가상 현실 제어 시스템.
  5. 제1 항에 있어서,
    상기 이동 가능 표식과 상기 캐릭터는 선으로 연결되어 있는,
    가상 현실 제어 시스템.
  6. 제1 항에 있어서,
    상기 복수의 영역은 특수 영역을 더 포함하고,
    상기 특수 영역은 상기 캐릭터가 사용할 수 있는 가상 아이템을 포함하며,
    상기 제어부는 상기 가상 오브젝트가 상기 가상 아이템을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 캐릭터가 상기 가상 아이템을 획득하는,
    가상 현실 제어 시스템.
  7. 제1 항에 있어서,
    상기 복수 영역은 특수 영역을 더 포함하고,
    상기 제어부는 상기 특수 영역에 상기 가상 위치 정보가 존재하는 경우, 상기 디스플레이에 표시되는 시야 범위를 상기 가상 위치 정보에 대응되는 시야 범위에서 상기 가상 위치 정보로부터 수직방향으로 상승된 위치에 대응되는 시야 범위로 전환시키는,
    가상 현실 제어 시스템.
  8. 제1 항에 있어서,
    상기 복수 영역은 리스폰 영역을 더 포함하고,
    상기 제어부는 상기 캐릭터에게 사망 이벤트가 발생한 경우 미리 설정된 시간이 지나면 상기 디스플레이에 표시되는 시야 범위를 상기 가상 위치 정보에 대응되는 시야 범위에서 상기 리스폰 영역에 대응되는 시야 범위로 전환시키는,
    가상 현실 제어 시스템.
  9. 제1 항에 있어서,
    상기 캐릭터로부터 상기 참조거리 밖에 위치한 상기 이동 가능 영역에는 상기 이동 가능 표식이 제공되지 않는,
    가상 현실 제어 시스템.
  10. 제1 광 신호를 검출하는 제1 센싱부;
    제2 광 신호를 검출하는 제2 센싱부;
    제1 사용자에게 영상을 출력하는 제1 디스플레이;
    제2 사용자에게 영상을 출력하는 제2 디스플레이;
    상기 제1 디스플레이 및 제2 디스플레이 중 어느 하나를 제어하는 적어도 하나 이상의 제어부; 및
    상기 제1 사용자의 입력에 의한 입력신호를 상기 제어부로 전달하는 입력 장치를 포함하고,
    상기 적어도 하나 이상의 제어부는,
    상기 제1 광 신호에 기초한 제1 사용자의 제1 위치 정보를 산출해, 상기 제1 위치 정보에 기초하여 제1 가상 위치 정보를 산출하고,
    상기 제2 광 신호에 기초한 제2 사용자의 제2 위치 정보를 산출해, 상기 제2 위치 정보에 기초하여 제2 가상 위치 정보를 산출하며,
    상기 제1 디스플레이에 및 상기 제2 디스플레이 중 적어도 어느 하나에는 상기 제1 가상 위치 정보 또는 상기 제2 가상 위치 정보 중 적어도 어느 하나에 기초하여 복수의 영역이 표시되고,
    상기 복수의 영역은 상기 제1 가상 위치 정보에 기초한 제1 캐릭터 또는 상기 제2 가상 위치 정보에 기초한 제2 캐릭터가 이동이 가능한 이동 가능 영역 및 상기 제1 캐릭터 및 상기 제2 캐릭터가 이동이 불가능한 이동 불가 영역을 포함하고,
    상기 제1 캐릭터로부터 제1 참조거리 이내에 위치한 상기 이동 가능 영역에는 제1 이동 가능 표식이 제공되고,
    상기 제어부는 상기 입력 장치의 위치 정보에 대응되는 가상 오브젝트가 상기 제1 이동 가능 표식을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우 상기 제1 디스플레이에 표시되는 시야 범위를 상기 제1 가상 위치 정보에 대응되는 시야 범위에서 상기 제1 이동 가능 표식이 제공된 상기 이동 가능 영역에 대응되는 시야 범위로 전환시키며,
    상기 가상 오브젝트가 상기 이동 불가 영역을 지향하는 상태에서 상기 입력신호가 상기 제어부로 전달되는 경우에는 상기 제1 디스플레이에 표시되는 시야 범위를 전환시키지 않고,
    상기 이동 가능 영역은 상기 이동 가능 영역 보다 작은 면적을 갖는 제1 영역 및 상기 이동 가능 영역에서 상기 제1 영역을 제외한 제2 영역을 포함하고,
    상기 제어부는 상기 제1 캐릭터의 적어도 일부가 상기 제2 영역에 위치하는 경우 상기 제1 사용자에게 알림을 제공하는,
    가상 현실 제어 시스템.
  11. 제10 항에 있어서,
    상기 제1 참조거리 이내에 위치한 상기 이동 가능 영역에 상기 제2 캐릭터가 위치하는 경우 상기 제1 이동 가능 표식이 제공되지 않는,
    가상 현실 제어 시스템.
  12. 제10 항에 있어서,
    상기 제2 캐릭터로부터 제2 참조거리 이내에 위치한 상기 이동 가능 영역에는 제2 이동 가능 표식이 제공되되,
    상기 제1 디스플레이에 상기 제2 캐릭터는 표시되되 상기 제2 이동 가능 표식은 표시되지 않고,
    상기 제2 디스플레이에 상기 제1 캐릭터는 표시되되 상기 제1 이동 가능 표식은 표시되지 않는,
    가상 현실 제어 시스템.
  13. 삭제
  14. 제1 항에 있어서,
    상기 제어부는 상기 디스플레이에 해상도가 미리 설정된 값보다 낮은 화면을 표시하여 상기 알림을 제공하는,
    가상 현실 제어 시스템.
  15. 제1 항에 있어서,
    상기 제어부는 상기 디스플레이에 유도 이미지를 출력하여 상기 알림을 제공하는,
    가상 현실 제어 시스템.
  16. 제1 항에 있어서,
    상기 제어부는 상기 디스플레이에 유도 사운드를 출력하여 상기 알림을 제공하되,
    상기 유도 사운드는 경고음 또는 경고 메시지 중 적어도 하나를 포함하는,
    가상 현실 제어 시스템.
  17. 제1 항에 있어서,
    상기 센싱부는,
    상기 가상 위치 정보가 상기 제1 영역에 존재하는 경우 상기 광 신호를 검출하고,
    상기 가상 위치 정보가 상기 제2 영역에 존재하는 경우 상기 광 신호를 검출하지 않는,
    가상 현실 제어 시스템.
KR1020180097683A 2017-12-26 2018-08-21 가상 현실 제어 시스템 KR102085440B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2018/016684 WO2019132522A1 (ko) 2017-12-26 2018-12-26 가상 현실 제어 시스템
US16/958,545 US11648478B2 (en) 2017-12-26 2018-12-26 Virtual reality control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762610455P 2017-12-26 2017-12-26
US62/610,455 2017-12-26

Publications (2)

Publication Number Publication Date
KR20190078472A KR20190078472A (ko) 2019-07-04
KR102085440B1 true KR102085440B1 (ko) 2020-03-05

Family

ID=67259656

Family Applications (8)

Application Number Title Priority Date Filing Date
KR1020180097683A KR102085440B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180097684A KR102085441B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180097685A KR102092464B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
KR1020180097686A KR20190078475A (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097682A KR102130892B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
KR1020180097687A KR102181587B1 (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180167749A KR20190078524A (ko) 2017-12-26 2018-12-21 가상 환경 제어 시스템
KR1020200132667A KR20200123049A (ko) 2017-12-26 2020-10-14 가상 환경 제어 시스템

Family Applications After (7)

Application Number Title Priority Date Filing Date
KR1020180097684A KR102085441B1 (ko) 2017-12-26 2018-08-21 가상 현실 제어 시스템
KR1020180097685A KR102092464B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
KR1020180097686A KR20190078475A (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180097682A KR102130892B1 (ko) 2017-12-26 2018-08-21 착용형 디스플레이 장치 및 이를 이용한 이미지 제공 방법
KR1020180097687A KR102181587B1 (ko) 2017-12-26 2018-08-21 가상 환경 제어 시스템
KR1020180167749A KR20190078524A (ko) 2017-12-26 2018-12-21 가상 환경 제어 시스템
KR1020200132667A KR20200123049A (ko) 2017-12-26 2020-10-14 가상 환경 제어 시스템

Country Status (2)

Country Link
US (2) US11517821B2 (ko)
KR (8) KR102085440B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
CN110548288B (zh) * 2019-09-05 2020-11-10 腾讯科技(深圳)有限公司 虚拟对象的受击提示方法、装置、终端及存储介质
KR102212510B1 (ko) * 2019-10-21 2021-02-04 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
US11080930B2 (en) * 2019-10-23 2021-08-03 Skonec Entertainment Co., Ltd. Virtual reality control system
KR102318698B1 (ko) * 2019-12-27 2021-10-28 주식회사 믹서 구면좌표계 기반 가상의 대상체가 배치된 가상공간 형성 방법 및 프로그램
KR102373891B1 (ko) * 2020-12-02 2022-03-15 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 방법
CN113457150B (zh) * 2021-07-16 2023-10-24 腾讯科技(深圳)有限公司 信息提示方法和装置、存储介质及电子设备
KR102477531B1 (ko) * 2021-12-02 2022-12-14 (주)스코넥엔터테인먼트 음성인식 기능이 구비된 가상 환경 제어 시스템
KR102594054B1 (ko) * 2021-12-09 2023-10-25 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 이를 제어하는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079174A (ja) * 2004-09-07 2006-03-23 Canon Inc 仮想現実感提示装置および情報処理方法
KR101666561B1 (ko) * 2015-07-13 2016-10-24 한국과학기술원 증강 공간 내 부분 공간 획득 시스템 및 방법

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
JPH10283151A (ja) 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法
JPH11272156A (ja) * 1998-03-25 1999-10-08 Sega Enterp Ltd 仮想三次元音像生成装置及びその方法並びに媒体
JP3653463B2 (ja) * 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
JP2003271992A (ja) * 2002-03-13 2003-09-26 Fukui Computer Kk 仮想モデルハウス体験システム、仮想モデルハウス体験方法、仮想モデルハウス体験プログラムおよび仮想モデルハウス体験プログラムが格納されたコンピュータ読み取り可能な記憶媒体
JP3708535B2 (ja) 2004-03-12 2005-10-19 コナミ株式会社 射的ゲーム装置
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP4015173B1 (ja) * 2006-06-16 2007-11-28 株式会社コナミデジタルエンタテインメント ゲーム音出力装置、ゲーム音制御方法、および、プログラム
JP5203694B2 (ja) 2007-12-28 2013-06-05 ブラザー工業株式会社 画像処理装置、シート搬送装置
JP2010022646A (ja) * 2008-07-22 2010-02-04 Namco Bandai Games Inc プログラム、情報記憶媒体および画像生成システム
JP2010068872A (ja) 2008-09-16 2010-04-02 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
WO2011112941A1 (en) * 2010-03-12 2011-09-15 Tagwhat, Inc. Purchase and delivery of goods and services, and payment gateway in an augmented reality-enabled distribution network
KR20120084252A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
ES2656868T3 (es) 2011-10-05 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo portátil, sistema y método de realidad virtual
US9786176B2 (en) * 2012-06-22 2017-10-10 Zonal Systems, Llc System and method for placing virtual geographic zone markers
JP2014097219A (ja) * 2012-11-15 2014-05-29 Nintendo Co Ltd ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US20150325055A1 (en) * 2012-12-17 2015-11-12 Anil Kumar Balakrishna Display apparatus
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
IL308285B1 (en) 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmentation and virtual reality
WO2015066037A1 (en) * 2013-10-28 2015-05-07 Brown University Virtual reality methods and systems
KR102227659B1 (ko) 2014-03-12 2021-03-15 삼성전자주식회사 Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US10375135B2 (en) 2014-11-06 2019-08-06 Interdigital Technology Corporation Method and system for event pattern guided mobile content services
KR101664609B1 (ko) 2014-12-05 2016-10-10 주식회사 건파워 서바이벌 게임 오프라인 시스템 및 이의 전사자 리스폰 방법
US9910275B2 (en) 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
JP6240135B2 (ja) * 2015-10-26 2017-11-29 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法およびプログラム
JP5887458B1 (ja) 2015-11-04 2016-03-16 株式会社Cygames プレイヤの移動履歴に基づいてノンプレイヤキャラクタの経路探索を行うゲームシステム等
KR20170069790A (ko) 2015-12-11 2017-06-21 삼성전자주식회사 가상 현실 서비스에서 오디오 신호를 처리하는 방법 및 이를 위한 전자 장치
US9984510B1 (en) * 2016-03-02 2018-05-29 Meta Company System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements
US9983697B1 (en) 2016-05-18 2018-05-29 Meta Company System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US20180015375A1 (en) 2016-07-12 2018-01-18 Paul Marino Computer-implemented multiplayer combat video game method and apparatus
JP6152997B1 (ja) 2016-07-25 2017-06-28 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム
KR102355175B1 (ko) * 2016-11-21 2022-01-26 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 비일시적 컴퓨터 판독가능 매체
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
CN107450747B (zh) 2017-07-25 2018-09-18 腾讯科技(深圳)有限公司 虚拟角色的位移控制方法和装置
CN108037859A (zh) 2017-11-17 2018-05-15 珠海市君天电子科技有限公司 一种壁纸控制方法、装置、电子设备及存储介质
US10671238B2 (en) * 2017-11-17 2020-06-02 Adobe Inc. Position-dependent modification of descriptive content in a virtual reality environment
WO2020015611A1 (zh) * 2018-07-20 2020-01-23 广东虚拟现实科技有限公司 虚拟内容的交互显示方法、终端设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079174A (ja) * 2004-09-07 2006-03-23 Canon Inc 仮想現実感提示装置および情報処理方法
KR101666561B1 (ko) * 2015-07-13 2016-10-24 한국과학기술원 증강 공간 내 부분 공간 획득 시스템 및 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R 케이크 줍기 게임
Tower Tag - A PvP Shooter made for VR Arcades

Also Published As

Publication number Publication date
US11648478B2 (en) 2023-05-16
KR20190078474A (ko) 2019-07-04
KR102130892B1 (ko) 2020-07-07
KR20200123049A (ko) 2020-10-28
KR20190078476A (ko) 2019-07-04
KR20190078473A (ko) 2019-07-04
KR20190078524A (ko) 2019-07-04
KR20190078475A (ko) 2019-07-04
KR102092464B1 (ko) 2020-03-23
US11517821B2 (en) 2022-12-06
KR20190078471A (ko) 2019-07-04
KR20190078472A (ko) 2019-07-04
KR102181587B1 (ko) 2020-11-20
US20210065460A1 (en) 2021-03-04
KR102085441B1 (ko) 2020-03-05
US20200338453A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
KR102085440B1 (ko) 가상 현실 제어 시스템
KR101926178B1 (ko) 가상 공간에의 몰입감과 실제 공간에서의 이동을 양립할 수 있는 가상 현실 시스템 및 이를 이용한 전투 훈련 시스템
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
JP5157329B2 (ja) ゲーム装置
KR101298030B1 (ko) 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
JP2019122496A (ja) シミュレーションシステム及びプログラム
JP6099327B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
US20150286275A1 (en) Interactive virtual reality systems and methods
EP2221707A1 (en) System and method for providing user interaction with projected three-dimensional environments
JP5843721B2 (ja) ゲームプログラム、ゲーム装置、ゲーム制御方法およびゲームシステム
JP6580619B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6290490B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
KR101977964B1 (ko) 가상의 크리켓 경기를 제어하는 제어 장치, 제어 방법 및 컴퓨터 프로그램
KR102218088B1 (ko) 가상 현실 제어 시스템
JP2008173491A (ja) 画像生成装置及び情報記憶媒体
JP5597869B2 (ja) プログラム、情報記憶媒体、及び、画像生成装置
KR102218089B1 (ko) 가상 현실 제어 시스템
KR102218091B1 (ko) 가상 현실 제어 시스템
CN112915532A (zh) 一种游戏中的信息提示方法、装置、电子设备及存储介质
KR102290406B1 (ko) 분대원 캐릭터를 조종하는 fps게임시스템
KR102212508B1 (ko) 가상 환경 제어 시스템
KR101745498B1 (ko) 인터랙티브 콘텐츠 제공시스템 및 방법
KR20200091259A (ko) 가상 현실 제어 시스템
KR20190055037A (ko) 가상의 크리켓 경기를 제어하는 제어 장치, 제어 방법 및 컴퓨터 프로그램
JP2023546721A (ja) インタラクティブなエネルギー効果アトラクション

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right