KR20180060534A - Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof - Google Patents

Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof Download PDF

Info

Publication number
KR20180060534A
KR20180060534A KR1020160160108A KR20160160108A KR20180060534A KR 20180060534 A KR20180060534 A KR 20180060534A KR 1020160160108 A KR1020160160108 A KR 1020160160108A KR 20160160108 A KR20160160108 A KR 20160160108A KR 20180060534 A KR20180060534 A KR 20180060534A
Authority
KR
South Korea
Prior art keywords
user
beacon
providing apparatus
contents
sensible
Prior art date
Application number
KR1020160160108A
Other languages
Korean (ko)
Other versions
KR101905272B1 (en
Inventor
성연식
곽정훈
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020160160108A priority Critical patent/KR101905272B1/en
Publication of KR20180060534A publication Critical patent/KR20180060534A/en
Application granted granted Critical
Publication of KR101905272B1 publication Critical patent/KR101905272B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a device and a method for recognizing a user direction based on a beacon linked to an experiential type content providing device. The device for recognizing a user direction based on a beacon includes: a beacon position estimating unit estimating the position of a first beacon and a second beacon by an RSSI value received from the first beacon installed on one side of a user body and the second beacon installed on the other side of the user body; a vector extracting unit extracting a linear vector passing through the first beacon and second beacon and extracting a normal vector being at a right angle to the extracted linear vector; and a control unit estimating the direction which the user body faces by using the normal vector and transmitting the estimated direction to the experiential type content providing device. According to the present invention, the device for recognizing a user direction based on a beacon senses a head direction and a moving direction of the body, respectively, and controls experiential type content in detail by corresponding to the sensed direction. So, the device for recognizing a user direction based on the beacon enables a user to feel a sense of reality when the user uses the experiential type content.

Description

체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법{APPARATUS FOR USER DIRECTION RECOGNITION BASED ON BEACON COOPERATED WITH EXPERIENTIAL TYPE CONTENT PROVIDING APPARATUS AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a beacon-based user direction recognition apparatus and a beacon-

본 발명은 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법에 관한 것으로, 보다 상세하게는 비콘을 이용하여 위치를 추정하고 사용자가 어느 방향을 향해 있는지 인식할 수 있는 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법에 관한 것이다.[0001] The present invention relates to a beacon-based direction recognition apparatus and method for a beacon-based content providing apparatus, and more particularly to a beacon- The present invention relates to a beacon-based user direction recognition apparatus and a method thereof, which are associated with a content providing apparatus.

최근 국내외 유수의 기업들이 가상 현실을 기반으로 하는 게임 시장에 뛰어들고 있다. 글로벌 가상현실 시장 규모는 2020년 3900억 달러에 달할 것이라고 예측되고 있으며 2030년에는 시장 규모가 3배 이상 성장해 1조4367억 달러에 이를 것으로 전망되고 있다. 이처럼360도 가상 현실을 보여주는 헤드셋에서부터 방 전체가 게임 화면으로 바뀌는 기술까지 진짜 같은 가짜를 만들어 내기 위한 경쟁이 치열하다.Recently, leading domestic and foreign companies are entering the virtual reality based game market. The global virtual reality market is expected to reach $ 390 billion by 2020, and by 2030 the market is expected to triple to $ 1.4367 trillion. The competition is fierce to create a real fake from a headset that shows a 360-degree virtual reality to a technology that turns the entire room into a game screen.

가상현실은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 의미한다. 이때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한 사용자는 가상현실에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 가상현실 속에 구현된 것들과 상호작용이 가능하다.Virtual reality refers to a specific environment or situation, or technology itself, that is similar to the reality created by artificial technology using computers and the like, but not actual. At this time, the created virtual environment or situation stimulates the user's five senses and makes the user experience the spatial and temporal experiences similar to reality, thereby freely bringing the boundary between reality and imagination free. Users can not only simply immerse themselves in virtual reality, but they can also interact with things implemented in virtual reality, such as manipulating or commanding them using real devices.

종래의 일반적인 게임은 사용자가 모니터를 보면서 조이스틱이나 키보드와 같은 간단한 조작기를 이용하여 화면에서 나타나는 게임 상황에 따라 게임을 즐기게 되므로, 사용자는 게임의 상황을 실제로 경험하는 것과 같은 체험은 할 수 없었다. 하지만 가상현실을 게임에 적용하는 경우 사용자가 실제 상황처럼 오감을 이용해 경험할 수 있게 되므로 게임의 몰입도를 증가시킬 수 있다.In the conventional general game, the user enjoys the game according to the game situation displayed on the screen by using a simple manipulator such as a joystick or a keyboard while watching the monitor, so that the user can not experience the same situation as actually experiencing the situation of the game. However, when the virtual reality is applied to the game, it is possible to increase the immersion level of the game since the user can experience the real sense of the game using the five senses.

그리고 가상 현실 게임을 제어하기 위해 사용자 발밑에 트래킹 패드를 설치하고 진행방향을 트래킹하거나 영상 센서를 통해 몸동작을 유추하였으나 이와 같은 방식은 고 비용이 요구되어 실제로 적용하기에는 한계가 있다. In order to control the virtual reality game, a tracking pad is installed at the user 's feet, and the progress direction is tracked or the gesture is estimated through the image sensor. However, such a method requires a high cost and has a limited practical application.

그러므로 가상 현실 게임을 보다 현실감을 느낄 수 있도록 섬세하게 제어할 수 있는 기술이 요구된다. Therefore, there is a need for a technology capable of delicately controlling a virtual reality game so that it can feel more realistic.

본 발명의 배경이 되는 기술은 대한민국 국내공개특허 제10-2016-0098137호(2016.08.18. 공개)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent Laid-Open No. 10-2016-0098137 (published on Aug. 18, 2016).

본 발명이 이루고자 하는 기술적 과제는 비콘을 이용하여 위치를 추정하고 사용자가 어느 방향을 향해 있는지 인식할 수 있는 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention provides a beacon-based user direction recognizing device and a method thereof, which are associated with a tangible content providing device capable of estimating a position using a beacon and recognizing a user's direction.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치에 있어서, 사용자 신체의 일측면에 장착된 제1 비콘과 상기 사용자 신체의 타측면에 장착된 제2 비콘으로부터 수신한 RSSI 값을 통해 제1 비콘과 제2 비콘의 위치를 추정하는 비콘 위치 추정부, 상기 제1 비콘과 제2 비콘을 지나는 직선 벡터를 추출하고 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출하는 벡터 추출부, 그리고 상기 법선 벡터를 이용하여 상기 사용자의 신체가 향하는 방향을 추정하여 상기 체감형 컨텐츠 제공 장치로 전송하는 제어부를 포함한다.According to an aspect of the present invention, there is provided a beacon-based direction recognition apparatus connected to a bodily-sensible contents providing apparatus, the beacon-based direction recognition apparatus comprising: a first beacon mounted on one side of a user body; A beacon position estimating unit for estimating a position of the first beacon and the second beacon based on the RSSI value received from the second beacon mounted on the first beacon, a straight line vector passing through the first beacon and the second beacon, And a controller for estimating a direction of the user's body using the normal vector and transmitting the estimated vector to the haptic-type contents providing apparatus.

상기 비콘 위치 추정부는 공간 내에 설치된 복수의 AP으로부터 제1 비콘 및 제2 비콘이 수신한 RSSI 값에 대하여 삼각 측량법을 이용하여 제1 비콘 및 제2 비콘의 위치를 추정할 수 있다.The beacon position estimating unit may estimate positions of the first beacon and the second beacon using triangulation with respect to RSSI values received by the first beacon and the second beacon from a plurality of APs installed in the space.

상기 체감형 컨텐츠 제공 장치는 상기 사용자의 신체가 향하는 방향에 대응하는 영상을 연계된 디스플레이를 통하여 출력할 수 있다.The tangible content providing apparatus may output an image corresponding to a direction of the user's body through a linked display.

상기 사용자가 상기 체감형 컨텐츠 제공 장치와 연계된 헤드마운트형 디스플레이를 착용한 경우, 상기 헤드마운트 디스플레이는 체감형 컨텐츠 제공 장치로부터 제공되는 화면을 사용자에게 제공하며, 상기 사용자의 얼굴이 향하는 방향에 대응하는 사용자의 시선 방향의 화면을 제공할 수 있다. Wherein when the user wears a head mounted display associated with the sensible contents providing apparatus, the head mounted display provides a screen provided from the sensible contents providing apparatus to the user, and corresponds to a direction in which the face of the user faces It is possible to provide a screen of the user's gaze direction.

상기 사용자의 신체에 체감형 컨텐츠 조작 장치가 부착되어 있거나 사용자가 상기 체감형 컨텐츠 조작 장치를 파지하고 있는 경우, 상기 사용자가 체감형 컨텐츠 조작 장치를 통하여 상기 체감형 컨텐츠 제공 장치에 제어 신호를 출력하면, 상기 체감형 컨텐츠 제공 장치는 상기 제어 신호가 상기 사용자의 신체 진행 방향에 대응되는 신호인 것으로 인식할 수 있다.If the user has a body-sensitive content manipulation apparatus attached thereto or the user holds the body-sensitive content manipulation apparatus, the user outputs a control signal to the sensible-contents-content providing apparatus through the sensible-contents-content manipulation apparatus , The sensible-contents-providing apparatus can recognize that the control signal is a signal corresponding to the direction of the user's body.

본 발명의 다른 실시예에 있어서 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치를 이용한 사용자 방향 인식 방법에 있어서, 사용자 신체의 일측면에 장착된 제1 비콘과 상기 사용자 신체의 타측면에 장착된 제2 비콘으로부터 수신한 RSSI 값을 통해 제1 비콘과 제2 비콘의 위치를 추정하는 단계, 상기 제1 비콘과 제2 비콘을 지나는 직선 벡터를 추출하고 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출하는 단계, 그리고 상기 법선 벡터를 이용하여 상기 사용자의 신체가 향하는 방향을 추정하여 상기 체감형 컨텐츠 제공 장치로 전송하는 단계를 포함한다. In another aspect of the present invention, there is provided a method for recognizing a user's direction using a beacon-based user direction recognition device associated with a bodily sensed content providing apparatus, the method comprising: Estimating a position of a first beacon and a second beacon based on an RSSI value received from a second beacon attached to the first beacon, extracting a straight line passing through the first beacon and the second beacon, Extracting a normal vector from the normal vector, and estimating a direction of the body of the user using the normal vector and transmitting the estimated vector to the haptic-type contents providing apparatus.

본 발명에 따르면, 머리방향과 신체의 진행 방향에 대해서 각각 감지하고 그에 대응하여 세부적으로 체감형 컨텐츠를 제어함으로써, 사용자가 체감형 컨텐츠를 이용함에 있어서 보다 현실감을 느낄 수 있다.According to the present invention, the sense of reality can be felt when the user uses the sensible-type content by sensing the head direction and the progress direction of the body, respectively, and controlling the sensible-type content in detail corresponding thereto.

도 1은 본 발명의 실시예에 따른 체감형 컨텐츠 제공 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 사용자 방향 인식 장치를 나타낸 구성도이다.
도 3은 본 발명의 실시예에 따른 사용자 방향 인식 장치의 사용자 방향 인식 방법을 나타낸 순서도이다.
도 4는 본 발명의 실시예에 따른 비콘 기반의 사용자 방향 인식 방법에 대해서 나타낸 예시도이다.
도 5는 본 발명의 실시예에 따른 사용자의 머리 방향과 신체의 진행 방향을 달리 적용하여 체감형 컨텐츠를 제공하는 방법을 설명하기 위한 도면이다.
1 is a diagram illustrating a system for providing a sensible content according to an embodiment of the present invention.
2 is a configuration diagram illustrating a user direction recognition apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a method of recognizing a user's direction in the user direction recognition apparatus according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a beacon-based user direction recognition method according to an embodiment of the present invention.
FIG. 5 is a view for explaining a method of providing haptic-type content by applying a head direction of a user and a moving direction of a body differently according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명의 실시예에 따른 체감형 컨텐츠 제공 시스템을 나타낸 도면이다. 1 is a diagram illustrating a system for providing a sensible content according to an embodiment of the present invention.

도 1에 나타난 것처럼, 본 발명의 실시예에 따른 체감형 컨텐츠 제공 시스템은 체감형 컨텐츠 제공 장치(100), 사용자 방향 인식 장치(200), 디스플레이(300a), 체감형 컨텐츠 조작 장치(300b), 비콘(400) 및 복수의 AP(500)를 포함한다. 1, the tangible content providing system according to the embodiment of the present invention includes a haptic-type content providing apparatus 100, a user direction recognizing apparatus 200, a display 300a, a haptic-type content manipulating apparatus 300b, A beacon 400, and a plurality of APs 500.

먼저, 체감형 컨텐츠 제공 장치(100)는 사용자의 행동과 상황에 반응하는 상호 작용 기술을 융합하여 생동감과 사실감을 극대화시킨 컨텐츠를 사용자에게 제공하는 스마트 디바이스이다.First, the sensible-contents-providing device 100 is a smart device that provides contents that maximize the feeling of life and realism by fusing an interaction technique that responds to a user's behavior and situation.

즉, 체감형 컨텐츠 제공 장치(100)는 증강현실 또는 가상현실과 같은 다양한 컨텐츠를 사용자에게 제공하고 해당 컨텐츠와 사용자간에 상호작용을 연결해주는 장치로 다양한 현장 교육 컨텐츠, e러닝 컨텐츠, 게임 컨텐츠등을 제공할 수 있다.That is, the haptic-type content providing apparatus 100 is a device that provides various contents such as augmented reality or virtual reality to a user and connects the interaction between the content and the user, and stores various on-site training contents, e-learning contents, .

특히, 직접 몸을 움직여 유사한 동작을 취하면서 게임을 제어하는 체감형 게임 컨텐츠를 제공할 수 있다. Particularly, it is possible to provide a sensible game content in which a game is controlled while directly moving the body to take a similar action.

그리고, 사용자 방향 인식 장치(200)는 복수의 비콘을 신체의 일부에 장착한 사람의 진행 방향을 인식하는 장치이다. The user direction recognizing device 200 is a device for recognizing the progress direction of a person wearing a plurality of beacons on a part of the body.

사용자 방향 인식 장치(200)는 적어도 2개의 비콘으로부터 수신되는 신호의 세기를 이용하여 비콘의 위치를 추정하고 추정된 위치를 잇는 직선 벡터와 직선 벡터와 직각을 이루는 법선 벡터를 추출하여 사용자의 신체가 향하는 진행 방향을 인식한다. The user's direction recognition apparatus 200 estimates the position of the beacon using the intensity of a signal received from at least two beacons and extracts a normal vector connecting the estimated position and a straight line with a straight line vector, And recognizes the direction of the heading.

이하에서는 사용자 방향은 사용자의 신체가 진행하고자 하는 진행 방향을 나타낸다.Hereinafter, the user direction indicates the direction in which the user's body wants to proceed.

사용자 방향 인식 장치(200)는 별도의 장치로 구성되거나 체감형 컨텐츠 제공 장치(100)에 내장될 수 있다. The user direction recognition device 200 may be a separate device or may be embedded in the haptic content providing device 100. [

디스플레이(300a)는 체감형 컨텐츠 제공 장치(100)으로부터 체감형 컨텐츠를 수신하여 디스플레이할 수 있는 장치를 나타내며, 모니터, TV, 스마트 글라스, 헤드마운트 등을 포함한다.The display 300a represents a device capable of receiving haptic content from the haptic content providing apparatus 100 and displaying the haptic content, and includes a monitor, a TV, a smart glass, and a head mount.

이하에서는 설명의 편의상 대표적으로 헤드마운트형 디스플레이(300a)로 나타내었으나 이에 한정하는 것은 아니다. Hereinafter, the head-mounted display 300a is used as a representative example for convenience of explanation, but the present invention is not limited thereto.

헤드마운트형 디스플레이(300a)는 사용자 머리 또는 눈에 장착되어 현장감을 얻을 수 있도록 한 소형 이미지 표시 장치로 체감형 컨텐츠를 사용자에게 제공한다. The head mount type display 300a is provided with a haptic content to the user with a small image display device mounted on the user's head or eyes to obtain a sense of presence.

즉, 헤드마운트형 디스플레이(300a)는 사용자의 양쪽 눈에 근접한 위치에 소형 디스플레이가 있어 시차를 이용한 삼차원 영상이 투영된다. 그리고 헤드마운트형 디스플레이(300a)는 사용자 머리 움직임을 트랙킹하는 자이로 센서를 포함하고, 사용자의 움직임에 따라 영상을 만드는 렌더링 기능을 통해 3D 공간에 있는 것 같은 가상 현실(VR) 또는 증강 현실(AR)을 사용자에게 제공할 수 있다.That is, the head-mounted display 300a has a small display at a position close to both eyes of the user, so that a three-dimensional image using the parallax is projected. The head-mounted display 300a includes a gyro sensor for tracking the movement of the user's head. A virtual reality (VR) or an augmented reality (AR) To the user.

체감형 컨텐츠 조작 장치(300b)는 디스플레이(300a)에 제공되는 체감형 컨텐츠에 대해서 사용자로부터 입력받은 신호에 대응하는 제어 신호를 생성하여 체감형 컨텐츠 제공 장치(100)로 전송한다. The haptic-type content manipulation apparatus 300b generates a control signal corresponding to a signal input from the user with respect to the haptic-type content provided on the display 300a and transmits the control signal to the haptic-type content providing apparatus 100. [

그리고 체감형 컨텐츠 조작 장치(300b)는 사용자의 신체에 장착되어 사용자의 움직임을 감지하고, 감지된 데이터에 대응하여 체감형 컨텐츠를 제어하는 신호를 생성 및 전송할 수 있다. 또는 체감형 컨텐츠 조작 장치(300b)는 조이스틱, 마우스, 스틱 등과 같이 사용자가 손으로 파지할 수 있는 도구로, 사용자로부터 신호를 입력받으면 이에 대응하는 제어 신호를 생성 및 전송할 수 있다. The sensible-content-content manipulation apparatus 300b may be mounted on a user's body to sense movement of the user and generate and transmit a signal for controlling the sensible-content in response to the sensed data. Alternatively, the haptic content manipulation apparatus 300b can be a tool that a user can grasp by hand such as a joystick, a mouse, a stick, etc., and can generate and transmit a corresponding control signal when receiving a signal from a user.

비콘(400)은 저전력 블루투스를 통한 근거리 통신 장치에 관한 것으로, 실내 공간에서 기 설치되어 있는 복수의 AP(500)로부터 신호를 수신하고 각 AP 신호세기 값을 사용자 방향 인식 장치(200)로 전달한다. The beacon 400 is related to a local communication device via low power Bluetooth. The beacon 400 receives a signal from a plurality of APs 500 installed in the indoor space, and transmits each AP signal intensity value to the user direction recognizing device 200 .

비콘(400)는 사용자 얼굴을 제외한 신체에 장착할 수 있도록 설계되었으며 사용자에 의해 특정 부분에 장착되거나 체감형 컨텐츠 조작 장치(300b)에 내장될 수 있다.The beacon 400 is designed to be mounted on a body other than a user's face, and can be mounted on a specific part by a user or embedded in the haptic-type content manipulating device 300b.

특히, 비콘(400)은 각 고유 ID를 가지고 있으며, 사용자 오른쪽 또는 사용자 왼쪽 부분을 표시되어, 각 표시된 사용자 신체 부분에 부착되도록 설정될 수 있다. In particular, the beacon 400 has a respective unique ID, and may be set to be attached to each displayed user body part, with the user right or user left part indicated.

AP(500)는 실내 공간에 고정된 장소에 설치되며, 무선 LAN에서 기지국 역할을 하는 소출력 무선기기를 나타낸다. AP(500)는 각 고유 ID 및 설치 위치에 대한 정보를 가지고 있으며, 각 동일한 신호의 세기를 송출한다. The AP 500 is installed in a fixed place in an indoor space and represents a small-output wireless device serving as a base station in a wireless LAN. The AP 500 has information on each unique ID and installation location, and transmits the intensity of each identical signal.

이와 같이 구성된 체감형 컨텐츠 제공 시스템은 무선 또는 유선 네트워크로 연결되어 서로 통신을 한다. The haptic content providing system configured as described above is connected to a wireless or wired network and communicates with each other.

여기서 무선 네트워크는 블루투스(Bluetooth), 지그비(Zigbee), NFC(Near Field Communication), 와이브리(Wibree)를 포함하는 근거리 무선 통신 네트워크를 이용할 수 있으며, 특정 방식에 국한되지 않는다. Here, the wireless network can use a short-range wireless communication network including Bluetooth, Zigbee, Near Field Communication (NFC), and Wibree, and is not limited to a specific method.

도 2는 본 발명의 실시예에 따른 사용자 방향 인식 장치를 나타낸 구성도이다. 2 is a configuration diagram illustrating a user direction recognition apparatus according to an embodiment of the present invention.

도 2에 나타낸 것처럼, 사용자 방향 인식 장치(200)는 비콘 위치 추정부(210), 벡터 추출부(220), 제어부(230)를 포함한다. 2, the user direction recognizing apparatus 200 includes a beacon position estimating unit 210, a vector extracting unit 220, and a controller 230.

비콘 위치 추정부(210)는 헤드 마운트형 디스플레이를 착용한 사용자 신체의 일측면에 장착된 제1 비콘과 사용자 신체의 타측면에 장착된 제2 비콘으로부터 수신한 RSSI 값을 통해 제1 비콘과 제2 비콘의 위치를 추정한다.The beacon position estimating unit 210 estimates the beacon position based on the RSSI value received from the first beacon mounted on one side of the user body wearing the head mounted display and the second beacon mounted on the other side of the user's body, 2 Estimate the location of the beacon.

이때, 제1 비콘 및 제2 비콘이 사용자의 신체 어느 부분에 장착되어 있는 지에 대한 정보와 사용자의 신체 정면의 방향에 대한 정보는 기 설정되어 있거나 사용자로부터 입력받을 수 있다. At this time, information on which part of the user's body the first beacon and the second beacon are attached to, and information on the direction of the user's body front face are pre-set or input from the user.

예를 들면, 제1 비콘은 오른쪽 측면에 제2 비콘은 왼쪽 측면에 착용되도록 기 설정될 수 있으며, 사용자가 오른쪽 측면에 제1 비콘을 장착하고 왼쪽 측면에 제2 비콘을 장착하면, 비콘 위치 추정부(210)는 각 비콘의 신호에 포함된 ID를 검출하여 각 비콘의 위치 및 방향을 분석하여 사용자의 정면을 추정할 수 있다.For example, the first beacon can be pre-set to be worn on the left side of the second beacon on the right side, and if the user mounts the first beacon on the right side and the second beacon on the left side, The controller 210 may detect the ID included in the signal of each beacon and estimate the front of the user by analyzing the position and direction of each beacon.

벡터 추출부(220)는 제1 비콘과 제2 비콘의 위치를 추정하면, 해당 위치를 지나는 직선 벡터를 추출하고, 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출한다. If the position of the first beacon and the second beacon is estimated, the vector extractor 220 extracts a straight line vector passing through the corresponding position and extracts a normal vector that is perpendicular to the extracted straight line vector.

제어부(230)는 추출된 법선 벡터를 이용하여 사용자의 신체가 향하는 방향을 추정한다. The control unit 230 estimates the direction of the user's body using the extracted normal vector.

그리고 제어부(230)는 사용자의 신체가 향하는 방향을 체감형 컨텐츠 제공 장치(100)로 전송한다. 이때, 제어부(230)는 체감형 컨텐츠 제공 장치(100)뿐 아니라 체감형 컨텐츠 조작 장치(300b)로도 사용자의 신체 진행 방향을 전송할 수 있다.The controller 230 transmits the direction of the body of the user to the haptic-type contents providing apparatus 100. At this time, the controller 230 can transmit the direction of the user's body to the sensible-contents-content providing apparatus 100 as well as the sensible-contents-content manipulating apparatus 300b.

도 3은 본 발명의 실시예에 따른 사용자 방향 인식 장치의 사용자 방향 인식 방법을 나타낸 순서도이고, 도 4는 본 발명의 실시예에 따른 비콘 기반의 사용자 방향 인식 방법에 대해서 나타낸 예시도이다. FIG. 3 is a flowchart illustrating a method of recognizing a user direction of a user direction recognition apparatus according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a beacon-based user direction recognition method according to an embodiment of the present invention.

먼저, 비콘 위치 추정부(210)는 사용자 신체의 일측면에 장착된 제1 비콘(400a)과 사용자 신체의 타측면에 장착된 제2 비콘(400b)으로부터 수신한 RSSI 값을 통해 제1 비콘(400a)과 제2 비콘(400b)의 위치를 추정한다(S310). First, the beacon position estimating unit 210 estimates the beacon position based on the RSSI value received from the first beacon 400a mounted on one side of the user's body and the second beacon 400b mounted on the other side of the user's body, 400a and the second beacon 400b (S310).

여기서, 제1 비콘(400a)과 제2 비콘(400b)가 사용자의 신체 어느 부분에 장착되어 있는지에 대한 비콘 정보 및 사용자 신체의 정면에 대한 방향 정보는 기 설정되거나 체감형 컨텐츠 조작 장치(400)를 통해 사용자로부터 입력받을 수 있다. The beacon information as to where the first beacon 400a and the second beacon 400b are mounted on the user's body and the direction information on the front face of the user's body may be stored in the pre- The user can receive input from the user through the user interface.

그리고 제1 비콘(400a)과 제2 비콘(400b)은 사용자의 상체 부분인 양쪽 어깨 또는 양쪽 허리에 장착될 수 있다. The first beacon 400a and the second beacon 400b may be mounted on both shoulders or both waists which are the upper part of the user.

비콘 위치 추정부(210)는 공간 내에 고정되어 설치된 복수의 AP(500)으로부터 제1 비콘(400a) 및 제2 비콘(400b)이 수신한 RSSI 값에 대하여 삼각 측량법을 이용하여 제1 비콘(400a) 및 제2 비콘(400b)의 위치를 추정할 수 있다. The beacon position estimating unit 210 estimates the RSSI values received by the first beacon 400a and the second beacon 400b from a plurality of APs 500 fixed in the space using the triangulation method using the first beacon 400a And the position of the second beacon 400b.

도 4와 같이, 3개의 AP(500:AP1, AP2, AP3)가 설치된 실내 공간에서 사용자 오른쪽 허리에 장착된 제1 비콘(br, 400a)와 사용자 왼쪽 허리에 장착된 제2 비콘(bl, 400b)를 통해 사용자 방향을 인식한다고 가정한다. As shown in FIG. 4, a first beacon (br 400a) mounted on the right waist of the user and a second beacon (bl 400b) mounted on the left waist of the user in an indoor space provided with three APs 500 (AP1, AP2, AP3) ) To recognize the user's direction.

도 4에서의 실내 공간 안에 3개의 AP(500:AP1, AP2, AP3)는 각각 기준점으로 설정되며 비콘(400a, 400b)은 각 AP로부터 수신되는 신호의 세기(RSSI)값을 이용하여 해당 AP와의 거리를 추정한다. 3, the three APs 500 (AP1, AP2, and AP3) are set as reference points, and the beacons 400a and 400b communicate with APs using the RSSI values received from the APs. Estimate the distance.

그리고 비콘 위치 추정부(210)는 각 AP(500)의 설치 위치 정보와 각 AP(500)에서 각 비콘(400a, 400b)과의 추정된 거리를 이용하여 각 비콘(400a, 400b)의 위치를 추정할 수 있다. The beacon position estimating unit 210 estimates the positions of the beacons 400a and 400b using the installation location information of each AP 500 and the estimated distances between the beacons 400a and 400b in each AP 500 Can be estimated.

다음으로, 벡터 추출부(220)는 제1 비콘(400a)과 제2 비콘(400b)을 지나는 직선 벡터를 추출하고 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출한다(S320). Next, the vector extracting unit 220 extracts a straight line passing through the first beacon 400a and the second beacon 400b, and extracts a normal vector perpendicular to the extracted straight line vector (S320).

도 4의 (A), (B)와 같이, 벡터 추출부(220)는 제1 비콘(400a)로부터 제2 비콘(400b)를 지나는 직선 벡터를 추출하고, 추출한 직선 벡터에서 중심점에서 직각을 이루는 법선 벡터를 추출한다. 4A and 4B, the vector extracting unit 220 extracts a straight line passing through the second beacon 400b from the first beacon 400a and extracts a straight line vector that is perpendicular to the center point The normal vector is extracted.

그리고, 제어부(230)는 법선 벡터를 이용하여 사용자의 신체가 진행하고자 하는 진행 방향을 추정한다(S330).Then, the controller 230 estimates the traveling direction of the user's body using the normal vector (S330).

제어부(230)는 앞서 기 설정되거나 입력받은 사용자 신체의 정면에 대한 방향 정보에 대응되는 법선 벡터를 사용자의 신체가 향하는 방향으로 추정할 수 있다. The control unit 230 can estimate the normal vector corresponding to the direction information on the front face of the user body previously set or inputted in the direction that the user's body is facing.

이와 같이, 사용자 방향 인식 장치(200)가 사용자 신체의 진행 방향을 추정하면 체감형 컨텐츠를 제공함에 있어서, 체감형 컨텐츠 제공 장치(100)는 사용자의 신체가 향하는 방향에 대응하는 영상을 연계된 디스플레이(300a)를 통해 출력할 수 있다. 또한 사용자로부터 체감형 컨텐츠 제어 신호가 입력된 경우, 체감형 컨텐츠 제공 장치(100)는 제어 신호가 사용자의 신체 진행 방향에 대응되는 신호인 것으로 인식할 수 있다. As described above, when the user's direction recognition apparatus 200 estimates the direction of the user's body, the haptic-type content providing apparatus 100 provides an image corresponding to the direction of the body of the user to a linked display (300a). Further, when the user inputs a sensible-content control signal, the sensible-content-providing device 100 can recognize that the control signal is a signal corresponding to the direction of the user's body.

사용자의 시선 방향의 화면을 제공하거나 체감형 컨텐츠 제어 신호가 사용자 신체의 진행 방향인 법선 벡터에 대응하는 방향으로 출력되는 것으로 인식할 수 있다. It is possible to provide a screen of the user's gaze direction or to recognize that the haptic content control signal is output in a direction corresponding to the normal vector which is the traveling direction of the user's body.

즉, 체감형 컨텐츠 제공 장치(100)는 사용자 방향 인식 장치(200)를 하나의 독립적인 입력 장치로 활용할 수 있다. That is, the sensible-contents-providing apparatus 100 can utilize the user direction recognizing apparatus 200 as one independent input apparatus.

또한, 사용자가 체감형 컨텐츠 제공 장치(100)와 연계된 헤드마운트형 디스플레이(300a)를 착용한 경우, 체감형 컨텐츠 제공 장치(100)는 사용자 방향 인식 장치(200)로부터 추정하는 사용자 신체 진행방향과 헤드마운트형 디스플레이(300a)로부터 측정된 사용자의 머리 방향을 별도로 인식한다. In addition, when the user wears the head-mounted display 300a associated with the sensible-contents-providing device 100, the sensible-content-providing device 100 displays the direction of the user's body And the head direction of the user measured from the head-mounted display 300a.

일반적으로 체감형 컨테츠를 제공하는 방법에서는 헤드마운트형 디스플레이(300a)에서 감지된 사용자 머리 방향에 대응하는 시선 방향으로 화면을 표시하면서 체감형 컨텐츠에서의 총구의 방향도 함께 이동한다. In general, in the method of providing the sensory-feeling-type contents, the direction of the muzzle in the sensible-type content is also moved while displaying the screen in the sight line direction corresponding to the user's head direction sensed by the head-mounted display 300a.

즉, 체감형 컨텐츠 제공 장치(100)는 헤드마운트형 디스플레이(300a)로 사용자의 머리 방향에 대응되는 시선 방향의 화면을 제공하지만, 사용자로부터 체감형 컨텐츠 조작 장치(400)를 통해 제어 신호를 입력받으면, 입력받은 제어 신호는 사용자신체의 진행 방향으로 출력되도록 제어할 수 있다. That is, the haptic-type content providing apparatus 100 provides a screen in the direction of the eyes corresponding to the head direction of the user with the head-mounted display 300a, but inputs a control signal from the user through the haptic- The received control signal can be controlled so as to be outputted in the traveling direction of the user's body.

도 5는 본 발명의 실시예에 따른 사용자의 머리 방향과 신체의 진행 방향을 달리 적용하여 체감형 컨텐츠를 제공하는 방법을 설명하기 위한 도면이다. FIG. 5 is a view for explaining a method of providing haptic-type content by applying a head direction of a user and a moving direction of a body differently according to an embodiment of the present invention.

설명의 편의상 제공되는 체감형 컨텐츠는 FPS(First Person Shooting)으로 1인칭 슈팅 게임이라고 가정하여 설명한다. For the sake of convenience of explanation, the tangible content is assumed to be a first-person shooter with FPS (First Person Shooting).

사용자는 총기 모형인 체감형 컨텐츠 조작 장치(400)를 조작하여 상대방을 총기로 공격하여 섬멸하는 슈팅 게임을 진행하며, 헤드마운트형 디스플레이(300a)는 1인칭 시점의 슈팅 장면 및 슈팅 게임의 배경화면을 디스프레이한다. The user operates the sensible-style content manipulation apparatus 400, which is a firearm model, to attack and fire the opponent with a firearm. The head-mounted display 300a displays a shooting scene of a first-person shooter, Lt; / RTI >

여기서, 헤드마운트형 디스플레이(300a)는 사용자 머리 움직임을 감지하여 사용자의 머리가 움직이는 방향에 대응하는 시선 방향의 화면을 제공한다.Here, the head-mounted display 300a senses the movement of the user's head and provides a screen in the viewing direction corresponding to the direction in which the user's head moves.

도 5는 설명의 편의상 도시한 체험형 컨텐츠에서 제공하는 전체 시뮬레이션을 나타낸 예시도로 실제 사용자가 착용한 헤드마운트형 디스플레이(300a)에는 사용자의 시선 방향인 표시영역 B가 디스플레이된다. 그리고 도 5의 화살표 A 방향은 슈팅 게임에서의 총구 방향을 나타내며, 도 5의 (c)에서 화살표 C 방향은 헤드마운트형 디스프레이(300a)에 디스플레이되는 B 영역의 중심축 방향을 나타낸다. 5 is a diagram illustrating an entire simulation provided by the illustrated experiential content for the sake of explanation. In the head-mounted display 300a worn by an actual user, a display area B, which is the direction of the user's gaze, is displayed. The direction of arrow A in Fig. 5 represents the muzzle direction in the shooting game, and the direction of arrow C in Fig. 5 (c) represents the direction of the central axis of the B area displayed on the head-mounted display 300a.

먼저, 도 5의 (a)는 사용자 신체의 진행 방향 및 얼굴 방향이 전방을 바라보는 상태를 나타내고, 도 5의 (b)는 사용자 신체의 진행 방향은 전방을 향하고 사용자의 얼굴은 왼쪽을 바라보고 있는 상태를 나타낸다. 그리고 도 5의 (c)는 (b) 예시도와 같은 상황에서 사용자 신체가 진행하고자 하는 방향과 사용자의 시선 방향을 나타낸다.5 (a) shows the forward direction and the face direction of the user's body looking forward, FIG. 5 (b) shows the user's body's front direction and the user's face is looking to the left . And FIG. 5 (c) shows the direction in which the user body wants to proceed and the direction of the user's gaze in the same situation as the example (b).

도 5의 (B)와 (C)에서와 같이 사용자의 머리 및 신체가 전방 향해 위치하면서 슈팅게임을 진행하다가 신체는 움직이지 않고 머리를 왼쪽 방향으로 움직이는 경우, 체감형 컨텐츠에서도 동일하게 슈팅게임 사용자의 총구 방향(A 방향)은 바뀌지 않으며 사용자의 시선(C 방향)만 왼쪽 방향으로 이동하여 해당 체감형 컨텐츠를 표시한다. As shown in FIGS. 5B and 5C, when the user's head and body are positioned forward and the body is not moving and the head is moved to the left while the shooting game is being performed, The direction of the muzzle (A direction) of the user does not change and only the user's gaze (C direction) moves to the left direction to display the corresponding haptic-type content.

예를 들어 사용자의 신체가 정면을 향해 있고 사용자의 머리 방향만 왼쪽으로 이동한 상태에서 체감형 컨텐츠 조작 장치(400)를 통해 총을 쏜 경우, 헤드마운트형 디스플레이(300a)에는 사용자 머리의 이동 방향인 C 방향에 대응되는 시선으로 화면이 표시되고, 총에서 발사되는 방향은 A 방향(사용자 신체 진행 방향)이 된다. For example, when a user shoots a gun through the haptic-type content manipulation apparatus 400 while the user's body is facing the front and only the head direction of the user is moved to the left, the head-mounted display 300a displays a moving direction The screen is displayed with a line of sight corresponding to the direction C, and the direction of shooting from the gun is the direction A (direction of the user's body).

이와 같이 본 발명의 실시예에 따르면, 머리방향과 신체의 진행방향에 대해서 각각 감지하고 그에 대응하여 세부적으로 체감형 컨텐츠를 제어함으로써, 사용자가 체감형 컨텐츠를 이용함에 있어서 보다 현실감을 느낄 수 있다.As described above, according to the embodiment of the present invention, the sense of reality can be felt when the user uses the sensible-type content by sensing the head direction and the progress direction of the body and controlling the sensible-type content in detail corresponding thereto.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 체감형 컨텐츠 제공 장치 200: 사용자 방향 인식 장치
210: 비콘 위치 추정부 220: 벡터 추출부
230: 제어부 300a: 디스플레이
300b: 체감형 컨텐츠 조작 장치 400(400a, 400b): 비콘
500: AP
100: a sensible-contents-providing device 200: a user direction recognition device
210: Beacon position estimator 220: Vector extractor
230: control unit 300a: display
300b: a sensible contents manipulation apparatus 400 (400a, 400b): a beacon
500: AP

Claims (10)

체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치에 있어서,
사용자 신체의 일측면에 장착된 제1 비콘과 상기 사용자 신체의 타측면에 장착된 제2 비콘으로부터 수신한 RSSI 값을 통해 제1 비콘과 제2 비콘의 위치를 추정하는 비콘 위치 추정부,
상기 제1 비콘과 제2 비콘을 지나는 직선 벡터를 추출하고 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출하는 벡터 추출부, 그리고
상기 법선 벡터를 이용하여 상기 사용자의 신체가 향하는 방향을 추정하여 상기 체감형 컨텐츠 제공 장치로 전송하는 제어부를 포함하는 사용자 방향 인식 장치.
A beacon-based user direction recognition device associated with a tangible content providing device,
A beacon position estimating unit estimating a position of the first beacon and the second beacon based on RSSI values received from a first beacon mounted on one side of the user's body and a second beacon mounted on the other side of the user's body,
A vector extractor for extracting a linear vector passing through the first beacon and the second beacon and extracting a normal vector at a right angle to the extracted linear vector,
And a controller for estimating a direction of the body of the user using the normal vector and transmitting the estimated direction to the haptic-type contents providing apparatus.
제1항에 있어서,
상기 비콘 위치 추정부는
공간 내에 설치된 복수의 AP으로부터 제1 비콘 및 제2 비콘이 수신한 RSSI 값에 대하여 삼각 측량법을 이용하여 제1 비콘 및 제2 비콘의 위치를 추정하는 사용자 방향 인식 장치.
The method according to claim 1,
The beacon position estimation unit
And estimates a position of the first beacon and the second beacon using triangulation with respect to RSSI values received by the first beacon and the second beacon from a plurality of APs installed in the space.
제1항에 있어서,
상기 체감형 컨텐츠 제공 장치는,
상기 사용자의 신체가 향하는 방향에 대응하는 영상을 연계된 디스플레이를 통하여 출력하는 사용자 방향 인식 장치.
The method according to claim 1,
The haptic-type content providing apparatus (100)
And outputs an image corresponding to a direction of the body of the user through a linked display.
제1항에 있어서,
상기 사용자가 상기 체감형 컨텐츠 제공 장치와 연계된 헤드마운트형 디스플레이를 착용한 경우,
상기 헤드마운트형 디스플레이는 상기 체감형 컨텐츠 제공 장치로부터 제공되는 화면을 사용자에게 제공하며,
상기 사용자의 얼굴이 향하는 방향에 대응하는 사용자의 시선 방향의 화면을 제공하는 사용자 방향 인식 장치.
The method according to claim 1,
When the user wears a head-mounted display associated with the sensible-contents-providing apparatus,
Wherein the head mount type display provides a screen provided from the tangible content providing apparatus to a user,
And provides a screen of the user's gaze direction corresponding to a direction of the face of the user.
제4항에 있어서,
상기 사용자의 신체에 체감형 컨텐츠 조작 장치가 부착되어 있거나 사용자가 상기 체감형 컨텐츠 조작 장치를 파지하고 있는 경우,
상기 사용자가 체감형 컨텐츠 조작 장치를 통하여 상기 체감형 컨텐츠 제공 장치에 제어 신호를 출력하면, 상기 체감형 컨텐츠 제공 장치는 상기 제어 신호가 상기 사용자의 신체 진행 방향에 대응되는 신호인 것으로 인식하는 사용자 방향 인식 장치.
5. The method of claim 4,
When the user's body is attached to the haptic-type content manipulation apparatus or the user grips the haptic-type content manipulation apparatus,
When the user outputs a control signal to the sensible-contents-content providing apparatus via the sensible-contents-content manipulating apparatus, the sensible-contents-providing apparatus transmits the control signal to the user direction recognizing the control signal as a signal corresponding to the body- Recognition device.
체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치를 이용한 사용자 방향 인식 방법에 있어서,
사용자 신체의 일측면에 장착된 제1 비콘과 상기 사용자 신체의 타측면에 장착된 제2 비콘으로부터 수신한 RSSI 값을 통해 제1 비콘과 제2 비콘의 위치를 추정하는 단계,
상기 제1 비콘과 제2 비콘을 지나는 직선 벡터를 추출하고 추출된 직선 벡터에 대하여 직각을 이루는 법선 벡터를 추출하는 단계, 그리고
상기 법선 벡터를 이용하여 상기 사용자의 신체가 향하는 방향을 추정하여 상기 체감형 컨텐츠 제공 장치로 전송하는 단계를 포함하는 사용자 방향 인식 방법.
A user direction recognition method using a beacon-based user direction recognition device associated with a tangible content providing device,
Estimating a position of the first beacon and the second beacon based on RSSI values received from a first beacon mounted on one side of the user's body and a second beacon mounted on the other side of the user's body,
Extracting a straight line passing through the first beacon and the second beacon and extracting a normal vector at a right angle to the extracted straight line vector, and
And estimating a direction of the user's body using the normal vector and transmitting the estimated direction to the haptic-type contents providing apparatus.
제6항에 있어서,
상기 비콘 위치 추정하는 단계는
공간 내에 설치된 복수의 AP으로부터 제1 비콘 및 제2 비콘이 수신한 RSSI 값에 대하여 삼각 측량법을 이용하여 제1 비콘 및 제2 비콘의 위치를 추정하는 사용자 방향 인식 방법.
The method according to claim 6,
The step of estimating the beacon position
And estimating a position of the first beacon and the second beacon using triangulation with respect to RSSI values received by the first beacon and the second beacon from a plurality of APs installed in the space.
제6항에 있어서,
상기 체감형 컨텐츠 제공 장치는,
상기 사용자의 신체가 향하는 방향에 대응하는 영상을 연계된 디스플레이를통하여 출력하는 사용자 방향 인식 방법.
The method according to claim 6,
The haptic-type content providing apparatus (100)
And outputting an image corresponding to a direction of the body of the user through a linked display.
제6항에 있어서,
상기 사용자가 상기 체감형 컨텐츠 제공 장치와 연계된 헤드마운트형 디스플레이를 착용한 경우,
상기 헤드마운트형 디스플레이는 상기 체감형 컨텐츠 제공 장치로부터 제공되는 화면을 사용자에게 제공하며,
상기 사용자의 얼굴이 향하는 방향에 대응하는 사용자의 시선 방향의 화면을 제공하는 사용자 방향 인식 방법.
The method according to claim 6,
When the user wears a head-mounted display associated with the sensible-contents-providing apparatus,
Wherein the head mount type display provides a screen provided from the tangible content providing apparatus to a user,
And providing a screen of the user's gaze direction corresponding to a direction of the face of the user.
제9항에 있어서,
상기 사용자의 신체에 체감형 컨텐츠 조작 장치가 부착되어 있거나 사용자가 상기 체감형 컨텐츠 조작 장치를 파지하고 있는 경우,
상기 사용자가 체감형 컨텐츠 조작 장치를 통하여 상기 체감형 컨텐츠 제공 장치에 제어 신호를 출력하면, 상기 체감형 컨텐츠 제공 장치는 상기 제어 신호가 상기 사용자의 신체 진행 방향에 대응되는 신호인 것으로 인식하는 사용자 방향 인식 방법.
10. The method of claim 9,
When the user's body is attached to the haptic-type content manipulation apparatus or the user grips the haptic-type content manipulation apparatus,
When the user outputs a control signal to the sensible-contents-content providing apparatus via the sensible-contents-content manipulating apparatus, the sensible-contents-providing apparatus transmits the control signal to the user direction recognizing the control signal as a signal corresponding to the body- Recognition method.
KR1020160160108A 2016-11-29 2016-11-29 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof KR101905272B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160160108A KR101905272B1 (en) 2016-11-29 2016-11-29 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160160108A KR101905272B1 (en) 2016-11-29 2016-11-29 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20180060534A true KR20180060534A (en) 2018-06-07
KR101905272B1 KR101905272B1 (en) 2018-10-05

Family

ID=62622038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160160108A KR101905272B1 (en) 2016-11-29 2016-11-29 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR101905272B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210019235A (en) 2019-08-12 2021-02-22 주식회사 포리버 System and method for providing user responsive sensor-based experience content
KR102582012B1 (en) 2023-06-15 2023-09-22 주식회사 이노테크미디어 sports simulator and multi-party participants realistic contents system using thereof
KR102624214B1 (en) 2023-06-23 2024-01-12 주식회사 이노테크미디어 VR simulator and realistic contents system using thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120015000A (en) * 2010-08-11 2012-02-21 중앙대학교 산학협력단 3-dimensional position tracking system and method thereof
JP2012181792A (en) * 2011-03-03 2012-09-20 Nikon Corp Finger input device
KR20150053311A (en) * 2013-11-07 2015-05-18 목포대학교산학협력단 Effective Indoor Positioning Method in Wireless Sensor Network
KR20160033376A (en) * 2014-09-18 2016-03-28 (주)에프엑스기어 Head-mounted display controlled by line of sight, method for controlling the same and computer program for controlling the same
KR20160107788A (en) * 2015-03-05 2016-09-19 계명대학교 산학협력단 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120015000A (en) * 2010-08-11 2012-02-21 중앙대학교 산학협력단 3-dimensional position tracking system and method thereof
JP2012181792A (en) * 2011-03-03 2012-09-20 Nikon Corp Finger input device
KR20150053311A (en) * 2013-11-07 2015-05-18 목포대학교산학협력단 Effective Indoor Positioning Method in Wireless Sensor Network
KR20160033376A (en) * 2014-09-18 2016-03-28 (주)에프엑스기어 Head-mounted display controlled by line of sight, method for controlling the same and computer program for controlling the same
KR20160107788A (en) * 2015-03-05 2016-09-19 계명대학교 산학협력단 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof

Also Published As

Publication number Publication date
KR101905272B1 (en) 2018-10-05

Similar Documents

Publication Publication Date Title
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US9898872B2 (en) Mobile tele-immersive gameplay
US9892563B2 (en) System and method for generating a mixed reality environment
CN109643014B (en) Head mounted display tracking
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
CN106796453B (en) Driving a projector to generate a shared space augmented reality experience
CN105608746B (en) A method of reality is subjected to Virtual Realization
EP2579128B1 (en) Portable device, virtual reality system and method
JP2019505926A (en) System and method for augmented reality
KR101713223B1 (en) Apparatus for realizing virtual reality
CN105807931A (en) Realization method of virtual reality
WO2014204330A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
KR20200123049A (en) Virtual reality control system
EP2221707A1 (en) System and method for providing user interaction with projected three-dimensional environments
KR101905272B1 (en) Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof
CN105824416A (en) Method for combining virtual reality technique with cloud service technique
CN105824417B (en) human-object combination method adopting virtual reality technology
EP3734423B1 (en) Camera-based location of optically detectable markers
KR20190098472A (en) System and method of virtual reality multi motion simulation using beacon signal
KR20160124985A (en) Method for providing mixed reality experience space
CN105797379A (en) Game video processing method based on virtual reality technology
KR101360888B1 (en) A communication mobile terminal providing virtual-reality connecting offline action and tele-game method therefor
Yuan et al. Virtual fire drill system supporting co-located collaboration
KR101610706B1 (en) Simulation apparatus for virtual experience
KR20190113453A (en) Method and apparatus for controling head mounted device and rider device in virtual reality system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right