KR20220157872A - Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof - Google Patents

Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof Download PDF

Info

Publication number
KR20220157872A
KR20220157872A KR1020220045144A KR20220045144A KR20220157872A KR 20220157872 A KR20220157872 A KR 20220157872A KR 1020220045144 A KR1020220045144 A KR 1020220045144A KR 20220045144 A KR20220045144 A KR 20220045144A KR 20220157872 A KR20220157872 A KR 20220157872A
Authority
KR
South Korea
Prior art keywords
gesture
performance
augmented reality
performer
content
Prior art date
Application number
KR1020220045144A
Other languages
Korean (ko)
Other versions
KR102569419B1 (en
Inventor
신동훈
Original Assignee
주식회사 버드핸드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버드핸드 filed Critical 주식회사 버드핸드
Priority to KR1020220045144A priority Critical patent/KR102569419B1/en
Publication of KR20220157872A publication Critical patent/KR20220157872A/en
Application granted granted Critical
Publication of KR102569419B1 publication Critical patent/KR102569419B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)

Abstract

The embodiments relate to a performance content providing device based on an augmented reality that supports a technology for correcting a visual difference according to a viewing position of a user and an operating method therefor. Specifically, the embodiments relate to a method for controlling an augmented reality content according to the viewing position of the user that enable various augmented reality contents to be synthesized with a performance image, in accordance with a gesture of a performer, to generate a performance content; and the device thereof. The method comprises: a step of generating a gesture recognition signal; a step of determining; a step of selecting a performance image; a step of selecting an augmented reality content; a step of controlling; and a step of generating a performance content.

Description

사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법{AUGMENTED REALITY-BASED PERFORMANCE CONTENT PROVIDING DEVICE THAT SUPPORTS A TECHNOLOGY FOR CORRECTING A VISUAL DIFFERENCE ACCORDING TO A USER'S VIEWING POSITION AND PERFORMING METHOD THEREOF}Apparatus for providing augmented reality-based performance contents supporting technology for compensating for visual difference according to user's viewing position, and method for providing the same AND PERFORMING METHOD THEREOF}

아래 실시예들은 증강현실 기반 공연 컨텐츠 제공 방법 및 장치에 관한 것으로, 구체적으로 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법에 관한 것이다.The following embodiments relate to a method and apparatus for providing augmented reality-based performance contents, and more specifically, to an augmented reality-based performance contents providing apparatus and operation method supporting a technology for correcting a visual difference according to a viewing position of a user.

최근 스마트폰 등 다양한 매체를 실행하고 제공할 수 있는 모바일 기기의 보급으로 사용자에게 컨텐츠를 제공하는 방법이 다양해지고 있다. 이러한 컨텐츠들은 효율성과 편의성의 관점에서 인간과 컴퓨터 사이의 상호작용에 관한 기술 수요의 증대로 이어지면서, HCI(Human Computer Interaction)의 한 분야인 증강현실이 큰 주목을 받고 있으며, 특히 모바일 증강현실(Mobile Augmented Reality)에 관한 관심이 고조되고 있다.Recently, with the spread of mobile devices capable of executing and providing various media such as smart phones, methods of providing content to users are diversifying. As these contents lead to an increase in technology demand for human-computer interaction from the viewpoint of efficiency and convenience, augmented reality, a field of HCI (Human Computer Interaction), is receiving great attention, especially mobile augmented reality ( Interest in Mobile Augmented Reality) is growing.

증강현실(Augmented Reality)이란 가상현실(Virtual Reality)과 달리, 현실세계의 이미지와 가상세계의 이미지를 융합하여 사용자에게 제공되는 환경을 의미한다. 일반적으로 증강현실에 나타나는 가상세계의 이미지는 컴퓨터 그래픽을 활용하며, 현실세계의 이미지에 추가적으로 정보를 제공하는 역할을 한다.Unlike virtual reality, augmented reality refers to an environment provided to users by fusing images of the real world and images of the virtual world. In general, the image of the virtual world appearing in augmented reality utilizes computer graphics and serves to provide additional information to the image of the real world.

종래에 사용자에게 증강현실을 이용하여 제공하는 컨텐츠로써, 모바일 기기의 카메라에 비춰지는 현실 이미지에 GPS, GNSS 등으로 사용자의 위치정보를 추출하여, 추출된 위치정보에서 광고, 네비게이션 정보 등을 제공하기도 하며, 다양한 방면에서 증강현실 컨텐츠를 활용하여 사용자에게 서비스를 제공하고 있다.Conventionally, as content provided to users using augmented reality, location information of the user is extracted from a real image projected on a camera of a mobile device by GPS, GNSS, etc., and advertisements, navigation information, etc. are provided from the extracted location information. and provides services to users by utilizing augmented reality contents in various fields.

최근 공연계에서도 증강현실을 이용하여 사용자에게 공연 좌석을 안내하거나 공연 정보를 제공하는 등의 증강현실 기술이 선보이고 있으나, 이는 증강현실을 제한적으로 이용하는데 그치고 있다. 따라서 공연을 관람하는 사용자에게 현실감있는 공연 컨텐츠를 제공하기 위해 증강현실을 다양하게 적용시킬 수 있는 연구의 필요성이 대두되고 있었다.Recently, augmented reality technologies such as guiding users to performance seats or providing performance information using augmented reality have been introduced in the performance world, but this has limited the use of augmented reality. Therefore, the need for research that can apply augmented reality in various ways to provide realistic performance contents to users watching performances has emerged.

이 배경기술 부분에 기재된 사항은 발명의 배경에 대한 이해를 증진하기 위하여 작성된 것으로써, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.Matters described in this background art section are prepared to enhance understanding of the background of the invention, and may include matters other than prior art already known to those skilled in the art to which this technique belongs.

아래 실시예들은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 장치 및 그 동작 방법을 제공하는 것을 목적으로 한다.The following embodiments have been devised to solve the above-mentioned problems, and an object of the present invention is to provide an augmented reality-based performance content providing apparatus and operation method supporting a technology for correcting a visual difference according to a viewing position of a user.

일 실시예가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by one embodiment are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 일 실시예는 사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 증강현실 기반 공연 컨텐츠 제공 방법 및 장치를 제공한다.An embodiment for achieving the above object provides a method and apparatus for providing augmented reality-based performance content that supports a technology for correcting a visual difference according to a viewing position of a user.

일 실시예는 프로세서를 포함하는 공연 컨텐츠 제공 장치의 동작 방법으로, 상기 프로세서는 공연자 제스처를 인식하여 제스처 인식 신호를 생성하는 단계; 상기 프로세서는 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처 인지 판단하는 단계; 상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 프로세서는 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계; 상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 프로세서는 상기 제 2 제스처에 기초하여 가상현실 컨텐츠를 선택하는 단계; 및 상기 프로세서는 상기 공연 영상과 가상현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하는 공연 컨텐츠 제공 장치의 동작 방법을 제공한다.One embodiment is an operating method of a performance content providing apparatus including a processor, comprising: generating, by the processor, a gesture recognition signal by recognizing a performer's gesture; analyzing, by the processor, the gesture recognition signal and determining whether the performer's gesture is a preset first gesture or a preset second gesture; selecting, by the processor, a performance image from at least one camera image based on the first gesture when the performer's gesture is the first gesture; selecting, by the processor, virtual reality content based on the second gesture when the performer's gesture is the second gesture; and generating, by the processor, performance content by overlaying the performance video and virtual reality content.

일 실시예는 상기 공연 영상 선택 단계는 상기 프로세서는 상기 제 1 제스처의 지시 방향 및 각도 중 적어도 하나를 이용하여, 상기 적어도 하나의 카메라 영상에서 상기 공연 영상을 선택하고, 상기 가상현실 컨텐츠 선택 단계는 상기 프로세서는 기 저장된 맵핑 테이블을 이용하여, 상기 제 2 제스처에 대응하는 상기 가상현실 컨텐츠를 선택한다.In an exemplary embodiment, in the selecting of the performance image, the processor selects the performance image from the at least one camera image using at least one of a direction and an angle indicated by the first gesture, and the selecting of virtual reality content includes: The processor selects the virtual reality content corresponding to the second gesture using a pre-stored mapping table.

일 실시예는 상기 제스처 판단 단계는 상기 프로세서는 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 제 3 제스처 인지 판단하고, 상기 공연자 제스처가 상기 제 3 제스처인 경우, 상기 프로세서는 상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계를 더 포함한다.According to an embodiment, in the gesture determining step, the processor analyzes the gesture recognition signal to determine whether the performer's gesture is a third gesture, and if the performer's gesture is the third gesture, the processor determines whether the performer's gesture is the third gesture. and controlling the performance equipment based on the method.

일 실시예는 상기 프로세서는 사용자의 관람 위치 정보를 수신하는 단계; 상기 프로세서는 상기 관람 위치 정보에 기초하여, 상기 증강현실 컨텐츠를 제어하는 단계; 상기 프로세서는 상기 관람 위치 움직임 정보를 수신하는 단계; 및 상기 프로세서는 상기 관람 위치 움직임 정보에 기초하여, 상기 증강현실 컨텐츠를 제어하는 단계를 더 포함하고, 상기 증강현실 컨텐츠 제어 단계는 상기 프로세서는 상기 증강현실 컨텐츠의 위치, 크기 및 기울기 중 적어도 하나를 조정한다.In one embodiment, the processor receives viewing location information of the user; controlling, by the processor, the augmented reality content based on the viewing location information; receiving, by the processor, motion information of the viewing position; and controlling, by the processor, the augmented reality content based on the viewing position movement information, wherein the controlling the augmented reality content includes the processor controlling at least one of a position, a size, and an inclination of the augmented reality content. Adjust.

일 실시예는 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instuctions)을 저장하는 메모리(memory)를 포함하는, 공연 컨텐츠 제공 장치로서, 상기 적어도 하나의 동작은, 공연자 제스처를 인식하여 제스처 인식 신호를 생성하는 단계; 상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처 인지 판단하는 단계; 상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계; 상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 제 2 제스처에 기초하여 가상현실 컨텐츠를 선택하는 단계; 및 상기 공연 영상과 가상현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하는, 공연 컨텐츠 제공 장치를 제공한다.One embodiment includes at least one processor; and a memory for storing instructions for instructing the at least one processor to perform at least one operation, wherein the at least one operation comprises: a performer gesture recognizing and generating a gesture recognition signal; analyzing the gesture recognition signal and determining whether the performer's gesture is a preset first gesture or second gesture; selecting a performance image from at least one camera image based on the first gesture when the performer's gesture is the first gesture; selecting virtual reality content based on the second gesture when the performer's gesture is the second gesture; and generating performance content by overlaying the performance video and virtual reality content.

이상에서 설명한 바와 같은 일 실시예들에 따르면, 공연자의 제스처에 따라 공연 영상에 다양한 증강현실 컨텐츠를 합성함으로써, 공연자가 원하는 공연 컨텐츠를 자유롭게 실시간으로 생성할 수 있다.According to one embodiment as described above, by combining various augmented reality contents with a performance image according to a performer's gesture, the performer's desired performance content can be freely created in real time.

그리고 일 실시예에 따르면, 실제 공연과 가상현실을 융합하여 사용자의 몰입감을 향상시키고, 실제 공연에서 연출할 수 없었던 다양한 장면과 무대 효과를 사용자에게 제공할 수 있다.According to an embodiment, a user's sense of immersion may be improved by converging a real performance and virtual reality, and various scenes and stage effects that could not be produced in a real performance may be provided to the user.

그리고 일 실시예에 따르면, 사용자의 관람 위치에 기초하여 사용자 맞춤형 공연 컨텐츠를 생성하여 제공할 수 있다.According to an embodiment, user-customized performance content may be generated and provided based on the viewing position of the user.

일 실시예의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of one embodiment are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 공연 컨텐츠 제공 장치가 설치된 공연장을 도시한 도면이다.
도 3은 일 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 4는 일 실시예에 따른 제어부의 구성도이다.
도 5은 일 실시예에 따른 제스처를 이용한 공연 컨텐츠 생성 방법의 흐름도이다.
도 6은 일 실시예에 따른 방송 장비 제어 방법의 흐름도이다.
도 7은 다른 실시예에 따른 공연 컨텐츠 제공 장치의 구성도이다.
도 8은 다른 실시예에 따른 공연 컨텐츠 제공 방법의 흐름도이다.
도 9는 일 실시예에 따른 공연 컨텐츠 제공 장치의 하드웨어 구성을 도시한 도면이다.
도 10는 일 실시예에 따른 사용자 단말의 구성을 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다.
도 12은 도 11에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다.
도 13는 도 11에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다.
도 14은 도 11에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.
1 is a diagram illustrating an augmented reality-based performance content providing system according to an embodiment.
2 is a diagram illustrating a performance hall in which a performance content providing apparatus according to an exemplary embodiment is installed.
3 is a configuration diagram of a performance content providing apparatus according to an exemplary embodiment.
4 is a configuration diagram of a control unit according to an embodiment.
5 is a flowchart of a method of generating performance content using a gesture according to an exemplary embodiment.
6 is a flowchart of a broadcasting equipment control method according to an embodiment.
7 is a configuration diagram of a performance content providing device according to another embodiment.
8 is a flowchart of a method of providing performance content according to another embodiment.
9 is a diagram illustrating a hardware configuration of a performance content providing apparatus according to an exemplary embodiment.
10 is a diagram illustrating a configuration of a user terminal according to an embodiment.
11 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention.
12 is a diagram illustrating a base station in the wireless communication system according to FIG. 11;
13 is a diagram showing a terminal in the wireless communication system according to FIG. 11;
14 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 11;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

본 명세서에서는 설명의 편의상 촬영의 대상이 되는 공연 진행자를 공연자"라고 명명하고, 공연을 관람하는 자를 "사용자"로 명명하기로 한다. 공연 진행자가 다수인 경우에는 대표 공연 진행자를 "공연자"로 설정할 수 있다.In this specification, for convenience of description, the performance host to be photographed is named "performer" and the person watching the performance is named "user". can

그리고 공연 영상은 카메라에 의해 촬영된 영상으로, 공연장에 설치된 카메라가 공연이 진행되는 중에 공연자, 무대, 관객 등을 촬영한 영상이다.Also, the performance video is an image captured by a camera, and is an image in which a camera installed in a performance hall captures performers, a stage, an audience, and the like while a performance is in progress.

그리고 증강현실 컨텐츠는 미리 제작된 공연 보조 영상들이며, 공연 보조 영상의 일례로, 공연 대본 이미지, 공연 설명 이미지, 공연자 아바타 영상, 공연 소품 이미지, 무대 효과 영상 등이 이에 포함될 수 있다. 다만 일 실시예의 증강현실 컨텐츠는 이에 한정되는 것은 아니며, 그 이외의 다양한 공연 보조 영상들이 포함될 수 있다.In addition, the augmented reality content is pre-produced performance auxiliary images, and as an example of the performance auxiliary images, a performance script image, a performance description image, a performer avatar image, a performance prop image, a stage effect image, and the like may be included therein. However, the augmented reality content of one embodiment is not limited thereto, and various other performance auxiliary images may be included.

그리고 공연 컨텐츠는 공연 영상에 증강현실 컨텐츠가 오버레이(Overlay)되어 합성된 영상이다.The performance content is a video synthesized by overlaying augmented reality content on the performance video.

이하, 첨부된 도면을 참조하여 실시예를 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템(10)을 도시한 도면이다.1 is a diagram illustrating an augmented reality-based performance content providing system 10 according to an embodiment.

도 1을 참조하면, 일 실시예에 따른 증강현실 기반 공연 컨텐츠 제공 시스템(10)은 공연 컨텐츠 제공 장치(100) 및 사용자 단말(200)을 포함할 수 있다.Referring to FIG. 1 , an augmented reality based performance content providing system 10 according to an embodiment may include a performance content providing device 100 and a user terminal 200 .

증강현실 기반 공연 컨텐츠 제공 시스템(10) 내에 포함된 다양한 개체들(entities) 간의 통신은 유/무선 네트워크를 통해 수행될 수 있다. 유/무선 네트워크는 표준 통신 기술 및/또는 프로토콜들이 사용될 수 있다.Communication between various entities included in the augmented reality-based performance content providing system 10 may be performed through a wired/wireless network. Wired/wireless networks may use standard communication technologies and/or protocols.

증강현실 기반 공연 컨텐츠 제공 시스템(10) 내 공연 컨텐츠 제공 장치(100) 및 사용자 단말(200)는 예를 들어, 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), PMP(portable multimedia player) 같은 전자 장치 중 하나로서, 일 실시예와 관련된 어플리케이션의 설치 및 실행이 가능한 모든 전자 장치를 포함할 수 있다. 전자 장치는 어플리케이션의 제어 하에 예를 들어, 서비스 화면의 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등과 같은 서비스 전반의 동작을 수행할 수 있다.The performance content providing device 100 and the user terminal 200 in the augmented reality based performance content providing system 10 include, for example, a computer, an ultra mobile PC (UMPC), a workstation, a net-book, a PDA ( Personal Digital Assistants), portable computer, web tablet, wireless phone, mobile phone, smart phone, or portable multimedia player (PMP). , which may include all electronic devices capable of installing and executing applications related to an embodiment. The electronic device may perform overall service operations, such as composition of a service screen, data input, data transmission/reception, and data storage, under the control of an application.

일 실시예의 공연 컨텐츠 제공 장치(100)에는 적어도 하나 이상의 카메라, 마이크, 조명, 모니터 등과 같은 공연 장비가 구비되어 있으며, 이들 공연 장비와 연결된 제어 콘솔이 구비될 수 있다.The performance content providing apparatus 100 according to an embodiment includes at least one performance equipment such as a camera, a microphone, a light, a monitor, and the like, and may include a control console connected to the performance equipment.

공연 컨텐츠 제공 장치(100)는 공연자의 제스처를 감지하여, 제스처 신호를 생성할 수 있다.The performance content providing apparatus 100 may detect a performer's gesture and generate a gesture signal.

공연 컨텐츠 제공 장치(100)는 제스처 신호를 기 설정된 기준에 따라 해석하여, 공연자의 제스처를 제 1 제스처, 제 2 제스처 또는 제 3 제스처로 판단할 수 있다.The performance content providing apparatus 100 may interpret the gesture signal according to a predetermined criterion and determine the performer's gesture as a first gesture, a second gesture, or a third gesture.

공연 컨텐츠 제공 장치(100)는 공연자의 제 1 제스처를 기초하여 다수의 카메라 영상에서 공연 영상을 선택하고, 공연자의 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택할 수 있다.The performance content providing apparatus 100 may select a performance image from multiple camera images based on a performer's first gesture, and may select augmented reality content based on a performer's second gesture.

공연 컨텐츠 제공 장치(100)는 선택된 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성할 수 있다.The performance content providing device 100 may generate performance content by synthesizing the selected performance image and augmented reality content.

공연 컨텐츠 제공 장치(100)는 공연자의 제 3 제스처에 기초하여 공연 장비의 제어를 수행할 수 있다.The performance content providing apparatus 100 may control performance equipment based on the performer's third gesture.

공연 컨텐츠 제공 장치(100)는 사용자의 관람 위치 정보에 기초하여, 증강현실 컨텐츠의 위치, 크기, 기울기 등을 제어할 수 있다.The performance content providing apparatus 100 may control the location, size, tilt, and the like of the augmented reality content based on the viewing location information of the user.

일 실시예의 사용자 단말(200)은 사용자가 구비하여 사용하는 단말로, 공연 컨텐츠 제공 장치(100)에서 수신된 공연 컨텐츠를 사용자에게 출력할 수 있다.The user terminal 200 according to an embodiment is a terminal equipped and used by a user, and may output performance content received from the performance content providing apparatus 100 to the user.

사용자 단말(200)은 사용자의 관람 위치 정보를 사용자로부터 입력받을 수 있으며, 사용자 단말(200)의 위치 정보를 관람 위치 정보로 설정할 수 있다. 그리고 사용자 단말(200)은 사용자의 관람 위치 정보를 공연 컨텐츠 제공 장치(100)에 전송할 수 있다.The user terminal 200 may receive viewing location information of the user from the user, and may set the location information of the user terminal 200 as viewing location information. Also, the user terminal 200 may transmit viewing location information of the user to the performance content providing apparatus 100 .

도 2는 일 실시예에 따른 공연 컨텐츠 제공 장치(100)가 설치된 공연장을 도시한 도면이다.2 is a diagram illustrating a performance hall in which a performance content providing apparatus 100 according to an exemplary embodiment is installed.

도 2를 참조하면, 일 실시예에 따른 공연 컨텐츠 제공 장치(100)가 설치된 공연장에는 각 촬영 영역을 갖는 다수의 카메라(11a, 11b, 11c), 공연자의 음성을 입력받는 마이크(12), 촬영 영역에 광을 조사하는 조명(13), 공연자의 제스처를 감지하는 제스처 판단부(14) 및 공연 영상 및 증강현실 컨텐츠가 합성된 공연 컨텐츠를 디스플레이하는 증강현실 모니터(15)가 구비될 수 있다.Referring to FIG. 2 , in the performance hall where the apparatus 100 for providing performance contents according to an exemplary embodiment is installed, a plurality of cameras 11a, 11b, and 11c each having a recording area, a microphone 12 receiving a performer's voice, and a recording A light 13 for radiating light to the area, a gesture determination unit 14 for detecting a performer's gesture, and an augmented reality monitor 15 for displaying performance content in which a performance image and augmented reality content are synthesized may be provided.

다수의 카메라(11a, 11b, 11c)는 각각 일 영역을 촬영하도록 세팅될 수 있으며, 제어부(16)의 제어에 따라 촬영 영역, 이동 속도, 줌인, 줌아웃 등의 촬영 설정이 변경될 수 있다, 다수의 카메라(11a, 11b, 11c)의 촬영 영역에 관한 정보는 제스처 판단부(14)에서 공연자의 위치를 판단하는 정보로 이용될 수 있다.Each of the plurality of cameras 11a, 11b, and 11c may be set to photograph one area, and photographing settings such as a photographing region, movement speed, zoom-in, zoom-out, etc. may be changed under the control of the controller 16. Information about the photographing area of the cameras 11a, 11b, and 11c of the camera 11a, 11b, and 11c may be used as information for determining the location of the performer in the gesture determination unit 14.

도 3은 일 실시예에 따른 공연 컨텐츠 제공 장치(100)의 구성도이다.3 is a configuration diagram of a performance content providing apparatus 100 according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 공연 컨텐츠 제공 장치(100)는, 서로 다른 촬영 영역으로부터 각 영상 신호를 출력하는 다수의 카메라(11a, 11b, 11c), 공연자의 음성 및 주변 음향을 입력받아 음성 신호를 출력하는 마이크(12), 촬영 영역에 광을 조사하는 조명(13), 공연자의 제스처를 감지하여 제스처 신호를 생성하여 출력하는 제스처 판단부(14), 제스처 신호에 대응하여 공연자의 제스처를 해석하고, 공연자의 제 1 제스처에 기초하여 각 카메라(11a, 11b, 11c)로부터 촬영된 카메라 영상에 대해 선택적인 스위칭을 수행하여 공연 영상을 선택하고, 공연자의 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하고, 선택된 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성하는 제어부(16), 제어부(16)로부터 출력되는 공연 컨텐츠를 송출하는 송출부(17), 시스템 구동을 위한 프로그램을 저장하고 있으며, 제어부(16)로부터 출력되는 공연 컨텐츠를 저장하는 메모리(18), 제어부(16)에서 출력된 공연 컨텐츠를 디스플레이하는 증강 현실 모니터(15)와, 증강현실 컨텐츠를 저장하고 있는 증강현실 컨텐츠 DB(19) 및 음향을 출력시키는 스피커(20)를 포함할 수 있다.Referring to FIG. 3 , an apparatus 100 for providing performance contents according to an embodiment includes a plurality of cameras 11a, 11b, and 11c outputting respective video signals from different photographing areas, and inputs a performer's voice and ambient sound. A microphone 12 for receiving and outputting a voice signal, a lighting 13 for irradiating light to a photographing area, a gesture determination unit 14 for detecting a performer's gesture and generating and outputting a gesture signal, and responding to the gesture signal to the performer's Interpreting the gesture, selectively switching the camera images captured from the respective cameras 11a, 11b, and 11c based on the first gesture of the performer to select a performance image, and augmenting the image based on the second gesture of the performer A control unit 16 that selects real content and synthesizes the selected performance video and augmented reality content to create performance content, a transmission unit 17 that transmits performance content output from the control unit 16, and a program for driving the system. a memory 18 for storing the performance content output from the control unit 16, an augmented reality monitor 15 for displaying the performance content output from the control unit 16, and augmented reality for storing the augmented reality content It may include a content DB 19 and a speaker 20 outputting sound.

공연 컨텐츠 제공 장치(100)의 하드웨어 구성은 다양하게 구현될 수 있다. 제스처 판단부(14)와 제어부(16)를 통합하거나, 메모리(18)와 증강현실 컨텐츠 DB(19)를 통합하여 하드웨어를 구성할 수 있다. 이와 같이, 공연 컨텐츠 제공 장치(100)의 하드웨어 구성은 본 명세서의 기재에 한정되지 아니하며, 다양한 방법과 조합으로 구현될 수 있다.The hardware configuration of the performance content providing apparatus 100 may be implemented in various ways. Hardware may be configured by integrating the gesture determination unit 14 and the control unit 16 or integrating the memory 18 and the augmented reality content DB 19 . As such, the hardware configuration of the performance content providing apparatus 100 is not limited to the description in this specification, and may be implemented in various ways and combinations.

제어부(16)는 공연 컨텐츠 제공 장치(100)의 다양한 기능을 수행하도록 공연 컨텐츠 제공 장치(100) 내 구성들을 제어할 수 있다.The control unit 16 may control components within the performance content providing device 100 to perform various functions of the performance content providing device 100 .

제어부(16)는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있으며, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어 또는 이들의 결합에 의해 구현될 수 있다.The control unit 16 may also be referred to as a processor, controller, microcontroller, microprocessor, microcomputer, etc., and the control unit may be hardware or firmware. ), software, or a combination thereof.

이와 같이 구성된 공연 컨텐츠 제공 장치(100)는 카메라(11a, 11b, 11c), 마이크(12), 조명(13) 등의 공연 장비를 구동시켜 공연자를 촬영하게 되며, 이때 제어부(16)는 공연자의 제스처를 해석하여, 공연 영상 및 증강현실 컨텐츠를 선택할 수 있다. 그리고 제어부(16)는 공연자의 제스처를 해석하여, 공연 장비를 제어할 수 있다. 제스처를 통한 공연 장비 제어의 가장 대표적인 예로서, 공연자의 제스처를 통해 카메라(11a, 11b, 11c)의 줌 인(Zoom In), 줌 아웃(Zoom Out), 초점(Focus), 팬(Pan), 틸트(Tilt) 등을 제어를 수행할 수 있고, 마이크(12)의 불륨 제어, 조명(13)의 밝기 제어 등을 수행할 수 있다.The apparatus 100 for providing performance contents configured as described above drives performance equipment such as cameras 11a, 11b, and 11c, a microphone 12, and a light 13 to photograph a performer. By interpreting the gesture, it is possible to select performance video and augmented reality content. Also, the control unit 16 may interpret the performer's gesture and control the performance equipment. As the most representative example of performance equipment control through gestures, zoom in, zoom out, focus, pan, Tilt and the like can be controlled, and volume control of the microphone 12 and brightness control of the lighting 13 can be performed.

도 4는 일 실시예에 따른 제어부(16)의 구성도이다.4 is a configuration diagram of the control unit 16 according to an embodiment.

도 4를 참조하면, 일 실시예에 따른 제어부(16)는 공연자의 위치를 감지 및 판단하여 생성한 위치 신호를 출력하는 위치 판단부(161), 공연자의 제스처를 인식하여 제스처 신호를 출력하는 제스처 인식부(162), 제스처 신호로부터 공연자의 제스처를 제 1 제스처, 제 2 제스처 또는 제 3 제스처로 해석하는 제스처 해석부(163), 위치 신호 및 제 1 제스처를 기초하여 각 카메라(11a, 11b, 11c)로부터 촬영되어 카메라 영상에서 공연 영상을 선택하는 카메라 영상 선택부(164), 카메라 영상 선택부(164)로부터 선택된 공연 영상에 공연 음성을 합성하는 음성 합성부(165), 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하고 카메라 영상 선택부(164)로부터 선택된 공연 영상에 선택된 증강현실 컨텐츠를 합성하여, 공연 컨텐츠를 생성하는 증강현실 오버레이부(166) 및 제 3 제스처에 기초하여 공연 장비를 제어하는 공연 장비 제어부(167)를 포함할 수 있다.Referring to FIG. 4 , the control unit 16 according to an embodiment includes a location determination unit 161 that detects and determines the location of a performer and outputs a generated location signal, recognizes a performer's gesture and outputs a gesture signal. A recognition unit 162, a gesture analysis unit 163 that interprets the performer's gesture as a first gesture, a second gesture, or a third gesture from the gesture signal, each camera 11a, 11b, based on the location signal and the first gesture 11c), a camera image selector 164 that selects a performance video from camera images, a voice synthesizer 165 that synthesizes performance audio with the performance video selected from the camera image selector 164, and a second gesture based on The augmented reality overlay unit 166 that selects augmented reality content and synthesizes the selected augmented reality content with the performance image selected from the camera image selection unit 164 to create performance content and controls the performance equipment based on the third gesture It may include a performance equipment control unit 167 that does.

여기서 증강현실 오버레이부(166)는 사용자의 관림 위치에 기초하여 증강현실 컨텐츠의 위치, 크기, 기울기 등의 제어도 가능하다. 이에 대해서는 도 7 이하에서 자세히 후술하도록 한다.Here, the augmented reality overlay unit 166 can also control the position, size, and tilt of the augmented reality content based on the user's viewing position. This will be described later in detail below in FIG. 7 .

이와 같이 구성된 제어부(16)는 위치 판단부(161)에서 공연자의 위치를 판단하면, 카메라 영상 선택부(164)는 해당 위치를 촬영하는 카메라(11a, 11b, 11c)의 영상을 출력하도록 스위칭이 이루어지게 되고, 해당 위치에서 공연자에게 필요로 하는 증강현실 컨텐츠 리스트를 증강 현실 모니터(15)에 출력하여 공연자의 제스처를 위한 정보를 공연자에게 제공할 수 있다.When the position determination unit 161 of the control unit 16 configured as described above determines the position of the performer, the camera image selection unit 164 switches to output images of the cameras 11a, 11b, and 11c photographing the corresponding position. This is done, and a list of augmented reality contents required by the performer at the corresponding location may be output to the augmented reality monitor 15 to provide information for the performer's gesture to the performer.

공연자가 증강 현실 모니터(15) 상에 디스플레이된 증강현실 컨텐츠 리스트를 참고하여 제스처를 취하면, 제어부(16)는 제스처 인식 및 제스처 해석을 통해 공연자의 제스처에 대응하는 다양한 제어를 수행할 수 있다.When a performer makes a gesture by referring to the augmented reality content list displayed on the augmented reality monitor 15, the controller 16 may perform various controls corresponding to the performer's gesture through gesture recognition and gesture interpretation.

제어부(16)는 공연자의 제 1 제스처가 인식되면, 인식된 제 1 제스처를 해석하여 다수의 카메라(11a, 11b, 11c)에서 촬영되는 카메라 영상 중에서 공연 영상을 선택할 수 있다. 그리고 제어부(16)는 공연자의 제 2 제스처가 인식되면, 인식된 제 2 제스처를 해석하여 기 저장된 증강현실 컨텐츠 중에서 공연 컨텐츠에 사용할 증강현실 컨텐츠를 선택할 수 있다. 이로써 제어부(16)는 선택된 공연 영상과 선택된 증강현실 컨텐츠를 합성하여, 공연 컨텐츠를 생성할 수 있다.When the performer's first gesture is recognized, the controller 16 interprets the recognized first gesture and selects a performance video from camera images captured by the plurality of cameras 11a, 11b, and 11c. Further, when the performer's second gesture is recognized, the controller 16 may interpret the recognized second gesture and select augmented reality content to be used for the performance content from pre-stored augmented reality content. Accordingly, the controller 16 may generate performance content by synthesizing the selected performance video and the selected augmented reality content.

그리고 제어부(16)는 공연자의 제 3 제스처가 인식되면, 인식된 제 3 제스처를 해석하여 공연 장비의 제어를 수행할 수 있다.Also, when the performer's third gesture is recognized, the controller 16 can control the performance equipment by interpreting the recognized third gesture.

즉 일 실시예는 공연자의 제스처를 이용하여, 공연 컨텐츠를 생성하고, 공연 장비를 제어할 수 있는 것이다.That is, according to an embodiment, performance content may be generated and performance equipment may be controlled using a performer's gesture.

그러면 여기서 전술한 바와 같이 구성된 시스템을 이용한 일 실시예의 제스처를 이용한 공연 컨텐츠 생성 방법 및 공연 장비 제어 방법에 대해 설명하기로 한다.Here, a method of generating performance content using gestures and a method of controlling performance equipment using the system configured as described above will be described according to an exemplary embodiment.

도 5은 일 실시예에 따른 제스처를 이용한 공연 컨텐츠 생성 방법의 흐름도이다.5 is a flowchart of a method of generating performance content using a gesture according to an exemplary embodiment.

도 5를 참조하여 각 단계에 대해 설명하면, 우선 S101 단계에서 공연자가 제스처를 취하면, 제스처 인식부(162)는 제스처 신호를 생성하여 제스처 해석부(163)에 전달한다.Referring to FIG. 5 , when a performer makes a gesture in step S101, the gesture recognition unit 162 generates a gesture signal and transmits it to the gesture analysis unit 163.

제스처 인식부(162)는 공연자가 기 설정된 시작 제스처를 취하면, 시작 제스처 이후에 공연자가 취하는 제스처를 인식하여 해당 제스처에 대한 제스처 신호를 생성할 수 있다.When a performer makes a preset start gesture, the gesture recognition unit 162 may recognize a gesture taken by the performer after the start gesture and generate a gesture signal for the corresponding gesture.

일 실시예의 제스처 신호는 공연자가 시작 제스처 이후에 취하는 제스처의 영상 신호이다. 제스처 인식부(162)는 공연자를 촬영한 영상을 그대로 제스처 신호로 생성할 수 있으며, 공연자를 촬영한 영상을 후처리하여 영상에서 배경이 삭제된 영상 신호를 제스처 신호로 생성할 수 있다.A gesture signal according to an embodiment is a video signal of a gesture performed by a performer after a starting gesture. The gesture recognition unit 162 may generate a video of the performer as a gesture signal as it is, or post-process the video of the performer to generate a video signal from which the background is deleted as a gesture signal.

S102 단계에서 제스처 해석부(163)는 제스처 신호를 이용하여, 공연자의 제스처가 제 1 제스처 인지 또는 제 2 제스처 인지 판단한다.In step S102, the gesture analyzer 163 determines whether the performer's gesture is a first gesture or a second gesture by using the gesture signal.

제 1 제스처 및 제 2 제스처는 기 설정된 제스처로, 본 명세서에서는 제 1 제스처를 공연자의 오른쪽 팔에 관한 제스처로, 제 2 제스처를 공연자의 왼쪽 팔에 관한 제스처인 경우로 설명하도록 한다. 다만 일 실시예는 이에 한정되지 아니하고, 공연자의 다양한 제스처를 제 1 제스처 및 제 2 제스처로 설정할 수 있다.The first gesture and the second gesture are preset gestures. In this specification, the first gesture is described as a gesture of the performer's right arm, and the second gesture is a gesture of the performer's left arm. However, one embodiment is not limited thereto, and various gestures of a performer may be set as a first gesture and a second gesture.

공연자의 제스처가 제 1 제스처인 경우, S103 단계에서 카메라 영상 선택부(164)는 제 1 제스처에 대응하는 카메라 영상을 공연 영상으로 선택한다.If the performer's gesture is the first gesture, the camera image selector 164 selects the camera image corresponding to the first gesture as the performance image in step S103.

전술한 바와 같이 다수의 카메라(11a, 11b, 11c)에서 다수의 카메라 영상이 제공되는데, 카메라 영상 선택부(164)는 다수의 카메라 영상 중에 제 1 제스처에 해당하는 카메라 영상을 공연 영상으로 선택할 수 있다.As described above, a plurality of camera images are provided from the plurality of cameras 11a, 11b, and 11c, and the camera image selector 164 may select a camera image corresponding to the first gesture among the plurality of camera images as a performance image. have.

구체적으로 카메라 영상 선택부(164)는 제 1 제스처의 지시 방향, 각도 등을 이용하여, 공연 영상을 선택할 수 있다.Specifically, the camera image selector 164 may select a performance image using the direction and angle of the first gesture.

일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔이 지시하는 방향을 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다For example, if the first gesture is a gesture related to the performer's right arm, the camera image selector 164 may select a camera image of the cameras 11a, 11b, and 11c that captures a direction indicated by the right arm as the performance image. have

다른 일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔의 각도가 설정 각도 이하인 경우 공연자를 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다As another example, if the first gesture is a gesture related to the performer's right arm, the camera image selection unit 164 selects the camera image of the cameras 11a, 11b, and 11c for photographing the performer when the angle of the right arm is less than or equal to the set angle. You can choose from the performance video

또 다른 일례로, 제 1 제스처가 공연자의 오른쪽 팔에 관한 제스처로, 카메라 영상 선택부(164)는 오른쪽 팔의 각도가 설정 각도 미만인 경우 공연 무대를 촬영하는 카메라(11a, 11b, 11c)의 카메라 영상을 공연 영상으로 선택할 수 있다.As another example, if the first gesture is a gesture related to the performer's right arm, the camera image selector 164 selects the camera of the cameras 11a, 11b, and 11c for capturing the performance stage when the angle of the right arm is less than the set angle. You can select a video as a performance video.

공연자의 제스처가 제 2 제스처인 경우, S104 단계에서 증강현실 오버레이부(166)는 제 2 제스처에 대응하는 증강현실 컨텐츠를 선택한다.If the performer's gesture is the second gesture, the augmented reality overlay unit 166 selects the augmented reality content corresponding to the second gesture in step S104.

증강현실 오버레이부(166)는 맵핑 테이블을 이용하여 증강현실 컨텐츠를 선택할 수 있다.The augmented reality overlay unit 166 may select augmented reality content using a mapping table.

일 실시예의 맵핑 테이블은 기 설정된 제 2 제스처와 제 2 제스처에 대응하는 증강현실 컨텐츠의 매핑 정보를 포함할 수 있다. 표 1은 일 실시예의 맵핑 테이블의 일례이다.The mapping table according to an embodiment may include mapping information of a preset second gesture and augmented reality content corresponding to the second gesture. Table 1 is an example of a mapping table according to an embodiment.

Figure pat00001
Figure pat00001

S105 단계에서 증강현실 오버레이부(166)는 선택된 공연 영상과 선택된 증강현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성한다.In step S105, the augmented reality overlay unit 166 overlays the selected performance video and the selected augmented reality content to generate performance content.

S106 단계에서 음성 합성부(165)는 증강현실 오버레이부(166)에서 생성된 공연 컨텐츠에 공연 음성을 결합하여, 공연 컨텐츠를 동영상 데이터로서 송출이 이루어지게 된다.In step S106, the voice synthesis unit 165 combines the performance voice with the performance content generated by the augmented reality overlay unit 166, and transmits the performance content as video data.

한편, 일 실시예는 제스처 인식부(162)가 마커 인식부(미도시)를 포함할 수 있다.Meanwhile, in one embodiment, the gesture recognition unit 162 may include a marker recognition unit (not shown).

마커 인식부는 공연자의 신체의 일 영역을 마커로서 인식할 수 있으며, 일례로 공연자의 손, 팔 등을 마커로 인식할 수 있다. 마커의 위치가 증강현실 컨텐츠의 위치와 같을 때, 증강현실 컨텐츠가 확대될 수 있고, 공연자가 마커를 이동하면 증강현실 컨텐츠도 마커에 따라 이동될 수 있다. 즉, 마커, 증강현실 컨텐츠 및 제스처를 조합하여 공연 컨텐츠를 생성할 수 있다.The marker recognizing unit may recognize a part of the performer's body as a marker, and for example, may recognize the performer's hand or arm as a marker. When the position of the marker is the same as the position of the augmented reality content, the augmented reality content can be enlarged, and when the performer moves the marker, the augmented reality content can also be moved according to the marker. That is, performance content may be generated by combining markers, augmented reality content, and gestures.

도 6은 일 실시예에 따른 방송 장비 제어 방법의 흐름도이다.6 is a flowchart of a broadcasting equipment control method according to an embodiment.

도 6을 참조하여 각 단계에 대해 설명하면, 우선 S201 단계에서 공연자가 제스처를 취하면, 제스처 인식부(162)는 제스처 신호를 생성하여 제스처 해석부(163)에 전달한다.Referring to FIG. 6, when a performer makes a gesture in step S201, the gesture recognition unit 162 generates a gesture signal and transmits it to the gesture analysis unit 163.

제스처 인식부(162)는 공연자가 기 설정된 시작 제스처를 취하면, 시작 제스처 이후에 공연자가 취하는 제스처를 인식하여 해당 제스처에 대한 제스처 신호를 생성할 수 있다.When a performer makes a preset start gesture, the gesture recognition unit 162 may recognize a gesture taken by the performer after the start gesture and generate a gesture signal for the corresponding gesture.

S202 단계에서 제스처 해석부(163)는 제스처 신호를 이용하여, 공연자의 제스처가 제 3 제스처 인지 판단한다.In step S202, the gesture analyzer 163 determines whether the performer's gesture is a third gesture by using the gesture signal.

전술한 바와 같이 제 1 제스처 및 제 2 제스처는 기 설정된 제스처이다. 제스처 해석부(163)는 공연자의 제스처가 기 설정된 제 1 제스처 또는 제 2 제스처가 아닌 경우, 공연자의 제스처를 제 3 제스처로 판단할 수 있다.As described above, the first gesture and the second gesture are preset gestures. The gesture analyzer 163 may determine the performer's gesture as a third gesture when the performer's gesture is not a preset first or second gesture.

일례로 제스처 해석부(163)는 공연자의 제스처가 오른쪽 팔 또는 왼쪽 팔에 관한 제스처가 아닌 경우, 공연자의 제스처를 제 3 제스처로 판단할 수 있다.For example, if the performer's gesture is not a gesture related to the right arm or the left arm, the gesture analyzer 163 may determine the performer's gesture as the third gesture.

공연자의 제스처가 제 3 제스처인 경우, S203 단계에서 제스처 해석부(163)는 공연자가 동일한 제 3 제스처를 취하는지 확인한다.If the performer's gesture is the third gesture, in step S203, the gesture analyzer 163 checks whether the performer makes the same third gesture.

공연자가 동일한 제 3 제스처를 취하는 경우, S203 단계에서 제스처 해석부(163)는 제 3 제스처의 반복 횟수 및 반복 주기를 확인한다.If the performer makes the same third gesture, in step S203, the gesture analyzer 163 checks the repetition number and repetition period of the third gesture.

S204 단계에서 공연 장비 제어부(167)는 제 3 제스처의 반복 횟수 및 반복 주기에 기초하여 공연 장비를 제어한다.In step S204, the performance equipment control unit 167 controls the performance equipment based on the repetition number and repetition period of the third gesture.

공연 장비 제어부(167)는 제 3 제스처의 반복 횟수를 이용하여, 제어할 공연 장비를 선택할 수 있다. 일례로, 제 3 제스처의 반복 횟수가 2번인 경우, 공연 장비 제어부(167)는 제어할 공연 장비를 카메라(11a, 11b, 11c)의 이동 속도로 선택할 수 있다. 반속 횟수에 따른 제어할 공연 장비는 기 설정될 수 있다.The performance equipment control unit 167 may select performance equipment to be controlled using the number of repetitions of the third gesture. For example, when the number of repetitions of the third gesture is two, the performance equipment control unit 167 may select the performance equipment to be controlled based on the moving speed of the cameras 11a, 11b, and 11c. Performance equipment to be controlled according to the number of repetitions may be preset.

그리고 공연 장비 제어부(167)는 제 3 제스처의 반복 주기를 이용하여, 선택된 공연 장비의 설정을 변경할 수 있다. 일례로, 제 3 제스처의 반복 주기가 3 sec인 경우, 카메라(11a, 11b, 11c)의 이동 속도를 3 m/s 만큼 빠르거나 느리게 변경할 수 있다.Also, the performance equipment control unit 167 may change the setting of the selected performance equipment using the repetition period of the third gesture. For example, when the repetition period of the third gesture is 3 sec, the movement speed of the cameras 11a, 11b, and 11c may be changed as fast or slow as 3 m/s.

한편, 일 실시예에서는 공연 장비 제어에서 카메라(11a, 11b, 11c)의 이동에 대해서만 설명하고 있으나, 공연자의 제스처를 통해 카메라(11a, 11b, 11c)의 줌 인(Zoom In), 줌 아웃(Zoom Out), 초점(Focus), 팬(Pan), 틸트(Tilt) 등의 제어를 수행할 수 있고, 마이크(12)의 불륨 제어, 조명(13)의 밝기 제어 등을 수행할 수 있을 것이다.On the other hand, in one embodiment, only movement of the cameras 11a, 11b, and 11c in the control of performance equipment is described, but through the performer's gesture, the cameras 11a, 11b, and 11c are zoomed in and zoomed out ( Zoom Out), focus, pan, tilt, etc. can be performed, and volume control of the microphone 12 and brightness control of the light 13 can be performed.

이상에서는 공연자의 제스처에 따른 공연 컨텐츠를 생성하거나 공연 장비를 제어하는 방법에 대해 설명하였다. 이하에서는 다른 실시예로 사용자의 관람 위치에 따라 공연 컨텐츠를 제어하는 방법에 대해 설명하도록 한다.In the above, a method of generating performance content or controlling performance equipment according to a performer's gesture has been described. Hereinafter, a method of controlling performance content according to a viewing position of a user according to another embodiment will be described.

도 7은 다른 실시예에 따른 공연 컨텐츠 제공 장치(100)의 구성도이다.7 is a configuration diagram of a performance content providing apparatus 100 according to another embodiment.

도 7을 참조하면, 다른 실시예에 따른 공연 컨텐츠 제공 장치(100)는 사용자 단말(200)를 사용하는 사용자가 관객인지 확인하는 사용자 확인부(151), 사용자의 관람 위치 정보를 추출하는 관람 위치 확인부(152), 공연에 사용되는 증강현실 컨텐츠를 저장하는 컨텐츠 저장부(153), 공연 영상을 추출하는 공연 영상 추출부(154), 관람 위치의 움직임 정보를 추출하는 움직임 정보 추출부(155), 공연 영상과 증강현실 컨텐츠를 합성하여 공연 컨텐츠를 생성하되, 관람 위치 확인부(152)에서 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 출력을 제어하고, 움직임 정보 추출부(155)에서 추출된 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 출력을 제어하는 증강현실 합성부(156) 및 생성된 공연 컨텐츠를 사용자 단말(200)에 전달하는 통신부(157)을 포함할 수 있다.Referring to FIG. 7 , the apparatus 100 for providing performance contents according to another embodiment includes a user confirmation unit 151 that checks whether a user using the user terminal 200 is a spectator, and a viewing location that extracts information about the viewing location of the user. Confirmation unit 152, content storage unit 153 for storing augmented reality content used for performance, performance image extraction unit 154 for extracting performance video, motion information extraction unit 155 for extracting motion information of a viewing location ), synthesizing performance video and augmented reality content to create performance content, control the output of augmented reality content according to the user's viewing location information extracted from the viewing location confirmation unit 152, and move the motion information extraction unit 155 It may include an augmented reality synthesis unit 156 that controls the output of augmented reality content according to motion information of a viewing position extracted from and a communication unit 157 that delivers generated performance content to the user terminal 200 .

각 구성에 대해 상세하게 설명하면, 우선 사용자 확인부(151)는 사용자 단말(200)의 사용자가 해당 공연의 관객인지 여부를 확인할 수 있다.Each configuration will be described in detail. First, the user check unit 151 can check whether the user of the user terminal 200 is a spectator of the corresponding performance.

사용자 확인부(151)는 사용자 단말(200) 마다 고유의 ID를 할당하여 사용자가 해당 공연의 관객인지 확인할 수 있고, 사용자 단말기(200)에 사용자가 자신의 ID를 입력하여 관객여부를 확인할 수 있다. 다른 방법으로는 공연 티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자 단말기(200)이 해당 QR코드 또는 마커를 인식함으로써, 관객 여부를 확인할 수도 있다.The user identification unit 151 assigns a unique ID to each user terminal 200 to confirm whether the user is a spectator of the corresponding performance, and the user inputs his/her ID into the user terminal 200 to confirm whether or not the user is an audience member. . Alternatively, a kind of QR code or a specific marker may be assigned to a performance ticket, and the user terminal 200 may recognize the QR code or marker to determine whether or not there is an audience.

관람 위치 확인부(152)는 사용자의 관람 위치 정보를 추출할 수 있다. 사용자의 관람 위치 정보를 추출하는 것은 후술하는 공연 영상과 증강현실 컨텐츠의 정확한 합성을 위한 것으로써, 사용자의 관람 위치에 따른 시각차를 보정하기 위한 변수로 사용하기 위함이다. 사용자의 관람 위치에 따라 공연장 및 공연자의 크기 및 각도가 변화하고, 변화된 위치에 따라 증강현실 컨텐츠의 크기, 위치 및 기울기 등을 조정할 수 있다. 관림 위치를 확인하는 방법으로는, 사용자가 자신의 관람 위치 정보를 입력할 수 있으며, 사용자가 구매한 관람 티켓에 대응하는 공연장 위치를 관림 위치 정보로 확인할 수 있으며, 또한 사용자가 직접 공연장에 있는 경우에는 사용자 단말(200)의 위치 정보를 관림 위치 정보로 확인할 수 있다.The viewing location confirmation unit 152 may extract viewing location information of the user. Extracting the viewing location information of the user is for accurate synthesis of a performance video and augmented reality content to be described later, and is to be used as a variable for correcting a time difference according to the viewing location of the user. The size and angle of the performance hall and performers change according to the viewing position of the user, and the size, position and tilt of the augmented reality content may be adjusted according to the changed position. As a method of checking the location of the concert, the user can input his or her viewing location information, and the location of the concert hall corresponding to the ticket purchased by the user can be checked as the location information of the concert hall. , location information of the user terminal 200 may be checked as management location information.

컨텐츠 저장부(153)는 공연에 사용되는 증강현실 컨텐츠를 저장할 수 있다. 저장되는 증강현실 컨텐츠는 해당 공연에 사용되는 가상현실 그래픽으로 해당 공연에 따라 구분되어 저장될 수 있다.The content storage unit 153 may store augmented reality content used in performances. The stored augmented reality content is a virtual reality graphic used for the corresponding performance, and may be classified and stored according to the corresponding performance.

공연 영상 추출부(154)는 공연장의 공연 영상을 추출할 수 있다. 공연장에 설치된 다수의 카메라에서 촬영되는 공연자, 무대, 관객 등의 모습을 영상 또는 이미지로 추출한다. 공연 영상 추출부(154)로써 카메라 또는 캠코더를 사용할 수 있으며, 스마트폰에 내장된 카메라를 활용할 수도 있다.The performance image extraction unit 154 may extract a performance image of the performance hall. Images of performers, stages, and audiences captured by multiple cameras installed in the concert hall are extracted as videos or images. A camera or camcorder may be used as the performance video extraction unit 154, and a camera built into a smartphone may be utilized.

움직임 정보 추출부(155)는 관람 위치의 움직임 정보를 추출할 수 있다. 사용자는 고정된 위치에서 공연을 관람할 수 있으나, 공연 도중 관람 위치를 변경할 수 있다. 관람 위치의 움직임에 따라 증강현실 컨텐츠의 크기와 위치를 조정하는 것이 바람직하다. 따라서 관람 위치의 움직임 정보를 사용자가 직접 입력할 수 있으며, 사용자 단말(200)의 이동 정보를 관람 위치의 움직임 정보로 추출할 수 있다. 이를 위해 사용자 단말(200)의 자이로 센서나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위해 3축 이상의 가속도 센서를 사용할 수 있다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다.The motion information extractor 155 may extract motion information of a viewing position. The user can watch the performance at a fixed location, but can change the viewing location during the performance. It is preferable to adjust the size and position of the augmented reality content according to the movement of the viewing position. Accordingly, the user may directly input motion information of the viewing position, and movement information of the user terminal 200 may be extracted as motion information of the viewing position. To this end, a gyro sensor of the user terminal 200 or a 2-axis or more acceleration sensor may be used, and a 3-axis or more acceleration sensor may be used to recognize a 3-dimensional motion. In the case of using a user's smartphone, a gyro sensor or an acceleration sensor built into the smartphone may be used.

증강현실 합성부(156)는 공연 영상과 증강현실 컨텐츠를 합성하되, 관람 위치 확인부(152)에서 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하고, 움직임 정보 추출부(155)에서 추출된 사용자의 관람 위치의 움직임에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하여 합성할 수 있다. 공연 영상과 증강현실 컨텐츠의 합성은 1회에 그치는 것이 아니라, 증강현실 컨텐츠를 제공하는 시간동안 지속적으로 이루어질 수 있다. 예를 들어, 사용자의 관람 위치 정보와 움직임 정보를 단위 시간(일례로, 1ms(milli second)) 마다 측정하고, 측정된 정보에 따라 단위 시간(일례로, 1ms) 마다 공연 영상과 증강현실 컨텐츠를 합성할 수 있다.The augmented reality synthesis unit 156 synthesizes the performance video and the augmented reality content, adjusts the position, size, or tilt of the augmented reality content according to the viewing location information of the user extracted from the viewing location confirmation unit 152, and moves information. According to the movement of the viewing position of the user extracted by the extraction unit 155, the position, size, or tilt of the augmented reality content may be adjusted and synthesized. The synthesis of the performance video and the augmented reality content is not limited to one time, but may be continuously performed during the time of providing the augmented reality content. For example, the viewing location information and motion information of the user are measured every unit time (eg, 1 ms (milli second)), and according to the measured information, performance video and augmented reality content are displayed every unit time (eg, 1 ms). can be synthesized.

증강현실 컨텐츠와 공연 영상의 정확한 합성을 위해서, 공연의 무대위에 하나 이상의 제 1 마커(31)를 포함할 수 있다. 또한, 공연 컨텐츠 제공 장치(100)에 제 1 마커(31)를 인식할 수 있는 마커 추출부(158)를 더 포함할 수 있다. 제 1 마커(31)는 무대의 고정된 위치에 설치될 수 있으며, 마커 추출부(158)는 공연 영상 추출부(154)에서 추출된 공연 영상에서 제 1 마커(31)를 인식하여 위치 및 크기를 식별할 수 있다.For accurate synthesis of augmented reality content and performance images, one or more first markers 31 may be included on the performance stage. In addition, the performance content providing apparatus 100 may further include a marker extraction unit 158 capable of recognizing the first marker 31 . The first marker 31 may be installed at a fixed location on the stage, and the marker extractor 158 recognizes the first marker 31 from the performance image extracted by the performance image extractor 154 to determine the location and size of the marker 31. can identify.

그리고 공연을 하는 공연자 및 공연에 사용되는 물건 중 적어도 어느 하나에 제 2 마커(32)를 설치할 수 있으며, 마커 추출부(158)에서 제 2 마커(32)도 인식할 수 있다. 제1마커(31)와 제2마커(32)는 마커 추출부(158)에서 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커를 인식하는 방법으로는, 마커가 특정 무늬로 이루어진 경우에 공연 영상을 추출하면서 마커를 함께 추출하여, 마커의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커의 위치를 식별할 수 있다. 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다. 전술한 바와 같이 제 1 마커(31)와 제 2 마커(32)를 마커 추출부에서 인식하면, 증강현실 컨텐츠와 공연 영상을 합성할 때, 정확한 위치와 크기로 합성할 수 있을 것이다.In addition, the second marker 32 may be installed on at least one of a performer performing a performance and an object used in the performance, and the marker extraction unit 158 may also recognize the second marker 32 . The first marker 31 and the second marker 32 may be made of a specific pattern that can be identified by the marker extraction unit 158, and may be made of a beacon or an infrared transceiver. As a method of recognizing markers, when the markers are made of a specific pattern, the markers can be extracted together while extracting the performance video to identify the size and location of the markers, or a BLE (Bluetooth Low Energy) device as a beacon Using the Bluetooth receiver, the location of the beacon can be identified, and the location of the corresponding marker can be identified using the infrared transceiver. It is possible to use only one beacon and infrared transceiver, but if only one is used, it is difficult to determine the exact location, so it is preferable to arrange three or more to utilize triangulation. As described above, if the marker extraction unit recognizes the first marker 31 and the second marker 32, when synthesizing the augmented reality content and the performance image, it will be possible to synthesize them in an accurate position and size.

통신부(157)는 공연 영상과 증강현실 컨텐츠가 합성된 공연 컨텐츠를 사용자 단말(200)에 전송할 수 있다.The communication unit 157 may transmit to the user terminal 200 performance content in which performance video and augmented reality content are synthesized.

증강현실을 이용한 공연 컨텐츠 제공 시스템은 해당 공연 시간 동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 일례로, 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연 컨텐츠 제공 시스템을 활용하여, 보다 몰입감 있고 현실감 있는 공연 컨텐츠를 제공할 수 있을 것이다.The system for providing performance contents using augmented reality may be continuously provided during a corresponding performance time, or may be limitedly used for a specific scene as needed while performing a general performance. For example, in the case of directing a large-scale scene such as a god of war, there are restrictions on space and manpower on the stage, so it will be possible to provide more immersive and realistic performance content by utilizing the performance content providing system using this augmented reality.

도 8은 다른 실시예에 따른 공연 컨텐츠 제공 방법의 흐름도이다.8 is a flowchart of a method of providing performance content according to another embodiment.

도 8을 참조하면, 다른 실시예에 따른 공연 컨텐츠 제공 방법은, 사용자가 관객인지 여부를 확인하는 단계(S301), 사용자의 관람 위치 정보를 취득하는 단계(S302), 공연장의 공연 영상을 추출하는 단계(S303), 증강현실 컨텐츠를 선정하는 단계(S304), 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 크기, 위치 또는 기울기를 조정하여, 공연 영상과 합성하는 단계(S305) 및 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 위치를 조정하는 단계(S306)를 포함한다.Referring to FIG. 8 , in a method of providing performance content according to another embodiment, a step of determining whether a user is a spectator (S301), a step of acquiring viewing location information of the user (S302), and extracting a performance video of a performance hall are performed. Step (S303), step of selecting augmented reality content (S304), adjusting the size, position, or tilt of the augmented reality content according to the user's viewing location information, synthesizing it with the performance video (S305), and moving the viewing location Adjusting the position of the augmented reality content according to the information (S306).

각 단계에 대해 설명하면, 우선 S301 단계에서는 사용자가 관객인지 여부를 확인한다. 해당 공연을 관람하는 사용자는 증강현실 컨텐츠를 시청할 수 있는 사용자 단말(200)를 소지할 수 있는데, 해당 사용자 단말기(200)마다 고유의 ID를 할당하여 사용자가 해당 공연의 관객인지 확인할 수 있고, 또는 사용자 단말(20)에 사용자가 자신의 ID를 입력하여 관객 여부를 확인할 수 있다. 다른 방법으로는 공연 티켓에 일종의 QR코드 또는 특정한 마커를 할당하고, 사용자 단말(200)이 해당 QR코드 또는 마커를 인식함으로써, 관객 여부를 확인할 수도 있다.Each step will be described. First, in step S301, it is checked whether the user is a spectator. A user watching the performance may have a user terminal 200 capable of viewing augmented reality content, and a unique ID may be assigned to each user terminal 200 to determine whether the user is a spectator of the performance, or A user may input his/her ID into the user terminal 20 to check whether or not he is an audience. Alternatively, a kind of QR code or a specific marker may be assigned to a performance ticket, and the user terminal 200 may recognize the QR code or marker to determine whether or not there is an audience.

S302 단계에서는 사용자의 관람 위치 정보를 취득한다. 사용자의 관람 위치 정보를 추출하는 것은 후술하는 공연 영상과 증강현실 컨텐츠의 정확한 합성을 위한 것으로써, 공연장에서 사용자의 관람 위치에 따라 공연장 및 공연자의 크기 또는 각도가 서로 상이하므로, 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하기 위한 변수로 사용할 수 있다. 관림 위치를 확인하는 방법으로는, 사용자가 자신의 관람 위치 정보를 입력할 수 있으며, 사용자가 구매한 관람 티켓에 대응하는 공연장 위치를 관림 위치 정보로 확인할 수 있으며, 또한 사용자가 직접 공연장에 있는 경우에는 사용자 단말(200)의 위치 정보를 관림 위치 정보로 확인할 수 있다.In step S302, user viewing location information is acquired. Extracting the user's viewing location information is for accurate synthesis of the performance video and augmented reality content, which will be described later. Since the size or angle of the performance hall and performers are different depending on the user's viewing position in the performance hall, the location of the augmented reality content , can be used as a variable to adjust the size or slope. As a method of checking the location of the concert, the user can input his or her viewing location information, and the location of the concert hall corresponding to the ticket purchased by the user can be checked as the location information of the concert hall. , location information of the user terminal 200 may be checked as management location information.

S303 단계에서는 공연장의 공연 영상을 추출한다. 공연에서 공연장의 모습과 공연을 하는 공연자의 모습을 영상 또는 이미지로 추출한다. 공연 영상을 추출하는 방법으로는 카메라 또는 캠코더를 사용할 수 있으며, 스마트폰에 내장된 카메라를 활용할 수도 있다.In step S303, a performance video of the venue is extracted. In the performance, the appearance of the venue and the performers performing are extracted as a video or image. A camera or a camcorder can be used as a method of extracting a performance video, or a camera built into a smartphone can be used.

공연 영상을 추출하면서, 무대 및 공연자 중 적어도 어느 하나에 설치되는 마커(30)로부터 마커 정보를 추출하는 단계를 더 포함할 수 있다. 마커는 증강현실 컨텐츠와 공연 영상의 정확한 합성을 위한 것으로써, 식별할 수 있는 특정 무늬로 이루어질 수 있으며, 비콘 또는 적외선 송수신기로 이루어질 수 있다. 마커 정보를 추출하는 방법으로는, 마커(30)가 특정 무늬로 이루어진 경우에 공연 영상을 추출하면서 마커(30)를 함께 추출하여, 마커(30)의 크기와 위치를 식별할 수 있고, 또는, 비콘으로 BLE(Bluetooth Low Energy) 장치를 사용하여, 블루투스 수신기로 비콘의 위치를 식별할 수 있고, 적외선 송수신기를 사용하여 해당 마커(30)의 위치를 식별할 수 있다. 비콘 및 적외선 송수신기를 하나만 사용할 수도 있으나, 하나만 사용하는 경우에는 정확한 위치를 파악하기 어려우므로 3개 이상을 배치하여 삼각측량법을 활용함이 바람직할 것이다.A step of extracting marker information from the marker 30 installed on at least one of the stage and the performer may be further included while extracting the performance image. The marker is for accurate synthesis of augmented reality content and performance video, may be made of a specific pattern that can be identified, and may be made of a beacon or an infrared transceiver. As a method of extracting marker information, when the marker 30 is made of a specific pattern, the size and position of the marker 30 can be identified by extracting the performance image and extracting the marker 30 together, or Using a BLE (Bluetooth Low Energy) device as a beacon, the position of the beacon can be identified by a Bluetooth receiver, and the position of the corresponding marker 30 can be identified using an infrared transceiver. It is possible to use only one beacon and infrared transceiver, but if only one is used, it is difficult to determine the exact location, so it is preferable to arrange three or more to utilize triangulation.

일 실시예의 마커(30)는 무대의 고정된 위치에 하나 이상 설치될 수 있으며, 또는 공연을 하는 공연자 및 공연에 사용되는 물건 중 적어도 어느 하나에 설치될 수 있다.One or more markers 30 of one embodiment may be installed at a fixed location on the stage, or may be installed on at least one of a performer performing a performance and an object used in the performance.

S304 단계에서는 증강현실 컨텐츠를 수신한다. 수신받는 증강현실 컨텐츠는 해당 공연에 사용되는 가상현실 그래픽으로, 공연마다 따로 구분되어 수신받을 수 있으며, 전술한바와 같이 공연자의 제스처에 따라 증강현실 컨텐츠를 선택할 수 있다.In step S304, augmented reality content is received. Received augmented reality content is a virtual reality graphic used for a corresponding performance, and may be received separately for each performance, and as described above, augmented reality content may be selected according to a performer's gesture.

S305 단계에서는 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하여, 공연 영상과 합성한다. 보다 상세하게 살펴보면, 공연 영상과 증강현실 컨텐츠를 합성하되, 추출된 사용자의 관람 위치 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정할 수 있으며, 마커 정보를 포함하여, 증강현실 컨텐츠의 위치, 크기 또는 기울기의 정확성을 향상시킬 수 있다.In step S305, the location, size, or tilt of the augmented reality content is adjusted according to the viewing location information of the user and synthesized with the performance video. In more detail, the performance video and the augmented reality content are synthesized, but the position, size or tilt of the augmented reality content can be adjusted according to the extracted viewing location information of the user, including marker information, the location of the augmented reality content, Accuracy of scale or tilt can be improved.

S306 단계에서는 관람 위치의 움직임 정보에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정한다. 사용자는 고정된 위치에서 공연을 관람할 수 있나, 공연 도중 관람 위치를 변경할 수 있다. 관람 위치의 움직임에 따라 증강현실 컨텐츠의 위치, 크기 또는 기울기를 조정하는 것이 바람직하다. 따라서 관람 위치의 움직임 정보를 사용자가 직접 입력할 수 있으며, 사용자 단말(200)의 이동 정보를 관람 위치의 움직임 정보로 추출할 수 있다. 이를 위해 사용자 단말(200)의 자이로 센서나, 2축 이상의 가속도 센서를 사용할 수 있으며, 3차원 움직임을 인식하기 위해 3축 이상의 가속도 센서를 사용할 수 있다. 사용자의 스마트폰을 활용하는 경우에는 스마트폰에 내장된 자이로 센서 또는 가속도 센서를 사용할 수 있다.In step S306, the position, size or tilt of the augmented reality content is adjusted according to the motion information of the viewing position. The user can watch the performance at a fixed location or change the viewing location during the performance. It is preferable to adjust the position, size or tilt of the augmented reality content according to the movement of the viewing position. Accordingly, the user may directly input motion information of the viewing position, and movement information of the user terminal 200 may be extracted as motion information of the viewing position. To this end, a gyro sensor of the user terminal 200 or a 2-axis or more acceleration sensor may be used, and a 3-axis or more acceleration sensor may be used to recognize a 3-dimensional motion. In the case of using a user's smartphone, a gyro sensor or an acceleration sensor built into the smartphone may be used.

본 증강현실을 이용한 공연 컨텐츠 제공방법은 해당 공연 시간 동안 계속적으로 제공되어질 수 있으며, 또는 일반적인 공연을 진행하면서 필요에 따라 특정 신(scene)에 제한적으로 활용될 수 있다. 예를 들면 전쟁신과 같은 대규모 장면을 연출하는 경우에는 무대의 공간 및 인력에 제약이 있으므로, 본 증강현실을 이용한 공연 컨텐츠 제공방법을 활용하여, 보다 몰입감 있고 현실감 있는 공연 컨텐츠를 제공할 수 있을 것이다.The performance content providing method using the present augmented reality may be continuously provided during the corresponding performance time, or may be limitedly used for a specific scene as needed while performing a general performance. For example, in the case of directing a large-scale scene such as a god of war, there are restrictions on space and manpower on the stage, so it will be possible to provide more immersive and realistic performance content by utilizing the present method of providing performance content using augmented reality.

도 9는 일 실시예에 따른 공연 컨텐츠 제공 장치(100)의 하드웨어 구성을 도시한 도면이다.9 is a diagram illustrating a hardware configuration of a performance content providing apparatus 100 according to an exemplary embodiment.

도 9에 도시된 바와 같이, 공연 컨텐츠 제공 장치(100)는 통신부(110), 입력부(120), 출력부(130), 메모리(140), 전원 공급부(150) 및 프로세서(160)를 포함할 수 있다.As shown in FIG. 9 , the performance content providing apparatus 100 may include a communication unit 110, an input unit 120, an output unit 130, a memory 140, a power supply unit 150, and a processor 160. can

도 9에 도시된 구성들은 본 발명의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어 구성들이 공연 컨텐츠 제공 장치(100)에 추가로 포함될 수 있다.The configurations shown in FIG. 9 are exemplary diagrams for implementing the embodiments of the present invention, and appropriate hardware configurations obvious to those skilled in the art may be additionally included in the performance content providing apparatus 100.

통신부(110)는 다양한 통신 방식을 통해 외부의 장치와 통신을 수행할 수 있다. 일례로, 통신부(110)는 외부의 사용자 단말(200)과 통신을 수행하여 다양한 데이터를 송수신할 수 있다.The communication unit 110 may communicate with an external device through various communication methods. For example, the communication unit 110 may communicate with an external user terminal 200 to transmit/receive various data.

입력부(120)는 공연 컨텐츠 제공 장치(100)의 사용자인 관리자의 다양한 입력을 수신하여 프로세서(160)로 전달할 수 있다. 특히, 입력부(120)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키, 또는 마이크를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 마이크는 관리자 음성을 수신하기 위한 구성으로, 공연 컨텐츠 제공 장치(100) 내부에 구비될 수 있으나, 이는 일 실시예에 불과할 뿐, 공연 컨텐츠 제공 장치(100)의 외부에 구비되어 공연 컨텐츠 제공 장치(100)와 전기적으로 연결될 수 있다.The input unit 120 may receive various inputs from a manager who is a user of the performance content providing apparatus 100 and transmit them to the processor 160 . In particular, the input unit 120 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, or a microphone. The touch sensor may use, for example, at least one of a capacitive type, a pressure-sensitive type, an infrared type, or an ultrasonic type. The (digital) pen sensor may be, for example, a part of the touch panel or may include a separate recognition sheet. Keys may include, for example, physical buttons, optical keys, or keypads. The microphone is a component for receiving the administrator's voice and may be provided inside the performance contents providing device 100, but this is only an example, and is provided outside the performance content providing device 100 to perform the performance contents providing device ( 100) and electrically connected.

출력부(130)는 다양한 화면을 제공할 수 있다. 일례로, 출력부(130)는 관리자에게 공연 영상, 증강현실 컨텐츠 및 공연 컨텐츠를 출력할 수 있다.The output unit 130 may provide various screens. For example, the output unit 130 may output a performance video, augmented reality content, and performance content to a manager.

메모리(140)는 공연 컨텐츠 제공 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(140)는 프로세서(또는 프로세서(160))가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장할 수 있다. 후술하는 서버(100)의 각종 동작은 상기 적어도 하나의 동작에 포함될 수 있다. 특히, 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(140)는 프로세서(160)에 의해 액세스되며, 프로세서(160)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 발명에서 메모리라는 용어는 메모리(140), 프로세서(160) 내 롬(미도시), 램(미도시) 또는 공연 컨텐츠 제공 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(140)에는 출력부(130)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.The memory 140 may store commands or data related to at least one other component of the performance content providing apparatus 100 . For example, the memory 140 may store instructions instructing the processor (or the processor 160) to perform at least one operation. Various operations of the server 100 described below may be included in the at least one operation. In particular, the memory 140 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 140 is accessed by the processor 160, and data can be read/written/modified/deleted/updated by the processor 160. In the present invention, the term memory refers to a memory 140, a ROM (not shown), a RAM (not shown) in the processor 160, or a memory card (not shown) mounted in the performance content providing apparatus 100 (for example, micro SD card, memory stick). In addition, the memory 140 may store programs and data for configuring various screens to be displayed on the display area of the output unit 130 .

전원 공급부(150)는 프로세서(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 150 receives external power and internal power under the control of the processor 160 and supplies power required for operation of each component.

프로세서(160)는 통신부(110), 입력부(120), 출력부(130), 메모리(140) 및 전원 공급부(150)와 전기적으로 연결되어, 공연 컨텐츠 제공 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다.The processor 160 is electrically connected to the communication unit 110, the input unit 120, the output unit 130, the memory 140, and the power supply unit 150 to perform overall operations and functions of the performance contents providing apparatus 100. You can control it.

이상에서 설명되는 공연 컨텐츠 제공 장치(100) 상의 다양한 동작은 프로세서(160)의 제어에 의해서 수행될 수 있음은 자명할 것이다.It will be apparent that various operations of the performance content providing apparatus 100 described above can be performed under the control of the processor 160 .

도 10는 일 실시예에 따른 사용자 단말(200)의 구성을 도시한 도면이다. 이하, 도 10에 도시된 사용자 단말(200)를 구성하는 구성요소들에 대해 차례로 살펴본다.10 is a diagram illustrating a configuration of a user terminal 200 according to an embodiment. Hereinafter, components constituting the user terminal 200 shown in FIG. 10 will be sequentially described.

무선 통신부(210)는 사용자 단말(200)와 무선 통신 시스템 사이의 무선 통신 또는 사용자 단말(200)와 사용자 단말(200)가 위치한 네트워크 사이의 무선 통신을 수행하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(210)는 공연 수신 모듈(211), 이동통신 모듈(212), 무선 인터넷 모듈(213), 근거리 통신 모듈(214) 및 위치정보 모듈(215) 등을 포함할 수 있다.The wireless communication unit 210 may include one or more components that perform wireless communication between the user terminal 200 and a wireless communication system or between the user terminal 200 and a network in which the user terminal 200 is located. . For example, the wireless communication unit 210 may include a performance reception module 211, a mobile communication module 212, a wireless Internet module 213, a short-distance communication module 214, and a location information module 215. .

공연 수신 모듈(211)은 공연 채널을 통하여 외부의 공연 관리 서버로부터 공연 신호 및/또는 공연 관련된 정보를 수신한다. 여기에서, 공연 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 한편, 공연 관련 정보는 이동통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 이동통신 모듈(312)에 의해 수신될 수 있다.The performance reception module 211 receives a performance signal and/or performance-related information from an external performance management server through a performance channel. Here, the performance channels may include satellite channels and terrestrial channels. Meanwhile, performance-related information may be provided through a mobile communication network, and in this case, it may be received by the mobile communication module 312 .

또한, 이동통신 모듈(212)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.In addition, the mobile communication module 212 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call signal, or various types of data according to text/multimedia message transmission/reception.

무선 인터넷 모듈(213)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 사용자 단말(200)에 내장되거나 외장 될 수 있다.The wireless Internet module 213 refers to a module for wireless Internet access, and may be built into or external to the user terminal 200 .

근거리 통신 모듈(214)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-distance communication module 214 refers to a module for short-distance communication. As a short-range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, or the like may be used.

또한, 위치정보 모듈(215)은 사용자 단말(200)의 위치를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈을 들 수 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기에서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.Also, the location information module 215 is a module for confirming or obtaining the location of the user terminal 200 . One example is a Global Positioning System (GPS) module. The GPS module receives location information from a plurality of satellites. Here, the location information may include coordinate information indicated by latitude and longitude.

한편, A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(221)와 마이크(222) 등이 포함될 수 있다. 카메라(221)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(251)에 표시될 수 있다.Meanwhile, an audio/video (A/V) input unit 220 is for inputting an audio signal or a video signal, and may include a camera 221 and a microphone 222. The camera 221 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or shooting mode. And, the processed image frame may be displayed on the display unit 251 .

카메라(221)에서 처리된 화상 프레임은 메모리(360)에 저장되거나 무선 통신부(210)를 통하여 외부로 전송될 수 있다. 카메라(221)는 사용자 단말(200)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.An image frame processed by the camera 221 may be stored in the memory 360 or transmitted to the outside through the wireless communication unit 210 . Two or more cameras 221 may be provided according to configuration aspects of the user terminal 200 .

마이크(222)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(212)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(222)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 구현할 수 있다.The microphone 222 receives an external sound signal through a microphone in a call mode, a recording mode, or a voice recognition mode, and processes it into electrical voice data. In addition, the processed voice data may be converted into a form transmittable to a mobile communication base station through the mobile communication module 212 and output in the case of a call mode. The microphone 222 may implement various noise cancellation algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(230)는 사용자로부터 입력 동작을 받아들여, 사용자 단말(200)의 동작 제어를 위한 입력 데이터를 발생시킨다.The user input unit 230 receives an input operation from the user and generates input data for controlling the operation of the user terminal 200 .

센싱부(240)는 사용자 단말(200)의 위치, 사용자 접촉 유무, 사용자 단말(200)의 방위, 사용자 단말(200)의 가속/감속 등과 같이, 사용자 단말(200)의 현 상태를 감지하여 사용자 단말(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다.The sensing unit 240 detects the current state of the user terminal 200, such as the location of the user terminal 200, presence or absence of contact with the user, direction of the user terminal 200, acceleration/deceleration of the user terminal 200, and the like. A sensing signal for controlling the operation of the terminal 200 is generated.

인터페이스부(270)는 사용자 단말(200)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The interface unit 270 serves as an interface with all external devices connected to the user terminal 200 . For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I/O (Input/Output) port, A video I/O (Input/Output) port, an earphone port, and the like may be included.

출력부(250)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(251)와 음향 출력 모듈(252), 알람부(253) 등이 포함될 수 있다.The output unit 250 is for outputting an audio signal, video signal, or alarm signal, and may include a display unit 251, a sound output module 252, an alarm unit 253, and the like.

디스플레이부(251)는 사용자 단말(200)에서 처리되는 정보를 표시 출력한다. 예를 들어, 단말기가 통화 모드인 경우, 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고, 사용자 단말(200)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 251 displays and outputs information processed by the user terminal 200 . For example, when the terminal is in a call mode, a UI (User Interface) or GUI (Graphic User Interface) related to a call is displayed. In addition, when the user terminal 200 is in the video call mode or the shooting mode, the captured or/and received video, UI, or GUI is displayed.

한편, 전술한 바와 같이, 디스플레이부(251)와 터치 패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(251)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(251)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 사용자 단말(200)의 구현 형태에 따라, 디스플레이부(251)는 2개 이상 존재할 수도 있다. 예를 들어, 사용자 단말(200)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.Meanwhile, as described above, when the display unit 251 and the touch pad form a mutual layer structure to form a touch screen, the display unit 251 may be used as an input device as well as an output device. The display unit 251 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display ( 3D display) may include at least one. Also, depending on the implementation form of the user terminal 200, two or more display units 251 may exist. For example, the user terminal 200 may include an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향 출력 모듈(252)은 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 공연수신 모드 등에서, 무선 통신부(210)로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(352)은 사용자 단말(200)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(252)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 252 outputs audio data received from the wireless communication unit 210 or stored in the memory 260 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, or a performance reception mode. In addition, the sound output module 352 outputs sound signals related to functions performed by the user terminal 200 (eg, call signal reception sound, message reception sound, etc.). The sound output module 252 may include a speaker, a buzzer, and the like.

알람부(253)는 사용자 단말(200)의 이벤트 발생을 알리기 위한 신호를 출력한다. 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. The alarm unit 253 outputs a signal for notifying occurrence of an event in the user terminal 200 . Examples of events generated in the terminal include call signal reception, message reception, key signal input, and the like.

메모리(260)는 제어부(280)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.The memory 260 may store programs for processing and control of the control unit 280, and provides a function for temporarily storing input/output data (eg, phonebook, message, still image, video, etc.). can also be done

메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 260 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk, It may include at least one type of storage medium among optical disks.

제어부(280)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(280)는 멀티 미디어 재생을 위한 멀티미디어 모듈(281)을 구비할 수도 있다. 멀티미디어 모듈(281)은 제어부(280) 내에 구현될 수도 있고, 제어부(280)와 별도로 구현될 수도 있다.The controller 280 typically controls overall operations of the terminal. For example, it performs related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 280 may include a multimedia module 281 for playing multimedia. The multimedia module 281 may be implemented within the control unit 280 or may be implemented separately from the control unit 280 .

전원 공급부(290)는 제어부(280)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 290 receives external power and internal power under the control of the controller 280 and supplies power required for operation of each component.

한편, 상술한 공연 컨텐츠 제공 장치(100)의 동작 중 적어도 일부 또는 전부는 사용자 단말(200)에서 구현될 수도 있다. 이때, 사용자 단말(200)에는 공연 컨텐츠 제공 장치(100)와 통신하여 상술한 공연 컨텐츠 제공 장치(100)의 동작을 수행하기 위한 애플리케이션이 미리 설치될 수 있다.Meanwhile, at least some or all of the operations of the performance content providing apparatus 100 described above may be implemented in the user terminal 200 . At this time, the user terminal 200 may be pre-installed with an application for communicating with the performance contents providing apparatus 100 and performing the above-described operation of the performance contents providing apparatus 100 .

도 11은 본 발명의 일 실시예에 따른 통신 과정에서 적용될 수 있는 무선 통신 시스템을 나타낸 도면이다. 도 12은 도 11에 따른 무선 통신 시스템에서 기지국을 나타낸 도면이다. 도 13는 도 11에 따른 무선 통신 시스템에서 단말을 나타낸 도면이다. 도 14은 도 11에 따른 무선 통신 시스템에서 통신 인터페이스를 나타낸 도면이다.11 is a diagram illustrating a wireless communication system that can be applied in a communication process according to an embodiment of the present invention. 12 is a diagram illustrating a base station in the wireless communication system according to FIG. 11; 13 is a diagram showing a terminal in the wireless communication system according to FIG. 11; 14 is a diagram illustrating a communication interface in the wireless communication system according to FIG. 11;

이하에서는 각종 서버들과 단말들 사이의 통신을 지원하는 무선 통신 네트워크 시스템의 일례를 구체적으로 예를 들어 설명한다. 다음 설명에서, 제1 노드(장치)는 앵커/도너 노드 또는 앵커/도너 노드의 CU(centralized unit) 일 수 있고, 제2 노드(장치)는 앵커/도너 노드 또는 릴레이 노드의 DU(distributed unit) 일 수 있다.Hereinafter, an example of a wireless communication network system supporting communication between various servers and terminals will be specifically described as an example. In the following description, a first node (device) may be an anchor/donor node or a centralized unit (CU) of an anchor/donor node, and a second node (device) may be an anchor/donor node or a distributed unit (DU) of a relay node can be

무선 통신 시스템에서 무선 채널을 사용하는 노드의 일부로 기지국(base station, BS), 단말, 서버 등이 포함될 수 있다.A base station (BS), terminal, server, etc. may be included as a part of a node using a radio channel in a wireless communication system.

기지국은 단말 및 단말에 무선 액세스를 제공하는 네트워크 인프라이다. 기지국은 신호가 전송될 수 있는 거리에 따라 소정의 지리적 영역으로 정의된 커버리지를 갖는다.A base station is a terminal and a network infrastructure that provides wireless access to terminals. A base station has a coverage defined as a predetermined geographic area according to a distance over which a signal can be transmitted.

기지국은 "기지국"과 마찬가지로 "액세스 포인트(access point, AP)", "이노드비(enodeb, eNB)", "5 세대(5th generation, 5G) 노드", "무선 포인트(wireless point)", "송/수신 포인트(transmission/reception point, TRP)" 지칭될 수 있다.A base station, like a "base station," is referred to as "access point (AP)", "enodeb (eNB)", "5th generation (5G) node", "wireless point", " It may be referred to as a transmission/reception point (TRP).

기지국, 단말 및 단말은 밀리미터 파(millimeter wave, mmWave) 대역(예: 28GHz, 30GHz, 38GHz, 60GHz)으로 무선 신호를 송수신할 수 있다. 이때, 채널 이득 향상을 위해 기지국, 단말 및 단말은 빔포밍을 수행할 수 있다. 빔포밍은 송신 빔포밍 및 수신 빔포밍을 포함할 수 있다. 즉, 기지국, 단말 및 단말은 송신 신호와 수신 신호에 지향성을 부여할 수 있다. 이를 위해 기지국, 단말 및 단말은 빔 탐색 절차 또는 빔 관리 절차를 통해 서빙 빔을 선택할 수 있다. 그 후, 통신은 서빙 빔을 운반하는 자원과 준 동일위치(quasi co-located) 관계에 있는 자원을 사용하여 수행될 수 있다.The base station, the terminal, and the terminal may transmit and receive wireless signals in a millimeter wave (mmWave) band (eg, 28 GHz, 30 GHz, 38 GHz, and 60 GHz). At this time, the base station, the terminal, and the terminal may perform beamforming to improve the channel gain. Beamforming may include transmit beamforming and receive beamforming. That is, the base station, the terminal, and the terminal can give directivity to the transmitted signal and the received signal. To this end, the base station, the terminal, and the terminal may select a serving beam through a beam search procedure or a beam management procedure. After that, communication may be performed using a resource carrying a serving beam and a resource having a quasi co-located relationship.

첫 번째 안테나 포트 및 두 번째 안테나 포트는 첫 번째 안테나 포트의 심볼이 전달되는 채널의 대규모 속성이 두 번째 안테나 포트의 심볼이 전달되는 채널에서 유추될 수 있는 경우 준 동일위치 위치에 있는 것으로 간주된다. 대규모 속성은 지연 확산, 도플러 확산, 도플러 시프트, 평균 이득, 평균 지연 및 공간 Rx 파라미터 중 하나 이상을 포함할 수 있다.A first antenna port and a second antenna port are considered quasi-colocated if the large-scale properties of the channel through which the symbol of the first antenna port carries can be inferred from the channel through which the symbol of the second antenna port carries. The large-scale properties may include one or more of delay spread, Doppler spread, Doppler shift, average gain, average delay, and spatial Rx parameters.

이하에서는 상술한 무선 통신 시스템에서 기지국을 예시한다. 이하에서 사용되는 "-모듈(module)", "-부(unit)"또는 "-er"라는 용어는 적어도 하나의 기능 또는 동작을 처리하는 유닛을 의미할 수 있으며, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다.Hereinafter, a base station in the wireless communication system described above is exemplified. The terms "-module", "-unit" or "-er" used below may mean a unit that processes at least one function or operation, and may include hardware, software, or both hardware and software. It can be implemented as a combination of

기지국은 무선 통신 인터페이스, 백홀 통신 인터페이스, 저장부(storage unit 및 컨트롤러을 포함할 수 있다.The base station may include a wireless communication interface, a backhaul communication interface, a storage unit and a controller.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스는 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a physical layer standard of the system. For example, in data transmission, a radio communication interface encodes and modulates a transmitted bit stream to generate composite symbols. Also, upon receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

무선 통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 무선 통신 인터페이스은 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행할 수 있다. 예를 들어, 데이터 전송에서, 무선 통신 인터페이스은 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신 시 무선 통신 인터페이스은 베이스 밴드 신호를 복조 및 디코딩하여 수신 비트 스트림을 재구성한다.The wireless communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the wireless communication interface may perform a conversion function between a baseband signal and a bit stream according to a system physical layer standard. For example, in data transmission, a radio communication interface encodes and modulates a transmitted bit stream to generate composite symbols. Also, upon receiving data, the wireless communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream.

또한, 무선 통신 인터페이스는 베이스 대역 신호를 RF(Radio Frequency) 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 베이스 대역 신호로 하향 변환한다. 이를 위해, 무선 통신 인터페이스은 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 무선 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다.In addition, the wireless communication interface up-converts a baseband signal into a radio frequency (RF) band signal, transmits the converted signal through an antenna, and down-converts the RF band signal received through the antenna into a baseband signal. To this end, the wireless communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, a digital-to-analog converter (DAC), An analog-to-digital converter (ADC) and the like may be included. Also, the wireless communication interface may include a plurality of transmit/receive paths. Additionally, the wireless communication interface may include at least one antenna array comprising a plurality of antenna elements.

하드웨어 측면에서 무선 통신 인터페이스는 디지털 유닛과 아날로그 유닛을 포함할 수 있고, 아날로그 유닛은 동작 전력, 동작 주파수 등에 따라 복수의 서브 유닛을 포함할 수 있다. 디지털 유닛은 적어도 하나의 프로세서(예를 들어, 디지털 신호 프로세서(digital signal processor, DSP))로 구현될 수 있다.In terms of hardware, the wireless communication interface may include a digital unit and an analog unit, and the analog unit may include a plurality of sub-units according to operating power, operating frequency, and the like. A digital unit may be implemented with at least one processor (eg, a digital signal processor (DSP)).

무선 통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 무선 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 무선 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The wireless communication interface transmits and receives signals as described above. Accordingly, a wireless communication interface may be referred to as a “transmitter”, “receiver” or “transceiver”. In addition, in the following description, transmission and reception performed through a wireless channel may be used as a meaning including processing performed in a wireless communication interface as described above.

백홀 통신 인터페이스는 네트워크 내의 다른 노드와 통신을 수행하기위한 인터페이스를 제공한다. 즉, 백홀 통신 인터페이스는 다른 노드로 전송되는 비트 스트림을 변환하고, 예를 들어, 다른 액세스 노드, 다른 기지국, 상위 노드 또는 기지국으로부터의 코어 네트워크는 물리적 신호로, 다른 노드로부터 수신된 물리적 신호를 비트 스트림으로 변환한다.The backhaul communication interface provides an interface for communicating with other nodes in the network. That is, the backhaul communication interface converts the bit stream transmitted to other nodes, for example, other access nodes, other base stations, upper nodes or core networks from base stations into physical signals, and the physical signals received from other nodes into bits. convert to stream

저장부는 기본 프로그램, 어플리케이션, 기지국의 동작을 위한 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다.The storage unit stores data such as basic programs, applications, and setting information for operation of the base station. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile and non-volatile memory.

컨트롤러는 기지국의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 무선 통신 인터페이스 또는 백홀 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 무선 통신 인터페이스에 포함될 수 있다. 이를 위해 컨트롤러는 적어도 하나의 프로세서를 포함할 수 있다.The controller controls the overall operation of the base station. For example, the controller transmits and receives signals through a wireless communication interface or a backhaul communication interface. Also, the controller writes data to the storage unit and reads the recorded data. The controller can perform protocol stack functions required by communication standards. According to another implementation, a protocol stack may be included in a wireless communication interface. To this end, the controller may include at least one processor.

일 실시 예에 따르면 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 기지국을 제어할 수 있다.According to an embodiment, the controller may control the base station to perform an operation according to an embodiment of the present invention.

다양한 실시 예에 따르면, 무선 통신 시스템의 도너 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 상기 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 상기 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 릴레이 노드로 전송하도록 구성되고; 상기 릴레이 노드로부터 상기 단말에 대한 복수의 라디오 베어러에 관한 상기 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 수신하고; 단말에 대한 데이터를 릴레이 노드로 전송할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a donor node of a wireless communication system includes at least one processor, includes a transceiver operably coupled to the at least one processor, and includes a plurality of radio bearers for a terminal accessing the relay node. configured to transmit to a relay node a first message including first information related to the donor node about; receive a second message including second information related to the relay node regarding a plurality of radio bearers for the terminal from the relay node; Data for the terminal may be transmitted to the relay node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. the at least one processor is also configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers aggregated by the radio bearer; Alternatively, a radio bearer for a UE accessing a relay node may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information about a radio bearer of a terminal accessing a relay node; information about a radio bearer transmitted by a terminal accessing a relay node; information about a tunnel established for a radio bearer between the donor node and the relay node; information about integrated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information about the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing the relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits radio bearer data of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of: identification of a terminal accessing the relay node; information about the radio bearer granted by the relay node; information about radio bearers not acknowledged by the relay node; information about radio bearers partially granted by the relay node; radio bearer mapping information; Configuration information of a terminal accessing the relay node created by the relay node; information about the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on integrated multiple radio bearers.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distribution unit of the donor node.

다양한 실시 예에 따르면, 무선 통신 시스템의 릴레이 노드는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 동작 가능하게 결합된 트랜시버를 포함하고, 도너 노드로부터, 릴레이 노드에 액세스하는 단말에 대한 복수의 라디오 베어러에 관한 도너 노드와 관련된 제1 정보를 포함하는 제1 메시지를 수신하도록 구성되고; 단말에 대한 복수의 라디오 베어러에 관한 릴레이 노드와 관련된 제2 정보를 포함하는 제2 메시지를 도너 노드로 전송하고; 도너 노드로부터 단말기에 대한 데이터를 수신할 수 있다. 데이터는 제1 정보 및 제2 정보에 기초하여 복수의 라디오 베어러를 통해 단말로 전송될 수 있다.According to various embodiments, a relay node of a wireless communication system includes at least one processor, includes a transceiver operably coupled to the at least one processor, and provides a plurality of information from a donor node to a terminal accessing the relay node. configured to receive a first message including first information related to a donor node for a radio bearer of; transmit to the donor node a second message including second information related to the relay node for the plurality of radio bearers for the terminal; Data on the terminal may be received from the donor node. Data may be transmitted to the terminal through a plurality of radio bearers based on the first information and the second information.

다양한 실시 예에 따르면, 복수의 라디오 베어러 중 라디오 베어러는 복수의 라디오 베어러를 통합시킬 수 있다. 적어도 하나의 프로세서는 또한 릴레이 노드에 액세스하는 단말에 대한 라디오 베어러 및 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정하도록 구성되고; 또는 라디오 베어러에 의해 통합된 다중 라디오 베어러를 결정할 수 있다.According to various embodiments, a radio bearer among a plurality of radio bearers may integrate a plurality of radio bearers. the at least one processor is also configured to determine a radio bearer for a terminal accessing the relay node and multiple radio bearers aggregated by the radio bearer; Alternatively, multiple radio bearers integrated by radio bearer may be determined.

다양한 실시 예에 따르면, 제1 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 접속하는 단말의 종류를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대한 정보; 릴레이 노드에 액세스하는 단말에 의해 전달된 라디오 베어러에 대한 정보; 도너 노드와 릴레이 노드 사이의 라디오 베어러에 대해 설정된 터널에 대한 정보; 통합된 다중 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 도너 노드 측면의 주소에 대한 정보; 릴레이 노드 측의 주소에 대한 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러에 대응하는 표시 정보; 릴레이 노드에 액세스하는 단말에 대해 새로운 주소를 라디오 베어러에 할당하도록 릴레이 노드를 나타내는 표시 정보; 릴레이 노드에 접속하는 단말의 라디오 베어러의 데이터를 전송하는 릴레이 노드가 사용할 수 없는 주소 정보 목록; 및 보안 구성과 관련된 정보.According to various embodiments, the first message may include one or more of: identification of a terminal accessing the relay node; display information indicating the type of terminal accessing the relay node; information about a radio bearer of a terminal accessing a relay node; information about a radio bearer transmitted by a terminal accessing a relay node; information about a tunnel established for a radio bearer between the donor node and the relay node; information about integrated multiple radio bearers; radio bearer mapping information; information about the address of the side of the donor node; information about the address of the relay node side; indication information corresponding to a radio bearer of a terminal accessing the relay node; indication information indicating the relay node to allocate a new address to a radio bearer for a terminal accessing the relay node; a list of address information that cannot be used by a relay node that transmits radio bearer data of a terminal accessing the relay node; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 다음 중 하나 이상을 포함할 수 있다: 릴레이 노드에 액세스하는 터미널의 식별; 릴레이 노드에 의해 승인된 라디오 베어러에 대한 정보; 릴레이 노드에 의해 승인되지 않은 라디오 베어러에 대한 정보; 릴레이 노드에 의해 부분적으로 승인된 라디오 베어러에 대한 정보; 라디오 베어러 매핑 정보; 릴레이 노드가 생성한 릴레이 노드에 접속하는 단말의 구성 정보; 릴레이 노드 측의 주소에 대한 정보; 및 보안 구성과 관련된 정보.According to various embodiments, the second message may include one or more of: identification of a terminal accessing the relay node; information about the radio bearer granted by the relay node; information about radio bearers not acknowledged by the relay node; information about radio bearers partially granted by the relay node; radio bearer mapping information; Configuration information of a terminal accessing the relay node created by the relay node; information about the address of the relay node side; and information related to security configuration.

다양한 실시 예에 따르면, 제2 메시지는 통합된 다중 라디오 베어러에 대한 정보를 더 포함할 수 있다.According to various embodiments, the second message may further include information on integrated multiple radio bearers.

다양한 실시 예에 따르면, 도너 노드는 도너 노드의 중앙 유닛을 포함하고, 릴레이 노드는 도너 노드의 분산 유닛을 포함할 수 있다.According to various embodiments, the donor node may include a central unit of the donor node, and the relay node may include a distribution unit of the donor node.

이하에서는 상술한 무선 통신 시스템에서 단말의 구성요소를 도시한다. 이하에서는 설명하는 단말의 구성요소는 무선 통신 시스템에서 지원하는 범용적인 단말의 구성요소로서 전술한 내용들에 따른 단말의 구성요소와 병합되거나 통합될 수 있고, 일부 중첩되거나 상충되는 범위에서 앞서 도면을 참조하여 설명한 내용이 우선적용되는 것으로 해석될 수 있다. 이하에서 사용되는 "-모듈", "-유닛"또는 "-er"라는 용어는 적어도 하나의 기능을 처리하는 유닛을 의미할 수 있다.Hereinafter, components of a terminal in the wireless communication system described above are illustrated. Components of a terminal to be described below are components of a general-purpose terminal supported by a wireless communication system, and may be merged or integrated with components of a terminal according to the foregoing contents, and may overlap or conflict with the above drawings. It can be interpreted that the content described with reference takes precedence. The terms "-module", "-unit" or "-er" used below may mean a unit that processes at least one function.

단말은 통신 인터페이스, 저장부 및 컨트롤러를 포함한다.The terminal includes a communication interface, a storage unit and a controller.

통신 인터페이스는 무선 채널을 통해 신호를 송수신하는 기능을 수행한다. 예를 들어, 통신 인터페이스는 시스템의 물리 계층 표준에 따라 베이스 밴드 신호와 비트 스트림 간의 변환 기능을 수행한다. 예를 들어, 데이터 전송에서 통신 인터페이스는 전송 비트 스트림을 인코딩 및 변조하여 복합 심볼을 생성한다. 또한, 데이터 수신시 통신 인터페이스는 베이스 대역 신호를 복조 및 복호화하여 수신 비트 스트림을 재구성한다. 또한, 통신 인터페이스는 베이스 대역 신호를 RF 대역 신호로 상향 변환하고, 변환된 신호를 안테나를 통해 전송한 후 안테나를 통해 수신된 RF 대역 신호를 기저 대역 신호로 하향 변환한다. 예를 들어, 통신 인터페이스는 송신 필터(transmission filter), 수신 필터(reception filter), 증폭기(amplifier), 믹서(mixer), 발진기(oscillator), 디지털-아날로그 컨버터(digital-to-analog convertor, DAC), 아날로그-디지털 컨버터(analog-to-digital convertor, ADC) 등을 포함할 수 있다.The communication interface performs a function of transmitting and receiving signals through a wireless channel. For example, the communication interface performs a conversion function between a baseband signal and a bit stream according to the physical layer standard of the system. For example, in data transmission, a communication interface encodes and modulates a transmission bit stream to generate composite symbols. Also, when receiving data, the communication interface demodulates and decodes the baseband signal to reconstruct the received bit stream. Further, the communication interface up-converts the baseband signal to an RF-band signal, transmits the converted signal through an antenna, and down-converts the RF-band signal received through the antenna into a baseband signal. For example, the communication interface includes a transmission filter, a reception filter, an amplifier, a mixer, an oscillator, and a digital-to-analog converter (DAC). , an analog-to-digital converter (ADC), and the like.

또한, 통신 인터페이스는 복수의 송수신 경로를 포함할 수 있다. 또한, 통신 인터페이스는 복수의 안테나 요소를 포함하는 적어도 하나의 안테나 어레이를 포함할 수 있다. 하드웨어 측에서 무선 통신 인터페이스는 디지털 회로 및 아날로그 회로(예를 들어, radio frequency integrated circuit, RFIC)를 포함할 수 있다. 디지털 회로는 적어도 하나의 프로세서(예: DSP)로 구현될 수 있다. 통신 인터페이스는 복수의 RF 체인을 포함할 수 있다. 통신 인터페이스는 빔포밍을 수행할 수 있다.Also, the communication interface may include a plurality of transmit/receive paths. Additionally, the communication interface may include at least one antenna array comprising a plurality of antenna elements. On the hardware side, the wireless communication interface may include a digital circuit and an analog circuit (eg, a radio frequency integrated circuit (RFIC)). A digital circuit may be implemented with at least one processor (eg, DSP). A communication interface may include multiple RF chains. The communication interface may perform beamforming.

통신 인터페이스는 전술한 바와 같이 신호를 송수신한다. 따라서, 통신 인터페이스는 "송신기(transmitter)", "수신기(receiver)"또는 "트랜시버(transceiver)"로 지칭될 수 있다. 또한, 이하의 설명에서 무선 채널을 통해 수행되는 송수신은 전술한 바와 같이 통신 인터페이스에서 수행되는 처리를 포함하는 의미로 사용될 수 있다.The communication interface transmits and receives signals as described above. Accordingly, a communication interface may be referred to as a “transmitter”, “receiver” or “transceiver”. In addition, in the following description, transmission and reception performed through a radio channel may be used as a meaning including processing performed in a communication interface as described above.

저장부는 단말기의 동작을 위한 기본 프로그램, 어플리케이션, 설정 정보 등의 데이터를 저장한다. 저장부는 휘발성 메모리, 비 휘발성 메모리 또는 휘발성 메모리와 비 휘발성 메모리의 조합을 포함할 수 있다. 또한, 저장부는 컨트롤러의 요청에 따라 저장된 데이터를 제공한다.The storage unit stores data such as basic programs for operation of the terminal, applications, and setting information. The storage unit may include volatile memory, non-volatile memory, or a combination of volatile and non-volatile memory. In addition, the storage unit provides stored data according to the request of the controller.

컨트롤러는 단말의 전반적인 동작을 제어한다. 예를 들어, 컨트롤러는 통신 인터페이스를 통해 신호를 송수신한다. 또한 컨트롤러는 저장부에 데이터를 기록하고 기록된 데이터를 읽는다. 컨트롤러는 통신 규격에서 요구하는 프로토콜 스택의 기능을 수행할 수 있다. 다른 구현에 따르면, 프로토콜 스택은 통신 인터페이스에 포함될 수 있다. 이를 위해, 컨트롤러는 적어도 하나의 프로세서 또는 마이크로 프로세서를 포함하거나 프로세서의 일부를 재생할 수 있다. 또한, 통신 인터페이스 또는 컨트롤러의 일부를 통신 프로세서(communication processor, CP)라고 할 수 있다.The controller controls the overall operation of the terminal. For example, the controller sends and receives signals through a communication interface. Also, the controller writes data to the storage unit and reads the recorded data. The controller can perform protocol stack functions required by communication standards. According to another implementation, a protocol stack may be included in the communication interface. To this end, the controller may include at least one processor or microprocessor or reproduce parts of a processor. Also, a part of the communication interface or controller may be referred to as a communication processor (CP).

본 발명의 일 실시 예에 따르면, 컨트롤러는 본 발명의 실시 예에 따른 동작을 수행하도록 단말을 제어할 수 있다.According to an embodiment of the present invention, a controller may control a terminal to perform an operation according to an embodiment of the present invention.

이하에서는 무선 통신 시스템에서 통신 인터페이스를 예시한다. Hereinafter, a communication interface in a wireless communication system is illustrated.

통신 인터페이스는 인코딩 및 변조 회로, 디지털 빔포밍 회로, 복수의 전송 경로 및 아날로그 빔포밍 회로를 포함한다.The communication interface includes encoding and modulation circuitry, digital beamforming circuitry, a plurality of transmission paths, and analog beamforming circuitry.

인코딩 및 변조 회로는 채널 인코딩을 수행한다. 채널 인코딩을 위해 low-density parity check(LDPC) 코드, 컨볼루션 코드 및 폴라 코드 중 적어도 하나가 사용될 수 있다. 인코딩 및 변조 회로는 성상 매핑(constellation mapping)을 수행함으로써 변조 심볼을 생성한다.Encoding and modulation circuitry performs channel encoding. At least one of a low-density parity check (LDPC) code, a convolution code, and a polar code may be used for channel encoding. An encoding and modulation circuit generates modulation symbols by performing constellation mapping.

디지털 빔포밍 회로는 디지털 신호(예를 들어, 변조 심볼)에 대한 빔 형성을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 변조 심볼을 다중화한다. 빔포밍 가중치는 신호의 크기 및 문구를 변경하는데 사용될 수 있으며, "프리코딩 매트릭스(precoding matrix)"또는 "프리코더(precoder)"라고 할 수 있다. 디지털 빔포밍 회로는 디지털 빔포밍된 변조 심볼을 복수의 전송 경로로 출력한다. 이때, 다중 안테나 기술(multiple input multiple output, MIMO) 전송 방식에 따라 변조 심볼이 다중화 되거나 동일한 변조 심볼이 복수의 전송 경로에 제공될 수 있다.A digital beamforming circuit performs beamforming on a digital signal (eg, a modulation symbol). To this end, a digital beamforming circuit multiplexes modulation symbols by beamforming weights. Beamforming weights can be used to change the size and phrase of a signal, and can be referred to as a "precoding matrix" or "precoder". The digital beamforming circuit outputs digital beamformed modulation symbols to a plurality of transmission paths. In this case, according to a multiple input multiple output (MIMO) transmission method, modulation symbols may be multiplexed or the same modulation symbol may be provided to a plurality of transmission paths.

복수의 전송 경로는 디지털 빔포밍된 디지털 신호를 아날로그 신호로 변환한다. 이를 위해, 복수의 전송 경로 각각은 인버스 고속 푸리에 변환(inverse fast fourier transform, IFFT) 계산 유닛, 순환 전치(cyclic prefix, CP) 삽입 유닛, DAC 및 상향 변환 유닛을 포함할 수 있다. CP 삽입 부는 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM) 방식을 위한 것으로 다른 물리 계층 방식(예: 필터 뱅크 다중 반송파(a filter bank multi-carrier): FBMC) 적용시 생략될 수 있다. 즉, 복수의 전송 경로는 디지털 빔포밍을 통해 생성된 복수의 스트림에 대해 독립적인 신호 처리 프로세스를 제공한다. 그러나, 구현에 따라 복수의 전송 경로의 일부 요소는 공통적으로 사용될 수 있다.The plurality of transmission paths convert digital beamformed digital signals into analog signals. To this end, each of the plurality of transmission paths may include an inverse fast fourier transform (IFFT) computation unit, a cyclic prefix (CP) insertion unit, a DAC, and an up conversion unit. The CP insertion unit is for an orthogonal frequency division multiplexing (OFDM) method and may be omitted when another physical layer method (eg, a filter bank multi-carrier: FBMC) is applied. That is, the plurality of transmission paths provide independent signal processing processes for a plurality of streams generated through digital beamforming. However, depending on the implementation, some elements of the plurality of transmission paths may be commonly used.

아날로그 빔포밍 회로는 아날로그 신호에 대한 빔포밍을 수행한다. 이를 위해, 디지털 빔포밍 회로는 빔포밍 가중 값에 의해 아날로그 신호를 다중화한다. 빔포밍된 가중치는 신호의 크기와 문구를 변경하는데 사용된다. 보다 구체적으로, 복수의 전송 경로와 안테나 사이의 연결 구조에 따라, 아날로그 빔포밍 회로는 다양한 방식으로 구성될 수 있다. 예를 들어, 복수의 전송 경로 각각은 하나의 안테나 어레이에 연결될 수 있다. 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 연결될 수 있다. 또 다른 예에서, 복수의 전송 경로는 하나의 안테나 어레이에 적응적으로 연결될 수 있거나 2개 이상의 안테나 어레이에 연결될 수 있다.An analog beamforming circuit performs beamforming on an analog signal. To this end, the digital beamforming circuit multiplexes analog signals by beamforming weighting values. The beamformed weights are used to change the amplitude and phrase of the signal. More specifically, the analog beamforming circuit may be configured in various ways according to a connection structure between a plurality of transmission paths and an antenna. For example, each of a plurality of transmission paths may be connected to one antenna array. In another example, multiple transmission paths may be coupled to one antenna array. In another example, multiple transmission paths may be adaptively coupled to one antenna array or may be coupled to two or more antenna arrays.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (1)

사용자의 관람 위치에 따른 시각 차이를 보정하는 기술을 지원하는 공연 컨텐츠 제공 장치에 포함된 프로세서에 의해 수행되는 상기 공연 컨텐츠 제공 장치의 동작 방법으로,
공연자 제스처를 인식하고, 인식된 상기 공연자 제스처에 대응하는 제스처 인식 신호를 생성하는 단계;
상기 제스처 인식 신호를 분석하여, 상기 공연자 제스처가 기 설정된 제 1 제스처, 제 2 제스처 또는 제 3 제스처 인지 판단하는 단계;
상기 공연자 제스처가 상기 제 1 제스처인 경우, 상기 제 1 제스처에 기초하여 적어도 하나의 카메라 영상에서 공연 영상을 선택하는 단계;
상기 공연자 제스처가 상기 제 2 제스처인 경우, 상기 제 2 제스처에 기초하여 증강현실 컨텐츠를 선택하는 단계;
상기 공연자 제스처가 상기 제 3 제스처인 경우, 상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계; 및
상기 공연 영상과 상기 증강현실 컨텐츠를 오버레이하여, 공연 컨텐츠를 생성하는 단계를 포함하고,
상기 공연 영상을 선택하는 단계는,
상기 제 1 제스처에 따른 지시 방향 및 각도 중 적어도 하나를 이용하여, 상기 적어도 하나의 카메라 영상에서 상기 공연 영상을 선택하되, 상기 제 1 제스처가 공연자의 오른팔에 관한 제스처인 경우, 상기 공연자의 오른팔이 지시하는 방향을 촬영하는 카메라의 카메라 영상을 상기 공연 영상으로 선택하고,
상기 증강현실 컨텐츠를 선택하는 단계는,
기 설정된 상기 제 2 제스처와 상기 제 2 제스처에 대응하는 증강현실 컨텐츠에 대한 매핑 정보를 포함하는 맵핑 테이블을 이용하여, 상기 제 2 제스처에 대응하는 상기 증강현실 컨텐츠를 선택하고,
상기 증강현실 컨텐츠는, 공연 대본 이미지, 공연 설명 이미지, 공연자 아바타 영상, 공연 소품 이미지, 및 무대 효과 영상을 포함하고,
상기 제 3 제스처에 기초하여 공연 장비를 제어하는 단계는, 상기 제 3 제스처의 반복 횟수를 이용하여 카메라의 이동 속도, 줌인, 줌 아웃, 초점, 팬, 및 틸트, 마이크의 볼륨, 및 조명의 밝기 중에서 어느 하나를 선택하고, 상기 제 3 제스처의 반복 주기를 이용하여 선택된 공연 장비의 설정을 변경하고,
상기 공연 컨텐츠를 생성하는 단계는,
사용자의 사용자 단말에 대한 이동 정보를 상기 사용자에 대한 관람 위치 정보로서 획득하는 단계;
획득된 상기 관람 위치 정보에 따라 상기 증강현실 컨텐츠의 위치, 크기 및 기울기 중 어느 하나를 조정하는 단계; 및
조정된 상기 증강현실 컨텐츠를 상기 공연 영상과 합성하는 단계를 포함하고,
상기 합성하는 단계는,
공연장 내의 무대 위 고정된 위치에 설치된 제 1 마커 및 공연자 또는 공연에 사용되는 물건에 설치된 제 2 마커를 인식하는 단계;
인식된 상기 제 1 마커 및 상기 제 2 마커의 크기와 위치에 기초하여 상기 증강현실 컨텐츠의 위치와 크기를 조정하는 단계; 및
조정된 상기 증강현실 컨텐츠를 상기 공연 영상과 합성하는 단계를 포함하는,
공연 컨텐츠 제공 장치의 동작 방법.
An operating method of a performance content providing device performed by a processor included in the performance content providing device supporting a technique for correcting a visual difference according to a viewing position of a user, the method comprising:
recognizing a performer's gesture and generating a gesture recognition signal corresponding to the recognized performer's gesture;
analyzing the gesture recognition signal and determining whether the performer's gesture is a preset first gesture, second gesture, or third gesture;
selecting a performance image from at least one camera image based on the first gesture when the performer's gesture is the first gesture;
selecting augmented reality content based on the second gesture when the performer's gesture is the second gesture;
controlling performance equipment based on the third gesture when the performer's gesture is the third gesture; and
Generating performance content by overlaying the performance video and the augmented reality content;
The step of selecting the performance video,
Selecting the performance video from the at least one camera image using at least one of a pointing direction and an angle according to the first gesture, and when the first gesture is a gesture related to the performer's right arm, the performer's right arm Selecting a camera image of a camera photographing the indicated direction as the performance image,
The step of selecting the augmented reality content,
Selecting the augmented reality content corresponding to the second gesture using a mapping table including mapping information for the preset second gesture and augmented reality content corresponding to the second gesture;
The augmented reality content includes a performance script image, a performance description image, a performer avatar image, a performance prop image, and a stage effect image,
Controlling the performance equipment based on the third gesture may include camera movement speed, zoom-in, zoom-out, focus, pan, and tilt, microphone volume, and brightness of lighting using the number of repetitions of the third gesture. select one of them, and change the setting of the selected performance equipment using the repetition period of the third gesture;
The step of generating the performance content,
obtaining movement information about a user terminal of a user as viewing location information for the user;
adjusting any one of the position, size, and inclination of the augmented reality content according to the obtained viewing location information; and
Comprising the step of synthesizing the adjusted augmented reality content with the performance video,
In the synthesizing step,
Recognizing a first marker installed at a fixed position on a stage in a performance hall and a second marker installed on a performer or an object used for a performance;
adjusting the position and size of the augmented reality content based on the recognized sizes and positions of the first marker and the second marker; and
Comprising the step of synthesizing the adjusted augmented reality content with the performance video,
A method of operating a performance content providing device.
KR1020220045144A 2021-05-21 2022-04-12 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof KR102569419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220045144A KR102569419B1 (en) 2021-05-21 2022-04-12 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210065674A KR102387355B1 (en) 2021-05-21 2021-05-21 The method and apparatus for providing perpormance contents based on augmented reality
KR1020220045144A KR102569419B1 (en) 2021-05-21 2022-04-12 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210065674A Division KR102387355B1 (en) 2021-05-21 2021-05-21 The method and apparatus for providing perpormance contents based on augmented reality

Publications (2)

Publication Number Publication Date
KR20220157872A true KR20220157872A (en) 2022-11-29
KR102569419B1 KR102569419B1 (en) 2023-08-24

Family

ID=81390653

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210065674A KR102387355B1 (en) 2021-05-21 2021-05-21 The method and apparatus for providing perpormance contents based on augmented reality
KR1020220045144A KR102569419B1 (en) 2021-05-21 2022-04-12 Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210065674A KR102387355B1 (en) 2021-05-21 2021-05-21 The method and apparatus for providing perpormance contents based on augmented reality

Country Status (1)

Country Link
KR (2) KR102387355B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240067414A (en) 2022-11-09 2024-05-17 제이에스씨(주) Data optimization and synchronization method in large-scale virtual performance network system
KR102635477B1 (en) 2023-08-01 2024-02-08 김재하 Device for providing performance content based on augmented reality and method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703924B1 (en) * 2015-09-22 2017-02-07 하태진 3d virtual reality system using 3d-spectacles for virtual image display
KR101839270B1 (en) * 2017-08-01 2018-03-15 서울과학기술대학교 산학협력단 Method of forming virtual reality of performance
KR20180130911A (en) * 2017-05-30 2018-12-10 배재대학교 산학협력단 Smart augmented reality service system and method based on virtual studio
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies
KR20200134575A (en) * 2019-05-22 2020-12-02 백향은 System and method for ballet performance via augumented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703924B1 (en) * 2015-09-22 2017-02-07 하태진 3d virtual reality system using 3d-spectacles for virtual image display
KR20180130911A (en) * 2017-05-30 2018-12-10 배재대학교 산학협력단 Smart augmented reality service system and method based on virtual studio
KR101839270B1 (en) * 2017-08-01 2018-03-15 서울과학기술대학교 산학협력단 Method of forming virtual reality of performance
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies
KR20200134575A (en) * 2019-05-22 2020-12-02 백향은 System and method for ballet performance via augumented reality

Also Published As

Publication number Publication date
KR102387355B1 (en) 2022-04-18
KR102569419B1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
KR102569419B1 (en) Augmented reality-based performance content providing device that supports a technology for correcting a visual difference according to a user's viewing position and performing method thereof
KR20180026160A (en) Method for controlling source device at sink device and apparatus for the same
KR101708306B1 (en) Mobile twrminal and 3d image convergence method thereof
KR20170123125A (en) Mobile terminal and method for controlling the same
KR20160133230A (en) Mobile terminal
CN106358319A (en) Wireless projection device, system and method
KR102390838B1 (en) Apparatus and method for generating a picture frame based on images taken through a shooting room kiosk
KR20090066103A (en) Mobile terminal and its method for displaying radio device
KR102623181B1 (en) Wireless device and wireless system
KR20090002848A (en) Method for identifying peripheral device and apparatus thereof
KR20150109764A (en) Mobile terminal and method for processing data the same
CN113794796B (en) Screen projection method and electronic equipment
CN116998170A (en) System and method for ultra-wideband applications
KR20120080774A (en) Displaying method for displaying information of electro-field intensity and system thereof, and portable device supporting the same
KR20170111000A (en) Display device and operating method thereof
KR20150091798A (en) Terminal and method for combining images thereof
CN105049916B (en) A kind of video recording method and device
WO2013005736A1 (en) Display device, display control method, and program
CN107071275B (en) Image synthesis method and terminal
KR102673444B1 (en) Apparatus and method for providing different service according to area based on beam book information
KR101988897B1 (en) Obile terminal and audio zooming sharing method thereof
CN109473117B (en) Audio special effect superposition method and device and terminal thereof
CN109275038B (en) Game live broadcast method, terminal and computer readable storage medium
CN104902100B (en) A kind of method and device for controlling mobile terminal to apply
KR101570424B1 (en) Mobile terminal and control method for the mobile terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right