KR102636562B1 - Device for providing content through spherical display - Google Patents

Device for providing content through spherical display Download PDF

Info

Publication number
KR102636562B1
KR102636562B1 KR1020230172089A KR20230172089A KR102636562B1 KR 102636562 B1 KR102636562 B1 KR 102636562B1 KR 1020230172089 A KR1020230172089 A KR 1020230172089A KR 20230172089 A KR20230172089 A KR 20230172089A KR 102636562 B1 KR102636562 B1 KR 102636562B1
Authority
KR
South Korea
Prior art keywords
content
area
main body
processor
color
Prior art date
Application number
KR1020230172089A
Other languages
Korean (ko)
Inventor
송동일
Original Assignee
주식회사라이브아레나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사라이브아레나 filed Critical 주식회사라이브아레나
Priority to KR1020230172089A priority Critical patent/KR102636562B1/en
Application granted granted Critical
Publication of KR102636562B1 publication Critical patent/KR102636562B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • H04N5/642Disposition of sound reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

일실시예에 따르면, 구형 디스플레이를 통한 컨텐츠 제공 장치에 있어서, 구 형상으로 형성된 본체; 컨텐츠를 상기 본체의 표면에 시각적으로 표시하는 디스플레이 장치; 및 상기 디스플레이 장치를 제어하는 프로세서;를 포함하고, 상기 디스플레이 장치는, 서로 다른 위치에 설치되어 상기 본체에 컨텐츠를 투사하도록 구성된 제1 장치 및 상기 본체의 표면에 배치된 복수의 발광 장치로 구성된 제2 장치 중 적어도 하나를 포함하고, 상기 프로세서는, 사용자 단말 장치 및 저장 장치 중 적어도 하나로부터 영상 컨텐츠를 수신하여 상기 영상 컨텐츠를 상기 디스플레이 장치를 통해 출력하는, 구형 디스플레이를 통한 컨텐츠 제공 장치가 제공된다.According to one embodiment, an apparatus for providing content through a spherical display includes: a main body formed in a spherical shape; a display device that visually displays content on the surface of the main body; and a processor that controls the display device, wherein the display device includes a first device installed at different locations and configured to project content onto the main body, and a second device configured to include a plurality of light emitting devices disposed on the surface of the main body. A content providing device through a spherical display is provided, including at least one of two devices, wherein the processor receives video content from at least one of a user terminal device and a storage device and outputs the video content through the display device. .

Description

구형 디스플레이를 통한 컨텐츠 제공 장치 {DEVICE FOR PROVIDING CONTENT THROUGH SPHERICAL DISPLAY}Device for providing content through a spherical display {DEVICE FOR PROVIDING CONTENT THROUGH SPHERICAL DISPLAY}

아래 실시예들은 구형 디스플레이를 통해 컨텐츠를 제공하는 장치에 관한 것이다.The embodiments below relate to devices that provide content through a spherical display.

미디어아트는 예술과 기술의 융합을 통해 새로운 창작 영역을 개척하는 분야로, 다양한 매체와 기술을 활용하여 창작된 작품을 통해 시각적, 청각적, 감각적인 경험을 제공한다. 최근 미디어아트는 전통적인 미술 작품의 경계를 넘어선 다양한 형식과 매체를 통해 창조적인 작품을 만들어내는데 주목받고 있다. 이에, 실감 콘텐츠(미디어아트)는 새로운 트렌드를 넘어 문화 예술 시장을 장악하고 있으며, 미래 산업의 대세로 성장하고 있다.Media art is a field that pioneers new creative areas through the convergence of art and technology, providing visual, auditory, and sensory experiences through works created using various media and technologies. Recently, media art has been attracting attention for creating creative works through various forms and media that go beyond the boundaries of traditional works of art. Accordingly, realistic content (media art) is dominating the culture and arts market beyond new trends and is growing into a mainstream future industry.

최근에는 관객들이 작품에 몰입할 수 있는 경험을 제공하는 몰입형 미디어아트가 큰 인기를 끌고 있다. 몰입형 미디어아트는 시각적, 청각적, 감각적인 영상과 사운드, 인터랙션 등 다양한 요소를 활용하여 현실적이고 참여적인 경험의 제공이 가능하게 한다.Recently, immersive media art, which provides an experience that allows the audience to immerse themselves in the work, has become very popular. Immersive media art makes it possible to provide realistic and participatory experiences by utilizing various elements such as visual, auditory, and sensory images, sounds, and interactions.

특히, 구형 조형물을 활용한 360도 맵핑은 몰입형 미디어아트의 한 형태로, 조형물의 형태에 맞춰 영상을 투영하여 360도 환경을 조성하는 것을 의미한다. 관람객들은 조형물을 통한 미디어아트 콘텐츠를 경험하며, 주변 환경과 상호작용하며 작품에 몰입할 수 있다. 이를 통해 공간의 경계를 뛰어넘어 작품과 관객 사이에 상호작용이 이루어지고, 현실과 가상이 융합된 색다른 경험을 제공할 수 있다.In particular, 360-degree mapping using spherical sculptures is a form of immersive media art, which means creating a 360-degree environment by projecting images according to the shape of the sculpture. Visitors can experience media art content through the sculpture, interact with the surrounding environment, and become immersed in the work. Through this, interaction between the work and the audience can take place beyond the boundaries of space, providing a unique experience that combines reality and virtuality.

이에 따라, 구형 디스플레이에 다양한 컨텐츠를 표시하는 것에 대한 요구가 증대되고 있어, 이와 관련된 기술의 구현이 요구되고 있다.Accordingly, the demand for displaying various contents on spherical displays is increasing, and the implementation of related technologies is required.

한국등록특허 제10-2508663호Korean Patent No. 10-2508663 한국등록특허 제10-2261597호Korean Patent No. 10-2261597 한국등록특허 제10-2023771호Korean Patent No. 10-2023771 한국등록특허 제10-1986329호Korean Patent No. 10-1986329

일실시예에 따르면, 구형 디스플레이를 통한 컨텐츠 제공 장치를 제공하는 것을 목적으로 한다.According to one embodiment, the purpose is to provide a content providing device through a spherical display.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned can be clearly understood from the description below.

일실시예에 따르면, 구형 디스플레이를 통한 컨텐츠 제공 장치에 있어서, 구 형상으로 형성된 본체; 컨텐츠를 상기 본체의 표면에 시각적으로 표시하는 디스플레이 장치; 및 상기 디스플레이 장치를 제어하는 프로세서;를 포함하고, 상기 디스플레이 장치는, 서로 다른 위치에 설치되어 상기 본체에 컨텐츠를 투사하도록 구성된 제1 장치 및 상기 본체의 표면에 배치된 복수의 발광 장치로 구성된 제2 장치 중 적어도 하나를 포함하고, 상기 프로세서는, 사용자 단말 장치 및 저장 장치 중 적어도 하나로부터 영상 컨텐츠를 수신하여 상기 영상 컨텐츠를 상기 디스플레이 장치를 통해 출력하는, 구형 디스플레이를 통한 컨텐츠 제공 장치가 제공된다.According to one embodiment, an apparatus for providing content through a spherical display includes: a main body formed in a spherical shape; a display device that visually displays content on the surface of the main body; and a processor that controls the display device, wherein the display device includes a first device installed at different locations and configured to project content onto the main body, and a second device configured to include a plurality of light emitting devices disposed on the surface of the main body. A content providing device through a spherical display is provided, including at least one of two devices, wherein the processor receives video content from at least one of a user terminal device and a storage device and outputs the video content through the display device. .

상기 본체는, 상기 본체의 중심에 대해 위치 고정된 제1 부분 및 상기 본체의 중심에 대해 위치가 가변되도록 액츄에이터와 연결된 제2 부분을 포함하고, 상기 프로세서는, 상기 영상 컨텐츠에 포함된 본체 변형 신호 및 상기 영상 컨텐츠와 별도로 수신한 본체 변형 신호 중 적어도 하나에 기반하여 상기 액츄에이터를 작동시키고, 상기 디스플레이 장치 중 상기 제2 부분에 대응하는 영역에서 재생되는 영상의 밝기, 채도, 색감을 상기 디스플레이 장치 중 상기 제1 부분에 대응하는 영역에서 재생된 영상의 밝기, 채도, 색감과 다르게 제어할 수 있다.The main body includes a first part whose position is fixed with respect to the center of the main body and a second part connected to an actuator so that the position is variable with respect to the center of the main body, and the processor is configured to receive a body deformation signal included in the video content. and operating the actuator based on at least one of the main body deformation signals received separately from the video content, and controlling the brightness, saturation, and color of the image played in the area corresponding to the second part of the display device. The brightness, saturation, and color of the image played in the area corresponding to the first part can be controlled differently.

상기 구형 디스플레이를 통한 컨텐츠 제공 장치는, 상기 프로세서에 의해 제어되는 카메라 장치;를 더 포함하고, 상기 프로세서는, 상기 카메라 장치를 통해 촬영된 영상에서 객체를 확인하고, 상기 객체의 움직임을 추적하여 트래킹 정보를 생성하고, 상기 객체가 위치한 부분에서 재생되는 컨텐츠가 상기 객체를 따라 움직이도록 상기 트래킹 정보를 이용하여 상기 디스플레이 장치를 제어할 수 있다.The device for providing content through the spherical display further includes a camera device controlled by the processor, wherein the processor identifies an object in an image captured through the camera device and tracks the movement of the object. The display device can be controlled to generate information and use the tracking information so that content played in the area where the object is located moves along the object.

상기 프로세서는, 상기 본체의 제1 영역에서 제1 컨텐츠가 출력되고, 상기 본체의 제2 영역에서 제2 컨텐츠가 출력되고, 상기 제1 영역과 제2 영역의 경계인 제3 영역에서 상기 제1 컨텐츠의 말단과 상기 제2 컨텐츠의 말단의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠를 출력할 수 있다.The processor outputs first content from a first area of the main body, outputs second content from a second area of the main body, and outputs the first content from a third area that is a boundary between the first area and the second area. Content that linearly connects the brightness, saturation, and color of the end of and the end of the second content can be output.

상기 구형 디스플레이를 통한 컨텐츠 제공 장치는, 상기 프로세서에 의해 제어되는 오디오 장치;를 더 포함하고, 상기 오디오 장치는, 상기 제1 영역에 배치되어 상기 제1 영역에 대해 음성을 출력하는 제1 지향성 오디오 및 상기 제2 영역에 배치되어 상기 제2 영역에 대해 음성을 출력하는 제2 지향성 오디오를 포함하고, 상기 프로세서는, 상기 제1 지향성 오디오에서 상기 제1 컨텐츠의 음성이 출력되고, 상기 제2 지향성 오디오에서 상기 제2 컨텐츠의 음성이 출력되도록 제어할 수 있다.The device for providing content through the spherical display further includes an audio device controlled by the processor, wherein the audio device includes a first directional audio device disposed in the first area and outputting sound to the first area. and a second directional audio disposed in the second area to output sound to the second area, wherein the processor outputs the sound of the first content from the first directional audio, and outputs the sound of the first content to the second directional audio. The audio of the second content can be controlled to be output.

일실시예에 따르면, 구 형상으로 형성된 본체의 표면에 컨텐츠를 표시하여, 구형 디스플레이를 통해 몰입형 미디어아트 콘텐츠를 재현할 수 있는 효과가 있다.According to one embodiment, by displaying content on the surface of a main body formed in a spherical shape, there is an effect of reproducing immersive media art content through a spherical display.

또한, 일실시예에 따르면, 컨텐츠가 표시되는 본체의 표면이 동적으로 움직일 수 있는 기능을 제공하여, 시청자에게 몰입감을 줄 수 있도록 특정 부분이 인입 또는 인출될 수 있게 처리할 수 있는 효과가 있다.In addition, according to one embodiment, the surface of the main body on which content is displayed is provided with a function to move dynamically, which has the effect of allowing specific parts to be drawn in or out to provide a sense of immersion to the viewer.

또한, 일실시예에 따르면, 객체의 움직임을 추적하여, 객체의 움직임에 따라 컨텐츠의 표시 구역을 변경함으로써, 시청자와 상호 작용할 수 있는 기능을 제공할 수 있는 효과가 있다.Additionally, according to one embodiment, there is an effect of providing a function for interacting with the viewer by tracking the movement of an object and changing the display area of the content according to the movement of the object.

또한, 일실시예에 따르면, 본체의 표면에서 복수의 컨텐츠가 재생되어 출력되도록 처리함으로써, 시청자가 바라보는 방향에 따라 다른 영상을 출력하는 기능을 제공할 수 있는 효과가 있다.In addition, according to one embodiment, by processing a plurality of contents to be reproduced and output on the surface of the main body, there is an effect of providing a function of outputting different images depending on the direction the viewer is looking.

또한, 일실시예에 따르면, 경계 영역에서 복수의 컨텐츠 각각의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠가 출력되도록 처리함으로써, 컨텐츠 영상의 경계를 자연스럽게 처리할 수 있는 효과가 있다.Additionally, according to one embodiment, the boundary of the content image can be naturally processed by processing the content to output linearly connected brightness, saturation, and color of each of the plurality of contents in the boundary area.

또한, 일실시예에 따르면, 지향성 오디오 각각에서 컨텐츠 별로 상이한 음성을 출력함으로써, 지향성 오디오를 이용하여 컨텐츠 별로 상이한 음성을 시청자에게 전달할 수 있는 효과가 있다.Additionally, according to one embodiment, by outputting different voices for each content from each directional audio, there is an effect of delivering different voices for each content to the viewer using directional audio.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 구형 디스플레이를 통한 컨텐츠 제공 장치 대한 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 본체의 표면에 콘텐츠를 표시하는 디스플레이 장치를 설명하기 위한 도면이다.
도 3은 일실시예에 따른 본체의 표면에서 제1 부분과 제2 부분을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 객체의 움직임에 따라 컨텐츠의 표시 구역을 변경하는 과정을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 본체의 표면에서 제1 영역 내지 제3 영역을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 지향성 오디오를 이용하여 복수 컨텐츠의 음성을 출력하는 오디오 장치를 설명하기 위한 도면이다.
Figure 1 is a diagram schematically showing the configuration of a content providing device through a spherical display according to an embodiment.
Figure 2 is a diagram for explaining a display device that displays content on the surface of a main body according to one embodiment.
Figure 3 is a diagram for explaining a first part and a second part on the surface of the main body according to one embodiment.
Figure 4 is a diagram for explaining a process of changing the display area of content according to the movement of an object according to an embodiment.
Figure 5 is a diagram for explaining first to third areas on the surface of the main body according to one embodiment.
FIG. 6 is a diagram illustrating an audio device that outputs audio of multiple contents using directional audio according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, various changes can be made to the embodiments, so the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 일실시예에 따른 구형 디스플레이를 통한 컨텐츠 제공 장치 대한 구성을 개략적으로 나타낸 도면이다.Figure 1 is a diagram schematically showing the configuration of a content providing device through a spherical display according to an embodiment.

도 1을 참조하면, 구형 디스플레이를 통한 컨텐츠 제공 장치(100)는 본체(110), 디스플레이 장치(120), 카메라 장치(130), 오디오 장치(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 1 , a device 100 for providing content through a spherical display may include a main body 110, a display device 120, a camera device 130, an audio device 140, and a processor 150.

먼저, 본체(110)는 구 형상으로 형성될 수 있으며, 구체의 조형물로 구현될 수 있다.First, the main body 110 may be formed in a spherical shape and may be implemented as a spherical sculpture.

예를 들어, 본체(110)는 지름이 약 10m 정도의 구체로 형성될 수 있으며, 지지대를 통해 구체가 고정되도록 하여 특정 지점에 설치할 수 있다. 본체(110)를 구 형상으로 형성하여 특정 지점에 설치하는 구성 및 그 과정에 대한 설명은 통상의 기술자에게 자명한 사항이므로, 이에 대한 설명은 생략하기로 한다.For example, the main body 110 may be formed as a sphere with a diameter of approximately 10 m, and may be installed at a specific point by fixing the sphere through a support. Since the configuration and process for forming the main body 110 into a spherical shape and installing it at a specific point are obvious to those skilled in the art, the description thereof will be omitted.

일실시예에 따르면, 본체(110)는 다양한 크기의 구체로 구현될 수 있으며, 실내 및 야외에 모두 설치가 가능하여, 실내 공간에서의 미디어 아트 뿐만 아니라, 야외 공간에서의 미디어 아트도 제공할 수 있다.According to one embodiment, the main body 110 can be implemented as a sphere of various sizes and can be installed both indoors and outdoors, providing media art in outdoor spaces as well as media art in indoor spaces. there is.

디스플레이 장치(120)는 프로세서(150)에 의해 제어될 수 있으며, 컨텐츠를 본체(110)의 표면에 시각적으로 표시하는 장치로 구현될 수 있다.The display device 120 may be controlled by the processor 150 and may be implemented as a device that visually displays content on the surface of the main body 110.

일실시예에 따르면, 디스플레이 장치(120)는 제1 장치(121) 및 제2 장치(122) 중 적어도 하나를 포함할 수 있으며, 제1 장치(121)는 서로 다른 위치에 설치되어 본체(110)에 컨텐츠를 투사하도록 구성될 수 있고, 제2 장치(122)는 본체(110)의 표면에 배치된 복수의 발광 장치로 구성될 수 있다. 제1 장치(121) 및 제2 장치(122)에 대한 자세한 설명은 도 2를 참조하여 후술하기로 한다.According to one embodiment, the display device 120 may include at least one of a first device 121 and a second device 122, and the first device 121 is installed at different locations to form the main body 110. ) may be configured to project content, and the second device 122 may be comprised of a plurality of light-emitting devices disposed on the surface of the main body 110. A detailed description of the first device 121 and the second device 122 will be described later with reference to FIG. 2.

카메라 장치(130)는 프로세서(150)에 의해 제어될 수 있으며, 촬영을 수행하여 영상 정보를 생성하는 장치로 구현될 수 있다.The camera device 130 may be controlled by the processor 150 and may be implemented as a device that generates image information by performing photography.

오디오 장치(140)는 프로세서(150)에 의해 제어될 수 있으며, 소리를 출력하는 장치로 구현될 수 있다.The audio device 140 may be controlled by the processor 150 and may be implemented as a device that outputs sound.

오디오 장치(140)는 제1 지향성 오디오(141) 및 제2 지향성 오디오(142)를 포함할 수 있으며, 제1 지향성 오디오(141)는 제1 영역에 배치되어 제1 영역에 대해 음성을 출력할 수 있고, 제2 지향성 오디오(142)는 제2 영역에 배치되어 제2 영역에 대해 음성을 출력할 수 있다. 제1 지향성 오디오(141) 및 제2 지향성 오디오(142)에 대한 자세한 설명은 도 6을 참조하여 후술하기로 한다.The audio device 140 may include first directional audio 141 and second directional audio 142, and the first directional audio 141 is disposed in the first area to output voice to the first area. The second directional audio 142 may be disposed in the second area to output audio to the second area. A detailed description of the first directional audio 141 and the second directional audio 142 will be described later with reference to FIG. 6 .

프로세서(150)는 디스플레이 장치(120), 카메라 장치(130) 및 오디오 장치(140) 각각의 동작을 제어하여, 컨텐츠 제공 장치(100)의 전체적인 동작을 제어할 수 있다.The processor 150 may control the overall operation of the content providing device 100 by controlling the operations of each of the display device 120, the camera device 130, and the audio device 140.

프로세서(150)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The processor 150 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer.

프로세서(150)는 사용자 단말 및 저장 장치 중 적어도 하나로부터 영상 컨텐츠를 수신하여 영상 컨텐츠를 디스플레이 장치(120)를 통해 출력할 수 있다. 이를 위해, 프로세서(150)는 통신 모듈을 포함하여 구현될 수 있으며, 통신 모듈을 통해 사용자 단말, 저장 장치 등과 같은 외부 장치와 연결될 수 있다.The processor 150 may receive video content from at least one of a user terminal and a storage device and output the video content through the display device 120. To this end, the processor 150 may be implemented including a communication module and may be connected to an external device such as a user terminal, a storage device, etc. through the communication module.

일실시예에 따르면, 프로세서(150)는 프로그램을 실행하고, 컨텐츠 제공 장치(100)를 제어할 수 있다. 프로세서(150)에 의하여 실행되는 프로그램의 코드와, 프로그램 실행을 위해 필요한 정보는 메모리에 저장될 수 있다. 여기서, 메모리는 프로세서(150)에 포함되어 있는 저장 모듈로 구현되거나, 프로세서(150)와 연결되어 있는 저장 모듈로 구현될 수 있다.According to one embodiment, the processor 150 may execute a program and control the content providing device 100. The code of the program executed by the processor 150 and information necessary for program execution may be stored in memory. Here, the memory may be implemented as a storage module included in the processor 150 or as a storage module connected to the processor 150.

메모리는 프로세서(150)에서 컨텐츠 제공 장치(100)를 제어하기 위해 수행하는 동작들을 처리하기 위한 데이터, 처리 중인 데이터, 처리된 데이터, 기 설정된 데이터 등을 저장할 수 있고, 프로세서(150)의 제어에 따라 동작될 수 있다.The memory may store data for processing operations performed by the processor 150 to control the content providing device 100, data in process, processed data, preset data, etc., and may be controlled by the processor 150. It can be operated accordingly.

프로세서(150)는 도 2 내지 도 6을 참조하여 후술되는 적어도 하나의 방법을 수행할 수 있고, 메모리는 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 이때, 메모리는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The processor 150 may perform at least one method described later with reference to FIGS. 2 to 6 , and the memory may store a program implementing methods described later. At this time, the memory may be volatile memory or non-volatile memory.

도 2는 일실시예에 따른 본체의 표면에 콘텐츠를 표시하는 디스플레이 장치를 설명하기 위한 도면이다.Figure 2 is a diagram for explaining a display device that displays content on the surface of a main body according to an embodiment.

도 2를 참조하면, 디스플레이 장치(120)는 제1 장치(121) 및 제2 장치(122)를 통해 본체(110)의 표면에 콘텐츠를 표시할 수 있다.Referring to FIG. 2 , the display device 120 can display content on the surface of the main body 110 through the first device 121 and the second device 122.

도 2의 (a)에 도시된 바와 같이, 제1 장치(121)는 서로 다른 위치에 설치되는 복수의 장치로 구현될 수 있다. 이때, 제1 장치(121)는 본체(110)에 컨텐츠를 투사하도록 구성될 수 있다.As shown in (a) of FIG. 2, the first device 121 may be implemented as a plurality of devices installed in different locations. At this time, the first device 121 may be configured to project content onto the main body 110.

예를 들어, 제1 장치(121)는 2개 이상의 프로젝터로 구현될 수 있으며, 각 프로젝터는 본체(110)로 컨텐츠를 투사하도록, 본체(110)와 인접한 지점에 각각 배치될 수 있다.For example, the first device 121 may be implemented with two or more projectors, and each projector may be placed at a point adjacent to the main body 110 to project content to the main body 110.

도 2의 (b)에 도시된 바와 같이, 제2 장치(122)는 본체(110)의 표면에 배치된 복수의 발광 장치로 구현될 수 있다. 이때, 제2 장치(122)는 본체(110)의 표면에서 컨텐츠를 표시하도록 구성될 수 있다.As shown in (b) of FIG. 2, the second device 122 may be implemented as a plurality of light emitting devices disposed on the surface of the main body 110. At this time, the second device 122 may be configured to display content on the surface of the main body 110.

예를 들어, 제2 장치(122)는 복수의 LED로 구현될 수 있으며, 복수의 LED는 본체(110)의 표면 전체에 배치되거나, 본체(110)의 표면 중 일부에만 배치될 수 있다,For example, the second device 122 may be implemented with a plurality of LEDs, and the plurality of LEDs may be disposed on the entire surface of the main body 110 or only on a portion of the surface of the main body 110.

상술한 바와 같이, 제1 장치(121)는 프로젝션 방식으로 본체(110)의 표면에 컨텐츠를 표시할 수 있고, 제2 장치(122)는 분할 LED 방식으로 본체(110)의 표면에 컨텐츠를 표시할 수 있다.As described above, the first device 121 can display content on the surface of the main body 110 using a projection method, and the second device 122 can display content on the surface of the main body 110 using a split LED method. can do.

즉, 디스플레이 장치(120)는 제1 장치(121) 및 제2 장치(122) 중 적어도 하나를 포함할 수 있으므로, 프로젝션 방식이나 분할 LED 방식으로 구현될 수 있으며, 프로젝션과 LED를 모두 사용하는 혼합 방식으로 구현될 수도 있다.That is, the display device 120 may include at least one of the first device 121 and the second device 122, so it can be implemented in a projection method or a split LED method, or a mixed display using both projection and LED. It can also be implemented in this way.

도 3은 일실시예에 따른 본체의 표면에서 제1 부분과 제2 부분을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining a first part and a second part on the surface of the main body according to one embodiment.

도 3을 참조하면, 본체(110)는 제1 부분(111) 및 제2 부분(112)을 포함할 수 있으며, 제1 부분(111)은 본체(110)의 중심에 대해 위치 고정된 부분이고, 제2 부분(112)는 본체(110)의 중심에 대해 위치가 가변되도록 액츄에이터와 연결된 부분이다. 이를 위해, 본체(110)의 내부에는 액츄에이터가 설치되어 있으며, 액츄에이터는 프로세서(150)에 의해 제어될 수 있다.Referring to FIG. 3, the main body 110 may include a first part 111 and a second part 112, and the first part 111 is a part whose position is fixed with respect to the center of the main body 110. , The second part 112 is a part connected to the actuator so that the position is variable with respect to the center of the main body 110. For this purpose, an actuator is installed inside the main body 110, and the actuator can be controlled by the processor 150.

즉, 제1 부분(111)은 본체(110)의 표면 중 일부 영역으로, 위치가 고정되어 움직이지 않는 부분일 수 있고, 제2 부분(112)은 본체(110)의 표면 중 일부 영역으로, 위치가 고정되어 있지 않아 액츄에이터를 통해 움직일 수 있는 부분일 수 있다.That is, the first part 111 is a partial area of the surface of the main body 110, and may be a part whose position is fixed and does not move, and the second part 112 is a partial area of the surface of the main body 110, Since the position is not fixed, it may be a part that can be moved through an actuator.

본체(110)의 표면 중에서 제1 부분(111) 및 제2 부분(112)이 차지하는 크기와 제1 부분(111) 및 제2 부분(112)의 위치는 실시예에 따라 상이할 수 있으며, 액츄에이터 연결 여부를 통해 다양하게 설정될 수 있다.The size occupied by the first part 111 and the second part 112 on the surface of the main body 110 and the positions of the first part 111 and the second part 112 may vary depending on the embodiment, and the actuator It can be set in various ways depending on whether or not it is connected.

예를 들어, 본체(110)의 표면 중에서 액츄에이터와 연결되지 않은 부분은 제1 부분(111)으로 설정될 수 있고, 본체(110)의 표면 중에서 액츄에이터와 연결되어 있는 부분은 제2 부분(112)으로 설정될 수 있다.For example, the part of the surface of the main body 110 that is not connected to the actuator may be set as the first part 111, and the part of the surface of the main body 110 that is connected to the actuator may be set as the second part 112. It can be set to .

프로세서(150)는 영상 컨텐츠에 포함된 본체 변형 신호 및 영상 컨텐츠와 별도로 수신한 본체 변형 신호 중 적어도 하나에 기반하여 액츄에이터를 작동시킬 수 있다. 여기서, 본체 변형 신호는 영상 컨텐츠를 표시할 때 애니메이션 효과를 위해, 본체(110)의 표면 중에서 일부분의 위치를 이동시켜, 본체(110)를 변형시키고자 하는 명령 신호일 수 있다.The processor 150 may operate the actuator based on at least one of a main body deformation signal included in the video content and a main body deformation signal received separately from the video content. Here, the main body deformation signal may be a command signal for deforming the main body 110 by moving the position of a portion of the surface of the main body 110 for an animation effect when displaying video content.

프로세서(150)는 디스플레이 장치(120) 중 제2 부분(112)에 대응하는 영역에서 재생되는 영상의 밝기, 채도, 색감을 디스플레이 장치(120) 중 제1 부분(111)에 대응하는 영역에서 재생된 영상의 밝기, 채도, 색감과 다르게 제어할 수 있다.The processor 150 reproduces the brightness, saturation, and color of the image played in the area corresponding to the second part 112 of the display device 120 in the area corresponding to the first part 111 of the display device 120. The brightness, saturation, and color of the image can be controlled differently.

예를 들어, 제1 장치(121)가 본체(110)의 표면에 영상 컨텐츠를 투사하고 있고, 제1 장치(121) 중 어느 하나인 제1-1 장치가 제1 부분(111)에 영상 컨텐츠를 투사하고 있고, 제1 장치(121) 중 어느 하나인 제1-2 장치가 제2 부분(112)에 영상 컨텐츠를 투사하고 있는 경우, 프로세서(150)는 제1-1 장치에서 투사되는 영상의 밝기, 채도, 색감과 제1-2 장치에서 투사되는 영상의 밝기, 채도, 색감이 다르게 제어하여, 제1-1 장치를 통해 제1 부분(111)에서 재생되는 영상의 밝기, 채도, 색감을 설정하고, 제1-2 장치를 통해 제2 부분(112)에서 재생되는 영상의 밝기, 채도, 색감을 설정할 수 있다.For example, the first device 121 is projecting image content on the surface of the main body 110, and one of the first devices 121, device 1-1, projects image content on the first part 111. is projecting, and when a 1-2 device, which is one of the first devices 121, is projecting image content to the second portion 112, the processor 150 processes the image projected from the 1-1 device. The brightness, saturation, and color of the image projected from the 1-2 device are controlled differently, so that the brightness, saturation, and color of the image played in the first part 111 through the 1-1 device are controlled differently. can be set, and the brightness, saturation, and color of the image played in the second part 112 can be set through the first and second devices.

또한, 제2 장치(122)가 본체(110)의 표면에서 영상 컨텐츠를 표시하고 있고, 제2 장치(122) 중 제2-1 장치가 제1 부분(111)에 배치되어 영상 컨텐츠를 표시하고 있고, 제2 장치(122) 중 제2-2 장치가 제2 부분(112)에 배치되어 영상 컨텐츠를 표시하고 있는 경우, 프로세서(150)는 제2-1 장치에서 표시되는 영상의 밝기, 채도, 색감과 제2-2 장치에서 투사되는 영상의 밝기, 채도, 색감이 다르게 제어하여, 제2-1 장치를 통해 제1 부분(111)에서 재생되는 영상의 밝기, 채도, 색감을 설정하고, 제2-2 장치를 통해 제2 부분(112)에서 재생되는 영상의 밝기, 채도, 색감을 설정할 수 있다.In addition, the second device 122 displays video content on the surface of the main body 110, and the 2-1 device among the second devices 122 is disposed in the first portion 111 to display video content. And, when the 2-2 device among the second devices 122 is disposed in the second portion 112 and displays image content, the processor 150 controls the brightness and saturation of the image displayed by the 2-1 device. , Control the color and brightness, saturation, and color of the image projected from the 2-2 device to be different, and set the brightness, saturation, and color of the image played in the first part 111 through the 2-1 device, The brightness, saturation, and color of the image played in the second part 112 can be set through the 2-2 device.

상술한 바와 같이, 본체(110)의 표면 중 일부 영역을 액츄에이터를 통해 움직일 수 있도록 처리하여, 컨텐츠가 표시되는 본체(110)의 표면이 동적으로 움직일 수 있는 기능을 제공할 수 있으며, 이를 통해, 시청자에게 몰입감을 줄 수 있도록 특정 부분이 인입 또는 인출될 수 있게 구성할 수 있다.As described above, some areas of the surface of the main body 110 can be processed to be movable through an actuator, so that the surface of the main body 110 on which content is displayed can be provided with the function of dynamically moving. Through this, It can be configured so that specific parts can be brought in or out to give viewers a sense of immersion.

도 4는 일실시예에 따른 객체의 움직임에 따라 컨텐츠의 표시 구역을 변경하는 과정을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a process of changing the display area of content according to the movement of an object according to an embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상에서 객체를 확인할 수 있다. Referring to FIG. 4 , first, in step S401, the processor 150 may identify an object in an image captured through the camera device 130.

구체적으로, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상을 획득한 후, 영상 내에서 객체가 인식되는지 여부를 분석하고, 특정 객체가 인식된 것으로 분석되면, 영상에서 인식된 객체를 확인할 수 있다. 여기서, 객체는 다양한 형태의 객체 종류를 포함할 수 있으며, 바람직하게, 사람일 수 있다.Specifically, the processor 150 acquires an image captured through the camera device 130, analyzes whether an object is recognized in the image, and if it is analyzed that a specific object is recognized, the processor 150 determines the object recognized in the image. You can check it. Here, the object may include various types of objects, and preferably may be a person.

예를 들어, 카메라 장치(130)는 본체(110)와 인접한 구역에 배치되어, 본체(110)가 있는 방향과 반대 방향으로 촬영을 수행할 수 있다. 즉, 카메라 장치(130)는 본체(110)의 주변에 대한 촬영을 수행하여 영상 정보를 생성할 수 있다.For example, the camera device 130 may be placed in an area adjacent to the main body 110 and perform imaging in a direction opposite to the direction in which the main body 110 is located. That is, the camera device 130 can generate image information by taking pictures of the surroundings of the main body 110.

이후, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상을 획득한 후, 영상 내에서 객체가 인식되는지 여부를 분석하고 즉, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상을 기반으로, 본체(110)의 주변에 객체가 있는지 여부를 확인하여, 객체 인식을 수행할 수 있다.Afterwards, the processor 150 acquires the image captured through the camera device 130 and analyzes whether an object is recognized in the image. That is, the processor 150 obtains the image captured through the camera device 130. Based on this, it is possible to check whether there is an object around the main body 110 and perform object recognition.

이후, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상을 기반으로, 본체(110)의 주변에 객체가 있는 것으로 인식되면, 카메라 장치(130)를 통해 촬영된 영상에서 인식된 객체를 확인할 수 있다.Thereafter, if the processor 150 recognizes that there is an object around the main body 110 based on the image captured through the camera device 130, the processor 150 selects the object recognized in the image captured through the camera device 130. You can check it.

S402 단계에서, 프로세서(150)는 객체의 움직임을 추적하여 트래킹 정보를 생성할 수 있다. 여기서, 트래킹 정보는 객체의 움직임을 추적한 결과를 포함할 수 있으며, 객체가 어디로 이동하고 있는지에 대해 추적한 결과를 포함할 수 있다.In step S402, the processor 150 may generate tracking information by tracking the movement of the object. Here, the tracking information may include the results of tracking the movement of the object and may include the results of tracking where the object is moving.

예를 들어, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상에서 제1 사용자가 확인된 경우, 제1 사용자의 움직임을 추적하여 제1 사용자의 트래킹 정보를 생성할 수 있다.For example, when the first user is identified in an image captured through the camera device 130, the processor 150 may track the movements of the first user and generate tracking information about the first user.

S403 단계에서, 프로세서(150)는 객체가 위치한 부분에서 재생되는 컨텐츠가 객체를 따라 움직이도록 트래킹 정보를 이용하여 디스플레이 장치(120)를 제어할 수 있다. In step S403, the processor 150 may control the display device 120 using tracking information so that content played in a portion where the object is located moves along the object.

예를 들어, 본체(110)의 주변 중 제1 지점에 위치할 때 제1 본체(110)의 표면에서 제1 구역이 보이고, 본체(110)의 주변 중 제2 지점에 위치할 때 제1 본체(110)의 표면에서 제2 구역이 보일 수 있다. 이때, 제1 사용자가 제1 지점에 위치하여 제1 구역에 표시되고 있는 콘텐츠를 시청하고 있는 경우, 카메라 장치(130)는 제1 지점이 있는 영역에 대한 촬영을 수행하여 영상 정보를 생성할 수 있고, 프로세서(150)는 카메라 장치(130)를 통해 촬영된 영상을 기반으로, 제1 지점에 제1 사용자가 있는 것으로 확인할 수 있고, 제1 지점에 제1 사용자가 있는 것으로 확인되면, 제1 사용자의 움직임을 추적하여 트래킹 정보를 생성할 수 있으며, 트래킹 정보를 이용하여 제1 사용자가 제1 지점에서 제2 지점으로 이동한 것이 확인되면, 제1 구역에서 재생되고 있는 컨텐츠가 제2 구역에서 재생될 수 있다. 즉, 제1 사용자가 제1 지점에서 제2 지점으로 이동한 경우, 제1 지점에 위치할 때 보이는 컨텐츠가 제1 사용자의 움직임에 따라 이동하여, 제2 지점에 위치할 때도 해당 컨텐츠가 계속 보이도록 처리할 수 있다.For example, when located at the first point around the main body 110, the first area is visible on the surface of the first main body 110, and when located at the second point around the main body 110, the first area is visible. A second region can be seen on the surface of (110). At this time, when the first user is located at the first point and is watching content displayed in the first area, the camera device 130 may generate image information by filming the area where the first point is located. And, the processor 150 can confirm that the first user is at the first point based on the image captured through the camera device 130, and when it is confirmed that the first user is at the first point, the first user Tracking information can be generated by tracking the user's movements, and when it is confirmed that the first user has moved from the first point to the second point using the tracking information, the content playing in the first area is played in the second area. It can be played. That is, when the first user moves from the first point to the second point, the content visible when positioned at the first point moves according to the movement of the first user, and the content remains visible even when positioned at the second point. It can be processed as follows.

상술한 바와 같이, 객체의 움직임을 추적하여, 객체의 움직임에 따라 컨텐츠의 표시 구역을 변경함으로써, 시청자와 상호 작용할 수 있는 기능을 제공할 수 있으며, 시청자의 움직임을 추적하여, 그 결과에 따라 컨텐츠가 표시되는 구역이 변경될 수 있게 구성할 수 있다.As described above, the ability to interact with the viewer can be provided by tracking the movement of the object and changing the display area of the content according to the movement of the object. By tracking the movement of the viewer, the content can be changed according to the results. The area where is displayed can be configured to change.

도 5는 일실시예에 따른 본체의 표면에서 제1 영역 내지 제3 영역을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining first to third areas on the surface of the main body according to one embodiment.

도 5를 참조하면, 본체(110)의 제1 영역에서 제1 컨텐츠가 출력되고, 본체(110)의 제2 영역에서 제2 컨텐츠가 출력되는 경우, 제1 영역과 제2 영역의 경계인 제3 영역에서는 제1 컨텐츠의 말단과 제2 컨텐츠의 말단의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠가 출력될 수 있다. 여기서, 제3 영역은 제1 영역과 제2 영역의 경계선으로부터 기준 거리 이내에 있는 영역으로, 기준 거리는 실시예에 따라 상이하게 설정될 수 있다.Referring to FIG. 5, when first content is output from the first area of the main body 110 and second content is output from the second area of the main body 110, the third content is the boundary between the first and second areas. In the area, content that linearly connects the brightness, saturation, and color of the ends of the first content and the ends of the second content may be output. Here, the third area is an area within a reference distance from the boundary line between the first area and the second area, and the reference distance may be set differently depending on the embodiment.

즉, 프로세서(150)는 본체(110)의 일부 영역에서 제1 컨텐츠가 출력되도록 제어하고, 본체(110)의 일부 영역에서 제2 컨텐츠가 출력되도록 제어할 수 있으며, 제1 영역에서 제1 컨텐츠가 출력되고 있고, 제2 영역에서 제2 컨텐츠가 출력되고 있는 경우, 제3 영역에서 제1 컨텐츠의 말단과 제2 컨텐츠의 말단의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠가 출력되도록 제어할 수 있다. 이때, 프로세서(150)는 엣지 블랜딩(Edge-Blending)과 같이, 복수의 영상을 하나의 영상으로 연결시켜주는 공지된 기술을 기반으로, 제3 영역에서 제1 컨텐츠와 제2 컨텐츠를 연결한 영상이 출력되도록 제어할 수 있다.That is, the processor 150 can control the first content to be output in a partial area of the main body 110, the second content to be output in a partial area of the main body 110, and the first content in the first area. is being output, and if the second content is being output in the second area, control so that the content linearly connecting the brightness, saturation, and color of the end of the first content and the end of the second content is output in the third area. can do. At this time, the processor 150 creates an image that connects the first content and the second content in the third area based on a known technology that connects multiple images into one image, such as edge-blending. You can control this to be output.

일실시예에 따르면, 프로세서(150)는 제1 영역에서 출력되는 색상과 제2 영역에서 출력되는 색상을 고려하여, 제3 영역에서 출력될 색상을 결정할 수 있으며, 제3 영역에서 출력될 색상이 결정되면, 결정된 색상이 제3 영역에서 출력되도록 제어할 수 있다.According to one embodiment, the processor 150 may determine the color to be output in the third area by considering the color to be output in the first area and the color to be output in the second area, and the color to be output in the third area is Once determined, the determined color can be controlled to be output in the third area.

구체적으로, 프로세서(150)는 본체(110)의 제1 영역에서 제1 컨텐츠가 출력되고, 본체(110)의 제2 영역에서 제2 컨텐츠가 출력되는 경우, 본체(110)의 제1 영역에서 제1 컨텐츠의 말단이 출력되는 부분을 제1-1 영역으로 구분하고, 제1 컨텐츠에서 제1 시점의 출력 영상을 제1 이미지로 획득할 수 있다.Specifically, when the first content is output from the first area of the main body 110 and the second content is output from the second area of the main body 110, the processor 150 operates in the first area of the main body 110. The portion where the end of the first content is output is divided into a 1-1 area, and an output image from the first viewpoint in the first content can be obtained as the first image.

이후, 프로세서(150)는 제1 이미지에서 제1-1 영역에 대응하는 부분을 제1-1 이미지로 추출할 수 있다.Thereafter, the processor 150 may extract a portion corresponding to the 1-1 region from the first image as the 1-1 image.

이후, 프로세서(150)는 제1-1 이미지를 기초로, 제1-1 영역에서 출력되는 색상을 화소 별로 분석하여, 제1-1 영역의 전체 화소를 색상 계열에 따라 분류할 수 있다. 여기서, 색상 계열은 빨강, 주황, 노랑, 초록, 파랑, 남색, 보라 등의 색상 계열로 구분될 수 있다.Thereafter, the processor 150 may analyze the color output from the 1-1 area for each pixel, based on the 1-1 image, and classify all pixels of the 1-1 area according to color series. Here, the color series can be divided into color series such as red, orange, yellow, green, blue, indigo, and purple.

예를 들어, 빨간 색상의 RGB 값이 (255, 0, 0)이고, 제1-1 영역 내에 제1 화소 및 제2 화소가 포함되어 있고, 제1 화소의 RGB 값이 (245, 10, 0)이고, 제2 화소의 RGB 값이(245, 0, 10)인 경우, 장치(500)는 제1 화소 및 제2 화소를 빨강 색상 계열로 분류할 수 있다. 즉, 프로세서(150)는 빨강 색상과 어느 정도 유사한 색상을 나타내고 있는 화소를 빨강 색상 계열로 분류할 수 있다.For example, the RGB value of the red color is (255, 0, 0), the first pixel and the second pixel are included in the 1-1 area, and the RGB value of the first pixel is (245, 10, 0) ), and if the RGB value of the second pixel is (245, 0, 10), the device 500 can classify the first pixel and the second pixel into the red color series. That is, the processor 150 may classify pixels that display a color somewhat similar to red into the red color series.

이후, 프로세서(150)는 제1-1 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제1-1 영역에서 화소 수가 가장 많은 색상 계열을 제1 색상 계열로 확인할 수 있다.Thereafter, the processor 150 may classify all pixels in the 1-1 area according to the color series, and identify the color series with the largest number of pixels in the 1-1 area as the first color series.

이후, 프로세서(150)는 제1-1 영역에서 제1 색상 계열로 분류된 화소 수를 제1 화소 수로 설정하고, 제1-1 영역의 전체 화소 수를 제2 화소 수로 설정할 수 있다.Thereafter, the processor 150 may set the number of pixels classified into the first color series in the 1-1 area as the first number of pixels, and set the total number of pixels in the 1-1 area as the second number of pixels.

이후, 프로세서(150)는 제1 화소 수를 제2 화소 수로 나눈 값을 통해, 제1 비율을 산출할 수 있다.Thereafter, the processor 150 may calculate the first ratio by dividing the first number of pixels by the second number of pixels.

이후, 프로세서(150)는 제1 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.Afterwards, the processor 150 may check whether the first ratio is higher than the reference ratio. Here, the reference ratio may be set differently depending on the embodiment.

프로세서(150)는 제1 비율이 기준 비율 보다 높은 것으로 확인되면, 제1-1 영역의 대표 색상을 제1 색상으로 설정할 수 있다.If the processor 150 determines that the first ratio is higher than the reference ratio, the processor 150 may set the representative color of the 1-1 region as the first color.

프로세서(150)는 제1 비율이 기준 비율 보다 높지 않은 것으로 확인되면, 제1-1 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제1-1 영역에서 화소 수가 제1 색상 계열 다음으로 많은 제2 색상 계열을 확인하고, 제1 색상과 제2 색상을 혼합하여 제3 색상을 도출하고, 제1-1 영역의 대표 색상을 제3 색상으로 설정할 수 있다.If it is confirmed that the first ratio is not higher than the reference ratio, the processor 150 classifies all pixels in the 1-1 area according to the color series, and as a result, the number of pixels in the 1-1 area is the second highest after the first color series. The second color series can be confirmed, the third color can be derived by mixing the first color and the second color, and the representative color of the 1-1 region can be set as the third color.

예를 들어, 프로세서(150)는 제1 색상이 빨강 색상이고, 제2 색상이 노랑 색상인 경우, 제1 색상과 제2 색상을 혼합하여 제3 색상을 주황 색상으로 도출할 수 있고, 제1-1 영역의 대표 색상을 주황 색상으로 설정할 수 있다.For example, when the first color is red and the second color is yellow, the processor 150 may mix the first color and the second color to derive the third color as orange, and The representative color of the -1 area can be set to orange.

한편, 프로세서(150)는 본체(110)의 제2 영역에서 제2 컨텐츠의 말단이 출력되는 부분을 제2-1 영역으로 구분하고, 제2 컨텐츠에서 제1 시점의 출력 영상을 제2 이미지로 획득할 수 있다.Meanwhile, the processor 150 divides the portion where the end of the second content is output into a 2-1 region in the second region of the main body 110, and converts the output image from the first viewpoint in the second content into a second image. It can be obtained.

이후, 프로세서(150)는 제2 이미지에서 제2-1 영역에 대응하는 부분을 제2-1 이미지로 추출할 수 있다.Thereafter, the processor 150 may extract a portion corresponding to the 2-1 area from the second image as the 2-1 image.

이후, 프로세서(150)는 제2-1 이미지를 기초로, 제2-1 영역에서 출력되는 색상을 화소 별로 분석하여, 제2-1 영역의 전체 화소를 색상 계열에 따라 분류할 수 있다. Thereafter, the processor 150 may analyze the color output from the 2-1 area for each pixel, based on the 2-1 image, and classify all pixels of the 2-1 area according to color series.

이후, 프로세서(150)는 제2-1 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제2-1 영역에서 화소 수가 가장 많은 색상 계열을 제4 색상 계열로 확인할 수 있다.Thereafter, the processor 150 classifies all pixels in the 2-1 area according to the color series, and as a result, the color series with the largest number of pixels in the 2-1 area can be identified as the fourth color series.

이후, 프로세서(150)는 제2-1 영역에서 제4 색상 계열로 분류된 화소 수를 제3 화소 수로 설정하고, 제2-1 영역의 전체 화소 수를 제4 화소 수로 설정할 수 있다.Thereafter, the processor 150 may set the number of pixels classified into the fourth color series in the 2-1 area as the third number of pixels, and set the total number of pixels in the 2-1 area as the fourth number of pixels.

이후, 프로세서(150)는 제3 화소 수를 제4 화소 수로 나눈 값을 통해, 제2 비율을 산출할 수 있다.Thereafter, the processor 150 may calculate the second ratio by dividing the third number of pixels by the fourth number of pixels.

이후, 프로세서(150)는 제2 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다.Afterwards, the processor 150 may check whether the second ratio is higher than the reference ratio.

프로세서(150)는 제2 비율이 기준 비율 보다 높은 것으로 확인되면, 제2-1 영역의 대표 색상을 제4 색상으로 설정할 수 있다.If the processor 150 determines that the second ratio is higher than the reference ratio, the processor 150 may set the representative color of the 2-1 area as the fourth color.

프로세서(150)는 제2 비율이 기준 비율 보다 높지 않은 것으로 확인되면, 제2-1 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제2-1 영역에서 화소 수가 제4 색상 계열 다음으로 많은 제5 색상 계열을 확인하고, 제4 색상과 제5 색상을 혼합하여 제6 색상을 도출하고, 제2-1 영역의 대표 색상을 제6 색상으로 설정할 수 있다.If it is confirmed that the second ratio is not higher than the reference ratio, the processor 150 classifies all pixels in the 2-1 area according to the color series, and as a result, the number of pixels in the 2-1 area is the second highest after the 4th color series. The fifth color series can be confirmed, the sixth color can be derived by mixing the fourth color and the fifth color, and the representative color of the 2-1 region can be set as the sixth color.

프로세서(150)는 제1-1 영역의 대표 색상과 제2-1 영역의 대표 색상이 각각 설정되면, 제1-1 영역의 대표 색상과 제2-1 영역의 대표 색상을 비교할 수 있으며, 제1-1 영역의 대표 색상과 제2-1 영역의 대표 색상을 비교한 결과, 서로 일치하는 것으로 확인되면, 일치하는 색상이 제1 시점에 제3 영역에서 출력되도록 제어할 수 있다.When the representative color of the 1-1 area and the representative color of the 2-1 area are respectively set, the processor 150 may compare the representative color of the 1-1 area and the representative color of the 2-1 area, As a result of comparing the representative color of area 1-1 and the representative color of area 2-1, if it is confirmed that they match each other, the matching color can be controlled to be output in the third area at the first time.

프로세서(150)는 제1-1 영역의 대표 색상과 제2-1 영역의 대표 색상을 비교한 결과, 서로 일치하지 않는 것으로 확인되면, 제1 이미지를 기초로, 제1 영역에서 출력되는 색상을 화소 별로 분석하여, 제1 영역의 전체 화소를 색상 계열에 따라 분류하고, 제2 이미지를 기초로, 제2 영역에서 출력되는 색상을 화소 별로 분석하여, 제2 영역의 전체 화소를 색상 계열에 따라 분류할 수 있다.The processor 150 compares the representative color of the 1-1 area and the representative color of the 2-1 area, and if it is confirmed that they do not match, the color output in the first area is changed based on the first image. By analyzing each pixel, all pixels in the first area are classified according to color series, and based on the second image, the color output from the second area is analyzed by pixel, and all pixels in the second area are classified according to color series. Can be classified.

이후, 프로세서(150)는 제1 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제1 영역에서 화소 수가 가장 많은 색상 계열을 제7 색상 계열로 확인하고, 제2 영역의 전체 화소를 색상 계열에 따라 분류한 결과, 제2 영역에서 화소 수가 가장 많은 색상 계열을 제8 색상 계열로 확인할 수 있다.Afterwards, the processor 150 classifies all pixels in the first area according to the color series. As a result, the color series with the largest number of pixels in the first area is identified as the seventh color series, and all pixels in the second area are classified as the seventh color series. As a result of classification, the color series with the largest number of pixels in the second area can be identified as the eighth color series.

이후, 프로세서(150)는 제1 영역에서 제7 색상 계열로 분류된 화소 수를 제5 화소 수로 설정하고, 제1 영역의 전체 화소 수를 제6 화소 수로 설정하고, 제2 영역에서 제8 색상 계열로 분류된 화소 수를 제7 화소 수로 설정하고, 제2 영역의 전체 화소 수를 제8 화소 수로 설정할 수 있다.Thereafter, the processor 150 sets the number of pixels classified into the 7th color series in the first area as the 5th pixel number, sets the total number of pixels in the first area as the 6th number of pixels, and sets the number of pixels in the 2nd area to the 8th color. The number of pixels classified into the series can be set to the seventh pixel number, and the total number of pixels in the second area can be set to the eighth pixel number.

이후, 프로세서(150)는 제5 화소 수를 제6 화소 수로 나눈 값을 통해, 제3 비율을 산출하고, 제7 화소 수를 제8 화소 수로 나눈 값을 통해, 제4 비율을 산출할 수 있다.Thereafter, the processor 150 may calculate a third ratio through the value obtained by dividing the fifth number of pixels by the sixth number of pixels, and calculate a fourth ratio through the value obtained by dividing the seventh number of pixels by the eighth number of pixels. .

이후, 프로세서(150)는 제3 비율과 제4 비율을 비교하여, 어느 것이 높은지 여부를 확인할 수 있다.Thereafter, the processor 150 can compare the third ratio and the fourth ratio to determine which one is higher.

프로세서(150)는 제3 비율이 제4 비율 보다 높은 것으로 확인되면, 제1-1 영역의 대표 색상이 제1 시점에 제3 영역에서 출력되도록 제어할 수 있다.If it is confirmed that the third ratio is higher than the fourth ratio, the processor 150 may control the representative color of the 1-1 area to be output from the third area at the first time.

프로세서(150)는 제4 비율이 제3 비율 보다 높은 것으로 확인되면, 제2-1 영역의 대표 색상이 제1 시점에 제3 영역에서 출력되도록 제어할 수 있다.If the processor 150 determines that the fourth ratio is higher than the third ratio, the processor 150 may control the representative color of the area 2-1 to be output from the third area at the first time.

프로세서(150)는 제3 비율과 제4 비율이 동일한 것으로 확인되면, 제1-1 영역의 대표 색상과 제2-1 영역의 대표 색상을 혼합하여 제9 색상을 도출하고, 제9 색상이 제1 시점에 제3 영역에서 출력되도록 제어할 수 있다.When it is confirmed that the third ratio and the fourth ratio are the same, the processor 150 mixes the representative color of the 1-1 area and the representative color of the 2-1 area to derive the 9th color, and the 9th color is the 9th color. It can be controlled to be output in the third area at point 1.

상술한 바와 같이, 본체(110)의 표면에서 복수의 컨텐츠가 재생되어 출력되도록 처리함으로써, 시청자가 바라보는 방향에 따라 다른 영상을 출력하는 기능을 제공할 수 있으며, 경계 영역에서 복수의 컨텐츠 각각의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠가 출력되도록 처리함으로써, 컨텐츠 영상의 경계를 자연스럽게 처리하도록 구성할 수 있다.As described above, by processing a plurality of contents to be reproduced and output on the surface of the main body 110, it is possible to provide a function of outputting different images depending on the direction the viewer is looking, and each of the plurality of contents in the boundary area can be provided. By processing content that linearly connects brightness, saturation, and color to be output, the boundaries of the content image can be configured to be naturally processed.

도 6은 일실시예에 따른 지향성 오디오를 이용하여 복수 컨텐츠의 음성을 출력하는 오디오 장치를 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating an audio device that outputs audio of multiple contents using directional audio according to an embodiment.

도 6을 참조하면, 제1 지향성 오디오(141)는 제1 영역에 배치되어 제1 영역에 대해 음성을 출력할 수 있고, 제2 지향성 오디오(142)는 제2 영역에 배치되어 제2 영역에 대해 음성을 출력할 수 있다. 이때, 제1 지향성 오디오(141)과 제2 지향성 오디오(142)는 서로 다른 방향으로 음성을 출력할 수 있다. 즉, 제1 지향성 오디오(141)는 제1 방향으로 음성을 출력할 수 있고, 제2 지향성 오디오(142)는 제2 방향으로 음성을 출력할 수 있다.Referring to FIG. 6, the first directional audio 141 is placed in the first area and can output voice to the first area, and the second directional audio 142 is placed in the second area and can output sound to the second area. Voice can be output. At this time, the first directional audio 141 and the second directional audio 142 may output voices in different directions. That is, the first directional audio 141 can output audio in the first direction, and the second directional audio 142 can output audio in the second direction.

제1 지향성 오디오(141) 및 제2 지향성 오디오(142)는 배치 영역에 따라 서로 다른 방향으로 소리를 출력하는 스피커로 구현될 수 있으며, 제1 지향성 오디오(141)는 제1 영역에 배치되어 제1 방향으로 음성을 출력할 수 있고, 제2 지향성 오디오(142)는 제2 영역에 배치되어 제2 방향으로 음성을 출력할 수 있다.The first directional audio 141 and the second directional audio 142 may be implemented as speakers that output sound in different directions depending on the placement area, and the first directional audio 141 is placed in the first area and Voice can be output in one direction, and the second directional audio 142 is disposed in the second area to output voice in the second direction.

프로세서(150)는 본체(110)의 제1 영역에서 제1 컨텐츠가 출력되고, 본체(110)의 제2 영역에서 제2 컨텐츠가 출력되는 경우, 제1 지향성 오디오(141)에서 제1 컨텐츠의 음성이 출력되고, 제2 지향성 오디오(142)에서 제2 컨텐츠의 음성이 출력되도록 제어할 수 있다.When the first content is output from the first area of the main body 110 and the second content is output from the second area of the main body 110, the processor 150 outputs the first content from the first directional audio 141. Voice is output, and the voice of the second content can be controlled to be output from the second directional audio 142.

상술한 바와 같이, 본체(110)의 표면에서 복수의 컨텐츠가 재생되어 출력될 때, 지향성 오디오 각각에서 컨텐츠 별로 상이한 음성을 출력함으로써, 지향성 오디오를 이용하여 컨텐츠 별로 상이한 음성을 시청자에게 전달할 수 있게 구성할 수 있다.As described above, when a plurality of contents are reproduced and output on the surface of the main body 110, different voices are output for each content from each directional audio, so that different voices for each content can be delivered to the viewer using directional audio. can do.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.

Claims (5)

구형 디스플레이를 통한 컨텐츠 제공 장치에 있어서,
구 형상으로 형성된 본체;
컨텐츠를 상기 본체의 표면에 시각적으로 표시하는 디스플레이 장치; 및
상기 디스플레이 장치를 제어하는 프로세서;를 포함하고,
상기 디스플레이 장치는,
서로 다른 위치에 설치되어 상기 본체에 컨텐츠를 투사하도록 구성된 제1 장치 및
상기 본체의 표면에 배치된 복수의 발광 장치로 구성된 제2 장치 중 적어도 하나를 포함하고,
상기 프로세서는,
사용자 단말 장치 및 저장 장치 중 적어도 하나로부터 영상 컨텐츠를 수신하여 상기 영상 컨텐츠를 상기 디스플레이 장치를 통해 출력하고,
상기 본체는,
상기 본체의 중심에 대해 위치 고정된 제1 부분 및
상기 본체의 중심에 대해 위치가 가변되도록 액츄에이터와 연결된 제2 부분을 포함하고,
상기 프로세서는,
상기 영상 컨텐츠에 포함된 본체 변형 신호 및 상기 영상 컨텐츠와 별도로 수신한 본체 변형 신호 중 적어도 하나에 기반하여 상기 액츄에이터를 작동시키고,
상기 디스플레이 장치 중 상기 제2 부분에 대응하는 영역에서 재생되는 영상의 밝기, 채도, 색감을 상기 디스플레이 장치 중 상기 제1 부분에 대응하는 영역에서 재생된 영상의 밝기, 채도, 색감과 다르게 제어하는,
구형 디스플레이를 통한 컨텐츠 제공 장치.
In a device for providing content through a spherical display,
A body formed in a spherical shape;
a display device that visually displays content on the surface of the main body; and
Includes a processor that controls the display device,
The display device is,
First devices installed at different locations and configured to project content to the main body, and
At least one of a second device consisting of a plurality of light emitting devices disposed on the surface of the main body,
The processor,
Receiving video content from at least one of a user terminal device and a storage device and outputting the video content through the display device,
The main body is,
a first portion fixed in position with respect to the center of the body; and
It includes a second part connected to the actuator so that the position is variable with respect to the center of the main body,
The processor,
Operating the actuator based on at least one of a main body deformation signal included in the video content and a main body deformation signal received separately from the video content,
Controlling the brightness, saturation, and color of an image played in an area corresponding to the second part of the display device to be different from the brightness, saturation, and color of an image played in an area corresponding to the first part of the display device,
A device that provides content through a spherical display.
삭제delete 제1항에 있어서,
상기 프로세서에 의해 제어되는 카메라 장치;를 더 포함하고,
상기 프로세서는,
상기 카메라 장치를 통해 촬영된 영상에서 객체를 확인하고,
상기 객체의 움직임을 추적하여 트래킹 정보를 생성하고,
상기 객체가 위치한 부분에서 재생되는 컨텐츠가 상기 객체를 따라 움직이도록 상기 트래킹 정보를 이용하여 상기 디스플레이 장치를 제어하는,
구형 디스플레이를 통한 컨텐츠 제공 장치.
According to paragraph 1,
It further includes a camera device controlled by the processor,
The processor,
Confirm the object in the image captured through the camera device,
Generate tracking information by tracking the movement of the object,
Controlling the display device using the tracking information so that content played in a portion where the object is located moves along the object,
A device that provides content through a spherical display.
제1항에 있어서,
상기 프로세서는,
상기 본체의 제1 영역에서 제1 컨텐츠가 출력되고,
상기 본체의 제2 영역에서 제2 컨텐츠가 출력되고,
상기 제1 영역과 제2 영역의 경계인 제3 영역에서 상기 제1 컨텐츠의 말단과 상기 제2 컨텐츠의 말단의 밝기, 채도, 색감을 선형적으로 연결한 컨텐츠를 출력하는,
구형 디스플레이를 통한 컨텐츠 제공 장치.
According to paragraph 1,
The processor,
First content is output from a first area of the main body,
Second content is output from a second area of the main body,
Outputting content in which the brightness, saturation, and color of the ends of the first content and the ends of the second content are linearly connected in a third area that is the boundary between the first area and the second area,
A device that provides content through a spherical display.
제4항에 있어서,
상기 프로세서에 의해 제어되는 오디오 장치;를 더 포함하고,
상기 오디오 장치는,
상기 제1 영역에 배치되어 상기 제1 영역에 대해 음성을 출력하는 제1 지향성 오디오 및
상기 제2 영역에 배치되어 상기 제2 영역에 대해 음성을 출력하는 제2 지향성 오디오를 포함하고,
상기 프로세서는,
상기 제1 지향성 오디오에서 상기 제1 컨텐츠의 음성이 출력되고,
상기 제2 지향성 오디오에서 상기 제2 컨텐츠의 음성이 출력되도록 제어하는,
구형 디스플레이를 통한 컨텐츠 제공 장치.
According to clause 4,
Further comprising: an audio device controlled by the processor,
The audio device is,
A first directional audio device disposed in the first area and outputting sound to the first area, and
Includes a second directional audio disposed in the second area and outputting sound to the second area,
The processor,
The voice of the first content is output from the first directional audio,
Controlling the sound of the second content to be output from the second directional audio,
A device that provides content through a spherical display.
KR1020230172089A 2023-12-01 2023-12-01 Device for providing content through spherical display KR102636562B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230172089A KR102636562B1 (en) 2023-12-01 2023-12-01 Device for providing content through spherical display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230172089A KR102636562B1 (en) 2023-12-01 2023-12-01 Device for providing content through spherical display

Publications (1)

Publication Number Publication Date
KR102636562B1 true KR102636562B1 (en) 2024-02-14

Family

ID=89896161

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230172089A KR102636562B1 (en) 2023-12-01 2023-12-01 Device for providing content through spherical display

Country Status (1)

Country Link
KR (1) KR102636562B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050090132A (en) * 2002-12-20 2005-09-12 글로벌 이메진네이션 Display system having a three-dimensional convex display surface
KR20140033914A (en) * 2012-09-11 2014-03-19 삼성디스플레이 주식회사 Display device
KR101986329B1 (en) 2015-09-16 2019-06-05 구글 엘엘씨 General purpose spherical capture methods
KR102023771B1 (en) 2017-12-01 2019-09-20 쿨사인 주식회사 Method and apparatus of playing VR contents on display devices
KR20210049021A (en) * 2019-10-22 2021-05-04 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Screen display device, screen display control method, screen display control device and storage medium
KR102261597B1 (en) 2019-04-23 2021-06-07 주식회사 비포에이 Apparatus for processing caption of virtual reality video content
KR20220111552A (en) * 2021-02-02 2022-08-09 삼성전자주식회사 Electronic apparatus and controlling method thereof
KR102508663B1 (en) 2016-06-02 2023-03-13 삼성전자주식회사 Method for editing sphere contents and electronic device supporting the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050090132A (en) * 2002-12-20 2005-09-12 글로벌 이메진네이션 Display system having a three-dimensional convex display surface
KR20140033914A (en) * 2012-09-11 2014-03-19 삼성디스플레이 주식회사 Display device
KR101986329B1 (en) 2015-09-16 2019-06-05 구글 엘엘씨 General purpose spherical capture methods
KR102508663B1 (en) 2016-06-02 2023-03-13 삼성전자주식회사 Method for editing sphere contents and electronic device supporting the same
KR102023771B1 (en) 2017-12-01 2019-09-20 쿨사인 주식회사 Method and apparatus of playing VR contents on display devices
KR102261597B1 (en) 2019-04-23 2021-06-07 주식회사 비포에이 Apparatus for processing caption of virtual reality video content
KR20210049021A (en) * 2019-10-22 2021-05-04 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Screen display device, screen display control method, screen display control device and storage medium
KR20220111552A (en) * 2021-02-02 2022-08-09 삼성전자주식회사 Electronic apparatus and controlling method thereof

Similar Documents

Publication Publication Date Title
CN102484688B (en) Multimedia projection management
JP6909554B2 (en) Devices and methods for displaying objects with visual effects
US20140176607A1 (en) Simulation system for mixed reality content
US20170347427A1 (en) Light control
KR102371031B1 (en) Apparatus, system, method and program for video shooting in virtual production
US20170188176A1 (en) Sound object control apparatus and method based on additional image object
KR102330984B1 (en) System and method for editing virtual reality image and video
CN111133411B (en) Spatial audio upmixing
WO2019128086A1 (en) Stage interactive projection method, apparatus and system
US20190138085A1 (en) Provision of Virtual Reality Content
KR102636562B1 (en) Device for providing content through spherical display
Jalal et al. IoT architecture for multisensorial media
Marner et al. Exploring interactivity and augmented reality in theater: A case study of Half Real
US11991807B2 (en) Control methods, computer-readable media, and controllers
US10032447B1 (en) System and method for manipulating audio data in view of corresponding visual data
JP4587871B2 (en) Content display method, content display device, program for executing the method, and recording medium
Mokhov et al. Real-time motion capture for performing arts and stage
TWI628634B (en) Interactive teaching systems and methods thereof
Song et al. Hands-on: rapid interactive application prototyping for media arts and stage production
US20180167755A1 (en) Distributed Audio Mixing
US20210224525A1 (en) Hybrid display system with multiple types of display devices
Mokhov et al. Dataflow programming and processing for artists and beyond
Mokhov et al. Hands-on: rapid interactive application prototyping for media arts and performing arts in illimitable space
Mokhov et al. Hands-on: rapid interactive application prototyping for media arts and stage performance and beyond
KR102624423B1 (en) Live share multi-faceted performance hall ar special effect reproduction and interaction technology

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant