KR20240085067A - Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information - Google Patents

Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information Download PDF

Info

Publication number
KR20240085067A
KR20240085067A KR1020220170105A KR20220170105A KR20240085067A KR 20240085067 A KR20240085067 A KR 20240085067A KR 1020220170105 A KR1020220170105 A KR 1020220170105A KR 20220170105 A KR20220170105 A KR 20220170105A KR 20240085067 A KR20240085067 A KR 20240085067A
Authority
KR
South Korea
Prior art keywords
electronic device
plane
user
media content
external electronic
Prior art date
Application number
KR1020220170105A
Other languages
Korean (ko)
Inventor
유승민
소용진
손정민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220170105A priority Critical patent/KR20240085067A/en
Publication of KR20240085067A publication Critical patent/KR20240085067A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

일 실시예에 따른 전자 장치의 하나 이상의 프로세서들은, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 본 문서는, 실제 객체 및 가상 객체 사이의 상호연결성을 강화하기 위한 메타버스 서비스와 관련될 수 있다. 예를 들면, 상기 메타버스 서비스는, 5G(fifth generation), 및/또는 6G(sixth generation)에 기반하는 네트워크를 통해 제공될 수 있다. One or more processors of an electronic device according to an embodiment may include, based on identifying an external electronic device using a communication circuit, a first plane on which light emitted from a projection assembly of the electronic device is to be projected, and the external electronic device. The positional relationship of the second plane on which light emitted from another projection assembly of the device is to be projected may be obtained. The one or more processors may be configured to display different regions of media content, each of the first plane and the second plane, based on the distances each of the first plane and the second plane are from a body part of the user identified using a camera. Information for matching each second plane can be obtained. This document may be related to a metaverse service for strengthening interconnectivity between real and virtual objects. For example, the metaverse service may be provided through a network based on 5G (fifth generation) and/or 6G (sixth generation).

Description

사용자의 신체 정보에 기반하여, 미디어 콘텐트를 표시할 위치를 식별하기위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체{ELECTRONIC DEVICE, METHOD, AND COMPUTER-READABLE STORAGE MEDIA IDENTIFYING LOCATION TO DISPLAY MEDIA CONTENT BASED ON USER'S BODY INFORMATION}ELECTRONIC DEVICE, METHOD, AND COMPUTER-READABLE STORAGE MEDIA IDENTIFYING LOCATION TO DISPLAY MEDIA CONTENT BASED ON USER'S BODY INFORMATION}

본 개시(present disclosure)는, 사용자의 신체 정보에 기반하여, 미디어 콘텐트를 표시할 위치를 식별하기위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체에 관한 것이다. This disclosure relates to electronic devices, methods, and computer-readable storage media for identifying a location to display media content based on a user's physical information.

정보를 시각화하기 위한 전자 장치가 개발되고 있다. 상기 전자 장치는, 텔레비전(television), 모니터, 전광판, 빔 프로젝터, 휴대 전화, 및/또는 태블릿 PC(personal computer)를 포함할 수 있다. 전자 장치는, 상기 전자 장치의 일 면 또는 상기 전자 장치의 외부의 일 면에, 상기 정보를 표현하는(representing) 표시 영역(displaying area)을 형성할 수 있다. Electronic devices for visualizing information are being developed. The electronic device may include a television, a monitor, an electronic sign, a beam projector, a mobile phone, and/or a tablet personal computer (PC). The electronic device may form a display area representing the information on one side of the electronic device or on an external side of the electronic device.

일 실시예에 따른 전자 장치에 있어서, 상기 전자 장치는, 카메라, 통신 회로, 프로젝션 어셈블리, 및 하나 이상의 프로세서들을 포함할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. In an electronic device according to an embodiment, the electronic device may include a camera, a communication circuit, a projection assembly, and one or more processors. The one or more processors may, based on identifying the external electronic device using the communication circuit, select a first plane on which light emitted from the projection assembly of the electronic device will be projected, and another projection assembly of the external electronic device. The positional relationship of the second plane on which the light emitted from will be projected can be obtained. The one or more processors may be configured to display different regions of the media content, each of the first plane and the second plane, based on distances from the user's body part identified using the camera. Information for matching each of the second planes can be obtained. The one or more processors may display a first region of the different regions of the media content in the first plane based on the information. The one or more processors may transmit, based on the information, a signal for displaying a second region of the different regions of the media content in the second plane to the external electronic device using the communication circuit. You can.

일 실시예에 따른 전자 장치의 방법에 있어서, 상기 방법은, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함할 수 있다. In a method for an electronic device according to an embodiment, the method includes: a first plane on which light emitted from a projection assembly of the electronic device will be projected, based on identifying an external electronic device using a communication circuit; and The method may include obtaining a positional relationship of a second plane on which light emitted from another projection assembly of the external electronic device is to be projected. The method comprises: the first plane and the second plane, each representing different regions of media content based on distances each of the first plane and the second plane are from a body part of the user identified using a camera; It may include an operation of acquiring information for matching to each plane. The method may include displaying, based on the information, a first region of the different regions of the media content in the first plane. The method includes transmitting a signal for displaying a second region among the different regions of the media content in the second plane to the external electronic device using the communication circuit based on the information. It can be included.

일 실시예에 따른 하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. In a computer-readable storage medium storing one or more programs according to an embodiment, the one or more programs, when executed by one or more processors of an electronic device, identify an external electronic device using a communication circuit. Based on this, the positional relationship of a first plane on which light emitted from a projection assembly of the electronic device is projected and a second plane on which light emitted from another projection assembly of the external electronic device is projected can be obtained. When the one or more programs are executed by the one or more processors of the electronic device, each of the first plane and the second plane is based on distances from a body part of the user identified using a camera. Thus, information for matching different areas of media content to each of the first plane and the second plane can be obtained. The one or more programs, when executed by the one or more processors of the electronic device, may display a first of the different regions of the media content in the first plane based on the information. . The one or more programs, when executed by the one or more processors of the electronic device, use the communication circuitry based on the information to send a second one of the different regions of the media content to the external electronic device. A signal for displaying an area within the second plane may be transmitted.

도 1은, 일 실시예에 따른, 전자 장치가 하나 이상의 표시 영역 내에 미디어 콘텐트를 투사하는 동작의 일 예를 도시한다.
도 2는, 일 실시예에 따른 전자 장치의 블록도의 일 예를 도시한다.
도 3은, 일 실시예에 따른 전자 장치가 사용자의 신체 부위에 인접한 평면을 식별하는 동작의 일 예를 도시한다.
도 4는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들을 구분하는 동작의 일 예를 도시한다.
도 5는, 일 실시예에 따른 전자 장치 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다.
도 6a 내지 도 6b는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들에 대응하는 평면에 화면을 표시하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다.
도 8은, 일 실시예에 따른 외부 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다.
도 9는, 메타버스 서비스와 관련된 네트워크 환경에 대한 예시도이다.
FIG. 1 illustrates an example of an operation in which an electronic device projects media content within one or more display areas, according to an embodiment.
Figure 2 shows an example of a block diagram of an electronic device according to an embodiment.
FIG. 3 illustrates an example of an operation in which an electronic device identifies a plane adjacent to a user's body part, according to an embodiment.
FIG. 4 illustrates an example of an operation in which an electronic device divides areas of media content, according to an embodiment.
FIG. 5 shows an example of a signal flow diagram between an electronic device and an external electronic device according to an embodiment.
FIGS. 6A and 6B illustrate an example of an operation in which an electronic device displays a screen on a plane corresponding to areas of media content, according to an embodiment.
FIG. 7 shows an example of a flowchart showing operations performed by an electronic device according to an embodiment.
FIG. 8 shows an example of a flowchart illustrating operations performed by an external electronic device according to an embodiment.
Figure 9 is an example diagram of a network environment related to the metaverse service.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document are described with reference to the attached drawings.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나”, "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar components. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Expressions such as "first", "second", "first", or "second" may modify the elements in question, regardless of order or importance, and may refer to one element as another. It is only used to distinguish from components and does not limit the components in question. When referred to as being “connected,” the element may be directly connected to the other element or may be connected through another element (e.g., a third element).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. The term “module” used in this document includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof. For example, a module may be comprised of an application-specific integrated circuit (ASIC).

도 1은, 일 실시예에 따른, 전자 장치가 하나 이상의 표시 영역 내에 미디어 콘텐트를 투사하는 동작의 일 예를 도시한다. 도 1을 참고하면, 일 실시예에 따른 전자 장치(101)는, 외부 공간으로 광을 방사(emit)하기 위한, 빔 프로젝터(beam projector)를 포함할 수 있다. 전자 장치(101)는, 2차원으로(two-dimensionally) 배열된 픽셀들에 의해 형성된 화면을 표현하는(representing) 상기 광을 출력할 수 있다. 전자 장치(101)로부터 출력된 상기 광은, 공간(100) 내 평면들(110, 120, 130, 140, 150)과 같은 객체에 의해 반사될 수 있다. 사용자(107)는, 상기 객체에 의해 반사된 상기 광에 기반하여, 상기 화면을 볼 수 있다.FIG. 1 illustrates an example of an operation in which an electronic device projects media content within one or more display areas, according to an embodiment. Referring to FIG. 1, the electronic device 101 according to one embodiment may include a beam projector for emitting light to an external space. The electronic device 101 may output the light representing a screen formed by two-dimensionally arranged pixels. The light output from the electronic device 101 may be reflected by objects such as planes 110, 120, 130, 140, and 150 within the space 100. The user 107 can view the screen based on the light reflected by the object.

도 1을 참고하면, 일 실시예에 따른, 전자 장치(101)는, 전자 장치(101)에 의해 방사되는 광이 도달 가능한(reachable) 외부 공간(100) 내에서, 상기 광에 의해 표현되는 화면을 투사가능한(projectable) 적어도 하나의 평면(예, 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 일 실시예에 따른 전자 장치(101)는, 통신 회로를 이용하여, 상기 식별한 적어도 하나의 평면을 향해 광을 투사하기 위한 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 하나 이상의 외부 전자 장치들(106)은 전자 장치(101) 내에 포함된 하드웨어의 적어도 일부를 포함할 수 있다. 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)의 하드웨어를 나타내는 블록도를 도 2에서 후술한다. Referring to FIG. 1, according to one embodiment, the electronic device 101 displays a screen represented by the light emitted by the electronic device 101 within an external space 100 that is reachable. At least one plane (e.g., planes 110, 120, 130, 140, and 150) that is projectable may be identified. The electronic device 101 according to an embodiment may identify one or more external electronic devices 106 for projecting light toward the identified at least one plane using a communication circuit. One or more external electronic devices 106 may include at least a portion of hardware included in the electronic device 101 . A block diagram showing the hardware of the electronic device 101 and one or more external electronic devices 106 will be described later with reference to FIG. 2 .

일 실시예에 따른 전자 장치(101)는, 통신 회로를 이용하여, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립할 수 있다. 전자 장치(101)는 상기 수립된 통신 링크에 기반하여, 하나 이상의 외부 전자 장치들(106)과 동기화(synchronization)할 수 있다. 전자 장치(101)는, 동기화된 하나 이상의 외부 전자 장치들(106)로, 적어도 하나의 정보를 공유할 수 있다. 전자 장치(101)는, 동기화된 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리들 각각을 제어하기 위한 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 동작들 중 적어도 하나를 제어하는 관점에서, 마스터 장치로 참조될 수 있다. 하나 이상의 외부 전자 장치들(106)은, 전자 장치(101)에 의해 상기 동작들 중 적어도 하나가 제어되는 관점에서, 슬레이브 장치(또는, 서브 장치)로 참조될 수 있다. 다만, 이에 제한되는 것은 아니다. The electronic device 101 according to one embodiment may establish a communication link with one or more external electronic devices 106 using a communication circuit. The electronic device 101 may synchronize with one or more external electronic devices 106 based on the established communication link. The electronic device 101 may share at least one piece of information with one or more synchronized external electronic devices 106. The electronic device 101 may transmit a signal to control each projection assembly of one or more external electronic devices 106 that are synchronized. For example, the electronic device 101 may be referred to as a master device in terms of controlling at least one of the operations of one or more external electronic devices 106. One or more external electronic devices 106 may be referred to as a slave device (or sub-device) in that at least one of the operations is controlled by the electronic device 101. However, it is not limited to this.

예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106) 각각으로부터, 하나 이상의 외부 전자 장치들(106) 각각이, 공간(100) 내에 배치된 위치를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호에 응답하여, 하나 이상의 외부 전자 장치들(106)의 위치 관계를 나타내는 정보를 획득할 수 있다. For example, the electronic device 101 may receive a signal indicating the location where each of the one or more external electronic devices 106 is located within the space 100 from each of the one or more external electronic devices 106. there is. The electronic device 101 may obtain information indicating the positional relationship of one or more external electronic devices 106 in response to the signal.

예를 들어, 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에서, 전자 장치(101)의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 상기 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리로부터 광이 투사될 평면들(120, 130, 140, 150)을 나타내는 신호를 수신할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 제2 평면(120) 내에, 제1 외부 전자 장치(102)의 프로젝션 어셈블리를 제어하여, 광을 투사할 수 있다. 제2 외부 전자 장치(103)는, 제3 평면(130) 내에, 제2 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 광을 투사할 수 있다. 제3 외부 전자 장치(104)는, 제3 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 제4 평면(140) 내에, 광을 투사할 수 있다. 제4 외부 전자 장치(104)는, 제5 평면(150) 내에, 제4 외부 전자 장치(104)의 프로젝션 어셈블리를 제어하여 광을 투사할 수 있다. For example, the electronic device 101 may use a camera to identify the first plane 110 within the space 100 on which light emitted from the projection assembly of the electronic device 101 will be projected. The electronic device 101 represents planes 120, 130, 140, and 150 on which light will be projected from one or more external electronic devices 106 and from a projection assembly of each of the one or more external electronic devices 106. A signal can be received. For example, the first external electronic device 102 may control the projection assembly of the first external electronic device 102 to project light into the second plane 120 . The second external electronic device 103 may control the projection assembly of the second external electronic device 103 to project light into the third plane 130 . The third external electronic device 104 may control the projection assembly of the third external electronic device 103 to project light into the fourth plane 140 . The fourth external electronic device 104 may project light into the fifth plane 150 by controlling the projection assembly of the fourth external electronic device 104 .

예를 들어, 전자 장치(101)는, 상기 수신한 신호에 응답하여, 공간(100) 내 평면들(110, 120, 130, 140, 150) 사이의 위치 관계를 획득할 수 있다. 전자 장치(101)는, 평면들(110, 120, 130, 140, 150) 각각에 대응하는 하나 이상의 외부 전자 장치들(106) 각각을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 평면들(110, 120, 130, 140, 150) 각각에 대응하여, 하나 이상의 외부 전자 장치들(106)을 설정하기 위한 사용자의 입력을 수신할 수 있다. 상기 입력에 응답하여, 전자 장치(101)는, 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106) 사이의 위치 관계를 식별할 수 있다. 전자 장치(101)는, 상기 위치 관계에 기반하여, 공간(100)의 사이즈를 나타내는 정보를 획득할 수 있다. For example, the electronic device 101 may obtain the positional relationship between the planes 110, 120, 130, 140, and 150 in the space 100 in response to the received signal. The electronic device 101 may identify each of one or more external electronic devices 106 corresponding to each of the planes 110, 120, 130, 140, and 150. For example, the electronic device 101 may receive a user's input for setting one or more external electronic devices 106, corresponding to each of the planes 110, 120, 130, 140, and 150. . In response to the input, the electronic device 101 may identify a positional relationship between the electronic device 101 and/or one or more external electronic devices 106. The electronic device 101 may obtain information indicating the size of the space 100 based on the positional relationship.

일 실시예에 따른 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에 위치한 사용자(107)를 식별할 수 있다. 전자 장치(101)는, 공간(100) 내 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 통신 회로를 이용하여, 하나 이상의 외부 전자 장치들(106)로부터, 공간(100) 내 사용자(107)의 위치를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 수신한 신호에 기반하여, 공간(100) 내에서, 3차원에 기반한 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 위치에 기반하여, 공간(100) 내에서 사용자(107)의 신체 부위들 각각에 인접한 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)가 사용자(107)의 신체 부위들 각각에 상기 평면들을 매핑하는 동작은 도 3에서 후술한다. The electronic device 101 according to one embodiment may identify the user 107 located in the space 100 using a camera. The electronic device 101 can identify the location of the user 107 within the space 100. For example, the electronic device 101 may receive a signal indicating the location of the user 107 within the space 100 from one or more external electronic devices 106 using a communication circuit. The electronic device 101 may identify the location of the user 107 in three dimensions within the space 100 based on the received signal. For example, the electronic device 101, based on the location of the user 107, creates planes 110, 120, 130, 140, and 150 adjacent to each of the body parts of the user 107 within the space 100. ) can be identified. The operation of the electronic device 101 to map the planes to each body part of the user 107 will be described later with reference to FIG. 3 .

일 실시예에 따른, 전자 장치(101)가 화면을 투사하는 일 평면 내에, 제1 표시 영역과, 하나 이상의 외부 전자 장치들(106)이 다른 화면을 투사하는 제2 표시 영역들은, 공간(100) 내에서, 서로 접하거나(adjoin), 또는 이격될 수 있다. 상기 하나 이상의 표시 영역 각각은, 지정된 비율(예, 종횡비(aspect ratio))을 가지고, 사각형의 형태를 가질 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 상기 하나 이상의 표시 영역 각각의 형태는, 상기 공간(100)의 사이즈를 나타내는 정보에 기반하여, 변경될 수 있다. According to one embodiment, in one plane where the electronic device 101 projects a screen, the first display area and the second display areas where one or more external electronic devices 106 project different screens include space 100. ), they can adjoin each other, or be spaced apart. Each of the one or more display areas may have a specified ratio (eg, aspect ratio) and have a rectangular shape. However, it is not limited to this. For example, the shape of each of the one or more display areas may be changed based on information indicating the size of the space 100.

예를 들어, 전자 장치(101)는, 제1 표시 영역에 화면을 표시할 수 있다. 하나 이상의 외부 전자 장치들(106)은 제2 표시 영역들에 다른 화면을 표시할 수 있다. 전자 장치(101)가 표시하는 상기 화면 및, 다른 화면은, 하나의 미디어 콘텐트에 의해 생성될 수 있다. 전자 장치(101)가 화면을 표시하는 것과 외부 전자 장치(102)가 다른 화면을 표시하는 것은 통신 링크를 통해, 실질적으로 동시에 수행될 수 있다. 전자 장치(101)가 표시하는 상기 화면 및, 다른 화면은, 하나의 미디어 콘텐트에 의해 생성될 수 있다. 예를 들어, 상기 화면은, 상기 하나의 미디어 콘텐트의 일 영역에 기반하여 생성될 수 있다. 상기 다른 화면은 상기 하나의 미디어 콘텐트의 다른 영역에 기반하여 생성될 수 있다. For example, the electronic device 101 may display a screen on the first display area. One or more external electronic devices 106 may display different screens on the second display areas. The screen and other screens displayed by the electronic device 101 may be created by one media content. Displaying a screen by the electronic device 101 and displaying a different screen by the external electronic device 102 may be performed substantially simultaneously through a communication link. The screen and other screens displayed by the electronic device 101 may be created by one media content. For example, the screen may be created based on one area of the one media content. The different screens may be created based on different areas of the one media content.

일 실시예에서, 전자 장치(101)에 의해 제1 표시 영역 내에 표시되는 화면은, 미디어 콘텐트(170)에 의해 지시될 수 있다. 예를 들어, 상기 미디어 콘텐트(170)는 전자 장치(101)의 메모리 내에 저장되거나, 또는 다른 전자 장치(예, 스트리밍 서비스를 제공하는 적어도 하나의 서버, STB(set-top box), PC, 및/또는 TV)로부터 전자 장치(101)로 송신될 수 있다. 상기 미디어 콘텐트(170)는, 이미지 및/또는 비디오를 포함할 수 있다. 상기 미디어 콘텐트(170)는, 전자 장치(101)에 의해 연결된 네트워크로부터 스트리밍될 수 있다. 상기 미디어 콘텐트(170)는, 비디오 및 상기 비디오에 동기화된 소리를 포함할 수 있다. 상기 미디어 콘텐트(170)는, MPEG(motion picture expert group)에 의해 규격화된 비디오를 포함할 수 있다. 하나 이상의 외부 전자 장치들(106)에 의해 제2 표시 영역들 내에 표시되는 다른 화면은, 상술한 바와 실질적으로 유사할 수 있다. In one embodiment, the screen displayed in the first display area by the electronic device 101 may be indicated by the media content 170. For example, the media content 170 is stored in the memory of the electronic device 101, or is stored in another electronic device (e.g., at least one server providing a streaming service, a set-top box (STB), a PC, and /or TV) may be transmitted to the electronic device 101. The media content 170 may include images and/or videos. The media content 170 may be streamed from a network connected by the electronic device 101. The media content 170 may include video and sound synchronized to the video. The media content 170 may include video standardized by MPEG (motion picture expert group). Other screens displayed in the second display areas by one or more external electronic devices 106 may be substantially similar to those described above.

일 실시예에 따른 전자 장치(101)는, 메모리 내에 저장된 미디어 콘텐트 분할 어플리케이션의 실행에 기반하여, 미디어 콘텐트(170)의 영역들을 분할할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)을 식별한 것에 기반하여, 상기 시각적 객체들 각각에 대응하는 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)의 유형(type), 및/또는 위치를 식별한 것에 기반하여, 상기 시각적 객체들 각각에 대응하는 상기 영역들을 획득할 수 있다. 전자 장치(101)가 상기 영역들을 획득하는 동작은, 도 4에서 후술한다. The electronic device 101 according to an embodiment may divide areas of the media content 170 based on execution of a media content division application stored in the memory. For example, the electronic device 101, based on identifying the visual objects 170-1, 170-2, and 170-3 included in the media content 170, displays images corresponding to each of the visual objects 170-1, 170-2, and 170-3. The above areas can be acquired. For example, the electronic device 101 based on identifying the type and/or location of the visual objects 170-1, 170-2, and 170-3 included in the media content 170. , the areas corresponding to each of the visual objects can be obtained. The operation of the electronic device 101 to acquire the areas will be described later with reference to FIG. 4 .

예를 들어, 전자 장치(101)는, 획득한 상기 영역들을 표시하기 위한 평면들(110, 120, 130, 140, 150) 중 적어도 일부를 식별할 수 있다. 전자 장치(101)는, 상기 적어도 일부를 식별한 것에 기반하여, 상기 적어도 일부 내에, 상기 영역들 각각을 표시하기 위한 하나 이상의 외부 전자 장치들(106) 중 적어도 일부를 식별할 수 있다. For example, the electronic device 101 may identify at least some of the planes 110, 120, 130, 140, and 150 for displaying the acquired areas. The electronic device 101 may identify at least some of the one or more external electronic devices 106 for displaying each of the areas within the at least part based on identifying the at least part.

예를 들어, 전자 장치(101)는 미디어 콘텐트(170) 내에 포함된 객체(170-1)에 대응하는 제1 영역을 식별할 수 있다. 전자 장치(101)는 제1 영역을 식별한 것에 기반하여, 제1 평면(110) 내에, 전자 장치(101)의 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the electronic device 101 may identify the first area corresponding to the object 170-1 included in the media content 170. Based on identifying the first area, the electronic device 101 may control the projection assembly of the electronic device 101 to display the first area in the first plane 110.

예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체(170-2)를 식별한 것에 기반하여, 제2 영역을 획득할 수 있다. 전자 장치(101)는 제2 영역을 획득한 것에 기반하여, 제2 영역을 표시하기 위한 제3 평면(130)을 식별할 수 있다. 전자 장치(101)는, 제3 평면(130) 내에, 제2 영역을 표시하기 위한 신호를 제2 외부 전자 장치(103)로 송신할 수 있다. 제2 외부 전자 장치(103)는, 제2 영역을, 제2 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 제3 평면(130) 내에, 표시할 수 있다. For example, the electronic device 101 may acquire the second area based on identifying the visual object 170-2 included in the media content 170. The electronic device 101 may identify the third plane 130 for displaying the second area based on the acquisition of the second area. The electronic device 101 may transmit a signal for displaying a second area within the third plane 130 to the second external electronic device 103. The second external electronic device 103 may display the second area in the third plane 130 by controlling the projection assembly of the second external electronic device 103.

예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체(170-3)를 식별한 것에 기반하여, 제3 영역을 획득할 수 있다. 전자 장치(101)는 제3 영역을 획득한 것에 기반하여, 제3 영역을 표시하기 위한 제5 평면(150)을 식별할 수 있다. 전자 장치(101)는, 제5 평면(150) 내에, 제3 영역을 표시하기 위한 신호를 제5 외부 전자 장치(105)로 송신할 수 있다. 제5 외부 전자 장치(105)는, 제3 영역을, 제5 외부 전자 장치(105)의 프로젝션 어셈블리를 제어하여, 제5 평면(150) 내에, 표시할 수 있다. 전자 장치(101)가 영역들 각각에 대응하는 하나 이상의 외부 전자 장치들(106) 중 적어도 하나를 식별하는 동작은 도 6a 내지 도 6b에서 후술한다. For example, the electronic device 101 may acquire the third area based on identifying the visual object 170-3 included in the media content 170. The electronic device 101 may identify the fifth plane 150 for displaying the third area based on the acquisition of the third area. The electronic device 101 may transmit a signal for displaying the third area within the fifth plane 150 to the fifth external electronic device 105. The fifth external electronic device 105 may display the third area in the fifth plane 150 by controlling the projection assembly of the fifth external electronic device 105 . An operation of the electronic device 101 identifying at least one of the one or more external electronic devices 106 corresponding to each of the areas will be described later with reference to FIGS. 6A and 6B.

상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립한 상태 내에서, 공간(100) 내에서, 하나 이상의 외부 전자 장치들(106)의 위치 관계를 나타내는 정보를 획득할 수 있다. 전자 장치(101)는, 상기 위치 관계를 나타내는 정보에 기반하여, 공간(100) 내 상기 하나 이상의 외부 전자 장치들(106) 각각에 대응하는 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)을 식별한 것에 기반하여 미디어 콘텐트(170)의 영역들을 구분할 수 있다. 전자 장치(101)는, 영역들 각각에 매핑되는 평면들(110, 130, 150)을 식별할 수 있다. 전자 장치(101)는, 상기 평면들을 식별한 것에 기반하여 상기 평면들(110, 130, 150) 각각에 상기 영역들 각각을 표시하거나, 또는 상기 영역들 각각을 표시하기위한 신호를 하나 이상의 외부 전자 장치들(106) 중 적어도 하나로 송신할 수 있다. 전자 장치(101)는 하나의 미디어 콘텐트(170)를 분할하여, 프로젝션 어셈블리, 및/또는 하나 이상의 외부 전자 장치들(106)을 제어하여, 공간(100)의 평면들 각각에, 분할된 미디어 콘텐트(170)의 영역들 각각을, 표시할 수 있다. 전자 장치(101)는, 2차원에 기반한 미디어 콘텐트(170)를 분할하여, 3차원 공간에 기반한 미디어 콘텐트로 변환할 수 있다. As described above, the electronic device 101 according to one embodiment is configured to establish a communication link with one or more external electronic devices 106 within the space 100. ) can obtain information indicating the positional relationship. The electronic device 101 creates planes 110, 120, 130, 140, and 150 corresponding to each of the one or more external electronic devices 106 in the space 100, based on the information representing the positional relationship. can be identified. The electronic device 101 may distinguish areas of the media content 170 based on identifying visual objects 170-1, 170-2, and 170-3 included in the media content 170. The electronic device 101 may identify the planes 110, 130, and 150 mapped to each of the regions. The electronic device 101 displays each of the regions on each of the planes 110, 130, and 150 based on identifying the planes, or sends a signal for displaying each of the regions using one or more external electronic devices. Can transmit to at least one of the devices 106. The electronic device 101 divides one media content 170 and controls the projection assembly and/or one or more external electronic devices 106 to display the divided media content on each of the planes of the space 100. Each of the areas (170) can be displayed. The electronic device 101 may divide the two-dimensional media content 170 and convert it into media content based on a three-dimensional space.

도 2는, 일 실시예에 따른 전자 장치의 블록도의 일 예를 도시한다. 도 1의 전자 장치(101)는 도 2의 전자 장치(101)의 일 예일 수 있다. 도 1의 하나 이상의 외부 전자 장치들(106)은, 도 2의 하나 이상의 외부 전자 장치들(106)의 일 예일 수 있다. 도 2를 참고하면, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)은, 유선 네트워크 및/또는 무선 네트워크에 기반하여 서로 연결될 수 있다. 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)이 직접적으로 연결된(directly connected) 것으로 도시되었으나, 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106)은 중간 노드(intermediate node)(예, 라우터 및/또는 AP(access point))를 통해 간접적으로 연결될 수 있다.Figure 2 shows an example of a block diagram of an electronic device according to an embodiment. The electronic device 101 of FIG. 1 may be an example of the electronic device 101 of FIG. 2 . One or more external electronic devices 106 of FIG. 1 may be an example of one or more external electronic devices 106 of FIG. 2 . Referring to FIG. 2, the electronic device 101 and one or more external electronic devices 106 may be connected to each other based on a wired network and/or a wireless network. The wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof. The wireless network is a network such as long term evolution (LTE), 5g new radio (NR), wireless fidelity (WiFi), Zigbee, near field communication (NFC), Bluetooth, bluetooth low-energy (BLE), or a combination thereof. may include. Although the electronic device 101 and one or more external electronic devices 106 are shown as being directly connected, the electronic device 101 and one or more external electronic devices 106 are intermediate nodes. It may be connected indirectly through a node) (e.g., a router and/or an access point (AP)).

도 2를 참고하면, 일 실시예에 따른, 전자 장치(101)는, 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(projection assembly)(240-1), 또는, 카메라(250-1) 중 적어도 하나를 포함할 수 있다. 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(projection assembly)(240-1), 및 카메라(250-1)는 통신 버스(a communication bus)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 2의 하드웨어들 중 일부분(예, 프로세서(210-1), 메모리(220-1) 및 통신 회로(230-1)의 적어도 일부분)이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 2에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. Referring to FIG. 2, according to one embodiment, the electronic device 101 includes a processor 210-1, a memory 220-1, a communication circuit 230-1, and a projection assembly 240- 1), or may include at least one of the cameras 250-1. The processor 210-1, memory 220-1, communication circuit 230-1, projection assembly 240-1, and camera 250-1 are connected to a communication bus. may be electrically and/or operably coupled with each other. Hereinafter, hardware being operatively combined will mean that a direct connection or an indirect connection between the hardware is established, wired or wireless, such that the second hardware is controlled by the first hardware among the hardware. You can. Although shown based on different blocks, the embodiment is not limited thereto, and at least some of the hardware in FIG. 2 (e.g., the processor 210-1, the memory 220-1, and the communication circuit 230-1) A portion) may be included in a single integrated circuit, such as a system on a chip (SoC). The type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 2 . For example, electronic device 101 may include only some of the hardware components shown in FIG. 2 .

일 실시예에 따른, 전자 장치(101)의 프로세서(210-1)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(210-1)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(210-1)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다. According to one embodiment, the processor 210-1 of the electronic device 101 may include hardware components for processing data based on one or more instructions. Hardware components for processing data include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), a central processing unit (CPU), and/or an application processor (AP). ) may include. The number of processors 210-1 may be one or more. For example, the processor 210-1 may have the structure of a multi-core processor such as dual core, quad core, or hexa core.

일 실시예에 따른, 전자 장치(101)의 메모리(220-1)는 프로세서(210-1)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(220-1)는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)과 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다. According to one embodiment, the memory 220-1 of the electronic device 101 may include hardware components for storing data and/or instructions input and/or output to the processor 210-1. The memory 220-1 includes, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). can do. Volatile memory may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), cache RAM, and pseudo SRAM (PSRAM). Non-volatile memory includes, for example, programmable ROM (PROM), erasable PROM (EPROM), electrically erasable PROM (EEPROM), flash memory, hard disk, compact disk, solid state drive (SSD), and embedded multi media card (eMMC). ) may include at least one of

일 실시예에 따른, 전자 장치(101)의 메모리(220-1) 내에서, 프로세서(210-1)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 프로세서(210-1)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)이 실행될 시에, 도 7의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 전자 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 전자 장치(101)의 메모리(220-1) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 전자 장치(101)의 프로세서(210-1)에 의해 실행 가능한(executable) 포맷(예, 전자 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다.According to one embodiment, within the memory 220-1 of the electronic device 101, one or more instructions (or instructions) indicating an operation and/or operation to be performed on data by the processor 210-1 It can be saved. A set of one or more instructions may be referred to as firmware, operating system, process, routine, sub-routine and/or application. For example, the electronic device 101 and/or the processor 210-1 may execute a set of a plurality of instructions distributed in the form of an operating system, firmware, driver, and/or application. At least one of the operations in FIG. 7 may be performed. Hereinafter, the fact that an application is installed on the electronic device 101 means that one or more instructions provided in the form of an application are stored in the memory 220-1 of the electronic device 101, and the one or more applications are installed in the electronic device 101. ) may mean stored in an executable format (e.g., a file with an extension specified by the operating system of the electronic device 101) by the processor 210-1.

일 실시예에 따른, 전자 장치(101)의 통신 회로(230-1)는 전자 장치(101) 및 외부 전자 장치(102) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 전자 장치(101)의 통신 회로(230-1)를 통해 연결된 다른 전자 장치로, 외부 전자 장치(102) 만이 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 통신 회로(230-1)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(230-1)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다. According to one embodiment, the communication circuit 230-1 of the electronic device 101 may include hardware to support transmission and/or reception of electrical signals between the electronic device 101 and the external electronic device 102. You can. As another electronic device connected through the communication circuit 230-1 of the electronic device 101, only the external electronic device 102 is shown, but the embodiment is not limited thereto. The communication circuit 230-1 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter. The communication circuit 230-1 includes Ethernet, local area network (LAN), wide area network (WAN), wireless fidelity (WiFi), Bluetooth, bluetooth low energy (BLE), ZigBee, and long term evolution (LTE). ), may support transmission and/or reception of electrical signals based on various types of protocols, such as 5G NR (new radio).

일 실시예에 따른 전자 장치(101)는, 통신 회로(230-1)를 이용하여, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립할 수 있다. 전자 장치(101)는, 수립된 통신 링크에 기반하여, 하나 이상의 외부 전자 장치들(106)로부터, 공간(예, 도 1의 공간(100))내의 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106) 각각의 위치 관계를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호에 응답하여, 위치 관계 정보(263)를 획득할 수 있다. 위치 관계 정보(263)는, 상기 하나 이상의 외부 전자 장치들(106)에 대응하는 평면들에 대한 정보를 포함할 수 있다. The electronic device 101 according to one embodiment may establish a communication link with one or more external electronic devices 106 using the communication circuit 230-1. The electronic device 101 may receive, based on an established communication link, from one or more external electronic devices 106, the electronic device 101 within a space (e.g., space 100 in FIG. 1), and one or more external electronic devices. A signal indicating the positional relationship between each of the devices 106 may be received. The electronic device 101 may obtain location relationship information 263 in response to the signal. Position relationship information 263 may include information about planes corresponding to the one or more external electronic devices 106.

일 실시예에 따른, 전자 장치(101)는 통신 회로(230-1)를 이용하여, 미디어 콘텐트 정보(262)(또는, 화면을 지시하는 정보)를 수신할 수 있다. 예를 들어, 전자 장치(101)는 통신 회로(230-1)를 통하여, WiDi(wireless display) 및/또는 미라캐스트와 같은 무선 통신 프로토콜에 기반하여, 미디어 콘텐트 정보(262)에 포함된 미디어 콘텐트를 표시하기 위한 신호를 무선으로 수신할 수 있다. 예를 들어, 전자 장치(101)는 통신 회로(230-1)를 이용하여, HDMI(high-definition multimedia interface), DP(displayport), MHL(mobile high-definition link), DVI(digital visual interface) 및/또는 D-sub(D-subminiature)와 같은 유선 통신 프로토콜(또는 유선 인터페이스)에 기반하여, 상기 미디어 콘텐트를 표시하기 위한 신호를 유선으로 수신할 수 있다. 전자 장치(101)는According to one embodiment, the electronic device 101 may receive media content information 262 (or information indicating a screen) using the communication circuit 230-1. For example, the electronic device 101 transmits media content included in the media content information 262 based on a wireless communication protocol such as WiDi (wireless display) and/or Miracast through the communication circuit 230-1. A signal to display can be received wirelessly. For example, the electronic device 101 uses the communication circuit 230-1 to communicate with a high-definition multimedia interface (HDMI), a displayport (DP), a mobile high-definition link (MHL), and a digital visual interface (DVI). And/or based on a wired communication protocol (or wired interface) such as D-sub (D-subminiature), a signal for displaying the media content may be received by wire. The electronic device 101 is

일 실시예에 따른, 전자 장치(101)의 프로젝션 어셈블리(240-1)는, 2차원으로 배열된 픽셀들을 표현한 광을 방출하기 위해 조립된(assembled) 복수의 하드웨어들을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는 색 공간 내 3 원색들(three primary colors) 각각의 광을 방출하기 위한 CRT들(cathode-ray tubes) 및, 상기 CRT들 각각으로부터 방출된 광을 확대하기 위한 렌즈들의 조합(combination)을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는, 광을 방출하기 위한 광원(예, 램프), 상기 광을, 3 원색들 각각에 대응하는 광 경로들(light paths)로 분할하기 위한 광학 필터들, 상기 광 경로들 각각에 배치된 LCD(liquid crystal display) 패널들, 및 상기 LCD 패널들로부터 출력된 광을 합성하기 위한 프리즘 및/또는 렌즈의 조합을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는, 광을 방출하기 위한 광원, 상기 광으로부터 3 원색들 중 어느 하나를 선택하는 광학 필터, 상기 광학 필터에 의해 필터링된 원색에 대한 반사를 조절하기 위한 DMD(digital mirror device), 및 상기 DMD에 의해 반사된 광을 확대하기 위한 렌즈의 조합을 포함할 수 있다. 화면의 표시를 위해 광의 투사를 요구하는 관점에서, 상기 예시된 조합들 중 적어도 하나는, 프로젝션 어셈블리(240-1)로 지칭될 수 있다. 일 실시예에서, 프로젝션 어셈블리(240-1)를 포함하는 전자 장치(101)는 빔 프로젝터(beam projector)로 지칭될 수 있다.According to one embodiment, the projection assembly 240-1 of the electronic device 101 may include a plurality of hardware assembled to emit light representing two-dimensionally arranged pixels. For example, the projection assembly 240-1 includes CRTs (cathode-ray tubes) for emitting light of each of the three primary colors in the color space, and magnifies the light emitted from each of the CRTs. It may include a combination of lenses to do this. For example, the projection assembly 240-1 includes a light source (e.g., a lamp) for emitting light, optical filters for dividing the light into light paths corresponding to each of the three primary colors. , liquid crystal display (LCD) panels disposed in each of the optical paths, and a combination of prisms and/or lenses for synthesizing light output from the LCD panels. For example, the projection assembly 240-1 includes a light source for emitting light, an optical filter for selecting one of three primary colors from the light, and a light source for controlling reflection of the primary color filtered by the optical filter. It may include a combination of a digital mirror device (DMD) and a lens for magnifying light reflected by the DMD. In terms of requiring projection of light to display a screen, at least one of the above-exemplified combinations may be referred to as a projection assembly 240-1. In one embodiment, the electronic device 101 including the projection assembly 240-1 may be referred to as a beam projector.

일 실시예에 따른, 전자 장치(101)의 카메라(250-1)는, 광의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 카메라(250-1) 내 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(250-1)는 복수의 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(250-1)를 이용하여 캡쳐한 사진 데이터는 카메라(250-1)로부터 획득한 하나의(a) 이미지를 의미할 수 있다. 예를 들어, 카메라(250-1)를 이용하여 캡쳐한 비디오 데이터는 카메라(250-1)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. According to one embodiment, the camera 250-1 of the electronic device 101 includes one or more optical sensors (e.g., charged coupled device (CCD) sensor, CMOS) that generate electrical signals representing the color and/or brightness of light. (complementary metal oxide semiconductor) sensor). A plurality of optical sensors in the camera 250-1 may be arranged in the form of a 2-dimensional array. The camera 250-1 acquires electrical signals from each of the plurality of optical sensors substantially simultaneously, corresponds to the light reaching the optical sensors of the two-dimensional grid, and creates an image including a plurality of pixels arranged in two dimensions. can be created. For example, photo data captured using the camera 250-1 may mean one (a) image obtained from the camera 250-1. For example, video data captured using the camera 250-1 may mean a sequence of a plurality of images acquired from the camera 250-1 according to a designated frame rate.

일 실시예에 따른 전자 장치(101)는, 카메라(250-1)를 이용하여, 공간(예, 도 1의 공간(100)) 내에 위치한 사용자(예, 도 1의 사용자(107))를 식별할 수 있다. 전자 장치(101)는, 카메라(250-1)를 이용하여, 상기 사용자의 신체 부위를 식별할 수 있다. 전자 장치(101)는, 상기 사용자의 신체 부위를 식별한 것에 기반하여, 상기 사용자의 신체 부위에 인접한, 상기 공간 내의 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치(101)는, 상기 평면들 및 상기 사용자의 신체 부위를 식별한 것에 기반하여, 사용자 신체 정보(261)를 획득할 수 있다. The electronic device 101 according to one embodiment identifies a user (e.g., the user 107 in FIG. 1) located in a space (e.g., the space 100 in FIG. 1) using the camera 250-1. can do. The electronic device 101 can identify the user's body part using the camera 250-1. Based on identifying the user's body part, the electronic device 101 selects planes in the space adjacent to the user's body part (e.g., planes 110, 120, 130, 140, 150 in FIG. 1 )) can be identified. The electronic device 101 may obtain user body information 261 based on identifying the planes and the user's body parts.

일 실시예에 따른 전자 장치(101)는, 카메라(250-1)를 이용하여, 전자 장치(101)의 프로젝션 어셈블리(240-1)가 광을 투사할 제1 평면(예, 도 1의 제1 평면(110))의 크기를 식별할 수 있다. 전자 장치(101)는 하나 이상의 외부 전자 장치들(106)로부터, 상기 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리(예, 프로젝션 어셈블리(240-2))가 광을 투사할 평면들(예, 도 1의 평면들(120, 130, 140, 150))의 크기(size)를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 식별한 제1 평면의 크기, 및/또는 상기 수신한 신호를 이용하여, 공간 크기 정보(264)를 획득할 수 있다. The electronic device 101 according to an embodiment uses a camera 250-1 to display a first plane (e.g., the first plane in FIG. 1) on which the projection assembly 240-1 of the electronic device 101 projects light. 1 The size of the plane 110) can be identified. The electronic device 101 receives from one or more external electronic devices 106 a projection assembly (e.g., a projection assembly 240-2) of each of the one or more external electronic devices 106 to project light onto planes ( Yes, a signal indicating the size of the planes 120, 130, 140, and 150 of FIG. 1 can be received. The electronic device 101 may obtain space size information 264 using the size of the identified first plane and/or the received signal.

일 실시예에 따른 전자 장치(101)는, 메모리(220-1) 내에 저장된 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트 정보(262)를 이용하여 획득한, 미디어 콘텐트를 분할할 수 있다. 예를 들어, 전자 장치(101)는, 상기 미디어 콘텐트 내에 포함된 시각적 객체를 식별함으로써, 상기 시각적 객체에 대응하는 영역을 획득할 수 있다. 전자 장치(101)는, 상기 영역을 획득한 것에 기반하여, 상기 영역을 투사할, 평면을 식별할 수 있다. 전자 장치(101)가 상기 영역을 투사할 평면을 식별하는 동작은 도 4에서 후술한다. The electronic device 101 according to one embodiment divides the media content obtained using the media content information 262 based on execution of the media content division application 260 stored in the memory 220-1. You can. For example, the electronic device 101 may identify a visual object included in the media content, thereby obtaining an area corresponding to the visual object. The electronic device 101 may identify a plane on which to project the area, based on obtaining the area. The operation of the electronic device 101 to identify a plane on which to project the area will be described later with reference to FIG. 4 .

도 2를 참고하면, 전자 장치(101)에 연결된 하나 이상의 외부 전자 장치들(106) 중 적어도 하나는, 프로세서, 메모리, 통신 회로, 프로젝션 어셈블리, 또는 카메라 중 적어도 하나를 포함할 수 있다. 예를 들어, 제1 외부 전자 장치102)는, 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2), 또는 카메라(250-2) 중 적어도 하나를 포함할 수 있다. 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2) 및 카메라(250-2)는 통신 버스에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다. 도 2의 제1 외부 전자 장치(102) 내 프로세서(210-2), 메모리(220-2), 통신 회로(230-2) 및 카메라(250-2)는, 전자 장치(101) 내 프로세서(210-1), 메모리(220-1), 통신 회로(230-1) 및 카메라(250-1)에 대응할 수 있다. 설명의 반복을 줄이기 위하여, 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2), 및 카메라(250-2)의 설명들 중에서, 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(240-1), 및 카메라(250-1)와 중복되는 설명들이 생략될 수 있다. Referring to FIG. 2 , at least one of the one or more external electronic devices 106 connected to the electronic device 101 may include at least one of a processor, memory, communication circuit, projection assembly, or camera. For example, the first external electronic device 102 may include a processor 210-2, a memory 220-2, a communication circuit 230-2, a projection assembly 240-2, or a camera 250-2. It may include at least one of: The processor 210-2, memory 220-2, communication circuit 230-2, projection assembly 240-2, and camera 250-2 are electrically and/or operationally connected to each other by a communication bus. can be connected The processor 210-2, memory 220-2, communication circuit 230-2, and camera 250-2 in the first external electronic device 102 of FIG. 2 are the processor ( 210-1), memory 220-1, communication circuit 230-1, and camera 250-1. In order to reduce repetition of explanation, among the descriptions of the processor 210-2, memory 220-2, communication circuit 230-2, projection assembly 240-2, and camera 250-2, the processor Descriptions overlapping with 210-1, memory 220-1, communication circuit 230-1, projection assembly 240-1, and camera 250-1 may be omitted.

일 실시예에 따른 하나 이상의 외부 전자 장치들(106)은, 전자 장치(101)와 수립된 통신 링크를 통해, 하나 이상의 외부 전자 장치들(106)이 공간(예, 도 1의 공간(100)) 내에 배치된 위치를 나타내는 신호를 송신할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 하나 이상의 외부 전자 장치들(106) 각각의 카메라를 이용하여, 공간(예, 도 1의 공간(100)) 내에서, 사용자를 식별할 수 있다. 하나 이상의 외부 전자 장치들(106)은 상기 식별한 사용자의 위치, 및/또는 상기 사용자의 신체 부위의 위치를 지시하는 신호를, 상기 통신 링크를 통해, 전자 장치(101)로 송신할 수 있다. One or more external electronic devices 106 according to an embodiment may, through an established communication link with the electronic device 101, connect the one or more external electronic devices 106 to a space (e.g., space 100 of FIG. 1). ) can transmit a signal indicating the location placed within. One or more external electronic devices 106 may identify a user within a space (e.g., space 100 of FIG. 1 ) using cameras of each of the one or more external electronic devices 106 . One or more external electronic devices 106 may transmit a signal indicating the location of the identified user and/or the location of a body part of the user to the electronic device 101 via the communication link.

일 실시예에 따른 하나 이상의 외부 전자 장치들(106)은, 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리로부터 투사된 광에 대응하는 평면들(예, 도 1의 평면들(120, 130, 140, 150))을 나타내는 신호를 전자 장치(101)로 송신할 수 있다. One or more external electronic devices 106 according to an embodiment may display planes (e.g., planes 120 and 130 of FIG. 1 ) corresponding to the light projected from the projection assembly of each of the one or more external electronic devices 106. , 140, 150)) can be transmitted to the electronic device 101.

일 실시예에 따른 전자 장치(101)는, 통신 회로(230-1)를 이용하여, 제1 외부 전자 장치(102)와 통신 링크를 수립할 수 있다. 통신 링크가 수립된 상태 내에서, 전자 장치(101)는, 제1 외부 전자 장치(102)로, 미디어 콘텐트의 상이한 영역들 중 일 영역을 나타내는 신호를 송신할 수 있다. 전자 장치(101)는, 상기 신호를 송신하는 것에 기반하여, 제1 표시 영역에, 상기 상이한 영역들 중 다른 영역을, 프로젝션 어셈블리(240-1)를 이용하여, 투사할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 상기 신호를 수신하는 것에 응답하여, 제2 표시 영역에, 상기 상이한 영역들 중 일 영역을, 프로젝션 어셈블리(240-2)를 이용하여, 투사할 수 있다. 상기 통신 링크에 기반하여, 전자 장치(101) 및 외부 전자 장치(102)는, 상기 일 영역, 및/또는 상기 다른 영역을, 실질적으로 동시에, 투사할 수 있다. The electronic device 101 according to one embodiment may establish a communication link with the first external electronic device 102 using the communication circuit 230-1. Within a state in which a communication link is established, the electronic device 101 may transmit, to the first external electronic device 102, a signal representing one of the different regions of the media content. Based on transmitting the signal, the electronic device 101 may project another area among the different areas onto the first display area using the projection assembly 240-1. For example, in response to receiving the signal, the first external electronic device 102 projects one of the different areas onto the second display area using the projection assembly 240-2. can do. Based on the communication link, the electronic device 101 and the external electronic device 102 can project the one area, and/or the other area, substantially simultaneously.

상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트 분할 어플리케이션(260)이 실행된 상태 내에서, 사용자 신체 정보(261), 미디어 콘텐트 정보(262), 위치 관계 정보(263), 및/또는 공간 크기 정보(264)를 이용하여, 미디어 콘텐트의 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들을 표시할 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로, 상기 영역들을 나타내는 신호를 송신할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 상기 신호에 응답하여, 상기 하나 이상의 외부 전자 장치들(106) 각각에 대응하는 평면들 각각에, 상기 영역들 각각을, 표시할 수 있다. 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106)은, 미디어 콘텐트를 분할하여, 복수의 평면들 내에, 상기 미디어 콘텐트의 상이한 영역들을 표시함으로써, 사용자에게, 몰입감있는, 증강 현실 서비스를 제공할 수 있다. As described above, the electronic device 101 according to one embodiment includes user body information 261, media content information 262, and location relationship information 263 while the media content division application 260 is running. ), and/or using the space size information 264, regions of the media content can be obtained. For example, the electronic device 101 may identify one or more external electronic devices 106 that will display the areas. The electronic device 101 may transmit a signal indicating the areas to one or more external electronic devices 106. One or more external electronic devices 106 may display each of the areas on each of the planes corresponding to each of the one or more external electronic devices 106 in response to the signal. The electronic device 101 and one or more external electronic devices 106 provide an immersive, augmented reality service to a user by dividing the media content and displaying different regions of the media content in a plurality of planes. can be provided.

이하, 도 3에서, 일 실시예에 따른 전자 장치(101)가 사용자의 신체 부위에 인접한 평면들을 식별하는 동작의 일 예가 후술된다. Hereinafter, in FIG. 3 , an example of an operation in which the electronic device 101 according to an embodiment identifies planes adjacent to a user's body part will be described below.

도 3은, 일 실시예에 따른 전자 장치가 사용자의 신체 부위에 인접한 평면을 식별하는 동작의 일 예를 도시한다. 도 3의 전자 장치(101)는, 도 1 내지 도 2의 전자 장치(101)를 포함할 수 있다. 도 3의 하나 이상의 외부 전자 장치들(106)은, 도 1 내지 도 2의 하나 이상의 외부 전자 장치들(106)을 포함할 수 있다. 도 3을 참고하면, 복수의 평면들(110, 120, 130, 140, 150)을 포함하는, 3차원 좌표계(3 dimensional coordinate system)에 기반한, 공간(100)의 일 예가 도시된다. FIG. 3 illustrates an example of an operation in which an electronic device identifies a plane adjacent to a user's body part, according to an embodiment. The electronic device 101 of FIG. 3 may include the electronic device 101 of FIGS. 1 and 2 . One or more external electronic devices 106 of FIG. 3 may include one or more external electronic devices 106 of FIGS. 1 and 2 . Referring to FIG. 3 , an example of a space 100 based on a 3-dimensional coordinate system including a plurality of planes 110, 120, 130, 140, and 150 is shown.

일 실시예에 따른 전자 장치(101)는 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립한 상태 내에서, 카메라(예, 도 2의 카메라(250-1), 및/또는 센서(미도시)를 이용하여, 공간(100) 내에 위치한 사용자(107)를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 공간(100) 내 사용자(107)를 식별한 것을 나타내는 신호를 수신할 수 있다. 전자 장치(101)는 신호에 응답하여, 사용자(107)를 식별할 수 있다. The electronic device 101 according to one embodiment may use a camera (e.g., the camera 250-1 of FIG. 2) and/or a sensor (not shown) while establishing a communication link with one or more external electronic devices 106. For example, the electronic device 101 may identify the user 107 located within the space 100 from one or more external electronic devices 106. The electronic device 101 may receive a signal indicating that 107 has been identified and may identify the user 107 in response to the signal.

예를 들어, 전자 장치(101)는, 사용자(107)를 식별한 것에 기반하여, 사용자의 신체 부위들을 식별할 수 있다. 상기 사용자의 신체 부위들은, 머리(302), 오른팔(303), 왼팔(304), 다리(305)를 포함할 수 있다. 전자 장치(101)는, 카메라를 이용하여, 사용자(107)의 시선(301)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 시선(301)을 나타내는 신호에 응답하여, 상기 시선(301)을 식별할 수 있다. 예를 들어, 상기 시선(301)의 방향(예, z 방향)은, 사용자(107)의 방향을 포함할 수 있다. For example, the electronic device 101 may identify body parts of the user based on identifying the user 107 . The user's body parts may include the head 302, the right arm 303, the left arm 304, and the legs 305. The electronic device 101 may identify the gaze 301 of the user 107 using a camera. The electronic device 101 may identify the line of sight 301 in response to a signal indicating the line of sight 301 from one or more external electronic devices 106 . For example, the direction of the gaze 301 (eg, z direction) may include the direction of the user 107.

예를 들어, 전자 장치(101)는 사용자의 신체 부위들을 식별한 것에 기반하여, 상기 사용자의 신체 부위들 각각에 인접한, 평면들(110, 120, 130, 140, 150), 및/또는 전자 장치들(예, 전자 장치(101), 또는 하나 이상의 외부 전자 장치들(106))을 식별할 수 있다. 전자 장치(101)는, 도 2의 위치 관계 정보(263)를 이용하여, 상기 사용자의 신체 부위들 각각에 인접한 평면들 및/또는 전자 장치들을 식별할 수 있다. For example, based on identifying the user's body parts, the electronic device 101 may identify planes 110, 120, 130, 140, 150, and/or the electronic device adjacent to each of the user's body parts. (e.g., the electronic device 101 or one or more external electronic devices 106) may be identified. The electronic device 101 may use the positional relationship information 263 of FIG. 2 to identify planes and/or electronic devices adjacent to each of the user's body parts.

일 실시예에 따른 전자 장치(101)는, 사용자(107)의 시선(301)을 식별한 것에 기반하여, 상기 사용자의 시선(301)에 대응하는 제1 평면(110)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 시선(301)의 방향(예 z 방향)에 위치한 제1 평면(110)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 시선(301)의 방향(예, z 방향)에 수직인 방향(예, y 방향)을 포함하는 제1 평면(110)을 식별할 수 있다. 제1 평면(110)은 사용자(107)의 시선(301)에 대응하는 관점에서, 중심 영역으로 참조될 수 있다. The electronic device 101 according to one embodiment may identify the first plane 110 corresponding to the user's gaze 301 based on identifying the gaze 301 of the user 107 . For example, the electronic device 101 may identify the first plane 110 located in the direction of the line of sight 301 (eg, z-direction). For example, the electronic device 101 may identify the first plane 110 including a direction (eg, y-direction) perpendicular to the direction (eg, z-direction) of the line of sight 301. The first plane 110 may be referred to as a central area from a viewpoint corresponding to the gaze 301 of the user 107.

예를 들어, 전자 장치(101)는, 사용자(107)의 머리(302)를 식별한 것에 기반하여, 머리(302)에 인접한 제2 평면(120), 및/또는 제1 외부 전자 장치(102)를 식별할 수 있다. 전자 장치(101)는, 사용자(예, 사용자의 몸)로부터 머리(302)로 향하는 방향(예, y 방향)에 위치한 제2 평면(120)을 식별할 수 있다. 제2 평면(120)은, 사용자(107)의 머리(302) 위에 위치하는 관점에서, 상단(top) 영역으로 참조될 수 있다. For example, based on identifying the head 302 of the user 107, the electronic device 101 may display a second plane 120 adjacent the head 302, and/or a first external electronic device 102. ) can be identified. The electronic device 101 may identify the second plane 120 located in a direction (e.g., y direction) from the user (e.g., the user's body) to the head 302. The second plane 120 may be referred to as a top area, from the perspective of being located above the head 302 of the user 107 .

예를 들어, 전자 장치(101)는, 사용자(107)의 오른팔(303)을 식별한 것에 기반하여, 오른팔(303)에 인접한 제3 평면(130), 및/또는 제2 외부 전자 장치(103)를 식별할 수 있다. 전자 장치(101)는, 사용자(예, 사용자의 몸)로부터 오른팔(303)로 향하는 방향(예, x 방향)에 위치한 제3 평면(130)을 식별할 수 있다. 제3 평면(130)은, 사용자(107)의 오른쪽에 위치하는 관점에서, 우측(right) 영역으로 참조될 수 있다. For example, based on identifying the right arm 303 of the user 107, the electronic device 101 may display a third plane 130 adjacent the right arm 303, and/or a second external electronic device 103. ) can be identified. The electronic device 101 may identify the third plane 130 located in a direction (e.g., x direction) from the user (e.g., the user's body) to the right arm 303. The third plane 130 may be referred to as a right area, from the perspective of being located to the right of the user 107.

예를 들어, 전자 장치(101)는, 사용자(107)의 왼팔(304)을 식별한 것에 기반하여, 왼팔(304)에 인접한 제4 평면(140), 및/또는 제3 외부 전자 장치(104)를 식별할 수 있다. 전자 장치(101)는, 사용자로부터 왼팔(304)로 향하는 방향(예, -x 방향)에 위치한 제4 평면(140)을 식별할 수 있다. 제4 평면(140)은, 사용자(107)의 왼쪽에 위치하는 관점에서, 좌측(left) 영역으로 참조될 수 있다. For example, the electronic device 101 may, based on identifying the left arm 304 of the user 107, display a fourth plane 140 adjacent the left arm 304, and/or a third external electronic device 104. ) can be identified. The electronic device 101 may identify the fourth plane 140 located in a direction (eg, -x direction) from the user to the left arm 304. The fourth plane 140 may be referred to as a left area, from the perspective of being located to the left of the user 107.

예를 들어, 전자 장치(101)는, 사용자(107)의 다리(305)를 식별한 것에 기반하여, 다리(305)에 인접한 제5 평면(150), 및/또는 제4 외부 전자 장치(105)를 식별할 수 있다. 전자 장치(101)는 사용자로부터 다리(305)로 향하는 방향(예, y -방향)에 위치한 제5 평면(150)을 식별할 수 있다. 제5 평면(150)은, 사용자(107)의 아래에 위치하는 관점에서, 하단(bottom) 영역으로 참조될 수 있다. 도시하진 않았지만, 전자 장치(101)는, 사용자(107)의 후방(예, 시선 방향과 반대인 방향(-z 방향))에 위치한, 평면, 및/또는 하나 이상의 외부 전자 장치들(106) 중 적어도 하나를 식별할 수 있다. For example, based on identifying the leg 305 of the user 107, the electronic device 101 may display a fifth plane 150 adjacent the leg 305, and/or a fourth external electronic device 105. ) can be identified. The electronic device 101 may identify the fifth plane 150 located in a direction (eg, y -direction) from the user to the leg 305 . The fifth plane 150 may be referred to as a bottom area, from the perspective of being located below the user 107 . Although not shown, the electronic device 101 is a flat surface located behind the user 107 (e.g., in the direction opposite to the gaze direction (-z direction)), and/or one of one or more external electronic devices 106. At least one can be identified.

일 실시예에 따른, 사용자의 신체 부위들 각각에 대응하는 평면들을 식별하는 것과 독립적으로, 전자 장치(101)는, 사용자(107)를 식별한 것에 기반하여, 공간(100)을, 구분할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 머리 위에(over) 위치하는 제1 영역을 식별할 수 있다. 전자 장치(101)는, 머리 아래(under)에 위치하고, 사용자(107)의 팔을 포함하는 제2 영역을 식별할 수 있다. 전자 장치(101)는, 사용자(107)의 다리(305)를 포함하는 제3 영역을 식별할 수 있다. According to one embodiment, independently of identifying planes corresponding to each of the user's body parts, the electronic device 101 may distinguish the space 100 based on identifying the user 107. . For example, the electronic device 101 may identify a first area located over the head of the user 107. The electronic device 101 may identify a second region that is located under the head and includes the arms of the user 107. The electronic device 101 may identify the third area including the legs 305 of the user 107 .

일 실시예에 따른 전자 장치(101)는, 위치 관계 정보(예, 도 2의 위치 관계 정보(263))를 이용하여, 사용자의 시선(301)을 식별한 것에 기반하여, 공간(100) 내 평면들(110, 120, 130, 140, 150) 및 사용자(107) 사이의 위치 관계를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 시선(301)이 제1 평면(110)에 매칭됨을 식별한 상태 내에서, 상기 위치 관계 정보를 이용하여, 사용자(107)를 기준으로, 평면들(120, 130, 140, 150)이 배치된 위치를 식별할 수 있다. The electronic device 101 according to one embodiment is based on identifying the user's gaze 301 using location relationship information (e.g., location relationship information 263 in FIG. 2) within the space 100. The positional relationship between the planes 110, 120, 130, 140, and 150 and the user 107 may be identified. For example, in a state where the electronic device 101 has identified that the user's gaze 301 matches the first plane 110, the electronic device 101 uses the position relationship information to determine the plane by using the position relationship information. The locations where fields 120, 130, 140, and 150 are placed can be identified.

예를 들어, 전자 장치(101)는, 사용자(107)의 시선(301)이 제1 평면(110)과 다른 평면에 매칭되는 것을 식별할 수 있다. 전자 장치(101)는 카메라를 이용하여, 사용자(107)의 시선(301) 방향이 변경되는 것을 식별할 수 있다. 일 예로, 전자 장치(101)는, 제3 평면(140)에 시선(301)이 매칭되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 시선(301)이 제3 평면(140)에 매칭되는 것을 식별한 상태 내에서, 제3 평면(140)을, 중심(center) 영역으로 식별할 수 있다. For example, the electronic device 101 may identify that the gaze 301 of the user 107 matches a plane different from the first plane 110. The electronic device 101 may identify a change in the direction of the gaze 301 of the user 107 using a camera. As an example, the electronic device 101 may identify that the gaze 301 matches the third plane 140. The electronic device 101 may identify the third plane 140 as a center area while identifying that the line of sight 301 matches the third plane 140.

예를 들어, 전자 장치(101)는, 제3 평면(140)에 기반하여, 평면들(110, 120, 130, 150)의 위치 관계를 업데이트할 수 있다. 일 예로, 제3 평면(140)을 중심 영역으로 식별한 상태에서, 전자 장치(101)는, 제1 평면(110)을 좌측 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는 제2 평면(120)을 상단 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는, 제4 평면(130)을, 후방(rear) 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는, 제5 평면(150)을, 하단 영역으로 식별할 수 있다. 다만 이에 제한되는 것은 아니다. For example, the electronic device 101 may update the positional relationship of the planes 110, 120, 130, and 150 based on the third plane 140. For example, with the third plane 140 identified as the center area, the electronic device 101 may identify the first plane 110 as the left area. In this state, the electronic device 101 may identify the second plane 120 as the upper area. In the above state, the electronic device 101 may identify the fourth plane 130 as the rear area. In the above state, the electronic device 101 may identify the fifth plane 150 as the lower area. However, it is not limited to this.

예를 들어, 전자 장치(101)는, 제1 평면(110)에 미디어 콘텐트의 영역들 중 상기 중심 영역에 대응하는 일 영역을 표시하는 상태 내에서, 상기 시선(301)의 방향이 변경되는 것을 식별한 것에 기반하여, 상기 제3 평면(130) 내에, 상기 일 영역을 표시하기 위한 신호를, 제3 외부 전자 장치(104)로 송신할 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 미디어 콘텐트 중 일 영역을 표시하는 동안, 상기 업데이트를 일시적으로 삼가할 수 있다. For example, the electronic device 101 detects that the direction of the gaze 301 changes while displaying an area corresponding to the center area among areas of media content on the first plane 110. Based on the identification, a signal for displaying the area within the third plane 130 may be transmitted to the third external electronic device 104. However, it is not limited to this. As an example, the electronic device 101 may temporarily refrain from updating while displaying one area of media content.

상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 카메라를 이용하여, 공간(100)에 위치한 사용자(107)를 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 상기 사용자를 식별함을 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호를 수신한 것에 기반하여, 공간(100) 내에서, 3차원 좌표계에 기반한, 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 위치를 식별한 것에 기반하여, 공간(100) 내 평면들(110, 120, 130, 140, 150)을 구분할 수 있다. 전자 장치(101)는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 분할된 미디어 콘텐트의 상이한 영역들 각각을 표시하기위한 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)는, 평면들(110, 120, 130, 140, 150)의 위치 관계에 기반하여, 상기 미디어 콘텐트의 상이한 영역들을 매칭할 수 있다. 전자 장치(101)는, 평면들 및/또는 사용자 사이의 위치 관계를 이용하여, 상기 상이한 영역들을, 상기 평면들 내에, 표시하거나, 또는, 하나 이상의 외부 전자 장치들(106)로 상기 상이한 영역들을 표시하기 위한 신호를 송신할 수 있다. 전자 장치(101)는 사용자의 위치에 대응하여, 상기 상이한 영역들을, 평면들 내에 표시함으로써, 사용자(107)와 상호작용을 나타내는 증강 현실 서비스를 제공할 수 있다. 이하, 도 4에서, 평면들(110, 120, 130, 140, 150), 및 사용자(107) 사이의 위치 관계에 기반하여, 미디어 콘텐트의 영역들을 식별하는 동작의 일 예를 후술한다. As described above, the electronic device 101 according to one embodiment can identify the user 107 located in the space 100 using a camera. The electronic device 101 may receive a signal indicating identification of the user from one or more external electronic devices 106. Based on receiving the signal, the electronic device 101 may identify the location of the user 107 within the space 100, based on a three-dimensional coordinate system. For example, the electronic device 101 may distinguish the planes 110, 120, 130, 140, and 150 within the space 100 based on identifying the location of the user 107. The electronic device 101 displays planes 110, 120, 130, 140, and 150 for displaying different regions of the divided media content, respectively, based on execution of the media content division application 260 of FIG. 2. can be identified. The electronic device 101 may match different areas of the media content based on the positional relationships of the planes 110, 120, 130, 140, and 150. The electronic device 101 uses the positional relationship between the planes and/or the user to display the different areas within the planes, or to display the different areas with one or more external electronic devices 106. A signal for display can be transmitted. The electronic device 101 may provide an augmented reality service that indicates interaction with the user 107 by displaying the different areas in planes, corresponding to the user's location. Below, in FIG. 4 , an example of an operation for identifying areas of media content based on the positional relationship between the planes 110, 120, 130, 140, and 150 and the user 107 will be described below.

도 4는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들을 구분하는 동작의 일 예를 도시한다. 도 4의 전자 장치(101)는, 도 1 내지 도 3의 전자 장치(101)를 포함할 수 있다. FIG. 4 illustrates an example of an operation in which an electronic device divides areas of media content, according to an embodiment. The electronic device 101 of FIG. 4 may include the electronic device 101 of FIGS. 1 to 3 .

도 4를 참고하면, 일 실시예에 따른 전자 장치(101)는, 메모리 내에 저장된 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 이용하여, 미디어 콘텐트(405)를 획득할 수 있다. 예를 들어, 미디어 콘텐트(405)는, 하나 이상의 시각적 객체들을 포함할 수 있다. 전자 장치(101)는, 하나 이상의 시각적 객체들(415, 425, 435, 445, 455)을 식별한 것에 기반하여, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는 미디어 콘텐트(405) 내에 포함된 하나 이상의 픽셀들 사이의 유사도(similarity)를 나타내는 파라미터에 기반하여, 상기 영역들을 획득할 수 있다. 전자 장치(101)는 미디어 콘텐트(405) 내에 포함된 시각적 객체를 감지(detection)하거나, 인식(recognition)하는 것에 기반하여, 상기 영역들을 획득할 수 있다. Referring to FIG. 4, the electronic device 101 according to one embodiment may acquire media content 405 using media content information (e.g., media content information 262 of FIG. 2) stored in the memory. there is. For example, media content 405 may include one or more visual objects. The electronic device 101, based on identifying one or more visual objects 415, 425, 435, 445, 455, and based on execution of the media content segmentation application 260 of FIG. 2, displays media content 405. ) areas (410, 420, 430, 440, 450) can be obtained. For example, the electronic device 101 may obtain the areas based on a parameter indicating similarity between one or more pixels included in the media content 405. The electronic device 101 may acquire the areas based on detection or recognition of a visual object included in the media content 405.

일 실시예에 따른 전자 장치(101)는, 시각적 객체의 유형(type)에 기반하여, 영역들을 획득할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 시각적 객체(425)를 식별할 수 있다. 전자 장치(101)는, 시각적 객체(425)의 유형(예, 하늘, 또는 천장)을 식별한 것에 기반하여, 미디어 콘텐트(405)의 제2 영역(420)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 제2 영역(420)을 획득한 것에 기반하여, 제2 영역(420)에 대응하는, 공간(예, 도 1의 공간(100)) 내 제2 평면(120)을 식별할 수 있다. 전자 장치(101)는, 상기 시각적 객체(425)의 유형에 기반하여, 제2 영역(420)을, 제2 평면(예, 도 3의 제2 평면(120))에 매칭할 수 있다. 예를 들어, 미디어 콘텐트(405) 내에서, 제2 영역(420)의 위치에 기반하여, 전자 장치(101)는, 제2 영역(420)을 상기 제2 평면에 매칭할 수 있다. The electronic device 101 according to one embodiment may acquire areas based on the type of visual object. The electronic device 101 may identify a visual object 425 within the media content 405 . The electronic device 101 may obtain the second area 420 of the media content 405 based on identifying the type (eg, sky or ceiling) of the visual object 425. For example, the electronic device 101, based on obtaining the second area 420, selects a second plane in space (e.g., space 100 in FIG. 1) corresponding to the second area 420. (120) can be identified. The electronic device 101 may match the second area 420 to a second plane (eg, the second plane 120 in FIG. 3) based on the type of the visual object 425. For example, based on the location of the second area 420 within the media content 405, the electronic device 101 may match the second area 420 to the second plane.

예를 들어, 전자 장치(101)는, 시각적 객체(455)를 식별할 수 있다. 전자 장치(101)는, 시각적 객체(455)의 유형(예, 땅, 풀, 또는 바닥)에 기반하여, 제5 영역(450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 유형에 기반하여, 제5 영역(450)을 도 3의 제5 평면(150)에 매칭할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제5 영역(450)의 위치에 기반하여, 제5 영역(450)을, 상기 제5 평면에 표시되도록, 설정(set)할 수 있다. For example, the electronic device 101 may identify the visual object 455. The electronic device 101 may acquire the fifth area 450 based on the type (eg, ground, grass, or floor) of the visual object 455. For example, the electronic device 101 may match the fifth area 450 to the fifth plane 150 of FIG. 3 based on the type. The electronic device 101 may set the fifth area 450 to be displayed on the fifth plane based on the location of the fifth area 450 within the media content 405. .

예를 들어, 전자 장치(101)는, 시각적 객체(415, 435, 445)의 유형(예, 인물, 나무, 사물, 벽, 또는 건물)에 기반하여, 영역들(410, 430, 440)을 획득할 수 있다. 전자 장치(101)는, 상기 유형에 기반하여, 영역들(410, 430, 440) 각각을, 도 3의 제1 평면(110), 제3 평면(130), 및/또는 제4 평면(140)에 매칭시킬 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제1 영역(410)의 위치에 기반하여, 상기 제1 평면에 매핑할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제3 영역(430)의 위치에 기반하여, 상기 제3 평면에 매핑할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제4 영역(440)의 위치에 기반하여, 상기 제4 평면에 매핑할 수 있다. 다만, 이에 제한되는 것은 아니다. For example, the electronic device 101 defines the areas 410, 430, and 440 based on the type of visual object 415, 435, and 445 (e.g., person, tree, object, wall, or building). It can be obtained. Based on the type, the electronic device 101 divides each of the regions 410, 430, and 440 into the first plane 110, third plane 130, and/or fourth plane 140 of FIG. 3. ) can be matched. For example, the electronic device 101 may map the first area 410 to the first plane within the media content 405 based on the location of the first area 410 . For example, the electronic device 101 may map the third area 430 to the third plane within the media content 405 based on its location. The electronic device 101 may map the fourth area 440 to the fourth plane within the media content 405 based on the location of the fourth area 440 . However, it is not limited to this.

예를 들어, 전자 장치(101)는, 지정된 사이즈에 기반하여, 미디어 콘텐트(405)의 제1 영역(410)을 식별할 수 있다. 제1 영역(410)은 사용자의 시선(예, 도 3의 시선(301))에 대응하는 제1 평면(예, 도 3의 제1 평면(110))에 표시될 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264), 및/또는 위치 관계 정보(263)를 이용하여, 제1 영역(410)을 획득할 수 있다. 다만, 이에 제한되는 것은 아니다. For example, the electronic device 101 may identify the first area 410 of the media content 405 based on the designated size. The first area 410 may be displayed on a first plane (e.g., first plane 110 in FIG. 3) corresponding to the user's line of sight (e.g., line of sight 301 in FIG. 3). For example, the electronic device 101 may obtain the first area 410 using the space size information 264 and/or the position relationship information 263 of FIG. 2 . However, it is not limited to this.

예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에 적어도 하나의 시각적 객체가 포함되지 않은 경우, 미디어 콘텐트(405)를, 제1 영역(410) 내에 포함할 수 있다. For example, the electronic device 101 may include the media content 405 in the first area 410 when at least one visual object is not included in the media content 405.

일 실시예에 따른, 전자 장치(101)는, 도 2의 위치 관계 정보(263), 및/또는 도 2의 공간 크기 정보(264)를 이용하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264)를 이용하여, 미디어 콘텐트(405)의 영역들을 분할할 수 있다. 예를 들어, 전자 장치(101)는, 공간(예, 도 1의 공간(100)) 내 도 1의 제1 평면(110) 내에 표시될, 제1 영역(410)을 획득할 수 있다. 전자 장치(101)는, 제1 영역(410)을 획득한 것에 기반하여, 상기 위치 관계 정보(263)를 이용하여, 영역들(420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))의 개수에 기반하여, 미디어 콘텐트(405)의 영역들의 개수를 조절할 수 있다. 다만, 이에 제한되는 것은 아니다. According to one embodiment, the electronic device 101 uses the positional relationship information 263 of FIG. 2 and/or the spatial size information 264 of FIG. 2 to determine areas 410, 420, 430, 440, 450) can be obtained. For example, the electronic device 101 may divide areas of the media content 405 using the space size information 264 of FIG. 2 . For example, the electronic device 101 may acquire a first area 410 to be displayed within the first plane 110 of FIG. 1 in a space (eg, space 100 of FIG. 1). The electronic device 101 may acquire the areas 420, 430, 440, and 450 using the position relationship information 263, based on acquiring the first area 410. For example, the electronic device 101 may adjust the number of regions of the media content 405 based on the number of one or more external electronic devices (e.g., one or more external electronic devices 106 in FIG. 1). You can. However, it is not limited to this.

일 실시예에 따른 전자 장치(101)는, 영역들(410, 420, 430, 440, 450)을 획득한 것에 기반하여, 상기 영역들이 표시될 평면들(도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들 내에 포함된 시각적 객체의 유형에 기반하여, 상기 영역들을, 상기 평면들 각각에 매핑할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들의 위치 관계를 식별한 것에 기반하여, 상기 평면들 각각에 매핑할 수 있다. 다만 이에 제한되는 것은 아니다. The electronic device 101 according to one embodiment, based on obtaining the regions 410, 420, 430, 440, and 450, selects planes (planes 110, 120 in FIG. 1) on which the regions will be displayed. 130, 140, 150)) can be identified. For example, the electronic device 101 may map the areas to each of the planes based on the type of visual object included in the areas. For example, the electronic device 101 may map each of the planes based on identifying the positional relationship between the regions. However, it is not limited to this.

상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트(405) 내에 포함된 시각적 객체들(415, 425, 435, 445, 455)를 식별한 것에 기반하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 전자 장치(101)는, 상기 영역들을 획득한 것에 기반하여, 상기 영역들 각각에 대응하는 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치(101)는, 상기 영역들 각각에 대응하는 상기 평면들로 광을 투사할 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 전자 장치(101)는, 상기 영역들을 표시하기 위한 신호를 상기 하나 이상의 외부 전자 장치들(106)로 송신할 수 있다. 전자 장치(101)는 공간의 평면들 각각에 대응하는 하나 이상의 외부 전자 장치들을 제어하여, 상기 영역들을 표시함으로써, 공간에 최적화된 가상 공간 환경을 제공할 수 있다. As described above, the electronic device 101 according to one embodiment displays the media content 405 based on identifying the visual objects 415, 425, 435, 445, and 455 included in the media content 405. Areas 410, 420, 430, 440, and 450 can be obtained. The electronic device 101 may identify planes (e.g., planes 110, 120, 130, 140, and 150 of FIG. 1) corresponding to each of the regions based on the acquisition of the regions. . The electronic device 101 may identify one or more external electronic devices 106 that will project light to the planes corresponding to each of the regions. The electronic device 101 may transmit a signal to indicate the areas to the one or more external electronic devices 106. The electronic device 101 can control one or more external electronic devices corresponding to each of the spatial planes and display the areas, thereby providing a virtual space environment optimized for the space.

도 5는, 일 실시예에 따른 전자 장치 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다. 도 5의 전자 장치(101)는, 도 1내지 도 4의 전자 장치(101)를 포함할 수 있다. 도 5의 제1 외부 전자 장치(102), 및/또는 도 5의 제2 외부 전자 장치(103)는, 도 1 내지 도 4의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나에 대응할 수 있다. 도 5를 참고하면, 일 실시예에 따른 전자 장치(101), 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103) 사이에서, 송수신하는 신호를 나타내는 신호 흐름도가 도시된다. FIG. 5 shows an example of a signal flow diagram between an electronic device and an external electronic device according to an embodiment. The electronic device 101 of FIG. 5 may include the electronic device 101 of FIGS. 1 to 4 . The first external electronic device 102 of FIG. 5 and/or the second external electronic device 103 of FIG. 5 may correspond to at least one of the one or more external electronic devices 106 of FIGS. 1 to 4. . Referring to FIG. 5, a signal flow diagram showing signals transmitted and received between an electronic device 101, a first external electronic device 102, and/or a second external electronic device 103 according to an embodiment is shown. .

일 실시예에 따른 전자 장치(101)는, 동작 501에서, 위치 관계를 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))로부터, 공간(예, 도 1의 공간(100)) 내에서, 하나 이상의 외부 전자 장치들 각각의 위치를 식별할 수 있다. 전자 장치(101)는, 도 2의 위치 관계 정보(263)를 이용하여, 상기 위치 관계를 식별할 수 있다. 전자 장치(101)는 위치 관계를 식별한 것에 기반하여, 상기 공간의 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150)) 각각에 대응하는 하나 이상의 외부 전자 장치들 각각을 식별할 수 있다. 예를 들어, 전자 장치(101)는 제2 평면(예, 도 1의 제2 평면(120))내에 광을 투사하는 제1 외부 전자 장치(102)를 식별할 수 있다. 전자 장치(101)는, 제3 평면(예, 도 1의 제3 평면(130))내에 광을 투사하는 제2 외부 전자 장치(103)를 식별할 수 있다. The electronic device 101 according to one embodiment may identify a positional relationship in operation 501. The electronic device 101 receives one or more external electronic devices from one or more external electronic devices (e.g., one or more external electronic devices 106 in FIG. 1) within a space (e.g., space 100 in FIG. 1). The location of each device can be identified. The electronic device 101 can identify the position relationship using the position relationship information 263 of FIG. 2 . Based on identifying the positional relationship, the electronic device 101 selects one or more external electronic devices corresponding to each of the spatial planes (e.g., the planes 110, 120, 130, 140, and 150 of FIG. 1). Each can be identified. For example, the electronic device 101 may identify the first external electronic device 102 that projects light into a second plane (eg, the second plane 120 of FIG. 1). The electronic device 101 may identify the second external electronic device 103 that projects light into a third plane (eg, the third plane 130 of FIG. 1).

일 실시예에 따른 전자 장치(101)는, 동작 502에서, 카메라(예, 도 2의 카메라(250-1))를 이용하여 사용자를 식별할 수 있다. 예를 들어, 상기 사용자는 공간(예, 도 1의 공간(100)) 내에 위치할 수 있다. 제1 외부 전자 장치(102)는, 동작 503에서, 제1 외부 전자 장치(102)의 카메라(예, 도 2의 카메라(250-2))를 이용하여, 상기 사용자를 식별할 수 있다. 제2 외부 전자 장치(103)는, 동작 504에서, 제2 외부 전자 장치(103)의 카메라를 이용하여 상기 사용자를 식별할 수 있다. 예를 들어, 전자 장치(101), 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103) 각각이 식별한 사용자의 형태는 상이할 수 있다. 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103)는, 전자 장치로, 사용자의 형태, 및/또는 위치를 나타내는 신호(507, 508)를 송신할 수 있다. 전자 장치(101) 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103)로부터 수신한 신호(507, 508)에 기반하여, 상기 공간 내에서, 3차원 좌표계에 기반한, 사용자의 위치를 식별할 수 있다. The electronic device 101 according to one embodiment may identify the user using a camera (eg, camera 250-1 in FIG. 2) in operation 502. For example, the user may be located in a space (eg, space 100 in FIG. 1). In operation 503, the first external electronic device 102 may identify the user using a camera (eg, camera 250-2 in FIG. 2) of the first external electronic device 102. In operation 504, the second external electronic device 103 may identify the user using the camera of the second external electronic device 103. For example, the type of user identified by each of the electronic device 101, the first external electronic device 102, and/or the second external electronic device 103 may be different. The first external electronic device 102 and/or the second external electronic device 103 may transmit signals 507 and 508 indicating the form and/or location of the user to the electronic device. Electronic device 101 Based on signals 507 and 508 received from the first external electronic device 102 and/or the second external electronic device 103, within the space, based on a three-dimensional coordinate system, the user The location can be identified.

일 실시예에 따른 전자 장치(101)는, 동작 511에서, 사용자 신체 정보(예, 도 2의 사용자 신체 정보(261))를 획득할 수 있다. 전자 장치(101)는, 상기 사용자의 위치를 식별한 것에 기반하여, 사용자의 신체 부위를 식별할 수 있다. 전자 장치(101)는, 상기 사용자 신체 정보를 획득한 것에 기반하여, 상기 사용자의 상기 신체 부위에 인접한 공간(예, 도 1의 공간(100))의 평면들을 식별할 수 있다. The electronic device 101 according to one embodiment may acquire user body information (eg, user body information 261 in FIG. 2) in operation 511. The electronic device 101 may identify a user's body part based on identifying the user's location. The electronic device 101 may identify planes of a space (eg, space 100 in FIG. 1) adjacent to the body part of the user, based on obtaining the user's body information.

일 실시예에 따른 전자 장치(101)는, 동작 512에서, 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 식별할 수 있다. 상기 미디어 콘텐트 정보는, 통신 회로를 이용하여 적어도 하나의 서버로부터 수신하거나, 또는 전자 장치(101)의 메모리 내에 저장된 정보의 일 예일 수 있다. 전자 장치(101)는, 미디어 콘텐트 정보를 이용하여, 미디어 콘텐트(예, 도 4의 미디어 콘텐트(405))를 식별할 수 있다. The electronic device 101 according to one embodiment may identify media content information (eg, media content information 262 of FIG. 2) in operation 512. The media content information may be received from at least one server using a communication circuit, or may be an example of information stored in the memory of the electronic device 101. The electronic device 101 may identify media content (eg, media content 405 in FIG. 4) using media content information.

일 실시예에 따른 전자 장치(101)는, 동작 513에서, 미디어 콘텐트의 영역들을 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트 내에 포함된 적어도 하나의 시각적 객체를 식별하는 것에 기반하여 미디어 콘텐트의 영역들(예, 도 4의 영역들(410, 420, 430, 440, 450))을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 위치 관계에 기반하여, 상기 영역들을 획득할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들의 개수에 기반하여, 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 제1 외부 전자 장치(102), 및 제2 외부 전자 장치(103)를 식별한 것에 기반하여, 영역들의 개수(예, 3개)에 기반하여, 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 영역들을, 제1 평면(예, 도 1의 제1 평면(110))에 표시할 제1 영역(예, 도 4의 제1 영역(410)) 및, 제2 평면(예, 도 1의 제2 평면(120))에 표시할 제2 영역(예, 도 4의 제2 영역(420))으로 구분할 수 있다. The electronic device 101 according to one embodiment may identify areas of media content in operation 513. The electronic device 101 obtains regions of the media content (e.g., regions 410, 420, 430, 440, and 450 in FIG. 4) based on identifying at least one visual object included in the media content. can do. For example, the electronic device 101 may acquire the areas based on positional relationships. The electronic device 101 may acquire areas based on the number of one or more external electronic devices. For example, the electronic device 101, based on identifying the first external electronic device 102 and the second external electronic device 103, based on the number of areas (e.g., three), Areas can be acquired. For example, the electronic device 101 may display areas on a first plane (e.g., first plane 110 of FIG. 1), a first area (e.g., first area 410 of FIG. 4), and , It can be divided into a second area (e.g., second area 420 in FIG. 4) to be displayed on a second plane (e.g., second plane 120 in FIG. 1).

일 실시예에 따른 전자 장치(101)는, 상기 영역들 각각에 대응하는 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))로 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제2 영역에 대한 신호(514)를 제1 외부 전자 장치(102)로 송신할 수 있다. 전자 장치(101)는, 미디어 콘텐트의 영역들 중 제3 영역(예, 도 4의 제3 영역(430))이 포함되지 않는 경우, 제2 외부 전자 장치(103)로, 제2 외부 전자 장치(103)의 프로젝션 어셈블리의 구동을 일시적으로 중단하기 위한 신호(515)를 송신할 수 있다. The electronic device 101 according to one embodiment may transmit a signal to one or more external electronic devices (eg, one or more external electronic devices 106 in FIG. 1) corresponding to each of the areas. For example, the electronic device 101 may transmit a signal 514 for the second area to the first external electronic device 102. When the third area (e.g., the third area 430 in FIG. 4) is not included among the areas of the media content, the electronic device 101 is the second external electronic device 103. A signal 515 for temporarily stopping the operation of the projection assembly 103 may be transmitted.

일 실시예에 따른 전자 장치(101)는, 동작 518에서, 제1 영역을, 제1 평면에 표시할 수 있다. 전자 장치(101)는, 전자 장치(101)의 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 제1 평면 내에, 미디어 콘텐트의 영역들 중 제1 영역을 표시할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 동작 519에서, 제2 영역을 제2 평면에 표시할 수 있다. 제1 외부 전자 장치(102)는, 신호(514)에 응답하여, 제1 외부 전자 장치(102)의 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-2))를 제어하여, 제2 영역을, 제2 평면에 표시할 수 있다. The electronic device 101 according to one embodiment may display the first area on the first plane in operation 518. The electronic device 101 controls the projection assembly (e.g., the projection assembly 240-1 in FIG. 2) of the electronic device 101 to display a first region among regions of media content in a first plane. You can. For example, the first external electronic device 102 may display the second area on the second plane in operation 519. The first external electronic device 102 controls the projection assembly (e.g., the projection assembly 240-2 of FIG. 2) of the first external electronic device 102 in response to the signal 514 to display the second area. can be displayed on the second plane.

예를 들어, 제2 외부 전자 장치(103)는, 동작 520에서, 적어도 하나의 화면을 표시하는 것을 일시적으로 중단할 수 있다. 제2 외부 전자 장치(103)는, 신호(515)에 응답하여, 제2 외부 전자 장치(103)의 프로젝션 어셈블리의 기능을 수행하는 것을 일시적으로 중단할 수 있다. 다만 이에 제한되는 것은 아니다. 전자 장치(101)가, 미디어 콘텐트의 영역들에 대한 신호들을, 하나 이상의 외부 전자 장치들(106) 각각으로 송신하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 기능을 일시적으로 제어하는 동작은, 도 6a 내지 도 6b에서 후술한다. For example, the second external electronic device 103 may temporarily stop displaying at least one screen in operation 520. The second external electronic device 103 may temporarily stop performing the function of the projection assembly of the second external electronic device 103 in response to the signal 515 . However, it is not limited to this. The electronic device 101 temporarily controls the function of one or more external electronic devices 106 based on transmitting signals for areas of media content to each of the one or more external electronic devices 106. The operation will be described later with reference to FIGS. 6A and 6B.

도 6a 내지 도 6b는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들에 대응하는 평면에 화면을 표시하는 동작의 일 예를 도시한다. 도 6a 내지 도 6b의 전자 장치(101)는, 도 1 내지 도 5의 전자 장치(101)를 포함할 수 있다. 도 6a 내지 도 6b의 하나 이상의 외부 전자 장치들(106)은, 도 1 내지 도 5의 하나 이상의 외부 전자 장치들(106)의 일 예일 수 있다. 도 6a 내지 도 6b를 참고하면, 일 실시예에 따른 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)이 포함된 공간(100)이 도시된다. 공간(100)은 도 3의 공간(100)에 참조될 수 있다. FIGS. 6A and 6B illustrate an example of an operation in which an electronic device displays a screen on a plane corresponding to areas of media content, according to an embodiment. The electronic device 101 of FIGS. 6A to 6B may include the electronic device 101 of FIGS. 1 to 5 . The one or more external electronic devices 106 of FIGS. 6A to 6B may be an example of the one or more external electronic devices 106 of FIGS. 1 to 5 . Referring to FIGS. 6A and 6B , a space 100 including an electronic device 101 and one or more external electronic devices 106 according to an embodiment is shown. Space 100 may be referenced to space 100 in FIG. 3 .

도 6a를 참고하면, 상태(600)에서, 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 이용하여, 미디어 콘텐트(610)를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트(610)의 영역들을 구분할 수 있다. 전자 장치(101)는, 미디어 콘텐트(610) 내에 포함된 시각적 객체(예, 도 4의 시각적 객체들(425, 455))에 기반하여, 상기 영역들을 구분할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들을 구분하기 위한 시각적 객체를 식별하지 못한 경우, 미디어 콘텐트(610) 전체를, 하나의 영역으로 식별할 수 있다. 전자 장치(101)는, 공간(100)의 평면들(예, 도 1의 평면들(120, 130, 140, 150))내에 표시될 영역들을 구분하는 것을 일시적으로 삼가할 수 있다. 예를 들어, 미디어 콘텐트(610) 내에 시각적 객체(예, 도 4의 시각적 객체(425))의 유형을 식별하지 못한 경우, 전자 장치(101)는, 미디어 콘텐트의 영역들 중, 제2 평면(예, 도 1의 제2 평면(120)) 내에 표시될 영역의 분할을 일시적으로 중단할 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 미디어 콘텐트(610)의 특징(feature)에 기반하여, 영역들을 분할할 수 있다. 전자 장치(101)는, 미디어 콘텐트 정보를 이용하여, 클로즈-업(close-up)에 기반한 화면을 포함하는, 미디어 콘텐트(610)를 식별할 수 있다. 전자 장치(101)는, 상기 화면을 식별하는 것에 기반하여, 사용자(예, 도 1의 사용자(107))의 시선(예, 도 3의 시선(301))에 대응하는 제1 평면(110) 내에, 미디어 콘텐트(610) 전체를 표시할 수 있다. Referring to FIG. 6A, in state 600, the electronic device 101 according to one embodiment generates media content 610 using media content information (e.g., media content information 262 of FIG. 2). It can be obtained. For example, the electronic device 101 may divide areas of the media content 610 based on execution of the media content division application 260 of FIG. 2 . The electronic device 101 may distinguish the areas based on visual objects (eg, visual objects 425 and 455 in FIG. 4) included in the media content 610. For example, when the electronic device 101 fails to identify a visual object to distinguish the areas, the electronic device 101 may identify the entire media content 610 as one area. The electronic device 101 may temporarily refrain from distinguishing areas to be displayed within the planes of the space 100 (e.g., the planes 120, 130, 140, and 150 of FIG. 1). For example, if the type of visual object (e.g., visual object 425 in FIG. 4) in the media content 610 is not identified, the electronic device 101 selects the second plane ( For example, division of the area to be displayed within the second plane 120 of FIG. 1 may be temporarily stopped. However, it is not limited to this. As an example, the electronic device 101 may divide areas based on features of the media content 610. The electronic device 101 may identify media content 610, including a screen based on close-up, using media content information. Based on identifying the screen, the electronic device 101 displays a first plane 110 corresponding to the line of sight (e.g., line of sight 301 of FIG. 3) of the user (e.g., user 107 of FIG. 1). Within, the entire media content 610 can be displayed.

일 실시예에 따른 전자 장치(101)는, 적어도 하나의 외부 서버로부터, 미디어 콘텐트(610)를 나타내는 정보(예, 도 2의 미디어 콘텐트 정보(262))를 수신할 수 있다. 예를 들어, 상기 적어도 하나의 외부 서버는, 스트리밍 서비스를 제공하기 위해 이용될 수 있다. 전자 장치(101)는, 상기 적어도 하나의 외부 서버로부터, 상기 미디어 콘텐트(610)의 영역들을 획득하기 위한 정보를 요청할 수 있다. The electronic device 101 according to one embodiment may receive information indicating media content 610 (eg, media content information 262 in FIG. 2) from at least one external server. For example, the at least one external server may be used to provide a streaming service. The electronic device 101 may request information for obtaining areas of the media content 610 from the at least one external server.

예를 들어, 상기 적어도 하나의 외부 서버는, 게임 서비스를 제공하기 위해 이용될 수 있다. 전자 장치(101)는, 상기 게임 서비스를 이용하는 사용자(예, 도 1의 사용자(107))에 의한, 미디어 콘텐트(610)의 변경을 식별할 수 있다. 상기 미디어 콘텐트(610)의 변경은, 상기 게임 서비스 내에서, 사용자를 표현하는 아바타의 시선이 변경되는 것에 의해, 식별될 수 있다. 다만, 이에 제한되는 것은 아니다. 전자 장치(101)는, 상기 게임 서비스를 제공하는 적어도 하나의 서버부터, 상기 미디어 콘텐트(610)의 변경에 대응하여, 미디어 콘텐트(610)의 영역들을 획득하기 위한 정보를 요청하는 신호를 송신할 수 있다. 전자 장치(101)는, 상기 신호에 대한 응답으로써, 적어도 하나의 외부 서버로부터, 다른 신호를 수신하는 것에 기반하여, 상기 영역들을 획득할 수 있다. For example, the at least one external server may be used to provide a game service. The electronic device 101 may identify changes to media content 610 by a user (eg, user 107 in FIG. 1) using the game service. A change in the media content 610 can be identified by a change in the gaze of an avatar representing the user within the game service. However, it is not limited to this. The electronic device 101 may transmit, from at least one server providing the game service, a signal requesting information for obtaining areas of the media content 610 in response to a change in the media content 610. You can. The electronic device 101 may acquire the areas based on receiving another signal from at least one external server in response to the signal.

예를 들어, 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에 위치하는 사용자(예, 도 1의 사용자(107))의 시선 이동을 식별할 수 있다. 전자 장치(101)는, 상기 시선 이동을 식별한 것에 기반하여, 상기 게임 서비스를 제공하는 적어도 하나의 외부 서버로, 미디어 콘텐트의 변경을 요청하는 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 신호의 응답으로써, 미디어 콘텐트(610)와 다른 미디어 콘텐트를 나타내는 정보를 수신할 수 있다. 상기 다른 미디어 콘텐트는, 상기 게임 서비스 내에서, 상기 사용자를 표현하는 아바타의 시선 이동이 변경된 상태를 포함할 수 있다. 다만 이에 제한되지 않는다. For example, the electronic device 101 may identify the gaze movement of a user located within the space 100 (eg, the user 107 in FIG. 1) using a camera. Based on identifying the gaze movement, the electronic device 101 may transmit a signal requesting a change in media content to at least one external server providing the game service. For example, the electronic device 101 may receive information indicating media content different from the media content 610 as a response to the signal. The other media content may include a state in which the gaze movement of an avatar representing the user has changed within the game service. However, it is not limited to this.

일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)으로, 적어도 하나의 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(610) 전체를, 제1 평면(110) 내에, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 표시할 수 있다. 전자 장치(101)는, 상기 미디어 콘텐트(610) 전체를, 표시하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)로 적어도 하나의 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리를 제어하기 위한 신호를 송신할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리의 기능을 일시적으로 삼가하기 위한 신호(예, 도 5의 신호(515))를 송신할 수 있다. 전자 장치(101)는, 상기 신호를 송신하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 기능 중 적어도 일부를, 일시적으로 제한할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 상기 신호에 응답하여, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리를 제어하여, 적어도 하나의 화면의 표시를 일시적으로 삼가할 수 있다. 다만 이에 제한되지 않는다. The electronic device 101 according to one embodiment may transmit at least one signal to one or more external electronic devices 106. For example, the electronic device 101 can display the entire media content 610 in the first plane 110 by controlling a projection assembly (e.g., the projection assembly 240-1 in FIG. 2). there is. The electronic device 101 may transmit at least one signal to one or more external electronic devices 106 based on displaying the entire media content 610. For example, the electronic device 101 may transmit a signal to control the projection assembly of one or more external electronic devices 106. The electronic device 101 may transmit a signal (eg, signal 515 of FIG. 5 ) to temporarily suspend the function of the projection assembly of one or more external electronic devices 106 . The electronic device 101 may temporarily restrict at least some of the functions of one or more external electronic devices 106 based on transmitting the signal. In response to the signal, the one or more external electronic devices 106 may control the projection assembly of the one or more external electronic devices 106 to temporarily refrain from displaying at least one screen. However, it is not limited to this.

일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트(610) 전체를, 제1 평면(110) 내에, 표시할 수 있다. 전자 장치(101)는, 도 2의 공간 크기 정보(264)에 기반하여, 제1 평면(110) 내에 표시될 미디어 콘텐트(610)의 사이즈를 식별할 수 있다. 전자 장치(101)는, 상기 식별된 사이즈에 기반하여, 제1 평면(110) 내에, 미디어 콘텐트(610)를 표시할 수 있다. The electronic device 101 according to one embodiment can display the entire media content 610 in the first plane 110. The electronic device 101 may identify the size of the media content 610 to be displayed in the first plane 110 based on the space size information 264 of FIG. 2 . The electronic device 101 may display media content 610 in the first plane 110 based on the identified size.

도 6b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 상태(605)에서, 도 2의 미디어 콘텐트 정보(262)에 기반하여, 미디어 콘텐트(611)를 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611)를 식별한 것에 기반하여, 미디어 콘텐트(611)의 영역들(615, 625, 635, 645, 655)을 획득할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611) 내에 포함된 시각적 객체의 유형에 기반하여, 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 적어도 하나의 시각적 객체(예, 인물)를 식별한 것에 기반하여, 제1 영역(615)을 획득할 수 있다. 전자 장치(101)는, 공간 크기 정보를 이용하여, 제1 영역(615)의 사이즈를 획득할 수 있다. 전자 장치(101)는, 상기 사이즈에 기반한 제1 영역(615)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 제1 영역(615)과 상이한 영역들(625, 635, 645, 655)을 획득한 이후, 남은 영역인 제1 영역(615)을 획득할 수 있다. Referring to FIG. 6B , the electronic device 101 according to one embodiment may identify media content 611 in state 605 based on the media content information 262 of FIG. 2 . The electronic device 101 may acquire the areas 615, 625, 635, 645, and 655 of the media content 611 based on identifying the media content 611. The electronic device 101 may acquire the areas based on the type of visual object included in the media content 611. For example, the electronic device 101 may acquire the first area 615 based on identifying at least one visual object (eg, a person). The electronic device 101 may obtain the size of the first area 615 using space size information. The electronic device 101 may obtain the first area 615 based on the size. However, it is not limited to this. As an example, the electronic device 101 may acquire the first area 615, which is the remaining area, after acquiring the areas 625, 635, 645, and 655 that are different from the first area 615.

예를 들어, 전자 장치(101)는, 시각적 객체(예, 천장)을 식별한 것에 기반하여, 제2 영역(625)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 시각적 객체들(예, 벽)을 식별한 것에 기반하여, 제3 영역(635), 및/또는 제4 영역(645)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 시각적 객체(예, 박스들)을 식별한 것에 기반하여, 제5 영역(655)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101)는, 공간 크기 정보에 기반하여, 미디어 콘텐트(611)의 영역들(615,625, 635, 645, 655)을 획득할 수 있다. For example, the electronic device 101 may acquire the second area 625 based on identifying a visual object (eg, the ceiling). For example, the electronic device 101 may acquire the third area 635 and/or the fourth area 645 based on identifying visual objects (eg, walls). For example, the electronic device 101 may acquire the fifth area 655 based on identifying visual objects (eg, boxes). However, it is not limited to this. For example, the electronic device 101 may acquire the areas 615, 625, 635, 645, and 655 of the media content 611 based on space size information.

일 실시예에 따른 전자 장치(101)는, 영역들(615, 625, 635, 645, 655)을 식별한 것에 기반하여, 제1 영역(615)을, 제1 평면(110) 내에, 표시할 수 있다. 전자 장치(101)는, 프로젝션 어셈블리를 제어하여, 제1 영역(615)에 대응하는 제1 화면(615-1)을 표시할 수 있다. 전자 장치(101)는, 공간 크기 정보에 기반하여, 제1 화면(615-1)의 크기를 조절할 수 있다. The electronic device 101 according to one embodiment displays the first area 615 in the first plane 110 based on identifying the areas 615, 625, 635, 645, and 655. You can. The electronic device 101 may control the projection assembly to display the first screen 615-1 corresponding to the first area 615. The electronic device 101 may adjust the size of the first screen 615-1 based on space size information.

일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로, 영역들(625, 635, 645, 655)을 표시하기 위한 신호를, 송신할 수 있다. 예를 들어, 전자 장치(101)는, 영역들(625, 635, 645, 655)에 대응하는 화면들(625-1, 635-1, 645-1, 655-1)의 크기를 나타내는 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264)에 기반하여, 상기 화면들의 크기를 식별할 수 있다. The electronic device 101 according to one embodiment may transmit a signal for displaying the areas 625, 635, 645, and 655 to one or more external electronic devices 106. For example, the electronic device 101 sends signals indicating the sizes of the screens 625-1, 635-1, 645-1, and 655-1 corresponding to the areas 625, 635, 645, and 655. Can be sent. For example, the electronic device 101 may identify the sizes of the screens based on the space size information 264 of FIG. 2.

예를 들어, 전자 장치(101)는, 제2 외부 전자 장치(102)로, 제2 영역(625)을 표시하기 위한 신호(예, 도 5의 신호(514))를 송신할 수 있다. 제2 외부 전자 장치(102)는, 제2 평면(120) 내에, 제2 영역(625)에 대응하는 제2 화면(625-1)을 표시할 수 있다. For example, the electronic device 101 may transmit a signal (eg, signal 514 of FIG. 5 ) for displaying the second area 625 to the second external electronic device 102 . The second external electronic device 102 may display a second screen 625-1 corresponding to the second area 625 in the second plane 120.

예를 들어, 전자 장치(101)는, 제3 외부 전자 장치(103)로, 제3 영역(635)을 표시하기 위한 신호를 송신할 수 있다. 제3 외부 전자 장치(103)는, 제3 평면(130) 내에, 제3 영역(635)에 대응하는 제3 화면(635-1)을 표시할 수 있다. For example, the electronic device 101 may transmit a signal to display the third area 635 to the third external electronic device 103. The third external electronic device 103 may display a third screen 635-1 corresponding to the third area 635 in the third plane 130.

예를 들어, 전자 장치(101)는, 제4 외부 전자 장치(104)로, 제4 영역(645)을 표시하기 위한 신호를 송신할 수 있다. 제4 외부 전자 장치(104)는, 제4 평면(140) 내에, 제4 영역(645)에 대응하는 제4 화면(645-1)을 표시할 수 있다. For example, the electronic device 101 may transmit a signal to display the fourth area 645 to the fourth external electronic device 104. The fourth external electronic device 104 may display the fourth screen 645-1 corresponding to the fourth area 645 in the fourth plane 140.

예를 들어, 전자 장치(101)는, 제5 외부 전자 장치(105)로, 제5 영역(655)을 표시하기 위한 신호를 송신할 수 있다. 제5 외부 전자 장치(105)는, 제5 평면(150) 내에, 제5 영역(655)에 대응하는 제5 화면(655-1)을 표시할 수 있다. For example, the electronic device 101 may transmit a signal to display the fifth area 655 to the fifth external electronic device 105. The fifth external electronic device 105 may display the fifth screen 655-1 corresponding to the fifth area 655 in the fifth plane 150.

일 실시예에 따른 전자 장치(101)는, 2차원에 기반한 미디어 콘텐트(611)를, 3차원에 기반한, 공간(100) 내에, 표시하기 위해, 미디어 콘텐트(611)의 영역들(615, 625, 635, 645, 655) 중 적어도 하나를 변경할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들에 포함된 픽셀들 및, 공간(100)의 평면들 사이의 관계를 나타내는 파라미터에 기반하여, 상기 적어도 하나를 변경할 수 있다. 예를 들어, 상기 파라미터는, 캘리브레이션(calibration)을 수행하기 위해 이용되는 데이터에 참조될 수 있다. 상기 캘리브레이션은, 3차원 좌표계에 기반한 일 지점 및 2차원 좌표계에 기반한 일 지점 사이를 매핑하기 위해 이용될 수 있다. 전자 장치(101)는, 캘리브레이션을 수행함으로써, 영역들(615, 625, 635, 645, 655)의 왜곡을, 보정할 수 있다. 전자 장치(101)는, 상기 영역들의 왜곡을 보정하는 것에 기반하여, 화면들(615-1, 625-1, 635-1, 645-1, 655-1)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106)은, 키스톤 기능을 수행하는 것에 기반하여, 화면들(615-1, 625-1, 635-1, 645-1, 655-1)을 평면들(110, 120, 130, 140, 150) 각각에, 표시할 수 있다. 상기 키스톤 기능은, 전자 장치(101) 및 평면(110) 사이의 각도에 기반하여, 화면(615-1)의 비율, 화면(615-1)의 형태를 보정하는 기능을 의미할 수 있다. 다만, 이에 제한되는 것은 아니다. The electronic device 101 according to one embodiment includes regions 615 and 625 of the media content 611 in order to display the two-dimensional media content 611 in the three-dimensional space 100. , 635, 645, 655) can be changed. For example, the electronic device 101 may change at least one of the pixels included in the areas based on a parameter representing the relationship between the planes of the space 100 and the pixels included in the areas. For example, the parameter may be referenced to data used to perform calibration. The calibration can be used to map between a point based on a three-dimensional coordinate system and a point based on a two-dimensional coordinate system. The electronic device 101 may correct distortion in the areas 615, 625, 635, 645, and 655 by performing calibration. The electronic device 101 may obtain screens 615-1, 625-1, 635-1, 645-1, and 655-1 based on correcting the distortion of the areas. However, it is not limited to this. The electronic device 101 and/or one or more external electronic devices 106 display screens 615-1, 625-1, 635-1, 645-1, and 655- based on performing the keystone function. 1) can be displayed on each of the planes 110, 120, 130, 140, and 150. The keystone function may refer to a function of correcting the ratio and shape of the screen 615-1 based on the angle between the electronic device 101 and the plane 110. However, it is not limited to this.

상술한 바와 같이 전자 장치(101)는, 하나의 미디어 콘텐트(611)를 하나 이상의 영역들(615, 625, 635, 645, 655)로 분할함으로써, 3차원 공간(100) 내에, 상기 하나 이상의 영역들을 표시할 수 있다. 전자 장치(101)는, 상기 하나 이상의 영역들을 분할한 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 동작들 중 일부를 제어할 수 있다. 전자 장치(101)는, 상기 영역들의 개수에 따라, 공간(100) 내에서 표시할 화면의 개수를 조절할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611)의 특징에 기반하여, 영역들의 개수를 조절함으로써, 통신 링크를 통해 동기화된 하나 이상의 외부 전자 장치들(106)을 제어할 수 있다. 전자 장치(101)는, 영역들의 개수를 조절함으로써, 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리의 구동을 적어도 일시적으로 삼가함으로써, 발열량을 조절할 수 있다. As described above, the electronic device 101 divides one media content 611 into one or more regions 615, 625, 635, 645, and 655, thereby dividing the one or more regions within the three-dimensional space 100. can be displayed. The electronic device 101 may control some of the operations of one or more external electronic devices 106 based on dividing the one or more areas. The electronic device 101 can adjust the number of screens to be displayed within the space 100 according to the number of areas. The electronic device 101 may control one or more external electronic devices 106 synchronized through a communication link by adjusting the number of areas based on the characteristics of the media content 611. The electronic device 101 may adjust the amount of heat generated by adjusting the number of regions and at least temporarily refraining from driving the projection assembly of the electronic device 101 and/or one or more external electronic devices 106.

도 7은, 일 실시예에 따른 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다. 도 7의 동작들 중 적어도 일부는 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210-1)에 의해 수행될 수 있다. 도 7의 동작들 각각은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 동작들 각각의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수 있다.FIG. 7 shows an example of a flowchart illustrating operations performed by an electronic device according to an embodiment. At least some of the operations of FIG. 7 may be performed by the electronic device 101 of FIG. 2 and/or the processor 210-1 of FIG. 2. Each of the operations in FIG. 7 may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 710에서, 통신 회로를 이용하여, 프로젝션 어셈블리를 포함하는 외부 전자 장치를 식별하는 것에 기반하여, 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 외부 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 예를 들어, 전자 장치는, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-2))를 포함하는 하나 이상의 외부 전자 장치들(도 1의 하나 이상의 외부 전자 장치들(106)) 중 적어도 하나를 식별할 수 있다. 전자 장치는 상기 적어도 하나로부터, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(예, 도 1의 공간(100))에 배치된 위치를 나타내는 신호를 수신할 수 있다. 전자 장치는 상기 위치 관계를 획득한 것에 기반하여, 도 2의 위치 관계 정보(263)를 식별할 수 있다. Referring to FIG. 7, in operation 710, the electronic device according to an embodiment uses a communication circuit to identify an external electronic device including a projection assembly, based on which the light emitted from the projection assembly of the electronic device is The positional relationship between the first plane to be projected and the second plane to which light emitted from the projection assembly of the external electronic device is projected can be obtained. For example, the electronic device may include at least one of one or more external electronic devices (one or more external electronic devices 106 of FIG. 1) including a projection assembly (e.g., projection assembly 240-2 of FIG. 2). can be identified. The electronic device may receive a signal indicating a position disposed in a space (eg, space 100 in FIG. 1) including the first plane and the second plane from the at least one of the above. The electronic device may identify the position relationship information 263 of FIG. 2 based on the acquisition of the position relationship.

도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 720에서, 제1 평면 및 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 제1 평면 및 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 전자 장치는, 카메라를 이용하여, 사용자(예, 도 1의 사용자(107))의 신체 부위들(예, 도 3의 신체 부위들(302, 303, 304, 305)) 각각에 인접한 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 상기 획득한 정보를 이용하여, 미디어 콘텐트(예, 도 6b의 미디어 콘텐트(611))의 영역들(예, 도 6b의 영역들(615, 625, 635, 645, 655))을 획득할 수 있다. Referring to FIG. 7, in operation 720, the electronic device according to one embodiment displays media content in each of the first plane and the second plane based on the distances from the user's body part identified using the camera. Information for matching different areas to each of the first plane and the second plane can be obtained. The electronic device uses a camera to display planes adjacent to each of the body parts (e.g., body parts 302, 303, 304, and 305 of FIG. 3) of the user (e.g., user 107 of FIG. 1). Yes, planes 110, 120, 130, 140, and 150 of FIG. 1 can be identified. Based on the execution of the media content division application 260 of FIG. 2, the electronic device uses the obtained information to divide areas (e.g., FIG. 6b) of media content (e.g., media content 611 of FIG. 6b). Areas (615, 625, 635, 645, 655) can be obtained.

도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 730에서, 정보에 기반하여, 미디어 콘텐트의 상이한 영역들 중 제1 영역을, 제1 평면 내에 표시할 수 있다. 전자 장치는, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 제1 평면 내에, 제1 영역에 대응하는 제1 화면(예, 도 6b의 제1 화면(615-1))을 표시할 수 있다. Referring to FIG. 7 , in operation 730, the electronic device according to one embodiment may display a first region among different regions of media content in a first plane based on information. The electronic device controls the projection assembly (e.g., the projection assembly 240-1 in FIG. 2) to display a first screen (e.g., the first screen 615- in FIG. 6B) corresponding to the first area in the first plane. 1)) can be displayed.

도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 740에서, 정보에 기반하여 통신 회로를 이용하여, 외부 전자 장치로, 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. 예를 들어, 상기 신호는, 도 5의 신호(514)에 참조될 수 있다. 상기 외부 전자 장치는, 상기 신호에 응답하여, 상기 제2 영역을, 상기 제2 평면 내에 표시할 수 있다. Referring to FIG. 7, in operation 740, the electronic device according to an embodiment transmits a second area among the different areas of the media content to an external electronic device using a communication circuit based on information, in a second plane. A signal can be transmitted for display within. For example, the signal may be referenced to signal 514 in FIG. 5. The external electronic device may display the second area within the second plane in response to the signal.

도 8은, 일 실시예에 따른 외부 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다. 도 8의 동작들 중 적어도 일부는 도 2의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나, 및/또는 상기 적어도 하나의 프로세서(예, 도 2의 프로세서(210-2))에 의해 수행될 수 있다. 도 8의 동작들 각각은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 동작들 각각의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수 있다. FIG. 8 shows an example of a flowchart illustrating operations performed by an external electronic device according to an embodiment. At least some of the operations of FIG. 8 may be performed by at least one of the one or more external electronic devices 106 of FIG. 2 and/or the at least one processor (e.g., processor 210-2 of FIG. 2). You can. Each of the operations in FIG. 8 may be performed sequentially, but is not necessarily performed sequentially. For example, the order of each operation may be changed, and at least two operations may be performed in parallel.

도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 810에서, 통신 회로(예, 도 2의 통신 회로(230-2))를 이용하여, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 포함하는 외부 전자 장치(예, 도 1의 전자 장치(101))를 식별하는 것에 기반하여, 외부 전자 장치로 공간(예, 도 1의 공간(100)) 내 전자 장치(예, 도 1의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나)의 위치를 나타내는 신호를 송신할 수 있다. Referring to FIG. 8, in operation 810, the electronic device according to one embodiment performs a projection assembly (e.g., projection assembly 240 of FIG. 2) using a communication circuit (e.g., communication circuit 230-2 of FIG. 2). Based on identifying an external electronic device (e.g., electronic device 101 in FIG. 1) including -1)), an electronic device (e.g., electronic device in the space (e.g., space 100 in FIG. 1)) is identified as an external electronic device. , a signal indicating the location of at least one of the one or more external electronic devices 106 of FIG. 1 may be transmitted.

도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 820에서, 카메라를 이용하여, 공간 내 사용자의 신체 부위를 식별한 것에 기반하여, 외부 전자 장치로 사용자의 신체 부위를 나타내는 신호를 송신할 수 있다. 전자 장치는 공간의 평면들 각각에 인접한 사용자(예, 도 1의 사용자(107))의 신체 부위들 각각을 식별하는 것에 기반하여, 상기 신호(예, 도 5의 신호(507, 508))를 송신할 수 있다. 외부 전자 장치는 상기 신호에 응답하여, 사용자 신체 정보(예, 도 2의 사용자 신체 정보(261))를 획득할 수 있다. Referring to FIG. 8, in operation 820, the electronic device according to one embodiment transmits a signal indicating the user's body part to an external electronic device based on identifying the user's body part in space using a camera. You can. The electronic device generates the signal (e.g., signals 507 and 508 in FIG. 5) based on identifying each of the body parts of the user (e.g., user 107 in FIG. 1) adjacent to each of the planes of space. Can be sent. The external electronic device may obtain user body information (eg, user body information 261 in FIG. 2) in response to the signal.

도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 830에서, 외부 전자 장치로부터, 미디어 콘텐트의 상이한 영역들 중 일 영역을, 공간 내 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 일 평면에, 표시하기위한 신호(도 5의 신호(514))를 수신할 수 있다. 예를 들어, 외부 전자 장치는, 전자 장치로, 적어도 하나의 화면을 표시하는 것을 일시적으로 중단하기 위한 신호(515)를 송신할 수 있다. 전자 장치는 상기 신호(515)에 응답하여, 전자 장치의 프로젝션 어셈블리를 제어하여 광을 투사하는 것을 일시적으로 삼가할 수 있다. Referring to FIG. 8 , in operation 830, the electronic device according to one embodiment selects one of the different areas of the media content from an external electronic device to a plane on which the light emitted from the projection assembly of the electronic device in the space will be projected. A signal for display (signal 514 in FIG. 5) can be received. For example, the external electronic device may transmit a signal 515 to temporarily stop displaying at least one screen to the electronic device. In response to the signal 515, the electronic device may control the projection assembly of the electronic device to temporarily refrain from projecting light.

도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 840에서, 신호를 수신한 것에 응답하여, 프로젝션 어셈블리를 제어하여 일 평면 내에, 일 영역을 표시할 수 있다. 예를 들어, 전자 장치는, 미디어 콘텐트(예, 도 6b의 미디어 콘텐트(611))의 상이한 영역들(예, 도 6b의 영역들(625, 635, 645, 655)) 중 일 영역에 대응하는 일 평면(예, 도 6b의 평면들(120, 130, 140, 150) 중 하나) 내에, 표시할 수 있다. Referring to FIG. 8 , in operation 840, the electronic device according to one embodiment may control the projection assembly to display an area in one plane in response to receiving a signal. For example, the electronic device corresponds to one area among different areas (e.g., areas 625, 635, 645, and 655 in FIG. 6b) of media content (e.g., media content 611 in FIG. 6b). It may be displayed within one plane (eg, one of the planes 120, 130, 140, and 150 in FIG. 6B).

도 9는, 메타버스 서비스와 관련된 네트워크 환경에 대한 예시도이다. 메타버스(Metaverse)는 '가상', '초월'을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회·경제·문화 활동이 이뤄지는 3차원의 가상세계를 가리킨다. 메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회·문화적 활동을 할 수 있다는 특징이 있다. 메타버스 서비스는, 증강 현실(augmented reality, AR), 가상 현실(virtual reality environment, VR), 혼합 현실(mixed environment, MR) 및/또는 확장 현실(extended reality, XR)에 기반하여, 상기 가상 세계에 대한 몰입을 강화하기 위한 미디어 콘텐트를 제공할 수 있다.Figure 9 is an example diagram of a network environment related to the metaverse service. Metaverse is a compound word of the English word 'Meta', meaning 'virtual' or 'transcendence', and 'Universe', meaning universe. It is a combination of social, economic and cultural activities similar to the real world. It refers to a three-dimensional virtual world. Metaverse is a concept that is one step more advanced than virtual reality (VR, a cutting-edge technology that allows people to experience life-like experiences in a virtual world created on a computer), and is a concept that uses avatars to simply enjoy games or virtual reality. Not only that, it has the characteristic of being able to engage in social and cultural activities similar to actual reality. The Metaverse service is based on augmented reality (AR), virtual reality environment (VR), mixed reality (MR), and/or extended reality (XR), and creates the virtual world. Media content can be provided to enhance immersion.

예를 들어, 메타버스 서비스에 의해 제공되는 미디어 콘텐트는, 아바타에 기반하는 게임, 콘서트, 파티 및/또는 회의를 포함하는 소셜 인터랙션(social interaction) 콘텐트를 포함할 수 있다. 예를 들어, 상기 미디어 콘텐트는, 광고, 사용자 제작 콘텐트(user created content) 및/또는 제작물의 판매 및/또는 쇼핑과 같은 경제 활동을 위한 정보를 포함할 수 있다. 상기 사용자 제작 콘텐트의 소유권은 블록체인 기반의 NFT(non-fungible token)에 의하여 증명될 수도 있다. 메타버스 서비스는, 실물 화폐 및/또는 암호 화폐에 기반하는 경제 활동을 지원할 수 있다. 메타버스 서비스에 의하여, 디지털 트윈(digital twin) 또는 라이프 로깅(life logging)과 같이, 현실 세계와 연계된 가상 콘텐트가 제공될 수 있다.For example, media content provided by the metaverse service may include social interaction content including avatar-based games, concerts, parties, and/or meetings. For example, the media content may include advertisements, user created content, and/or information for economic activities such as selling products and/or shopping. Ownership of the user-created content may be proven by a blockchain-based non-fungible token (NFT). Metaverse services can support economic activities based on real currency and/or cryptocurrency. Through the metaverse service, virtual content linked to the real world, such as digital twin or life logging, can be provided.

도 9은 서버(910)를 통해 메타버스 서비스를 제공받는 네트워크 환경(901)에 대한 예시도이다.Figure 9 is an example diagram of a network environment 901 in which metaverse services are provided through the server 910.

도 9을 보면, 네트워크 환경(901)은, 서버(910), 사용자 단말(920)(예, 제1 단말(920-1) 및 제2 단말(920-2)), 및 서버(910) 와 사용자 단말(920)을 연결하는 네트워크를 포함할 수 있다. 네트워크 환경(901) 내에서, 서버(910)는 사용자 단말(920)로 메타버스 서비스를 제공할 수 있다. 네트워크는, AP(access point), 및/또는 기지국을 포함하는 적어도 하나의 중간 노드(930)에 의해 형성될 수 있다. 사용자 단말(920)은, 네트워크를 통해 서버(910)로 접속하여, 사용자 단말(920)의 사용자에게 메타버스 서비스와 관련된 UI(user interface)를 출력할 수 있다. 상기 UI에 기반하여, 사용자 단말(920)은 사용자로부터 메타버스 서비스로 입력될 정보를 획득하거나, 또는 사용자에게 메타버스 서비스와 관련된 정보(예, 멀티미디어 콘텐트)를 출력할 수 있다. Referring to FIG. 9, the network environment 901 includes a server 910, a user terminal 920 (e.g., a first terminal 920-1 and a second terminal 920-2), and a server 910. It may include a network connecting the user terminal 920. Within the network environment 901, the server 910 may provide a metaverse service to the user terminal 920. The network may be formed by at least one intermediate node 930 including an access point (AP) and/or a base station. The user terminal 920 may connect to the server 910 through a network and output a user interface (UI) related to the metaverse service to the user of the user terminal 920. Based on the UI, the user terminal 920 can obtain information to be input to the metaverse service from the user, or output information (eg, multimedia content) related to the metaverse service to the user.

이때, 서버(910)는 가상 공간을 제공하여 사용자 단말(920)이 가상 공간에서 활동을 할 수 있도록 한다. 또한, 사용자 단말(920)은 서버(910)가 제공하는 가상 공간에 접속하기 위한 S/W 에이전트를 설치하여 서버(910)가 사용자에게 제공하는 정보를 표현하거나, 사용자가 가상 공간에서 표현하고자 하는 정보를 서버로 전송한다. 상기 S/W 에이전트는 서버(910)를 통해서 직접 제공받거나, 공용 서버로부터 다운로드받거나, 단말 구매시에 임베딩되어 제공될 수 있다. At this time, the server 910 provides a virtual space so that the user terminal 920 can perform activities in the virtual space. In addition, the user terminal 920 installs a S/W agent to access the virtual space provided by the server 910 to express information provided by the server 910 to the user, or to express information that the user wishes to express in the virtual space. Transmit information to the server. The S/W agent can be provided directly through the server 910, downloaded from a public server, or embedded when purchasing a terminal.

일 실시예에서, 메타버스 서비스는, 서버(910)를 이용하여 사용자 단말(920) 및/또는 사용자에게 서비스가 제공될 수 있다. 실시예가 이에 제한되는 것은 아니며, 메타버스 서비스는 사용자들 사이의 개별적인 접촉을 통해 제공될 수 있다. 예를 들어, 네트워크 환경(901) 내에서, 메타버스 서비스는 서버(910)와 독립적으로, 제1 단말(920-1) 및 제2 단말(920-2) 사이의 직접적인 연결에 의해 제공될 수 있다. 도 9을 참고하면, 네트워크 환경(901) 내에서, 제1 단말(920-1) 및 제2 단말(920-2)은 적어도 하나의 중간 노드(930)에 의해 형성된 네트워크를 통해 서로 연결될 수 있다. 제1 단말(920-1) 및 제2 단말(920-2)이 직접적으로 연결된 일 실시예에서, 제1 단말(920-1) 및 제2 단말(920-2) 중 어느 한 사용자 단말이, 서버(910)의 역할을 수행할 수 있다. 예를 들어, 디바이스와 디바이스의 연결(예, P2P(peer-to-peer) 연결)만으로 메타버스 환경이 구성될 수 있다.In one embodiment, the metaverse service may be provided to the user terminal 920 and/or the user using the server 910. The embodiment is not limited to this, and the metaverse service may be provided through individual contact between users. For example, within the network environment 901, the metaverse service can be provided by a direct connection between the first terminal 920-1 and the second terminal 920-2, independently of the server 910. there is. Referring to FIG. 9, within the network environment 901, the first terminal 920-1 and the second terminal 920-2 may be connected to each other through a network formed by at least one intermediate node 930. . In an embodiment in which the first terminal 920-1 and the second terminal 920-2 are directly connected, one of the first terminal 920-1 and the second terminal 920-2 is: It can perform the role of the server 910. For example, a metaverse environment can be formed solely by device-to-device connection (e.g., P2P (peer-to-peer) connection).

일 실시예에서, 사용자 단말(920)(혹은 제1 단말(920-1), 제 2 단말(920-2)을 포함하는 사용자 단말(920))은 다양한 폼팩터로 만들어질 수 있으며, 사용자에게 영상 또는/및 소리를 제공하는 출력 장치와 메타버스 서비스에 정보를 입력하기 위한 입력 장치를 포함하는 것을 특징으로 한다. 사용자 단말(920)의 다양한 폼팩터를 예시하면, 스마트폰(예, 제2 단말(920-2)), AR 기기(예, 제1 단말(920-1)), VR 기기, MR 기기, VST(Video See Through) 기기, OST(Optical See Through) 장치, 스마트 렌즈, 스마트 미러, 입출력 가능한 TV 또는 프로젝터를 포함할 수 있다.In one embodiment, the user terminal 920 (or the user terminal 920 including the first terminal 920-1 and the second terminal 920-2) may be made in various form factors and may provide images to the user. or/and an output device for providing sound and an input device for inputting information into the metaverse service. Examples of various form factors of the user terminal 920 include a smartphone (e.g., the second terminal 920-2), an AR device (e.g., the first terminal 920-1), a VR device, an MR device, and a VST ( It may include a Video See Through (Video See Through) device, an OST (Optical See Through) device, a smart lens, a smart mirror, and a TV or projector capable of input/output.

본 발명의 네트워크(예, 적어도 하나의 중간 노드(930)에 의해 형성된 네트워크)는 3G, 4G, 5G를 포함하는 다양한 광대역 네트워크와 Wifi, BT 등을 포함하는 근거리 네트워크(예, 제1 단말(920-1), 및 제2 단말(920-2)을 직접적으로 연결하는 유선 네트워크 또는 무선 네트워크)를 다 포함한다.The network of the present invention (e.g., a network formed by at least one intermediate node 930) includes various broadband networks including 3G, 4G, and 5G and a short-range network including Wifi, BT, etc. (e.g., the first terminal 920 -1), and a wired network or wireless network directly connecting the second terminal (920-2).

일 실시예에 따른 전자 장치는 하나의 미디어 콘텐트를 이용하여, 하나 이상의 평면들 내에 하나의 미디어 콘텐트의 상이한 영역들을 표시할 수 있다. 전자 장치는, 하나 이상의 평면들 각각에 대응하는 상이한 영역들을 획득하기 위해 사용자의 신체 정보를 식별할 수 있다. 전자 장치는 통신 회로를 이용하여 동기화된 하나 이상의 외부 전자 장치들을 제어하여, 사용자의 신체 정보에 대응하는 평면들을 식별하기 위한 방안이 요구될 수 있다. An electronic device according to an embodiment may display different areas of one media content in one or more planes using one media content. The electronic device may identify the user's body information to obtain different areas corresponding to each of one or more planes. The electronic device may require a method for controlling one or more external electronic devices synchronized using a communication circuit to identify planes corresponding to the user's body information.

상술한 바와 같은, 일 실시예에 따른 전자 장치(101)에 있어서, 상기 전자 장치는, 카메라(250-1), 통신 회로(230-1), 프로젝션 어셈블리(240-1), 및 하나 이상의 프로세서들(210-1)을 포함할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신할 수 있다. As described above, in the electronic device 101 according to an embodiment, the electronic device includes a camera 250-1, a communication circuit 230-1, a projection assembly 240-1, and one or more processors. It may include (210-1). The one or more processors, based on identifying the external electronic device 102 using the communication circuitry, determine a first plane 110 on which light emitted from the projection assembly of the electronic device will be projected, and the external electronic device 102. The positional relationship of the second plane 120, 130, 140, 150 on which light emitted from another projection assembly 240-2 of the electronic device is projected can be obtained. The one or more processors, based on distances of each of the first plane and the second plane from a body part (302; 303; 304; 305) of the user (107) identified using the camera, for matching different regions (410; 420; 430; 440; 450; 615; 625; 635; 645; 655) of media content (405; 610; 611) to the first plane and the second plane, respectively. Information can be obtained. The one or more processors may display a first region 410 (615) of the different regions of the media content in the first plane based on the information. The one or more processors, based on the information, use the communication circuit to, to the external electronic device, a second region 625; 635; 645; 655 of the different regions of the media content, the second region 625; 635; 645; 655; A signal 514 for display within the plane can be transmitted.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별한 것에 기반하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시할 수 있다. For example, the one or more processors may divide regions of the media content based on identifying at least one object included in the media content and define the first plane corresponding to the user's gaze 301. , the first area among the areas can be displayed.

예를 들어, 상기 하나 이상의 프로세서들은 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the one or more processors may control the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득할 수 있다. For example, the one or more processors may obtain the number of different areas based on the number of external electronic devices located in the space.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별할 수 있다. For example, the one or more processors may identify the second plane adjacent the user's head based on identifying the user's head 302 using the camera.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별할 수 있다. 상기 하나 이상의 프로세서들은, 상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신할 수 있다. For example, the one or more processors may, based on identifying the user's leg 305 using the camera, determine a third plane 150 adjacent the user's leg, the second plane, and The positional relationship between the first planes can be obtained. The one or more processors may be configured to: a first external electronic device, the external electronic device projecting light emitted from a third projection assembly that is different from the first projection assembly, the projection assembly, into the third plane using the communication circuit; A second external electronic device 105 that is different from 102 may be identified. The one or more processors may transmit a signal for displaying a third region among the different regions to the second external electronic device in the third plane.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별할 수 있다. 상기 하나 이상의 프로세서들은, 상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시할 수 있다. For example, the one or more processors may use the camera to identify the user's gaze looking from the first plane to the second plane. The one or more processors may display the first area within the second plane based on identifying the user's motion.

예를 들어, 상기 하나 이상의 프로세서들은, 상기 사용자의 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트할 수 있다. For example, the one or more processors may update the positional relationship between the first plane and the second plane based on identifying the user's gaze.

상술한 바와 같은 일 실시예에 따른 전자 장치(101)의 방법에 있어서, 상기 방법은, 통신 회로(230-1)를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리(240-1)로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하는 동작을 포함할 수 있다. In the method of the electronic device 101 according to the above-described embodiment, the method is based on identifying the external electronic device 102 using the communication circuit 230-1, A first plane 110 on which the light emitted from the projection assembly 240-1 of the external electronic device is projected, and a second plane 120; 130 on which the light emitted from the other projection assembly 240-2 of the external electronic device is projected. ; 140; 150). The method includes media content ( Obtain information for matching different regions 410; 420; 430; 440; 450; 615; 625; 635; 645; 655) to the first plane and the second plane, respectively. It may include actions such as: The method may include displaying a first region (410; 615) of the different regions of the media content in the first plane, based on the information. The method, using the communication circuit based on the information, determines, with the external electronic device, a second region (625; 635; 645; 655) of the different regions of the media content within the second plane. It may include transmitting a signal 514 for display.

예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area divides the areas of the media content using object information for identifying at least one object included in the media content, and uses the user's gaze 301 It may include an operation of displaying a first area among the areas on the first plane corresponding to .

예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area includes controlling the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane. Can include actions.

예를 들어, 상기 정보를 획득하는 동작은, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하는 동작을 포함할 수 있다. For example, the operation of obtaining the information may include the operation of obtaining the number of the different areas based on the number of the external electronic devices located in the space.

예를 들어, 상기 위치 관계를 획득하는 동작은, 상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하는 동작을 포함할 수 있다. For example, the operation of obtaining the positional relationship includes identifying the second plane adjacent to the head of the user based on identifying the head 302 of the user using the camera. can do.

예를 들어, 상기 위치 관계를 획득하는 동작은, 상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 위치 관계를 획득하는 동작은, 상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하는 동작을 포함할 수 있다. 상기 위치 관계를 획득하는 동작은, 상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함할 수 있다. For example, the operation of acquiring the positional relationship may be performed based on identifying the user's leg 305 using the camera, a third plane 150 adjacent to the user's leg, and the second plane. It may include an operation of obtaining a positional relationship between a plane and the first plane. The operation of acquiring the positional relationship includes the first external electronic device projecting light emitted from a third projection assembly that is different from the first projection assembly, which is the projection assembly, into the third plane using the communication circuit. It may include an operation of identifying the second external electronic device 105 that is different from the external electronic device 102. The operation of obtaining the positional relationship may include transmitting a signal for displaying a third area among the different areas to the second external electronic device in the third plane.

예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하는 동작을 포함할 수 있다. 상기 제1 영역을 표시하는 동작은, 상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area may include the operation of identifying the user's gaze looking from the first plane to the second plane using the camera. The operation of displaying the first area may include displaying the first area in the second plane based on identifying the user's motion.

예를 들어, 상기 사용자의 상기 시선을 식별하는 동작은, 상기 사용자의 상기 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하는 동작을 포함할 수 있다. For example, the operation of identifying the user's gaze may include updating the positional relationship between the first plane and the second plane based on identifying the user's gaze.

상술한 바와 같은, 일 실시예에 따른 하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. As described above, in a computer-readable storage medium storing one or more programs according to an embodiment, the one or more programs, when executed by one or more processors of an electronic device, use a communication circuit to communicate with an external device. Based on identifying the electronic device, obtaining a positional relationship of a first plane on which light emitted from a projection assembly of the electronic device will be projected, and a second plane on which light emitted from another projection assembly of the external electronic device will be projected. can do. When the one or more programs are executed by the one or more processors of the electronic device, each of the first plane and the second plane is based on distances from a body part of the user identified using a camera. Thus, information for matching different areas of media content to each of the first plane and the second plane can be obtained. The one or more programs, when executed by the one or more processors of the electronic device, may display a first of the different regions of the media content in the first plane based on the information. . The one or more programs, when executed by the one or more processors of the electronic device, use the communication circuitry based on the information to send a second one of the different regions of the media content to the external electronic device. A signal for displaying an area within the second plane may be transmitted.

예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, use object information to identify at least one object included in the media content, areas may be distinguished, and a first area among the areas may be displayed on the first plane corresponding to the user's gaze.

예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, control the projection assembly based on the size of the space including the first plane and the second plane. , the first area can be displayed.

예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, may obtain the number of the different areas based on the number of the external electronic devices located in the space.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (20)

전자 장치(101)에 있어서,
카메라(250-1);
통신 회로(230-1);
프로젝션 어셈블리(240-1); 및
하나 이상의 프로세서들(210-1)을 포함하고, 상기 하나 이상의 프로세서들은,
상기 통신 회로를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하고;
상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하고;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하고; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하도록, 구성된,
전자 장치.
In the electronic device 101,
Camera (250-1);
communication circuit (230-1);
projection assembly (240-1); and
Includes one or more processors 210-1, wherein the one or more processors include:
Based on identifying an external electronic device 102 using the communication circuit, a first plane 110 on which light emitted from the projection assembly of the electronic device will be projected, and another projection assembly of the external electronic device Obtain the positional relationship of the second plane (120; 130; 140; 150) on which the light emitted from (240-2) will be projected;
Each of the first plane and the second plane displays media content 405; 610 based on the distances from the body part 302; 303; 304; 305 of the user 107 identified using the camera. Obtaining information for matching different areas (410; 420; 430; 440; 450; 615; 625; 635; 645; 655) of 611 to each of the first plane and the second plane;
Based on the information, display a first region (410; 615) of the different regions of the media content in the first plane; and
A signal for displaying, by the external electronic device, a second region (625; 635; 645; 655) of the different regions of the media content in the second plane based on the information, using the communication circuit. configured to transmit (514),
Electronic devices.
제1항에 있어서, 상기 하나 이상의 프로세서들은,
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별한 것에 기반하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Based on identifying at least one object included in the media content, regions of the media content are divided, and a first region of the regions is located on the first plane corresponding to the user's gaze 301. , configured to display,
Electronic devices.
제1항에 있어서, 상기 하나 이상의 프로세서들은
상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors
Configured to control the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane,
Electronic devices.
제3항에 있어서, 상기 하나 이상의 프로세서들은,
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하도록, 구성된,
전자 장치.
The method of claim 3, wherein the one or more processors:
configured to obtain the number of the different areas based on the number of the external electronic devices located in the space,
Electronic devices.
제1항에 있어서, 상기 하나 이상의 프로세서들은,
상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
configured to identify, using the camera, the second plane adjacent the head of the user based on identifying the head (302) of the user.
Electronic devices.
제1항에 있어서, 상기 하나 이상의 프로세서들은,
상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하고,
상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하고,
상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Using the camera, based on identifying the user's leg 305, obtain a positional relationship between the third plane 150 adjacent to the user's leg, the second plane, and the first plane. do,
A first external electronic device 102, which is the external electronic device, is different from the first external electronic device 102 for projecting light emitted from a third projection assembly different from the first projection assembly, which is the projection assembly, into the third plane using the communication circuit. 2 identify the external electronic device 105,
configured to transmit a signal for displaying a third region of the different regions to the second external electronic device in the third plane,
Electronic devices.
제1항에 있어서, 상기 하나 이상의 프로세서들은,
상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하고,
상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Using the camera, identify the user's gaze looking from the first plane to the second plane,
configured to display the first area within the second plane based on identifying the user's motion,
Electronic devices.
제7항에 있어서, 상기 하나 이상의 프로세서들은,
상기 사용자의 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하도록, 구성된,
전자 장치.
8. The method of claim 7, wherein the one or more processors:
configured to update the positional relationship of the first plane and the second plane based on identifying the user's gaze,
Electronic devices.
전자 장치(101)의 방법에 있어서,
통신 회로(230-1)를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리(240-1)로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하는 동작;
상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하는 동작; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하는 동작을 포함하는,
방법.
In the method of electronic device 101,
Based on identifying the external electronic device 102 using the communication circuit 230-1, a first plane 110 on which light emitted from the projection assembly 240-1 of the electronic device will be projected, and Obtaining the positional relationship of a second plane (120; 130; 140; 150) on which light emitted from another projection assembly (240-2) of the external electronic device is projected;
Each of the first plane and the second plane displays media content 405; 610; Obtaining information for matching different areas (410; 420; 430; 440; 450; 615; 625; 635; 645; 655) of 611) to each of the first plane and the second plane;
Based on the information, displaying a first region (410; 615) of the different regions of the media content in the first plane; and
A signal for displaying, by the external electronic device, a second region (625; 635; 645; 655) of the different regions of the media content in the second plane, using the communication circuit based on the information. Including the operation of transmitting (514),
method.
제9항에 있어서, 상기 제1 영역을 표시하는 동작은,
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
Using object information for identifying at least one object included in the media content, regions of the media content are divided, and on the first plane corresponding to the user's gaze 301, a first of the regions is displayed. 1 Including the action of marking an area,
method.
제9항에 있어서, 상기 제1 영역을 표시하는 동작은,
상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
Comprising an operation of controlling the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane,
method.
제11항에 있어서, 상기 정보를 획득하는 동작은,
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하는 동작을 포함하는,
방법.
The method of claim 11, wherein the operation of obtaining the information includes:
Comprising the operation of obtaining the number of the different areas based on the number of the external electronic devices located in the space,
method.
제9항에 있어서, 상기 위치 관계를 획득하는 동작은,
상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of obtaining the position relationship includes:
Using the camera, identifying the second plane adjacent to the head of the user based on identifying the head 302 of the user,
method.
제9항에 있어서, 상기 위치 관계를 획득하는 동작은,
상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하는 동작,
상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하는 동작,
상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of obtaining the position relationship includes:
Using the camera, based on identifying the user's leg 305, obtain a positional relationship between the third plane 150 adjacent to the user's leg, the second plane, and the first plane. action,
A first external electronic device 102, which is the external electronic device, is different from the first external electronic device 102 for projecting light emitted from a third projection assembly different from the first projection assembly, which is the projection assembly, into the third plane using the communication circuit. 2 the operation of identifying an external electronic device 105;
Transmitting a signal for displaying a third region among the different regions to the second external electronic device in the third plane,
method.
제9항에 있어서, 상기 제1 영역을 표시하는 동작은,
상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하는 동작,
상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
An operation of identifying the user's gaze looking from the first plane to the second plane using the camera,
Comprising the operation of displaying the first area in the second plane based on identifying the user's motion,
method.
제15항에 있어서, 상기 사용자의 상기 시선을 식별하는 동작은,
상기 사용자의 상기 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하는 동작을 포함하는,
방법.
The method of claim 15, wherein the operation of identifying the gaze of the user comprises:
Comprising the operation of updating the positional relationship of the first plane and the second plane based on identifying the gaze of the user,
method.
하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서,
상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에,
통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득하고;
상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하고;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시하고; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium storing one or more programs,
When the one or more programs are executed by one or more processors of the electronic device,
Using a communication circuit, based on identifying the external electronic device, a first plane on which light emitted from a projection assembly of the electronic device will be projected, and a second plane on which light emitted from another projection assembly of the external electronic device will be projected Obtain the positional relationship of the two planes;
Matching different regions of media content to each of the first and second planes based on the distances each of the first and second planes are from a body part of the user identified using a camera. Obtain information to:
Based on the information, display a first region of the different regions of the media content in the first plane; and
configured to transmit, using the communication circuitry, a signal for displaying a second region of the different regions of the media content in the second plane to the external electronic device based on the information.
A computer-readable storage medium.
제17항에 있어서,
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
According to clause 17,
When the one or more programs are executed by the one or more processors of the electronic device,
Using object information to identify at least one object included in the media content, regions of the media content are divided, and a first region among the regions is located on the first plane corresponding to the user's gaze. , configured to display,
A computer-readable storage medium.
제17항에 있어서,
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 제1 평면 및 상기 제2 평면을 포함하는 공간의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
According to clause 17,
When the one or more programs are executed by the one or more processors of the electronic device,
configured to control the projection assembly to display the first area based on the size of a space including the first plane and the second plane,
A computer-readable storage medium.
제19항에 있어서,
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하도록, 구성된,
컴퓨터 판독 가능 저장 매체.



According to clause 19,
When the one or more programs are executed by the one or more processors of the electronic device,
configured to obtain the number of the different areas based on the number of the external electronic devices located in the space,
A computer-readable storage medium.



KR1020220170105A 2022-12-07 2022-12-07 Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information KR20240085067A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220170105A KR20240085067A (en) 2022-12-07 2022-12-07 Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220170105A KR20240085067A (en) 2022-12-07 2022-12-07 Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information

Publications (1)

Publication Number Publication Date
KR20240085067A true KR20240085067A (en) 2024-06-14

Family

ID=91481751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220170105A KR20240085067A (en) 2022-12-07 2022-12-07 Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information

Country Status (1)

Country Link
KR (1) KR20240085067A (en)

Similar Documents

Publication Publication Date Title
US9918058B2 (en) Information processing to allow projector units to project images in cooperation
US10873741B2 (en) Image processing apparatus and method
JP7452596B2 (en) Communication terminals, display methods, programs and image communication systems
CN103543596B (en) Multi-projection system
US9436076B2 (en) Multi-projection system for extending visual element of main image
WO2022088918A1 (en) Virtual image display method and apparatus, electronic device and storage medium
CN107113391B (en) Information processing apparatus and method
US20180011679A1 (en) Information processing system, display processing apparatus, display processing method, and recording medium
US9479747B2 (en) Guide image generation device and method using parameters
JP6825480B2 (en) Information information system, display processing device, display processing method, and display program
KR20240085067A (en) Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information
US10616547B1 (en) Multi-vantage point light-field picture element display
KR20240092251A (en) Electronic device for displaying media content within plane adjacent to external electronic device and method thereof
CN110554556A (en) spatial holographic interactive control method and system for multiple screens
US20150077311A1 (en) Display system, image display device, and method of controlling display system
US20240214532A1 (en) Electronic device for displaying visual object associated with aspect ratio of combinations of projection areas and method thereof
US20240179280A1 (en) Electronic device for displaying media content and user interface in plurality of areas and method thereof
KR20240083458A (en) Electronic device for generating visual object corresponding to motion of external object and method thereof
KR20240103404A (en) Electronic device for displaying visual object associated with aspect ratio of combinations of projection areas and method thereof
KR20240079996A (en) Electronic device for displaying media content and user interface in plurality of areas and method thereof
KR101920323B1 (en) System and method for generating logical display apparatus
WO2024143769A1 (en) Electronic device for displaying visual object related to aspect ratio of combination of projection areas, and method therefor
US20240205378A1 (en) Information processing device, information processing method, and program
US20230008125A1 (en) Augmenting a view of a real-world environment with a view of a volumetric video object
WO2022185719A1 (en) Information processing device, information processing method, and display device