KR20240085067A - Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information - Google Patents
Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information Download PDFInfo
- Publication number
- KR20240085067A KR20240085067A KR1020220170105A KR20220170105A KR20240085067A KR 20240085067 A KR20240085067 A KR 20240085067A KR 1020220170105 A KR1020220170105 A KR 1020220170105A KR 20220170105 A KR20220170105 A KR 20220170105A KR 20240085067 A KR20240085067 A KR 20240085067A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- plane
- user
- media content
- external electronic
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000004891 communication Methods 0.000 claims abstract description 72
- 230000033001 locomotion Effects 0.000 claims description 8
- 238000005728 strengthening Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 34
- 230000004044 response Effects 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
일 실시예에 따른 전자 장치의 하나 이상의 프로세서들은, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 본 문서는, 실제 객체 및 가상 객체 사이의 상호연결성을 강화하기 위한 메타버스 서비스와 관련될 수 있다. 예를 들면, 상기 메타버스 서비스는, 5G(fifth generation), 및/또는 6G(sixth generation)에 기반하는 네트워크를 통해 제공될 수 있다. One or more processors of an electronic device according to an embodiment may include, based on identifying an external electronic device using a communication circuit, a first plane on which light emitted from a projection assembly of the electronic device is to be projected, and the external electronic device. The positional relationship of the second plane on which light emitted from another projection assembly of the device is to be projected may be obtained. The one or more processors may be configured to display different regions of media content, each of the first plane and the second plane, based on the distances each of the first plane and the second plane are from a body part of the user identified using a camera. Information for matching each second plane can be obtained. This document may be related to a metaverse service for strengthening interconnectivity between real and virtual objects. For example, the metaverse service may be provided through a network based on 5G (fifth generation) and/or 6G (sixth generation).
Description
본 개시(present disclosure)는, 사용자의 신체 정보에 기반하여, 미디어 콘텐트를 표시할 위치를 식별하기위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체에 관한 것이다. This disclosure relates to electronic devices, methods, and computer-readable storage media for identifying a location to display media content based on a user's physical information.
정보를 시각화하기 위한 전자 장치가 개발되고 있다. 상기 전자 장치는, 텔레비전(television), 모니터, 전광판, 빔 프로젝터, 휴대 전화, 및/또는 태블릿 PC(personal computer)를 포함할 수 있다. 전자 장치는, 상기 전자 장치의 일 면 또는 상기 전자 장치의 외부의 일 면에, 상기 정보를 표현하는(representing) 표시 영역(displaying area)을 형성할 수 있다. Electronic devices for visualizing information are being developed. The electronic device may include a television, a monitor, an electronic sign, a beam projector, a mobile phone, and/or a tablet personal computer (PC). The electronic device may form a display area representing the information on one side of the electronic device or on an external side of the electronic device.
일 실시예에 따른 전자 장치에 있어서, 상기 전자 장치는, 카메라, 통신 회로, 프로젝션 어셈블리, 및 하나 이상의 프로세서들을 포함할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. In an electronic device according to an embodiment, the electronic device may include a camera, a communication circuit, a projection assembly, and one or more processors. The one or more processors may, based on identifying the external electronic device using the communication circuit, select a first plane on which light emitted from the projection assembly of the electronic device will be projected, and another projection assembly of the external electronic device. The positional relationship of the second plane on which the light emitted from will be projected can be obtained. The one or more processors may be configured to display different regions of the media content, each of the first plane and the second plane, based on distances from the user's body part identified using the camera. Information for matching each of the second planes can be obtained. The one or more processors may display a first region of the different regions of the media content in the first plane based on the information. The one or more processors may transmit, based on the information, a signal for displaying a second region of the different regions of the media content in the second plane to the external electronic device using the communication circuit. You can.
일 실시예에 따른 전자 장치의 방법에 있어서, 상기 방법은, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함할 수 있다. In a method for an electronic device according to an embodiment, the method includes: a first plane on which light emitted from a projection assembly of the electronic device will be projected, based on identifying an external electronic device using a communication circuit; and The method may include obtaining a positional relationship of a second plane on which light emitted from another projection assembly of the external electronic device is to be projected. The method comprises: the first plane and the second plane, each representing different regions of media content based on distances each of the first plane and the second plane are from a body part of the user identified using a camera; It may include an operation of acquiring information for matching to each plane. The method may include displaying, based on the information, a first region of the different regions of the media content in the first plane. The method includes transmitting a signal for displaying a second region among the different regions of the media content in the second plane to the external electronic device using the communication circuit based on the information. It can be included.
일 실시예에 따른 하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. In a computer-readable storage medium storing one or more programs according to an embodiment, the one or more programs, when executed by one or more processors of an electronic device, identify an external electronic device using a communication circuit. Based on this, the positional relationship of a first plane on which light emitted from a projection assembly of the electronic device is projected and a second plane on which light emitted from another projection assembly of the external electronic device is projected can be obtained. When the one or more programs are executed by the one or more processors of the electronic device, each of the first plane and the second plane is based on distances from a body part of the user identified using a camera. Thus, information for matching different areas of media content to each of the first plane and the second plane can be obtained. The one or more programs, when executed by the one or more processors of the electronic device, may display a first of the different regions of the media content in the first plane based on the information. . The one or more programs, when executed by the one or more processors of the electronic device, use the communication circuitry based on the information to send a second one of the different regions of the media content to the external electronic device. A signal for displaying an area within the second plane may be transmitted.
도 1은, 일 실시예에 따른, 전자 장치가 하나 이상의 표시 영역 내에 미디어 콘텐트를 투사하는 동작의 일 예를 도시한다.
도 2는, 일 실시예에 따른 전자 장치의 블록도의 일 예를 도시한다.
도 3은, 일 실시예에 따른 전자 장치가 사용자의 신체 부위에 인접한 평면을 식별하는 동작의 일 예를 도시한다.
도 4는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들을 구분하는 동작의 일 예를 도시한다.
도 5는, 일 실시예에 따른 전자 장치 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다.
도 6a 내지 도 6b는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들에 대응하는 평면에 화면을 표시하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다.
도 8은, 일 실시예에 따른 외부 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다.
도 9는, 메타버스 서비스와 관련된 네트워크 환경에 대한 예시도이다. FIG. 1 illustrates an example of an operation in which an electronic device projects media content within one or more display areas, according to an embodiment.
Figure 2 shows an example of a block diagram of an electronic device according to an embodiment.
FIG. 3 illustrates an example of an operation in which an electronic device identifies a plane adjacent to a user's body part, according to an embodiment.
FIG. 4 illustrates an example of an operation in which an electronic device divides areas of media content, according to an embodiment.
FIG. 5 shows an example of a signal flow diagram between an electronic device and an external electronic device according to an embodiment.
FIGS. 6A and 6B illustrate an example of an operation in which an electronic device displays a screen on a plane corresponding to areas of media content, according to an embodiment.
FIG. 7 shows an example of a flowchart showing operations performed by an electronic device according to an embodiment.
FIG. 8 shows an example of a flowchart illustrating operations performed by an external electronic device according to an embodiment.
Figure 9 is an example diagram of a network environment related to the metaverse service.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document are described with reference to the attached drawings.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나”, "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar components. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Expressions such as "first", "second", "first", or "second" may modify the elements in question, regardless of order or importance, and may refer to one element as another. It is only used to distinguish from components and does not limit the components in question. When referred to as being “connected,” the element may be directly connected to the other element or may be connected through another element (e.g., a third element).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. The term “module” used in this document includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof. For example, a module may be comprised of an application-specific integrated circuit (ASIC).
도 1은, 일 실시예에 따른, 전자 장치가 하나 이상의 표시 영역 내에 미디어 콘텐트를 투사하는 동작의 일 예를 도시한다. 도 1을 참고하면, 일 실시예에 따른 전자 장치(101)는, 외부 공간으로 광을 방사(emit)하기 위한, 빔 프로젝터(beam projector)를 포함할 수 있다. 전자 장치(101)는, 2차원으로(two-dimensionally) 배열된 픽셀들에 의해 형성된 화면을 표현하는(representing) 상기 광을 출력할 수 있다. 전자 장치(101)로부터 출력된 상기 광은, 공간(100) 내 평면들(110, 120, 130, 140, 150)과 같은 객체에 의해 반사될 수 있다. 사용자(107)는, 상기 객체에 의해 반사된 상기 광에 기반하여, 상기 화면을 볼 수 있다.FIG. 1 illustrates an example of an operation in which an electronic device projects media content within one or more display areas, according to an embodiment. Referring to FIG. 1, the
도 1을 참고하면, 일 실시예에 따른, 전자 장치(101)는, 전자 장치(101)에 의해 방사되는 광이 도달 가능한(reachable) 외부 공간(100) 내에서, 상기 광에 의해 표현되는 화면을 투사가능한(projectable) 적어도 하나의 평면(예, 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 일 실시예에 따른 전자 장치(101)는, 통신 회로를 이용하여, 상기 식별한 적어도 하나의 평면을 향해 광을 투사하기 위한 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 하나 이상의 외부 전자 장치들(106)은 전자 장치(101) 내에 포함된 하드웨어의 적어도 일부를 포함할 수 있다. 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)의 하드웨어를 나타내는 블록도를 도 2에서 후술한다. Referring to FIG. 1, according to one embodiment, the
일 실시예에 따른 전자 장치(101)는, 통신 회로를 이용하여, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립할 수 있다. 전자 장치(101)는 상기 수립된 통신 링크에 기반하여, 하나 이상의 외부 전자 장치들(106)과 동기화(synchronization)할 수 있다. 전자 장치(101)는, 동기화된 하나 이상의 외부 전자 장치들(106)로, 적어도 하나의 정보를 공유할 수 있다. 전자 장치(101)는, 동기화된 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리들 각각을 제어하기 위한 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 동작들 중 적어도 하나를 제어하는 관점에서, 마스터 장치로 참조될 수 있다. 하나 이상의 외부 전자 장치들(106)은, 전자 장치(101)에 의해 상기 동작들 중 적어도 하나가 제어되는 관점에서, 슬레이브 장치(또는, 서브 장치)로 참조될 수 있다. 다만, 이에 제한되는 것은 아니다. The
예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106) 각각으로부터, 하나 이상의 외부 전자 장치들(106) 각각이, 공간(100) 내에 배치된 위치를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호에 응답하여, 하나 이상의 외부 전자 장치들(106)의 위치 관계를 나타내는 정보를 획득할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에서, 전자 장치(101)의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 상기 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리로부터 광이 투사될 평면들(120, 130, 140, 150)을 나타내는 신호를 수신할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 제2 평면(120) 내에, 제1 외부 전자 장치(102)의 프로젝션 어셈블리를 제어하여, 광을 투사할 수 있다. 제2 외부 전자 장치(103)는, 제3 평면(130) 내에, 제2 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 광을 투사할 수 있다. 제3 외부 전자 장치(104)는, 제3 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 제4 평면(140) 내에, 광을 투사할 수 있다. 제4 외부 전자 장치(104)는, 제5 평면(150) 내에, 제4 외부 전자 장치(104)의 프로젝션 어셈블리를 제어하여 광을 투사할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 상기 수신한 신호에 응답하여, 공간(100) 내 평면들(110, 120, 130, 140, 150) 사이의 위치 관계를 획득할 수 있다. 전자 장치(101)는, 평면들(110, 120, 130, 140, 150) 각각에 대응하는 하나 이상의 외부 전자 장치들(106) 각각을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 평면들(110, 120, 130, 140, 150) 각각에 대응하여, 하나 이상의 외부 전자 장치들(106)을 설정하기 위한 사용자의 입력을 수신할 수 있다. 상기 입력에 응답하여, 전자 장치(101)는, 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106) 사이의 위치 관계를 식별할 수 있다. 전자 장치(101)는, 상기 위치 관계에 기반하여, 공간(100)의 사이즈를 나타내는 정보를 획득할 수 있다. For example, the
일 실시예에 따른 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에 위치한 사용자(107)를 식별할 수 있다. 전자 장치(101)는, 공간(100) 내 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 통신 회로를 이용하여, 하나 이상의 외부 전자 장치들(106)로부터, 공간(100) 내 사용자(107)의 위치를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 수신한 신호에 기반하여, 공간(100) 내에서, 3차원에 기반한 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 위치에 기반하여, 공간(100) 내에서 사용자(107)의 신체 부위들 각각에 인접한 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)가 사용자(107)의 신체 부위들 각각에 상기 평면들을 매핑하는 동작은 도 3에서 후술한다. The
일 실시예에 따른, 전자 장치(101)가 화면을 투사하는 일 평면 내에, 제1 표시 영역과, 하나 이상의 외부 전자 장치들(106)이 다른 화면을 투사하는 제2 표시 영역들은, 공간(100) 내에서, 서로 접하거나(adjoin), 또는 이격될 수 있다. 상기 하나 이상의 표시 영역 각각은, 지정된 비율(예, 종횡비(aspect ratio))을 가지고, 사각형의 형태를 가질 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 상기 하나 이상의 표시 영역 각각의 형태는, 상기 공간(100)의 사이즈를 나타내는 정보에 기반하여, 변경될 수 있다. According to one embodiment, in one plane where the
예를 들어, 전자 장치(101)는, 제1 표시 영역에 화면을 표시할 수 있다. 하나 이상의 외부 전자 장치들(106)은 제2 표시 영역들에 다른 화면을 표시할 수 있다. 전자 장치(101)가 표시하는 상기 화면 및, 다른 화면은, 하나의 미디어 콘텐트에 의해 생성될 수 있다. 전자 장치(101)가 화면을 표시하는 것과 외부 전자 장치(102)가 다른 화면을 표시하는 것은 통신 링크를 통해, 실질적으로 동시에 수행될 수 있다. 전자 장치(101)가 표시하는 상기 화면 및, 다른 화면은, 하나의 미디어 콘텐트에 의해 생성될 수 있다. 예를 들어, 상기 화면은, 상기 하나의 미디어 콘텐트의 일 영역에 기반하여 생성될 수 있다. 상기 다른 화면은 상기 하나의 미디어 콘텐트의 다른 영역에 기반하여 생성될 수 있다. For example, the
일 실시예에서, 전자 장치(101)에 의해 제1 표시 영역 내에 표시되는 화면은, 미디어 콘텐트(170)에 의해 지시될 수 있다. 예를 들어, 상기 미디어 콘텐트(170)는 전자 장치(101)의 메모리 내에 저장되거나, 또는 다른 전자 장치(예, 스트리밍 서비스를 제공하는 적어도 하나의 서버, STB(set-top box), PC, 및/또는 TV)로부터 전자 장치(101)로 송신될 수 있다. 상기 미디어 콘텐트(170)는, 이미지 및/또는 비디오를 포함할 수 있다. 상기 미디어 콘텐트(170)는, 전자 장치(101)에 의해 연결된 네트워크로부터 스트리밍될 수 있다. 상기 미디어 콘텐트(170)는, 비디오 및 상기 비디오에 동기화된 소리를 포함할 수 있다. 상기 미디어 콘텐트(170)는, MPEG(motion picture expert group)에 의해 규격화된 비디오를 포함할 수 있다. 하나 이상의 외부 전자 장치들(106)에 의해 제2 표시 영역들 내에 표시되는 다른 화면은, 상술한 바와 실질적으로 유사할 수 있다. In one embodiment, the screen displayed in the first display area by the
일 실시예에 따른 전자 장치(101)는, 메모리 내에 저장된 미디어 콘텐트 분할 어플리케이션의 실행에 기반하여, 미디어 콘텐트(170)의 영역들을 분할할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)을 식별한 것에 기반하여, 상기 시각적 객체들 각각에 대응하는 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)의 유형(type), 및/또는 위치를 식별한 것에 기반하여, 상기 시각적 객체들 각각에 대응하는 상기 영역들을 획득할 수 있다. 전자 장치(101)가 상기 영역들을 획득하는 동작은, 도 4에서 후술한다. The
예를 들어, 전자 장치(101)는, 획득한 상기 영역들을 표시하기 위한 평면들(110, 120, 130, 140, 150) 중 적어도 일부를 식별할 수 있다. 전자 장치(101)는, 상기 적어도 일부를 식별한 것에 기반하여, 상기 적어도 일부 내에, 상기 영역들 각각을 표시하기 위한 하나 이상의 외부 전자 장치들(106) 중 적어도 일부를 식별할 수 있다. For example, the
예를 들어, 전자 장치(101)는 미디어 콘텐트(170) 내에 포함된 객체(170-1)에 대응하는 제1 영역을 식별할 수 있다. 전자 장치(101)는 제1 영역을 식별한 것에 기반하여, 제1 평면(110) 내에, 전자 장치(101)의 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체(170-2)를 식별한 것에 기반하여, 제2 영역을 획득할 수 있다. 전자 장치(101)는 제2 영역을 획득한 것에 기반하여, 제2 영역을 표시하기 위한 제3 평면(130)을 식별할 수 있다. 전자 장치(101)는, 제3 평면(130) 내에, 제2 영역을 표시하기 위한 신호를 제2 외부 전자 장치(103)로 송신할 수 있다. 제2 외부 전자 장치(103)는, 제2 영역을, 제2 외부 전자 장치(103)의 프로젝션 어셈블리를 제어하여, 제3 평면(130) 내에, 표시할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체(170-3)를 식별한 것에 기반하여, 제3 영역을 획득할 수 있다. 전자 장치(101)는 제3 영역을 획득한 것에 기반하여, 제3 영역을 표시하기 위한 제5 평면(150)을 식별할 수 있다. 전자 장치(101)는, 제5 평면(150) 내에, 제3 영역을 표시하기 위한 신호를 제5 외부 전자 장치(105)로 송신할 수 있다. 제5 외부 전자 장치(105)는, 제3 영역을, 제5 외부 전자 장치(105)의 프로젝션 어셈블리를 제어하여, 제5 평면(150) 내에, 표시할 수 있다. 전자 장치(101)가 영역들 각각에 대응하는 하나 이상의 외부 전자 장치들(106) 중 적어도 하나를 식별하는 동작은 도 6a 내지 도 6b에서 후술한다. For example, the
상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립한 상태 내에서, 공간(100) 내에서, 하나 이상의 외부 전자 장치들(106)의 위치 관계를 나타내는 정보를 획득할 수 있다. 전자 장치(101)는, 상기 위치 관계를 나타내는 정보에 기반하여, 공간(100) 내 상기 하나 이상의 외부 전자 장치들(106) 각각에 대응하는 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트(170) 내에 포함된 시각적 객체들(170-1, 170-2, 170-3)을 식별한 것에 기반하여 미디어 콘텐트(170)의 영역들을 구분할 수 있다. 전자 장치(101)는, 영역들 각각에 매핑되는 평면들(110, 130, 150)을 식별할 수 있다. 전자 장치(101)는, 상기 평면들을 식별한 것에 기반하여 상기 평면들(110, 130, 150) 각각에 상기 영역들 각각을 표시하거나, 또는 상기 영역들 각각을 표시하기위한 신호를 하나 이상의 외부 전자 장치들(106) 중 적어도 하나로 송신할 수 있다. 전자 장치(101)는 하나의 미디어 콘텐트(170)를 분할하여, 프로젝션 어셈블리, 및/또는 하나 이상의 외부 전자 장치들(106)을 제어하여, 공간(100)의 평면들 각각에, 분할된 미디어 콘텐트(170)의 영역들 각각을, 표시할 수 있다. 전자 장치(101)는, 2차원에 기반한 미디어 콘텐트(170)를 분할하여, 3차원 공간에 기반한 미디어 콘텐트로 변환할 수 있다. As described above, the
도 2는, 일 실시예에 따른 전자 장치의 블록도의 일 예를 도시한다. 도 1의 전자 장치(101)는 도 2의 전자 장치(101)의 일 예일 수 있다. 도 1의 하나 이상의 외부 전자 장치들(106)은, 도 2의 하나 이상의 외부 전자 장치들(106)의 일 예일 수 있다. 도 2를 참고하면, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)은, 유선 네트워크 및/또는 무선 네트워크에 기반하여 서로 연결될 수 있다. 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)이 직접적으로 연결된(directly connected) 것으로 도시되었으나, 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106)은 중간 노드(intermediate node)(예, 라우터 및/또는 AP(access point))를 통해 간접적으로 연결될 수 있다.Figure 2 shows an example of a block diagram of an electronic device according to an embodiment. The
도 2를 참고하면, 일 실시예에 따른, 전자 장치(101)는, 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(projection assembly)(240-1), 또는, 카메라(250-1) 중 적어도 하나를 포함할 수 있다. 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(projection assembly)(240-1), 및 카메라(250-1)는 통신 버스(a communication bus)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 2의 하드웨어들 중 일부분(예, 프로세서(210-1), 메모리(220-1) 및 통신 회로(230-1)의 적어도 일부분)이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 2에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. Referring to FIG. 2, according to one embodiment, the
일 실시예에 따른, 전자 장치(101)의 프로세서(210-1)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(210-1)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(210-1)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다. According to one embodiment, the processor 210-1 of the
일 실시예에 따른, 전자 장치(101)의 메모리(220-1)는 프로세서(210-1)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(220-1)는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)과 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다. According to one embodiment, the memory 220-1 of the
일 실시예에 따른, 전자 장치(101)의 메모리(220-1) 내에서, 프로세서(210-1)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 프로세서(210-1)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)이 실행될 시에, 도 7의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 전자 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 전자 장치(101)의 메모리(220-1) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 전자 장치(101)의 프로세서(210-1)에 의해 실행 가능한(executable) 포맷(예, 전자 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다.According to one embodiment, within the memory 220-1 of the
일 실시예에 따른, 전자 장치(101)의 통신 회로(230-1)는 전자 장치(101) 및 외부 전자 장치(102) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 전자 장치(101)의 통신 회로(230-1)를 통해 연결된 다른 전자 장치로, 외부 전자 장치(102) 만이 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 통신 회로(230-1)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(230-1)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다. According to one embodiment, the communication circuit 230-1 of the
일 실시예에 따른 전자 장치(101)는, 통신 회로(230-1)를 이용하여, 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립할 수 있다. 전자 장치(101)는, 수립된 통신 링크에 기반하여, 하나 이상의 외부 전자 장치들(106)로부터, 공간(예, 도 1의 공간(100))내의 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106) 각각의 위치 관계를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호에 응답하여, 위치 관계 정보(263)를 획득할 수 있다. 위치 관계 정보(263)는, 상기 하나 이상의 외부 전자 장치들(106)에 대응하는 평면들에 대한 정보를 포함할 수 있다. The
일 실시예에 따른, 전자 장치(101)는 통신 회로(230-1)를 이용하여, 미디어 콘텐트 정보(262)(또는, 화면을 지시하는 정보)를 수신할 수 있다. 예를 들어, 전자 장치(101)는 통신 회로(230-1)를 통하여, WiDi(wireless display) 및/또는 미라캐스트와 같은 무선 통신 프로토콜에 기반하여, 미디어 콘텐트 정보(262)에 포함된 미디어 콘텐트를 표시하기 위한 신호를 무선으로 수신할 수 있다. 예를 들어, 전자 장치(101)는 통신 회로(230-1)를 이용하여, HDMI(high-definition multimedia interface), DP(displayport), MHL(mobile high-definition link), DVI(digital visual interface) 및/또는 D-sub(D-subminiature)와 같은 유선 통신 프로토콜(또는 유선 인터페이스)에 기반하여, 상기 미디어 콘텐트를 표시하기 위한 신호를 유선으로 수신할 수 있다. 전자 장치(101)는According to one embodiment, the
일 실시예에 따른, 전자 장치(101)의 프로젝션 어셈블리(240-1)는, 2차원으로 배열된 픽셀들을 표현한 광을 방출하기 위해 조립된(assembled) 복수의 하드웨어들을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는 색 공간 내 3 원색들(three primary colors) 각각의 광을 방출하기 위한 CRT들(cathode-ray tubes) 및, 상기 CRT들 각각으로부터 방출된 광을 확대하기 위한 렌즈들의 조합(combination)을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는, 광을 방출하기 위한 광원(예, 램프), 상기 광을, 3 원색들 각각에 대응하는 광 경로들(light paths)로 분할하기 위한 광학 필터들, 상기 광 경로들 각각에 배치된 LCD(liquid crystal display) 패널들, 및 상기 LCD 패널들로부터 출력된 광을 합성하기 위한 프리즘 및/또는 렌즈의 조합을 포함할 수 있다. 예를 들어, 프로젝션 어셈블리(240-1)는, 광을 방출하기 위한 광원, 상기 광으로부터 3 원색들 중 어느 하나를 선택하는 광학 필터, 상기 광학 필터에 의해 필터링된 원색에 대한 반사를 조절하기 위한 DMD(digital mirror device), 및 상기 DMD에 의해 반사된 광을 확대하기 위한 렌즈의 조합을 포함할 수 있다. 화면의 표시를 위해 광의 투사를 요구하는 관점에서, 상기 예시된 조합들 중 적어도 하나는, 프로젝션 어셈블리(240-1)로 지칭될 수 있다. 일 실시예에서, 프로젝션 어셈블리(240-1)를 포함하는 전자 장치(101)는 빔 프로젝터(beam projector)로 지칭될 수 있다.According to one embodiment, the projection assembly 240-1 of the
일 실시예에 따른, 전자 장치(101)의 카메라(250-1)는, 광의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 카메라(250-1) 내 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(250-1)는 복수의 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(250-1)를 이용하여 캡쳐한 사진 데이터는 카메라(250-1)로부터 획득한 하나의(a) 이미지를 의미할 수 있다. 예를 들어, 카메라(250-1)를 이용하여 캡쳐한 비디오 데이터는 카메라(250-1)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. According to one embodiment, the camera 250-1 of the
일 실시예에 따른 전자 장치(101)는, 카메라(250-1)를 이용하여, 공간(예, 도 1의 공간(100)) 내에 위치한 사용자(예, 도 1의 사용자(107))를 식별할 수 있다. 전자 장치(101)는, 카메라(250-1)를 이용하여, 상기 사용자의 신체 부위를 식별할 수 있다. 전자 장치(101)는, 상기 사용자의 신체 부위를 식별한 것에 기반하여, 상기 사용자의 신체 부위에 인접한, 상기 공간 내의 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치(101)는, 상기 평면들 및 상기 사용자의 신체 부위를 식별한 것에 기반하여, 사용자 신체 정보(261)를 획득할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 카메라(250-1)를 이용하여, 전자 장치(101)의 프로젝션 어셈블리(240-1)가 광을 투사할 제1 평면(예, 도 1의 제1 평면(110))의 크기를 식별할 수 있다. 전자 장치(101)는 하나 이상의 외부 전자 장치들(106)로부터, 상기 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리(예, 프로젝션 어셈블리(240-2))가 광을 투사할 평면들(예, 도 1의 평면들(120, 130, 140, 150))의 크기(size)를 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 식별한 제1 평면의 크기, 및/또는 상기 수신한 신호를 이용하여, 공간 크기 정보(264)를 획득할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 메모리(220-1) 내에 저장된 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트 정보(262)를 이용하여 획득한, 미디어 콘텐트를 분할할 수 있다. 예를 들어, 전자 장치(101)는, 상기 미디어 콘텐트 내에 포함된 시각적 객체를 식별함으로써, 상기 시각적 객체에 대응하는 영역을 획득할 수 있다. 전자 장치(101)는, 상기 영역을 획득한 것에 기반하여, 상기 영역을 투사할, 평면을 식별할 수 있다. 전자 장치(101)가 상기 영역을 투사할 평면을 식별하는 동작은 도 4에서 후술한다. The
도 2를 참고하면, 전자 장치(101)에 연결된 하나 이상의 외부 전자 장치들(106) 중 적어도 하나는, 프로세서, 메모리, 통신 회로, 프로젝션 어셈블리, 또는 카메라 중 적어도 하나를 포함할 수 있다. 예를 들어, 제1 외부 전자 장치102)는, 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2), 또는 카메라(250-2) 중 적어도 하나를 포함할 수 있다. 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2) 및 카메라(250-2)는 통신 버스에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다. 도 2의 제1 외부 전자 장치(102) 내 프로세서(210-2), 메모리(220-2), 통신 회로(230-2) 및 카메라(250-2)는, 전자 장치(101) 내 프로세서(210-1), 메모리(220-1), 통신 회로(230-1) 및 카메라(250-1)에 대응할 수 있다. 설명의 반복을 줄이기 위하여, 프로세서(210-2), 메모리(220-2), 통신 회로(230-2), 프로젝션 어셈블리(240-2), 및 카메라(250-2)의 설명들 중에서, 프로세서(210-1), 메모리(220-1), 통신 회로(230-1), 프로젝션 어셈블리(240-1), 및 카메라(250-1)와 중복되는 설명들이 생략될 수 있다. Referring to FIG. 2 , at least one of the one or more external
일 실시예에 따른 하나 이상의 외부 전자 장치들(106)은, 전자 장치(101)와 수립된 통신 링크를 통해, 하나 이상의 외부 전자 장치들(106)이 공간(예, 도 1의 공간(100)) 내에 배치된 위치를 나타내는 신호를 송신할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 하나 이상의 외부 전자 장치들(106) 각각의 카메라를 이용하여, 공간(예, 도 1의 공간(100)) 내에서, 사용자를 식별할 수 있다. 하나 이상의 외부 전자 장치들(106)은 상기 식별한 사용자의 위치, 및/또는 상기 사용자의 신체 부위의 위치를 지시하는 신호를, 상기 통신 링크를 통해, 전자 장치(101)로 송신할 수 있다. One or more external
일 실시예에 따른 하나 이상의 외부 전자 장치들(106)은, 하나 이상의 외부 전자 장치들(106) 각각의 프로젝션 어셈블리로부터 투사된 광에 대응하는 평면들(예, 도 1의 평면들(120, 130, 140, 150))을 나타내는 신호를 전자 장치(101)로 송신할 수 있다. One or more external
일 실시예에 따른 전자 장치(101)는, 통신 회로(230-1)를 이용하여, 제1 외부 전자 장치(102)와 통신 링크를 수립할 수 있다. 통신 링크가 수립된 상태 내에서, 전자 장치(101)는, 제1 외부 전자 장치(102)로, 미디어 콘텐트의 상이한 영역들 중 일 영역을 나타내는 신호를 송신할 수 있다. 전자 장치(101)는, 상기 신호를 송신하는 것에 기반하여, 제1 표시 영역에, 상기 상이한 영역들 중 다른 영역을, 프로젝션 어셈블리(240-1)를 이용하여, 투사할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 상기 신호를 수신하는 것에 응답하여, 제2 표시 영역에, 상기 상이한 영역들 중 일 영역을, 프로젝션 어셈블리(240-2)를 이용하여, 투사할 수 있다. 상기 통신 링크에 기반하여, 전자 장치(101) 및 외부 전자 장치(102)는, 상기 일 영역, 및/또는 상기 다른 영역을, 실질적으로 동시에, 투사할 수 있다. The
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트 분할 어플리케이션(260)이 실행된 상태 내에서, 사용자 신체 정보(261), 미디어 콘텐트 정보(262), 위치 관계 정보(263), 및/또는 공간 크기 정보(264)를 이용하여, 미디어 콘텐트의 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들을 표시할 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로, 상기 영역들을 나타내는 신호를 송신할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 상기 신호에 응답하여, 상기 하나 이상의 외부 전자 장치들(106) 각각에 대응하는 평면들 각각에, 상기 영역들 각각을, 표시할 수 있다. 전자 장치(101), 및 하나 이상의 외부 전자 장치들(106)은, 미디어 콘텐트를 분할하여, 복수의 평면들 내에, 상기 미디어 콘텐트의 상이한 영역들을 표시함으로써, 사용자에게, 몰입감있는, 증강 현실 서비스를 제공할 수 있다. As described above, the
이하, 도 3에서, 일 실시예에 따른 전자 장치(101)가 사용자의 신체 부위에 인접한 평면들을 식별하는 동작의 일 예가 후술된다. Hereinafter, in FIG. 3 , an example of an operation in which the
도 3은, 일 실시예에 따른 전자 장치가 사용자의 신체 부위에 인접한 평면을 식별하는 동작의 일 예를 도시한다. 도 3의 전자 장치(101)는, 도 1 내지 도 2의 전자 장치(101)를 포함할 수 있다. 도 3의 하나 이상의 외부 전자 장치들(106)은, 도 1 내지 도 2의 하나 이상의 외부 전자 장치들(106)을 포함할 수 있다. 도 3을 참고하면, 복수의 평면들(110, 120, 130, 140, 150)을 포함하는, 3차원 좌표계(3 dimensional coordinate system)에 기반한, 공간(100)의 일 예가 도시된다. FIG. 3 illustrates an example of an operation in which an electronic device identifies a plane adjacent to a user's body part, according to an embodiment. The
일 실시예에 따른 전자 장치(101)는 하나 이상의 외부 전자 장치들(106)과 통신 링크를 수립한 상태 내에서, 카메라(예, 도 2의 카메라(250-1), 및/또는 센서(미도시)를 이용하여, 공간(100) 내에 위치한 사용자(107)를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 공간(100) 내 사용자(107)를 식별한 것을 나타내는 신호를 수신할 수 있다. 전자 장치(101)는 신호에 응답하여, 사용자(107)를 식별할 수 있다. The
예를 들어, 전자 장치(101)는, 사용자(107)를 식별한 것에 기반하여, 사용자의 신체 부위들을 식별할 수 있다. 상기 사용자의 신체 부위들은, 머리(302), 오른팔(303), 왼팔(304), 다리(305)를 포함할 수 있다. 전자 장치(101)는, 카메라를 이용하여, 사용자(107)의 시선(301)을 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 시선(301)을 나타내는 신호에 응답하여, 상기 시선(301)을 식별할 수 있다. 예를 들어, 상기 시선(301)의 방향(예, z 방향)은, 사용자(107)의 방향을 포함할 수 있다. For example, the
예를 들어, 전자 장치(101)는 사용자의 신체 부위들을 식별한 것에 기반하여, 상기 사용자의 신체 부위들 각각에 인접한, 평면들(110, 120, 130, 140, 150), 및/또는 전자 장치들(예, 전자 장치(101), 또는 하나 이상의 외부 전자 장치들(106))을 식별할 수 있다. 전자 장치(101)는, 도 2의 위치 관계 정보(263)를 이용하여, 상기 사용자의 신체 부위들 각각에 인접한 평면들 및/또는 전자 장치들을 식별할 수 있다. For example, based on identifying the user's body parts, the
일 실시예에 따른 전자 장치(101)는, 사용자(107)의 시선(301)을 식별한 것에 기반하여, 상기 사용자의 시선(301)에 대응하는 제1 평면(110)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 시선(301)의 방향(예 z 방향)에 위치한 제1 평면(110)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 시선(301)의 방향(예, z 방향)에 수직인 방향(예, y 방향)을 포함하는 제1 평면(110)을 식별할 수 있다. 제1 평면(110)은 사용자(107)의 시선(301)에 대응하는 관점에서, 중심 영역으로 참조될 수 있다. The
예를 들어, 전자 장치(101)는, 사용자(107)의 머리(302)를 식별한 것에 기반하여, 머리(302)에 인접한 제2 평면(120), 및/또는 제1 외부 전자 장치(102)를 식별할 수 있다. 전자 장치(101)는, 사용자(예, 사용자의 몸)로부터 머리(302)로 향하는 방향(예, y 방향)에 위치한 제2 평면(120)을 식별할 수 있다. 제2 평면(120)은, 사용자(107)의 머리(302) 위에 위치하는 관점에서, 상단(top) 영역으로 참조될 수 있다. For example, based on identifying the
예를 들어, 전자 장치(101)는, 사용자(107)의 오른팔(303)을 식별한 것에 기반하여, 오른팔(303)에 인접한 제3 평면(130), 및/또는 제2 외부 전자 장치(103)를 식별할 수 있다. 전자 장치(101)는, 사용자(예, 사용자의 몸)로부터 오른팔(303)로 향하는 방향(예, x 방향)에 위치한 제3 평면(130)을 식별할 수 있다. 제3 평면(130)은, 사용자(107)의 오른쪽에 위치하는 관점에서, 우측(right) 영역으로 참조될 수 있다. For example, based on identifying the
예를 들어, 전자 장치(101)는, 사용자(107)의 왼팔(304)을 식별한 것에 기반하여, 왼팔(304)에 인접한 제4 평면(140), 및/또는 제3 외부 전자 장치(104)를 식별할 수 있다. 전자 장치(101)는, 사용자로부터 왼팔(304)로 향하는 방향(예, -x 방향)에 위치한 제4 평면(140)을 식별할 수 있다. 제4 평면(140)은, 사용자(107)의 왼쪽에 위치하는 관점에서, 좌측(left) 영역으로 참조될 수 있다. For example, the
예를 들어, 전자 장치(101)는, 사용자(107)의 다리(305)를 식별한 것에 기반하여, 다리(305)에 인접한 제5 평면(150), 및/또는 제4 외부 전자 장치(105)를 식별할 수 있다. 전자 장치(101)는 사용자로부터 다리(305)로 향하는 방향(예, y -방향)에 위치한 제5 평면(150)을 식별할 수 있다. 제5 평면(150)은, 사용자(107)의 아래에 위치하는 관점에서, 하단(bottom) 영역으로 참조될 수 있다. 도시하진 않았지만, 전자 장치(101)는, 사용자(107)의 후방(예, 시선 방향과 반대인 방향(-z 방향))에 위치한, 평면, 및/또는 하나 이상의 외부 전자 장치들(106) 중 적어도 하나를 식별할 수 있다. For example, based on identifying the
일 실시예에 따른, 사용자의 신체 부위들 각각에 대응하는 평면들을 식별하는 것과 독립적으로, 전자 장치(101)는, 사용자(107)를 식별한 것에 기반하여, 공간(100)을, 구분할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 머리 위에(over) 위치하는 제1 영역을 식별할 수 있다. 전자 장치(101)는, 머리 아래(under)에 위치하고, 사용자(107)의 팔을 포함하는 제2 영역을 식별할 수 있다. 전자 장치(101)는, 사용자(107)의 다리(305)를 포함하는 제3 영역을 식별할 수 있다. According to one embodiment, independently of identifying planes corresponding to each of the user's body parts, the
일 실시예에 따른 전자 장치(101)는, 위치 관계 정보(예, 도 2의 위치 관계 정보(263))를 이용하여, 사용자의 시선(301)을 식별한 것에 기반하여, 공간(100) 내 평면들(110, 120, 130, 140, 150) 및 사용자(107) 사이의 위치 관계를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자의 시선(301)이 제1 평면(110)에 매칭됨을 식별한 상태 내에서, 상기 위치 관계 정보를 이용하여, 사용자(107)를 기준으로, 평면들(120, 130, 140, 150)이 배치된 위치를 식별할 수 있다. The
예를 들어, 전자 장치(101)는, 사용자(107)의 시선(301)이 제1 평면(110)과 다른 평면에 매칭되는 것을 식별할 수 있다. 전자 장치(101)는 카메라를 이용하여, 사용자(107)의 시선(301) 방향이 변경되는 것을 식별할 수 있다. 일 예로, 전자 장치(101)는, 제3 평면(140)에 시선(301)이 매칭되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 시선(301)이 제3 평면(140)에 매칭되는 것을 식별한 상태 내에서, 제3 평면(140)을, 중심(center) 영역으로 식별할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 제3 평면(140)에 기반하여, 평면들(110, 120, 130, 150)의 위치 관계를 업데이트할 수 있다. 일 예로, 제3 평면(140)을 중심 영역으로 식별한 상태에서, 전자 장치(101)는, 제1 평면(110)을 좌측 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는 제2 평면(120)을 상단 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는, 제4 평면(130)을, 후방(rear) 영역으로 식별할 수 있다. 상기 상태에서, 전자 장치(101)는, 제5 평면(150)을, 하단 영역으로 식별할 수 있다. 다만 이에 제한되는 것은 아니다. For example, the
예를 들어, 전자 장치(101)는, 제1 평면(110)에 미디어 콘텐트의 영역들 중 상기 중심 영역에 대응하는 일 영역을 표시하는 상태 내에서, 상기 시선(301)의 방향이 변경되는 것을 식별한 것에 기반하여, 상기 제3 평면(130) 내에, 상기 일 영역을 표시하기 위한 신호를, 제3 외부 전자 장치(104)로 송신할 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 미디어 콘텐트 중 일 영역을 표시하는 동안, 상기 업데이트를 일시적으로 삼가할 수 있다. For example, the
상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 카메라를 이용하여, 공간(100)에 위치한 사용자(107)를 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로부터, 상기 사용자를 식별함을 나타내는 신호를 수신할 수 있다. 전자 장치(101)는, 상기 신호를 수신한 것에 기반하여, 공간(100) 내에서, 3차원 좌표계에 기반한, 사용자(107)의 위치를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(107)의 위치를 식별한 것에 기반하여, 공간(100) 내 평면들(110, 120, 130, 140, 150)을 구분할 수 있다. 전자 장치(101)는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 분할된 미디어 콘텐트의 상이한 영역들 각각을 표시하기위한 평면들(110, 120, 130, 140, 150)을 식별할 수 있다. 전자 장치(101)는, 평면들(110, 120, 130, 140, 150)의 위치 관계에 기반하여, 상기 미디어 콘텐트의 상이한 영역들을 매칭할 수 있다. 전자 장치(101)는, 평면들 및/또는 사용자 사이의 위치 관계를 이용하여, 상기 상이한 영역들을, 상기 평면들 내에, 표시하거나, 또는, 하나 이상의 외부 전자 장치들(106)로 상기 상이한 영역들을 표시하기 위한 신호를 송신할 수 있다. 전자 장치(101)는 사용자의 위치에 대응하여, 상기 상이한 영역들을, 평면들 내에 표시함으로써, 사용자(107)와 상호작용을 나타내는 증강 현실 서비스를 제공할 수 있다. 이하, 도 4에서, 평면들(110, 120, 130, 140, 150), 및 사용자(107) 사이의 위치 관계에 기반하여, 미디어 콘텐트의 영역들을 식별하는 동작의 일 예를 후술한다. As described above, the
도 4는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들을 구분하는 동작의 일 예를 도시한다. 도 4의 전자 장치(101)는, 도 1 내지 도 3의 전자 장치(101)를 포함할 수 있다. FIG. 4 illustrates an example of an operation in which an electronic device divides areas of media content, according to an embodiment. The
도 4를 참고하면, 일 실시예에 따른 전자 장치(101)는, 메모리 내에 저장된 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 이용하여, 미디어 콘텐트(405)를 획득할 수 있다. 예를 들어, 미디어 콘텐트(405)는, 하나 이상의 시각적 객체들을 포함할 수 있다. 전자 장치(101)는, 하나 이상의 시각적 객체들(415, 425, 435, 445, 455)을 식별한 것에 기반하여, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는 미디어 콘텐트(405) 내에 포함된 하나 이상의 픽셀들 사이의 유사도(similarity)를 나타내는 파라미터에 기반하여, 상기 영역들을 획득할 수 있다. 전자 장치(101)는 미디어 콘텐트(405) 내에 포함된 시각적 객체를 감지(detection)하거나, 인식(recognition)하는 것에 기반하여, 상기 영역들을 획득할 수 있다. Referring to FIG. 4, the
일 실시예에 따른 전자 장치(101)는, 시각적 객체의 유형(type)에 기반하여, 영역들을 획득할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 시각적 객체(425)를 식별할 수 있다. 전자 장치(101)는, 시각적 객체(425)의 유형(예, 하늘, 또는 천장)을 식별한 것에 기반하여, 미디어 콘텐트(405)의 제2 영역(420)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 제2 영역(420)을 획득한 것에 기반하여, 제2 영역(420)에 대응하는, 공간(예, 도 1의 공간(100)) 내 제2 평면(120)을 식별할 수 있다. 전자 장치(101)는, 상기 시각적 객체(425)의 유형에 기반하여, 제2 영역(420)을, 제2 평면(예, 도 3의 제2 평면(120))에 매칭할 수 있다. 예를 들어, 미디어 콘텐트(405) 내에서, 제2 영역(420)의 위치에 기반하여, 전자 장치(101)는, 제2 영역(420)을 상기 제2 평면에 매칭할 수 있다. The
예를 들어, 전자 장치(101)는, 시각적 객체(455)를 식별할 수 있다. 전자 장치(101)는, 시각적 객체(455)의 유형(예, 땅, 풀, 또는 바닥)에 기반하여, 제5 영역(450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 유형에 기반하여, 제5 영역(450)을 도 3의 제5 평면(150)에 매칭할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제5 영역(450)의 위치에 기반하여, 제5 영역(450)을, 상기 제5 평면에 표시되도록, 설정(set)할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 시각적 객체(415, 435, 445)의 유형(예, 인물, 나무, 사물, 벽, 또는 건물)에 기반하여, 영역들(410, 430, 440)을 획득할 수 있다. 전자 장치(101)는, 상기 유형에 기반하여, 영역들(410, 430, 440) 각각을, 도 3의 제1 평면(110), 제3 평면(130), 및/또는 제4 평면(140)에 매칭시킬 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제1 영역(410)의 위치에 기반하여, 상기 제1 평면에 매핑할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제3 영역(430)의 위치에 기반하여, 상기 제3 평면에 매핑할 수 있다. 전자 장치(101)는, 미디어 콘텐트(405) 내에서, 제4 영역(440)의 위치에 기반하여, 상기 제4 평면에 매핑할 수 있다. 다만, 이에 제한되는 것은 아니다. For example, the
예를 들어, 전자 장치(101)는, 지정된 사이즈에 기반하여, 미디어 콘텐트(405)의 제1 영역(410)을 식별할 수 있다. 제1 영역(410)은 사용자의 시선(예, 도 3의 시선(301))에 대응하는 제1 평면(예, 도 3의 제1 평면(110))에 표시될 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264), 및/또는 위치 관계 정보(263)를 이용하여, 제1 영역(410)을 획득할 수 있다. 다만, 이에 제한되는 것은 아니다. For example, the
예를 들어, 전자 장치(101)는, 미디어 콘텐트(405) 내에 적어도 하나의 시각적 객체가 포함되지 않은 경우, 미디어 콘텐트(405)를, 제1 영역(410) 내에 포함할 수 있다. For example, the
일 실시예에 따른, 전자 장치(101)는, 도 2의 위치 관계 정보(263), 및/또는 도 2의 공간 크기 정보(264)를 이용하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264)를 이용하여, 미디어 콘텐트(405)의 영역들을 분할할 수 있다. 예를 들어, 전자 장치(101)는, 공간(예, 도 1의 공간(100)) 내 도 1의 제1 평면(110) 내에 표시될, 제1 영역(410)을 획득할 수 있다. 전자 장치(101)는, 제1 영역(410)을 획득한 것에 기반하여, 상기 위치 관계 정보(263)를 이용하여, 영역들(420, 430, 440, 450)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))의 개수에 기반하여, 미디어 콘텐트(405)의 영역들의 개수를 조절할 수 있다. 다만, 이에 제한되는 것은 아니다. According to one embodiment, the
일 실시예에 따른 전자 장치(101)는, 영역들(410, 420, 430, 440, 450)을 획득한 것에 기반하여, 상기 영역들이 표시될 평면들(도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들 내에 포함된 시각적 객체의 유형에 기반하여, 상기 영역들을, 상기 평면들 각각에 매핑할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들의 위치 관계를 식별한 것에 기반하여, 상기 평면들 각각에 매핑할 수 있다. 다만 이에 제한되는 것은 아니다. The
상술한 바와 같이 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트(405) 내에 포함된 시각적 객체들(415, 425, 435, 445, 455)를 식별한 것에 기반하여, 미디어 콘텐트(405)의 영역들(410, 420, 430, 440, 450)을 획득할 수 있다. 전자 장치(101)는, 상기 영역들을 획득한 것에 기반하여, 상기 영역들 각각에 대응하는 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치(101)는, 상기 영역들 각각에 대응하는 상기 평면들로 광을 투사할 하나 이상의 외부 전자 장치들(106)을 식별할 수 있다. 전자 장치(101)는, 상기 영역들을 표시하기 위한 신호를 상기 하나 이상의 외부 전자 장치들(106)로 송신할 수 있다. 전자 장치(101)는 공간의 평면들 각각에 대응하는 하나 이상의 외부 전자 장치들을 제어하여, 상기 영역들을 표시함으로써, 공간에 최적화된 가상 공간 환경을 제공할 수 있다. As described above, the
도 5는, 일 실시예에 따른 전자 장치 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다. 도 5의 전자 장치(101)는, 도 1내지 도 4의 전자 장치(101)를 포함할 수 있다. 도 5의 제1 외부 전자 장치(102), 및/또는 도 5의 제2 외부 전자 장치(103)는, 도 1 내지 도 4의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나에 대응할 수 있다. 도 5를 참고하면, 일 실시예에 따른 전자 장치(101), 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103) 사이에서, 송수신하는 신호를 나타내는 신호 흐름도가 도시된다. FIG. 5 shows an example of a signal flow diagram between an electronic device and an external electronic device according to an embodiment. The
일 실시예에 따른 전자 장치(101)는, 동작 501에서, 위치 관계를 식별할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))로부터, 공간(예, 도 1의 공간(100)) 내에서, 하나 이상의 외부 전자 장치들 각각의 위치를 식별할 수 있다. 전자 장치(101)는, 도 2의 위치 관계 정보(263)를 이용하여, 상기 위치 관계를 식별할 수 있다. 전자 장치(101)는 위치 관계를 식별한 것에 기반하여, 상기 공간의 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150)) 각각에 대응하는 하나 이상의 외부 전자 장치들 각각을 식별할 수 있다. 예를 들어, 전자 장치(101)는 제2 평면(예, 도 1의 제2 평면(120))내에 광을 투사하는 제1 외부 전자 장치(102)를 식별할 수 있다. 전자 장치(101)는, 제3 평면(예, 도 1의 제3 평면(130))내에 광을 투사하는 제2 외부 전자 장치(103)를 식별할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 동작 502에서, 카메라(예, 도 2의 카메라(250-1))를 이용하여 사용자를 식별할 수 있다. 예를 들어, 상기 사용자는 공간(예, 도 1의 공간(100)) 내에 위치할 수 있다. 제1 외부 전자 장치(102)는, 동작 503에서, 제1 외부 전자 장치(102)의 카메라(예, 도 2의 카메라(250-2))를 이용하여, 상기 사용자를 식별할 수 있다. 제2 외부 전자 장치(103)는, 동작 504에서, 제2 외부 전자 장치(103)의 카메라를 이용하여 상기 사용자를 식별할 수 있다. 예를 들어, 전자 장치(101), 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103) 각각이 식별한 사용자의 형태는 상이할 수 있다. 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103)는, 전자 장치로, 사용자의 형태, 및/또는 위치를 나타내는 신호(507, 508)를 송신할 수 있다. 전자 장치(101) 제1 외부 전자 장치(102), 및/또는 제2 외부 전자 장치(103)로부터 수신한 신호(507, 508)에 기반하여, 상기 공간 내에서, 3차원 좌표계에 기반한, 사용자의 위치를 식별할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 동작 511에서, 사용자 신체 정보(예, 도 2의 사용자 신체 정보(261))를 획득할 수 있다. 전자 장치(101)는, 상기 사용자의 위치를 식별한 것에 기반하여, 사용자의 신체 부위를 식별할 수 있다. 전자 장치(101)는, 상기 사용자 신체 정보를 획득한 것에 기반하여, 상기 사용자의 상기 신체 부위에 인접한 공간(예, 도 1의 공간(100))의 평면들을 식별할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 동작 512에서, 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 식별할 수 있다. 상기 미디어 콘텐트 정보는, 통신 회로를 이용하여 적어도 하나의 서버로부터 수신하거나, 또는 전자 장치(101)의 메모리 내에 저장된 정보의 일 예일 수 있다. 전자 장치(101)는, 미디어 콘텐트 정보를 이용하여, 미디어 콘텐트(예, 도 4의 미디어 콘텐트(405))를 식별할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 동작 513에서, 미디어 콘텐트의 영역들을 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트 내에 포함된 적어도 하나의 시각적 객체를 식별하는 것에 기반하여 미디어 콘텐트의 영역들(예, 도 4의 영역들(410, 420, 430, 440, 450))을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 위치 관계에 기반하여, 상기 영역들을 획득할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들의 개수에 기반하여, 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 제1 외부 전자 장치(102), 및 제2 외부 전자 장치(103)를 식별한 것에 기반하여, 영역들의 개수(예, 3개)에 기반하여, 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 영역들을, 제1 평면(예, 도 1의 제1 평면(110))에 표시할 제1 영역(예, 도 4의 제1 영역(410)) 및, 제2 평면(예, 도 1의 제2 평면(120))에 표시할 제2 영역(예, 도 4의 제2 영역(420))으로 구분할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 상기 영역들 각각에 대응하는 하나 이상의 외부 전자 장치들(예, 도 1의 하나 이상의 외부 전자 장치들(106))로 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제2 영역에 대한 신호(514)를 제1 외부 전자 장치(102)로 송신할 수 있다. 전자 장치(101)는, 미디어 콘텐트의 영역들 중 제3 영역(예, 도 4의 제3 영역(430))이 포함되지 않는 경우, 제2 외부 전자 장치(103)로, 제2 외부 전자 장치(103)의 프로젝션 어셈블리의 구동을 일시적으로 중단하기 위한 신호(515)를 송신할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 동작 518에서, 제1 영역을, 제1 평면에 표시할 수 있다. 전자 장치(101)는, 전자 장치(101)의 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 제1 평면 내에, 미디어 콘텐트의 영역들 중 제1 영역을 표시할 수 있다. 예를 들어, 제1 외부 전자 장치(102)는, 동작 519에서, 제2 영역을 제2 평면에 표시할 수 있다. 제1 외부 전자 장치(102)는, 신호(514)에 응답하여, 제1 외부 전자 장치(102)의 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-2))를 제어하여, 제2 영역을, 제2 평면에 표시할 수 있다. The
예를 들어, 제2 외부 전자 장치(103)는, 동작 520에서, 적어도 하나의 화면을 표시하는 것을 일시적으로 중단할 수 있다. 제2 외부 전자 장치(103)는, 신호(515)에 응답하여, 제2 외부 전자 장치(103)의 프로젝션 어셈블리의 기능을 수행하는 것을 일시적으로 중단할 수 있다. 다만 이에 제한되는 것은 아니다. 전자 장치(101)가, 미디어 콘텐트의 영역들에 대한 신호들을, 하나 이상의 외부 전자 장치들(106) 각각으로 송신하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 기능을 일시적으로 제어하는 동작은, 도 6a 내지 도 6b에서 후술한다. For example, the second external
도 6a 내지 도 6b는, 일 실시예에 따른 전자 장치가 미디어 콘텐트의 영역들에 대응하는 평면에 화면을 표시하는 동작의 일 예를 도시한다. 도 6a 내지 도 6b의 전자 장치(101)는, 도 1 내지 도 5의 전자 장치(101)를 포함할 수 있다. 도 6a 내지 도 6b의 하나 이상의 외부 전자 장치들(106)은, 도 1 내지 도 5의 하나 이상의 외부 전자 장치들(106)의 일 예일 수 있다. 도 6a 내지 도 6b를 참고하면, 일 실시예에 따른 전자 장치(101) 및 하나 이상의 외부 전자 장치들(106)이 포함된 공간(100)이 도시된다. 공간(100)은 도 3의 공간(100)에 참조될 수 있다. FIGS. 6A and 6B illustrate an example of an operation in which an electronic device displays a screen on a plane corresponding to areas of media content, according to an embodiment. The
도 6a를 참고하면, 상태(600)에서, 일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트 정보(예, 도 2의 미디어 콘텐트 정보(262))를 이용하여, 미디어 콘텐트(610)를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 미디어 콘텐트(610)의 영역들을 구분할 수 있다. 전자 장치(101)는, 미디어 콘텐트(610) 내에 포함된 시각적 객체(예, 도 4의 시각적 객체들(425, 455))에 기반하여, 상기 영역들을 구분할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들을 구분하기 위한 시각적 객체를 식별하지 못한 경우, 미디어 콘텐트(610) 전체를, 하나의 영역으로 식별할 수 있다. 전자 장치(101)는, 공간(100)의 평면들(예, 도 1의 평면들(120, 130, 140, 150))내에 표시될 영역들을 구분하는 것을 일시적으로 삼가할 수 있다. 예를 들어, 미디어 콘텐트(610) 내에 시각적 객체(예, 도 4의 시각적 객체(425))의 유형을 식별하지 못한 경우, 전자 장치(101)는, 미디어 콘텐트의 영역들 중, 제2 평면(예, 도 1의 제2 평면(120)) 내에 표시될 영역의 분할을 일시적으로 중단할 수 있다. 다만, 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 미디어 콘텐트(610)의 특징(feature)에 기반하여, 영역들을 분할할 수 있다. 전자 장치(101)는, 미디어 콘텐트 정보를 이용하여, 클로즈-업(close-up)에 기반한 화면을 포함하는, 미디어 콘텐트(610)를 식별할 수 있다. 전자 장치(101)는, 상기 화면을 식별하는 것에 기반하여, 사용자(예, 도 1의 사용자(107))의 시선(예, 도 3의 시선(301))에 대응하는 제1 평면(110) 내에, 미디어 콘텐트(610) 전체를 표시할 수 있다. Referring to FIG. 6A, in
일 실시예에 따른 전자 장치(101)는, 적어도 하나의 외부 서버로부터, 미디어 콘텐트(610)를 나타내는 정보(예, 도 2의 미디어 콘텐트 정보(262))를 수신할 수 있다. 예를 들어, 상기 적어도 하나의 외부 서버는, 스트리밍 서비스를 제공하기 위해 이용될 수 있다. 전자 장치(101)는, 상기 적어도 하나의 외부 서버로부터, 상기 미디어 콘텐트(610)의 영역들을 획득하기 위한 정보를 요청할 수 있다. The
예를 들어, 상기 적어도 하나의 외부 서버는, 게임 서비스를 제공하기 위해 이용될 수 있다. 전자 장치(101)는, 상기 게임 서비스를 이용하는 사용자(예, 도 1의 사용자(107))에 의한, 미디어 콘텐트(610)의 변경을 식별할 수 있다. 상기 미디어 콘텐트(610)의 변경은, 상기 게임 서비스 내에서, 사용자를 표현하는 아바타의 시선이 변경되는 것에 의해, 식별될 수 있다. 다만, 이에 제한되는 것은 아니다. 전자 장치(101)는, 상기 게임 서비스를 제공하는 적어도 하나의 서버부터, 상기 미디어 콘텐트(610)의 변경에 대응하여, 미디어 콘텐트(610)의 영역들을 획득하기 위한 정보를 요청하는 신호를 송신할 수 있다. 전자 장치(101)는, 상기 신호에 대한 응답으로써, 적어도 하나의 외부 서버로부터, 다른 신호를 수신하는 것에 기반하여, 상기 영역들을 획득할 수 있다. For example, the at least one external server may be used to provide a game service. The
예를 들어, 전자 장치(101)는, 카메라를 이용하여, 공간(100) 내에 위치하는 사용자(예, 도 1의 사용자(107))의 시선 이동을 식별할 수 있다. 전자 장치(101)는, 상기 시선 이동을 식별한 것에 기반하여, 상기 게임 서비스를 제공하는 적어도 하나의 외부 서버로, 미디어 콘텐트의 변경을 요청하는 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 신호의 응답으로써, 미디어 콘텐트(610)와 다른 미디어 콘텐트를 나타내는 정보를 수신할 수 있다. 상기 다른 미디어 콘텐트는, 상기 게임 서비스 내에서, 상기 사용자를 표현하는 아바타의 시선 이동이 변경된 상태를 포함할 수 있다. 다만 이에 제한되지 않는다. For example, the
일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)으로, 적어도 하나의 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 미디어 콘텐트(610) 전체를, 제1 평면(110) 내에, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 표시할 수 있다. 전자 장치(101)는, 상기 미디어 콘텐트(610) 전체를, 표시하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)로 적어도 하나의 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리를 제어하기 위한 신호를 송신할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리의 기능을 일시적으로 삼가하기 위한 신호(예, 도 5의 신호(515))를 송신할 수 있다. 전자 장치(101)는, 상기 신호를 송신하는 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 기능 중 적어도 일부를, 일시적으로 제한할 수 있다. 하나 이상의 외부 전자 장치들(106)은, 상기 신호에 응답하여, 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리를 제어하여, 적어도 하나의 화면의 표시를 일시적으로 삼가할 수 있다. 다만 이에 제한되지 않는다. The
일 실시예에 따른 전자 장치(101)는, 미디어 콘텐트(610) 전체를, 제1 평면(110) 내에, 표시할 수 있다. 전자 장치(101)는, 도 2의 공간 크기 정보(264)에 기반하여, 제1 평면(110) 내에 표시될 미디어 콘텐트(610)의 사이즈를 식별할 수 있다. 전자 장치(101)는, 상기 식별된 사이즈에 기반하여, 제1 평면(110) 내에, 미디어 콘텐트(610)를 표시할 수 있다. The
도 6b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 상태(605)에서, 도 2의 미디어 콘텐트 정보(262)에 기반하여, 미디어 콘텐트(611)를 식별할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611)를 식별한 것에 기반하여, 미디어 콘텐트(611)의 영역들(615, 625, 635, 645, 655)을 획득할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611) 내에 포함된 시각적 객체의 유형에 기반하여, 상기 영역들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 적어도 하나의 시각적 객체(예, 인물)를 식별한 것에 기반하여, 제1 영역(615)을 획득할 수 있다. 전자 장치(101)는, 공간 크기 정보를 이용하여, 제1 영역(615)의 사이즈를 획득할 수 있다. 전자 장치(101)는, 상기 사이즈에 기반한 제1 영역(615)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 일 예로, 전자 장치(101)는, 제1 영역(615)과 상이한 영역들(625, 635, 645, 655)을 획득한 이후, 남은 영역인 제1 영역(615)을 획득할 수 있다. Referring to FIG. 6B , the
예를 들어, 전자 장치(101)는, 시각적 객체(예, 천장)을 식별한 것에 기반하여, 제2 영역(625)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 시각적 객체들(예, 벽)을 식별한 것에 기반하여, 제3 영역(635), 및/또는 제4 영역(645)을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 시각적 객체(예, 박스들)을 식별한 것에 기반하여, 제5 영역(655)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101)는, 공간 크기 정보에 기반하여, 미디어 콘텐트(611)의 영역들(615,625, 635, 645, 655)을 획득할 수 있다. For example, the
일 실시예에 따른 전자 장치(101)는, 영역들(615, 625, 635, 645, 655)을 식별한 것에 기반하여, 제1 영역(615)을, 제1 평면(110) 내에, 표시할 수 있다. 전자 장치(101)는, 프로젝션 어셈블리를 제어하여, 제1 영역(615)에 대응하는 제1 화면(615-1)을 표시할 수 있다. 전자 장치(101)는, 공간 크기 정보에 기반하여, 제1 화면(615-1)의 크기를 조절할 수 있다. The
일 실시예에 따른 전자 장치(101)는, 하나 이상의 외부 전자 장치들(106)로, 영역들(625, 635, 645, 655)을 표시하기 위한 신호를, 송신할 수 있다. 예를 들어, 전자 장치(101)는, 영역들(625, 635, 645, 655)에 대응하는 화면들(625-1, 635-1, 645-1, 655-1)의 크기를 나타내는 신호를 송신할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 공간 크기 정보(264)에 기반하여, 상기 화면들의 크기를 식별할 수 있다. The
예를 들어, 전자 장치(101)는, 제2 외부 전자 장치(102)로, 제2 영역(625)을 표시하기 위한 신호(예, 도 5의 신호(514))를 송신할 수 있다. 제2 외부 전자 장치(102)는, 제2 평면(120) 내에, 제2 영역(625)에 대응하는 제2 화면(625-1)을 표시할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 제3 외부 전자 장치(103)로, 제3 영역(635)을 표시하기 위한 신호를 송신할 수 있다. 제3 외부 전자 장치(103)는, 제3 평면(130) 내에, 제3 영역(635)에 대응하는 제3 화면(635-1)을 표시할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 제4 외부 전자 장치(104)로, 제4 영역(645)을 표시하기 위한 신호를 송신할 수 있다. 제4 외부 전자 장치(104)는, 제4 평면(140) 내에, 제4 영역(645)에 대응하는 제4 화면(645-1)을 표시할 수 있다. For example, the
예를 들어, 전자 장치(101)는, 제5 외부 전자 장치(105)로, 제5 영역(655)을 표시하기 위한 신호를 송신할 수 있다. 제5 외부 전자 장치(105)는, 제5 평면(150) 내에, 제5 영역(655)에 대응하는 제5 화면(655-1)을 표시할 수 있다. For example, the
일 실시예에 따른 전자 장치(101)는, 2차원에 기반한 미디어 콘텐트(611)를, 3차원에 기반한, 공간(100) 내에, 표시하기 위해, 미디어 콘텐트(611)의 영역들(615, 625, 635, 645, 655) 중 적어도 하나를 변경할 수 있다. 예를 들어, 전자 장치(101)는, 상기 영역들에 포함된 픽셀들 및, 공간(100)의 평면들 사이의 관계를 나타내는 파라미터에 기반하여, 상기 적어도 하나를 변경할 수 있다. 예를 들어, 상기 파라미터는, 캘리브레이션(calibration)을 수행하기 위해 이용되는 데이터에 참조될 수 있다. 상기 캘리브레이션은, 3차원 좌표계에 기반한 일 지점 및 2차원 좌표계에 기반한 일 지점 사이를 매핑하기 위해 이용될 수 있다. 전자 장치(101)는, 캘리브레이션을 수행함으로써, 영역들(615, 625, 635, 645, 655)의 왜곡을, 보정할 수 있다. 전자 장치(101)는, 상기 영역들의 왜곡을 보정하는 것에 기반하여, 화면들(615-1, 625-1, 635-1, 645-1, 655-1)을 획득할 수 있다. 다만 이에 제한되는 것은 아니다. 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106)은, 키스톤 기능을 수행하는 것에 기반하여, 화면들(615-1, 625-1, 635-1, 645-1, 655-1)을 평면들(110, 120, 130, 140, 150) 각각에, 표시할 수 있다. 상기 키스톤 기능은, 전자 장치(101) 및 평면(110) 사이의 각도에 기반하여, 화면(615-1)의 비율, 화면(615-1)의 형태를 보정하는 기능을 의미할 수 있다. 다만, 이에 제한되는 것은 아니다. The
상술한 바와 같이 전자 장치(101)는, 하나의 미디어 콘텐트(611)를 하나 이상의 영역들(615, 625, 635, 645, 655)로 분할함으로써, 3차원 공간(100) 내에, 상기 하나 이상의 영역들을 표시할 수 있다. 전자 장치(101)는, 상기 하나 이상의 영역들을 분할한 것에 기반하여, 하나 이상의 외부 전자 장치들(106)의 동작들 중 일부를 제어할 수 있다. 전자 장치(101)는, 상기 영역들의 개수에 따라, 공간(100) 내에서 표시할 화면의 개수를 조절할 수 있다. 전자 장치(101)는, 미디어 콘텐트(611)의 특징에 기반하여, 영역들의 개수를 조절함으로써, 통신 링크를 통해 동기화된 하나 이상의 외부 전자 장치들(106)을 제어할 수 있다. 전자 장치(101)는, 영역들의 개수를 조절함으로써, 전자 장치(101), 및/또는 하나 이상의 외부 전자 장치들(106)의 프로젝션 어셈블리의 구동을 적어도 일시적으로 삼가함으로써, 발열량을 조절할 수 있다. As described above, the
도 7은, 일 실시예에 따른 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다. 도 7의 동작들 중 적어도 일부는 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210-1)에 의해 수행될 수 있다. 도 7의 동작들 각각은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 동작들 각각의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수 있다.FIG. 7 shows an example of a flowchart illustrating operations performed by an electronic device according to an embodiment. At least some of the operations of FIG. 7 may be performed by the
도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 710에서, 통신 회로를 이용하여, 프로젝션 어셈블리를 포함하는 외부 전자 장치를 식별하는 것에 기반하여, 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 외부 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 예를 들어, 전자 장치는, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-2))를 포함하는 하나 이상의 외부 전자 장치들(도 1의 하나 이상의 외부 전자 장치들(106)) 중 적어도 하나를 식별할 수 있다. 전자 장치는 상기 적어도 하나로부터, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(예, 도 1의 공간(100))에 배치된 위치를 나타내는 신호를 수신할 수 있다. 전자 장치는 상기 위치 관계를 획득한 것에 기반하여, 도 2의 위치 관계 정보(263)를 식별할 수 있다. Referring to FIG. 7, in
도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 720에서, 제1 평면 및 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 제1 평면 및 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 전자 장치는, 카메라를 이용하여, 사용자(예, 도 1의 사용자(107))의 신체 부위들(예, 도 3의 신체 부위들(302, 303, 304, 305)) 각각에 인접한 평면들(예, 도 1의 평면들(110, 120, 130, 140, 150))을 식별할 수 있다. 전자 장치는, 도 2의 미디어 콘텐트 분할 어플리케이션(260)의 실행에 기반하여, 상기 획득한 정보를 이용하여, 미디어 콘텐트(예, 도 6b의 미디어 콘텐트(611))의 영역들(예, 도 6b의 영역들(615, 625, 635, 645, 655))을 획득할 수 있다. Referring to FIG. 7, in
도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 730에서, 정보에 기반하여, 미디어 콘텐트의 상이한 영역들 중 제1 영역을, 제1 평면 내에 표시할 수 있다. 전자 장치는, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 제어하여, 제1 평면 내에, 제1 영역에 대응하는 제1 화면(예, 도 6b의 제1 화면(615-1))을 표시할 수 있다. Referring to FIG. 7 , in
도 7을 참고하면, 일 실시예에 따른 전자 장치는, 동작 740에서, 정보에 기반하여 통신 회로를 이용하여, 외부 전자 장치로, 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. 예를 들어, 상기 신호는, 도 5의 신호(514)에 참조될 수 있다. 상기 외부 전자 장치는, 상기 신호에 응답하여, 상기 제2 영역을, 상기 제2 평면 내에 표시할 수 있다. Referring to FIG. 7, in
도 8은, 일 실시예에 따른 외부 전자 장치가 수행하는 동작을 나타내는 흐름도의 일 예를 도시한다. 도 8의 동작들 중 적어도 일부는 도 2의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나, 및/또는 상기 적어도 하나의 프로세서(예, 도 2의 프로세서(210-2))에 의해 수행될 수 있다. 도 8의 동작들 각각은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 동작들 각각의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수 있다. FIG. 8 shows an example of a flowchart illustrating operations performed by an external electronic device according to an embodiment. At least some of the operations of FIG. 8 may be performed by at least one of the one or more external
도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 810에서, 통신 회로(예, 도 2의 통신 회로(230-2))를 이용하여, 프로젝션 어셈블리(예, 도 2의 프로젝션 어셈블리(240-1))를 포함하는 외부 전자 장치(예, 도 1의 전자 장치(101))를 식별하는 것에 기반하여, 외부 전자 장치로 공간(예, 도 1의 공간(100)) 내 전자 장치(예, 도 1의 하나 이상의 외부 전자 장치들(106) 중 적어도 하나)의 위치를 나타내는 신호를 송신할 수 있다. Referring to FIG. 8, in
도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 820에서, 카메라를 이용하여, 공간 내 사용자의 신체 부위를 식별한 것에 기반하여, 외부 전자 장치로 사용자의 신체 부위를 나타내는 신호를 송신할 수 있다. 전자 장치는 공간의 평면들 각각에 인접한 사용자(예, 도 1의 사용자(107))의 신체 부위들 각각을 식별하는 것에 기반하여, 상기 신호(예, 도 5의 신호(507, 508))를 송신할 수 있다. 외부 전자 장치는 상기 신호에 응답하여, 사용자 신체 정보(예, 도 2의 사용자 신체 정보(261))를 획득할 수 있다. Referring to FIG. 8, in
도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 830에서, 외부 전자 장치로부터, 미디어 콘텐트의 상이한 영역들 중 일 영역을, 공간 내 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 일 평면에, 표시하기위한 신호(도 5의 신호(514))를 수신할 수 있다. 예를 들어, 외부 전자 장치는, 전자 장치로, 적어도 하나의 화면을 표시하는 것을 일시적으로 중단하기 위한 신호(515)를 송신할 수 있다. 전자 장치는 상기 신호(515)에 응답하여, 전자 장치의 프로젝션 어셈블리를 제어하여 광을 투사하는 것을 일시적으로 삼가할 수 있다. Referring to FIG. 8 , in
도 8을 참고하면, 일 실시예에 따른 전자 장치는 동작 840에서, 신호를 수신한 것에 응답하여, 프로젝션 어셈블리를 제어하여 일 평면 내에, 일 영역을 표시할 수 있다. 예를 들어, 전자 장치는, 미디어 콘텐트(예, 도 6b의 미디어 콘텐트(611))의 상이한 영역들(예, 도 6b의 영역들(625, 635, 645, 655)) 중 일 영역에 대응하는 일 평면(예, 도 6b의 평면들(120, 130, 140, 150) 중 하나) 내에, 표시할 수 있다. Referring to FIG. 8 , in
도 9는, 메타버스 서비스와 관련된 네트워크 환경에 대한 예시도이다. 메타버스(Metaverse)는 '가상', '초월'을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회·경제·문화 활동이 이뤄지는 3차원의 가상세계를 가리킨다. 메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회·문화적 활동을 할 수 있다는 특징이 있다. 메타버스 서비스는, 증강 현실(augmented reality, AR), 가상 현실(virtual reality environment, VR), 혼합 현실(mixed environment, MR) 및/또는 확장 현실(extended reality, XR)에 기반하여, 상기 가상 세계에 대한 몰입을 강화하기 위한 미디어 콘텐트를 제공할 수 있다.Figure 9 is an example diagram of a network environment related to the metaverse service. Metaverse is a compound word of the English word 'Meta', meaning 'virtual' or 'transcendence', and 'Universe', meaning universe. It is a combination of social, economic and cultural activities similar to the real world. It refers to a three-dimensional virtual world. Metaverse is a concept that is one step more advanced than virtual reality (VR, a cutting-edge technology that allows people to experience life-like experiences in a virtual world created on a computer), and is a concept that uses avatars to simply enjoy games or virtual reality. Not only that, it has the characteristic of being able to engage in social and cultural activities similar to actual reality. The Metaverse service is based on augmented reality (AR), virtual reality environment (VR), mixed reality (MR), and/or extended reality (XR), and creates the virtual world. Media content can be provided to enhance immersion.
예를 들어, 메타버스 서비스에 의해 제공되는 미디어 콘텐트는, 아바타에 기반하는 게임, 콘서트, 파티 및/또는 회의를 포함하는 소셜 인터랙션(social interaction) 콘텐트를 포함할 수 있다. 예를 들어, 상기 미디어 콘텐트는, 광고, 사용자 제작 콘텐트(user created content) 및/또는 제작물의 판매 및/또는 쇼핑과 같은 경제 활동을 위한 정보를 포함할 수 있다. 상기 사용자 제작 콘텐트의 소유권은 블록체인 기반의 NFT(non-fungible token)에 의하여 증명될 수도 있다. 메타버스 서비스는, 실물 화폐 및/또는 암호 화폐에 기반하는 경제 활동을 지원할 수 있다. 메타버스 서비스에 의하여, 디지털 트윈(digital twin) 또는 라이프 로깅(life logging)과 같이, 현실 세계와 연계된 가상 콘텐트가 제공될 수 있다.For example, media content provided by the metaverse service may include social interaction content including avatar-based games, concerts, parties, and/or meetings. For example, the media content may include advertisements, user created content, and/or information for economic activities such as selling products and/or shopping. Ownership of the user-created content may be proven by a blockchain-based non-fungible token (NFT). Metaverse services can support economic activities based on real currency and/or cryptocurrency. Through the metaverse service, virtual content linked to the real world, such as digital twin or life logging, can be provided.
도 9은 서버(910)를 통해 메타버스 서비스를 제공받는 네트워크 환경(901)에 대한 예시도이다.Figure 9 is an example diagram of a
도 9을 보면, 네트워크 환경(901)은, 서버(910), 사용자 단말(920)(예, 제1 단말(920-1) 및 제2 단말(920-2)), 및 서버(910) 와 사용자 단말(920)을 연결하는 네트워크를 포함할 수 있다. 네트워크 환경(901) 내에서, 서버(910)는 사용자 단말(920)로 메타버스 서비스를 제공할 수 있다. 네트워크는, AP(access point), 및/또는 기지국을 포함하는 적어도 하나의 중간 노드(930)에 의해 형성될 수 있다. 사용자 단말(920)은, 네트워크를 통해 서버(910)로 접속하여, 사용자 단말(920)의 사용자에게 메타버스 서비스와 관련된 UI(user interface)를 출력할 수 있다. 상기 UI에 기반하여, 사용자 단말(920)은 사용자로부터 메타버스 서비스로 입력될 정보를 획득하거나, 또는 사용자에게 메타버스 서비스와 관련된 정보(예, 멀티미디어 콘텐트)를 출력할 수 있다. Referring to FIG. 9, the
이때, 서버(910)는 가상 공간을 제공하여 사용자 단말(920)이 가상 공간에서 활동을 할 수 있도록 한다. 또한, 사용자 단말(920)은 서버(910)가 제공하는 가상 공간에 접속하기 위한 S/W 에이전트를 설치하여 서버(910)가 사용자에게 제공하는 정보를 표현하거나, 사용자가 가상 공간에서 표현하고자 하는 정보를 서버로 전송한다. 상기 S/W 에이전트는 서버(910)를 통해서 직접 제공받거나, 공용 서버로부터 다운로드받거나, 단말 구매시에 임베딩되어 제공될 수 있다. At this time, the
일 실시예에서, 메타버스 서비스는, 서버(910)를 이용하여 사용자 단말(920) 및/또는 사용자에게 서비스가 제공될 수 있다. 실시예가 이에 제한되는 것은 아니며, 메타버스 서비스는 사용자들 사이의 개별적인 접촉을 통해 제공될 수 있다. 예를 들어, 네트워크 환경(901) 내에서, 메타버스 서비스는 서버(910)와 독립적으로, 제1 단말(920-1) 및 제2 단말(920-2) 사이의 직접적인 연결에 의해 제공될 수 있다. 도 9을 참고하면, 네트워크 환경(901) 내에서, 제1 단말(920-1) 및 제2 단말(920-2)은 적어도 하나의 중간 노드(930)에 의해 형성된 네트워크를 통해 서로 연결될 수 있다. 제1 단말(920-1) 및 제2 단말(920-2)이 직접적으로 연결된 일 실시예에서, 제1 단말(920-1) 및 제2 단말(920-2) 중 어느 한 사용자 단말이, 서버(910)의 역할을 수행할 수 있다. 예를 들어, 디바이스와 디바이스의 연결(예, P2P(peer-to-peer) 연결)만으로 메타버스 환경이 구성될 수 있다.In one embodiment, the metaverse service may be provided to the user terminal 920 and/or the user using the
일 실시예에서, 사용자 단말(920)(혹은 제1 단말(920-1), 제 2 단말(920-2)을 포함하는 사용자 단말(920))은 다양한 폼팩터로 만들어질 수 있으며, 사용자에게 영상 또는/및 소리를 제공하는 출력 장치와 메타버스 서비스에 정보를 입력하기 위한 입력 장치를 포함하는 것을 특징으로 한다. 사용자 단말(920)의 다양한 폼팩터를 예시하면, 스마트폰(예, 제2 단말(920-2)), AR 기기(예, 제1 단말(920-1)), VR 기기, MR 기기, VST(Video See Through) 기기, OST(Optical See Through) 장치, 스마트 렌즈, 스마트 미러, 입출력 가능한 TV 또는 프로젝터를 포함할 수 있다.In one embodiment, the user terminal 920 (or the user terminal 920 including the first terminal 920-1 and the second terminal 920-2) may be made in various form factors and may provide images to the user. or/and an output device for providing sound and an input device for inputting information into the metaverse service. Examples of various form factors of the user terminal 920 include a smartphone (e.g., the second terminal 920-2), an AR device (e.g., the first terminal 920-1), a VR device, an MR device, and a VST ( It may include a Video See Through (Video See Through) device, an OST (Optical See Through) device, a smart lens, a smart mirror, and a TV or projector capable of input/output.
본 발명의 네트워크(예, 적어도 하나의 중간 노드(930)에 의해 형성된 네트워크)는 3G, 4G, 5G를 포함하는 다양한 광대역 네트워크와 Wifi, BT 등을 포함하는 근거리 네트워크(예, 제1 단말(920-1), 및 제2 단말(920-2)을 직접적으로 연결하는 유선 네트워크 또는 무선 네트워크)를 다 포함한다.The network of the present invention (e.g., a network formed by at least one intermediate node 930) includes various broadband networks including 3G, 4G, and 5G and a short-range network including Wifi, BT, etc. (e.g., the first terminal 920 -1), and a wired network or wireless network directly connecting the second terminal (920-2).
일 실시예에 따른 전자 장치는 하나의 미디어 콘텐트를 이용하여, 하나 이상의 평면들 내에 하나의 미디어 콘텐트의 상이한 영역들을 표시할 수 있다. 전자 장치는, 하나 이상의 평면들 각각에 대응하는 상이한 영역들을 획득하기 위해 사용자의 신체 정보를 식별할 수 있다. 전자 장치는 통신 회로를 이용하여 동기화된 하나 이상의 외부 전자 장치들을 제어하여, 사용자의 신체 정보에 대응하는 평면들을 식별하기 위한 방안이 요구될 수 있다. An electronic device according to an embodiment may display different areas of one media content in one or more planes using one media content. The electronic device may identify the user's body information to obtain different areas corresponding to each of one or more planes. The electronic device may require a method for controlling one or more external electronic devices synchronized using a communication circuit to identify planes corresponding to the user's body information.
상술한 바와 같은, 일 실시예에 따른 전자 장치(101)에 있어서, 상기 전자 장치는, 카메라(250-1), 통신 회로(230-1), 프로젝션 어셈블리(240-1), 및 하나 이상의 프로세서들(210-1)을 포함할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로세서들은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신할 수 있다. As described above, in the
예를 들어, 상기 하나 이상의 프로세서들은, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별한 것에 기반하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시할 수 있다. For example, the one or more processors may divide regions of the media content based on identifying at least one object included in the media content and define the first plane corresponding to the user's
예를 들어, 상기 하나 이상의 프로세서들은 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the one or more processors may control the projection assembly to display the first area based on the size of the
예를 들어, 상기 하나 이상의 프로세서들은, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득할 수 있다. For example, the one or more processors may obtain the number of different areas based on the number of external electronic devices located in the space.
예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별할 수 있다. For example, the one or more processors may identify the second plane adjacent the user's head based on identifying the user's
예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로세서들은, 상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별할 수 있다. 상기 하나 이상의 프로세서들은, 상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신할 수 있다. For example, the one or more processors may, based on identifying the user's
예를 들어, 상기 하나 이상의 프로세서들은, 상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별할 수 있다. 상기 하나 이상의 프로세서들은, 상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시할 수 있다. For example, the one or more processors may use the camera to identify the user's gaze looking from the first plane to the second plane. The one or more processors may display the first area within the second plane based on identifying the user's motion.
예를 들어, 상기 하나 이상의 프로세서들은, 상기 사용자의 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트할 수 있다. For example, the one or more processors may update the positional relationship between the first plane and the second plane based on identifying the user's gaze.
상술한 바와 같은 일 실시예에 따른 전자 장치(101)의 방법에 있어서, 상기 방법은, 통신 회로(230-1)를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리(240-1)로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하는 동작을 포함할 수 있다. In the method of the
예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area divides the areas of the media content using object information for identifying at least one object included in the media content, and uses the user's
예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area includes controlling the projection assembly to display the first area based on the size of the
예를 들어, 상기 정보를 획득하는 동작은, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하는 동작을 포함할 수 있다. For example, the operation of obtaining the information may include the operation of obtaining the number of the different areas based on the number of the external electronic devices located in the space.
예를 들어, 상기 위치 관계를 획득하는 동작은, 상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하는 동작을 포함할 수 있다. For example, the operation of obtaining the positional relationship includes identifying the second plane adjacent to the head of the user based on identifying the
예를 들어, 상기 위치 관계를 획득하는 동작은, 상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하는 동작을 포함할 수 있다. 상기 위치 관계를 획득하는 동작은, 상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하는 동작을 포함할 수 있다. 상기 위치 관계를 획득하는 동작은, 상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함할 수 있다. For example, the operation of acquiring the positional relationship may be performed based on identifying the user's
예를 들어, 상기 제1 영역을 표시하는 동작은, 상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하는 동작을 포함할 수 있다. 상기 제1 영역을 표시하는 동작은, 상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하는 동작을 포함할 수 있다. For example, the operation of displaying the first area may include the operation of identifying the user's gaze looking from the first plane to the second plane using the camera. The operation of displaying the first area may include displaying the first area in the second plane based on identifying the user's motion.
예를 들어, 상기 사용자의 상기 시선을 식별하는 동작은, 상기 사용자의 상기 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하는 동작을 포함할 수 있다. For example, the operation of identifying the user's gaze may include updating the positional relationship between the first plane and the second plane based on identifying the user's gaze.
상술한 바와 같은, 일 실시예에 따른 하나 이상의 프로그램들을 저장하는 컴퓨터 판독 가능 저장 매체에 있어서, 상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에, 통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신할 수 있다. As described above, in a computer-readable storage medium storing one or more programs according to an embodiment, the one or more programs, when executed by one or more processors of an electronic device, use a communication circuit to communicate with an external device. Based on identifying the electronic device, obtaining a positional relationship of a first plane on which light emitted from a projection assembly of the electronic device will be projected, and a second plane on which light emitted from another projection assembly of the external electronic device will be projected. can do. When the one or more programs are executed by the one or more processors of the electronic device, each of the first plane and the second plane is based on distances from a body part of the user identified using a camera. Thus, information for matching different areas of media content to each of the first plane and the second plane can be obtained. The one or more programs, when executed by the one or more processors of the electronic device, may display a first of the different regions of the media content in the first plane based on the information. . The one or more programs, when executed by the one or more processors of the electronic device, use the communication circuitry based on the information to send a second one of the different regions of the media content to the external electronic device. A signal for displaying an area within the second plane may be transmitted.
예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, use object information to identify at least one object included in the media content, areas may be distinguished, and a first area among the areas may be displayed on the first plane corresponding to the user's gaze.
예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 제1 평면 및 상기 제2 평면을 포함하는 공간의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, control the projection assembly based on the size of the space including the first plane and the second plane. , the first area can be displayed.
예를 들어, 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에, 상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득할 수 있다. For example, the one or more programs, when executed by the one or more processors of the electronic device, may obtain the number of the different areas based on the number of the external electronic devices located in the space.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (20)
카메라(250-1);
통신 회로(230-1);
프로젝션 어셈블리(240-1); 및
하나 이상의 프로세서들(210-1)을 포함하고, 상기 하나 이상의 프로세서들은,
상기 통신 회로를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 상기 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하고;
상기 제1 평면 및 상기 제2 평면 각각이, 상기 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하고;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하고; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하도록, 구성된,
전자 장치.
In the electronic device 101,
Camera (250-1);
communication circuit (230-1);
projection assembly (240-1); and
Includes one or more processors 210-1, wherein the one or more processors include:
Based on identifying an external electronic device 102 using the communication circuit, a first plane 110 on which light emitted from the projection assembly of the electronic device will be projected, and another projection assembly of the external electronic device Obtain the positional relationship of the second plane (120; 130; 140; 150) on which the light emitted from (240-2) will be projected;
Each of the first plane and the second plane displays media content 405; 610 based on the distances from the body part 302; 303; 304; 305 of the user 107 identified using the camera. Obtaining information for matching different areas (410; 420; 430; 440; 450; 615; 625; 635; 645; 655) of 611 to each of the first plane and the second plane;
Based on the information, display a first region (410; 615) of the different regions of the media content in the first plane; and
A signal for displaying, by the external electronic device, a second region (625; 635; 645; 655) of the different regions of the media content in the second plane based on the information, using the communication circuit. configured to transmit (514),
Electronic devices.
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별한 것에 기반하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Based on identifying at least one object included in the media content, regions of the media content are divided, and a first region of the regions is located on the first plane corresponding to the user's gaze 301. , configured to display,
Electronic devices.
상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors
Configured to control the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane,
Electronic devices.
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하도록, 구성된,
전자 장치.
The method of claim 3, wherein the one or more processors:
configured to obtain the number of the different areas based on the number of the external electronic devices located in the space,
Electronic devices.
상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
configured to identify, using the camera, the second plane adjacent the head of the user based on identifying the head (302) of the user.
Electronic devices.
상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하고,
상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하고,
상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Using the camera, based on identifying the user's leg 305, obtain a positional relationship between the third plane 150 adjacent to the user's leg, the second plane, and the first plane. do,
A first external electronic device 102, which is the external electronic device, is different from the first external electronic device 102 for projecting light emitted from a third projection assembly different from the first projection assembly, which is the projection assembly, into the third plane using the communication circuit. 2 identify the external electronic device 105,
configured to transmit a signal for displaying a third region of the different regions to the second external electronic device in the third plane,
Electronic devices.
상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하고,
상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하도록, 구성된,
전자 장치.
The method of claim 1, wherein the one or more processors:
Using the camera, identify the user's gaze looking from the first plane to the second plane,
configured to display the first area within the second plane based on identifying the user's motion,
Electronic devices.
상기 사용자의 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하도록, 구성된,
전자 장치.
8. The method of claim 7, wherein the one or more processors:
configured to update the positional relationship of the first plane and the second plane based on identifying the user's gaze,
Electronic devices.
통신 회로(230-1)를 이용하여, 외부 전자 장치(102)를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리(240-1)로부터 방사된 광이 투사될 제1 평면(110), 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리(240-2)로부터 방사된 광이 투사될 제2 평면(120; 130; 140; 150)의 위치 관계를 획득하는 동작;
상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자(107)의 신체 부위(302; 303; 304; 305)로부터 이격된 거리들에 기반하여, 미디어 콘텐트(405; 610; 611)의 상이한 영역들(410; 420; 430; 440; 450; 615; 625; 635; 645; 655)을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하는 동작;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역(410; 615)을, 상기 제1 평면 내에 표시하는 동작; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역(625; 635; 645; 655)을, 상기 제2 평면 내에 표시하기 위한 신호(514)를 송신하는 동작을 포함하는,
방법.
In the method of electronic device 101,
Based on identifying the external electronic device 102 using the communication circuit 230-1, a first plane 110 on which light emitted from the projection assembly 240-1 of the electronic device will be projected, and Obtaining the positional relationship of a second plane (120; 130; 140; 150) on which light emitted from another projection assembly (240-2) of the external electronic device is projected;
Each of the first plane and the second plane displays media content 405; 610; Obtaining information for matching different areas (410; 420; 430; 440; 450; 615; 625; 635; 645; 655) of 611) to each of the first plane and the second plane;
Based on the information, displaying a first region (410; 615) of the different regions of the media content in the first plane; and
A signal for displaying, by the external electronic device, a second region (625; 635; 645; 655) of the different regions of the media content in the second plane, using the communication circuit based on the information. Including the operation of transmitting (514),
method.
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선(301)에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
Using object information for identifying at least one object included in the media content, regions of the media content are divided, and on the first plane corresponding to the user's gaze 301, a first of the regions is displayed. 1 Including the action of marking an area,
method.
상기 제1 평면 및 상기 제2 평면을 포함하는 공간(100)의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
Comprising an operation of controlling the projection assembly to display the first area based on the size of the space 100 including the first plane and the second plane,
method.
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하는 동작을 포함하는,
방법.
The method of claim 11, wherein the operation of obtaining the information includes:
Comprising the operation of obtaining the number of the different areas based on the number of the external electronic devices located in the space,
method.
상기 카메라를 이용하여, 상기 사용자의 머리(302)를 식별한 것에 기반하여, 상기 사용자의 상기 머리와 인접한 상기 제2 평면을 식별하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of obtaining the position relationship includes:
Using the camera, identifying the second plane adjacent to the head of the user based on identifying the head 302 of the user,
method.
상기 카메라를 이용하여, 상기 사용자의 다리(305)를 식별한 것에 기반하여, 상기 사용자의 상기 다리에 인접한 제3 평면(150), 상기 제2 평면, 및 상기 제1 평면 사이의 위치 관계를 획득하는 동작,
상기 통신 회로를 이용하여, 상기 제3 평면 내에, 상기 프로젝션 어셈블리인 제1 프로젝션 어셈블리와 상이한 제3 프로젝션 어셈블리로부터 방사된 광을 투사하는 상기 외부 전자 장치인 제1 외부 전자 장치(102)와 상이한 제2 외부 전자 장치(105)를 식별하는 동작,
상기 상이한 영역들 중 제3 영역을, 상기 제2 외부 전자 장치로, 상기 제3 평면 내에 표시하기 위한 신호를 송신하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of obtaining the position relationship includes:
Using the camera, based on identifying the user's leg 305, obtain a positional relationship between the third plane 150 adjacent to the user's leg, the second plane, and the first plane. action,
A first external electronic device 102, which is the external electronic device, is different from the first external electronic device 102 for projecting light emitted from a third projection assembly different from the first projection assembly, which is the projection assembly, into the third plane using the communication circuit. 2 the operation of identifying an external electronic device 105;
Transmitting a signal for displaying a third region among the different regions to the second external electronic device in the third plane,
method.
상기 카메라를 이용하여, 상기 제1 평면으로부터 상기 제2 평면을 바라보는 상기 사용자의 시선을 식별하는 동작,
상기 사용자의 모션을 식별한 것에 기반하여, 상기 제1 영역을, 상기 제2 평면 내에 표시하는 동작을 포함하는,
방법.
The method of claim 9, wherein the operation of displaying the first area includes:
An operation of identifying the user's gaze looking from the first plane to the second plane using the camera,
Comprising the operation of displaying the first area in the second plane based on identifying the user's motion,
method.
상기 사용자의 상기 시선을 식별한 것에 기반하여, 상기 제1 평면 및 상기 제2 평면의 위치 관계를 업데이트하는 동작을 포함하는,
방법.
The method of claim 15, wherein the operation of identifying the gaze of the user comprises:
Comprising the operation of updating the positional relationship of the first plane and the second plane based on identifying the gaze of the user,
method.
상기 하나 이상의 프로그램들은, 전자 장치의 하나 이상의 프로세서들에 의해, 실행될 때에,
통신 회로를 이용하여, 외부 전자 장치를 식별하는 것에 기반하여, 상기 전자 장치의 프로젝션 어셈블리로부터 방사된 광이 투사될 제1 평면, 및 상기 외부 전자 장치의 다른 프로젝션 어셈블리로부터 방사된 광이 투사될 제2 평면의 위치 관계를 획득하고;
상기 제1 평면 및 상기 제2 평면 각각이, 카메라를 이용하여 식별된 사용자의 신체 부위로부터 이격된 거리들에 기반하여, 미디어 콘텐트의 상이한 영역들을, 상기 제1 평면 및 상기 제2 평면 각각에 매칭하기 위한 정보를 획득하고;
상기 정보에 기반하여, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제1 영역을, 상기 제1 평면 내에 표시하고; 및
상기 정보에 기반하여 상기 통신 회로를 이용하여, 상기 외부 전자 장치로, 상기 미디어 콘텐트의 상기 상이한 영역들 중 제2 영역을, 상기 제2 평면 내에 표시하기 위한 신호를 송신하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium storing one or more programs,
When the one or more programs are executed by one or more processors of the electronic device,
Using a communication circuit, based on identifying the external electronic device, a first plane on which light emitted from a projection assembly of the electronic device will be projected, and a second plane on which light emitted from another projection assembly of the external electronic device will be projected Obtain the positional relationship of the two planes;
Matching different regions of media content to each of the first and second planes based on the distances each of the first and second planes are from a body part of the user identified using a camera. Obtain information to:
Based on the information, display a first region of the different regions of the media content in the first plane; and
configured to transmit, using the communication circuitry, a signal for displaying a second region of the different regions of the media content in the second plane to the external electronic device based on the information.
A computer-readable storage medium.
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 미디어 콘텐트 내 포함된 적어도 하나의 객체를 식별하기 위한 객체 정보를 이용하여, 상기 미디어 콘텐트의 영역들을 구분하고, 상기 사용자의 시선에 대응하는 상기 제1 평면에, 상기 영역들 중 제1 영역을, 표시하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
According to clause 17,
When the one or more programs are executed by the one or more processors of the electronic device,
Using object information to identify at least one object included in the media content, regions of the media content are divided, and a first region among the regions is located on the first plane corresponding to the user's gaze. , configured to display,
A computer-readable storage medium.
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 제1 평면 및 상기 제2 평면을 포함하는 공간의 사이즈에 기반하여, 상기 프로젝션 어셈블리를 제어하여, 상기 제1 영역을 표시하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
According to clause 17,
When the one or more programs are executed by the one or more processors of the electronic device,
configured to control the projection assembly to display the first area based on the size of a space including the first plane and the second plane,
A computer-readable storage medium.
상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 하나 이상의 프로세서들에 의해, 실행될 때에,
상기 공간 내에 위치한 상기 외부 전자 장치의 개수에 기반하여, 상기 상이한 영역들의 개수를 획득하도록, 구성된,
컴퓨터 판독 가능 저장 매체.
According to clause 19,
When the one or more programs are executed by the one or more processors of the electronic device,
configured to obtain the number of the different areas based on the number of the external electronic devices located in the space,
A computer-readable storage medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220170105A KR20240085067A (en) | 2022-12-07 | 2022-12-07 | Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220170105A KR20240085067A (en) | 2022-12-07 | 2022-12-07 | Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240085067A true KR20240085067A (en) | 2024-06-14 |
Family
ID=91481751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220170105A KR20240085067A (en) | 2022-12-07 | 2022-12-07 | Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240085067A (en) |
-
2022
- 2022-12-07 KR KR1020220170105A patent/KR20240085067A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9918058B2 (en) | Information processing to allow projector units to project images in cooperation | |
US10873741B2 (en) | Image processing apparatus and method | |
JP7452596B2 (en) | Communication terminals, display methods, programs and image communication systems | |
CN103543596B (en) | Multi-projection system | |
US9436076B2 (en) | Multi-projection system for extending visual element of main image | |
WO2022088918A1 (en) | Virtual image display method and apparatus, electronic device and storage medium | |
CN107113391B (en) | Information processing apparatus and method | |
US20180011679A1 (en) | Information processing system, display processing apparatus, display processing method, and recording medium | |
US9479747B2 (en) | Guide image generation device and method using parameters | |
JP6825480B2 (en) | Information information system, display processing device, display processing method, and display program | |
KR20240085067A (en) | Electronic device, method, and computer-readable storage media identifying location to display media content based on user's body information | |
US10616547B1 (en) | Multi-vantage point light-field picture element display | |
KR20240092251A (en) | Electronic device for displaying media content within plane adjacent to external electronic device and method thereof | |
CN110554556A (en) | spatial holographic interactive control method and system for multiple screens | |
US20150077311A1 (en) | Display system, image display device, and method of controlling display system | |
US20240214532A1 (en) | Electronic device for displaying visual object associated with aspect ratio of combinations of projection areas and method thereof | |
US20240179280A1 (en) | Electronic device for displaying media content and user interface in plurality of areas and method thereof | |
KR20240083458A (en) | Electronic device for generating visual object corresponding to motion of external object and method thereof | |
KR20240103404A (en) | Electronic device for displaying visual object associated with aspect ratio of combinations of projection areas and method thereof | |
KR20240079996A (en) | Electronic device for displaying media content and user interface in plurality of areas and method thereof | |
KR101920323B1 (en) | System and method for generating logical display apparatus | |
WO2024143769A1 (en) | Electronic device for displaying visual object related to aspect ratio of combination of projection areas, and method therefor | |
US20240205378A1 (en) | Information processing device, information processing method, and program | |
US20230008125A1 (en) | Augmenting a view of a real-world environment with a view of a volumetric video object | |
WO2022185719A1 (en) | Information processing device, information processing method, and display device |