WO2024071657A1 - 전자 장치 및 전자 장치의 동작 방법 - Google Patents

전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2024071657A1
WO2024071657A1 PCT/KR2023/011761 KR2023011761W WO2024071657A1 WO 2024071657 A1 WO2024071657 A1 WO 2024071657A1 KR 2023011761 W KR2023011761 W KR 2023011761W WO 2024071657 A1 WO2024071657 A1 WO 2024071657A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
avatar
pattern
virtual space
screen
Prior art date
Application number
PCT/KR2023/011761
Other languages
English (en)
French (fr)
Inventor
신승수
나동진
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230002851A external-priority patent/KR20240045962A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024071657A1 publication Critical patent/WO2024071657A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • Various embodiments relate to an electronic device and a method of operating the electronic device, and more specifically, to an electronic device capable of filming a virtual space through an avatar and a method of operating the electronic device.
  • Metaverse is a compound word of meta, meaning processing and abstraction, and universe, meaning the real world, and refers to a three-dimensional virtual world.
  • the core technologies of this metaverse are virtual reality (VR), It is an extended reality (XR) technology that encompasses augmented reality (AR) and mixed reality (MR).
  • VR virtual reality
  • XR extended reality
  • AR augmented reality
  • MR mixed reality
  • the metaverse environment can provide a filming service that films a virtual space with a virtual camera through an avatar. By moving the avatar, the user can perform the activity of producing a captured video according to the shooting movement line.
  • An electronic device includes a display, a memory that stores one or more instructions, and at least one processor that executes one or more instructions stored in the memory.
  • the at least one processor receives an input for selecting a pattern from a list of patterns for camera movement by executing the one or more instructions.
  • the at least one processor displays the selected pattern based on the first avatar in the virtual space by executing the one or more instructions.
  • the at least one processor performs photography of the virtual space based on the first avatar moving according to a selected pattern by executing the one or more instructions.
  • a method of operating an electronic device includes receiving an input for selecting a pattern from a list of patterns for camera movement, and displaying the selected pattern based on a first avatar in the virtual space. receiving an input for selecting a pattern from a list of patterns for camera movement, displaying the selected pattern based on a first avatar in the virtual space, and moving according to the selected pattern. and performing photography of the virtual space based on the first avatar.
  • FIG. 1 is a diagram illustrating a photography service providing system according to an embodiment.
  • Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
  • FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.
  • FIG. 4 is a flowchart illustrating a method of operating an electronic device and a server that provide a pattern providing service for camera movement, according to an embodiment.
  • FIG. 5 is a diagram illustrating operations of an electronic device and a server that display a pattern selected from a list of patterns in a pattern providing service according to an embodiment.
  • FIGS. 6A and 6B are diagrams illustrating the operation of an electronic device that controls the position of a pattern in a pattern providing service according to an embodiment.
  • FIGS. 7A and 7B are diagrams illustrating the operation of an electronic device that controls the direction of a pattern in a pattern providing service according to an embodiment.
  • FIGS. 8A and 8B are diagrams illustrating the operation of an electronic device that controls the central axis of a pattern in a pattern providing service according to an embodiment.
  • FIGS. 9A and 9B are diagrams illustrating the operation of an electronic device that controls the size of a pattern in a pattern providing service according to an embodiment.
  • FIGS. 10A and 10B are diagrams illustrating the operation of an electronic device that displays a customized pattern and a preview screen, according to an embodiment.
  • FIGS. 11A and 11B are diagrams illustrating the operation of an electronic device that displays a customized pattern and a preview screen, according to an embodiment.
  • FIG. 12 is a diagram illustrating the operation of an electronic device that photographs a virtual space according to a customized pattern in a pattern providing service according to an embodiment.
  • FIG. 13 is a flowchart illustrating a method of operating a plurality of electronic devices and a server that provides a capturing screen sharing service according to an embodiment.
  • FIG. 14 is a diagram illustrating operations of a plurality of electronic devices sharing a capture screen according to an embodiment.
  • Figure 15 is a flowchart showing a method of operating a plurality of electronic devices and a server that share a captured screen in a captured screen sharing service according to an embodiment.
  • FIGS. 16A, 16B, and 16C are diagrams illustrating operations of a plurality of electronic devices sharing a capture screen according to an embodiment.
  • FIG. 17 is a flowchart illustrating a method of operating an electronic device that provides a pattern providing service and a capturing screen sharing service according to an embodiment.
  • Figure 18 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.
  • Figure 19 is a block diagram showing the configuration of a server according to an embodiment.
  • the expression “at least one of a, b, or c” refers to “a”, “b”, “c”, “a and b”, “a and c”, “b and c”, “a, b and c”, or variations thereof.
  • the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
  • FIG. 1 is a diagram illustrating a photography service providing system according to an embodiment.
  • a photography service providing system may include a plurality of electronic devices 101 and 102 and a server 200.
  • the plurality of electronic devices 101 and 102 may be devices that provide photography services.
  • the photography service according to one embodiment may be a service that photographs a virtual space based on the position and gaze of an avatar existing in the virtual space.
  • the plurality of electronic devices 101 and 102 may be collectively referred to as the electronic device 100.
  • Each of the plurality of electronic devices 101 and 102 may be referred to as a first electronic device 101 and a second electronic device 102.
  • Each of the plurality of electronic devices 101 and 102 may be an electronic device capable of outputting images. According to one embodiment, each of the plurality of electronic devices 101 and 102 may be implemented as various types of electronic devices including a display. Each of the plurality of electronic devices 101 and 102 may be fixed or mobile, and may be a digital TV capable of receiving digital broadcasting, but is not limited thereto.
  • Each of the plurality of electronic devices 101 and 102 includes a desktop, a smart phone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, and a laptop PC ( laptop personal computer, netbook computer, digital camera, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), camcorder, navigation, wearable device, smart watch, home network system , may include at least one of a security system, a medical device, and a head mounted display (HMD).
  • HMD head mounted display
  • the electronic device 100 may provide various virtual space contents.
  • the electronic device 100 may be one of a plurality of electronic devices 101 and 102.
  • the electronic device 100 may receive and display virtual space content provided by the server 200.
  • the server 200 may create virtual space content and transmit it to the electronic device 100 through a communication network.
  • the server 200 may create an avatar corresponding to the user of the electronic device 100 in virtual space content and transmit the avatar to the electronic device 100.
  • the electronic device 100 may display virtual space content including an avatar corresponding to the user.
  • the electronic device 100 may generate and output virtual space content as it executes an application installed therein.
  • the server 200 is a device that creates virtual space content and provides virtual space content so that users of various clients can access the virtual space content.
  • the server 200 can create and provide avatars that reflect users of various clients.
  • the server 200 provides virtual space content to the electronic device 100, which is an example of a client, and manages the coordinates of objects (e.g., avatars) in the virtual space in response to input from the user of the electronic device 100. You can. In other words, the server 200 allows users in real space and objects in virtual space to interact.
  • a shooting service may include a pattern providing service that provides patterns for camera movement.
  • the pattern for camera movement (hereinafter referred to as 'camera moving pattern' or 'pattern') is a preset shooting movement line for shooting a virtual space, such as a camera rail that assists shooting, It can refer to shooting sequences, camera work, camera tracking, etc.
  • the electronic device 100 and the server 200 linked to the photography service providing system may photograph a virtual space according to a camera moving pattern generated through a pattern providing service.
  • the electronic device 100 may synchronize the list of patterns provided from the server 200 and display the list of patterns.
  • the electronic device 100 may receive a user's input for selecting one of a list of patterns and display the selected pattern in virtual space.
  • the electronic device 100 may move the avatar according to a selected pattern and capture a virtual space based on the avatar's position and the avatar's gaze.
  • the electronic device 100 may manipulate the shooting avatar by applying a camera moving pattern preset through a pattern providing service. Since the user can predict the shooting movement line according to the list of representative camera moving patterns, the process of directly creating the shooting movement line can be omitted.
  • the electronic device 100 may perform photography in a virtual space by manipulating the photography avatar according to the camera moving pattern.
  • the electronic device 100 may generate a customized pattern based on a user's input that sets the state of the pattern.
  • the electronic device 100 may move the avatar according to a customized pattern and capture a virtual space based on the avatar's position and the avatar's gaze.
  • the electronic device 100 may set a user-customized state to a preset camera moving pattern through a pattern provision service. Users can create a camera moving pattern with desired location, size, and direction without directly creating the shooting movement line.
  • the electronic device 100 can manipulate the avatar by setting a user-customized state to a preset pattern, even if the avatar is not manipulated through various moving lines to capture a virtual space. Therefore, even without directly manipulating the avatar, the user can predict the shooting path based on the list of representative moving patterns. Additionally, since the avatar moves according to the customized pattern without deviating from it, the user can more easily take photos of the virtual space. This will be explained in detail in FIGS. 2 to 12.
  • a shooting service may include a shooting screen sharing service that shares a shooting screen between a plurality of electronic devices 101 and 102.
  • a plurality of electronic devices 101 and 102 may provide a capture screen sharing service.
  • a plurality of electronic devices 101 and 102 that provide a capture screen sharing service may share a capture screen or receive a capture screen.
  • the second electronic device 102 may receive the captured screen through the server 200.
  • the second electronic device 102 may display the received capture screen based on the avatar information of the first electronic device 101. This is explained in detail in Figure 2 and Figures 13 to 16.
  • the photographing avatar when the first electronic device 101 includes a photographing avatar that photographs a virtual space, the photographing avatar may be referred to as the first avatar 111. Additionally, when the second electronic device 102 includes a sharing target avatar that receives the screen captured by the first avatar 111, the sharing target avatar may be referred to as the second avatar 112.
  • Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
  • the electronic device 100 may include a processor 110, a communication interface 120, a display 130, an input interface 140, and a memory 150.
  • the communication interface 120 may connect the electronic device 100 with an external device such as a server 200 or a mobile terminal under the control of the processor 110.
  • the communication interface 120 may include a Wi-Fi module, a Bluetooth module, an infrared communication module, a wireless communication module, a LAN module, an Ethernet module, a wired communication module, etc.
  • each communication module may be implemented in the form of at least one hardware chip.
  • Wireless communication modules include zigbee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), 4G (4th Generation), 5G (5th Generation), etc. It may include at least one communication chip that performs communication according to various wireless communication standards.
  • the communication interface 120 may receive virtual space content including an avatar from the server 200 under the control of the processor 110.
  • the communication interface 120 may receive a list of preset patterns from the server 200 under the control of the processor 110.
  • the communication interface 120 may share the captured screen with another electronic device under the control of the processor 110.
  • the display 130 may generate a driving signal by converting an image signal, a data signal, an OSD signal, a control signal, etc. processed by the processor 110, and display an image according to the driving signal.
  • the display 130 may display a virtual space including an avatar under the control of the processor 110.
  • the display 130 may display a list of patterns, display the selected pattern in a virtual space, and display a shooting effect under the control of the processor 110.
  • the display 130 according to an embodiment provides a shooting screen sharing service UI (User Interface) (or sharing service UI) under the control of the processor 110, an inquiry UI for inquiring whether to consent to sharing the shooting screen, and a shooting screen sharing service. You can display a notification UI that informs you of the progress of screen sharing, a preview screen of the shooting screen, etc.
  • a user may interact with the electronic device 100 and the server 200 through a user interface (UI) displayed on the display 130.
  • UI user interface
  • the input interface 140 may receive a user's input for controlling the electronic device 100.
  • the input interface 140 includes a touch panel that detects the user's touch, buttons, a wheel, a keyboard, and a dome switch that receive the user's input, a microphone for voice recognition, and a motion sensor that senses motion. It may include a detection sensor, etc.
  • the input interface 140 may receive a user's input through an external control device, for example, a remote control.
  • the memory 150 may store various data, programs, or applications for driving and controlling the electronic device 100.
  • a program stored in memory 150 may include one or more instructions.
  • a program (one or more instructions) or application stored in the memory 150 may be executed by the processor 110.
  • the memory 150 may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (for example, SD or XD). Memory, etc.), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), It may include at least one type of storage medium among magnetic memory, magnetic disk, and optical disk.
  • the processor 110 controls the overall operation of the electronic device 100, controls signal flow between internal components of the electronic device 100, and performs data processing.
  • the processor 110 may include at least one of a Central Processing Unit (CPU), a Graphics Processing Unit (GPU), and a Video Processing Unit (VPU).
  • the processor 110 may be implemented in the form of a System On Chip (SoC) that integrates at least one of a CPU, GPU, and VPU.
  • SoC System On Chip
  • the processor 110 may further include a Neural Processing Unit (NPU).
  • NPU Neural Processing Unit
  • the processor 110 may control operations of the electronic device 100 to be performed by executing one or more instructions stored in the memory 150.
  • the processor 110 may receive an input for selecting a pattern from a list of patterns for camera movement.
  • the processor 110 may display the selected pattern based on the first avatar in the virtual space.
  • the processor 110 may generate a customized pattern based on an input that sets the state of the pattern.
  • the processor 110 may perform photography in a virtual space based on the first avatar moving according to a customized pattern.
  • the electronic device 100 receives an input for selecting a pattern from a list of patterns for camera movement, displays the selected pattern based on the first avatar in the virtual space, and moves according to the selected pattern. Based on the first avatar, shooting in a virtual space can be performed.
  • the electronic device 100 may operate without operation S330.
  • the electronic device 100 may not receive an input that sets the state of the pattern.
  • the electronic device 100 may perform imaging in a virtual space through a pattern selected from a list of patterns. In this case, the selected pattern may have the status of a pattern provided by default from the server 200.
  • the processor 110 may receive a list of preset patterns from the server 200 through the communication interface 120.
  • the processor 110 may control the display 130 to display a list of patterns.
  • the processor 110 may display the selected pattern in virtual space based on the position or gaze of the first avatar.
  • the processor 110 may perform photography using screen information about the first avatar's gaze.
  • the processor 110 controls the position of the pattern based on an input that changes the position of the first avatar included in the virtual space, and changes the gaze direction of the first avatar included in the virtual space.
  • An operation of controlling the direction of the pattern based on an input an operation of controlling the central axis of the pattern based on an input of changing the position of the first avatar included in the virtual space, and enlarging, reducing, or partially enlarging the size of the pattern. Based on the deleting input, any one of the operations to control the size of the pattern can be performed.
  • the processor 110 may highlight a part of a pattern that overlaps an obstacle in virtual space.
  • the processor 110 may control to delete part of the pattern.
  • the processor 110 may provide a first screen that displays a virtual space according to the gaze of the first avatar and a second screen that displays a virtual space including the location of the first avatar.
  • the display 130 can be controlled to display two screens.
  • the processor 110 may control the first avatar to move without deviating from the customized pattern, based on an input that controls the movement direction of the first avatar.
  • the processor 110 may process a shooting effect based on an input for setting the shooting effect.
  • Shooting effects may include any of flash, movement speed control, lighting, camera shake, exposure, and zoom-in/zoom-out.
  • the processor 110 may receive an input for selecting a second avatar for sharing the captured screen.
  • the processor 110 may transmit a request signal for inviting the second avatar to the server 200 through the communication interface 120.
  • the processor 110 may share the captured screen based on receiving an input signal agreeing to share the captured screen from the server 200 through the communication interface 120.
  • the processor 110 may transmit captured screen information to the server 200 through the communication interface 120.
  • the captured screen information may include any one of the location of the first avatar, the gaze direction of the first avatar, the movement direction of the first avatar, and location information of the first avatar moving according to a customized pattern.
  • FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.
  • the electronic device 100 may receive an input for selecting a pattern from a list of patterns for camera movement.
  • the electronic device 100 may receive a list of preset patterns from the server 200 through the communication interface 120.
  • the electronic device 100 may control the display 130 to display a list of patterns.
  • the electronic device 100 may receive the latest list of patterns from the server 200 and periodically update the list of patterns.
  • the camera moving pattern may include a 360-degree moving pattern, a curved moving pattern, a straight moving pattern, an 8-shaped moving pattern, etc.
  • a 360-degree moving pattern may be a moving pattern that photographs a subject in 360 degrees.
  • an 8-character moving pattern may be a moving pattern that photographs a subject in an 8-character shape.
  • the user can select one from the list of patterns displayed on the electronic device 100.
  • the electronic device 100 may receive an input for selecting one pattern from a list of patterns through the input interface 130.
  • the electronic device 100 may process the user's input and select one pattern by executing one or more instructions stored in the memory 150.
  • the electronic device 100 may display the selected pattern based on the avatar in the virtual space.
  • an avatar may refer to an avatar that photographs a virtual space.
  • the avatar's gaze may correspond to the recording camera.
  • the avatar may be holding a shooting camera.
  • the avatar may be provided from the server 200.
  • the server 200 may create an avatar reflecting the user of the electronic device 100 in a virtual space and provide the avatar to the electronic device 100.
  • the electronic device 100 can share the screen captured by the avatar to other electronic devices.
  • the avatar of the electronic device 100 sharing the capture screen is the first avatar
  • the avatar of the other electronic device sharing the capture screen may be the second avatar. This is explained in Figure 13.
  • the electronic device 100 may display a selected pattern in the virtual space based on the position or gaze of the avatar in the virtual space.
  • the electronic device 100 may display a selected pattern in virtual space based on the location of the avatar. For example, when the electronic device 100 displays a third-person virtual space according to the location of the avatar, a pattern selected based on the location of the avatar may be displayed in the virtual space.
  • the electronic device 100 may display a selected pattern in virtual space based on the avatar's gaze. For example, when the electronic device 100 displays a first-person virtual space according to the avatar's gaze, a pattern selected based on the avatar's gaze may be displayed in the virtual space.
  • the electronic device 100 may generate a customized pattern based on an input that sets the state of the pattern.
  • the state of the pattern may include any one of the position of the pattern, the direction of the pattern, the central axis of the pattern, and the size of the pattern.
  • the user can set the status of the pattern displayed on the electronic device 100.
  • the electronic device 100 may receive a user's input for setting the state of the pattern through the input interface 130.
  • the electronic device 100 may process the user's input and control the state of the pattern.
  • the electronic device 100 may control the position of the pattern based on an input that changes the position of the avatar included in the virtual space.
  • the electronic device 100 may control the direction of the pattern based on an input that changes the gaze direction of the avatar included in the virtual space.
  • the electronic device 100 may control the central axis of the pattern based on an input that changes the position of the avatar included in the virtual space.
  • the electronic device 100 may control the size of the pattern based on an input that enlarges, reduces, or partially deletes the size of the pattern.
  • the electronic device 100 may control to delete part of a pattern overlapping in virtual space.
  • the electronic device 100 may generate a customized pattern by controlling the state of the pattern.
  • the electronic device 100 may display the state of the pattern on a preview screen based on an input that sets the state of the pattern.
  • the electronic device 100 according to one embodiment may create a preview screen of the custom pattern being set as a preview screen before shooting so that the user can intuitively set the custom pattern.
  • the electronic device 100 may control the display 130 to display a first screen displaying a virtual space according to the avatar's gaze and a second screen displaying a virtual space including the location of the avatar.
  • the first screen may be a first-person perspective screen of the avatar
  • the second screen may be a third-person perspective screen of the avatar.
  • the electronic device 100 may perform photography in a virtual space based on an avatar moving according to a customized pattern.
  • the electronic device 100 may control the avatar to move without deviating from the customized pattern, based on an input that controls the direction of movement of the avatar.
  • the electronic device 100 may process a shooting effect based on an input for setting the shooting effect.
  • shooting effects may include flash, movement speed control, lighting, camera shake, exposure, zoom in/zoom out, etc.
  • the electronic device 100 may perform photography using screen information about the avatar's gaze.
  • the electronic device 100 may store a virtual space located in the direction in which the avatar's gaze is directed.
  • the electronic device 100 may generate and store a captured image using screen information about the direction in which the avatar's gaze is directed.
  • the electronic device 100 may manipulate the shooting avatar by setting a user-customized state to a preset pattern through a pattern providing service. Even without directly manipulating the avatar, the user can predict the shooting path based on a list of representative moving patterns.
  • the electronic device 100 receives an input for selecting a pattern from a list of patterns for camera movement, displays the selected pattern based on the avatar in the virtual space, and displays the selected pattern. Based on the avatar that moves, shooting in virtual space can be performed.
  • the electronic device 100 according to an embodiment of the present disclosure may operate without operation S330.
  • the electronic device 100 may not receive an input that sets the state of the pattern.
  • the electronic device 100 may perform imaging in a virtual space through a pattern selected from a list of patterns.
  • the selected pattern may have the status of a pattern provided by default from the server 200. In other words, the user can perform shooting with the basically provided pattern without changing the state of the pattern.
  • a method of operating the electronic device 100 includes receiving an input for selecting a pattern from a list of patterns for camera movement, and displaying the selected pattern based on an avatar in a virtual space. , and may include performing photography in a virtual space based on an avatar moving according to a selected pattern.
  • FIG. 4 is a flowchart illustrating a method of operating an electronic device and a server that provide a pattern providing service for camera movement, according to an embodiment.
  • the electronic device 100 may display a list of patterns for camera movement.
  • the electronic device 100 may request a list of patterns from the server 200 through the communication interface 120.
  • the electronic device 100 may periodically receive the latest list of patterns from the server 200.
  • the electronic device 100 may be synchronized with the server 200.
  • the electronic device 100 may display the latest list of updated patterns.
  • the camera moving pattern may include a 360-degree moving pattern, a curved moving pattern, a straight moving pattern, an 8-shaped moving pattern, etc.
  • the camera moving pattern may include a moving pattern created by users of a plurality of electronic devices 101 and 102, including the electronic device 100.
  • the processor 110 receives a list of patterns by executing one or more instructions stored in the camera moving pattern module (1852 in FIG. 18) and controls the display 130 to display the list of received patterns. You can.
  • the server 200 may update the latest list of patterns.
  • the server 200 may store preset patterns and may also newly store various patterns received from various clients.
  • the server 200 may transmit the latest list of patterns upon a request from the electronic device 100.
  • the server 200 may periodically transmit the latest list of patterns to the electronic device 100 even if there is no request from the electronic device 100.
  • the electronic device 100 may receive an input for selecting a pattern from a list of patterns.
  • the user can select one from the list of patterns displayed on the electronic device 100.
  • the electronic device 100 may receive an input for selecting one pattern from a list of patterns through the input interface 130.
  • the processor 110 may process the user's input by executing one or more instructions stored in the manipulation module (1851 in FIG. 18) and select one pattern.
  • the electronic device 100 may display a selected pattern based on the position or gaze of the avatar in the virtual space. Operation S420 may correspond to operation S320 of FIG. 3.
  • the electronic device 100 may display a selected pattern in virtual space based on the location of the avatar. For example, when the electronic device 100 displays a third-person virtual space according to the location of the avatar, a pattern selected based on the location of the avatar may be displayed in the virtual space. For example, the electronic device 100 may generate a selected pattern centered on the location of the avatar. For example, the electronic device 100 may display a pattern generated left/right with the avatar as the central axis.
  • the electronic device 100 may display a selected pattern in virtual space based on the avatar's gaze. For example, when the electronic device 100 displays a first-person virtual space according to the avatar's gaze, a pattern selected based on the avatar's gaze may be displayed in the virtual space. For example, the electronic device 100 may display at least part of the pattern so that it is visible in the avatar's field of view.
  • the processor 110 may control the display 130 to display a selected pattern by executing one or more instructions stored in the camera moving pattern module (1852 in FIG. 18).
  • the electronic device 100 may repeatedly execute operations S425, S430, and S435 in a loop until an end condition is established.
  • the electronic device 100 may generate a customized pattern by repeatedly performing operations S425, S430, and S435.
  • the user may repeatedly interact with the electronic device 100 to create a customized pattern by setting the state of the pattern.
  • Operations S425, S430, and S435 may correspond to operation S330 of FIG. 3.
  • the electronic device 100 may receive an input that sets the state of the pattern.
  • the state of the pattern may include any one of the position of the pattern, the direction of the pattern, the central axis of the pattern, and the size of the pattern.
  • the user can set the status of the pattern displayed on the electronic device 100.
  • the electronic device 100 may receive a user's input for setting the state of the pattern through the input interface 130.
  • the electronic device 100 may receive a user's input for setting the position of the pattern, the direction of the pattern, the central axis of the pattern, or the size of the pattern.
  • the processor 110 may process a user's input for setting the state of a pattern by executing one or more instructions stored in the manipulation module (1851 in FIG. 18).
  • the electronic device 100 may receive an input that changes the location of an avatar included in the virtual space.
  • the electronic device 100 may receive an input that changes the gaze direction of an avatar included in a virtual space.
  • the electronic device 100 may receive an input that changes the location of an avatar included in the virtual space.
  • the electronic device 100 may receive an input to enlarge, reduce, or partially delete the size of the pattern.
  • the electronic device 100 may control the state of the pattern.
  • the electronic device 100 may control the state of the pattern based on an input that sets the state of the pattern.
  • the electronic device 100 may control the position of the pattern, the direction of the pattern, the central axis of the pattern, and the size of the pattern.
  • the electronic device 100 may control the position of the pattern based on an input that changes the position of the avatar included in the virtual space.
  • the electronic device 100 according to one embodiment may control the direction of the pattern based on an input that changes the gaze direction of the avatar included in the virtual space.
  • the electronic device 100 according to one embodiment may control the central axis of the pattern based on an input that changes the position of the avatar included in the virtual space.
  • the electronic device 100 may control the size of the pattern based on an input that enlarges, reduces, or partially deletes the size of the pattern.
  • the processor 110 may control the state of the pattern by executing one or more instructions stored in the camera moving pattern module (1852 in FIG. 18).
  • the electronic device 100 may display the state of the pattern on a preview screen.
  • the electronic device 100 may create a preview screen of the custom pattern being set as a preview screen before shooting so that the user can intuitively set the custom pattern.
  • the electronic device 100 may control the display 130 to display a first screen that provides a virtual space according to the avatar's gaze and a second screen that provides a virtual space including the location of the avatar.
  • the first screen may be a first-person perspective screen of the avatar
  • the second screen may be a third-person perspective screen of the avatar.
  • the electronic device 100 may display the first screen as the entire screen and display the second screen as a preview screen in a partial area of the first screen.
  • the electronic device 100 may display the second screen as the entire screen and display the first screen as a preview screen in a partial area of the second screen.
  • the user when setting the state of a pattern on a first-person view screen, the user may not be able to check the state of the overall pattern. In this case, the user can check the direction and size of the overall pattern through a preview screen from a third-person perspective.
  • the preview screen is placed in the upper right corner at 1/4 size, and can be enlarged/reduced or moved by the user.
  • the processor 110 may control the display 130 to display the state of the pattern on a preview screen by executing one or more instructions stored in the camera moving pattern module (1852 in FIG. 18).
  • the electronic device 100 may generate a pattern customized to the user by repeatedly performing operations S425, S430, and S435.
  • the electronic device 100 may repeatedly execute operations S440, S445, S450, and S455 in a loop until an end condition is established.
  • the electronic device 100 may perform photography based on the avatar's gaze by repeatedly performing operations S440, S445, S450, and S455.
  • the user may repeatedly interact with the electronic device 100 to generate captured images.
  • Operation S440, operation S445, operation S450, and operation S455 may correspond to operation S340 of FIG. 3.
  • the electronic device 100 may receive an input for controlling the movement direction of the avatar.
  • the electronic device 100 may control the avatar to move according to a pattern.
  • the electronic device 100 may control the avatar to move according to a pattern, based on an input that controls the direction of movement of the avatar.
  • the user can control the direction of movement of the avatar.
  • the electronic device 100 may receive a user's input for controlling the movement direction of the avatar through the input interface 130.
  • the electronic device 100 may receive a user's input for selecting one of right, left, upper, and lower directions.
  • the electronic device 100 may control the avatar to move in one of the following directions: right, left, upper, or lower along the pattern.
  • the electronic device 100 may control the avatar to move without deviating from the pattern, based on an input that controls the direction of movement of the avatar. For example, if the pattern displayed on the electronic device 100 is a straight moving pattern extending to the left and right, the electronic device 100 controls the avatar not to move based on the user's input of selecting the upward or downward direction. can do. Or, for example, the electronic device 100 may control the avatar to move left or right in response to a user's input of selecting an upward or downward direction. For example, the electronic device 100 may control the avatar to move to the left or right in response to the user's input of selecting the left or right direction.
  • the processor 110 may process the user's input by executing one or more instructions stored in the manipulation module (1851 in FIG. 18) and receive an input for controlling the movement direction of the avatar.
  • the processor 110 can control the avatar to move along the pattern's movement line and not move outside of the pattern by executing one or more instructions stored in the movement line manipulation module (1854 in FIG. 18).
  • the electronic device 100 may receive an input for setting a shooting effect.
  • the electronic device 100 may control photography according to a photographing effect.
  • the electronic device 100 may be controlled to capture a photo according to a photo shoot effect, based on an input for setting the photo shoot effect.
  • shooting effects may include flash, movement speed control, lighting, camera shake, exposure, zoom in/zoom out, etc.
  • the user can select a shooting effect to be processed on the captured video.
  • the electronic device 100 may receive a user's input for selecting a shooting effect through the input interface 130.
  • the electronic device 100 may receive a user's input for selecting a flash effect and control the flash effect to be processed in the captured image based on the user's input.
  • the processor 110 may process the user's input by executing one or more instructions stored in the manipulation module (1851 in FIG. 18) and receive an input for selecting a shooting effect.
  • the processor 110 may process shooting effects by executing one or more instructions stored in the shooting effect module (1854 in FIG. 18).
  • the electronic device 100 may perform photography in a virtual space based on an avatar that moves according to a customized pattern.
  • the electronic device 100 may store screen information of a virtual space located in the direction the avatar's gaze is directed.
  • the electronic device 100 may store screen information and generate a captured image.
  • the processor 110 may store screen information and generate a captured screen or captured image by executing one or more instructions stored in the captured image management module (1856 in FIG. 18).
  • the electronic device 100 may share stored screen information with users of other electronic devices, and may also share captured screens or captured images with users of other electronic devices. This is explained in detail in FIG. 17.
  • FIG. 5 is a diagram illustrating operations of an electronic device and a server that display a pattern selected from a list of patterns in a pattern providing service according to an embodiment.
  • the operations shown in FIG. 5 may correspond to operations S310 and S320 of FIG. 3.
  • the electronic device 100 may display a virtual space screen 501.
  • the electronic device 100 may receive a three-dimensional virtual space from the server 200 and display it on a two-dimensional virtual space screen 501.
  • the electronic device 100 may receive a two-dimensional virtual space screen 501 in which a three-dimensional virtual space is rendered from the server 200.
  • the avatar of the electronic device 100 is exemplified as looking at a shooting target avatar existing in a virtual space.
  • the electronic device 100 displays the capturing target avatar included in the virtual space screen, and the avatar of the electronic device 100 can capture the capturing target avatar.
  • the avatar of the electronic device 100 may look at another object to be photographed (eg, an animal, a tree, a background, etc.) existing in a virtual space and photograph the object to be photographed.
  • the server 200 may update the latest list of patterns 510 in the electronic device 100 .
  • the server 200 may store preset patterns and may also newly store various patterns received from various clients.
  • the server 200 may transmit the latest list of patterns 510 at the request of the electronic device 100.
  • the server 200 may periodically transmit the latest list of patterns 510 to the electronic device 100 even if there is no request from the electronic device 100.
  • the server 200 may transmit the latest list 510 of patterns including a curved moving pattern, a straight moving pattern, an 8-shaped moving pattern, etc.
  • the electronic device 100 may display a list of patterns 520 on the virtual space screen 501.
  • the electronic device 100 may display a curved moving pattern, a straight moving pattern, an 8-shaped moving pattern, etc. in the pattern list 520.
  • the camera moving pattern may include a moving pattern created by users of a plurality of electronic devices 101 and 102, including the electronic device 100.
  • the electronic device 100 may receive a user's input for selecting one pattern 530 from the list of displayed patterns 520 .
  • pattern 530 is illustrated as a curved moving pattern extending to the left and right.
  • the electronic device 100 may display the selected patterns 540 and 550 on the virtual space screens 502 and 503 based on the user's input for selecting the pattern 530.
  • the virtual space screen 502 is a first-person screen that displays a virtual space according to the gaze of the avatar 560
  • the virtual space screen 503 is a third-person screen that displays a virtual space including the location of the avatar 560.
  • the avatar 560 may not appear on the virtual space screen 502.
  • the virtual space screen 502 and the virtual space screen 503 can be changed according to the user's selection.
  • the electronic device 100 may display patterns 540 and 550 selected based on the position of the avatar 560 or the gaze of the avatar 560 on the virtual space screens 502 and 503.
  • a pattern 540 selected based on the gaze of the avatar 560 may be displayed on the virtual space screen 502.
  • the electronic device 100 may display the selected pattern 540 left/right based on the gaze of the avatar 560.
  • the electronic device 100 may display a curved moving pattern symmetrical around the avatar 560.
  • the selected pattern 540 displayed on the virtual space screen 502 may be displayed so that at least part of the pattern is visible depending on the gaze of the avatar 560.
  • a pattern 550 selected based on the position of the avatar 560 may be displayed on the virtual space screen 503.
  • the electronic device 100 may generate a selected pattern 550 centered on the location of the avatar 560.
  • the electronic device 100 may display a curved moving pattern symmetrical around the avatar 560.
  • the selected pattern 550 displayed on the virtual space screen 503 may be displayed in full view along with the avatar 560.
  • the electronic device 100 can generate a customized pattern according to the user's settings, and specific examples will be described with reference to FIGS. 6 to 9.
  • FIGS. 6A and 6B are diagrams illustrating the operation of an electronic device that controls the position of a pattern in a pattern providing service according to an embodiment.
  • the operation shown in FIG. 6A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a first-person virtual space screen 601 and a third-person virtual space screen 602.
  • the avatar 660 photographing the object to be photographed may not appear in the first-person virtual space screen 601, and the avatar 660 may appear in the third-person virtual space screen 602.
  • the electronic device 100 may display a pattern 640 on the first-person virtual space screen 601 based on the gaze of the avatar 660.
  • the electronic device 100 may display a pattern 650 on the third-person virtual space screen 602 based on the position of the avatar 660.
  • the electronic device 100 may receive an input that changes the location of the avatar included in the virtual space. In operation S615, the electronic device 100 may control the position of the pattern.
  • the electronic device 100 displays customized patterns 641 and 651 on the first-person virtual space screen 611 and the third-person virtual space screen 612 based on the input that controls the state of the pattern. You can.
  • the avatar 661 photographing the object to be photographed may not appear in the first-person virtual space screen 611, and the avatar 661 may appear in the third-person virtual space screen 612.
  • the electronic device 100 may change the positions of the patterns 641 and 651 based on an input that changes the position of the avatar 661. For example, the electronic device 100 moves the positions of the patterns 641 and 651 to the top, bottom, left, or right based on an input that moves the avatar 661 to the top, bottom, left, or right. You can do it.
  • the electronic device 100 may receive an input that changes the position of the avatar 661 so that it gets closer to the object to be photographed. Based on the input, the electronic device 100 may change the positions of the patterns 641 and 651 so that the patterns 641 and 651 come closer to the object to be photographed.
  • the electronic device 100 may display a pattern 641 close to the object to be photographed based on the gaze of the avatar 661 on the first-person virtual space screen 611.
  • the electronic device 100 may display a pattern 651 close to the object to be captured based on the position of the avatar 661 on the third-person virtual space screen 612.
  • the electronic device 100 may control the avatar to photograph the virtual space while moving along the customized patterns 641 and 651.
  • FIGS. 7A and 7B are diagrams illustrating the operation of an electronic device that controls the direction of a pattern in a pattern providing service according to an embodiment.
  • the operation shown in FIG. 7A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a first-person virtual space screen 701 and a third-person virtual space screen 702.
  • the avatar 760 photographing the object to be photographed may not appear in the first-person virtual space screen 701, and the avatar 760 may appear in the third-person virtual space screen 702.
  • the object to be photographed is omitted for convenience of explanation.
  • the electronic device 100 may display a pattern 740 on the first-person virtual space screen 701 based on the gaze of the avatar 760.
  • the electronic device 100 may display a pattern 750 on the third-person virtual space screen 702 based on the position of the avatar 760.
  • the electronic device 100 may receive an input that changes the gaze direction of the avatar included in the virtual space. In operation S715, the electronic device 100 may control the direction of the pattern.
  • the electronic device 100 displays customized patterns 741 and 751 on the first-person virtual space screen 711 and the third-person virtual space screen 712, respectively, based on the input that controls the state of the pattern. can do.
  • the avatar 761 photographing the object to be photographed may not appear on the first-person virtual space screen 711, and the avatar 761 may appear on the third-person virtual space screen 712.
  • the electronic device 100 may change the direction of the patterns 741 and 751 based on an input that changes the gaze direction of the avatar 761.
  • the electronic device 100 may change the extension direction of the patterns 641 and 651 to the It can be changed to the Y-axis direction or diagonal direction.
  • the electronic device 100 may receive an input that changes the gaze direction of the avatar 761 from the front to the right side.
  • the avatar 761 can change its gaze from the front to the right side.
  • the electronic device 100 may change the patterns 740 and 750 extending in the X-axis direction into patterns 741 and 751 extending in the diagonal direction.
  • the electronic device 100 may display a pattern 741 looking at the left side of the object to be photographed, based on the gaze of the avatar 761, on the first-person virtual space screen 711.
  • the electronic device 100 looks at the left side of the object to be photographed based on the position of the avatar 761 on the third-person virtual space screen 712 and displays a pattern 751 extending diagonally. can do.
  • the electronic device 100 may control the avatar to photograph the virtual space while moving along the customized patterns 741 and 751.
  • FIGS. 8A and 8B are diagrams illustrating the operation of an electronic device that controls the central axis of a pattern in a pattern providing service according to an embodiment.
  • the operation shown in FIG. 8A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a first-person virtual space screen 801 and a third-person virtual space screen 802.
  • the avatar 860 photographing the object to be photographed may not appear in the first-person virtual space screen 801, and the avatar 860 may appear in the third-person virtual space screen 802.
  • the object to be photographed is omitted for convenience of explanation.
  • the electronic device 100 may display a pattern 840 on the first-person virtual space screen 801 based on the gaze of the avatar 860.
  • the electronic device 100 may display a pattern 850 on the third-person virtual space screen 802 based on the position of the avatar 860.
  • the electronic device 100 may receive an input that changes the location of the avatar included in the virtual space. In operation S815, the electronic device 100 may control the central axis of the pattern.
  • the electronic device 100 displays customized patterns 841 and 851 on the first-person virtual space screen 811 and the third-person virtual space screen 812, respectively, based on the input that controls the state of the pattern. can do.
  • the avatar 861 may not appear on the first-person virtual space screen 811, and the avatar 861 may appear on the third-person virtual space screen 812.
  • the electronic device 100 may change the central axes of the patterns 841 and 851 based on an input that changes the position of the avatar 861. For example, the electronic device 100 moves the central axes of the patterns 841 and 851 upward, downward, left, or right based on an input that moves the avatar 861 upward, downward, left, or right. You can do it.
  • the electronic device 100 may receive an input that changes the position of the avatar 861 so that it moves to the left of the pattern extending along the X-axis. Based on the input, the electronic device 100 may change the central axes of the patterns 841 and 851 so that the central axes of the patterns 841 and 851 move from the exact center to the left.
  • the electronic device 100 may change the first-person virtual space screen 811 so that the central axis of the pattern 841 moves to the left based on the avatar 861.
  • the electronic device 100 may display a first-person virtual space screen 811 in which the central axis of the pattern 841 is moved to the left.
  • the electronic device 100 may change the third-person virtual space screen 812 so that the central axis of the pattern 851 moves to the left based on the avatar 861.
  • the electronic device 100 may display a third-person virtual space screen 812 in which the central axis of the pattern 851 is moved to the left.
  • the electronic device 100 may change the position of the pattern as shown in FIG. 6 or change the central axis of the pattern as shown in FIG. 8 .
  • the electronic device 100 may control the avatar to photograph the virtual space while moving along the customized patterns 841 and 851.
  • FIGS. 9A and 9B are diagrams illustrating the operation of an electronic device that controls the size of a pattern in a pattern providing service according to an embodiment. The operation shown in FIG. 9A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a third-person virtual space screen including an avatar 960.
  • the electronic device 100 may receive an input to enlarge, reduce, or partially delete the size of the pattern. In operation S915, the electronic device 100 may control the size of the pattern.
  • the pattern 950 since the pattern 950 is displayed in virtual space based on the current location of the avatar 960, it may overlap with an obstacle 970 in the virtual space or may escape from a specific space.
  • the obstacle 970 is exemplified as a wall existing in virtual space.
  • the electronic device 100 may identify a portion 950a where the pattern 950 and the obstacle 970 overlap.
  • the electronic device 100 may highlight a portion 950a of the pattern 950 that overlaps the obstacle 970.
  • the electronic device 100 may mark the portion 950a of the pattern 950 with an X, a different color, or a dotted line.
  • the user may delete part of the pattern 950 where the obstacle 970 and the movement line overlap, or reduce/enlarge the overall size of the pattern.
  • the electronic device 100 may control the size of the pattern based on an input that enlarges, reduces, or partially deletes the size of the pattern.
  • the electronic device 100 may control a portion of the pattern 951 to be deleted based on an input for deleting a portion of the pattern 951.
  • the electronic device 100 may control the overall size of the pattern 952 to be reduced based on an input that reduces the size of the pattern 952.
  • the electronic device 100 may control the overall size of the pattern to be enlarged based on an input for enlarging the size of the pattern.
  • the electronic device 100 deletes a portion 950a of the pattern 950 that overlaps the obstacle 970. You can control it to do so.
  • the electronic device 100 may control the avatar to photograph the virtual space while moving along the customized patterns 951 and 952.
  • FIGS. 10A and 10B are diagrams illustrating the operation of an electronic device that displays a customized pattern and a preview screen, according to an embodiment.
  • the operation shown in FIG. 10A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a first-person virtual space screen 1001 and a third-person virtual space screen 1002.
  • the avatar 1060 may not appear on the first-person virtual space screen 1001, and the avatar 1060 may appear on the third-person virtual space screen 1002.
  • the electronic device 100 may display customized patterns 1040 and 1050.
  • the electronic device 100 provides custom patterns (1040, 1050) and a photographing movement line of the avatar (1060) according to the custom patterns (1040, 1050) so that the user intuitively sets the custom patterns (1040, 1050).
  • Preview screens 1010 and 1020 may be generated based on input that sets the state of the pattern.
  • the electronic device 100 may receive an input for setting the state of the pattern.
  • the electronic device 100 may display a first screen displaying a virtual space according to the gaze of the avatar 1060 and a second screen displaying a virtual space including the location of the avatar 1060.
  • the electronic device 100 may display a first-person view screen that displays a virtual space according to the gaze of the avatar 1060 and a third-person view screen that displays a virtual space including the location of the avatar 1060. .
  • the electronic device 100 may display the first-person virtual space screen 1001 as a full screen and the third-person virtual space screen 1002 as a preview screen 1010.
  • the electronic device 100 may display the first-person virtual space screen 1001 in full screen.
  • the user sets the state of the pattern 1040 on the first-person virtual space screen 1001
  • the user cannot check the state of the overall pattern, so it may be difficult to predict the shooting movement line of the avatar 1060.
  • the electronic device 100 may display a preview screen 1010 from a third-person perspective so that the user can intuitively predict the shooting path. The user can check the direction and size of the overall pattern, the position of the avatar 1060, etc. through the preview screen 1010 from a third-person perspective.
  • the preview screen 1010 is illustrated as being placed in the upper right corner at 1/4 size, but is not limited thereto.
  • the preview screen 1010 can be enlarged or reduced by the user, or moved by the user.
  • the electronic device 100 may display the third-person virtual space screen 1002 as a full screen and the first-person virtual space screen 1001 as a preview screen 1020.
  • the electronic device 100 may display a preview screen 1020 from a first-person perspective to predict the capture screen according to the capture movement line.
  • FIGS. 11A and 11B are diagrams illustrating the operation of an electronic device that displays a customized pattern and a preview screen, according to an embodiment.
  • the operation shown in FIG. 11A may be included in operation S330 of FIG. 3.
  • the electronic device 100 may display a third-person virtual space screen 1101.
  • An avatar 1130 may appear on the third-person virtual space screen 1101.
  • the electronic device 100 may display a customized pattern 1120.
  • the electronic device 100 provides a capture screen to be captured when the avatar 1130 is located at a specific location of the custom pattern 1120 so that the user can predict the capture screen according to the custom pattern 1120 before shooting. can be displayed as a preview screen 1110.
  • the electronic device 100 may receive an input for selecting one of the specific positions 1131, 1132, 1133, and 1134 displayed within the pattern 1120.
  • the electronic device 100 may display the pattern 1120 and specific positions 1131, 1132, 1133, and 1134 displayed within the pattern 1120.
  • a specific location 1131 represents a shooting screen to be captured at a first viewpoint (view #1)
  • a specific location 1132 represents a capturing screen to be captured at a second viewpoint (view #2)
  • a specific location 1132 represents a shooting screen to be captured at a second viewpoint (view #2).
  • Position 1133 represents a capture screen to be captured from a third viewpoint (view #3)
  • a specific location 1134 represents a capture screen to be captured from a fourth view point (view #4).
  • the specific locations 1131, 1132, 1133, and 1134 are illustrated as including four points, but are not limited thereto.
  • pattern 1120 may include fewer than four or more than four points.
  • the user selects one of the specific locations (1131, 1132, 1133, and 1134) in advance to check the shooting screen to be captured at the specific locations (1131, 1132, 1133, and 1134) displayed in the pattern 1120. You can choose.
  • the electronic device 100 may receive a user's input for selecting one of the specific locations 1131, 1132, 1133, and 1134.
  • the electronic device 100 may display a first screen 1101 according to the current location of the avatar 1130 and a preview screen 1110 at a specific location of the avatar 1130.
  • the preview screen 1110 may be placed in the upper right corner at 1/4 size, or may be enlarged/reduced or moved by the user.
  • the electronic device 100 may display the first screen 1101 in the entire area and display the preview screen 1110 at a specific location in a partial area.
  • the electronic device 100 may display the preview screen 1110 from the second viewpoint (view #2) based on receiving a user's input for selecting a specific location 1132.
  • the specific location 1132 is located on the left side of the pattern 1120, the avatar 1130 can view the object to be photographed from the left at the specific location 1132.
  • the preview screen 1110 may be a capture screen according to the gaze direction of the avatar 1130 with respect to the object to be captured at a specific location 1132.
  • the user can predict the shooting screen according to the avatar's gaze direction according to a customized pattern before shooting.
  • FIG. 12 is a diagram illustrating the operation of an electronic device that photographs a virtual space according to a customized pattern in a pattern providing service according to an embodiment.
  • the operation shown in FIG. 12 may correspond to operation S340 of FIG. 3.
  • the electronic device 100 may display a first-person virtual space screen 1201 and a third-person virtual space screen 1202.
  • the avatar 1260 may not appear on the first-person virtual space screen 1201, and the avatar 1260 may appear on the third-person virtual space screen 1202.
  • the electronic device 100 may display customized patterns 1240 and 1250.
  • the electronic device 100 may control the avatar 1160 to move according to the patterns 1240 and 1250 based on an input that controls the direction of movement of the avatar.
  • the electronic device 100 may communicate with the control device 300 through a communication network.
  • the control device 300 may include direction keys 350, for example, a right key, a left key, an upper key, and a lower key.
  • the user can control the movement direction of the avatar to the right, left, top, and bottom based on the input of selecting the direction key 350 of the control device 300.
  • the electronic device 100 sets the avatar 1260 to one of right, left, top, and bottom based on the user selecting one of right, left, top, and bottom directions of the direction key 350. You can control it to move in any direction.
  • the electronic device 100 allows the avatar 1260 to move according to the patterns 1240 and 1260 without deviating from the patterns 1240 and 1250, based on an input that controls the movement direction of the avatar 1260. You can control it to move.
  • the patterns 1240 and 1250 are illustrated as moving patterns extending to the left and right.
  • the electronic device 100 may control the avatar to move left or right according to the patterns 1240 and 1250 in response to a user's input of selecting a left or right direction.
  • the electronic device 100 may control the avatar 1260 not to move based on a user's input of selecting an upward or downward direction.
  • the electronic device 100 moves the avatar 1260 to the left in response to a user's input selecting an upward direction, and moves the avatar 1260 to the right in response to a user's input selecting a downward direction. You can control it to move to .
  • the electronic device 100 may be controlled to capture a photo according to a photo shoot effect, based on an input for setting the photo shoot effect.
  • the electronic device 100 may display the shooting effect list 1220 in some areas.
  • the shooting effect list 1220 includes various shooting effects and may include, for example, flash, movement speed control, lighting, camera shake, exposure, zoom-in/zoom-out, etc.
  • the user can select a shooting effect to be processed on the captured video.
  • the electronic device 100 may receive a user's input for selecting a shooting effect through the input interface 130.
  • the electronic device 100 may receive a user's input for selecting a flash effect and control the flash effect to be processed in the captured image based on the user's input.
  • the electronic device 100 may perform photography in a virtual space based on the avatar 1260 moving according to the patterns 1240 and 1250.
  • the electronic device 100 may store screen information of a virtual space located in the direction in which the avatar 1260's gaze is directed.
  • the electronic device 100 may store screen information in a virtual space and generate a captured screen or captured image.
  • FIG. 13 is a flowchart illustrating a method of operating a plurality of electronic devices and a server that provides a capturing screen sharing service according to an embodiment.
  • the first electronic device 101 may invite the second electronic device 102 through the server 200 to share the captured screen with the second electronic device 102 .
  • the avatar corresponding to the user of the first electronic device 101 may be a first avatar
  • the avatar corresponding to the user of the second electronic device 102 may be a second avatar.
  • the first avatar may be an avatar that photographs a virtual space and shares the captured screen.
  • the second avatar may be a sharing target avatar that receives the screen captured by the first avatar.
  • the first avatar can share a screen captured with the second avatar as the object to be photographed to the second avatar, and can also share a screen captured with another object to be photographed to the second avatar.
  • the first electronic device 101 may receive an input for selecting a sharing target for sharing the captured screen.
  • the first electronic device 101 may receive an input for selecting the second avatar as a sharing target for sharing the capture screen captured by the first avatar.
  • the sharing target may be located in the same space as the first avatar in the virtual space and may be located at a short distance from the first avatar. That is, the sharing target may be located within the field of view of the first avatar at a short distance from the first avatar.
  • the first electronic device 101 may display a sharing target on a first-person virtual space screen.
  • the first electronic device 101 displays a user interface that can invite a sharing target to the shooting screen sharing service, and may invite the sharing target to the capturing screen sharing service according to an input to the user interface. .
  • the first electronic device 101 may transmit a request signal to the server 200 to invite a sharing target.
  • the first electronic device 101 may request the server 200 to invite the second electronic device 102 using the second avatar to the shooting screen sharing service.
  • the first electronic device 101 may transmit a request signal to the server 200 to invite a second avatar.
  • the server 200 may identify an invitation code based on the request signal. For example, the server 200 generates an invitation code containing information about the sharing recipient, the sharing host, and the shooting screen sharing service, and identifies the invitation code to determine who the sharing recipient is, who the sharing host is, and which It is possible to identify whether it is a service. For example, when the first avatar of the first electronic device 101 invites the second avatar of the second electronic device 102, the server 200 combines the ID of the first avatar and the ID of the second avatar. You can create an invitation code like “1st avatar-to-2nd avatar”. Alternatively, for example, the server 200 may identify the sharing recipient, sharing organizer, etc. using the IDs of each of the first avatar and the second avatar without an invitation code.
  • the server 200 identifies the invitation code, the sharing host is the first electronic device 101, the sharing recipient is the second electronic device 102, and the first electronic device 101 and the second electronic device It may be identified that the device 102 needs to provide a shooting sharing screen service.
  • the server 200 may transmit an invitation code to the sharing target.
  • the server 200 may transmit an invitation code to the second electronic device 102 that is the sharing target based on information about the sharing target, sharing host, and capture screen sharing service identified through the invitation code.
  • the second electronic device 102 may provide a user interface to inquire about consent to sharing the captured screen. For example, based on receiving an invitation code from the server 200, the second electronic device 102 may provide a user interface to inquire whether to access the shooting screen sharing service.
  • the second electronic device 102 may receive an input agreeing to share the captured screen.
  • the user may agree to share the captured screen through a user interface displayed on the second electronic device 102.
  • the second electronic device 102 may transmit an input signal consenting to sharing the captured screen to the server 200.
  • the input signal may include information that the second electronic device 102 agrees to an invitation to a shooting screen sharing service.
  • the server 200 may identify an invitation code based on the input signal. For example, the server 200 may identify information about the sharing recipient and information indicating consent to the invitation to the shooting screen sharing service through the invitation code. For example, server 200 may identify the shared host through an invitation code.
  • the server 200 may transmit an input signal to the first electronic device 101.
  • the server 200 may transmit a signal including information indicating consent to an invitation to a shooting screen sharing service to the first electronic device 101.
  • the first electronic device 101 may receive an input signal and share the captured screen based on the received input signal.
  • the first electronic device 101 may transmit captured screen information including location information and direction information of the first avatar.
  • the second electronic device 102 which has received the captured screen information, may render the captured screen using the location information and direction information of the first Ava.
  • the first electronic device 101 may transmit a captured screen or captured image according to the field of view of the first avatar. This is explained in detail in FIGS. 15 and 16.
  • the first electronic device 101 may provide a user interface that notifies the progress of the captured screen sharing and the sharing target.
  • FIG. 14 is a diagram illustrating operations of a plurality of electronic devices sharing a capture screen according to an embodiment.
  • the first electronic device 101 displays a virtual space screen 1401 looking at the second avatar 1410 according to the gaze of the first avatar
  • the second electronic device 102 displays the virtual space screen 1401 looking at the second avatar 1410 according to the gaze of the first avatar.
  • a virtual space screen 1451 facing the first avatar 1430 may be displayed according to the avatar's gaze.
  • FIG. 14 illustrates a situation in which the first avatar 1430 of the first electronic device 101 photographs the second avatar 1410 and shares the photographed screen with the second avatar 1410.
  • the first avatar 1430 may photograph a photographing target object other than the second avatar 1410 and share the photographed screen with the second avatar 1410.
  • the virtual space screen 1401 of the first electronic device 101 is a first-person virtual space screen
  • the first avatar 1430 of the first electronic device 101 may not appear.
  • the virtual space screen 1451 of the second electronic device 102 is a first-person virtual space screen
  • the second avatar 1410 of the second electronic device 102 may not appear.
  • the first electronic device 101 may receive an input for selecting a second avatar 1410 for sharing the captured screen.
  • the user can select a second avatar 1410 located nearby in the same space as the first avatar and share the captured screen with the second avatar 1410.
  • the first electronic device 101 may display a shared service user interface (UI) 1420 at a location adjacent to the second avatar 1410.
  • the sharing service UI 1420 may be a user interface that can invite a sharing target to a shooting screen sharing service.
  • the shared service UI 1420 may be displayed as a gear icon, but is not limited thereto.
  • the first electronic device 101 may receive a user's input for selecting the sharing service UI 1420 adjacent to the second avatar 1410.
  • the first electronic device 101 may invite the second avatar 1410 to the capture screen sharing service based on the input of the user who selects the sharing service UI 1420.
  • the first electronic device 101 may request an invitation to the second avatar 1410 from the second electronic device 102 through the server 200 (1405).
  • the second electronic device 102 may display an inquiry UI 1440 that inquires about consent to sharing the captured screen based on the invitation code received through the server 200.
  • the inquiry UI 1440 may ask, “Would you like to share the first avatar’s shooting screen?
  • the message “yes/no” may be included.
  • the second electronic device 102 may generate an input signal agreeing to share the captured screen based on receiving the “yes” input from the inquiry UI 1440.
  • the second electronic device 102 may generate an input signal not consenting to sharing the captured screen based on receiving an input of “no” in the inquiry UI 1440.
  • the second electronic device 102 can access the shooting screen sharing service by transmitting an input signal to the server 200.
  • the first electronic device 101 and the second electronic device 102 can access the capture screen sharing service through the server 200 and transmit and receive capture screens or images with each other.
  • Figure 15 is a flowchart showing a method of operating a plurality of electronic devices and a server that share a captured screen in a captured screen sharing service according to an embodiment.
  • the first electronic device 101 may share the captured screen with the second electronic device 102 through the server 200. As seen in FIG. 13, the first electronic device 101 can invite the second electronic device 102 to the capture screen sharing service, and the second electronic device 102 can agree to the invitation.
  • the first electronic device 101 may transmit captured screen information to the server 200.
  • the captured screen information may include information about the location of the first avatar, the gaze direction of the first avatar, the direction of movement of the first avatar, etc.
  • the first electronic device 101 may transmit location information, gaze direction information, movement direction information, etc. of the first avatar to the server 200.
  • the first electronic device 101 may transmit only the captured screen information to the server 200 without compressing the captured image generated according to the gaze of the first avatar and transmitting it to the server 200. Accordingly, rendering of the first electronic device 101 is omitted, so the amount of computation can be minimized.
  • the first electronic device 101 may provide a user interface that notifies the progress of captured screen sharing and the sharing target.
  • the server 200 may receive captured screen information from the first electronic device 101 and identify an invitation code.
  • the server 200 can identify the sharing recipient, sharing organizer, and capture screen sharing service through the invitation code.
  • the server 200 may transmit captured screen information of the first electronic device 101 to the second electronic device 102 through an invitation code.
  • the server 200 may transmit captured screen information to the second electronic device 102.
  • the second electronic device 102 may obtain captured screen information.
  • the second electronic device 102 may render a captured screen based on captured screen information.
  • the second electronic device 102 may generate a three-dimensional virtual space viewed from the first avatar's gaze as a two-dimensional graphic screen based on the location information, gaze direction information, and movement direction information of the first avatar. You can.
  • the second electronic device 102 may display a preview screen for the rendered captured screen.
  • the preview screen may be displayed in a partial area or the entire area of the second electronic device 102.
  • the second electronic device 102 may receive the captured image from the server 200. .
  • FIGS. 16A, 16B, and 16C are diagrams illustrating operations of a plurality of electronic devices sharing a capture screen according to an embodiment.
  • the first electronic device 101 may display a virtual space screen 1601 looking at the second avatar 1611 according to the gaze of the first avatar.
  • the second electronic device 102 may display a virtual space screen 1631 looking at the first avatar 1631 according to the gaze of the second avatar.
  • the first avatar 1631 of the first electronic device 101 photographs the second avatar 1611 as a photographing target object, and displays a photographing screen on the second avatar 1611. This is exemplified by sharing.
  • the virtual space screen 1601 of the first electronic device 101 is a first-person virtual space screen
  • the first avatar 1630 of the first electronic device 101 may not appear.
  • the virtual space screen 1651 of the second electronic device 102 is a first-person virtual space screen
  • the second avatar 1610 of the second electronic device 102 may not appear.
  • the first electronic device 101 may transmit captured screen information to the second electronic device 102 (1605). While sharing captured screen information, the first electronic device 101 may provide a notification UI 1620 that notifies the progress of captured screen sharing and the sharing target.
  • the notification UI 1620 may include the message “Sharing the shooting screen (second avatar).”
  • the first electronic device 101 may transmit location information, gaze direction information, and movement direction information of the first avatar looking at the second avatar 1611 from the front.
  • the second electronic device 102 may render a captured screen based on captured screen information received from the first electronic device 101. For example, the second electronic device 102 receives location information, gaze direction information, and movement direction information of the first avatar 1631 looking at the second avatar 1611 from the front, and the second avatar 1611 ), the distance of the first avatar 1631 from the distance, the direction of the first avatar 1631 with respect to the second avatar 1611, etc. can be calculated.
  • the second electronic device 102 may generate a 2D graphic screen of a 3D virtual space as seen from the perspective of the first avatar 1631 in the virtual space. For example, the second electronic device 102 may generate an image of the second avatar 1611 taken from the front.
  • the second electronic device 102 may display the rendered captured screen as a preview screen 1641.
  • the preview screen 1641 may include an image taken of the second avatar 1611 from the front.
  • the preview screen 1641 is illustrated as being 1/4 size and placed in the upper right corner, but the preview screen 1641 is not limited thereto.
  • the preview screen 1641 can be enlarged or reduced by the user, or moved by the user.
  • the first electronic device 101 may display a virtual space screen 1602 looking at the second avatar 1612 according to the gaze of the first avatar.
  • the second electronic device 102 may display a virtual space screen 1632 looking at the first avatar 1632 according to the gaze of the second avatar.
  • the first avatar of the first electronic device 101 can view the second avatar 1612 from the left side. Accordingly, the left side of the second avatar 1612 may be displayed on the virtual space screen 1602 of the first electronic device 101, and the left side of the second avatar 1612 may be displayed on the virtual space screen 1652 of the second electronic device 102.
  • the first avatar 1632 located to the right of the avatar 1612 may be displayed.
  • the first electronic device 101 captures screen information, for example, location information of the first avatar looking at the second avatar 1612 from the left side, gaze direction information, and movement direction. Information can be transmitted.
  • the second electronic device 102 may render the captured screen based on the captured screen information received from the first electronic device 101 and display it as a preview screen 1642. For example, the second electronic device 102 may generate an image captured from the left side of the second avatar 1612 and display it on the preview screen 1642.
  • the first electronic device 101 may display a virtual space screen 1603 looking at the second avatar 1613 according to the gaze of the first avatar.
  • the second electronic device 103 may display a virtual space screen 1633 looking at the first avatar 1633 according to the gaze of the second avatar.
  • the first avatar of the first electronic device 101 can view the second avatar 1613 from the right side. Accordingly, the right side of the second avatar 1613 may be displayed on the virtual space screen 1603 of the first electronic device 101, and the second avatar 1613 may be displayed on the virtual space screen 1653 of the second electronic device 103.
  • the first avatar 1633 located to the left of the avatar 1613 may be displayed.
  • the first electronic device 101 captures screen information, for example, location information of the first avatar looking at the second avatar 1613 from the right side, gaze direction information, and movement direction information. can be transmitted.
  • the second electronic device 103 may render the captured screen based on the captured screen information received from the first electronic device 101 and display it as a preview screen 1643.
  • the second electronic device 103 may generate an image captured from the right side of the second avatar 1613 and display it on the preview screen 1643.
  • FIG. 17 is a flowchart illustrating a method of operating an electronic device that provides a pattern providing service and a capturing screen sharing service according to an embodiment.
  • a plurality of electronic devices 101 and 102 may provide a pattern providing service and a capture screen sharing service.
  • the first electronic device 101 can capture a photograph according to a customized pattern through a pattern providing service and share the captured screen with the second electronic device 102 through a capture screen sharing service.
  • the pattern providing service has been described in FIGS. 3 to 12 and the shooting screen sharing service has been described in FIGS. 13 to 16, detailed descriptions will be omitted.
  • the first electronic device 101 may receive an input for selecting a sharing target for sharing the captured screen. Operation S1710 may correspond to operation S1305 of FIG. 13.
  • the first electronic device 101 may transmit a signal requesting an invitation to share.
  • Operation S1720 may correspond to operation S1310 of FIG. 13.
  • the first electronic device 101 may receive an input agreeing to share the captured screen.
  • Operation S1720 may correspond to operation S1350 of FIG. 13.
  • the first electronic device 101 may receive an input for selecting a pattern from a list of patterns for camera movement. Operation S1740 may correspond to operation S310 of FIG. 3.
  • the first electronic device 101 may display a selected pattern based on the first avatar in the virtual space. Operation S1750 may correspond to operation S320 of FIG. 3.
  • the first electronic device 101 may generate a customized pattern based on an input that sets the state of the pattern. Operation S1760 may correspond to operation S330 of FIG. 3.
  • the first electronic device 101 may transmit captured screen information of the first avatar moving according to a customized pattern.
  • Operation S1770 corresponds to operation S1505 of FIG. 15, and the captured screen information may include the location of the first avatar moving according to the customized pattern, the gaze direction of the first avatar, and the movement direction of the first avatar.
  • Figure 18 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.
  • the electronic device 1800 of FIG. 18 may be an example of the electronic device 100 of FIG. 2 .
  • descriptions that overlap with those described in FIG. 2 will be omitted.
  • the electronic device 1800 may include a processor 1801 and a memory 1850.
  • the processor 1801 and memory 1850 included in the electronic device 1800 may perform the same operations as the processor 110 and memory 150 included in the electronic device 100 of FIG. 2 .
  • the electronic device 1800 includes, in addition to the processor 1801 and the memory 1850, a tuner unit 1810, a communication interface 1820, a detection unit 1830, an input/output unit 1840, and a video processing unit. It may further include a display 1850, a display 1860, an audio processing unit 1870, an audio output unit 1880, and an input interface 1890.
  • the communication interface 1820 may correspond to the communication interface 120 of FIG. 2 .
  • Display 1860 may correspond to display 130 of FIG. 2.
  • the input interface 1890 may correspond to the input interface 140 of FIG. 2.
  • the tuner unit 1810 amplifies, mixes, resonates, etc. broadcast content received by wire or wirelessly, and selects only the frequency of the channel desired to be received by the electronic device 1800 among many radio wave components. You can select it by tuning. Content received through the tuner unit 1810 is decoded and separated into audio, video, and/or additional information. Separated audio, video, and/or additional information may be stored in the memory 1850 under the control of the processor 1801.
  • the communication interface 1820 can connect the electronic device 1800 to a peripheral device, external device, server, mobile terminal, etc. under the control of the processor 1801.
  • the communication interface 1820 may include at least one communication module capable of performing wireless communication.
  • the communication interface 1820 may include at least one of a wireless LAN module 1821, a Bluetooth module 1822, and a wired Ethernet 1823, depending on the performance and structure of the electronic device 1800.
  • the wireless LAN module 1821 can transmit and receive Wi-Fi signals with surrounding devices according to Wi-Fi communication standards.
  • the Bluetooth module 1822 can receive a Bluetooth signal transmitted from a peripheral device according to the Bluetooth communication standard.
  • the Bluetooth module 1822 can be a BLE (Bluetooth Low Energy) communication module and can receive BLE signals.
  • the Bluetooth module 1822 may continuously or temporarily scan the BLE signal to detect whether the BLE signal is being received.
  • the detection unit 1830 detects the user's voice, the user's image, or the user's interaction, and may include a microphone, a camera unit, an optical receiver, and a sensing unit.
  • the input/output unit 1840 receives video (e.g., dynamic image signals, still image signals, etc.) and audio (e.g., voice signals, music signals, etc.) from external devices under the control of the processor 1801. and additional information can be received.
  • the input/output unit 1840 may include one of a High-Definition Multimedia Interface port (HDMI port), a component jack, a PC port, and a USB port.
  • HDMI port High-Definition Multimedia Interface port
  • the video processing unit 1850 processes image data to be displayed by the display 1860 and performs various image processing operations such as decoding, rendering, scaling, noise filtering, frame rate conversion, and resolution conversion on the image data. You can.
  • the display 1860 can output content received from a broadcasting station or from an external device such as an external server or external storage medium, or provided by various apps, such as an OTT service provider or a metaverse content provider, on the screen.
  • an external device such as an external server or external storage medium
  • apps such as an OTT service provider or a metaverse content provider
  • the audio processing unit 1870 performs processing on audio data.
  • the audio processing unit 1870 may perform various processing such as decoding, amplification, noise filtering, etc. on audio data.
  • the audio output unit 1880 outputs audio included in content received through the tuner unit 1810 under the control of the processor 1801, audio input through the communication interface 1820 or the input/output unit 1840, and memory. Audio stored in (1850) can be output.
  • the audio output unit 1880 may include at least one of a speaker, headphones, or S/PDIF (Sony/Philips Digital Interface: output terminal).
  • the input interface 1890 may receive a user's input for controlling the electronic device 1800.
  • the input interface 1890 includes a touch panel that detects the user's touch, a button that receives the user's push operation, a wheel that receives the user's rotation operation, a keyboard, a dome switch, and voice recognition. It may include, but is not limited to, various types of user input devices including a microphone for detecting motion, a motion detection sensor for detecting motion, etc.
  • the input interface 1890 may receive a user's input for controlling an avatar displayed on the display 1860.
  • the input interface 1890 may receive an input regarding the direction of movement of the avatar under the control of the processor 1801.
  • the processor 1801 can control the movement direction of the avatar through the direction keys.
  • the input interface 1890 may receive a user's input for controlling a user interface related to a photography service displayed on the display 1860.
  • the memory 1850 includes a manipulation module 1851, a camera moving pattern module 1852, a moving line manipulation module 1853, a shooting effect module 1854, a shooting screen sharing module 1855, and shooting image management.
  • Module 1856 can be stored.
  • the processor 1801 includes a manipulation module 1851, a camera moving pattern module 1852, a moving line manipulation module 1853, a shooting effect module 1854, a shooting screen sharing module 1855, and shooting image management. Operations according to the present disclosure may be performed by executing one or more instructions stored in each module 1856.
  • the processor 1801 may process the user's input received through the input interface by executing one or more instructions stored in the manipulation module 1851.
  • the processor 1801 can execute a menu of virtual space content or control the movement direction of the avatar by executing the manipulation module 1851.
  • the processor 1801 can process the user's input for selecting a pattern for camera movement, the position of the pattern, the direction of the pattern, the size of the pattern, and the shooting effect by executing the manipulation module 1851. there is.
  • the processor 1801 can process the user's input for moving the avatar's position, the avatar's gaze, etc., by executing the manipulation module 1851.
  • the processor 1801 may process a user's input for selecting an avatar to invite for sharing the captured screen by executing the manipulation module 1851.
  • the processor 1801 executes one or more instructions stored in the camera moving pattern module 1852, receives a list of patterns for camera moving from the server 200, and synchronizes the list of received patterns. You can.
  • the processor 1801 may control the display to display a list of patterns.
  • the processor 1801 may control the state of the pattern and generate a customized pattern by executing one or more instructions stored in the camera moving pattern module 1852.
  • the state of the pattern may include the position of the pattern, the direction of the pattern, the central axis of the pattern, and the size of the pattern.
  • the processor 1801 may generate a custom pattern customized to the user by executing one or more instructions stored in the camera moving pattern module 1852. For example, in a customized pattern, the position of the pattern, the direction of the pattern, the central axis of the pattern, the size of the pattern, etc. may be customized for each user.
  • the processor 1801 may display a preview screen while setting a customized pattern by executing one or more instructions stored in the camera moving pattern module 1852. For example, if the entire screen is a first-person screen, a preview screen from a third-person perspective can be displayed. For example, if the entire screen is a third-person perspective screen, a preview screen from a first-person perspective may be displayed.
  • the processor 1801 can control the avatar to move according to a moving pattern through a user's input that controls the direction of movement of the avatar by executing one or more instructions stored in the movement line manipulation module 1853. That is, the processor 1801 according to one embodiment can control the avatar to move without deviating from the pattern, based on an input that controls the direction of movement of the avatar.
  • the processor 1801 may process a shooting effect selected through a user's input by executing one or more instructions stored in the shooting effect module 1854.
  • shooting effects may include any one of flash, movement speed control, lighting, camera shake, exposure, and zoom-in/zoom-out.
  • the processor 1801 may generate a user interface related to the capturing screen sharing service by executing one or more instructions stored in the capturing screen sharing module 1855.
  • the user interface is the UI (User Interface) that provides the shooting screen sharing service (or sharing service UI), the inquiry UI to inquire about consent to sharing the shooting screen, the notification UI that informs the progress of the shooting screen sharing, and the shooting screen sharing service providing UI (User Interface) (or sharing service UI). It may include a preview screen for the screen, etc.
  • the processor 1801 may control the display 1860 to display a user interface.
  • the processor 1801 may transmit captured screen information to the server 200 by executing one or more instructions stored in the captured screen sharing module 1855.
  • the captured screen information may include the location (or coordinates) of the first avatar corresponding to the camera, the gaze direction of the first avatar, and the movement direction of the first avatar.
  • the processor 1801 may be included in the first electronic device 101 including the first avatar, which is the shooting avatar.
  • the processor 1801 may receive captured screen information from the server 200 by executing one or more instructions stored in the captured screen sharing module 1855.
  • the processor 1801 may be included in the second electronic device 102 including the second avatar to be shared.
  • the processor 1801 may render the captured screen based on the received captured screen information.
  • the processor 1801 creates a three-dimensional virtual space through the location (or coordinates) of the first avatar received from the first electronic device 101, the gaze direction of the first avatar, and the movement direction of the first avatar. can be created as a two-dimensional screen.
  • the processor 1801 can control the generated two-dimensional screen to be displayed.
  • the processor 1801 can control saving the captured image, sharing the captured image, and deleting the captured image by executing one or more instructions stored in the captured image management module 1856.
  • Figure 19 is a block diagram showing the configuration of a server according to an embodiment.
  • the server 200 may include a processor 210, a communication interface 220, and a memory 230.
  • the communication interface 220 can transmit and receive data or signals with the electronic device 100.
  • the communication interface 220 may include a Wi-Fi module, a Bluetooth module, an infrared communication module, a wireless communication module, a LAN module, an Ethernet module, a wired communication module, etc.
  • each communication module may be implemented in the form of at least one hardware chip.
  • the communication interface 220 may transmit a virtual space screen including an avatar to the electronic device 100 under the control of the processor 210.
  • the communication interface 220 may connect the electronic device 100 and the server 200 to a photography service providing system under the control of the processor 210.
  • the processor 210 controls the overall operation of the server 200 and signal flow between internal components of the server 200, and performs the function of processing data.
  • the processor 210 may include at least one of a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), and a Video Processing Unit (VPU). Alternatively, depending on the embodiment, it may be implemented in the form of a SoC (System On Chip) integrating at least one of CPU, GPU, and VPU. Alternatively, the processor 210 may further include a Neural Processing Unit (NPU).
  • CPU Central Processing Unit
  • GPU Graphic Processing Unit
  • VPU Video Processing Unit
  • SoC System On Chip
  • NPU Neural Processing Unit
  • the memory 230 may store various data, programs, or applications for driving and controlling the server 200.
  • a program stored in memory 230 may include one or more instructions.
  • a program (one or more instructions) or application stored in the memory 230 may be executed by the processor 210.
  • the memory 230 may store a captured screen sharing module 231, a captured image sharing module 232, and a camera moving pattern module 233.
  • the processor 210 may execute one or more instructions stored in each of the captured screen sharing module 231, the captured image sharing module 232, and the camera moving pattern module 233.
  • the processor 210 may receive captured screen information from the electronic device 100 including the sharing organizer by executing one or more instructions stored in the captured screen sharing module 231.
  • the processor 210 may transmit captured screen information to the electronic device 100 including the sharing target by executing one or more instructions stored in the captured screen sharing module 231.
  • the processor 210 may receive a captured image from the electronic device 100 including a sharing organizer by executing one or more instructions stored in the captured image sharing module 232.
  • the processor 210 may transmit the captured image to the electronic device 100 including the sharing target by executing one or more instructions stored in the captured image sharing module 232.
  • the processor 210 may update the latest list of camera moving patterns by executing one or more instructions stored in the camera moving pattern module 233 and provide the updated list of camera moving patterns to the electronic device 100.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' simply means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
  • a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
  • a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하고, 상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시하고, 선택된 패턴에 따라 이동하는 상기 제1 아바타를 기초로, 상기 가상 공간에 대한 촬영을 수행한다.

Description

전자 장치 및 전자 장치의 동작 방법
다양한 실시예들은 전자 장치 및 전자 장치의 동작 방법에 관한 것으로, 보다 구체적으로는 아바타를 통해 가상 공간을 촬영할 수 있는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
최근에는 사용자에게 현실 공간과 유사한 가상 공간에서 콘텐츠를 체험하도록 제공하는 차세대 미디어 환경에 대한 관심이 확대되고 있다. 특히, 가상 공간을 사용자에게 제공하는 대표적인 서비스로서 메타버스(metaverse)가 각광받고 있다. 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 3차원 가상 세계를 의미하며, 이러한 메타버스의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR) 기술이다. 가상 공간을 구현하는 방식은 다양하지만, 공통적으로 가상의 3차원 이미지를 사용하여 현실 공간의 사용자와 실시간으로 상호작용한다는 특징을 가진다.
메타버스 환경이 확대됨에 따라, 사용자는 가상 공간에서 자신을 투영한 아바타를 통해 다양한 활동을 수행할 수 있다. 예를 들어, 메타버스 환경은 아바타를 통해 가상 카메라로 가상 공간을 촬영하는 촬영 서비스를 제공할 수 있다. 사용자는 아바타를 이동시킴으로써 촬영 동선에 따른 촬영 영상을 제작하는 활동을 수행할 수 있다.
본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 선택된 패턴에 따라 이동하는 상기 제1 아바타를 기초로, 상기 가상 공간에 대한 촬영을 수행한다.
본 개시의 일 실시예에 따는 전자 장치의 동작 방법은, 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하는 단계, 상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시하는 단계, 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하는 단계, 상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시하는 단계, 및 상기 선택된 패턴에 따라 이동하는 상기 제1 아바타를 기초로, 상기 가상 공간에 대한 촬영을 수행하는 단계를 포함한다.
도 1은 일 실시예에 따른 촬영 서비스 제공 시스템을 나타내는 도면이다.
도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 4는 일 실시예에 따른 카메라 무빙을 위한 패턴 제공 서비스를 제공하는 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따른 패턴 제공 서비스에서, 패턴들의 목록 중 선택된 패턴을 표시하는 전자 장치 및 서버의 동작들을 나타내는 도면이다.
도 6a 및 도 6b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 위치를 제어하는 전자 장치의 동작을 나타내는 도면이다.
도 7a 및 도 7b은 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 방향을 제어하는 전자 장치의 동작을 나타내는 도면이다.
도 8a 및 도 8b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 중심축을 제어하는 전자 장치의 동작을 나타내는 도면이다.
도 9a 및 도 9b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 크기를 제어하는 전자 장치의 동작을 나타내는 도면이다.
도 10a 및 도 10b는 일 실시예에 따라 맞춤화된 패턴과 미리 보기 화면을 표시하는 전자 장치의 동작을 나타내는 도면이다.
도 11a 및 도 11b는 일 실시예에 따라 맞춤화된 패턴과 미리 보기 화면을 표시하는 전자 장치의 동작을 나타내는 도면이다.
도 12는 일 실시예에 따른 패턴 제공 서비스에서, 맞춤화된 패턴에 따라 가상 공간을 촬영하는 전자 장치의 동작을 나타내는 도면이다.
도 13은 일 실시예에 따른 촬영 화면 공유 서비스를 제공하는 복수의 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 14는 일 실시예에 따른 촬영 화면을 공유하는 복수의 전자 장치의 동작을 나타내는 도면들이다.
도 15는 일 실시예에 따른 촬영 화면 공유 서비스에서, 촬영 화면을 공유하는 복수의 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 16a, 도 16b, 및 도 16c는 일 실시예에 따른 촬영 화면을 공유하는 복수의 전자 장치의 동작을 나타내는 도면들이다.
도 17은 일 실시예에 따라 패턴 제공 서비스 및 촬영 화면 공유 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 18은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.
도 19는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.
본 개시에서, "a, b 또는 c 중 적어도 하나" 표현은 " a", " b", " c", "a 및 b", "a 및 c", "b 및 c", "a, b 및 c 모두", 혹은 그 변형들을 지칭할 수 있다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시 예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에서 “사용자”라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 촬영 서비스 제공 시스템을 나타내는 도면이다.
도 1을 참조하면, 일 실시예에 따른 촬영 서비스 제공 시스템은 복수의 전자 장치(101, 102) 및 서버(200)를 포함할 수 있다. 일 실시예에 따른 복수의 전자 장치(101, 102)는 촬영 서비스를 제공하는 장치들일 수 있다. 일 실시예에 따른 촬영 서비스는, 가상 공간에 존재하는 아바타의 위치 및 시선을 기준으로 가상 공간을 촬영하는 서비스일 수 있다. 복수의 전자 장치(101, 102)는 통틀어서 전자 장치(100)로 언급될 수 있다. 복수의 전자 장치(101,102)의 각각은 제1 전자 장치(101) 및 제2 전자 장치(102)로 언급될 수 있다.
일 실시예에 따른 복수의 전자 장치(101, 102) 각각은 영상을 출력할 수 있는 전자 장치일 수 있다. 일 실시예에 따라 복수의 전자 장치(101, 102) 각각은 디스플레이를 포함하는 다양한 형태의 전자 장치로 구현될 수 있다. 복수의 전자 장치(101, 102) 각각은 고정형 또는 이동형일 수 있으며, 디지털 방송 수신이 가능한 디지털 TV일 수 있으나, 이에 한정되지 않는다.
복수의 전자 장치(101, 102) 각각은 데스크톱, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자 북 리더기(e-book reader), 랩톱 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 디지털 카메라, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 캠코더, 네비게이션, 웨어러블 장치(wearable device), 스마트 와치(smart watch), 홈 네트워크 시스템, 보안 시스템, 의료 장치, 헤드 마운티드 디스플레이(HMD) 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 전자 장치(100)는 다양한 가상 공간 콘텐츠를 제공할 수 있다. 여기서, 전자 장치(100)는 복수의 전자 장치(101, 102) 중 어느 하나일 수 있다. 예를 들어, 전자 장치(100)는 서버(200)에서 제공하는 가상 공간 콘텐츠를 수신하여 디스플레이할 수 있다. 예를 들어, 서버(200)는 가상 공간 콘텐츠를 생성하고, 통신망을 통해 전자 장치(100)로 전송할 수 있다. 예를 들어, 서버(200)는 가상 공간 콘텐츠에 전자 장치(100)의 사용자에 대응하는 아바타를 생성하여, 전자 장치(100)에 전송할 수 있다. 전자 장치(100)는 사용자에 대응하는 아바타를 비롯한 가상 공간 콘텐츠를 디스플레이할 수 있다. 또는, 일 실시예에 따른 전자 장치(100)는 내부에 설치된 어플리케이션(application)을 실행함에 따라, 가상 공간 콘텐츠를 생성하고, 출력할 수도 있다.
서버(200)는 가상 공간 콘텐츠를 생성하고, 가상 공간 콘텐츠에 다양한 클라이언트의 사용자가 접속할 수 있도록 가상 공간 콘텐츠를 제공하는 장치이다. 서버(200)는 다양한 클라이언트의 사용자를 반영한 아바타를 생성하고, 제공할 수 있다. 서버(200)는 클라이언트의 일 예시인, 전자 장치(100)에 가상 공간 콘텐츠를 제공하며, 전자 장치(100) 사용자의 입력에 대응하여, 가상 공간 내의 객체(예컨대, 아바타)의 좌표를 관리할 수 있다. 즉, 서버(200)는 현실 공간의 사용자와 가상 공간의 객체가 상호작용할 수 있도록 한다.
일 실시예에 따른 촬영 서비스는, 카메라 무빙을 위한 패턴을 제공하는 패턴 제공 서비스를 포함할 수 있다. 본 개시에서, 카메라 무빙을 위한 패턴(이하, ‘카메라 무빙 패턴’ 또는 ‘패턴’이라고 함.)은 촬영을 보조하는 카메라 레일(camera rail)과 같이, 가상 공간을 촬영하기 위해 미리 설정된 촬영 동선, 촬영 시퀀스, 카메라 워크(camera work), 카메라 트래킹(camera tracking) 등을 의미할 수 있다. 일 실시예에 따른 촬영 서비스 제공 시스템에 연계된 전자 장치(100)와 서버(200)는, 패턴 제공 서비스를 통해 생성된 카메라 무빙 패턴에 따라 가상 공간을 촬영할 수 있다. 일 실시예에 따른 전자 장치(100)는 서버(200)로부터 제공받은 패턴들의 목록을 동기화하고, 패턴들의 목록을 디스플레이할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴들의 목록 중 어느 하나를 선택하는 사용자의 입력을 수신하고, 선택된 패턴을 가상 공간에 표시할 수 있다. 일 실시예에 따른 전자 장치(100)는 선택된 패턴에 따라 아바타를 이동시켜, 아바타의 위치 및 아바타의 시선을 기초로 가상 공간을 촬영할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴 제공 서비스를 통해 미리 설정된 카메라 무빙 패턴을 적용하여 촬영 아바타를 조작할 수 있다. 사용자는 대표적인 카메라 무빙 패턴들의 목록에 따라 촬영 동선을 예측할 수 있으므로, 촬영 동선을 직접 제작하는 과정이 생략될 수 있다. 일 실시예에 따른 전자 장치(100)는 카메라 무빙 패턴에 따라 촬영 아바타를 조작함으로써, 가상 공간에 대한 촬영을 수행할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴의 상태를 설정하는 사용자의 입력에 기초하여, 맞춤화된 패턴을 생성할 수 있다. 일 실시예에 따른 전자 장치(100)는 맞춤화된 패턴에 따라 아바타를 이동시켜, 아바타의 위치 및 아바타의 시선을 기초로 가상 공간을 촬영할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴 제공 서비스를 통해 미리 설정된 카메라 무빙 패턴에 사용자 맞춤 상태를 설정할 수 있다. 사용자는 촬영 동선을 직접 제작하지 않고도, 원하는 위치, 크기, 방향 등을 갖는 카메라 무빙 패턴을 생성할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간을 촬영하기 위해 아바타를 여러 동선으로 조작하지 않더라도, 미리 설정된 패턴에 사용자 맞춤 상태를 설정하여 아바타를 조작할 수 있다. 따라서, 사용자는 아바타를 직접 조작하지 않더라도, 대표적인 무빙 패턴들의 목록에 따라 촬영 동선을 예측할 수 있다. 또한, 아바타는 맞춤화된 패턴에 벗어나지 않고 패턴을 따라 이동하므로, 사용자는 보다 간편하게 가상 공간에 대한 촬영을 수행할 수 있다. 이에 관해서는 도 2 내지 도 12에서 상세히 설명한다.
일 실시예에 따른 촬영 서비스는, 복수의 전자 장치(101, 102) 간 촬영 화면을 공유하는 촬영 화면 공유 서비스를 포함할 수 있다. 일 실시예에 따른 복수의 전자 장치(101, 102)는 촬영 화면 공유 서비스를 제공할 수 있다. 촬영 화면 공유 서비스를 제공하는 복수의 전자 장치(101, 102)는 촬영 화면을 공유하거나, 촬영 화면을 수신할 수 있다. 예를 들어, 제1 전자 장치(101)가 서버(200)를 통해 촬영 화면을 공유하면, 제2 전자 장치(102)는 서버(200)를 통해 촬영 화면을 수신할 수 있다. 제2 전자 장치(102)는 제1 전자 장치(101)의 아바타의 정보를 기초로, 수신한 촬영 화면을 표시할 수 있다. 이에 관해서는 도 2, 및 도 13 내지 도 16에서 상세히 설명한다.
본 개시에서, 제1 전자 장치(101)가 가상 공간을 촬영하는 촬영 아바타를 포함하는 경우, 촬영 아바타는 제1 아바타(111)로 지칭될 수 있다. 또한, 제2 전자 장치(102)가 제1 아바타(111)에 의해 촬영된 화면을 수신하는 공유 대상 아바타를 포함하는 경우, 공유 대상 아바타는 제2 아바타(112)로 지칭될 수 있다.
도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 2를 참조하면, 일 실시예에 따른 전자 장치(100)는 프로세서(110), 통신 인터페이스(120), 디스플레이(130), 입력 인터페이스(140), 및 메모리(150)를 포함할 수 있다.
일 실시예에 따른 통신 인터페이스(120)는 프로세서(110)의 제어에 의해 전자 장치(100)를 서버(200), 이동 단말기 등의 외부 기기와 연결할 수 있다. 예를 들어, 통신 인터페이스(120)는 와이-파이(Wi-Fi) 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈, LAN 모듈, 이더넷(Ethernet) 모듈, 유선 통신 모듈 등을 포함할 수 있다. 이때, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다. 무선 통신 모듈은 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation) 등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
일 실시예에 따른 통신 인터페이스(120)는 프로세서(110)의 제어에 의해 서버(200)로부터 아바타를 포함한 가상 공간 콘텐츠를 수신할 수 있다. 일 실시예에 따른 통신 인터페이스(120)는 프로세서(110)의 제어에 의해 서버(200)로부터 미리 설정된 패턴들의 목록을 수신할 수 있다. 일 실시예에 따른 통신 인터페이스(120)는 프로세서(110)의 제어에 의해 촬영 화면을 다른 전자 장치와 공유할 수 있다.
일 실시예에 따른 디스플레이(130)는 프로세서(110)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 등을 변환하여 구동 신호를 생성하고, 구동 신호에 따라 영상을 표시할 수 있다.
일 실시예에 따른 디스플레이(130)는 프로세서(110)의 제어에 의해 아바타를 포함한 가상 공간을 표시할 수 있다. 일 실시예에 따른 디스플레이(130)는 프로세서(110)의 제어에 의해 패턴들의 목록을 표시하고, 선택된 패턴을 가상 공간에 표시하고, 촬영 효과를 표시할 수 있다. 일 실시예에 따른 디스플레이(130)는 프로세서(110)의 제어에 의해 촬영 화면 공유 서비스 제공 UI(User Interface)(또는, 공유 서비스 UI), 촬영 화면 공유에 대한 동의 여부를 문의하는 문의 UI, 촬영 화면 공유의 진행 상황을 알리는 알림 UI, 촬영 화면에 대한 미리 보기 화면 등을 표시할 수 있다. 사용자는 디스플레이(130)에 표시된 사용자 인터페이스(User Interface, UI)를 통해 전자 장치(100) 및 서버(200)와 상호작용할 수 있다.
일 실시예에 따른 입력 인터페이스(140)는 전자 장치(100)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 입력 인터페이스(140)는 사용자의 터치를 감지하는 터치 패널, 사용자의 입력을 수신하는 버튼, 휠, 키보드(key board), 및 돔 스위치 (dome switch), 음성 인식을 위한 마이크, 모션을 센싱하는 모션 감지 센서 등을 포함할 수 있다. 일 실시예에 따른 입력 인터페이스(140)는 외부 제어 장치, 예컨대 리모콘을 통해 사용자의 입력을 수신할 수 있다.
일 실시예에 따른 메모리(150)는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 일 실시예에 따른 메모리(150)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(150)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(110)에 의해 실행될 수 있다.
일 실시예에 따른 메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
일 실시예에 따른 프로세서(110)는 전자 장치(100)의 전반적인 동작을 제어하고, 전자 장치(100)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.
일 실시예에 따른 프로세서(110)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 일 실시예에 따른 프로세서(110)는 CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(110)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.
일 실시예에 따른 프로세서(110)는, 메모리(150)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 전자 장치(100)의 동작들이 수행되도록 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 가상 공간 내 제1 아바타를 기준으로, 선택된 패턴을 표시할 수 있다. 일 실시예에 따른 프로세서(110)는 패턴의 상태를 설정하는 입력에 기초하여, 맞춤화된 패턴을 생성할 수 있다. 일 실시예에 따른 프로세서(110)는 맞춤화된 패턴에 따라 이동하는 제1 아바타를 기초로, 가상 공간에 대한 촬영을 수행할 수 있다.
일 실시예에 따른 전자 장치(100)는 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하고, 가상 공간 내 제1 아바타를 기준으로, 선택된 패턴을 표시하고, 선택된 패턴에 따라 이동하는 제1 아바타를 기초로, 가상 공간에 대한 촬영을 수행할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 동작 S330을 생략하고 동작할 수 있다. 예를 들어, 전자 장치(100)는 패턴의 상태를 설정하는 입력을 수신하지 않을 수 있다. 예를 들어, 전자 장치(100)는 패턴들의 목록에서, 선택된 패턴을 통해 가상 공간에 대한 촬영을 수행할 수 있다. 이 경우, 선택된 패턴은 서버(200)로부터 기본적으로 제공되는 패턴의 상태를 가질 수 있다.
일 실시예에 따른 프로세서(110)는 통신 인터페이스(120)를 통해 서버(200)로부터 미리 설정된 패턴들의 목록을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 패턴들의 목록을 표시하도록 디스플레이(130)를 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 제1 아바타의 위치 또는 시선을 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다. 일 실시예에 따른 프로세서(110)는 제1 아바타의 시선에 대한 화면 정보를 통해 촬영을 수행할 수 있다.
일 실시예에 따른 프로세서(110)는 가상 공간에 포함된 제1 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 위치를 제어하는 동작, 가상 공간에 포함된 제1 아바타의 시선 방향을 변경하는 입력에 기초하여, 패턴의 방향을 제어하는 동작, 가상 공간에 포함된 제1 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 중심축을 제어하는 동작, 및 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력에 기초하여, 패턴의 크기를 제어하는 동작 중 어느 하나를 수행할 수 있다.
일 실시예에 따른 프로세서(110)는 가상 공간의 장애물과 중첩되는 패턴의 일부를 강조 표시할 수 있다. 일 실시예에 따른 프로세서(110)는 패턴의 일부를 삭제하도록 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 패턴의 상태를 설정하는 입력에 기초하여, 제1 아바타의 시선에 따른 가상 공간을 표시하는 제1 화면 및 제1 아바타의 위치를 포함한 가상 공간을 표시하는 제2 화면을 표시하도록 디스플레이(130)를 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 제1 아바타의 이동 방향을 제어하는 입력에 기초하여, 제1 아바타가 맞춤화된 패턴을 벗어나지 않고 이동하도록 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 촬영 효과를 설정하는 입력에 기초하여, 촬영 효과를 처리할 수 있다. 촬영 효과는, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 중 어느 하나를 포함할 수 있다.
일 실시예에 따른 프로세서(110)는 촬영 화면 공유를 위한 제2 아바타를 선택하는 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 통신 인터페이스(120)를 통해 서버(200)에 제2 아바타를 초대하기 위한 요청 신호를 전송할 수 있다. 일 실시예에 따른 프로세서(110)는 통신 인터페이스(120)를 통해 서버(200)로부터 촬영 화면 공유에 동의하는 입력 신호를 수신한 것에 기초하여, 촬영 화면을 공유할 수 있다.
일 실시예에 따른 프로세서(110)는 통신 인터페이스(120)를 통해 서버(200)에 촬영 화면 정보를 전송할 수 있다. 촬영 화면 정보는, 제1 아바타의 위치, 제1 아바타의 시선 방향, 제1 아바타의 이동 방향, 및 맞춤화된 패턴에 따라 이동하는 제1 아바타의 위치 정보 중 어느 하나를 포함할 수 있다.
도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 3을 참조하면, 동작 S310에서, 일 실시예에 따른 전자 장치(100)는 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신할 수 있다.
일 실시예에 따른 전자 장치(100)는 통신 인터페이스(120)를 통해 서버(200)로부터 미리 설정된 패턴들의 목록을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴들의 목록을 표시하도록 디스플레이(130)를 제어할 수 있다.
예를 들어, 전자 장치(100)는 서버(200)로부터 패턴들의 최신 목록을 수신하고, 주기적으로 패턴들의 목록을 업데이트할 수 있다. 예를 들어, 카메라 무빙 패턴은 360도 무빙 패턴, 곡선 무빙 패턴, 직선 무빙 패턴, 8자(8-shaped) 무빙 패턴 등을 포함할 수 있다. 예를 들어, 360도 무빙 패턴은 촬영 대상을 360도로 촬영하는 무빙 패턴일 수 있다. 예를 들어, 8자 무빙 패턴은 촬영 대상을 8자 형태로 촬영하는 무빙 패턴일 수 있다.
사용자는 전자 장치(100)에 표시된 패턴들의 목록 중 어느 하나를 선택할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 패턴들의 목록 중 어느 하나의 패턴을 선택하는 입력을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 메모리(150)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자의 입력을 처리하여, 어느 하나의 패턴을 선택할 수 있다.
동작 S320에서, 일 실시예에 따른 전자 장치(100)는 가상 공간 내 아바타를 기준으로, 선택된 패턴을 표시할 수 있다.
본 개시에서, 아바타는 가상 공간을 촬영하는 아바타를 지칭할 수 있다. 예를 들어, 아바타의 시선이 촬영 카메라에 대응될 수 있다. 또는, 예를 들어, 아바타는 촬영 카메라를 들고 있는 상태일 수 있다. 아바타는 서버(200)로부터 제공될 수 있다. 서버(200)는 가상 공간 내에 전자 장치(100)의 사용자를 반영한 아바타를 생성하고, 전자 장치(100)에 제공할 수 있다.
한편, 전자 장치(100)는 아바타에 의해 촬영된 화면을 다른 전자 장치에 공유할 수 있다. 이 경우, 촬영 화면을 공유하는 전자 장치(100)의 아바타가 제1 아바타인 경우, 촬영 화면을 공유받는 다른 전자 장치의 아바타는 제2 아바타일 수 있다. 이에 관해서는 도 13에서 설명한다.
일 실시예에 따른 전자 장치(100)는 가상 공간 내 아바타의 위치 또는 시선을 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다.
예를 들어, 전자 장치(100)는 아바타의 위치를 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다. 예를 들어, 전자 장치(100)가 아바타의 위치에 따른 3인칭 가상 공간을 표시하고 있는 경우, 아바타의 위치를 기준으로 선택된 패턴이 가상 공간에 표시될 수 있다.
예를 들어, 전자 장치(100)는 아바타의 시선을 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다. 예를 들어, 전자 장치(100)가 아바타의 시선에 따른 1인칭 가상 공간을 표시하고 있는 경우, 아바타의 시선을 기준으로 선택된 패턴이 가상 공간에 표시될 수 있다.
동작 S330에서, 일 실시예에 따른 전자 장치(100)는 패턴의 상태를 설정하는 입력에 기초하여, 맞춤화된 패턴을 생성할 수 있다. 예를 들어, 패턴의 상태는 패턴의 위치, 패턴의 방향, 패턴의 중심축, 및 패턴의 크기 중 어느 하나를 포함할 수 있다.
사용자는 전자 장치(100)에 표시된 패턴의 상태를 설정할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 패턴의 상태를 설정하는 사용자의 입력을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 사용자의 입력을 처리하여, 패턴의 상태를 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 위치를 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 시선 방향을 변경하는 입력에 기초하여, 패턴의 방향을 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 중심축을 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력에 기초하여, 패턴의 크기를 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간에 중첩되는 패턴의 일부를 삭제하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴의 상태를 제어함으로써, 맞춤화된 패턴을 생성할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴의 상태를 설정하는 입력에 기초하여, 패턴의 상태를 미리 보기 화면으로 표시할 수 있다. 일 실시예에 따른 전자 장치(100)는 사용자가 맞춤형 패턴을 직관적으로 설정하도록, 설정 중인 맞춤형 패턴을 촬영 전 미리 보기 화면으로 생성할 수 있다.
예를 들어, 전자 장치(100)는 아바타의 시선에 따른 가상 공간을 표시하는 제1 화면 및 아바타의 위치를 포함한 가상 공간을 표시하는 제2 화면을 표시하도록 디스플레이(130)를 제어할 수 있다. 예를 들어, 제1 화면은 아바타의 1인칭 시점 화면이고, 제2 화면은 아바타의 3인칭 시점 화면일 수 있다.
동작 S340에서, 일 실시예에 따른 전자 장치(100)는 맞춤화된 패턴에 따라 이동하는 아바타를 기초로, 가상 공간에 대한 촬영을 수행할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 이동 방향을 제어하는 입력에 기초하여, 아바타가 맞춤화된 패턴을 벗어나지 않고 이동하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 촬영 효과를 설정하는 입력에 기초하여, 촬영 효과를 처리할 수 있다. 예를 들어, 촬영 효과는, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 등을 포함할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 시선에 대한 화면 정보를 통해 촬영을 수행할 수 있다. 예를 들어, 전자 장치(100)는 아바타의 시선이 향하는 방향에 위치한 가상 공간을 저장할 수 있다. 예를 들어, 전자 장치(100)는 아바타의 시선이 향하는 방향의 화면 정보를 통해 촬영 영상을 생성하고, 저장할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴 제공 서비스를 통해 미리 설정된 패턴에 사용자 맞춤 상태를 설정하여 촬영 아바타를 조작할 수 있다. 사용자는 아바타를 직접 조작하지 않더라도, 대표적인 무빙 패턴들의 목록에 따라 촬영 동선을 예측할 수 있다.
한편, 본 개시의 일 실시예에 따른 전자 장치(100)는 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하고, 가상 공간 내 아바타를 기준으로, 선택된 패턴을 표시하고, 선택된 패턴에 따라 이동하는 아바타를 기초로, 가상 공간에 대한 촬영을 수행할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 동작 S330을 생략하고 동작할 수 있다. 예를 들어, 전자 장치(100)는 패턴의 상태를 설정하는 입력을 수신하지 않을 수 있다. 예를 들어, 전자 장치(100)는 패턴들의 목록에서, 선택된 패턴을 통해 가상 공간에 대한 촬영을 수행할 수 있다. 이 경우, 선택된 패턴은 서버(200)로부터 기본적으로 제공되는 패턴의 상태를 가질 수 있다. 즉, 사용자는 패턴의 상태를 변경하지 않고, 기본적으로 제공되는 패턴으로 촬영을 수행할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하는 단계, 가상 공간 내 아바타를 기준으로, 선택된 패턴을 표시하는 단계, 및 선택된 패턴에 따라 이동하는 아바타를 기초로, 가상 공간에 대한 촬영을 수행하는 단계를 포함할 수 있다.
도 4는 일 실시예에 따른 카메라 무빙을 위한 패턴 제공 서비스를 제공하는 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 4를 참조하면, 동작 S405에서, 일 실시예에 따른 전자 장치(100)는 카메라 무빙을 위한 패턴들의 목록을 표시할 수 있다. 일 실시예에 따른 전자 장치(100)는 통신 인터페이스(120)를 통해 서버(200)에 패턴들의 목록을 요청할 수 있다. 일 실시예에 따른 전자 장치(100)는 주기적으로 서버(200)로부터 패턴들의 최신 목록을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 서버(200)와 동기화될 수 있다.
일 실시예에 따른 전자 장치(100)는 업데이트된 패턴들의 최신 목록을 표시할 수 있다. 예를 들어, 카메라 무빙 패턴은 360도 무빙 패턴, 곡선 무빙 패턴, 직선 무빙 패턴, 8자(8-shaped) 무빙 패턴 등을 포함할 수 있다. 예를 들어, 카메라 무빙 패턴은 전자 장치(100)를 비롯한 복수의 전자 장치(101, 102)의 사용자들에 의해 생성된 무빙 패턴을 포함할 수도 있다.
일 실시예에 따른 프로세서(110)는 카메라 무빙 패턴 모듈(도 18의 1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써 패턴들의 목록을 수신하고, 수신한 패턴들의 목록을 표시하도록 디스플레이(130)를 제어할 수 있다.
동작 S410에서, 일 실시예에 따른 서버(200)는 패턴들의 최신 목록을 업데이트할 수 있다. 예를 들어, 서버(200)는 미리 설정된 패턴들을 저장할 수 있고, 다양한 클라이언트들로부터 수신한 다양한 패턴들을 새롭게 저장할 수도 있다.
일 실시예에 따른 서버(200)는 전자 장치(100)의 요청에 의해 패턴들의 최신 목록을 전송할 수 있다. 또는, 일 실시예에 따른 서버(200)는 전자 장치(100)의 요청이 없더라도, 주기적으로 전자 장치(100)에 패턴들의 최신 목록을 전송할 수 있다.
동작 S415에서, 일 실시예에 따른 전자 장치(100)는 패턴들의 목록에서, 패턴을 선택하는 입력을 수신할 수 있다.
사용자는 전자 장치(100)에 표시된 패턴들의 목록 중 어느 하나를 선택할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 패턴들의 목록 중 어느 하나의 패턴을 선택하는 입력을 수신할 수 있다.
일 실시예에 따른 프로세서(110)는 조작 모듈(도 18의 1851)에 저장된 하나 이상의 인스트럭션을 실행함으로써 사용자의 입력을 처리하여, 어느 하나의 패턴을 선택할 수 있다.
동작 S420에서, 일 실시예에 따른 전자 장치(100)는 가상 공간 내 아바타의 위치 또는 시선을 기준으로, 선택된 패턴을 표시할 수 있다. 동작 S420는 도 3의 동작 S320에 대응될 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 위치를 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다. 예를 들어, 전자 장치(100)가 아바타의 위치에 따른 3인칭 가상 공간을 표시하고 있는 경우, 아바타의 위치를 기준으로 선택된 패턴이 가상 공간에 표시될 수 있다. 예를 들어, 전자 장치(100)는 아바타의 위치를 중심으로 선택된 패턴을 생성할 수 있다. 예를 들어, 전자 장치(100)는 아바타를 중심축으로 좌/우로 생성된 패턴을 표시할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 시선을 기준으로 가상 공간에 선택된 패턴을 표시할 수 있다. 예를 들어, 전자 장치(100)가 아바타의 시선에 따른 1인칭 가상 공간을 표시하고 있는 경우, 아바타의 시선을 기준으로 선택된 패턴이 가상 공간에 표시될 수 있다. 예를 들어, 전자 장치(100)는 아바타의 시야에 패턴의 적어도 일부가 보이도록 표시할 수 있다.
일 실시예에 따른 프로세서(110)는 카메라 무빙 패턴 모듈(도 18의 1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 선택된 패턴을 표시하도록 디스플레이(130)를 제어할 수 있다.
그 다음, 일 실시예에 따른 전자 장치(100)는 종료 조건이 성립할 때까지 동작 S425, 동작 S430, 및 동작 S435를 루프(loop)에 따라 반복 실행할 수 있다. 전자 장치(100)는 동작 S425, 동작 S430, 및 동작 S435를 반복적으로 수행함으로써, 맞춤화된 패턴을 생성할 수 있다. 다시 말해, 사용자는 패턴의 상태를 설정하여 맞춤화된 패턴을 생성하기 위해 전자 장치(100)와 반복적으로 상호작용할 수 있다. 동작 S425, 동작 S430, 및 동작 S435는 도 3의 동작 S330에 대응될 수 있다.
동작 S425에서, 일 실시예에 따른 전자 장치(100)는 패턴의 상태를 설정하는 입력을 수신할 수 있다. 예를 들어, 패턴의 상태는 패턴의 위치, 패턴의 방향, 패턴의 중심축, 및 패턴의 크기 중 어느 하나를 포함할 수 있다.
사용자는 전자 장치(100)에 표시된 패턴의 상태를 설정할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 패턴의 상태를 설정하는 사용자의 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 패턴의 위치, 패턴의 방향, 패턴의 중심축, 또는 패턴의 크기를 설정하는 사용자의 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 조작 모듈(도 18의 1851)에 저장된 하나 이상의 인스트럭션을 실행함으로써 패턴의 상태를 설정하는 사용자의 입력을 처리할 수 있다.
일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 시선 방향을 변경하는 입력을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력을 수신할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력을 수신할 수 있다.
동작 S430에서, 일 실시예에 따른 전자 장치(100)는 패턴의 상태를 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴의 상태를 설정하는 입력에 기초하여, 패턴의 상태를 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴의 위치, 패턴의 방향, 패턴의 중심축, 및 패턴의 크기를 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 위치를 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 시선 방향을 변경하는 입력에 기초하여, 패턴의 방향을 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력에 기초하여, 패턴의 중심축을 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력에 기초하여, 패턴의 크기를 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 카메라 무빙 패턴 모듈(도 18의 1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 패턴의 상태를 제어할 수 있다.
동작 S435에서, 일 실시예에 따른 전자 장치(100)는 패턴의 상태를 미리 보기 화면으로 표시할 수 있다.
일 실시예에 따른 전자 장치(100)는 사용자가 맞춤형 패턴을 직관적으로 설정하도록, 설정 중인 맞춤형 패턴을 촬영 전 미리 보기 화면으로 생성할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 시선에 따른 가상 공간을 제공하는 제1 화면과 아바타의 위치를 포함한 가상 공간을 제공하는 제2 화면을 표시하도록 디스플레이(130)를 제어할 수 있다. 예를 들어, 제1 화면은 아바타의 1인칭 시점 화면이고, 제2 화면은 아바타의 3인칭 시점 화면일 수 있다.
일 실시예에 따른 전자 장치(100)는 제1 화면을 전체 화면으로 표시하고, 제2 화면을 미리 보기 화면으로서 제1 화면의 일부 영역에 표시할 수 있다.
또는, 일 실시예에 따른 전자 장치(100)는 제2 화면을 전체 화면으로 표시하고, 제1 화면을 미리 보기 화면으로서 제2 화면의 일부 영역에 표시할 수 있다.
예를 들어, 사용자는 1인칭 시점 화면에서 패턴의 상태를 설정할 때, 전체적인 패턴의 상태를 확인하지 못할 수 있다. 이 경우, 사용자는 3인칭 시점의 미리 보기 화면을 통해 전체적인 패턴의 방향, 크기 등을 확인할 수 있다. 일 실시예에서, 미리 보기 화면은 1/4 크기로 우상단에 배치되거나, 사용자에 의해 확대/축소되거나, 이동될 수 있다.
일 실시예에 따른 프로세서(110)는 카메라 무빙 패턴 모듈(도 18의 1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 패턴의 상태를 미리 보기 화면으로 표시하도록 디스플레이(130)를 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 동작 S425, 동작 S430, 및 동작 S435를 반복적으로 수행함으로써, 사용자에게 맞춤화된 패턴을 생성할 수 있다.
그 다음, 일 실시예에 따른 전자 장치(100)는 종료 조건이 성립할 때까지 동작 S440, 동작 S445, 동작 S450, 및 동작 S455를 루프(loop)에 따라 반복 실행할 수 있다. 전자 장치(100)는 동작 S440, 동작 S445, 동작 S450, 및 동작 S455를 반복적으로 수행함으로써, 아바타의 시선에 기초한 촬영을 수행할 수 있다. 다시 말해, 사용자는 촬영 영상을 생성하기 위해 전자 장치(100)와 반복적으로 상호작용할 수 있다. 동작 S440, 동작 S445, 동작 S450, 및 동작 S455는 도 3의 동작 S340에 대응될 수 있다.
동작 S440에서, 일 실시예에 따른 전자 장치(100)는 아바타의 이동 방향을 제어하는 입력을 수신할 수 있다. 동작 S445에서, 일 실시예에 따른 전자 장치(100)는 아바타가 패턴에 따라 이동하도록 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 아바타의 이동 방향을 제어하는 입력에 기초하여, 아바타가 패턴에 따라 이동하도록 제어할 수 있다.
사용자는 아바타의 이동 방향을 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 아바타의 이동 방향을 제어하는 사용자의 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 우측, 좌측, 상측, 하측 중 하나의 방향을 선택하는 사용자의 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 입력에 기초하여, 아바타가 패턴을 따라서 우측, 좌측, 상측, 하측 중 하나의 방향으로 이동하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 이동 방향을 제어하는 입력에 기초하여, 아바타가 패턴을 벗어나지 않고 이동하도록 제어할 수 있다. 예를 들어, 전자 장치(100)에 표시된 패턴이 좌측 및 우측으로 연장된 직선 무빙 패턴인 경우, 전자 장치(100)는 상측 또는 하측 방향을 선택하는 사용자의 입력에 기초하여서는 아바타가 이동하지 않도록 제어할 수 있다. 또는, 예를 들어, 전자 장치(100)는 상측 또는 하측 방향을 선택하는 사용자의 입력에 대응하여 아바타가 좌측 또는 우측으로 이동하도록 제어할 수 있다. 예를 들어, 전자 장치(100)는 좌측 또는 우측 방향을 선택하는 사용자의 입력에 대응하여 아바타가 좌측 또는 우측으로 이동하도록 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 조작 모듈(도 18의 1851)에 저장된 하나 이상의 인스트럭션을 실행함으로써 사용자의 입력을 처리하여, 아바타의 이동 방향을 제어하는 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 동선 조작 모듈(도 18의 1854)에 저장된 하나 이상의 인스트럭션을 실행함으로써 아바타가 패턴의 동선에 따라 이동하고, 패턴에 벗어나서 이동하지 않도록 제어할 수 있다.
동작 S450에서, 일 실시예에 따른 전자 장치(100)는 촬영 효과를 설정하는 입력을 수신할 수 있다. 동작 S455에서, 일 실시예에 따른 전자 장치(100)는 촬영 효과에 따라 촬영하도록 제어할 수 있다. 일 실시예에 따른 전자 장치(100)는 촬영 효과를 설정하는 입력에 기초하여, 촬영 효과에 따라 촬영하도록 제어할 수 있다. 예를 들어, 촬영 효과는, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 등을 포함할 수 있다.
사용자는 촬영 영상에 처리될 촬영 효과를 선택할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 촬영 효과를 선택하는 사용자의 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 플래시 효과를 선택하는 사용자의 입력을 수신하고, 사용자의 입력에 기초하여, 촬영 영상에 플래시 효과가 처리되도록 제어할 수 있다.
일 실시예에 따른 프로세서(110)는 조작 모듈(도 18의 1851)에 저장된 하나 이상의 인스트럭션을 실행함으로써 사용자의 입력을 처리하여, 촬영 효과를 선택하는 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(110)는 촬영 효과 모듈(도 18의 1854)에 저장된 하나 이상의 인스트럭션을 실행함으로써 촬영 효과를 처리할 수 있다.
일 실시예에 따른 전자 장치(100)는 맞춤화된 패턴에 따라 이동하는 아바타를 기초로 가상 공간에 대한 촬영을 수행할 수 있다. 예를 들어, 전자 장치(100)는 아바타의 시선이 향하는 방향에 위치한 가상 공간의 화면 정보를 저장할 수 있다. 예를 들어, 전자 장치(100)는 화면 정보를 저장하여, 촬영 영상을 생성할 수 있다.
일 실시예에 따른 프로세서(110)는 촬영 영상 관리 모듈(도 18의 1856)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 화면 정보를 저장하고, 촬영 화면 또는 촬영 영상을 생성할 수 있다.
일 실시예에 따른 전자 장치(100)는 저장된 화면 정보를 다른 전자 장치의 사용자에게 공유할 수 있고, 촬영 화면 또는 촬영 영상을 다른 전자 장치의 사용자에게 공유할 수도 있다. 이에 관해서는 도 17에서 상세히 설명한다.
이하, 도 5 내지 도 12를 참조하여, 일 실시예에 따른 전자 장치(100)와 서버(200)가 패턴 제공 서비스에 따라, 가상 공간을 촬영하는 동작들을 설명한다.
도 5는 일 실시예에 따른 패턴 제공 서비스에서, 패턴들의 목록 중 선택된 패턴을 표시하는 전자 장치 및 서버의 동작들을 나타내는 도면이다. 도 5에 도시된 동작들은 도 3의 동작 S310 및 S320에 대응될 수 있다.
도 5를 참조하면, 전자 장치(100)는 가상 공간 화면(501)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 서버(200)로부터 3차원 가상 공간을 수신하고, 2차원의 가상 공간 화면(501)으로 표시할 수 있다. 예를 들어, 전자 장치(100)는 서버(200)로부터 3차원 가상 공간이 렌더링된 2차원의 가상 공간 화면(501)을 수신할 수 있다.
본 개시에서, 전자 장치(100)의 아바타는 가상 공간에 존재하는 촬영 대상 아바타를 바라보고 있는 것으로 예시하였다. 이 경우, 전자 장치(100)는 가상 공간 화면에 포함된 촬영 대상 아바타를 표시하고, 전자 장치(100)의 아바타는 촬영 대상 아바타를 촬영할 수 있다. 다만, 이에 제한되지 않고, 전자 장치(100)의 아바타는 가상 공간에 존재하는 다른 촬영 대상 객체(예컨대, 동물, 나무, 배경 등)를 바라보고, 촬영 대상 객체를 촬영할 수도 있다.
도 5에 도시된 바와 같이, 서버(200)는 전자 장치(100)에 패턴들의 최신 목록(510)을 업데이트할 수 있다. 예를 들어, 서버(200)는 미리 설정된 패턴들을 저장할 수 있고, 다양한 클라이언트들로부터 수신한 다양한 패턴들을 새롭게 저장할 수도 있다. 서버(200)는 전자 장치(100)의 요청에 의해 패턴들의 최신 목록(510)을 전송할 수 있다. 또는, 서버(200)는 전자 장치(100)의 요청이 없더라도, 주기적으로 전자 장치(100)에 패턴들의 최신 목록(510)을 전송할 수 있다. 예를 들어, 서버(200)는는 곡선 무빙 패턴, 직선 무빙 패턴, 8자(8-shaped) 무빙 패턴 등을 포함하는 패턴들의 최신 목록(510)을 전송할 수 있다.
전자 장치(100)는 가상 공간 화면(501)에 패턴들의 목록(520)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 패턴들의 목록(520)에 곡선 무빙 패턴, 직선 무빙 패턴, 8자(8-shaped) 무빙 패턴 등을 표시할 수 있다. 예를 들어, 카메라 무빙 패턴은 전자 장치(100)를 비롯한 복수의 전자 장치(101, 102)의 사용자들에 의해 생성된 무빙 패턴을 포함할 수도 있다.
전자 장치(100)는 표시된 패턴들의 목록(520) 중 어느 하나의 패턴(530)을 선택하는 사용자의 입력을 수신할 수 있다. 본 개시에서, 패턴(530)은 좌측 및 우측으로 연장된 곡선 무빙 패턴인 것으로 예시한다.
그 다음, 전자 장치(100)는 패턴(530)을 선택하는 사용자의 입력에 기초하여, 가상 공간 화면(502, 503)에 선택된 패턴(540, 550)을 표시할 수 있다. 가상 공간 화면(502)은 아바타(560)의 시선에 따른 가상 공간을 표시한 1인칭 화면이고, 가상 공간 화면(503)은 아바타(560)의 위치를 포함한 가상 공간을 표시한 3인칭 화면이다. 가상 공간 화면(502)에는 아바타(560)가 등장하지 않을 수 있다. 가상 공간 화면(502)과 가상 공간 화면(503)은 사용자의 선택에 의해 변경될 수 있다.
전자 장치(100)는 가상 공간 화면(502, 503)에 아바타(560)의 위치 또는 아바타(560)의 시선을 기준으로 선택된 패턴(540, 550)을 표시할 수 있다.
예를 들어, 가상 공간 화면(502)에서 아바타(560)의 시선을 기준으로 선택된 패턴(540)이 표시될 수 있다. 예를 들어, 전자 장치(100)는 아바타(560)의 시선을 기준으로 선택된 패턴(540)을 좌/우로 표시할 수 있다. 예를 들어, 전자 장치(100)는 아바타(560)를 중심으로 대칭된 곡선 무빙 패턴을 표시할 수 있다. 가상 공간 화면(502)에 표시된 선택된 패턴(540)은 아바타(560)의 시선에 따라 적어도 일부만 보이도록 표시될 수 있다.
예를 들어, 가상 공간 화면(503)에서 아바타(560)의 위치를 기준으로 선택된 패턴(550)이 표시될 수 있다. 예를 들어, 전자 장치(100)는 아바타(560)의 위치를 중심으로 선택된 패턴(550)을 생성할 수 있다. 예를 들어, 전자 장치(100)는 아바타(560)을 중심으로 대칭된 곡선 무빙 패턴을 표시할 수 있다. 가상 공간 화면(503)에 표시된 선택된 패턴(550)은 아바타(560)와 함께 전부 보이도록 표시될 수 있다.
그 다음, 전자 장치(100)는 사용자의 설정에 따라 맞춤화된 패턴을 생성할 수 있으며, 구체적인 예시는 도 6 내지 도 9를 통해 설명한다.
도 6a 및 도 6b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 위치를 제어하는 전자 장치의 동작을 나타내는 도면이다. 도 6a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다. 도 6b를 참조하면, 전자 장치(100)는 1인칭 가상 공간 화면(601) 및 3인칭 가상 공간 화면(602)을 표시할 수 있다. 1인칭 가상 공간 화면(601)에는 촬영 대상 객체를 촬영하는 아바타(660)가 등장하지 않고, 3인칭 가상 공간 화면(602)에는 아바타(660)가 등장할 수 있다.
일 실시예에 따른 전자 장치(100)는 1인칭 가상 공간 화면(601)에 아바타(660)의 시선을 기준으로 패턴(640)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(602)에 아바타(660)의 위치를 기준으로 패턴(650)을 표시할 수 있다.
동작 S605에서, 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력을 수신할 수 있다. 동작 S615에서, 전자 장치(100)는 패턴의 위치를 제어할 수 있다.
예를 들어, 전자 장치(100)는 패턴의 상태를 제어하는 입력에 기초하여, 맞춤화된 패턴(641, 651)을 1인칭 가상 공간 화면(611)과 3인칭 가상 공간 화면(612)에 표시할 수 있다. 1인칭 가상 공간 화면(611)에는 촬영 대상 객체를 촬영하는 아바타(661)가 등장하지 않고, 3인칭 가상 공간 화면(612)에는 아바타(661)가 등장할 수 있다.
예를 들어, 전자 장치(100)는 아바타(661)의 위치를 변경하는 입력에 기초하여, 패턴(641, 651)의 위치를 변경할 수 있다. 예를 들어, 전자 장치(100)는 아바타(661)를 상측, 하측, 좌측, 또는 우측으로 이동시키는 입력에 기초하여, 패턴(641, 651)의 위치를 상측, 하측, 좌측, 또는 우측으로 이동시킬 수 있다.
예를 들어, 전자 장치(100)는 아바타(661)가 촬영 대상 객체에 가까이 가도록 위치를 변경하는 입력을 수신할 수 있다. 전자 장치(100)는 입력에 기초하여, 패턴(641, 651)이 촬영 대상 객체에 가까이 가도록 패턴(641, 651)의 위치를 변경할 수 있다.
예를 들어, 전자 장치(100)는 1인칭 가상 공간 화면(611)에 아바타(661)의 시선을 기준으로, 촬영 대상 객체에 근접한 패턴(641)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(612)에 아바타(661)의 위치를 기준으로, 촬영 대상 객체에 근접한 패턴(651)을 표시할 수 있다.
그 다음, 동작 S340에서, 전자 장치(100)는 아바타가 맞춤화된 패턴(641, 651)을 따라 이동하면서 가상 공간을 촬영하도록 제어할 수 있다.
도 7a 및 도 7b은 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 방향을 제어하는 전자 장치의 동작을 나타내는 도면이다. 도 7a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다.
도 7b를 참조하면, 전자 장치(100)는 1인칭 가상 공간 화면(701) 및 3인칭 가상 공간 화면(702)을 표시할 수 있다. 1인칭 가상 공간 화면(701)에는 촬영 대상 객체를 촬영하는 아바타(760)가 등장하지 않고, 3인칭 가상 공간 화면(702)에는 아바타(760)가 등장할 수 있다. 3인칭 가상 공간 화면(702)에는 설명의 편의를 위해 촬영 대상 객체에 대한 도시를 생략하였다.
일 실시예에 따른 전자 장치(100)는 1인칭 가상 공간 화면(701)에 아바타(760)의 시선을 기준으로 패턴(740)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(702)에 아바타(760)의 위치를 기준으로 패턴(750)을 표시할 수 있다.
동작 S705에서, 전자 장치(100)는 가상 공간에 포함된 아바타의 시선 방향을 변경하는 입력을 수신할 수 있다. 동작 S715에서, 전자 장치(100)는 패턴의 방향을 제어할 수 있다.
예를 들어, 전자 장치(100)는 패턴의 상태를 제어하는 입력에 기초하여, 맞춤화된 패턴(741, 751)을 1인칭 가상 공간 화면(711)과 3인칭 가상 공간 화면(712)에 각각 표시할 수 있다. 1인칭 가상 공간 화면(711)에는 촬영 대상 객체를 촬영하는 아바타(761)가 등장하지 않고, 3인칭 가상 공간 화면(712)에는 아바타(761)가 등장할 수 있다.
예를 들어, 전자 장치(100)는 아바타(761)의 시선 방향을 변경하는 입력에 기초하여, 패턴(741, 751)의 방향을 변경할 수 있다. 예를 들어, 전자 장치(100)는 아바타(761)의 시선 방향을 정면, 우측면, 또는 좌측면으로 또는 우측으로 이동시키는 입력에 기초하여, 패턴(641, 651)의 연장 방향을 X축 방향, Y축 방향, 사선 방향으로 변경할 수 있다.
예를 들어, 전자 장치(100)는 아바타(761)의 시선 방향을 정면에서 우측면으로 변경하는 입력을 수신할 수 있다. 아바타(761)은 정면에서 우측면으로 시선을 변경할 수 있다. 전자 장치(100)는 입력에 기초하여, X축 방향으로 연장된 패턴(740, 750)을 사선 방향으로 연장된 패턴(741, 751)으로 변경할 수 있다.
예를 들어, 전자 장치(100)는 1인칭 가상 공간 화면(711)에 아바타(761)의 시선을 기준으로, 촬영 대상 객체의 좌측면을 바라보는 패턴(741)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(712)에 아바타(761)의 위치를 기준으로, 촬영 대상 객체의 좌측면을 바라보고, 사선 방향으로 연장된 패턴(751)을 표시할 수 있다.
그 다음, 동작 S340에서, 전자 장치(100)는 아바타가 맞춤화된 패턴(741, 751)을 따라 이동하면서 가상 공간을 촬영하도록 제어할 수 있다.
도 8a 및 도 8b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 중심축을 제어하는 전자 장치의 동작을 나타내는 도면이다. 도 8a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다.
도 8b를 참조하면, 전자 장치(100)는 1인칭 가상 공간 화면(801) 및 3인칭 가상 공간 화면(802)을 표시할 수 있다. 1인칭 가상 공간 화면(801)에는 촬영 대상 객체를 촬영하는 아바타(860)가 등장하지 않고, 3인칭 가상 공간 화면(802)에는 아바타(860)가 등장할 수 있다. 3인칭 가상 공간 화면(802)에는 설명의 편의를 위해 촬영 대상 객체에 대한 도시를 생략하였다.
일 실시예에 따른 전자 장치(100)는 1인칭 가상 공간 화면(801)에 아바타(860)의 시선을 기준으로 패턴(840)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(802)에 아바타(860)의 위치를 기준으로 패턴(850)을 표시할 수 있다.
동작 S805에서, 전자 장치(100)는 가상 공간에 포함된 아바타의 위치를 변경하는 입력을 수신할 수 있다. 동작 S815에서, 전자 장치(100)는 패턴의 중심축을 제어할 수 있다.
예를 들어, 전자 장치(100)는 패턴의 상태를 제어하는 입력에 기초하여, 맞춤화된 패턴(841, 851)을 1인칭 가상 공간 화면(811)과 3인칭 가상 공간 화면(812)에 각각 표시할 수 있다. 1인칭 가상 공간 화면(811)에는 아바타(861)가 등장하지 않고, 3인칭 가상 공간 화면(812)에는 아바타(861)가 등장할 수 있다.
예를 들어, 전자 장치(100)는 아바타(861)의 위치를 변경하는 입력에 기초하여, 패턴(841, 851)의 중심축을 변경할 수 있다. 예를 들어, 전자 장치(100)는 아바타(861)를 상측, 하측, 좌측, 또는 우측으로 이동시키는 입력에 기초하여, 패턴(841, 851)의 중심축을 상측, 하측, 좌측, 또는 우측으로 이동시킬 수 있다.
예를 들어, 전자 장치(100)는 아바타(861)가 X축으로 연장된 패턴의 좌측으로 이동하도록 위치를 변경하는 입력을 수신할 수 있다. 전자 장치(100)는 입력에 기초하여, 패턴(841, 851)의 중심축이 정중앙에서 좌측으로 이동하도록, 패턴(841, 851)의 중심축을 변경할 수 있다.
예를 들어, 전자 장치(100)는 1인칭 가상 공간 화면(811)에 아바타(861)를 기준으로 패턴(841)의 중심축이 좌측으로 이동하도록 변경할 수 있다. 전자 장치(100)는 패턴(841)의 중심축이 좌측으로 이동된 1인칭 가상 공간 화면(811)을 표시할 수 있다. 예를 들어, 전자 장치(100)는 3인칭 가상 공간 화면(812)에 아바타(861)를 기준으로 패턴(851)의 중심축이 좌측으로 이동하도록 변경할 수 있다. 전자 장치(100)는 패턴(851)의 중심축이 좌측으로 이동된 3인칭 가상 공간 화면(812)을 표시할 수 있다.
한편, 전자 장치(100)는 아바타의 위치를 변경하는 입력에 기초하여, 도 6에서와 같이 패턴의 위치를 변경할 수도 있고, 도 8에서와 같이 패턴의 중심축을 변경할 수도 있다.
그 다음, 동작 S340에서, 전자 장치(100)는 아바타가 맞춤화된 패턴(841, 851)을 따라 이동하면서 가상 공간을 촬영하도록 제어할 수 있다.
도 9a 및 도 9b는 일 실시예에 따른 패턴 제공 서비스에서, 패턴의 크기를 제어하는 전자 장치의 동작을 나타내는 도면이다. 도 9a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다.
도 9b를 참조하면, 전자 장치(100)는 아바타(960)를 포함한 3인칭 가상 공간 화면을 표시할 수 있다.
동작 S905에서, 전자 장치(100)는 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력을 수신할 수 있다. 동작 S915에서, 전자 장치(100)는 패턴의 크기를 제어할 수 있다.
예를 들어, 패턴(950)은 아바타(960)의 현재 위치를 기준으로 가상 공간에 표시되므로, 가상 공간의 장애물(970)과 중첩되거나, 특정 공간에서 벗어날 수 있다. 여기서, 장애물(970)은 가상 공간에 존재하는 벽인 것으로 예시한다. 전자 장치(100)는 패턴(950)과 장애물(970)이 중첩되는 부분(950a)을 식별할 수 있다. 전자 장치(100)는 장애물(970)과 중첩되는 패턴(950)의 부분(950a)을 강조 표시할 수 있다. 예를 들어, 전자 장치(100)는 패턴(950)의 부분(950a)을 X표시하거나, 다른 색상으로 표시하거나, 점선으로 표시할 수 있다.
사용자는 패턴(950)에서 장애물(970)과 동선이 겹치는 부분을 일부 삭제하거나, 패턴의 전체 크기를 축소/확대할 수 있다. 전자 장치(100)는 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력에 기초하여, 패턴의 크기를 제어할 수 있다.
예를 들어, 제1 상황(901)에서, 전자 장치(100)는 패턴(951)의 일부를 삭제하는 입력에 기초하여, 패턴(951)의 일부가 삭제되도록 제어할 수 있다.
예를 들어, 제2 상황(902)에서, 전자 장치(100)는 패턴(952)의 크기를 축소하는 입력에 기초하여, 패턴(952)의 전체 크기가 축소되도록 제어할 수 있다.
예를 들어, 제3 상황(미도시)에서, 전자 장치(100)는 패턴의 크기를 확대하는 입력에 기초하여, 패턴의 전체 크기가 확대되도록 제어할 수 있다.
또는, 전자 장치(100)는 사용자의 입력이 없더라도 가상 공간에 존재하는 장애물(970)과 패턴(950)이 중첩되는 경우, 장애물(970)과 중첩되는 패턴(950)의 일부(950a)를 삭제하도록 제어할 수 있다.
그 다음, 동작 S340에서, 전자 장치(100)는 아바타가 맞춤화된 패턴(951, 952)을 따라 이동하면서 가상 공간을 촬영하도록 제어할 수 있다.
도 10a 및 도 10b는 일 실시예에 따라 맞춤화된 패턴과 미리 보기 화면을 표시하는 전자 장치의 동작을 나타내는 도면이다. 도 10a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다.
도 10b를 참조하면, 전자 장치(100)는 1인칭 가상 공간 화면(1001) 및 3인칭 가상 공간 화면(1002)을 표시할 수 있다. 1인칭 가상 공간 화면(1001)에는 아바타(1060)가 등장하지 않고, 3인칭 가상 공간 화면(1002)에는 아바타(1060)가 등장할 수 있다. 전자 장치(100)는 맞춤형 패턴(1040, 1050)을 표시할 수 있다.
일 실시예에 따른 전자 장치(100)는 사용자가 맞춤형 패턴(1040, 1050)을 직관적으로 설정하도록, 맞춤형 패턴(1040, 1050)과 맞춤형 패턴(1040, 1050)에 따른 아바타(1060)의 촬영 동선을 촬영 전 미리 보기 화면(1010, 1020)으로 생성할 수 있다. 미리 보기 화면(1010, 1020)은, 패턴의 상태를 설정하는 입력에 기초하여, 생성될 수 있다.
동작 S1005에서, 전자 장치(100)는 패턴의 상태를 설정하는 입력을 수신할 수 있다. 동작 S1015에서, 전자 장치(100)는 아바타(1060)의 시선에 따른 가상 공간을 표시하는 제1 화면 및 아바타(1060)의 위치를 포함한 가상 공간을 표시하는 제2 화면을 표시할 수 있다. 예를 들어, 전자 장치(100)는 아바타(1060)의 시선에 따른 가상 공간을 표시하는 1인칭 시점 화면과 아바타(1060)의 위치를 포함한 가상 공간을 표시하는 3인칭 시점 화면을 표시할 수 있다.
일 실시예에서, 전자 장치(100)는 1인칭 가상 공간 화면(1001)을 전체 화면으로 표시하고, 3인칭 가상 공간 화면(1002)을 미리 보기 화면(1010)으로 표시할 수 있다.
예를 들어, 전자 장치(100)는 1인칭 가상 공간 화면(1001)을 전체 화면으로 표시할 수 있다. 이 경우, 사용자는 1인칭 가상 공간 화면(1001)에서 패턴(1040)의 상태를 설정할 때, 전체적인 패턴의 상태를 확인하지 못하므로, 아바타(1060)의 촬영 동선을 예측하기 어려울 수 있다. 일 실시예에 따른 전자 장치(100)는 사용자가 촬영 동선을 직관적으로 예측하도록 3인칭 시점의 미리 보기 화면(1010)을 표시할 수 있다. 사용자는 3인칭 시점의 미리 보기 화면(1010)을 통해 전체적인 패턴의 방향, 크기, 아바타(1060)의 위치 등을 확인할 수 있다.
일 실시예에서, 미리 보기 화면(1010)은 1/4 크기로 우상단에 배치된 것으로 예시하였으나, 이에 제한되지 않는다. 예를 들어, 미리 보기 화면(1010)은 사용자에 의해 확대 또는 축소되거나, 사용자의 의해 이동될 수 있다.
또는, 일 실시예에서, 전자 장치(100)는 3인칭 가상 공간 화면(1002)을 전체 화면으로 표시하고, 1인칭 가상 공간 화면(1001)을 미리 보기 화면(1020)으로 표시할 수도 있다. 예를 들어, 전자 장치(100)는 촬영 동선에 따른 촬영 화면을 예측하도록 1인칭 시점의 미리 보기 화면(1020)을 표시할 수 있다.
도 11a 및 도 11b는 일 실시예에 따라 맞춤화된 패턴과 미리 보기 화면을 표시하는 전자 장치의 동작을 나타내는 도면이다. 도 11a에 도시된 동작은 도 3의 동작 S330에 포함될 수 있다.
도 11b를 참조하면, 전자 장치(100)는 3인칭 가상 공간 화면(1101)을 표시할 수 있다. 3인칭 가상 공간 화면(1101)에는 아바타(1130)가 등장할 수 있다. 전자 장치(100)는 맞춤형 패턴(1120)을 표시할 수 있다.
일 실시예에 따른 전자 장치(100)는 사용자가 맞춤형 패턴(1120)에 따른 촬영 화면을 촬영 전에 예측할 수 있도록, 맞춤형 패턴(1120)의 특정 위치에 아바타(1130)가 위치하는 경우 촬영될 촬영 화면을 미리 보기 화면(1110)으로 표시할 수 있다.
동작 S1105에서, 전자 장치(100)는 패턴(1120) 내에 표시된 특정 위치들(1131, 1132, 1133, 1134) 중 하나를 선택하는 입력을 수신할 수 있다.
예를 들어, 전자 장치(100)는 패턴(1120)와 패턴(1120) 내에 표시된 특정 위치들(1131, 1132, 1133, 1134)을 표시할 수 있다. 예를 들어, 특정 위치(1131)는 제1 시점(view #1)에서의 촬영될 촬영 화면을 나타내며, 특정 위치(1132)는 제2 시점(view #2)에서 촬영될 촬영 화면을 나타내며, 특정 위치(1133)는 제3 시점(view #3)에서 촬영될 촬영 화면을 나타내며, 특정 위치(1134)는 제4 시점(view #4)에서 촬영될 촬영 화면을 나타낸다. 본 개시에서, 특정 위치들(1131, 1132, 1133, 1134)은 4개의 지점을 포함한 것으로 예시하였지만 이에 제한되지 않는다. 예를 들어, 패턴(1120)은 4개 미만 또는 4개 초과의 지점을 포함할 수 있다.
예를 들어, 사용자는 패턴(1120) 내에 표시된 특정 위치들(1131, 1132, 1133, 1134)에서 촬영될 촬영 화면을 미리 확인하기 위해, 특정 위치들(1131, 1132, 1133, 1134) 중 하나를 선택할 수 있다. 전자 장치(100)는 특정 위치들(1131, 1132, 1133, 1134) 중 하나를 선택하는 사용자의 입력을 수신할 수 있다.
동작 S1115에서, 전자 장치(100)는 아바타(1130)의 현재 위치에 따른 제1 화면(1101) 및 아바타(1130)의 특정 위치에서의 미리 보기 화면(1110)을 표시할 수 있다. 예를 들어, 미리 보기 화면(1110)은 1/4 크기로 우상단에 배치되거나, 사용자에 의해 확대/축소되거나, 이동될 수 있다.
예를 들어, 전자 장치(100)는 제1 화면(1101)을 전체 영역으로 표시하고, 특정 위치에서의 미리 보기 화면(1110)을 일부 영역에 표시할 수 있다.
예를 들어, 전자 장치(100)는 특정 위치(1132)를 선택하는 사용자의 입력을 수신한 것에 기초하여, 제2 시점(view #2)에서의 미리 보기 화면(1110)을 표시할 수 있다. 예를 들어, 특정 위치(1132)는 패턴(1120)의 좌측에 위치하므로, 특정 위치(1132)에서 아바타(1130)는 촬영 대상 객체를 좌측에서 바라볼 수 있다. 미리 보기 화면(1110)은 특정 위치(1132)에서 촬영 대상 객체에 대한 아바타(1130)의 시선 방향에 따른 촬영 화면일 수 있다.
사용자는, 미리 보기 화면(1110)을 통해 촬영 전 맞춤형 패턴에 따라 아바타의 시선 방향에 따른 촬영 화면을 예측할 수 있다.
도 12는 일 실시예에 따른 패턴 제공 서비스에서, 맞춤화된 패턴에 따라 가상 공간을 촬영하는 전자 장치의 동작을 나타내는 도면이다. 도 12에 도시된 동작은 도 3의 동작 S340 에 대응될 수 있다.
도 12를 참조하면, 전자 장치(100)는 1인칭 가상 공간 화면(1201) 및 3인칭 가상 공간 화면(1202)을 표시할 수 있다. 1인칭 가상 공간 화면(1201)에는 아바타(1260)가 등장하지 않고, 3인칭 가상 공간 화면(1202)에는 아바타(1260)가 등장할 수 있다. 전자 장치(100)는 맞춤형 패턴(1240, 1250)을 표시할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타의 이동 방향을 제어하는 입력에 기초하여, 아바타(1160)가 패턴(1240, 1250)에 따라 이동하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 통신망을 통해 제어 장치(300)와 통신할 수 있다. 제어 장치(300)는 방향 키(350), 예를 들어 우측 키, 좌측 키, 상측 키, 및 하측 키를 포함할 수 있다. 사용자는 제어 장치(300)의 방향 키(350)를 선택하는 입력에 기초하여, 아바타의 이동 방향을 우측, 좌측, 상측, 및 하측으로 제어할 수 있다. 일반적으로 전자 장치(100)는 사용자가 방향 키(350)의 우측, 좌측, 상측, 및 하측 중 하나의 방향을 선택한 것에 기초하여, 아바타(1260)가 우측, 좌측, 상측, 및 하측 중 하나의 방향으로 이동하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 아바타(1260)의 이동 방향을 제어하는 입력에 기초하여, 아바타(1260)가 패턴(1240, 1260)에 따라 이동하며 패턴(1240, 1250)을 벗어나지 않고 이동하도록 제어할 수 있다. 본 개시에서, 패턴(1240, 1250)은 좌측 및 우측으로 연장된 무빙 패턴인 것으로 예시한다. 예를 들어, 전자 장치(100)는 좌측 또는 우측 방향을 선택하는 사용자의 입력에 대응하여 아바타가 패턴(1240, 1250)을 따라 좌측 또는 우측으로 이동하도록 제어할 수 있다. 예를 들어, 전자 장치(100)는 상측 또는 하측 방향을 선택하는 사용자의 입력에 기초하여서는 아바타(1260)가 이동하지 않도록 제어할 수 있다. 또는, 예를 들어, 전자 장치(100)는 상측 방향을 선택하는 사용자의 입력에 대응하여 아바타(1260)가 좌측으로 이동하고, 하측 방향을 선택하는 사용자의 입력에 대응하여 아바타(1260)가 우측으로 이동하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 촬영 효과를 설정하는 입력에 기초하여, 촬영 효과에 따라 촬영하도록 제어할 수 있다. 예를 들어, 전자 장치(100)는 촬영 효과 목록(1220)을 일부 영역에 표시할 수 있다. 촬영 효과 목록(1220)에는 다양한 촬영 효과들이 포함되며, 예를 들어, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 등을 포함할 수 있다.
사용자는 촬영 영상에 처리될 촬영 효과를 선택할 수 있다. 일 실시예에 따른 전자 장치(100)는 입력 인터페이스(130)를 통해 촬영 효과를 선택하는 사용자의 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 플래시 효과를 선택하는 사용자의 입력을 수신하고, 사용자의 입력에 기초하여, 촬영 영상에 플래시 효과가 처리되도록 제어할 수 있다.
일 실시예에 따른 전자 장치(100)는 패턴(1240, 1250)에 따라 이동하는 아바타(1260)를 기초로 가상 공간에 대한 촬영을 수행할 수 있다. 예를 들어, 전자 장치(100)는 아바타(1260)의 시선이 향하는 방향에 위치한 가상 공간의 화면 정보를 저장할 수 있다. 예를 들어, 전자 장치(100)는 가상 공간의 화면 정보를 저장하여, 촬영 화면 또는 촬영 영상을 생성할 수 있다.
이하, 본 개시의 일 실시예에 따른 전자 장치(100)와 서버(200)가 촬영 화면 공유 서비스에 따라, 가상 공간을 촬영한 촬영 화면을 공유하는 방법을 설명한다.
도 13은 일 실시예에 따른 촬영 화면 공유 서비스를 제공하는 복수의 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 13을 참조하면, 제1 전자 장치(101)는 서버(200)를 통해 제2 전자 장치(102)에 촬영 화면을 공유하기 위해 제2 전자 장치(102)를 초대할 수 있다. 제1 전자 장치(101)의 사용자에 대응한 아바타는 제1 아바타일 수 있고, 제2 전자 장치(102)의 사용자에 대응한 아바타는 제2 아바타일 수 있다. 본 개시에서, 제1 아바타는 가상 공간을 촬영하고, 촬영된 화면을 공유하는 아바타일 수 있다. 제2 아바타는 제1 아바타에 의해 촬영된 화면을 수신하는 공유 대상 아바타일 수 있다. 제1 아바타는, 제2 아바타를 촬영 대상 객체로서 촬영한 화면을 제2 아바타에게 공유할 수 있고, 다른 촬영 대상 객체를 촬영한 화면을 제2 아바타에게 공유할 수도 있다.
동작 S1305에서, 일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 공유를 위한 공유 대상을 선택하는 입력을 수신할 수 있다. 예를 들어, 제1 전자 장치(101)는 제1 아바타에 의해 촬영되는 촬영 화면을 공유할 공유 대상으로, 제2 아바타를 선택하는 입력을 수신할 수 있다. 일 실시예에서, 공유 대상은 가상 공간 내 제1 아바타와 동일한 공간에 위치할 수 있고, 제1 아바타와 근거리에 위치할 수 있다. 즉, 공유 대상은, 제1 아바타와 근거리에서 제1 아바타의 시야 내에 위치할 수 있다. 일 실시예에서, 제1 전자 장치(101)는 1인칭 가상 공간 화면에 공유 대상을 표시할 수 있다.
일 실시예에서, 제1 전자 장치(101)는 공유 대상을 촬영 화면 공유 서비스에 초대할 수 있는 사용자 인터페이스를 표시하고, 사용자 인터페이스에 대한 입력에 따라 촬영 화면 공유 서비스에 공유 대상을 초대할 수 있다.
동작 S1310에서, 일 실시예에 따른 제1 전자 장치(101)는 공유 대상을 초대하기 위한 요청 신호를 서버(200)에 전송할 수 있다. 예를 들어, 제1 전자 장치(101)는 제2 아바타를 사용하는 제2 전자 장치(102)를 촬영 화면 공유 서비스에 초대하도록 서버(200)에 요청할 수 있다. 예를 들어, 제1 전자 장치(101)는 제2 아바타를 초대하기 위한 요청 신호를 서버(200)에 전송할 수 있다.
동작 S1315에서, 일 실시예에 따른 서버(200)는 요청 신호에 기초하여, 초대 코드를 식별할 수 있다. 예를 들어, 서버(200)는 공유 대상자, 공유 주최자, 및 촬영 화면 공유 서비스에 대한 정보가 포함된 초대 코드를 생성하고, 초대 코드를 식별하여 공유 대상자가 누구인지, 공유 주최자가 누구인지, 어떤 서비스인지를 식별할 수 있다. 예를 들어, 서버(200)는 제1 전자 장치(101)의 제1 아바타가 제2 전자 장치(102)의 제2 아바타를 초대하는 경우, 제1 아바타의 ID와 제2 아바타의 ID를 조합해 “제1 아바타-to-제2 아바타”와 같은 초대 코드를 생성할 수 있다. 또는, 예를 들어, 서버(200)는 초대 코드 없이도 제1 아바타와 제2 아바타 각각의 ID로 공유 대상자, 공유 주최자 등을 식별할 수 있다.
예를 들어, 서버(200)는 초대 코드를 식별하여, 공유 주최자는 제1 전자 장치(101)이고, 공유 대상자는 제2 전자 장치(102)이고, 제1 전자 장치(101)와 제2 전자 장치(102)에 촬영 공유 화면 서비스를 제공해야하는 것을 식별할 수 있다.
동작 S1320에서, 일 실시예에 따른 서버(200)는 공유 대상에게 초대 코드를 전송할 수 있다. 예를 들어, 서버(200)는 초대 코드를 통해 식별한 공유 대상자, 공유 주최자, 및 촬영 화면 공유 서비스에 대한 정보에 기초하여, 공유 대상인 제2 전자 장치(102)에 초대 코드를 전송할 수 있다.
동작 S1325에서, 일 실시예에 따른 제2 전자 장치(102)는 촬영 화면 공유에 대한 동의 여부를 문의하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 제2 전자 장치(102)는 서버(200)로부터 초대 코드를 수신한 것에 기초하여, 촬영 화면 공유 서비스에 접속할 지 여부를 문의하는 사용자 인터페이스를 제공할 수 있다.
동작 S1330에서, 일 실시예에 따른 제2 전자 장치(102)는 촬영 화면 공유에 동의하는 입력을 수신할 수 있다. 예를 들어, 사용자는 제2 전자 장치(102)에 표시된 사용자 인터페이스를 통해 촬영 화면 공유에 동의할 수 있다.
동작 S1335에서, 일 실시예에 따른 제2 전자 장치(102)는 서버(200)에 촬영 화면 공유에 동의하는 입력 신호를 전송할 수 있다. 예를 들어, 입력 신호는 제2 전자 장치(102)가 촬영 화면 공유 서비스에 대한 초대에 동의한다는 정보를 포함할 수 있다.
동작 S1340에서, 일 실시예에 따른 서버(200)는 입력 신호에 기초하여, 초대 코드를 식별할 수 있다. 예를 들어, 서버(200)는 초대 코드를 통해 공유 대상자에 대한 정보, 촬영 화면 공유 서비스에 대한 초대에 동의한다는 정보를 식별할 수 있다. 예를 들어, 서버(200)는 초대 코드를 통해 공유 주최자를 식별할 수 있다.
동작 S1345에서, 일 실시예에 따른 서버(200)는 제1 전자 장치(101)에 입력 신호를 전송할 수 있다. 예를 들어, 서버(200)는 촬영 화면 공유 서비스에 대한 초대에 동의한다는 정보를 포함한 신호를 제1 전자 장치(101)에 전송할 수 있다.
동작 S1350에서, 일 실시예에 따른 제1 전자 장치(101)는 입력 신호를 수신하고, 수신한 입력 신호에 기초하여 촬영 화면을 공유할 수 있다. 예를 들어, 제1 전자 장치(101)는 제1 아바타의 위치 정보 및 방향 정보 등을 포함하는 촬영 화면 정보를 전송할 수 있다. 이 경우, 촬영 화면 정보를 수신한 제2 전자 장치(102)는 제1 아바의 위치 정보 및 방향 정보 등을 통해 촬영 화면을 렌더링할 수 있다. 또는, 예를 들어, 제1 전자 장치(101)는 제1 아바타의 시야에 따른 촬영 화면 또는 촬영 영상을 전송할 수도 있다. 이에 관해서는 도 15 및 도 16에서 상세히 설명한다.
일 실시예에 따른 제1 전자 장치(101)는 촬영 화면을 공유하는 동안, 촬영 화면 공유의 진행 상황과 공유 대상을 알리는 사용자 인터페이스를 제공할 수 있다.
도 14는 일 실시예에 따른 촬영 화면을 공유하는 복수의 전자 장치의 동작을 나타내는 도면들이다.
도 14를 참조하면, 제1 전자 장치(101)는 제1 아바타의 시선에 따라, 제2 아바타(1410)를 바라보는 가상 공간 화면(1401)을 표시하고, 제2 전자 장치(102)는 제2 아바타의 시선에 따라 제1 아바타(1430)를 바라보는 가상 공간 화면(1451)을 표시할 수 있다. 도 14에서는, 제1 전자 장치(101)의 제1 아바타(1430)가 제2 아바타(1410)를 촬영하고, 제2 아바타(1410)에게 촬영 화면을 공유하는 상황을 예시한다. 이와는 달리, 제1 아바타(1430)는 제2 아바타(1410)가 아닌 다른 촬영 대상 객체를 촬영하고, 제2 아바타(1410)에게 촬영 화면을 공유할 수도 있다.
제1 전자 장치(101)의 가상 공간 화면(1401)은 1인칭 가상 공간 화면이므로, 제1 전자 장치(101)의 제1 아바타(1430)가 등장하지 않을 수 있다. 제2 전자 장치(102)의 가상 공간 화면(1451)은 1인칭 가상 공간 화면이므로, 제2 전자 장치(102)의 제2 아바타(1410)가 등장하지 않을 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 공유를 위한 제2 아바타(1410)를 선택하는 입력을 수신할 수 있다. 사용자는, 제1 아바타와 동일한 공간 내에 근거리에 위치한 제2 아바타(1410)를 선택하여, 제2 아바타(1410)에게 촬영 화면을 공유할 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 제2 아바타(1410)에 인접한 위치에 공유 서비스 UI(User Interface)(1420)를 표시할 수 있다. 공유 서비스 UI(1420)는 공유 대상을 촬영 화면 공유 서비스에 초대할 수 있는 사용자 인터페이스일 수 있다. 공유 서비스 UI(1420)는 톱니바퀴 아이콘으로 표시될 수 있으나, 이에 제한되는 것은 아니다.
일 실시예에 따른 제1 전자 장치(101)는 제2 아바타(1410)에 인접한 공유 서비스 UI(1420)를 선택하는 사용자의 입력을 수신할 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 공유 서비스 UI(1420)를 선택하는 사용자의 입력에 기초하여, 제2 아바타(1410)를 촬영 화면 공유 서비스에 초대할 수 있다. 예를 들어, 제1 전자 장치(101)는 서버(200)를 통해 제2 전자 장치(102)에 제2 아바타(1410)에 대한 초대를 요청(1405)할 수 있다.
일 실시예에 따른 제2 전자 장치(102)는 서버(200)를 통해 수신한 초대 코드에 기초하여, 촬영 화면 공유에 대한 동의 여부를 문의하는 문의 UI(1440)를 표시할 수 있다. 문의 UI(1440)는 예를 들어, “제1 아바타의 촬영 화면 공유를 수락하겠습니까? 네/아니오”라는 메시지를 포함할 수 있다.
일 실시예에 따른 제2 전자 장치(102)는 문의 UI(1440)의 “네”라는 입력을 수신한 것에 기초하여, 촬영 화면 공유에 동의하는 입력 신호를 생성할 수 있다. 일 실시예에 따른 제2 전자 장치(102)는 문의 UI(1440)에 “아니오”라는 입력을 수신한 것에 기초하여, 촬영 화면 공유에 비동의하는 입력 신호를 생성할 수 있다.
일 실시예에 따른 제2 전자 장치(102)는 입력 신호를 서버(200)에 전송함에 따라, 촬영 화면 공유 서비스에 접속할 수 있다.
일 실시예에 따른 제1 전자 장치(101)와 제2 전자 장치(102)는 서버(200)를 통해 촬영 화면 공유 서비스에 접속할 수 있고, 서로 촬영 화면 또는 촬영 영상을 송수신할 수 있다.
도 15는 일 실시예에 따른 촬영 화면 공유 서비스에서, 촬영 화면을 공유하는 복수의 전자 장치 및 서버의 동작 방법을 나타내는 흐름도이다.
도 15를 참조하면, 제1 전자 장치(101)는 서버(200)를 통해 제2 전자 장치(102)에 촬영 화면을 공유할 수 있다. 도 13에서 살펴본 바와 같이, 제1 전자 장치(101)는 제2 전자 장치(102)를 촬영 화면 공유 서비스에 초대할 수 있고, 제2 전자 장치(102)는 초대에 동의할 수 있다.
동작 S1505에서, 일 실시예에 따른 제1 전자 장치(101)는 서버(200)에 촬영 화면 정보를 서버(200)에 전송할 수 있다. 예를 들어, 촬영 화면 정보는, 제1 아바타의 위치, 제1 아바타의 시선 방향, 제1 아바타의 이동 방향 등에 대한 정보를 포함할 수 있다. 예를 들어, 제1 전자 장치(101)는 제1 아바타의 위치 정보, 시선 방향 정보, 이동 방향 정보 등을 서버(200)에 전송할 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 제1 아바타의 시선에 따라 생성된 촬영 영상을 압축하여 서버(200)에 전송하지 않고, 촬영 화면 정보만을 서버(200)에 전송할 수 있다. 이에 따라, 제1 전자 장치(101)의 렌더링이 생략되므로, 연산량이 최소화될 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 정보를 공유하는 동안, 촬영 화면 공유의 진행 상황과 공유 대상을 알리는 사용자 인터페이스를 제공할 수 있다.
동작 S1510에서, 일 실시예에 따른 서버(200)는 제1 전자 장치(101)로부터 촬영 화면 정보를 수신하고, 초대 코드를 식별할 수 있다. 예를 들어, 서버(200)는 초대 코드를 통해 공유 대상자, 공유 주최자, 촬영 화면 공유 서비스를 식별할 수 있다. 예를 들어, 서버(200)는 초대 코드를 통해 제1 전자 장치(101)의 촬영 화면 정보를 제2 전자 장치(102)에 전송할 수 있다.
동작 S1515에서, 일 실시예에 따른 서버(200)는 제2 전자 장치(102)에 촬영 화면 정보를 전송할 수 있다.
동작 S1520에서, 일 실시예에 따른 제2 전자 장치(102)는 촬영 화면 정보를 획득할 수 있다.
동작 S1525에서, 일 실시예에 따른 제2 전자 장치(102)는 촬영 화면 정보에 기초하여, 촬영 화면을 렌더링할 수 있다. 예를 들어, 제2 전자 장치(102)는 제1 아바타의 위치 정보, 시선 방향 정보, 이동 방향 정보에 기초하여, 제1 아바타의 시선에서 바라본 3차원 가상 공간을 2차원의 그래픽 화면으로 생성할 수 있다.
동작 S1530에서, 일 실시예에 따른 제2 전자 장치(102)는 렌더링한 촬영 화면에 대한 미리 보기 화면을 표시할 수 있다. 예를 들어, 미리 보기 화면은 제2 전자 장치(102)의 일부 영역 또는 전체 영역에 표시될 수 있다.
또는, 상술한 예시와 다르게, 제1 전자 장치(101)가 렌더링된 촬영 영상을 서버(200)에 전송하는 경우, 제2 전자 장치(102)는 서버(200)로부터 촬영 영상을 수신할 수도 있다.
도 16a, 도 16b, 및 도 16c는 일 실시예에 따른 촬영 화면을 공유하는 복수의 전자 장치의 동작을 나타내는 도면들이다.
도 16a를 참조하면, 제1 전자 장치(101)는 제1 아바타의 시선에 따라, 제2 아바타(1611)를 바라보는 가상 공간 화면(1601)을 표시할 수 있다. 제2 전자 장치(102)는 제2 아바타의 시선에 따라, 제1 아바타(1631)를 바라보는 가상 공간 화면(1631)을 표시할 수 있다. 도 16a, 도 16b, 및 도 16c에서는, 제1 전자 장치(101)의 제1 아바타(1631)가 제2 아바타(1611)를 촬영 대상 객체로서 촬영하고, 제2 아바타(1611)에 촬영 화면을 공유하는 것으로 예시한다.
제1 전자 장치(101)의 가상 공간 화면(1601)은 1인칭 가상 공간 화면이므로, 제1 전자 장치(101)의 제1 아바타(1630)가 등장하지 않을 수 있다. 제2 전자 장치(102)의 가상 공간 화면(1651)은 1인칭 가상 공간 화면이므로, 제2 전자 장치(102)의 제2 아바타(1610)가 등장하지 않을 수 있다.
일 실시예에 따른 제1 전자 장치(101)는 제2 전자 장치(102)에 촬영 화면 정보를 전송(1605)할 수 있다. 제1 전자 장치(101)는 촬영 화면 정보를 공유하는 동안, 촬영 화면 공유의 진행 상황과 공유 대상을 알리는 알림 UI(1620)를 제공할 수 있다. 예를 들어, 알림 UI(1620)는 “촬영 화면 공유 중(제2 아바타)”라는 메시지를 포함할 수 있다.
예를 들어, 제1 전자 장치(101)는 제2 아바타(1611)를 정면에서 바라보는 제1 아바타의 위치 정보, 시선 방향 정보, 및 이동 방향 정보를 전송할 수 있다.
일 실시예에 따른 제2 전자 장치(102)는 제1 전자 장치(101)로부터 수신한 촬영 화면 정보에 기초하여, 촬영 화면을 렌더링할 수 있다. 예를 들어, 제2 전자 장치(102)는 제2 아바타(1611)를 정면에서 바라보는 제1 아바타(1631)의 위치 정보, 시선 방향 정보, 및 이동 방향 정보를 수신하고, 제2 아바타(1611)로부터 떨어진 제1 아바타(1631)의 거리, 제2 아바타(1611)에 대한 제1 아바타(1631)의 방향 등을 연산할 수 있다. 제2 전자 장치(102)는 가상 공간 내에 제1 아바타(1631)의 시선에서 바라본 3차원 가상 공간을 2차원 그래픽 화면으로 생성할 수 있다. 예를 들어, 제2 전자 장치(102)는 제2 아바타(1611)를 정면에서 촬영한 영상을 생성할 수 있다.
일 실시예에 따른 제2 전자 장치(102)는 렌더링한 촬영 화면을 미리 보기 화면(1641)으로 표시할 수 있다. 예를 들어, 미리 보기 화면(1641)은 제2 아바타(1611)를 정면에서 촬영한 영상을 포함할 수 있다.
일 실시예에서, 미리 보기 화면(1641)은 1/4 크기로 우상단에 배치된 것으로 예시하였으나, 이에 제한되지 않는다. 예를 들어, 미리 보기 화면(1641)은 사용자에 의해 확대 또는 축소되거나, 사용자의 의해 이동될 수 있다.
도 16b를 참조하면, 제1 전자 장치(101)는 제1 아바타의 시선에 따라, 제2 아바타(1612)를 바라보는 가상 공간 화면(1602)을 표시할 수 있다. 제2 전자 장치(102)는 제2 아바타의 시선에 따라, 제1 아바타(1632)를 바라보는 가상 공간 화면(1632)을 표시할 수 있다. 도 16b에서, 제1 전자 장치(101)의 제1 아바타는 제2 아바타(1612)를 좌측면에서 바라볼 수 있다. 이에 따라, 제1 전자 장치(101)의 가상 공간 화면(1602)에는 제2 아바타(1612)의 좌측 모습이 표시될 수 있고, 제2 전자 장치(102)의 가상 공간 화면(1652)에는 제2 아바타(1612)를 기준으로 우측에 위치한 제1 아바타(1632)가 표시될 수 있다. 이하, 도 16a와의 차이점을 위주로 설명한다.
도 16b에서, 일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 정보, 예를 들어 제2 아바타(1612)를 좌측면에서 바라보는 제1 아바타의 위치 정보, 시선 방향 정보, 및 이동 방향 정보를 전송할 수 있다. 일 실시예에 따른 제2 전자 장치(102)는 제1 전자 장치(101)로부터 수신한 촬영 화면 정보에 기초하여, 촬영 화면을 렌더링하고, 미리 보기 화면(1642)으로 표시할 수 있다. 예를 들어, 제2 전자 장치(102)는 제2 아바타(1612)를 좌측면에서 촬영한 영상을 생성하고, 미리 보기 화면(1642)에 표시할 수 있다.
도 16c를 참조하면, 제1 전자 장치(101)는 제1 아바타의 시선에 따라, 제2 아바타(1613)를 바라보는 가상 공간 화면(1603)을 표시할 수 있다. 제2 전자 장치(103)는 제2 아바타의 시선에 따라, 제1 아바타(1633)를 바라보는 가상 공간 화면(1633)을 표시할 수 있다. 도 16c에서, 제1 전자 장치(101)의 제1 아바타는 제2 아바타(1613)를 우측면에서 바라볼 수 있다. 이에 따라, 제1 전자 장치(101)의 가상 공간 화면(1603)에는 제2 아바타(1613)의 우측 모습이 표시될 수 있고, 제2 전자 장치(103)의 가상 공간 화면(1653)에는 제2 아바타(1613)를 기준으로 좌측에 위치한 제1 아바타(1633)가 표시될 수 있다. 이하, 도 16a와의 차이점을 위주로 설명한다.
도 16c에서, 일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 정보, 예를 들어 제2 아바타(1613)를 우측면에서 바라보는 제1 아바타의 위치 정보, 시선 방향 정보, 및 이동 방향 정보를 전송할 수 있다. 일 실시예에 따른 제2 전자 장치(103)는 제1 전자 장치(101)로부터 수신한 촬영 화면 정보에 기초하여, 촬영 화면을 렌더링하고, 미리 보기 화면(1643)으로 표시할 수 있다. 예를 들어, 제2 전자 장치(103)는 제2 아바타(1613)를 우측면에서 촬영한 영상을 생성하고, 미리 보기 화면(1643)에 표시할 수 있다.
도 17은 일 실시예에 따라 패턴 제공 서비스 및 촬영 화면 공유 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 17을 참조하면, 일 실시예에 따라 복수의 전자 장치(101, 102)는 패턴 제공 서비스와 촬영 화면 공유 서비스를 제공할 수 있다. 예를 들어, 제1 전자 장치(101)는 패턴 제공 서비스를 통해 맞춤화된 패턴에 따라 촬영할 수 있고, 촬영 화면 공유 서비스를 통해 촬영한 촬영 화면을 제2 전자 장치(102)에 공유할 수 있다. 한편, 패턴 제공 서비스에 관한 내용은 도 3 내지 도 12에서 설명하였고, 촬영 화면 공유 서비스에 관한 내용은 도 13 내지 도 16에서 설명하였으므로, 구체적인 설명은 생략하기로 한다.
동작 S1710에서, 일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 공유를 위한 공유 대상을 선택하는 입력을 수신할 수 있다. 동작 S1710은 도 13의 동작 S1305에 대응될 수 있다.
동작 S1720에서, 일 실시예에 따른 제1 전자 장치(101)는 공유 대상 초대를 요청하는 신호를 전송할 수 있다. 동작 S1720은 도 13의 동작 S1310에 대응될 수 있다.
동작 S1730에서, 일 실시예에 따른 제1 전자 장치(101)는 촬영 화면 공유에 동의하는 입력을 수신할 수 있다. 동작 S1720은 도 13의 동작 S1350에 대응될 수 있다.
동작 S1740에서, 일 실시예에 따른 제1 전자 장치(101)는 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신할 수 있다. 동작 S1740은 도 3의 동작 S310에 대응될 수 있다.
동작 S1750에서, 일 실시예에 따른 제1 전자 장치(101)는 가상 공간 내 제1 아바타를 기준으로, 선택된 패턴을 표시할 수 있다. 동작 S1750은 도 3의 동작 S320에 대응될 수 있다.
동작 S1760에서, 일 실시예에 따른 제1 전자 장치(101)는 패턴의 상태를 설정하는 입력에 기초하여, 맞춤화된 패턴을 생성할 수 있다. 동작 S1760은 도 3의 동작 S330에 대응될 수 있다.
동작 S1770에서, 일 실시예에 따른 제1 전자 장치(101)는 맞춤화된 패턴에 따라 이동하는 제1 아바타의 촬영 화면 정보를 전송할 수 있다. 동작 S1770은 도 15의 동작 S1505에 대응되며, 촬영 화면 정보는 맞춤화된 패턴에 따라 이동하는 제1 아바타의 위치, 제1 아바타의 시선 방향, 및 제1 아바타의 이동 방향 등을 포함할 수 있다.
도 18은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.
도 18의 전자 장치(1800)는 도 2의 전자 장치(100)의 일 예일 수 있다. 이하, 도 2에서 설명한 내용과 중복되는 설명은 생략한다.
도 18를 참조하면, 전자 장치(1800)는 프로세서(1801) 및 메모리(1850)를 포함할 수 있다. 전자 장치(1800)에 포함된 프로세서(1801) 및 메모리(1850)는 도 2의 전자 장치(100)에 포함된 프로세서(110) 및 메모리(150)와 동일한 동작을 수행할 수 있다.
일 실시예에서, 전자 장치(1800)는 프로세서(1801) 및 메모리(1850) 외에, 튜너부(1810), 통신 인터페이스(1820), 감지부(1830), 입/출력부(1840), 비디오 처리부(1850), 디스플레이(1860), 오디오 처리부(1870), 오디오 출력부(1880) 및 입력 인터페이스(1890)를 더 포함할 수 있다. 통신 인터페이스(1820)는 도 2의 통신 인터페이스(120)에 대응될 수 있다. 디스플레이(1860)는 도 2의 디스플레이(130)에 대응될 수 있다. 입력 인터페이스(1890)는 도 2의 입력 인터페이스(140)에 대응될 수 있다.
튜너부(1810)는 유선 또는 무선으로 수신되는 방송 콘텐츠 등을 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 전자 장치(1800)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 튜너부(1810)를 통해 수신된 콘텐츠는 디코딩되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 프로세서(1801)의 제어에 의해 메모리(1850)에 저장될 수 있다.
일 실시예에서, 통신 인터페이스(1820)는 프로세서(1801)의 제어에 의해 전자 장치(1800)를 주변 기기나 외부 장치, 서버, 이동 단말기 등과 연결할 수 있다. 통신 인터페이스(1820)는 무선 통신을 수행할 수 있는 적어도 하나의 통신 모듈을 포함할 수 있다. 통신 인터페이스(1820)는 전자 장치(1800)의 성능 및 구조에 대응하여 무선랜 모듈(1821), 블루투스 모듈(1822), 유선 이더넷(Ethernet)(1823) 중 적어도 하나를 포함할 수 있다.
무선랜 모듈(1821)은 와이파이(Wi-Fi) 통신 규격에 따라서 주변 기기와 와이파이 신호를 송수신할 수 있다. 블루투스 모듈(1822)은 블루투스 통신 규격에 따라서 주변 기기로부터 전송된 블루투스 신호를 수신할 수 있다. 블루투스 모듈(1822)은 BLE(Bluetooth Low Energy) 통신 모듈이 될 수 있으며, BLE 신호를 수신할 수 있다. 블루투스 모듈(1822)은 BLE 신호가 수신되는지 여부를 감지하기 위해서 상시적으로 또는 일시적으로 BLE 신호를 스캔할 수 있다.
감지부(1830)는 사용자의 음성, 사용자의 이미지, 또는 사용자의 인터랙션을 감지하며, 마이크, 카메라부, 광 수신부, 센싱부를 포함할 수 있다.
입/출력부(1840)는 프로세서(1801)의 제어에 의해 외부 기기 등으로부터 비디오(예를 들어, 동적 이미지 신호나 정지 이미지 신호 등), 오디오(예를 들어, 음성 신호나, 음악 신호 등) 및 부가 정보 등을 수신할 수 있다. 입/출력부(1840)는 HDMI 포트(High-Definition Multimedia Interface port), 컴포넌트 잭(component jack), PC 포트(PC port), 및 USB 포트(USB port) 중 하나를 포함할 수 있다.
비디오 처리부(1850)는, 디스플레이(1860)에 의해 표시될 이미지 데이터를 처리하며, 이미지 데이터에 대한 디코딩, 렌더링, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 및 해상도 변환 등과 같은 다양한 이미지 처리 동작을 수행할 수 있다.
디스플레이(1860)는 방송국으로부터 수신하거나 외부 서버, 또는 외부 저장 매체 등의 외부 기기로부터 수신하거나, 또는 다양한 앱, 예컨대, OTT 서비스 제공자나 메타버스 콘텐츠 제공자가 제공하는 콘텐츠를 화면에 출력할 수 있다.
오디오 처리부(1870)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(1870)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
오디오 출력부(1880)는 프로세서(1801)의 제어에 의해 튜너부(1810)를 통해 수신된 콘텐츠에 포함된 오디오, 통신 인터페이스(1820) 또는 입/출력부(1840)를 통해 입력되는 오디오, 메모리(1850)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(1880)는 스피커, 헤드폰 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자) 중 적어도 하나를 포함할 수 있다.
입력 인터페이스(1890)는 전자 장치(1800)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 입력 인터페이스(1890)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치(dome switch), 음성 인식을 위한 마이크, 모션을 센싱하는 모션 감지 센서 등을 포함하는 다양한 형태의 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
일 실시예에서, 입력 인터페이스(1890)는 디스플레이(1860)에 표시된 아바타를 제어하기 위한 사용자의 입력을 수신할 수 있다. 예를 들어, 입력 인터페이스(1890)는 프로세서(1801)의 제어에 의해 아바타의 이동 방향에 관한 입력을 수신할 수 있다. 예를 들어, 입력 인터페이스(1890)가 방향키를 갖는 리모콘을 포함하는 경우, 프로세서(1801)는 방향키를 통해 아바타의 이동 방향을 제어할 수 있다.
일 실시예에서, 입력 인터페이스(1890)는 디스플레이(1860)에 표시된 촬영 서비스에 관한 사용자 인터페이스를 제어하기 위한 사용자의 입력을 수신할 수 있다.
일 실시예에서, 메모리(1850)는 조작 모듈(1851), 카메라 무빙 패턴 모듈(1852), 동선 조작 모듈(1853), 촬영 효과 모듈(1854), 촬영 화면 공유 모듈(1855), 및 촬영 영상 관리 모듈(1856)을 저장할 수 있다.
일 실시예에 따른 프로세서(1801)는 조작 모듈(1851), 카메라 무빙 패턴 모듈(1852), 동선 조작 모듈(1853), 촬영 효과 모듈(1854), 촬영 화면 공유 모듈(1855), 및 촬영 영상 관리 모듈(1856) 각각에 저장된 하나 이상의 인스트럭션을 실행하여, 본 개시에 따른 동작을 수행할 수 있다.
일 실시예에 따른 프로세서(1801)는 조작 모듈(1851)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 입력 인터페이스를 통해 수신한 사용자의 입력을 처리할 수 있다. 프로세서(1801)는 조작 모듈(1851)을 실행함으로써, 가상 공간 콘텐츠의 메뉴를 실행하거나, 아바타의 이동 방향을 제어할 수 있다.
예를 들어, 프로세서(1801)는 조작 모듈(1851)을 실행함으로써, 카메라 무빙을 위한 패턴, 패턴의 위치, 패턴의 방향, 패턴의 크기, 및 촬영 효과 등을 선택하는 사용자의 입력을 처리할 수 있다.
예를 들어, 프로세서(1801)는 조작 모듈(1851)을 실행함으로써, 아바타의 위치, 아바타의 시선 등을 이동시키는 사용자의 입력을 처리할 수 있다.
예를 들어, 프로세서(1801)는 조작 모듈(1851)을 실행함으로써, 촬영 화면 공유를 위해 초대할 아바타를 선택하는 사용자의 입력을 처리할 수 있다.
일 실시예에 따른 프로세서(1801)는 카메라 무빙 패턴 모듈(1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 서버(200)로부터 카메라 무빙을 위한 패턴들의 목록을 수신하고, 수신한 패턴들의 목록을 동기화할 수 있다. 일 실시예에 따른 프로세서(1801)는 패턴들의 목록을 표시하도록 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서(1801)는 카메라 무빙 패턴 모듈(1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 패턴의 상태를 제어하고, 맞춤화된 패턴을 생성할 수 있다. 예를 들어, 패턴의 상태는, 패턴의 위치, 패턴의 방향, 패턴의 중심축, 및 패턴의 크기 등을 포함할 수 있다.
일 실시예에 따른 프로세서(1801)는 카메라 무빙 패턴 모듈(1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자에게 맞춤 설정된 맞춤형 패턴을 생성할 수 있다. 예를 들어, 맞춤형 패턴은, 패턴의 위치, 패턴의 방향, 패턴의 중심축, 패턴의 크기 등이 사용자 별로 맞춤 설정될 수 있다.
일 실시예에 따른 프로세서(1801)는 카메라 무빙 패턴 모듈(1852)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 맞춤형 패턴을 설정하는 동안 미리 보기 화면을 표시할 수 있다. 예를 들어, 전체 화면이 1인칭 화면인 경우, 3인칭 시점의 미리 보기 화면을 표시할 수 있다. 예를 들어, 전체 화면이 3인칭 시점 화면인 경우, 1인칭 시점의 미리 보기 화면을 표시할 수 있다.
일 실시예에 따른 프로세서(1801)는 동선 조작 모듈(1853)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 아바타의 이동 방향을 제어하는 사용자의 입력을 통해 아바타를 무빙 패턴에 따라 이동하도록 제어할 수 있다. 즉, 일 실시예에 따른 프로세서(1801)는 아바타의 이동 방향을 제어하는 입력에 기초하여, 아바타가 패턴을 벗어나지 않고 이동하도록 제어할 수 있다.
일 실시예에 따른 프로세서(1801)는 촬영 효과 모듈(1854)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자의 입력을 통해 선택된 촬영 효과를 처리할 수 있다. 예를 들어, 촬영 효과는, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 중 어느 하나를 포함할 수 있다.
일 실시예에 따른 프로세서(1801)는 촬영 화면 공유 모듈(1855)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 촬영 화면 공유 서비스와 관련된 사용자 인터페이스를 생성할 수 있다. 예를 들어, 사용자 인터페이스는 촬영 화면 공유 서비스 제공 UI(User Interface)(또는, 공유 서비스 UI), 촬영 화면 공유에 대한 동의 여부를 문의하는 문의 UI, 촬영 화면 공유의 진행 상황을 알리는 알림 UI, 촬영 화면에 대한 미리 보기 화면 등을 포함할 수 있다. 일 실시예에 따른 프로세서(1801)는 사용자 인터페이스를 표시하도록 디스플레이(1860)를 제어할 수 있다.
일 실시예에 따른 프로세서(1801)는 촬영 화면 공유 모듈(1855)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 촬영 화면 정보를 서버(200)에 전달할 수 있다. 예를 들어, 촬영 화면 정보는, 카메라에 대응한 제1 아바타의 위치(또는 좌표), 제1 아바타의 시선 방향, 및 제1 아바타의 이동 방향 등을 포함할 수 있다. 이 경우, 프로세서(1801)는 촬영 아바타인 제1 아바타를 포함하는 제1 전자 장치(101)에 포함될 수 있다.
일 실시예에 따른 프로세서(1801)는 촬영 화면 공유 모듈(1855)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 서버(200)로부터 촬영 화면 정보를 수신할 수 있다. 이 경우, 프로세서(1801)는 공유 대상인 제2 아바타를 포함하는 제2 전자 장치(102)에 포함될 수 있다. 예를 들어, 프로세서(1801)는 수신한 촬영 화면 정보에 기초하여, 촬영 화면을 렌더링할 수 있다. 예를 들어, 프로세서(1801)는 제1 전자 장치(101)로부터 전달받은 제1 아바타의 위치(또는 좌표), 제1 아바타의 시선 방향, 및 제1 아바타의 이동 방향 등을 통해 3차원 가상 공간을 2차원 화면으로 생성할 수 있다. 예를 들어, 프로세서(1801)는 생성한 2차원 화면을 디스플레이하도록 제어할 수 있다.
일 실시예에 따른 프로세서(1801)는 촬영 영상 관리 모듈(1856)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 촬영 영상을 저장하고, 촬영 영상을 공유하고, 촬영 영상을 삭제하도록 제어할 수 있다.
도 19는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.
도 19를 참조하면, 일 실시예에 따른 서버(200)는 프로세서(210), 통신 인터페이스(220), 및 메모리(230)를 포함할 수 있다.
일 실시예에 따른 통신 인터페이스(220)는 전자 장치(100)와 데이터 또는 신호를 송수신할 수 있다. 예를 들어, 통신 인터페이스(220)는 와이- 파이(Wi-Fi) 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈, LAN 모듈, 이더넷(Ethernet) 모듈, 유선 통신 모듈 등을 포함할 수 있다. 이때, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.
일 실시예에 따른 통신 인터페이스(220)는 프로세서(210)의 제어에 의해 아바타를 포함한 가상 공간 화면을 전자 장치(100)에 전송할 수 있다. 일 실시예에 따른 통신 인터페이스(220)는 프로세서(210)의 제어에 의해 전자 장치(100)와 서버(200)를 촬영 서비스 제공 시스템으로 연결할 수 있다.
일 실시예에 따른 프로세서(210)는 서버(200)의 전반적인 동작 및 서버(200)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.
일 실시예에 따른 프로세서(210)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 실시예에 따라, CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(210)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.
일 실시예에 따른 메모리(230)는 서버(200)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(230)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(230)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(210)에 의해 실행될 수 있다.
일 실시예에 따른 메모리(230)는 촬영 화면 공유 모듈(231), 촬영 영상 공유 모듈(232), 및 카메라 무빙 패턴 모듈(233)을 저장할 수 있다.
일 실시예에 따른 프로세서(210)는 촬영 화면 공유 모듈(231), 촬영 영상 공유 모듈(232), 및 카메라 무빙 패턴 모듈(233) 각각에 저장된 하나 이상의 인스트럭션을 실행할 수 있다.
일 실시예에 따른 프로세서(210)는 촬영 화면 공유 모듈(231)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 공유 주최자를 포함하는 전자 장치(100)로부터 촬영 화면 정보를 수신할 수 있다. 일 실시예에 따른 프로세서(210)는 촬영 화면 공유 모듈(231)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 공유 대상자를 포함하는 전자 장치(100)에 촬영 화면 정보를 전송할 수 있다. 일 실시예에 따른 프로세서(210)는 촬영 영상 공유 모듈(232)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 공유 주최자를 포함하는 전자 장치(100)로부터 촬영 영상을 수신할 수 있다. 일 실시예에 따른 프로세서(210)는 촬영 영상 공유 모듈(232)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 공유 대상자를 포함하는 전자 장치(100)에 촬영 영상을 전송할 수 있다.
일 실시예에 따른 프로세서(210)는 카메라 무빙 패턴 모듈(233)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 카메라 무빙 패턴들의 최신 목록을 업데이트하고, 전자 장치(100)에 제공할 수 있다.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.

Claims (15)

  1. 가상 공간을 제공하는 전자 장치(100)에 있어서,
    디스플레이(130);
    하나 이상의 인스트럭션을 저장하는 메모리(150); 및
    상기 메모리(150)에 저장된 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서(110)를 포함하고,
    상기 적어도 하나의 프로세서(110)는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하고,
    상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시하고,
    상기 선택된 패턴에 따라 이동하는 상기 제1 아바타를 기초로, 상기 가상 공간에 대한 촬영을 수행하는, 전자 장치(100).
  2. 제1 항에 있어서,
    통신 인터페이스(120)를 더 포함하고,
    상기 적어도 하나의 프로세서(110)는,
    상기 통신 인터페이스(120)를 통해 서버(200)로부터 미리 설정된 상기 패턴들의 목록을 수신하고,
    상기 패턴들의 목록을 표시하도록 상기 디스플레이(130)를 제어하는, 전자 장치(100).
  3. 제1 항 또는 제2 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 제1 아바타의 위치 또는 시선을 기준으로 상기 가상 공간에 상기 선택된 패턴을 표시하고,
    상기 제1 아바타의 시선에 대한 화면 정보를 통해 촬영을 수행하는, 전자 장치(100).
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 패턴의 상태를 설정하는 입력에 기초하여, 맞춤화된 패턴을 생성하고,
    상기 패턴의 상태는, 상기 패턴의 위치, 상기 패턴의 방향, 상기 패턴의 중심축, 및 상기 패턴의 크기 중 어느 하나를 포함하는, 전자 장치(100).
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 가상 공간에 포함된 상기 제1 아바타의 위치를 변경하는 입력에 기초하여, 상기 패턴의 위치를 제어하는 동작,
    상기 가상 공간에 포함된 상기 제1 아바타의 시선 방향을 변경하는 입력에 기초하여, 상기 패턴의 방향을 제어하는 동작,
    상기 가상 공간에 포함된 상기 제1 아바타의 위치를 변경하는 입력에 기초하여, 상기 패턴의 중심축을 제어하는 동작, 및
    상기 패턴의 크기를 확대, 축소, 또는 일부 삭제하는 입력에 기초하여, 상기 패턴의 크기를 제어하는 동작 중 어느 하나를 수행하는, 전자 장치(100).
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 가상 공간의 장애물과 중첩되는 상기 패턴의 일부를 강조 표시하고,
    상기 패턴의 일부를 삭제하도록 제어하는, 전자 장치(100).
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 제1 아바타의 시선에 따른 가상 공간을 표시하는 제1 화면 및 상기 제1 아바타의 위치를 포함한 가상 공간을 표시하는 제2 화면을 표시하도록 상기 디스플레이(130)를 제어하는, 전자 장치(100).
  8. 제1 항 내지 제7 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    상기 제1 아바타의 이동 방향을 제어하는 입력에 기초하여, 상기 제1 아바타가 상기 패턴을 벗어나지 않고 이동하도록 제어하는, 전자 장치(100).
  9. 제1 항 내지 제8 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는,
    촬영 효과를 설정하는 입력에 기초하여, 상기 촬영 효과를 처리하고,
    상기 촬영 효과는, 플래시, 이동 속도 조절, 조명, 카메라 흔들림, 노출, 줌인/줌아웃 중 어느 하나를 포함하는, 전자 장치(100).
  10. 제1 항 내지 제9 항 중 어느 한 항에 있어서,
    통신 인터페이스(120)를 더 포함하고,
    상기 적어도 하나의 프로세서(110)는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    촬영 화면 공유를 위한 제2 아바타를 선택하는 입력을 수신하고,
    상기 통신 인터페이스(120)를 통해 서버(200)에 상기 제2 아바타를 초대하기 위한 요청 신호를 전송하고,
    상기 통신 인터페이스(120)를 통해 상기 서버(200)로부터 촬영 화면 공유에 동의하는 입력 신호를 수신한 것에 기초하여, 촬영 화면을 공유하는, 전자 장치(100).
  11. 제1 항 내지 제10 항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(110)는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    통신 인터페이스(120)를 통해 서버(200)에 촬영 화면 정보를 전송하고,
    상기 촬영 화면 정보는, 상기 제1 아바타의 위치, 상기 제1 아바타의 시선 방향, 상기 제1 아바타의 이동 방향, 및 상기 선택된 패턴에 따라 이동하는 상기 제1 아바타의 위치 정보 중 어느 하나를 포함하는, 전자 장치(100).
  12. 가상 공간을 제공하는 전자 장치(100)의 동작 방법에 있어서,
    카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하는 단계;
    상기 가상 공간 내 제1 아바타를 기준으로, 상기 선택된 패턴을 표시하는 단계; 및
    상기 선택된 패턴에 따라 이동하는 상기 제1 아바타를 기초로, 상기 가상 공간에 대한 촬영을 수행하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
  13. 제12 항에 있어서,
    상기 카메라 무빙을 위한 패턴들의 목록에서, 패턴을 선택하는 입력을 수신하는 단계는,
    통신 인터페이스(120)를 통해 서버(200)로부터 미리 설정된 상기 패턴들의 목록을 수신하는 단계; 및
    상기 패턴들의 목록을 표시하도록 디스플레이(130)를 제어하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
  14. 제12 항 또는 제13 항에 있어서,
    상기 제1 아바타의 위치 또는 시선을 기준으로 상기 가상 공간에 상기 선택된 패턴을 표시하는 단계; 및
    상기 제1 아바타의 시선에 대한 화면 정보를 통해 촬영을 수행하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
  15. 제12 항 내지 제14 항 중 어느 한 항에 있어서,
    상기 패턴의 상태를 설정하는 입력에 기초하여, 맞춤화된 패턴을 생성하는 단계를 더 포함하고,
    상기 패턴의 상태는, 상기 패턴의 위치, 상기 패턴의 방향, 상기 패턴의 중심축, 및 상기 패턴의 크기 중 어느 하나를 포함하는, 전자 장치(100)의 동작 방법.
PCT/KR2023/011761 2022-09-30 2023-08-09 전자 장치 및 전자 장치의 동작 방법 WO2024071657A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220125410 2022-09-30
KR10-2022-0125410 2022-09-30
KR1020230002851A KR20240045962A (ko) 2022-09-30 2023-01-09 전자 장치 및 전자 장치의 동작 방법
KR10-2023-0002851 2023-01-09

Publications (1)

Publication Number Publication Date
WO2024071657A1 true WO2024071657A1 (ko) 2024-04-04

Family

ID=90478340

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/011761 WO2024071657A1 (ko) 2022-09-30 2023-08-09 전자 장치 및 전자 장치의 동작 방법

Country Status (1)

Country Link
WO (1) WO2024071657A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100055517A (ko) * 2008-03-14 2010-05-26 가부시키가이샤 코나미 데지타루 엔타테인멘토 화상생성장치, 화상생성방법 및 정보기록매체
KR20150018676A (ko) * 2013-08-08 2015-02-24 에스케이플래닛 주식회사 온라인 코스 큐레이팅 서비스 방법 및 이를 위한 장치 및 시스템
KR20170027266A (ko) * 2015-09-01 2017-03-09 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
KR20180112599A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치
US20180373413A1 (en) * 2017-05-19 2018-12-27 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100055517A (ko) * 2008-03-14 2010-05-26 가부시키가이샤 코나미 데지타루 엔타테인멘토 화상생성장치, 화상생성방법 및 정보기록매체
KR20150018676A (ko) * 2013-08-08 2015-02-24 에스케이플래닛 주식회사 온라인 코스 큐레이팅 서비스 방법 및 이를 위한 장치 및 시스템
KR20170027266A (ko) * 2015-09-01 2017-03-09 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
KR20180112599A (ko) * 2017-04-04 2018-10-12 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치
US20180373413A1 (en) * 2017-05-19 2018-12-27 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer

Similar Documents

Publication Publication Date Title
WO2017003007A1 (ko) 영상표시장치 및 이동 단말기
WO2017018612A1 (en) Method and electronic device for stabilizing video
WO2018159864A1 (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
WO2015170894A1 (en) Wearable device and controlling method thereof
WO2015182869A1 (en) Display apparatus and method thereof
WO2016024755A1 (en) Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof
WO2017043784A1 (en) Mobile terminal and method for controlling the same
WO2016036192A1 (en) Image display apparatus and image display method
WO2018034462A1 (en) Image display apparatus and method of operating the same
WO2016182132A1 (ko) 이동단말기 및 그 제어방법
WO2014112842A1 (en) Method and apparatus for photographing in portable terminal
WO2015030411A1 (en) Mobile terminal and method of controlling the same
WO2016076570A1 (en) Display apparatus and display method
WO2010013899A2 (ko) 커뮤니케이션 그룹에 대한 통신 기능 제공 방법과 그를 위한 이동통신 단말기 및 프리젠스 서버
WO2017146438A1 (en) Display apparatus and method of setting operating channel of the same
WO2017105015A1 (en) Electronic device and method of operating the same
WO2016190458A1 (ko) Hmd 장치를 통하여 가상 이미지를 디스플레이하는 시스템 및 방법
WO2019172671A1 (en) Display device and control method thereof
WO2016129778A1 (ko) 이동 단말기 및 그 제어 방법
WO2017111321A1 (ko) 영상표시장치
WO2016093510A1 (en) Display apparatus and display method
WO2018090822A1 (zh) 基于智能手表的移动终端相机控制方法及控制***
WO2021162320A1 (en) Electronic device and method for operating high speed screen of electronic device
WO2022154387A1 (ko) 전자 장치 및 그의 동작 방법
WO2019125036A1 (en) Image processing method and display apparatus therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872780

Country of ref document: EP

Kind code of ref document: A1