WO2023048387A1 - Electronic device and method for generating at least one piece of content to be transmitted to at least one external electronic device - Google Patents

Electronic device and method for generating at least one piece of content to be transmitted to at least one external electronic device Download PDF

Info

Publication number
WO2023048387A1
WO2023048387A1 PCT/KR2022/011225 KR2022011225W WO2023048387A1 WO 2023048387 A1 WO2023048387 A1 WO 2023048387A1 KR 2022011225 W KR2022011225 W KR 2022011225W WO 2023048387 A1 WO2023048387 A1 WO 2023048387A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
visual
content
preview image
camera
Prior art date
Application number
PCT/KR2022/011225
Other languages
French (fr)
Korean (ko)
Inventor
박예린
강성훈
안효인
이재익
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210135562A external-priority patent/KR20230044906A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2023048387A1 publication Critical patent/WO2023048387A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder

Definitions

  • the descriptions below relate to an electronic device and method for generating one or more contents to be transmitted to one or more external electronic devices.
  • An electronic device may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled with the display, the camera, and the memory. .
  • the processor may be configured to, upon executing the one or more instructions, display a preview image within a user interface of a camera application based on at least a portion of a plurality of images received from the camera.
  • the processor executes the one or more instructions, while displaying the preview image in the user interface, the processor generates visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, while displaying the preview image in the user interface. It can be configured to display within the user interface.
  • the processor upon executing the one or more instructions, in response to receiving a user input for one of the visual objects, provides content to be uploaded through an application represented by a visual object related to the user input. It may be configured to superimpose and display a visual guide based on at least an aspect ratio of the preview image.
  • a method of an electronic device may include an operation of displaying a preview image in a user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device.
  • the method includes an operation of displaying visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, in the user interface while displaying the preview image in the user interface.
  • the method may, in response to receiving a user input for one of the visual objects, create a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by a visual object associated with the user input. , may include an operation of overlapping and displaying the preview image.
  • An electronic device may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory.
  • the processor may be configured to, upon executing the one or more instructions, display a preview image within a first user interface of a camera application based on at least a portion of a plurality of images received from the camera.
  • the processor superimposes one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. It can be configured so that it can be displayed.
  • the processor upon executing the one or more instructions, may, in response to receiving a shooting input to the camera while displaying the one or more visual guides superimposed on the preview image, the camera It may be configured to obtain one or more contents corresponding to each of the one or more visual guides, based on at least one of a plurality of images received from.
  • the processor when executing the one or more instructions and in response to obtaining the one or more contents, displays a second user interface for uploading the one or more acquired contents to the one or more external electronic devices. , can be configured.
  • a method of an electronic device may include an operation of displaying a preview image in a first user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device.
  • the method may include an operation of overlapping and displaying one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface.
  • An operation of acquiring one or more contents corresponding to each of the one or more visual guides may be included.
  • the method may include, in response to acquiring the one or more contents, an operation of displaying a second user interface for uploading the one or more acquired contents to the one or more external electronic devices.
  • 1 is a diagram illustrating an embodiment of an electronic device within a network.
  • FIG. 2 is a diagram illustrating an example of a user interface (UI) displayed by an electronic device according to an exemplary embodiment.
  • UI user interface
  • FIG. 3 is an exemplary diagram for explaining an operation of displaying different visual guides displayed in an electronic device according to an exemplary embodiment and corresponding to different applications, respectively.
  • FIG. 4 is an exemplary diagram for explaining an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment.
  • FIG. 5 is an exemplary diagram for describing an operation performed by an electronic device in response to a user input performed within a preview image, according to an exemplary embodiment.
  • FIG. 6 is a diagram illustrating an example of a UI displayed by an electronic device to upload one or more contents having an independent aspect ratio to one or more external electronic devices corresponding to one or more applications, respectively, according to an embodiment; am.
  • 7A to 7B are exemplary diagrams for explaining an operation of changing an aspect ratio of a preview image by an electronic device according to an embodiment.
  • FIG. 8 is a flowchart illustrating an operation of acquiring one or more contents having an independent aspect ratio by controlling a camera, by an electronic device, according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating an operation of obtaining, from an external electronic device, information related to a visual guide to be overlapped and displayed on a preview image by an electronic device according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating an operation performed by an electronic device based on a visual object selected by a user, according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment.
  • FIG. 12 is a flowchart illustrating an operation of uploading, by an electronic device, one or more contents and one or more pieces of information corresponding to each of the one or more contents to an external electronic device according to an exemplary embodiment.
  • FIG. 13 is a flowchart illustrating an operation of changing an aspect ratio of a preview image by an electronic device according to an exemplary embodiment.
  • the components are not limited.
  • a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or “connected to” another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).
  • module used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integral part or a minimum unit or part thereof that performs one or more functions.
  • the module may be composed of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • FIG. 1 is a diagram illustrating an embodiment of an electronic device within a network.
  • an electronic device 101 and one or more external electronic devices eg, a first external electronic device 170-1 and a second external electronic device 170-2 connect to a wired network and/or a wireless network.
  • An exemplary situation connected to each other based on a network is shown.
  • the wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof.
  • the wireless network is a network such as Long Term Evolution (LTE), 5g New Radio (NR), Wireless Fidelity (WiFi), Zigbee, Near Field Communication (NFC), Bluetooth, Bluetooth Low-Energy (BLE), or a combination thereof can include
  • LTE Long Term Evolution
  • NR 5g New Radio
  • WiFi Wireless Fidelity
  • Zigbee Zigbee
  • NFC Near Field Communication
  • Bluetooth Bluetooth Low-Energy
  • BLE Bluetooth Low-Energy
  • an electronic device 101 includes at least one of a processor 110, a memory 120, a display 130, a camera 140, a microphone 150, and a communication circuit 160.
  • a processor 110 can include Processor 110, memory 120, display 130, camera 140, microphone 150 and communication circuit 160 are electrically connected to each other by electronic components such as a communication bus. and/or operably coupled (electronically and/or operably coupled with each other).
  • the type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 1 .
  • the electronic device 101 may include only some of the hardware components shown in FIG. 1 .
  • the electronic device 101 according to an embodiment may be a terminal owned by a user.
  • the terminal is, for example, a personal computer (PC) such as a laptop and desktop, a smartphone, a smart pad, a tablet PC (Personal Computer), a smart watch, and an HMD (Head- Mounted Device) may include smart accessories.
  • PC personal computer
  • smartphone such as a laptop and desktop
  • smart pad such as a smart pad
  • tablet PC Personal Computer
  • smart watch such as a smart watch
  • HMD Head- Mounted Device
  • the processor 110 of the electronic device 101 may include a hardware component for processing data based on one or more instructions.
  • Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU).
  • ALU Arithmetic and Logic Unit
  • FPGA Field Programmable Gate Array
  • CPU Central Processing Unit
  • the number of processors 110 may be one or more.
  • the processor 110 may have a structure of a multi-core processor such as a dual core, quad core, or hexa core.
  • the memory 120 of the electronic device 101 may include a hardware component for storing data and/or instructions input and/or output to the processor 110 .
  • the memory 120 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is.
  • volatile memory may include, for example, at least one of Dynamic RAM (DRAM), Static RAM (SRAM), Cache RAM, and Pseudo SRAM (PSRAM).
  • DRAM Dynamic RAM
  • SRAM Static RAM
  • PSRAM Pseudo SRAM
  • the non-volatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC).
  • PROM programmable ROM
  • EPROM erasable PROM
  • EEPROM electrically erasable PROM
  • flash memory a hard disk
  • eMMC embedded multi media card
  • one or more instructions indicating an operation to be performed on data by the processor 110 may be stored.
  • a set of one or more instructions is referred to as firmware, operating system, process, routine, sub-routine and/or application.
  • the processor 110 of the electronic device 101 executes a set of a plurality of instructions distributed in the form of an application to operate the electronic device described later (eg, FIGS. 8 to 8 ). At least one of the operations of 13) may be performed.
  • the display 130 of the electronic device 101 outputs visualized information (eg, at least one of the UIs (User Interfaces) of FIGS. 2 to 6 and 7A to 7B) to the user.
  • the visualized information may be generated by, for example, an application being executed by the processor 110 of the electronic device 101 .
  • the display 130 is controlled by a controller such as a graphics processing unit (GPU) included in the processor 110 or disposed in the electronic device 101 independently of the processor 110 to provide information to the user.
  • Visualized information can be output.
  • the display 130 may include a flat panel display (FPD) and/or electronic paper.
  • the FPD may include a Liquid Crystal Display (LCD), a Plasma Display Panel (PDP), and/or one or more Light Emitting Diodes (LEDs).
  • the LED may include organic LED (OLED).
  • the camera 140 of the electronic device 101 includes an optical sensor (eg, a Charged Coupled Device (CCD) sensor, a Complementary Metal Oxide Semiconductor (CMOS)) that generates an electrical signal representing the color and/or brightness of light.
  • an optical sensor eg, a Charged Coupled Device (CCD) sensor, a Complementary Metal Oxide Semiconductor (CMOS)
  • CCD Charged Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • a plurality of light sensors included in the camera 140 may be arranged in a 2-dimensional array.
  • the camera 140 substantially simultaneously acquires electrical signals from each of the plurality of light sensors, corresponds to light reaching the light sensors of the two-dimensional grid, and generates an image including a plurality of pixels arranged in two dimensions. can do.
  • photo data (and/or photo) captured using the camera 140 may mean one image obtained from the camera 140 .
  • video data captured using the camera 140 may refer to a sequence of a plurality of images acquired from the camera 140 according to a designated frame rate.
  • the electronic device 101 according to an embodiment is disposed toward a direction in which the camera 140 receives light and may further include a flash light for outputting light in the direction.
  • a field-of-view (FOV) of the camera 140 is an area formed based on a view angle at which a lens of the camera 140 can receive light, and the camera 140 It may correspond to a region corresponding to an image generated in .
  • a subject means an object included in the FOV of the camera 140 and distinguished from the electronic device 101 .
  • the number of cameras 140 included in the electronic device 101 may be one or more.
  • the plurality of cameras may have independent directions and/or field-of-view (FOV) within the electronic device 101 .
  • the microphone 150 of the electronic device 101 is directed to the microphone 150, from the acoustic wave, containing non-electronic information, the processor 110 and /or can be processed by the memory 120, and can generate electrical information, corresponding to the non-electrical information.
  • the electrical information generated by the microphone 150 may be stored in the memory 120, processed by the processor 110, and/or transmitted to another electronic device distinct from the electronic device 101.
  • the electronic device 101 controls both the microphone 150 and the camera 140 to create multimedia content including a sequence of a plurality of images and audio data to be reproduced while the plurality of images are sequentially displayed. can be obtained
  • the multimedia content may be referred to as video and/or video data in the following.
  • content may include the aforementioned multimedia content and/or photo data.
  • the communication circuit 160 of the electronic device 101 includes the electronic device 101 and one or more external electronic devices (eg, the first external electronic device 170-1 and/or the second external electronic device 170-1). It may include hardware components for supporting transmission and/or reception of electrical signals between devices 170-2. Referring to FIG. 1 , only the first external electronic device 170-1 and the second external electronic device 170-2 connected to the electronic device 101 are shown, but the embodiment is not limited thereto.
  • the communication circuit 160 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter.
  • MODEM modem
  • O/E optical/electronic
  • the communication circuit 160 includes Ethernet, Local Area Network (LAN), Wide Area Network (WAN), Wireless Fidelity (WiFi), Bluetooth, Bluetooth Low Energy (BLE), ZigBee, Long Term Evolution (LTE), Transmission and/or reception of electrical signals may be supported based on various types of protocols such as 5G New Radio (NR).
  • LAN Local Area Network
  • WAN Wide Area Network
  • WiFi Wireless Fidelity
  • BLE Bluetooth Low Energy
  • BLE Bluetooth Low Energy
  • ZigBee ZigBee
  • LTE Long Term Evolution
  • Transmission and/or reception of electrical signals may be supported based on various types of protocols such as 5G New Radio (NR).
  • 5G New Radio 5G New Radio
  • the electronic device 101 may include an output means for outputting information in a form other than a visualized form.
  • the electronic device 101 may include a speaker for outputting an acoustic signal.
  • the electronic device 101 may include a motor for providing haptic feedback based on vibration.
  • the first external electronic device 170-1 and/or the second external electronic device 170-2 connected to the electronic device 101 may include a server of a service provider.
  • a server may include one or more PCs and/or workstations.
  • the service provider is a service for sharing information uploaded by a specific subscriber among subscribers to one or more other subscribers, for example, a Social Networking Service (SNS) and/or a digital platform. (digital platform) can be operated.
  • SNS Social Networking Service
  • digital platform digital platform
  • the electronic device 101 may create content to be uploaded to an external electronic device such as the first external electronic device 170-1 and/or the second external electronic device 170-2.
  • the electronic device 101 may obtain content including photos and/or videos by controlling the camera 140 .
  • the electronic device 101 provides the user with external electronic devices (eg, a first external electronic device) corresponding to each of the plurality of SNSs.
  • Contents to be uploaded to the 170-1 and the second external electronic device 170-2 may be simultaneously obtained.
  • Each of the contents simultaneously acquired by the electronic device 101 has requirements set by the SNS to be uploaded (eg, type, size, resolution, aspect ratio, capacity, play time, and/or or capacity).
  • the size and/or resolution of the content indicated by the standard may include, for example, at least one of HD (1280 ⁇ 720), FHD (1920 ⁇ 1080), WQHD (2560 ⁇ 1440), UHD or 4K (3840 ⁇ 2160).
  • the aspect ratio of the content indicated by the standard may include, for example, at least one of 1:1, 4:3, 3:4, 16:9, and 9:16.
  • the reproduction time of the content indicated by the standard may include, for example, at least one of 1 minute and/or 15 seconds.
  • the electronic device 101 may generate contents that satisfy standards required by each of a plurality of SNSs based on a single shooting input controlling the camera 140 .
  • the camera application 180, the first application 190-1, and the second application 190-2 may be stored and/or installed in the memory 120 of the electronic device 101.
  • an application is installed in the electronic device 101 means that one or more instructions provided in the form of an application are stored in the memory 120 of the electronic device 101, and that the one or more instructions are stored in the electronic device 101. It may mean that it is stored in a format executable by the processor 110 (eg, a file having an extension designated by the operating system of the electronic device 101).
  • the electronic device 101 causes the electronic device 101 to obtain and/or create content using the camera 140 in a state of being executed by the processor 110 of the electronic device 101. can do.
  • the electronic device 101 In a state in which the first application 190-1 of FIG. 1 is executed by the processor 110 of the electronic device 101, the electronic device 101 is provided by the first external electronic device 170-1. It may cause the execution of functions related to SNS.
  • the second application 190-2 of FIG. 1 is executed by the processor 110 of the electronic device 101, the electronic device 101 is provided by the second external electronic device 170-2. It may cause the execution of functions related to SNS.
  • the SNS provided by the first external electronic device 170-1 and the SNS provided by the second external electronic device 170-2 may be different SNSs. Operations of the electronic device 101 described below may correspond to an example of an operation performed by the electronic device 101 based on the camera application 180 .
  • the electronic device 101 may obtain information indicating a standard of content from one or more external electronic devices. .
  • the electronic device 101 determines content to be uploaded to the first external electronic device 170-1 from the first external electronic device 170-1 identified based on the first application 190-1.
  • Information indicating standards can be obtained.
  • the specification specifies the type of content (eg, photo and/or video), the dimensions of the content (eg, aspect ratio, resolution, width and/or width), or other information uploaded with the content (eg, the content It may include at least one of information for executing a specific function of SNS such as an acquired location, text, hashtag, and mention, and a timestamp).
  • the information acquired by the electronic device 101 from an external electronic device may be referred to as metadata.
  • An operation of acquiring meta data by the electronic device 101 according to an embodiment will be described in detail with reference to FIG. 9 .
  • the electronic device 101 may display a user interface (UI) for interaction with a user before generating content based on the camera 140 .
  • UI user interface
  • the electronic device 101 may display a preview image in the first UI provided by the camera application 180 based on at least a portion of a plurality of images received from the camera 140 .
  • the first UI will be described later with reference to FIGS. 2 to 5 and 7A to 7B.
  • the electronic device 101 includes one or more visual guides based on meta data obtained from one or more external electronic devices and related to standards of content to be uploaded to each of the one or more external electronic devices. (visual guides) can be displayed.
  • the visual guides may be activated and/or deactivated by a user input indicating an SNS and/or platform to upload content to.
  • the electronic device 101 may receive a photographing input, which is a designated user input for obtaining content, within the first UI.
  • the photographing input includes a touch (eg, tap) and/or a click on a visual object, such as a shutter, included in the first UI and provided in the form of an icon and/or text.
  • gestures may be included.
  • the photographing input may include a gesture of pressing a designated button among one or more buttons exposed to the outside through a housing of the electronic device 101 .
  • the electronic device 101 may substantially simultaneously acquire one or more contents corresponding to one or more SNSs and/or platforms designated by a user.
  • the electronic device 101 Prior to uploading the one or more contents to one or more SNSs and/or platforms specified by the user, the electronic device 101 according to an embodiment combines and uploads the one or more contents from the user of the electronic device 101. Other information may be obtained additionally. For example, if a photographing input is received after the user selects an SNS corresponding to the first external electronic device 170-1, and the standard indicated by metadata provided from the first external electronic device 170-1 is And when text (eg, hashtag) is requested, the electronic device 101 may display a second UI for inputting the text. The second UI displayed by the electronic device 101 according to an embodiment will be described in detail with reference to FIG. 6 .
  • the electronic device 101 includes one or more external electronic devices (eg, the first external electronic device 170-1 and /or One or more contents to be uploaded to the second external electronic device 170-2 may be simultaneously obtained.
  • the electronic device 101 may obtain the one or more contents based on standards indicated by meta data provided from each of the one or more external electronic devices.
  • the user may use one or more applications (eg, the first application 190-1 and/or the second application 190-1) corresponding to each of the one or more SNSs.
  • the one or more contents may be uploaded and/or shared to the one or more SNSs.
  • FIG. 2 is a diagram illustrating an example of a UI (User Interface) 210 displayed by the electronic device 101 according to an embodiment.
  • the electronic device 101 of FIG. 2 may correspond to an example of the electronic device 101 of FIG. 1 .
  • the UI 210 of FIG. 2 is an example of a UI displayed on the display (eg, the display 130 of FIG. 1 ) of the electronic device 101 based on the camera application 180 of FIG. 1 . can respond to
  • the UI 210 of FIG. 2 may correspond to, for example, an example of the first UI of FIG. 1 .
  • the electronic device 101 provides a preview image 220 based on a plurality of images received from a camera (eg, the camera 140 of FIG. 1 ) within the UI 210 . ) can be displayed.
  • the preview image 220 is a downsized image of a plurality of images received from the camera, and may have, for example, a resolution smaller than or equal to the resolution of the plurality of images received from the camera.
  • the number of pixels included in the preview image 220 may be less than or equal to the number of pixels of each of a plurality of images acquired by the electronic device 101 from a camera.
  • the electronic device 101 may display a list indicating different types of content obtainable by controlling a camera in the UI 210 .
  • the electronic device 101 may display the list representing the different types based on text, such as 'photo' and 'video', within a portion 230 of the UI 210.
  • the list displayed on the portion 230 may be scrolled based on a directional gesture performed within the portion 230, such as a swipe gesture and/or a flick gesture.
  • the embodiment is not limited to FIG. 2 , and the electronic device 101 may display the list based on an icon, image, text, or a combination thereof.
  • the types of content included in the list in portion 230 are not limited to the example of FIG. 2 , and other types such as panorama, time-lapse, and/or slow-motion may be further displayed.
  • the electronic device 101 includes an external electronic device (eg, the first external electronic device 170-1 of FIG. 1 and/or the first external electronic device 170-1 of FIG. 2 A list of external electronic devices 170-2 may be displayed.
  • the external electronic device may be associated with, for example, one or more applications installed in the electronic device 101 (eg, the first application 190-1 and/or the second application 190-2 of FIG. 1). can
  • the external electronic device may correspond to, for example, a server to which the user of the electronic device 101 is subscribed.
  • the list of external electronic devices may include SNS and/or platforms to which the user of the electronic device 101 has subscribed. Referring to FIG.
  • the electronic device 101 displays a list of external electronic devices to transmit content to, based on one or more applications installed on the electronic device 101, within a portion 240 of the UI 210.
  • a list displayed in the portion 250 may be scrolled based on a directional gesture performed along the width direction among the length and width of the portion 250 .
  • the electronic device 101 may display one or more applications installed in the electronic device 101 within the portion 240 based on names, icons, colors of the icons, or a combination thereof.
  • the electronic device 101 may identify a list of external electronic devices to be displayed on the portion 240 based on one or more applications installed in the electronic device 101 . For example, in a state in which a specific application installed in the electronic device 101 is initially executed by the electronic device 101, the electronic device 101 accesses an external electronic device corresponding to the specific application, and the external electronic device Meta data can be obtained from The specific application may be an application for providing a user of the electronic device 101 with functions related to SNS and/or a digital platform provided by the external electronic device. For example, the electronic device 101 may identify the SNS and/or digital platform to which the user of the electronic device 101 has subscribed, based on one or more applications installed in the electronic device 101 .
  • the electronic device 101 obtaining the meta data from the external electronic device is a pop-up displayed on the display of the electronic device 101 (eg, a message requesting permission to access the external electronic device). Pop-up including) may be performed based on. For example, in response to receiving a user input within the popup, the electronic device 101 may transmit a meta data request signal to the external electronic device. In response to receiving the meta data from the external electronic device, the electronic device 101 displays a visual object indicating the specific application and/or the external electronic device corresponding to the specific application in the list displayed on the portion 240. can be displayed The visual object may upload content to an external electronic device corresponding to the specific application as the visual object is selected based on, for example, a name, an icon, a color of the icon, or a combination thereof of the specific application. can indicate that there is
  • the electronic device 101 within the portion 240, is a visual object corresponding to a first application installed on the electronic device 101 (eg, the first application 190-1 of FIG. 1).
  • (240-1) can be displayed.
  • the visual object 240-1 may be displayed based on metadata received from the first external electronic device corresponding to the first application (eg, the first external electronic device 170-1 of FIG. 1).
  • the meta data received from the first external electronic device may include specifications of content to be uploaded to the first external electronic device.
  • the meta data may include, for example, information indicating the type of content among photos and/or videos, resolution of content, aspect ratio of content, or upper bound of content capacity (eg, content capacity based on a unit of Bytes). ) may include data representing at least one of them.
  • the electronic device 101 among one or more visual objects displayed in a list in the portion 240, based on an application corresponding to a visual object selected by a user, an external electronic device, and/or metadata, A visual guide may be displayed in the preview image 220 .
  • the number of visual guides displayed in the preview image 220 by the electronic device 101 may be one or more. For example, in response to identifying user input selecting visual objects corresponding to each of a plurality of applications within portion 240, the electronic device 101 displays a plurality of visual objects corresponding to each of the plurality of applications. Guides may be simultaneously displayed in the preview image 220 .
  • the plurality of visual guides may be overlapped and displayed in the preview image 220 based on the order in which the plurality of applications are selected by the user input.
  • the plurality of visual guides may be rendered based on one or more layers that are superimposed on the preview image 220 and distinguished from the preview image 220 .
  • the visual guide displayed by the electronic device 101 is captured by the electronic device 101 based on a shape of a closed curve such as a rectangle, a rounded rectangle, and/or a circle. Content to be acquired based on the input may be indicated. For example, based on the visual guide displayed in the preview image 220, the user may predict the content to be obtained by the photographing input before performing the photographing input.
  • the electronic device 101 displays a visual guide in the preview image 220 ( 250-1) is shown.
  • the visual guide 250-1 may have the shape, size, and/or aspect ratio of content indicated by metadata received from the first external electronic device corresponding to the visual guide 250-1.
  • the shape of the visual guide 250-1 may correspond to a square.
  • the color of the visual guide 250-1 may be designated by metadata, match the color of the visual object 240-1, and/or determined based on a first application related to the visual object 240-1.
  • the color of the visual guide 250-1 may be determined based on the color distribution of icons included in the first application.
  • the color of the visual guide 250-1 may correspond to an average value, a mode value, and/or a key-color of colors of pixels included in the icon.
  • the electronic device 101 may further receive a user input for adjusting the position and/or size of the visual guide.
  • the user input may include, for example, a drag gesture starting on the boundary of the visual guide 250-1 and/or a pinch-to-zoom gesture.
  • the electronic device 101 may identify a photographing input performed based on a visual object such as the shutter 260 .
  • a visual object such as the shutter 260 .
  • the shutter 260 having a circular icon and/or image shape is shown, the embodiment is not limited thereto.
  • the electronic device 101 may determine that a photographing input has been received.
  • the electronic device 101 may acquire one or more contents by controlling a camera (eg, the camera 140 of FIG. 1 ).
  • the number of contents acquired by the electronic device 101 in response to the photographing input may correspond to the number of visual guides displayed on the preview image 220 before receiving the photographing input.
  • the content acquired by the electronic device 101 in response to the photographing input is at least a portion of the preview image 220 that is distinguished by a visual guide displayed on the preview image 220 before receiving the photographing input.
  • the electronic device 101 in response to identifying a photographing input, acquires content, corresponding to a portion identified by the visual guide 250-1 in the preview image 220. can do. Independently of the content, the electronic device 101 may acquire other content corresponding to the entire area of the preview image 220 .
  • the other content obtained by the electronic device 101 may be stored in a memory of the electronic device 101 (eg, the memory 120 of FIG. 1 ).
  • the other content is installed in the electronic device 101 in a memory, and is browsable by an application (eg, a gallery application) for browsing one or more contents stored in the electronic device 101.
  • the electronic device 101 In response to identifying the photographing input, the electronic device 101 according to an embodiment, the content corresponding to a portion of the preview image 220 distinguished by the visual guide 250-1 and the preview image 220 All of the other content corresponding to the entire area of can be obtained.
  • the electronic device 101 acquires one or more contents corresponding to one or more parts in the preview image 220 distinguished by one or more visual guides overlapping and displayed on the preview image 220.
  • the contents may be transmitted to one or more external electronic devices corresponding to each of the one or more visual guides.
  • the electronic device 101 in response to obtaining content distinguished by the visual guide 250-1, transfers the acquired content to a first external electronic device related to the visual guide 250-1. content can be transmitted.
  • the electronic device 101 may transmit the information obtained along with the content to the first external electronic device.
  • the information acquired together with the content is information acquired by the electronic device 101 based on a photographing input, and is, for example, the geographical location of the electronic device 101 identified at the time of acquiring the content. ), a timestamp, information related to a camera used to acquire the content, or information related to the user of the electronic device 101.
  • An example of the information that the electronic device 101 according to an embodiment transmits to the first external electronic device and acquires along with content will be described in detail with reference to FIG. 6 .
  • the electronic device 101 may store information indicating a history of acquiring the content.
  • the information is a user input performed to adjust the size and/or position of the visual guide 250-1, and the size and/or position of the subject within the visual guide 250-1. , or data indicating at least one of a history of executing a postprocess function such as a filter on the content.
  • the information may be used to create content and/or a visual guide after the information is stored. While the electronic device 101 according to an embodiment obtains specific content, an operation performed based on an example of obtaining another content prior to the specific content will be described in detail with reference to FIGS. 6 and/or 11 . .
  • the electronic device 101 may acquire a plurality of contents in response to receiving a single photographing input.
  • the plurality of contents may include contents corresponding to the entire area of the preview image 220 .
  • the plurality of contents are overlapped and displayed on the preview image 220 by a user input performed before a photographing input, such as the visual guide 250-1, and one or more visual contents corresponding to one or more external electronic devices, respectively. It may include one or more contents corresponding to each of the guides.
  • the one or more contents may be photos and/or videos based at least on a portion of the preview image 220 distinguished by a corresponding visual guide.
  • the one or more contents may have a corresponding visual guide aspect ratio.
  • the plurality of visual guides overlapping and displayed on the preview image 220 correspond to different external electronic devices, and thus may have independent aspect ratios, sizes, and/or positions.
  • a plurality of contents obtained by the electronic device 101 may have independent aspect ratios.
  • the electronic device 101 obtains content having an aspect ratio independent of the aspect ratio of the preview image 220 and requested by the external electronic device, the electronic device 101 displays content optimized for the external electronic device. can be obtained
  • the electronic device 101 of FIG. 3 may correspond to an example of the electronic device 101 of FIGS. 1 and 2 .
  • the UI 210 of FIG. 3 may correspond to an example of the UI 210 of FIG. 2 .
  • the electronic device 101 may display a list for selecting a type of content to be acquired based on a camera in a portion 230 of the UI 210. For example, in response to identifying a photographing input, the electronic device 101 may acquire one or more contents corresponding to a type selected by a list displayed on the portion 230 .
  • the electronic device 101 according to an embodiment supports content upload and displays a list of one or more applications installed in the electronic device 101 within a portion 240 of the UI 210. can do. For example, whenever a new application is installed on the electronic device 101 , the electronic device 101 may determine whether to add a visual object corresponding to the new application to the list displayed on the portion 240 . When it is determined to add the visual object to the list displayed on the portion 240, the electronic device 101 obtains a new application and/or meta data representing the standard of content from an external electronic device corresponding to the new application. can
  • the electronic device 101 may perform filtering on each of the lists in response to identifying a user input in any one of the lists displayed in each of the portions 230 and 240 .
  • Performing the filtering by the electronic device 101 may cause display of one or more visual guides being displayed on the preview image to be changed.
  • the electronic device 101 responds to the user input from within the list displayed on portion 240. Display of a visual object corresponding to an application requesting a different type distinguished from the type selected by the above may be changed.
  • the electronic device 101 selects another object distinct from the photo within the list displayed on the portion 240.
  • a visual object 240-2 corresponding to a second application requesting a type eg, video
  • a visual object eg, visual objects 240-1 and 240-3 corresponding to another application requesting the photo).
  • the electronic device 101 may change the color of the visual object 240-2 to a designated color representing inactivation.
  • the electronic device 101 may cease at least temporarily to display the visual object 240-2.
  • the electronic device 101 may hide the visual guide corresponding to the visual object 240-2 ( may hide).
  • the electronic device 101 in response to identifying a user input selecting a visual object 320 representing a video from among types of content, the electronic device 101, within a list displayed in portion 240, requests a video. 2
  • the visual object 240-2 corresponding to the application may be activated. Independently of the activation of the visual object 240-2, the electronic device 101 may inactivate and/or hide the visual objects 240-1 and 240-3 corresponding to applications requesting pictures. .
  • the visual objects 240-1 and 240-3 are displayed on the preview image 220.
  • the electronic device 101 In a state where the corresponding visual guides 250-1 and 250-3 are displayed, in response to identifying a user input for selecting the visual object 320, the electronic device 101 displays the visual objects 240-3. 1 and 240-3, it is possible to stop displaying the visual guides 250-1 and 250-3. While the selection of the visual object 320 by the user input is maintained, the electronic device 101 displays the visual objects 240-1 and 240-3 corresponding to applications requesting photos and the visual objects ( Displaying and/or activating the visual guides 250-1 and 250-3 corresponding to 240-1 and 240-3 may be refrained from. Although not illustrated, in a state in which the visual object 240-2 is activated, the electronic device 101 may display a visual guide corresponding to the visual object 240-2 on the preview image 220.
  • the electronic device 101 performs an operation in the list.
  • a type of content requested by an application corresponding to a visual object selected by a user input may be identified.
  • the electronic device 101 may perform filtering within the list displayed on the portion 240 based on the identified type. For example, in response to identifying a user input within portion 240 that selects a visual object 240 - 1 corresponding to a first application requesting a picture, the electronic device 101 may request a video. 2
  • the visual object 240-2 corresponding to the application may be deactivated.
  • the user of the electronic device 101 selects the visual object 320 corresponding to the video from the list displayed on the part 230, or and/or until the user selects none of the one or more visual objects being displayed in the list displayed in portion 240 .
  • the electronic device 101 sets the order of the visual objects to the names or names of the plurality of applications.
  • the visual objects may be adjusted based on at least one of selected histories. For example, when the screen 210 is displayed for the first time and/or there is no history of selecting the visual objects, the electronic device 101 determines the order of the visual objects based on the names of a plurality of applications. can decide For example, the order in the list of the portion 240 of the visual objects corresponding to each of the applications may correspond to an ascending or descending order of names of the applications.
  • the electronic device 101 For example, if there is a history of content acquisition and/or upload as at least one of the visual objects is selected, the electronic device 101 is indicated by the history and obtains and/or uploads content. At least one visual object used in may be displayed with priority over other visual objects in the list of the portion 240 . Priority display of a specific visual object over other visual objects by the electronic device 101 may mean allocating the specific visual object to a designated position in a list that is preferentially displayed in the UI 210 .
  • the electronic device 101 As user inputs for selecting and/or deselecting one of the visual objects included in the list of the portion 240 are accumulated, the electronic device 101 according to an exemplary embodiment accumulates user inputs within the preview image 220. It is possible to simultaneously display one or more visual guides selected by Referring to FIG. 3 , visual guides 250-1 displayed by one or more user inputs related to visual objects 240-1, 240-2, and 240-3 displayed in the UI 210 based on the list. 1, 250-3) is shown.
  • the visual guide 250-1 may have an aspect ratio and a shape required by a first external electronic device corresponding to a first application corresponding to the visual object 240-1.
  • the visual guide 250-1 may have a color related to the first application (eg, a main color of an icon of the first application).
  • the visual guide 250-3 has an aspect ratio required by a third external electronic device corresponding to a third application corresponding to the visual object 240-3 (eg, 4:3, 16:9 and/or or 9:16) and forms.
  • the visual guide 250-3 may have a color related to the third application.
  • the electronic device 101 may adjust the colors of the plurality of visual guides so that they do not match.
  • the electronic device 101 provides a list for selecting the type of one or more contents within the UI 210 (eg, a list displayed on the portion 230) and the one or more contents.
  • a list eg, a list displayed on the portion 240
  • the lists may be used by the user of the electronic device 101 to select a type of content and an external electronic device to upload the content to.
  • the electronic device 101 displays, within the preview image 220, one or more visual guides (e.g., , the visual guides 250-1 and 250-3) may be displayed.
  • a user may predict one or more contents to be uploaded to one or more external electronic devices based on the one or more visual guides.
  • the one or more visual guides have the shape of a closed curve overlapping a relatively small number of pixels in the preview image 220
  • the electronic device 101 performs a shooting input while the user views the preview image 220. It may not hinder you from doing it.
  • the electronic device 101 displays the plurality of visual guides. All of the plurality of contents corresponding to each of the contents may be acquired.
  • the preview image 220 is aligned so that the center point of the preview image 220 and the center point of each of the visual guides 250-1 and 250-3 coincide.
  • the visual guides 250-1 and 250-3 may be overlapped and displayed on the screen.
  • the embodiment is not limited thereto.
  • the electronic device 101 determines the location and/or size of the visual guides 250-1 and 250-3 based on a subject included in the FOV of the camera. The changing operation is described in detail.
  • the electronic device 101 of FIG. 4 may correspond to an example of the electronic device 101 of FIGS. 1 to 3 .
  • the UI 210 of FIG. 4 may correspond to one example of the UI 210 of FIGS. 2 to 3 .
  • the operation of the electronic device 101 is based on the displayed state of the visual guides 250-1 and 250-3 corresponding to the first application and the third application, respectively. This is explained exemplarily.
  • the electronic device 101 may identify one or more subjects included in the FOV of the camera while activating a camera (eg, the camera 140 of FIG. 1 ) and displaying the preview image 220 . there is.
  • the identification of the one or more subjects by the electronic device 101 may include a plurality of images received from the camera, a depth image corresponding to the plurality of images, and/or light emitted from the camera toward the subject (e.g. , laser light) may be performed based on at least one of data obtained by measuring the distance between the camera and the subject.
  • the electronic device 101 corresponds to each of one or more subjects included in the FOV in the plurality of images by using a feature extracted from the plurality of images and/or a codeword. can identify one or more visual objects that
  • the electronic device 101 identifies a visual object 410 corresponding to a subject (eg, a human face) included in the FOV is shown.
  • a visual object 410 corresponding to the subject may be displayed in the preview image 220.
  • the electronic device 101 may perform one or more functions based on the identified visual object 410 in response to identifying the visual object 410 corresponding to the subject.
  • the one or more functions may include, for example, adjusting the focal length of the camera, displaying one or more other visual objects indicating that the visual object 410 has been identified.
  • the electronic device 101 In response to identifying the visual object 410 corresponding to the subject, the electronic device 101 according to an embodiment, in the preview image 220 of one or more visual guides representing content to be uploaded to one or more applications. The position in can be adjusted. Referring to FIG. 4 , the electronic device 101 displays visual guides 250-1 and 250-3 within the preview image 220 based on the position of the visual object 410 within the preview image 220. position can be adjusted. Based on the example of FIG. 3 , each of the visual guides 250-1 and 250-3 responds to identifying a user input for selecting visual objects corresponding to the first application and the third application, respectively, in response to a preview image ( 220) may be overlapped and displayed.
  • the electronic device 101 in response to identifying the visual object 410, provides a visual
  • the guides 250-1 and 250-3 are directed from a designated position within the preview image 220 (eg, a position to be concentrically positioned within the preview image 220) relative to the visual object 410. It may shift to other locations.
  • the electronic device 101 in response to identifying the visual object 410, sets the size of each of the visual guides 250-1 and 250-3 to the size of the identified visual object 410.
  • the position and/or size of one or more visual guides may be changed.
  • the position and size of the visual guide 250-1 in the preview image 220 is metadata received from a first external electronic device related to a first application corresponding to the visual guide 250-1. It may be determined based on a positional relationship and/or a size relationship between the visual object 410 and the visual guide 250-1, indicated by .
  • the meta data received from the first external electronic device may include an offset indicating a position of the visual object 410 within the content and/or a size of the content and the visual object 410. It may contain data representing proportions.
  • the electronic device 101 provides a visual object in one or more contents, uploaded to one or more external electronic devices, corresponding to each of one or more visual guides displayed in the preview image 220. Based on the position of , it is possible to determine the other position. For example, the electronic device 101 is directed to a first external electronic device (eg, the first external electronic device 170-1 of FIG. 1) indicated by a first application corresponding to the visual guide 250-1. The position and/or size of the visual guide 250-1 in the preview image 220 may be determined based on the position and/or size of the visual object in the uploaded content.
  • a first external electronic device eg, the first external electronic device 170-1 of FIG. 1
  • the position and/or size of the visual guide 250-1 in the preview image 220 may be determined based on the position and/or size of the visual object in the uploaded content.
  • the position of the visual object 410 in the visual guide 250-1 may correspond to the position of the visual object in the content uploaded to the first external electronic device.
  • the size of the visual object 410 in the visual guide 250-1 (or the occupied area of the visual object 410 in the visual guide 250-1) is 1 It may correspond to the size of a visual object in the content uploaded to an external electronic device.
  • the position of the visual object 410 in the visual guide 250-3 is determined by the content uploaded to the external electronic device (eg, the third external electronic device) corresponding to the visual guide 250-3.
  • the electronic device 101 may adjust the position and/or size of the visual guide 250-3.
  • the electronic device 101 displays a preview image 220 in response to identifying a subject included in the FOV of a camera used to acquire the preview image 220.
  • a position and/or size of one or more visual guides may be changed. The location and/or size may be determined by metadata corresponding to each of the one or more visual guides, content uploaded to one or more external electronic devices corresponding to the one or more visual guides, or related to the one or more visual guides. It may be determined based on at least one of user inputs. Referring to FIG. 4 , as the electronic device 101 adjusts the positions of the visual guides 250-1 and 250-3 based on the identified subject, the user of the electronic device 101 releases the shutter 260. Contents including a visual object 410 corresponding to a subject and corresponding to each of the visual guides 250-1 and 250-3 may be obtained by only touching and/or clicking a photographing input.
  • the electronic device 101 provides visual guides 250-1 and 250-3 based on a user input related to at least one of visual guides 250-1 and 250-3. An operation of changing the position and/or size of at least one of 250-3) will be described in detail.
  • the electronic device 101 of FIG. 5 may correspond to an example of the electronic device 101 of FIGS. 1 to 4 .
  • the UI 210 of FIG. 5 may correspond to one example of the UI 210 of FIGS. 2 to 4 .
  • the operation of the electronic device 101 is based on the displayed state of the visual guides 250-1 and 250-3 corresponding to the first application and the third application, respectively. This is explained exemplarily.
  • the electronic device 101 may identify a user input for adjusting the position and/or size of each of one or more visual guides displayed in the preview image 220 .
  • the user input may include a gesture performed on at least one pixel corresponding to the one or more visual guides among a plurality of pixels included in the display of the electronic device 101 .
  • At least one pixel corresponding to the visual guide may include, for example, one or more pixels having a color related to a closed curve indicated by the visual guide and/or one or more pixels included in the closed curve.
  • the gesture may correspond to an example of a touch input rubbing the display of the electronic device 101 .
  • the electronic device 101 starts from a portion of a display distinguished by a visual guide 250-1 (eg, an inner area of the visual guide 250-1), Control based on two external objects (eg, different fingers of the user) moving along the trajectories 522 and 524 to another part distinct from the part (eg, an area outside the visual guide 250-1) 1 can identify gestures.
  • the first gesture may correspond to, for example, an example of a pinch-to-zoom gesture.
  • the pinch-to-zoom gesture is a first-type pinch-to-zoom gesture in which a distance between two external objects contacting the display of the electronic device 101 is gradually increased, and a distance between the two external objects.
  • the first gesture may correspond to the first type of pinch-to-zoom gesture in which a distance between two external objects is gradually increased along trajectories 522 and 524 .
  • the electronic device 101 moves the visual guide 250-1 based on the trajectories 522 and 524 indicated by the first gesture, and/or The size of the visual guide 250-1 can be adjusted.
  • the electronic device 101 determines the size of the visual guide 250-1, meta data corresponding to the visual guide 250-1 (eg, the first external electronic device related to the visual guide 250-1). It may be changed based on a standard (eg, size, resolution, and/or aspect ratio) indicated by meta data received from a device and the first gesture.
  • a visual guide 510 that the electronic device 101 adjusts and displays the size of the visual guide 250-1 according to the first gesture is shown together with the visual guide 250-1.
  • the aspect ratio of the visual guide 510 may correspond to the aspect ratio of the visual guide 250-1.
  • the color of the visual guide 510 may correspond to the color of the visual guide 250-1.
  • the visual guide 510 may have a size larger than that of the visual guide 250-1.
  • the electronic device 101 In response to identifying the maximum size and/or maximum resolution from the metadata, the electronic device 101, based on a size and/or resolution less than or equal to the maximum size and/or maximum resolution, provides a visual guide (250- 1) can be resized.
  • the visual guide 510 may have a size and/or resolution less than or equal to the maximum size and/or maximum resolution.
  • the embodiment is not limited thereto.
  • the electronic device 101 in response to identifying the pinch-to-zoom gesture of the second type in which a distance between two external objects contacted on the display of the electronic device 101 gradually decreases, the electronic device 101 The size of at least one visual guide may be reduced.
  • the electronic device 101 reduces the size of the at least one visual guide, the second type of pinch-to-zoom gesture and/or the content identified from the metadata corresponding to the at least one visual guide is reduced to a minimum size. It can be done based on size and/or minimum resolution.
  • An operation performed by the electronic device 101 based on the pinch-to-zoom gesture of the second type may be, for example, an electronic device based on the first gesture corresponding to the pinch-to-zoom gesture of the first type. Operation of device 101 may be performed conversely.
  • the electronic device 101 starts at a portion of the display including the closed curve of the visual guide 250-3 and follows a trajectory 540 to another portion distinct from the portion.
  • a second gesture based on an external object moving to may be identified.
  • the second gesture may correspond to, for example, an example of a drag gesture.
  • the electronic device 101 moves the visual guide 250-3 based on the trajectory 540 indicated by the second gesture, and/or the visual guide ( 250-3) can be rotated.
  • the closed curve indicated by the visual guide 250-3 has a rectangular shape, and the trajectory 540 of the second gesture is formed on an arc exceeding a designated angle (eg, 45°).
  • the electronic device 101 may rotate the visual guide 250 - 3 along another designated angle (eg, 90°).
  • the rotation of the visual guide 250-3 by the electronic device 101 is caused by metadata corresponding to the visual guide 250-3 (eg, received from a third external electronic device related to the visual guide 250-3). meta data) and the second gesture.
  • a visual guide 530 that the electronic device 101 adjusts and displays the size of the visual guide 250-3 according to the second gesture is shown together with the visual guide 250-3. .
  • the width and length of the visual guide 530 may correspond to the length and width of the visual guide 250-3, respectively.
  • the ratio between the width and the length of the visual guide 530 may correspond to the reciprocal of the ratio between the width and the length of the visual guide 250 - 3 .
  • the color of the visual guide 530 may correspond to the color of the visual guide 250-3.
  • the electronic device 101 provides one or more visual guides (eg, visual guides 250-1 and 250-3) based on a user input performed within the UI 210. ) may change at least one of the size or position of, or rotate. In a state of simultaneously displaying a plurality of visual guides such as the visual guides 250-1 and 250-3, the electronic device 101 may independently change each of the plurality of visual guides.
  • the reason why the electronic device 101 independently changes each of the plurality of visual guides based on the user input is that the standard of the content indicated by the meta data corresponding to each of the plurality of visual guides (eg, size, resolution and/or or aspect ratio). Referring to FIG.
  • the electronic device In operation 101 , in a state in which the visual guides 510 and 530 controlled by the first and second gestures are displayed, in response to receiving a photographing input based on the shutter 260, the electronic device In operation 101 , a plurality of contents corresponding to portions of the preview image 220 distinguished by each of the visual guides 510 and 530 may be obtained substantially simultaneously.
  • the electronic device 101 displays a plurality of contents corresponding to each of the visual guides 510 and 530, and a plurality of contents corresponding to each of the visual guides 510 and 530, respectively.
  • Another UI displaying for transmission to external electronic devices is described in detail.
  • FIG. 6 illustrates a UI 610 displayed by the electronic device 101 to upload one or more contents having an independent aspect ratio to one or more external electronic devices corresponding to one or more applications, respectively, according to an embodiment. It is a drawing showing an example.
  • the electronic device 101 of FIG. 6 may correspond to an example of the electronic device 101 of FIGS. 1 to 5 .
  • the UI 610 of FIG. 6 is an example of a UI displayed on the display (eg, the display 130 of FIG. 1 ) of the electronic device 101 based on the camera application 180 of FIG. 1 . can respond to
  • the UI 610 of FIG. 6 may correspond to an example of the second UI of FIG. 1 , for example.
  • the electronic device 101 may display the UI 610 of FIG. 6 in response to identifying a photographing input of touching and/or clicking the shutter 260 of FIGS. 2 to 5 .
  • one or more visual guides eg, the visual guides 250-1 and 250-3 of FIGS. 3 to 4
  • a preview image eg, the preview image 220 of FIGS. 2 to 5
  • the electronic device 101 obtains a plurality of contents including content corresponding to the preview image and contents corresponding to each of the one or more visual guides. can Referring to FIG.
  • a UI 610 displayed by the electronic device 101 to transmit at least one of the plurality of contents to one or more external electronic devices is shown
  • the type of the plurality of contents is selected from among a plurality of designated types based on a user input (eg, a user input performed within the portion 230 of FIG. 2 ) performed to select the type of content prior to the shooting input. can be chosen
  • the electronic device 101 may display one or more visual objects for controlling upload of one or more contents in the UI 610 .
  • the electronic device 101 displays the UI 610
  • a visual object for controlling upload of the one or more contents may be displayed on one or more parts of the . Referring to FIG. 6 , an example of a UI 610 displayed by the electronic device 101 in a state in which three contents are acquired is shown.
  • the electronic device 101 may display one or more visual objects for uploading the three contents to the external electronic device in different parts 630 , 640 , and 650 of the UI 610 .
  • the three contents may be created based on a user input for selecting one or more applications and/or external electronic devices (eg, a user input performed within the portion 240 of FIG. 2 ) prior to a photographing input. .
  • the electronic device 101 may display one or more thumbnails corresponding to each of one or more contents acquired based on a photographing input in the UI 610 .
  • the thumbnail 612 may correspond to content obtained from a camera (eg, the camera 140 of FIG. 1 ) based on the entire area of the preview image.
  • the content corresponding to the thumbnail 612 may be stored in the memory of the electronic device 101 (eg, the memory 120 of FIG. 1 ) independently of whether or not the content is to be transmitted to an external electronic device.
  • thumbnails 632, 642, and 652 displayed on each of the portions 630, 640, and 650 are a plurality of visual guides overlapping and displayed on the preview image at the time of identifying a photographing input. It may correspond to each of a plurality of contents obtained based on.
  • Each of the plurality of contents corresponding to the thumbnails 632 , 642 , and 642 may be at least temporarily stored in the memory of the electronic device 101 .
  • a plurality of contents corresponding to the thumbnails 632, 642, and 642 may be stored based on the format of a temporary file in the memory of the electronic device 101 while the UI 610 is displayed. .
  • the electronic device 101 may further display the capacity of the content corresponding to the thumbnails and/or the time at which the content was obtained, together with the thumbnails. If the content corresponds to a video, the electronic device 101 may further display a reproduction time of the content along with a thumbnail corresponding to the content.
  • the electronic device 101 may display information related to one or more external electronic devices to which one or more contents are to be uploaded in the UI 610 .
  • the electronic device 101 includes three external electronic devices to which each of the three contents acquired based on a photographing input is uploaded to each of the parts 630 , 640 , and 650 of the UI 610 .
  • Information related to each of the devices may be displayed.
  • the information related to the external electronic device may include a name of an SNS and/or a digital platform indicated by the external electronic device, and account information (eg, ID) stored in the external electronic device by the user of the electronic device 101 .
  • can include Information related to the external electronic device may be identified based on an application installed in the electronic device 101 and corresponding to the external electronic device.
  • the electronic device 101 may display information to be uploaded to one or more external electronic devices together with one or more contents in the UI 610 .
  • the electronic device 101 displays content-related information as information to be transmitted to different external electronic devices using portions 630, 640, and 650 of the UI 610, respectively.
  • the electronic device 101 displays an area 636 included in the portion 630.
  • the electronic device 101 may display at least one of account information to be used to upload the content to the specific external electronic device, a geographical location where the content was obtained, or text related to the content, in the area 636. there is.
  • the electronic device 101 may obtain information to be uploaded to an external electronic device along with content from a user by using the UI 610 .
  • the electronic device 101 may independently obtain information corresponding to each of the contents from the user.
  • the electronic device 101 may obtain text related to the content corresponding to the thumbnail 632 from the user by using a text box included in the area 636 of the portion 630 .
  • the text may include at least one of a title or body of an article to be posted in an SNS related to the specific external electronic device together with the content by the specific external electronic device. .
  • the electronic device 101 may further display a button 638 for editing based on an application corresponding to the specific external electronic device in the portion 630 .
  • the electronic device 101 may support uploading of the content based on a specific application that corresponds to the specific external electronic device and is installed in the electronic device 101 .
  • the type of information to be uploaded by the electronic device 101 to an external electronic device together with content is not limited to the example of FIG. 6 .
  • information to be uploaded by the electronic device 101 to an external electronic device together with content includes a filter applied to the content, music to be played along with the content, size, capacity, resolution, aspect ratio, type, hashtag, or the above information. It may include at least one of a list of users who can access the content.
  • the electronic device 101 may identify the type of information to be uploaded to the external electronic device along with the content based on the metadata.
  • the electronic device 101 by using a button 625 of the UI 610, the electronic device 101 according to an embodiment is distinguished from external electronic devices corresponding to different portions of the UI 610. Uploading of content to another external electronic device may be supported. In response to identifying user input, for example, of touching and/or clicking button 625 , electronic device 101 may be displayed within another portion of UI 610 that is distinct from portions 630 , 640 , and 650 . , One or more visual objects for uploading content may be displayed on an external electronic device that is distinguished from external electronic devices related to the portions 630 , 640 , and 650 .
  • the electronic device 101 may display a thumbnail of another content obtained from the content corresponding to the thumbnail 612 based on meta data corresponding to another external electronic device.
  • the electronic device 101 may display information to be uploaded to the other external electronic device together with the other content. The information may be displayed based on a visual object (eg, a text box) that is modifiable by a user.
  • a visual object eg, a text box
  • the electronic device 101 selects, within the UI 610, whether to upload a combination of content and information indicated by each of the parts to each of the parts corresponding to each of the different external electronic devices.
  • a visual object eg, a check box and/or radio button
  • the electronic device 101 uses check boxes 634 , 644 , and 654 included in each of the portions 630 , 640 , and 650 to allow the user to select portions 630 , 640 , and 650 . It is possible to identify whether to transmit a combination of content and information corresponding to each.
  • the electronic device 101 performs a combination of one or more contents and information indicated based on one or more portions (eg, portions 630, 640, and 650) of the UI 610, using a button. In response to identifying user input for a designated visual object, such as 620, it can be transmitted to one or more external electronic devices. In the example of FIG. 6 , since the check box 644 included in the portion 640 is not selected and/or released by the user, the electronic device 101 is the portion including the check box 644 ( The combination of content and information corresponding to 640) may not be transmitted to an external electronic device corresponding to portion 640.
  • the electronic device 101 may transmit combinations of content and information corresponding to each of the portions 630 and 650 to external electronic devices corresponding to each of the portions 630 and 650 .
  • electronic device 101 may transmit a combination of content corresponding to thumbnail 632 and information represented by area 636 to a specific external electronic device corresponding to portion 630 .
  • the combination of the content and the information may be transmitted to the specific external electronic device by the specific application installed in the electronic device 101 and corresponding to the specific external electronic device.
  • the electronic device 101 may transmit a signal including a combination of the content and the information to the specific external electronic device based on the specific application.
  • the signal may correspond to a request to create a post corresponding to the combination of the content and the information based on account information related to the user of the electronic device 101 .
  • electronic device 101 can transmit a combination of content and information represented by portion 654 to another electronic device corresponding to portion 654 .
  • the electronic device 101 provides a plurality of contents having a size, resolution, and/or aspect ratio required by each of a plurality of external electronic devices, corresponding to each of the plurality of contents. Together with the information, it can be simultaneously transmitted to a plurality of external electronic devices. At least a portion of the information corresponding to each of the plurality of contents may be received from the user, for example, based on the UI 610 of FIG. 6 .
  • the electronic device 101 uses the button 620 of the UI 610 to substantially simultaneously combine a plurality of contents and corresponding information to a plurality of external electronic devices corresponding to each of the plurality of contents.
  • Uploading can be supported. For example, the electronic device 101 may collectively upload photos and/or videos acquired through a single shooting input to a plurality of SNSs specified by the user of the electronic device 101 .
  • FIGS. 7A to 7B are diagrams for explaining an operation of changing an aspect ratio of a preview image by the electronic device 101 according to an exemplary embodiment.
  • the electronic device 101 of FIGS. 7A to 7B may correspond to an example of the electronic device 101 of FIG. 1 .
  • the UI 710 of FIGS. 7A to 7B is a UI displayed on the display of the electronic device 101 (eg, the display 130 of FIG. 1 ) based on the camera application 180 of FIG. 1 .
  • An example may correspond.
  • the UI 710 of FIGS. 7A to 7B may correspond to an example of the first UI of FIG. 1 .
  • FIGS. 7A and 7B different states 700 and 705 of the UI 710 displayed by the electronic device 101 based on a drag gesture related to the shutter 260 are shown.
  • Displaying the UI 710 of FIGS. 7A to 7B by the electronic device 101 may be similar to displaying at least a portion of the UI 210 of FIGS. 2 to 6 .
  • portion 230 in UI 710 may be used to display a list representing different types of content that is associated with portion 230 of UI 210 and obtainable by controlling a camera.
  • the electronic device 101 may obtain content of a type selected by a list in the portion 230 by controlling a camera based on a photographing input of touching and/or clicking the shutter 260 .
  • the electronic device 101 overlaps and displays an icon representing an external electronic device to upload content to be obtained by a photographing input and/or an application to be used for uploading the content on the shutter 260 . can do.
  • the electronic device 101 In a state in which the icon is overlapped and displayed on the shutter 260, the electronic device 101 has a size, resolution, and/or aspect ratio based on metadata corresponding to an external electronic device and/or application related to the icon.
  • a preview image can be displayed.
  • the electronic device 101 may select a content type from a list in the portion 230 based on the type of content indicated by the meta data. .
  • the electronic device 101 displays a first application (eg, the first application 190-1 of FIG. 1) and/or the first application 190-1 on the shutter 260.
  • a first icon representing a first external electronic device corresponding to an application eg, the first external electronic device 170 - 1 of FIG. 1
  • the first icon displayed overlapping on the shutter 260 may correspond to the icon of the first application.
  • the preview image 720 displayed in the UI 710 by the electronic device 101 has a size and resolution indicated by meta data related to the first application and/or the first external electronic device. and/or aspect ratio.
  • the visual object 310 that the electronic device 101 selects from the list in the portion 230 is content indicated by metadata related to the first application and/or the first external electronic device. may correspond to the type of (eg, photo).
  • the electronic device 101 may acquire content corresponding to the preview image 720 in response to identifying a photographing input of tapping the shutter 260 .
  • the content acquired by the electronic device 101 may be uploaded to the first external electronic device related to the first icon displayed on the shutter 260 .
  • the electronic device 101 Before uploading the content to the first external electronic device, the electronic device 101 provides a UI for obtaining information to be uploaded to the first external electronic device along with the content, such as the UI 610 of FIG. 6 . more can be displayed.
  • the electronic device 101 is distinguished from a photographing input by using the shutter 260, and determines the type, size, resolution, aspect ratio of content to be obtained by the photographing input, or an external electronic device to upload the content.
  • a user input for adjusting at least one of them may be identified.
  • the user input starts from a part of the display distinguished by the shutter 260 (eg, an inner region of the shutter 260), and proceeds along a designated direction to another part distinguished from the part (eg, the shutter 260).
  • a gesture of an external object eg, a user's finger moving to the external area of 260 may be included.
  • the gesture may correspond to an example of a drag gesture and/or a swipe gesture for the shutter 260 .
  • the electronic device 101 may identify a drag gesture that starts within the shutter 260 and follows one of the trajectories 712 and 714.
  • a drag gesture that starts within the shutter 260 and follows one of the trajectories 712 and 714.
  • an operation of the electronic device 101 based on a drag gesture along a direction parallel to the width among the length and width of the UI 710 will be described, such as the trajectories 712 and 714, but the embodiment is not limited thereto. no.
  • the electronic device 101 may display a second icon distinct from the first icon displayed on the shutter 260 .
  • the second icon includes a first application corresponding to the first icon and a second application (eg, the second application 190-2 of FIG. 1) and a second external electronic device (eg, the second application 190-2 in FIG.
  • it may be related to the second external electronic device 170 - 2 of FIG. 1 .
  • a UI 710 displayed after the electronic device 101 switches from a state 700 to a state 705 in response to identifying the drag gesture is shown.
  • the electronic device 101 may display a preview image 730 having a size, resolution, and/or aspect ratio different from the preview image 720 in state 700.
  • the size, resolution and/or aspect ratio of the preview image 730 in state 705 is determined by the second application and/or the second external application corresponding to the second icon displayed on the shutter 260 in state 705. It may correspond to the size, resolution, and/or aspect ratio indicated by metadata related to the electronic device.
  • the electronic device 101 may change the size, resolution, and/or aspect ratio of the preview image.
  • the type of content displayed using the list in the portion 230 of the electronic device 101 is meta related to the second application and/or the second external electronic device. It may correspond to the type of content indicated by data. For example, as the visual object 310 corresponding to the picture is transitioned from the activated state 700 to the state 705, identifying that the meta data associated with the second icon on the shutter 260 indicates a video. In response, the electronic device 101 may activate the visual object 320 corresponding to the video in the list in the portion 230 . As the visual object 320 corresponding to the video is activated, the electronic device 101 may stop activating the visual object 310 .
  • the electronic device 101 may acquire content corresponding to the preview image 730 in response to identifying a photographing input distinct from the drag gesture.
  • the content obtained by the electronic device 101 may be uploaded to the second external electronic device related to the second icon displayed on the shutter 260 .
  • the electronic device 101 Before uploading the content to the second external electronic device, the electronic device 101 provides a UI for obtaining information to be uploaded to the second external electronic device together with the content, such as the UI 610 of FIG. 6 . more can be displayed.
  • the electronic device 101 switches an external electronic device to which content to be obtained from a camera will be uploaded, among a plurality of external electronic devices, based on a drag gesture initiated from the shutter 260. and/or scrollable.
  • the electronic device 101 may change the size, resolution, and/or aspect ratio of the preview image based on meta data corresponding to the switched external electronic device.
  • the electronic device 101 may change the type of content to be acquired from the camera based on the meta data.
  • the electronic device 101 may obtain at least one content to be transmitted to at least one external electronic device based on a photographing input.
  • the electronic device 101 is a UI capable of receiving a photographing input (eg, the UI 210 of FIGS. 2 to 5 and/or the UI of FIGS. 7A to 7B ( In 710)), a list of one or more external electronic devices corresponding to each of the one or more applications and to which the at least one content is to be uploaded may be displayed.
  • the one or more applications and/or the one or more external electronic devices may be related to an SNS and/or a digital platform to which the user of the electronic device 101 subscribes.
  • the electronic device 101 After identifying a user input for selecting at least one external electronic device from the list, the electronic device 101 obtains content based on standards required by the at least one external electronic device corresponding to the identified user input. can do.
  • the type, size, resolution, and/or aspect ratio of content obtained by the electronic device 101 may be adjusted by an external electronic device selected by the user input.
  • the electronic device 101 may acquire a plurality of contents that satisfy the standards of each of the plurality of external electronic devices based on a single photographing input.
  • the electronic device 101 may substantially simultaneously upload a plurality of contents acquired based on a single photographing input to the selected plurality of external electronic devices.
  • FIG. 8 is a flowchart illustrating an operation of acquiring one or more contents having an independent aspect ratio by controlling a camera, by an electronic device, according to an exemplary embodiment.
  • the electronic device of FIG. 8 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 8 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • the electronic device may display a preview image within the first user interface.
  • the first user interface may include the first UI of FIG. 1 , the UI 210 of FIGS. 2 to 5 , and/or the UI 710 of FIGS. 7A to 7B .
  • the preview image is selected from a camera of the electronic device (eg, the camera 140 of FIG. 1 ) at a specified frame rate (eg, 12 frames per second (fps), 24 fps, 30 fps, 60 fps, or one frame of 120 fps). rate) may correspond to at least one part of a plurality of images received according to the ratio.
  • a specified frame rate eg, 12 frames per second (fps), 24 fps, 30 fps, 60 fps, or one frame of 120 fps. rate
  • the electronic device is a visual object (eg, the shutter 260 of FIG. 2 ) for receiving a designated input (eg, a photographing input) initiating acquisition of camera-based content related to the preview image.
  • a designated input eg, a photographing input
  • the first user interface may be displayed on a display (eg, display 130 of FIG. 1 ) of an electronic device in response to executing a designated application such as a camera application (eg, camera application 180 of FIG. 1 ).
  • a designated application such as a camera application (eg, camera application 180 of FIG. 1 ).
  • the electronic device may further display a list for selecting the type of content and/or one or more external electronic devices to upload the content to.
  • the electronic device includes one or more applications (eg, the first application 190-1 of FIG. 1) and/or a camera application within a memory (eg, the memory 120 of FIG. 1).
  • the one or more external electronic devices may be identified based on the second application 190-2).
  • the electronic device determines the type, size, capacity, resolution, aspect ratio, or visual guide of uploadable content from the one or more external electronic devices to each of the one or more external electronic devices. Meta data representing at least one of the colors of may be obtained.
  • the electronic device may overlap and display one or more visual guides corresponding to one or more external electronic devices, respectively, on the preview image. For example, while displaying the preview image in the first user interface based on operation 810, the electronic device may perform operation 820.
  • the one or more visual guides may be displayed in response to identifying a user input displayed in the first user interface and performed in a list for selecting the one or more external electronic devices.
  • An overlapping display of the one or more visual guides on the preview image by the electronic device may be performed based on at least one of the operations described above with reference to FIGS. 3 to 5 .
  • one or more visual guides displayed on the preview image are displayed based on at least one of the metadata, a result of the electronic device identifying a subject within the FOV corresponding to the preview image, or a user input performed on the preview image. It can be.
  • each of the plurality of visual guides may have an independent size and/or aspect ratio.
  • the electronic device may determine whether a photographing input is received.
  • the photographing input is, for example, a gesture of touching and/or clicking a designated visual object (eg, the shutter 260 of FIG. 2 ) being displayed in the first user interface for a duration within a designated time interval.
  • a designated visual object eg, the shutter 260 of FIG. 2
  • the electronic device may maintain displaying a preview image and/or one or more visual guides based on operation 820.
  • the electronic device may obtain one or more contents corresponding to each of one or more visual guides. While displaying the one or more visual guides superimposed on a preview image, in response to receiving a photographing input for a camera, the electronic device determines the one or more visual guides based on at least one of a plurality of images received from the camera. One or more contents corresponding to each of the visual guides may be obtained.
  • the one or more contents acquired by the electronic device may relate to a portion of a preview image corresponding to an inner area of the one or more visual guides having a closed curve shape. For example, in a state in which a plurality of visual guides having different aspect ratios are displayed, in response to receiving a photographing input, the electronic device may obtain a plurality of contents having aspect ratios corresponding to each of the plurality of visual guides. .
  • the electronic device may display a second user interface for uploading one or more contents to one or more external electronic devices.
  • the second user interface may include the UI 610 of FIG. 6 .
  • the electronic device acquires a plurality of contents
  • the electronic device obtains a first part for obtaining first information corresponding to a first content among the plurality of contents, and a first part corresponding to a second content among the plurality of contents.
  • the second user interface including a second part for obtaining second information may be displayed.
  • the first portion and/or the second portion may correspond to, for example, at least one of the portions 630 , 640 , and 650 of FIG. 6 .
  • the electronic device may obtain first information corresponding to the first content and second information corresponding to the second content from a user by using each of the first portion and the second portion.
  • the electronic device In response to receiving a user input for a designated visual object (eg, the button 620 of FIG. 6 ) included in the second user interface, the electronic device according to an embodiment provides a first external image corresponding to the first content.
  • the electronic device may transmit the first information and the first content.
  • the electronic device In response to receiving the user input, independently of transmitting the first information and the first content, the electronic device sends the second information and the first content to a second external electronic device corresponding to the second content. 2 Content can be transmitted.
  • an electronic device obtains one or more contents based on metadata received from one or more external electronic devices corresponding to the one or more contents
  • the user may access the external electronic device
  • An operation of editing the content to create the content to be uploaded may be minimized or eliminated.
  • the electronic device may acquire the one or more contents based on a single shooting input, independently of the number of the one or more contents. For example, a user may acquire a plurality of contents that are uploaded to each of a plurality of external electronic devices and have different standards by using the single photographing input.
  • FIG. 9 is a flowchart illustrating an operation of obtaining, from an external electronic device, information related to a visual guide to be overlapped and displayed on a preview image by an electronic device according to an exemplary embodiment.
  • the electronic device of FIG. 9 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b.
  • the external electronic device of FIG. 9 may include the first external electronic device 170-1 and the second external electronic device 170-2 of FIG. 1 .
  • At least one of the operations of FIG. 9 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • At least one of the operations of FIG. 9 may be related to at least one of the operations of FIG. 8 (eg, operation 810).
  • an electronic device may install an application into the electronic device.
  • the electronic device may install the first application 190-1 and/or the second application 190-2 of FIG. 1 in the memory of the electronic device.
  • Operation 910 may be performed in response to the electronic device identifying a user input performed within a designated application that supports installation of a network-based application, such as a market application.
  • the electronic device may identify a user input for executing the application of operation 910 . For example, after executing an application, the electronic device receives the user input within a designated UI for executing any one of a plurality of applications provided by an operating system and installed in the electronic device, such as a home screen. can do.
  • the electronic device determines whether the application selected by the user input is initially executed by the electronic device. can judge When the application of operation 910 is first executed by the electronic device (930-Yes), in operation 940, the electronic device according to an embodiment determines whether an external electronic device corresponding to the application has been identified. can For example, when the electronic device establishes a connection between the external electronic device and the electronic device as an application is executed, the electronic device may identify the external electronic device based on the established connection.
  • the electronic device In response to identifying the external electronic device corresponding to the application (940-Yes), in operation 950, the electronic device according to an embodiment displays a UI for confirming whether to obtain camera information from the external electronic device.
  • the UI may include one or more visual objects (eg, buttons having designated texts such as 'Yes' and 'No') for selecting whether to retrieve the information, such as a pop-up window. While displaying the UI of operation 950, in operation 960, the electronic device according to an embodiment may determine whether a user input for obtaining information is received through the UI.
  • the electronic device In response to receiving a user input for obtaining information through the UI in operation 950 (960-yes), in operation 970, the electronic device according to an embodiment receives information about a camera from an external electronic device. can be obtained The information may correspond to metadata indicating standards of content that can be uploaded to an external electronic device and obtained from a camera. The information is a standard of content guided by an external electronic device, and may indicate, for example, at least one of the type, size, resolution, aspect ratio of the content, or information that can be uploaded together with the content. The information acquired by the electronic device based on operation 970 may be used by the electronic device to obtain content using a camera, as described above with reference to FIGS. 2 to 6 and/or 7A to 7B.
  • an electronic device may execute an application.
  • the electronic device may execute an application.
  • the application is not first executed by the electronic device (930-No), the external electronic device corresponding to the application does not exist (940-No), or information is obtained through the UI of operation 950. If the user input to come is not received (960 - No), the electronic device may bypass operation 970 and then perform operation 980.
  • FIG. 10 is a flowchart illustrating an operation performed by an electronic device based on a visual object selected by a user, according to an exemplary embodiment.
  • the electronic device of FIG. 10 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b.
  • At least one of the operations of FIG. 10 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • At least one of the operations of FIG. 10 may be related to at least one of the operations of FIG. 8 (eg, operations 810 and 820).
  • the electronic device may display a plurality of visual objects corresponding to each of a plurality of applications stored in the electronic device. For example, while displaying the UI 210 of FIG. 2 , the electronic device may display the plurality of visual objects within a portion 240 of the UI 210 .
  • the plurality of visual objects may include names and/or icons of a plurality of applications installed on the electronic device and corresponding to each of the plurality of external electronic devices.
  • the electronic device displays a preview image using a user interface based on a camera application, visual objects representing each of a plurality of applications that are distinguished from the camera application and request upload of an image, Can be displayed within the user interface.
  • the plurality of visual objects may be displayed by an electronic device in order to select one or more external electronic devices to upload content from among the plurality of external electronic devices.
  • the electronic device may receive a user input for selecting one of a plurality of visual objects in operation 1010 .
  • the user input may include, for example, user input performed within portion 240 of FIG. 2 .
  • the electronic device may maintain displaying a plurality of visual objects based on operation 1010.
  • the electronic device displays a visual guide indicating content to be uploaded through an application indicated by a visual object related to the user input, on the preview image. can be displayed superimposed on .
  • the electronic device In response to receiving a user input selecting one of the plurality of visual objects (1020-Yes), in operation 1030, the electronic device according to an embodiment corresponds to the visual object selected by the received user input. It is possible to identify the type of content requested by the application. For example, the electronic device may identify the type of content related to the application and/or the external electronic device based on meta data acquired from the application corresponding to the visual object and/or the external electronic device. The type of content may be included in a plurality of designated types obtainable using a camera of an electronic device.
  • the electronic device selects one of the plurality of visual objects, requesting content of a type distinct from the identified type.
  • Display of one or more visual objects corresponding to one or more applications may be changed and/or stopped.
  • the electronic device may include one or more applications corresponding to one or more applications that require a different type distinguished from the type identified based on the operation 1030.
  • Visual objects may be hidden and/or deactivated, at least temporarily. Deactivating the visual object may include an operation of the electronic device to change the color and/or shape of the visual object to a designated color and/or shape indicating inactivation.
  • Disabling a visual object means that the electronic device does not execute a function related to the disabled visual object in response to the electronic device identifying a user input that selects the disabled visual object, and/or an event based on the user input. It may include discarding.
  • FIG. 11 is a flowchart illustrating an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment.
  • the electronic device of FIG. 11 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b.
  • At least one of the operations of FIG. 11 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • At least one of the operations of FIG. 11 may be related to at least one of the operations of FIGS. 8 to 10 (eg, operation 820 of FIG. 8 ).
  • the electronic device may identify a history of uploading first content through an application corresponding to a visual object selected by a user. Operation 1110 may be performed by the electronic device, for example, in response to receiving a user input selecting one of the visual objects of operation 1020 of FIG. 10 .
  • the history may be stored in the memory of the electronic device by the electronic device at the time of acquiring the first content using a camera and/or uploading the first content to an external electronic device related to the application.
  • the electronic device may identify a first position of a first visual object corresponding to a first subject within the first content represented by the identified history. . As described above with reference to FIG. 4 , the electronic device may store the first position of the first visual object in the first content within the history. Referring to FIG. 11 , in operation 1130, the electronic device according to an embodiment may identify a second position of a second visual object corresponding to a second subject in a preview image. The second subject may be included in the FOV of a camera corresponding to the preview image.
  • the electronic device may display a visual guide based on at least one of the identified first location or second location within the preview image.
  • the location of the visual guide within the preview image is determined by the location of the second visual object within a portion of the preview image identified by the visual guide, the location of the first visual object within the first content. It may be determined based on the first location and the second location to correspond to the first location.
  • the electronic device may receive a user input for changing the size and/or location of the visual guide in operation 1150 .
  • the electronic device may receive the user input including a drag gesture, a swipe gesture, and/or a pinch-to-zoom gesture related to the visual guide.
  • the electronic device determines the size and/or position of the visual guide based on the received user input. can be changed
  • the electronic device After performing operation 1160 corresponding to the user input of operation 1150, or while not receiving the user input of operation 1150 (1150-no), in operation 1170, the electronic device according to one embodiment The device may determine whether a photographing input is received. Before receiving the photographing input (1170 - No) or after performing the operation 1160, the electronic device may, based on the operations 1150 and 1170, detect the user input and/or the photographing input. can keep
  • the electronic device may obtain second content by controlling a camera. After the position of the visual guide is adjusted based on operations 1120, 1130, and 1140, the position of the second visual object in the second content acquired by the electronic device independently of operation 1160 is, It may be adjusted similarly to the first position of the first visual object in the first content.
  • the electronic device may store the location of the second visual object within the second content in a memory. The position of the second visual object in the second content stored in memory may be used by the electronic device to determine the position of the visual object corresponding to the subject in other content to be obtained after the second content. .
  • the electronic device may display a UI (eg, the UI 610 of FIG. 6 ) for transmitting the second content to at least one external electronic device. there is.
  • FIG. 12 is a flowchart illustrating an operation of an electronic device uploading one or more contents and one or more pieces of information corresponding to each of the one or more contents to an external electronic device according to an exemplary embodiment.
  • the electronic device of FIG. 12 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b.
  • At least one of the operations of FIG. 12 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • At least one of the operations of FIG. 12 may be related to at least one of the operations of FIGS. 8 to 11 (eg, operations 840 and 850).
  • the electronic device controls a camera to obtain one or more contents based on one or more visual guides, respectively.
  • the electronic device controls the camera 140 of FIG. 1 , based on each of one or more visual guides being displayed based on at least one of operation 820 of FIG. 8 and/or operations of FIG. 11 . It is possible to obtain one or more contents that do.
  • the electronic device according to an embodiment may perform operation 1210 in response to the electronic device identifying a photographing input. .
  • the electronic device may display a user interface in which one or more contents obtained based on operation 1210 are displayed on different parts.
  • the user interface of operation 1220 may include the UI 610 of FIG. 6 .
  • the electronic device may display one or more contents acquired based on the operation 1210 on each of the parts of the user interface (eg, the parts 630 , 640 , and 650 of FIG. 6 ).
  • the electronic device may obtain information to be uploaded together with corresponding content through different portions, respectively.
  • the type of information may be determined by meta data related to the content.
  • the information may include at least one of account information corresponding to the content, title and body of a post related to the content, or data related to the content (eg, geographical location where the content was obtained, size, resolution and/or aspect ratio of the content) can include
  • the electronic device may determine whether a user input for a designated visual object in the user interface is received in operation 1220.
  • the visual object such as the button 620 of FIG. 6 , transmits one or more contents displayed in a user interface and information corresponding to each of the one or more contents to one or more external contents corresponding to each of the one or more contents. It may correspond to a designated visual object for uploading to electronic devices.
  • the electronic device may continue to display the user interface and/or obtain information of the operation 1230 based on operation 1230.
  • the electronic device may upload one or more contents to an external electronic device through a corresponding application.
  • the electronic device may upload one or more contents to an external electronic device through a corresponding application.
  • the electronic device may upload one or more contents to an external electronic device through a corresponding application.
  • the electronic device Before uploading the content based on operation 1250, the electronic device according to an embodiment may store one or more contents obtained based on operation 1210 as temporary files in the electronic device. In response to uploading one or more contents based on operation 1250, the electronic device stores the one or more contents uploaded to one or more external electronic devices as another file distinct from the temporary file in the electronic device. can Among the one or more contents acquired based on operation 1210 , content that is not uploaded to an external electronic device based on operation 1250 may be stored as a temporary file and/or removed from the electronic device.
  • FIG. 13 is a flowchart illustrating an operation of changing an aspect ratio of a preview image by an electronic device according to an exemplary embodiment.
  • the electronic device of FIG. 13 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b.
  • At least one of the operations of FIG. 13 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
  • At least one of the operations of FIG. 13 may be related to at least one of the operations of FIGS. 8 to 11 .
  • the electronic device may display a preview image based on an aspect ratio of content to be uploaded through an application corresponding to a displayed visual object overlapping a shutter. there is.
  • the electronic device according to an embodiment may overlap and display the visual object on the shutter 260 as shown in FIGS. 7A to 7B .
  • the visual object may correspond to, for example, an icon of one application among a plurality of applications installed in the electronic device.
  • the aspect ratio may be indicated by a specific application indicated by the visual object and/or metadata acquired from an external electronic device related to the specific application.
  • a preview image displayed by the electronic device based on operation 1310 may correspond to, for example, at least one of the preview images 720 and 730 of FIGS. 7A to 7B .
  • the electronic device may perform operation 1310 on the shutter and determine whether a user input distinct from a photographing input is received.
  • the user input may include a swipe gesture and/or a drag gesture initiated within a portion of the display corresponding to the shutter and directed to another portion distinct from the portion.
  • the electronic device displays another visual object distinct from the visual object of operation 1310 by overlapping the shutter. can As the other visual object is overlapped and displayed on the shutter, the electronic device may stop overlapping and displaying the visual object of operation 1310 on the shutter.
  • the electronic device may display an animation switching from the visual object to the other visual object within a part of the display distinguished by the shutter. For example, the electronic device moves the visual object to the outside of the portion along a direction indicated by the user input (eg, a direction corresponding to a trajectory of a drag gesture), and moves the visual object to the inside of the portion along the direction.
  • the other visual object can be moved with .
  • the electronic device may change the display of a preview image based on the aspect ratio of content to be uploaded through an application corresponding to another visual object in operation 1330.
  • the aspect ratio of operation 1340 may be determined independently of the aspect ratio of operation 1310 by other applications indicated by the other visual object and/or metadata obtained from an external electronic device related to the other application.
  • An operation performed by the electronic device based on the operations 1320, 1330, and 1340 may include an operation of switching between the states 700 and 705 of FIGS. 7A and 7B.
  • the order in which the electronic device performs the operations 1330 and 1340 is not limited to the embodiment of FIG. 13 , and for example, the electronic device may perform the operations 1330 and 1340 substantially simultaneously.
  • the electronic device may determine whether or not a photographing input has been received.
  • the photographing input may include a gesture (eg, a tap gesture performed on a shutter) distinct from the user input of operation 1320 .
  • the electronic device may continue to perform at least one of operations 1310, 1320, 1330, and 1340.
  • the electronic device controls the camera to overlap the shutter to display content having an aspect ratio corresponding to the displayed visual object.
  • the electronic device may acquire content corresponding to the entire area of the preview image having the aspect ratio changed by the operations 1320, 1330, and 1340, based on at least one of a plurality of images acquired from the camera. there is.
  • the electronic device may upload the obtained content using an application indicated by the visual object.
  • the electronic device may transmit the acquired content to an external electronic device related to the application.
  • the electronic device may obtain information to be transmitted to the external electronic device together with the content from the user. The information may be received from the user, for example, based on the UI 610 of FIG. 6 .
  • a method for a user to share content through different web services corresponding to each of a plurality of external electronic devices may be required.
  • a method for generating contents to be shared by users through the web services based on standards required by each of the web services may be required.
  • an electronic device may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory.
  • the processor may be configured to, upon executing the one or more instructions, display a preview image within a user interface of a camera application based on at least a portion of a plurality of images received from the camera.
  • the processor executes the one or more instructions, while displaying the preview image in the user interface, the processor generates visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, while displaying the preview image in the user interface. It can be configured to display within the user interface.
  • the processor upon executing the one or more instructions, in response to receiving a user input for one of the visual objects, provides content to be uploaded through an application represented by a visual object related to the user input. It may be configured to superimpose and display a visual guide based on at least an aspect ratio of the preview image.
  • An electronic device may acquire a plurality of contents to be uploaded to different web services with only a single photographing input.
  • the electronic device according to an embodiment may generate the plurality of contents based on standards provided by each of the web services.
  • the processor upon executing the one or more instructions, may, in response to receiving the user input while displaying the preview image having a first aspect ratio, differentiate from the first aspect ratio. Based on the second aspect ratio, the visual guide indicating the content to be uploaded through the application represented by the visual object may be displayed.
  • the processor upon executing the one or more instructions, in response to receiving the user input for one of the visual objects, uploads through the application represented by the visual object.
  • the processor may display the visual guide having a color corresponding to the application represented by the visual object in response to receiving the user input.
  • the processor may obtain the color of the visual guide based on a color distribution of each of a plurality of pixels included in an icon representing the application.
  • the processor overlaps and displays the visual guide on the preview image, while displaying another visual object corresponding to the user input among the visual objects.
  • another visual guide based at least on an aspect ratio of other content to be uploaded through another application represented by the other visual object. It can be displayed superimposed on the preview image.
  • the processor upon executing the one or more instructions, in response to receiving a shooting input to the camera while displaying the visual guide and the other visual guide, the processor may: to obtain a plurality of contents having aspect ratios corresponding to each of the visual guide and the other visual guide, and in response to obtaining the plurality of contents, text for each of the plurality of contents in different portions.
  • Other user interfaces displaying visual objects for receiving them may be displayed.
  • the processor when executing the one or more instructions, identifies a subject included in a field-of-view (FOV) of the camera while displaying the preview image in the user interface, and In a state in which the subject is identified, in response to receiving the user input, the visual guide may be displayed based on at least a location of the identified subject within the preview image.
  • FOV field-of-view
  • the processor when executing the one or more instructions, displays the visual guide in the preview image based on at least a location of another subject in other content obtained before receiving the user input. can do.
  • a method of an electronic device may include an operation of displaying a preview image in a user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device.
  • the method includes an operation of displaying visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, in the user interface while displaying the preview image in the user interface.
  • the method comprises: and, in response to receiving a user input for one of the visual objects, a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by a visual object associated with the user input. may include an operation of overlapping and displaying , on the preview image.
  • the operation of displaying the visual guide may include displaying the preview image having a first aspect ratio in response to receiving the user input at a second aspect ratio distinct from the first aspect ratio. Based on this, the method may further include displaying the visual guide indicating the content to be uploaded through the application represented by the visual object.
  • the method of the electronic device may, in response to receiving the user input for one of the visual objects, identify the type of content to be uploaded through the application represented by the visual object. and, in response to identifying the type of content, displaying one or more visual objects, among the visual objects, corresponding to one or more applications requesting content of a different type distinct from the identified type. It may further include ceasing at least temporarily.
  • the method of the electronic device may further include displaying the visual guide having a color corresponding to the application indicated by the visual object in response to receiving the user input.
  • the method of the electronic device may, while overlapping and displaying the visual guide on the preview image, another user input for another visual object that is distinguished from a visual object corresponding to the user input among the visual objects.
  • overlay another visual guide on the preview image with the visual guide based at least on an aspect ratio of other content to be uploaded through another application represented by the other visual object. It may further include an operation of displaying by doing so.
  • the method of the electronic device may, in response to receiving a shooting input for the camera while displaying the visual guide and the other visual guide, control the camera to provide the visual guide. and obtaining a plurality of contents having aspect ratios corresponding to each of the other visual guides, and in response to acquiring the plurality of contents, visual instructions for receiving texts for each of the plurality of contents in different portions.
  • An operation of displaying another user interface in which objects are displayed may be further included.
  • An electronic device may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory.
  • the processor upon executing the one or more instructions, may be configured to display a preview image within a first user interface of a camera application based on at least a portion of a plurality of images received from the camera.
  • the processor superimposes one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. It can be configured so that it can be displayed.
  • the processor upon executing the one or more instructions, in response to receiving a shooting input to the camera while displaying the one or more visual guides superimposed on the preview image, the camera It may be configured to acquire one or more contents corresponding to each of the one or more visual guides, based on at least one of a plurality of images received from.
  • the processor when executing the one or more instructions, displays a second user interface for uploading the one or more acquired contents to the one or more external electronic devices in response to obtaining the one or more contents, can be configured.
  • the processor may, while displaying the preview image in the first user interface, each of the one or more external electronic devices in a designated part of the first user interface.
  • One or more visual objects corresponding to are displayed, and in response to receiving one or more user inputs for selecting one of the one or more visual objects, the one or more visual guides are overlapped and displayed on the preview image. can do.
  • the processor may, when executing the one or more instructions, in a state in which the camera application is executed, in the memory, one or more external electronic devices associated with one or more applications distinct from the camera application.
  • Meta data received from may be identified, and at least one of resolution, aspect ratio, or color of the one or more visual guides may be obtained based on the identified meta data.
  • the processor when executing the one or more instructions, displays a plurality of visual guides having different aspect ratios, and responds to each of the plurality of visual guides in response to receiving the photographing input.
  • the second user interface including a second part for acquiring second information corresponding to second content among contents may be displayed.
  • the processor when executing the one or more instructions, in response to receiving a user input for a designated visual object included in the second user interface, the first external electronic device corresponding to the first content
  • the device may transmit the first information and the first content, and may transmit the second information and the second content to a second external electronic device corresponding to the second content.
  • a method of an electronic device may include an operation of displaying a preview image in a first user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device.
  • the method may include an operation of overlapping and displaying one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface.
  • An operation of acquiring one or more contents corresponding to each of the one or more visual guides may be included.
  • the method may include an operation of displaying a second user interface for uploading the one or more acquired contents to the one or more external electronic devices in response to obtaining the one or more contents.
  • devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable PLU (programmable logic unit). logic unit), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include.
  • a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • the software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. there is.
  • Software may be distributed on networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the medium may continuously store a program executable by a computer or temporarily store the program for execution or download.
  • the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions.
  • examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An electronic device according to an embodiment comprises: a display; a camera; a memory storing at least one instruction; and a processor operatively coupled to the display, the camera, and the memory, wherein the processor may, when the at least one instruction is executed: display a preview image within a user interface of a camera application on the basis of at least part of a plurality of images received from the camera; while the preview image is displayed within the user interface, display, within the user interface, visual objects respectively representing a plurality of applications that are distinguished from the camera application and require uploading of an image; and in response to receiving a user input for one visual object among the visual objects, display, by overlapping the preview image, a visual guide at least on the basis of an aspect ratio of content to be uploaded through an application represented by the visual object related to the user input.

Description

하나 이상의 외부 전자 장치들로 송신될 하나 이상의 콘텐트들을 생성하는 전자 장치 및 그 방법Electronic device and method for generating one or more contents to be transmitted to one or more external electronic devices
아래의 설명들은 하나 이상의 외부 전자 장치들로 송신될 하나 이상의 콘텐트들을 생성하는 전자 장치 및 그 방법에 관한 것이다.The descriptions below relate to an electronic device and method for generating one or more contents to be transmitted to one or more external electronic devices.
최근 전자 기술의 발전에 따라, 전자 장치에 의해 수행되는 기능이 증가하고 있다. 예를 들어, 사용자가 다양한 타입들의 콘텐트들을 생성하는 것을 지원하기 위하여, 전자 장치에 포함된 카메라의 개수 및 카메라의 성능이 개선되고 있다. 최근 통신 기술의 발전에 따라, 특정 사용자에 의하여 생성된 콘텐트를, 네트워크를 이용하여 다른 사용자에게 공유하기 위한 웹 서비스(예, 소셜 네트워킹 서비스)가 개발되고 있다.BACKGROUND OF THE INVENTION With the recent development of electronic technology, functions performed by electronic devices are increasing. For example, in order to support users to create various types of content, the number and performance of cameras included in electronic devices are being improved. With the recent development of communication technology, a web service (eg, social networking service) is being developed to share content created by a specific user with other users through a network.
일 실시예(an embodiment)에 따른 전자 장치(electronic device)는, 디스플레이, 카메라, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하도록, 구성될 수 있다. An electronic device according to an embodiment may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled with the display, the camera, and the memory. . The processor may be configured to, upon executing the one or more instructions, display a preview image within a user interface of a camera application based on at least a portion of a plurality of images received from the camera. When the processor executes the one or more instructions, while displaying the preview image in the user interface, the processor generates visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, while displaying the preview image in the user interface. It can be configured to display within the user interface. The processor, upon executing the one or more instructions, in response to receiving a user input for one of the visual objects, provides content to be uploaded through an application represented by a visual object related to the user input. It may be configured to superimpose and display a visual guide based on at least an aspect ratio of the preview image.
일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 포함할 수 있다.A method of an electronic device according to an embodiment may include an operation of displaying a preview image in a user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device. The method includes an operation of displaying visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, in the user interface while displaying the preview image in the user interface. can include The method may, in response to receiving a user input for one of the visual objects, create a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by a visual object associated with the user input. , may include an operation of overlapping and displaying the preview image.
일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 카메라, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 제1 사용자 인터페이스 내에서 프리뷰 이미지를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 프리뷰 이미지 상에 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라로부터 수신되는 복수의 이미지들 중 적어도 하나에 기반하여, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 및 상기 하나 이상의 콘텐트들을 획득하는 것에 응답하여, 상기 하나 이상의 외부 전자 장치들로 상기 획득된 하나 이상의 콘텐트들을 업로드하기 위한 제2 사용자 인터페이스를 표시하도록, 구성될 수 있다. An electronic device according to an embodiment may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory. The processor may be configured to, upon executing the one or more instructions, display a preview image within a first user interface of a camera application based on at least a portion of a plurality of images received from the camera. When executing the one or more instructions, the processor superimposes one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. It can be configured so that it can be displayed. The processor, upon executing the one or more instructions, may, in response to receiving a shooting input to the camera while displaying the one or more visual guides superimposed on the preview image, the camera It may be configured to obtain one or more contents corresponding to each of the one or more visual guides, based on at least one of a plurality of images received from. The processor, when executing the one or more instructions and in response to obtaining the one or more contents, displays a second user interface for uploading the one or more acquired contents to the one or more external electronic devices. , can be configured.
일 실시예에 따른 전자 장치의 방법은, 전자 장치의 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 제1 사용자 인터페이스 내에서 프리뷰 이미지를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 프리뷰 이미지 상에 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 동안, 상기 카메라에 대한 촬영 입력을 수신하는 것에 응답하여, 상기 카메라로부터 수신되는 복수의 이미지들 중 적어도 하나에 기반하여, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 및 상기 하나 이상의 콘텐트들을 획득하는 것에 응답하여, 상기 하나 이상의 외부 전자 장치들로 상기 획득된 하나 이상의 콘텐트들을 업로드하기 위한 제2 사용자 인터페이스를 표시하는 동작을 포함할 수 있다.A method of an electronic device according to an embodiment may include an operation of displaying a preview image in a first user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device. The method may include an operation of overlapping and displaying one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. . In the method, in response to receiving a shooting input for the camera while displaying the one or more visual guides superimposed on the preview image, based on at least one of a plurality of images received from the camera, An operation of acquiring one or more contents corresponding to each of the one or more visual guides may be included. The method may include, in response to acquiring the one or more contents, an operation of displaying a second user interface for uploading the one or more acquired contents to the one or more external electronic devices.
도 1은 네트워크 내에서의 전자 장치의 일 실시예를 도시한 도면이다.1 is a diagram illustrating an embodiment of an electronic device within a network.
도 2는 일 실시예에 따른 전자 장치가 표시하는 UI(User Interface)의 일 예를 도시한 도면이다.2 is a diagram illustrating an example of a user interface (UI) displayed by an electronic device according to an exemplary embodiment.
도 3은 일 실시예에 따른 전자 장치에서 표시되고, 서로 다른 어플리케이션들 각각에 대응하는, 서로 다른 시각적 가이드들을 표시하는 동작을 설명하기 위한 예시적인 도면이다.3 is an exemplary diagram for explaining an operation of displaying different visual guides displayed in an electronic device according to an exemplary embodiment and corresponding to different applications, respectively.
도 4는 일 실시예에 따른 전자 장치가, FOV 내에 포함된 피사체에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.4 is an exemplary diagram for explaining an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment.
도 5는 일 실시예에 따른 전자 장치가, 프리뷰 이미지 내에서 수행되는 사용자 입력에 대응하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.5 is an exemplary diagram for describing an operation performed by an electronic device in response to a user input performed within a preview image, according to an exemplary embodiment.
도 6은 일 실시예에 따른 전자 장치가, 하나 이상의 어플리케이션들 각각에 대응하는 하나 이상의 외부 전자 장치들로, 독립적인 종횡비를 가지는 하나 이상의 콘텐트들을 업로드하기 위하여 표시하는 UI의 일 예를 도시한 도면이다.6 is a diagram illustrating an example of a UI displayed by an electronic device to upload one or more contents having an independent aspect ratio to one or more external electronic devices corresponding to one or more applications, respectively, according to an embodiment; am.
도 7a 내지 7b는 일 실시예에 따른 전자 장치가, 프리뷰 이미지의 종횡비를 변경하는 동작을 설명하기 위한 예시적인 도면이다.7A to 7B are exemplary diagrams for explaining an operation of changing an aspect ratio of a preview image by an electronic device according to an embodiment.
도 8은 일 실시예에 따른 전자 장치가, 카메라를 제어하여, 독립적인 종횡비를 가지는 하나 이상의 콘텐트들을 획득하는 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of acquiring one or more contents having an independent aspect ratio by controlling a camera, by an electronic device, according to an exemplary embodiment.
도 9는 일 실시예에 따른 전자 장치가, 외부 전자 장치로부터, 프리뷰 이미지 상에 중첩하여 표시될 시각적 가이드와 관련된 정보를 획득하는 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of obtaining, from an external electronic device, information related to a visual guide to be overlapped and displayed on a preview image by an electronic device according to an exemplary embodiment.
도 10은 일 실시예에 따른 전자 장치가, 사용자에 의해 선택된 시각적 객체에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다.10 is a flowchart illustrating an operation performed by an electronic device based on a visual object selected by a user, according to an exemplary embodiment.
도 11은 일 실시예에 따른 전자 장치가, FOV 내에 포함된 피사체에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment.
도 12는 일 실시예에 따른 전자 장치가, 하나 이상의 콘텐트들 및 하나 이상의 콘텐트들 각각에 대응하는 하나 이상의 정보들을, 외부 전자 장치로 업로드하는 동작을 설명하기 위한 흐름도이다.12 is a flowchart illustrating an operation of uploading, by an electronic device, one or more contents and one or more pieces of information corresponding to each of the one or more contents to an external electronic device according to an exemplary embodiment.
도 13은 일 실시예에 따른 전자 장치가, 프리뷰 이미지의 종횡비를 변경하는 동작을 설명하기 위한 흐름도이다.13 is a flowchart illustrating an operation of changing an aspect ratio of a preview image by an electronic device according to an exemplary embodiment.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document will be described with reference to the accompanying drawings.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B or C" or "at least one of A, B and/or C" refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integral part or a minimum unit or part thereof that performs one or more functions. For example, the module may be composed of an application-specific integrated circuit (ASIC).
도 1은 네트워크 내에서의 전자 장치의 일 실시예를 도시한 도면이다. 도 1을 참고하면, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(예, 제1 외부 전자 장치(170-1), 제2 외부 전자 장치(170-2))이 유선 네트워크 및/또는 무선 네트워크에 기반하여 서로 연결된 예시적인 상황이 도시된다. 상기 유선 네트워크는, 인터넷, LAN(Local Area Network), WAN(Wide Area Network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(Long Term Evolution), 5g NR(New Radio), WiFi(Wireless Fidelity), Zigbee, NFC(Near Field Communication), Bluetooth, BLE(Bluetooth Low-Energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록 전자 장치(101) 및 하나 이상의 외부 전자 장치들이 직접적으로 연결된(directly connected) 것으로 도시되었으나, 전자 장치(101)는, 하나 이상의 외부 전자 장치들과, 하나 이상의 라우터 및/또는 AP(Access Point)를 통해 간접적으로 연결될 수 있다.1 is a diagram illustrating an embodiment of an electronic device within a network. Referring to FIG. 1 , an electronic device 101 and one or more external electronic devices (eg, a first external electronic device 170-1 and a second external electronic device 170-2) connect to a wired network and/or a wireless network. An exemplary situation connected to each other based on a network is shown. The wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof. The wireless network is a network such as Long Term Evolution (LTE), 5g New Radio (NR), Wireless Fidelity (WiFi), Zigbee, Near Field Communication (NFC), Bluetooth, Bluetooth Low-Energy (BLE), or a combination thereof can include Although the electronic device 101 and one or more external electronic devices are shown as being directly connected, the electronic device 101 may include one or more external electronic devices, one or more routers and/or access points (APs). can be connected indirectly through
도 1을 참고하면, 일 실시예에 따른 전자 장치(101)는 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140), 마이크(150) 또는 통신 회로(160) 중 적어도 하나를 포함할 수 있다. 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140), 마이크(150) 및 통신 회로(160)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는 사용자에 의해 소유되는(be owned by) 단말일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(Personal Computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC(Personal Computer), 스마트워치(smartwatch) 및 HMD(Head-Mounted Device)와 같은 스마트액세서리를 포함할 수 있다.Referring to FIG. 1 , an electronic device 101 according to an embodiment includes at least one of a processor 110, a memory 120, a display 130, a camera 140, a microphone 150, and a communication circuit 160. can include Processor 110, memory 120, display 130, camera 140, microphone 150 and communication circuit 160 are electrically connected to each other by electronic components such as a communication bus. and/or operably coupled (electronically and/or operably coupled with each other). The type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 1 . For example, the electronic device 101 may include only some of the hardware components shown in FIG. 1 . The electronic device 101 according to an embodiment may be a terminal owned by a user. The terminal is, for example, a personal computer (PC) such as a laptop and desktop, a smartphone, a smart pad, a tablet PC (Personal Computer), a smart watch, and an HMD (Head- Mounted Device) may include smart accessories.
일 실시예에 따른 전자 장치(101)의 프로세서(110)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(110)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(110)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 110 of the electronic device 101 according to an embodiment may include a hardware component for processing data based on one or more instructions. Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU). The number of processors 110 may be one or more. For example, the processor 110 may have a structure of a multi-core processor such as a dual core, quad core, or hexa core.
일 실시예에 따른 전자 장치(101)의 메모리(120)는 프로세서(110)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(120)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 120 of the electronic device 101 according to an embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor 110 . The memory 120 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is. The volatile memory may include, for example, at least one of Dynamic RAM (DRAM), Static RAM (SRAM), Cache RAM, and Pseudo SRAM (PSRAM). The non-volatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC). can
일 실시예에 따른 전자 장치(101)의 메모리(120) 내에서, 프로세서(110)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 이하에서, 하나 이상의 인스트럭션들의 집합이, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조된다. 예를 들어, 전자 장치(101)의 프로세서(110)는 어플리케이션 형태로 배포된 복수의 인스트럭션들의 집합(set of a plurality of instructions)을 실행하여, 후술되는 전자 장치의 동작(예, 도 8 내지 도 13의 동작들 중 적어도 하나)을 수행할 수 있다.In the memory 120 of the electronic device 101 according to an embodiment, one or more instructions indicating an operation to be performed on data by the processor 110 may be stored. In the following, a set of one or more instructions is referred to as firmware, operating system, process, routine, sub-routine and/or application. For example, the processor 110 of the electronic device 101 executes a set of a plurality of instructions distributed in the form of an application to operate the electronic device described later (eg, FIGS. 8 to 8 ). At least one of the operations of 13) may be performed.
일 실시예에 따른 전자 장치(101)의 디스플레이(130)는 사용자에게 시각화된 정보(예를 들어, 도 2 내지 도 6, 도 7a 내지 7b의 UI(User Interface)들 중 적어도 하나)를 출력할 수 있다. 상기 시각화된 정보는, 예를 들어, 전자 장치(101)의 프로세서(110)에 의해 실행되고 있는 어플리케이션에 의해 생성될 수 있다. 예를 들어, 디스플레이(130)는, 프로세서(110)에 포함되거나, 또는 프로세서(110)와 독립적으로 전자 장치(101) 내에 배치된 GPU(Graphic Processing Unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(130)는 FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.The display 130 of the electronic device 101 according to an embodiment outputs visualized information (eg, at least one of the UIs (User Interfaces) of FIGS. 2 to 6 and 7A to 7B) to the user. can The visualized information may be generated by, for example, an application being executed by the processor 110 of the electronic device 101 . For example, the display 130 is controlled by a controller such as a graphics processing unit (GPU) included in the processor 110 or disposed in the electronic device 101 independently of the processor 110 to provide information to the user. Visualized information can be output. The display 130 may include a flat panel display (FPD) and/or electronic paper. The FPD may include a Liquid Crystal Display (LCD), a Plasma Display Panel (PDP), and/or one or more Light Emitting Diodes (LEDs). The LED may include organic LED (OLED).
일 실시예에 따른 전자 장치(101)의 카메라(140)는 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 광 센서(예, CCD(Charged Coupled Device) 센서, CMOS(Complementary Metal Oxide Semiconductor) 센서)를 하나 이상 포함할 수 있다. 카메라(140)에 포함된 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(140)는 복수의 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 사진 데이터(및/또는 사진)는 카메라(140)로부터 획득한 하나의 이미지를 의미할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 비디오 데이터는 카메라(140)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. 일 실시예에 따른 전자 장치(101)는, 카메라(140)가 빛을 수신하는 방향을 향하여 배치되고, 상기 방향으로 빛을 출력하기 위한 플래시 라이트를 더 포함할 수 있다.The camera 140 of the electronic device 101 according to an embodiment includes an optical sensor (eg, a Charged Coupled Device (CCD) sensor, a Complementary Metal Oxide Semiconductor (CMOS)) that generates an electrical signal representing the color and/or brightness of light. may include one or more sensors). A plurality of light sensors included in the camera 140 may be arranged in a 2-dimensional array. The camera 140 substantially simultaneously acquires electrical signals from each of the plurality of light sensors, corresponds to light reaching the light sensors of the two-dimensional grid, and generates an image including a plurality of pixels arranged in two dimensions. can do. For example, photo data (and/or photo) captured using the camera 140 may mean one image obtained from the camera 140 . For example, video data captured using the camera 140 may refer to a sequence of a plurality of images acquired from the camera 140 according to a designated frame rate. The electronic device 101 according to an embodiment is disposed toward a direction in which the camera 140 receives light and may further include a flash light for outputting light in the direction.
일 실시예에서, 카메라(140)의 FOV(Field-of-View, FOV)는, 카메라(140)의 렌즈가 빛을 수신 가능한 화각(view angle)에 기반하여 형성되는 영역으로, 카메라(140)에서 생성된 이미지에 대응하는 영역에 대응할 수 있다. 이하에서, 피사체는 카메라(140)의 FOV 내에 포함되고, 전자 장치(101)와 구별되는 사물을 의미한다. 일 실시예에 따른 전자 장치(101)에 포함된 카메라(140)의 수는 하나 이상일 수 있다. 전자 장치(101)가 복수의 카메라들을 포함하는 경우, 복수의 카메라들은 전자 장치(101) 내에서 독립적인 방향 및/또는 FOV(Field-of-View, FOV)를 가질 수 있다.In one embodiment, a field-of-view (FOV) of the camera 140 is an area formed based on a view angle at which a lens of the camera 140 can receive light, and the camera 140 It may correspond to a region corresponding to an image generated in . Hereinafter, a subject means an object included in the FOV of the camera 140 and distinguished from the electronic device 101 . The number of cameras 140 included in the electronic device 101 according to an embodiment may be one or more. When the electronic device 101 includes a plurality of cameras, the plurality of cameras may have independent directions and/or field-of-view (FOV) within the electronic device 101 .
일 실시예에 따른 전자 장치(101)의 마이크(150)는, 마이크(150)로 향하고, 비-전기적 정보(non-electronic information)를 포함하는, 음파(acoustic wave)로부터, 프로세서(110) 및/또는 메모리(120)에 의해 처리될 수 있고, 상기 비-전기적 정보에 대응하는, 전기적 정보를 생성할 수 있다. 마이크(150)에 의하여 생성된 상기 전기적 정보는, 메모리(120)에 저장되거나, 프로세서(110)에 의해 처리되거나, 및/또는 전자 장치(101)와 구별되는 다른 전자 장치로 송신될 수 있다. 예를 들어, 전자 장치(101)는 마이크(150) 및 카메라(140) 전부를 제어하여, 복수의 이미지들의 시퀀스 및 상기 복수의 이미지들이 순차적으로 표시되는 동안 재생될 오디오 데이터를 포함하는 멀티미디어 콘텐트를 획득할 수 있다. 상기 멀티미디어 콘텐트는, 이하에서, 비디오 및/또는 비디오 데이터로 참조될 수 있다. 이하에서, 콘텐트는, 상술된 멀티미디어 콘텐트 및/또는 사진 데이터를 포함할 수 있다.The microphone 150 of the electronic device 101 according to an embodiment is directed to the microphone 150, from the acoustic wave, containing non-electronic information, the processor 110 and /or can be processed by the memory 120, and can generate electrical information, corresponding to the non-electrical information. The electrical information generated by the microphone 150 may be stored in the memory 120, processed by the processor 110, and/or transmitted to another electronic device distinct from the electronic device 101. For example, the electronic device 101 controls both the microphone 150 and the camera 140 to create multimedia content including a sequence of a plurality of images and audio data to be reproduced while the plurality of images are sequentially displayed. can be obtained The multimedia content may be referred to as video and/or video data in the following. Hereinafter, content may include the aforementioned multimedia content and/or photo data.
일 실시예에 따른 전자 장치(101)의 통신 회로(160)는, 전자 장치(101) 및 하나 이상의 외부 전자 장치들(예, 제1 외부 전자 장치(170-1) 및/또는 제2 외부 전자 장치(170-2)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 도 1을 참고하면, 전자 장치(101)와 연결된 제1 외부 전자 장치(170-1) 및 제2 외부 전자 장치(170-2) 만이 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 통신 회로(160)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(Optic/Electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(160)는, 이더넷(ethernet), LAN(Local Area Network), WAN(Wide Area Network), WiFi(Wireless Fidelity), Bluetooth, BLE(Bluetooth Low Energy), ZigBee, LTE(Long Term Evolution), 5G NR(New Radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.The communication circuit 160 of the electronic device 101 according to an embodiment includes the electronic device 101 and one or more external electronic devices (eg, the first external electronic device 170-1 and/or the second external electronic device 170-1). It may include hardware components for supporting transmission and/or reception of electrical signals between devices 170-2. Referring to FIG. 1 , only the first external electronic device 170-1 and the second external electronic device 170-2 connected to the electronic device 101 are shown, but the embodiment is not limited thereto. The communication circuit 160 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter. The communication circuit 160 includes Ethernet, Local Area Network (LAN), Wide Area Network (WAN), Wireless Fidelity (WiFi), Bluetooth, Bluetooth Low Energy (BLE), ZigBee, Long Term Evolution (LTE), Transmission and/or reception of electrical signals may be supported based on various types of protocols such as 5G New Radio (NR).
비록 도시되지 않았지만, 일 실시예에 따른 전자 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the electronic device 101 according to an embodiment may include an output means for outputting information in a form other than a visualized form. For example, the electronic device 101 may include a speaker for outputting an acoustic signal. For example, the electronic device 101 may include a motor for providing haptic feedback based on vibration.
도 1을 참고하면, 전자 장치(101)와 연결된 제1 외부 전자 장치(170-1) 및/또는 제2 외부 전자 장치(170-2)는 서비스 제공자의 서버를 포함할 수 있다. 서버는 하나 이상의 PC 및/또는 워크스테이션을 포함할 수 있다. 일 실시예에서, 상기 서비스 제공자는 가입자들 중에서 특정 가입자가 업로드한 정보를, 하나 이상의 다른 가입자들에게 공유하는 서비스로써, 예를 들어, 소셜 네트워킹 서비스(Social Networking Service, SNS) 및/또는 디지털 플랫폼(digital platform)을 운영할 수 있다.Referring to FIG. 1 , the first external electronic device 170-1 and/or the second external electronic device 170-2 connected to the electronic device 101 may include a server of a service provider. A server may include one or more PCs and/or workstations. In one embodiment, the service provider is a service for sharing information uploaded by a specific subscriber among subscribers to one or more other subscribers, for example, a Social Networking Service (SNS) and/or a digital platform. (digital platform) can be operated.
일 실시예에 따른 전자 장치(101)는 제1 외부 전자 장치(170-1) 및/또는 제2 외부 전자 장치(170-2)와 같은 외부 전자 장치로 업로드될 콘텐트를 생성할 수 있다. 예를 들어, 전자 장치(101)는 카메라(140)를 제어하여, 사진 및/또는 비디오를 포함하는 콘텐트를 획득할 수 있다. 일 실시예에서, 전자 장치(101)의 사용자가 복수의 SNS들에 가입한 경우, 전자 장치(101)는 사용자는 복수의 SNS들 각각에 대응하는 외부 전자 장치들(예, 제1 외부 전자 장치(170-1) 및 제2 외부 전자 장치(170-2))로 업로드될 콘텐트들을 동시에 획득할 수 있다. 전자 장치(101)가 동시에 획득하는 상기 콘텐트들 각각은, 업로드될 SNS에 의해 설정된 규격(requirement)(예, 타입, 크기, 해상도, 종횡비(aspect ratio), 용량, 재생 시간(play time) 및/또는 용량)을 가질 수 있다. 상기 규격에 의해 지시되는 콘텐트의 크기 및/또는 해상도는, 예를 들어, HD(1280Х720), FHD(1920Х1080), WQHD(2560Х1440), UHD 또는 4K(3840Х2160) 중 적어도 하나를 포함할 수 있다. 상기 규격에 의해 지시되는 콘텐트의 종횡비는, 예를 들어, 1:1, 4:3, 3:4, 16:9 또는 9:16 중 적어도 하나를 포함할 수 있다. 상기 규격에 의해 지시되는 콘텐트의 재생 시간은, 예를 들어, 1분 및/또는 15초 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자 장치(101)는 복수의 SNS들 각각에 의해 요구되는 규격을 만족하는 콘텐트들을, 카메라(140)를 제어하는 단일 촬영 입력(single shooting input)에 기반하여 생성할 수 있다.The electronic device 101 according to an embodiment may create content to be uploaded to an external electronic device such as the first external electronic device 170-1 and/or the second external electronic device 170-2. For example, the electronic device 101 may obtain content including photos and/or videos by controlling the camera 140 . In an embodiment, when a user of the electronic device 101 subscribes to a plurality of SNSs, the electronic device 101 provides the user with external electronic devices (eg, a first external electronic device) corresponding to each of the plurality of SNSs. Contents to be uploaded to the 170-1 and the second external electronic device 170-2 may be simultaneously obtained. Each of the contents simultaneously acquired by the electronic device 101 has requirements set by the SNS to be uploaded (eg, type, size, resolution, aspect ratio, capacity, play time, and/or or capacity). The size and/or resolution of the content indicated by the standard may include, for example, at least one of HD (1280Х720), FHD (1920Х1080), WQHD (2560Х1440), UHD or 4K (3840Х2160). The aspect ratio of the content indicated by the standard may include, for example, at least one of 1:1, 4:3, 3:4, 16:9, and 9:16. The reproduction time of the content indicated by the standard may include, for example, at least one of 1 minute and/or 15 seconds. For example, the electronic device 101 may generate contents that satisfy standards required by each of a plurality of SNSs based on a single shooting input controlling the camera 140 .
도 1을 참고하면, 일 실시예에 따른 전자 장치(101)의 메모리(120) 내에 저장된 어플리케이션들 중 일부가 개념적으로 도시된다. 예를 들어, 카메라 어플리케이션(180), 제1 어플리케이션(190-1) 및 제2 어플리케이션(190-2)이 전자 장치(101)의 메모리(120) 내에 저장 및/또는 설치될(installed) 수 있다. 이하에서, 어플리케이션이 전자 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 전자 장치(101)의 메모리(120) 내에 저장된 것으로써, 상기 하나 이상의 인스트럭션들이 전자 장치(101)의 프로세서(110)에 의해 실행 가능한(executable) 포맷(예, 전자 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다. 도 1의 카메라 어플리케이션(180)은, 전자 장치(101)의 프로세서(110)에 의해 실행되는 상태에서, 전자 장치(101)가 카메라(140)를 이용하여 콘텐트를 획득 및/또는 생성하는 것을 야기할 수 있다. 도 1의 제1 어플리케이션(190-1)은, 전자 장치(101)의 프로세서(110)에 의해 실행되는 상태에서, 전자 장치(101)가 제1 외부 전자 장치(170-1)에 의해 제공되는 SNS와 관련된 기능을 실행하는 것을 야기할 수 있다. 도 1의 제2 어플리케이션(190-2)은, 전자 장치(101)의 프로세서(110)에 의해 실행되는 상태에서, 전자 장치(101)가 제2 외부 전자 장치(170-2)에 의해 제공되는 SNS와 관련된 기능을 실행하는 것을 야기할 수 있다. 상기 제1 외부 전자 장치(170-1)에 의해 제공되는 SNS 및 제2 외부 전자 장치(170-2)에 의해 제공되는 SNS는 상이한 SNS들일 수 있다. 후술되는 전자 장치(101)의 동작들은, 전자 장치(101)가 카메라 어플리케이션(180)에 기반하여 수행하는 동작의 일 예에 대응할 수 있다.Referring to FIG. 1 , some of the applications stored in the memory 120 of the electronic device 101 according to an embodiment are conceptually illustrated. For example, the camera application 180, the first application 190-1, and the second application 190-2 may be stored and/or installed in the memory 120 of the electronic device 101. . Hereinafter, that an application is installed in the electronic device 101 means that one or more instructions provided in the form of an application are stored in the memory 120 of the electronic device 101, and that the one or more instructions are stored in the electronic device 101. It may mean that it is stored in a format executable by the processor 110 (eg, a file having an extension designated by the operating system of the electronic device 101). The camera application 180 of FIG. 1 causes the electronic device 101 to obtain and/or create content using the camera 140 in a state of being executed by the processor 110 of the electronic device 101. can do. In a state in which the first application 190-1 of FIG. 1 is executed by the processor 110 of the electronic device 101, the electronic device 101 is provided by the first external electronic device 170-1. It may cause the execution of functions related to SNS. In a state in which the second application 190-2 of FIG. 1 is executed by the processor 110 of the electronic device 101, the electronic device 101 is provided by the second external electronic device 170-2. It may cause the execution of functions related to SNS. The SNS provided by the first external electronic device 170-1 and the SNS provided by the second external electronic device 170-2 may be different SNSs. Operations of the electronic device 101 described below may correspond to an example of an operation performed by the electronic device 101 based on the camera application 180 .
일 실시예에 따른 전자 장치(101)는 카메라(140)에 기반하는 콘텐트를, 하나 이상의 외부 전자 장치들로 업로드하기 위하여, 하나 이상의 외부 전자 장치들로부터 콘텐트의 규격을 나타내는 정보를 획득할 수 있다. 예를 들어, 전자 장치(101)는 제1 어플리케이션(190-1)에 기반하여 식별되는 제1 외부 전자 장치(170-1)로부터, 제1 외부 전자 장치(170-1)로 업로드될 콘텐트의 규격을 나타내는 정보를 획득할 수 있다. 상기 규격은 콘텐트의 타입(예, 사진 및/또는 비디오), 상기 콘텐트의 크기(dimension)(예, 종횡비, 해상도, 너비 및/또는 폭) 또는 상기 콘텐트와 함께 업로드되는 다른 정보(예, 콘텐트를 획득한 위치, 텍스트, 해시태그, 멘션(mention)과 같은 SNS의 특정 기능을 실행하기 위한 정보, 타임스탬프) 중 적어도 하나를 포함할 수 있다. 이하에서, 전자 장치(101)가 외부 전자 장치로부터 획득하는 상기 정보는, 메타 데이터로 참조될 수 있다. 일 실시예에 따른 전자 장치(101)가 메타 데이터를 획득하는 동작은, 도 9를 참고하여 상세히 설명된다.In order to upload the content based on the camera 140 to the one or more external electronic devices, the electronic device 101 according to an embodiment may obtain information indicating a standard of content from one or more external electronic devices. . For example, the electronic device 101 determines content to be uploaded to the first external electronic device 170-1 from the first external electronic device 170-1 identified based on the first application 190-1. Information indicating standards can be obtained. The specification specifies the type of content (eg, photo and/or video), the dimensions of the content (eg, aspect ratio, resolution, width and/or width), or other information uploaded with the content (eg, the content It may include at least one of information for executing a specific function of SNS such as an acquired location, text, hashtag, and mention, and a timestamp). Hereinafter, the information acquired by the electronic device 101 from an external electronic device may be referred to as metadata. An operation of acquiring meta data by the electronic device 101 according to an embodiment will be described in detail with reference to FIG. 9 .
일 실시예에 따른 전자 장치(101)는 카메라(140)에 기반하는 콘텐트를 생성하기 이전에, 사용자와 인터랙션하기 위한 UI(User Interface)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 카메라(140)로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션(180)에 의해 제공되는 제1 UI 내에서, 프리뷰 이미지를 표시할 수 있다. 상기 제1 UI는 도 2 내지 도 5, 도 7a 내지 7b를 참고하여 후술된다. 상기 프리뷰 이미지 내에서, 전자 장치(101)는, 하나 이상의 외부 전자 장치들로부터 획득된 메타 데이터에 기반하고, 상기 하나 이상의 외부 전자 장치들 각각에 업로드될 콘텐트의 규격과 관련된, 하나 이상의 시각적 가이드들(visual guides)을 표시할 수 있다. 상기 시각적 가이드들은, 콘텐트를 업로드할 SNS 및/또는 플랫폼을 지시하는 사용자 입력에 의해 활성화되거나, 및/또는 비활성화될 수 있다.The electronic device 101 according to an embodiment may display a user interface (UI) for interaction with a user before generating content based on the camera 140 . For example, the electronic device 101 may display a preview image in the first UI provided by the camera application 180 based on at least a portion of a plurality of images received from the camera 140 . The first UI will be described later with reference to FIGS. 2 to 5 and 7A to 7B. Within the preview image, the electronic device 101 includes one or more visual guides based on meta data obtained from one or more external electronic devices and related to standards of content to be uploaded to each of the one or more external electronic devices. (visual guides) can be displayed. The visual guides may be activated and/or deactivated by a user input indicating an SNS and/or platform to upload content to.
일 실시예에 따른 전자 장치(101)는 상기 제1 UI 내에서, 콘텐트를 획득하기 위한 지정된 사용자 입력인 촬영 입력을 수신할 수 있다. 예를 들어, 상기 촬영 입력은, 제1 UI에 포함되고, 아이콘 및/또는 텍스트의 형태로 제공되는, 셔터와 같은 시각적 객체(visual object)를 터치(예, 탭(tap)) 및/또는 클릭하는 제스쳐를 포함할 수 있다. 예를 들어, 상기 촬영 입력은, 전자 장치(101)의 하우징을 통해 외부로 노출되는 하나 이상의 버튼들 중 지정된 버튼을 누르는 제스쳐를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는, 촬영 입력을 수신하는 것에 응답하여, 사용자에 의해 지정된 하나 이상의 SNS 및/또는 플랫폼 각각에 대응하는 하나 이상의 콘텐트들을 실질적으로 동시에 획득할 수 있다.The electronic device 101 according to an embodiment may receive a photographing input, which is a designated user input for obtaining content, within the first UI. For example, the photographing input includes a touch (eg, tap) and/or a click on a visual object, such as a shutter, included in the first UI and provided in the form of an icon and/or text. gestures may be included. For example, the photographing input may include a gesture of pressing a designated button among one or more buttons exposed to the outside through a housing of the electronic device 101 . In response to receiving a photographing input, the electronic device 101 according to an embodiment may substantially simultaneously acquire one or more contents corresponding to one or more SNSs and/or platforms designated by a user.
일 실시예에 따른 전자 장치(101)는 사용자에 의해 지정된 하나 이상의 SNS 및/또는 플랫폼에 상기 하나 이상의 콘텐트들을 업로드하기 이전에, 전자 장치(101)의 사용자로부터 상기 하나 이상의 콘텐트들과 결합하여 업로드될 다른 정보를 추가로 획득할 수 있다. 예를 들어, 사용자가 제1 외부 전자 장치(170-1)에 대응하는 SNS를 선택한 이후 촬영 입력을 수신하였고, 제1 외부 전자 장치(170-1)로부터 제공된 메타 데이터에 의해 나타나는 규격이, 사진 및 텍스트(예, 해시 태그)를 요구하는 경우, 전자 장치(101)는 상기 텍스트를 입력하기 위한 제2 UI를 표시할 수 있다. 일 실시예에 따른 전자 장치(101)가 표시하는 상기 제2 UI는 도 6을 참고하여 상세히 설명된다.Prior to uploading the one or more contents to one or more SNSs and/or platforms specified by the user, the electronic device 101 according to an embodiment combines and uploads the one or more contents from the user of the electronic device 101. Other information may be obtained additionally. For example, if a photographing input is received after the user selects an SNS corresponding to the first external electronic device 170-1, and the standard indicated by metadata provided from the first external electronic device 170-1 is And when text (eg, hashtag) is requested, the electronic device 101 may display a second UI for inputting the text. The second UI displayed by the electronic device 101 according to an embodiment will be described in detail with reference to FIG. 6 .
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 단일 촬영 입력에 기반하여, 하나 이상의 SNS들에 대응하는 하나 이상의 외부 전자 장치들(예, 제1 외부 전자 장치(170-1) 및/또는 제2 외부 전자 장치(170-2))로 업로드될 하나 이상의 콘텐트들을 동시에 획득할 수 있다. 전자 장치(101)는, 하나 이상의 외부 전자 장치들 각각으로부터 제공된 메타 데이터에 의해 나타나는 규격에 기반하여, 상기 하나 이상의 콘텐트들을 획득할 수 있다. 단일 촬영 입력으로부터 하나 이상의 SNS들에 대응하는 하나 이상의 콘텐트들이 동시에 획득됨에 따라, 사용자는 하나 이상의 SNS들 각각에 대응하는 하나 이상의 어플리케이션들(예, 제1 어플리케이션(190-1) 및/또는 제2 어플리케이션(190-2))을 실행하는 것과 독립적으로, 상기 하나 이상의 SNS들에 상기 하나 이상의 콘텐트들을 업로드 및/또는 공유할 수 있다.As described above, the electronic device 101 according to an embodiment includes one or more external electronic devices (eg, the first external electronic device 170-1 and /or One or more contents to be uploaded to the second external electronic device 170-2 may be simultaneously obtained. The electronic device 101 may obtain the one or more contents based on standards indicated by meta data provided from each of the one or more external electronic devices. As one or more contents corresponding to one or more SNSs are simultaneously acquired from a single photographing input, the user may use one or more applications (eg, the first application 190-1 and/or the second application 190-1) corresponding to each of the one or more SNSs. Independently of executing the application 190-2), the one or more contents may be uploaded and/or shared to the one or more SNSs.
이하에서는 도 2를 참고하여, 일 실시예에 따른 전자 장치(101)가 카메라 어플리케이션(180)을 실행하는 상태에서 표시하는 UI가 설명된다.Hereinafter, referring to FIG. 2 , a UI displayed in a state in which the electronic device 101 according to an embodiment executes the camera application 180 will be described.
도 2는 일 실시예에 따른 전자 장치(101)가 표시하는 UI(User Interface)(210)의 일 예를 도시한 도면이다. 도 2의 전자 장치(101)는 도 1의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 2의 UI(210)는, 도 1의 카메라 어플리케이션(180)에 기반하여 전자 장치(101)의 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시되는 UI의 일 예에 대응할 수 있다. 도 2의 UI(210)는, 예를 들어, 도 1의 제1 UI의 일 예에 대응할 수 있다.2 is a diagram illustrating an example of a UI (User Interface) 210 displayed by the electronic device 101 according to an embodiment. The electronic device 101 of FIG. 2 may correspond to an example of the electronic device 101 of FIG. 1 . For example, the UI 210 of FIG. 2 is an example of a UI displayed on the display (eg, the display 130 of FIG. 1 ) of the electronic device 101 based on the camera application 180 of FIG. 1 . can respond to The UI 210 of FIG. 2 may correspond to, for example, an example of the first UI of FIG. 1 .
도 2를 참고하면, 일 실시예에 따른 전자 장치(101)는 UI(210) 내에서, 카메라(예, 도 1의 카메라(140))로부터 수신되는 복수의 이미지들에 기반하는 프리뷰 이미지(220)를 표시할 수 있다. 상기 프리뷰 이미지(220)는, 카메라로부터 수신되는 복수의 이미지들이 소형화된(downsized) 이미지로써, 예를 들어, 카메라로부터 수신되는 복수의 이미지들의 해상도 보다 작거나 같은 해상도를 가질 수 있다. 예를 들어, 프리뷰 이미지(220)에 포함된 픽셀들의 개수는, 전자 장치(101)가 카메라로부터 획득하는 복수의 이미지들 각각의 픽셀들의 개수 이하일 수 있다.Referring to FIG. 2 , the electronic device 101 according to an embodiment provides a preview image 220 based on a plurality of images received from a camera (eg, the camera 140 of FIG. 1 ) within the UI 210 . ) can be displayed. The preview image 220 is a downsized image of a plurality of images received from the camera, and may have, for example, a resolution smaller than or equal to the resolution of the plurality of images received from the camera. For example, the number of pixels included in the preview image 220 may be less than or equal to the number of pixels of each of a plurality of images acquired by the electronic device 101 from a camera.
일 실시예에 따른 전자 장치(101)는 UI(210) 내에, 카메라를 제어하여 획득 가능한(obtainable) 콘텐트의 상이한 타입들을 나타내는 리스트를 표시할 수 있다. 도 2를 참고하면, 전자 장치(101)는 UI(210)의 일부분(230) 내에, '사진' 및 '비디오'와 같이 텍스트에 기반하여 상기 상이한 타입들을 나타내는 상기 리스트를 표시할 수 있다. 상기 일부분(230)에 표시되는 리스트는, 스와이프 제스쳐 및/또는 플릭(flick) 제스쳐와 같이, 일부분(230) 내에서 수행되는 방향성(directional) 제스쳐에 기반하여 스크롤될 수 있다. 실시예가 도 2에 제한되는 것은 아니며, 전자 장치(101)는 아이콘, 이미지, 텍스트 또는 이들의 조합에 기반하여 상기 리스트를 표시할 수 있다. 일부분(230) 내 리스트에 포함되는 콘텐트의 타입들이 도 2의 예시에 제한되는 것은 아니며, 예를 들어, 파노라마, 타임랩스 및/또는 슬로우-모션과 같은 다른 타입들이 더 표시될 수 있다.The electronic device 101 according to an embodiment may display a list indicating different types of content obtainable by controlling a camera in the UI 210 . Referring to FIG. 2 , the electronic device 101 may display the list representing the different types based on text, such as 'photo' and 'video', within a portion 230 of the UI 210. The list displayed on the portion 230 may be scrolled based on a directional gesture performed within the portion 230, such as a swipe gesture and/or a flick gesture. The embodiment is not limited to FIG. 2 , and the electronic device 101 may display the list based on an icon, image, text, or a combination thereof. The types of content included in the list in portion 230 are not limited to the example of FIG. 2 , and other types such as panorama, time-lapse, and/or slow-motion may be further displayed.
일 실시예에 따른 전자 장치(101)는 UI(210) 내에, 카메라를 이용하여 획득된 콘텐트를 송신할 외부 전자 장치(예, 도 1의 제1 외부 전자 장치(170-1) 및/또는 제2 외부 전자 장치(170-2))의 리스트를 표시할 수 있다. 상기 외부 전자 장치는, 예를 들어, 전자 장치(101)에 설치된 하나 이상의 어플리케이션들(예, 도 1의 제1 어플리케이션(190-1) 및/또는 제2 어플리케이션(190-2))과 관련될 수 있다. 상기 외부 전자 장치는, 예를 들어, 전자 장치(101)의 사용자가 가입된 서버에 대응할 수 있다. 예를 들어, 상기 외부 전자 장치의 리스트는, 전자 장치(101)의 사용자가 가입한 SNS 및/또는 플랫폼을 포함할 수 있다. 도 2를 참고하면, 전자 장치(101)는 UI(210)의 일부분(240) 내에, 전자 장치(101)에 설치된 하나 이상의 어플리케이션들에 기반하여, 콘텐트를 송신할 외부 전자 장치의 리스트를 표시할 수 있다. 일부분(250) 내에 표시되는 리스트는, 일부분(250)의 길이 및 너비 중에서 너비 방향을 따라 수행되는 방향성 제스쳐에 기반하여 스크롤될 수 있다. 예를 들어, 전자 장치(101)는 일부분(240) 내에, 전자 장치(101)에 설치된 하나 이상의 어플리케이션들을, 명칭, 아이콘, 상기 아이콘의 색상 또는 이들의 조합에 기반하여 표시할 수 있다.The electronic device 101 according to an embodiment includes an external electronic device (eg, the first external electronic device 170-1 of FIG. 1 and/or the first external electronic device 170-1 of FIG. 2 A list of external electronic devices 170-2 may be displayed. The external electronic device may be associated with, for example, one or more applications installed in the electronic device 101 (eg, the first application 190-1 and/or the second application 190-2 of FIG. 1). can The external electronic device may correspond to, for example, a server to which the user of the electronic device 101 is subscribed. For example, the list of external electronic devices may include SNS and/or platforms to which the user of the electronic device 101 has subscribed. Referring to FIG. 2 , the electronic device 101 displays a list of external electronic devices to transmit content to, based on one or more applications installed on the electronic device 101, within a portion 240 of the UI 210. can A list displayed in the portion 250 may be scrolled based on a directional gesture performed along the width direction among the length and width of the portion 250 . For example, the electronic device 101 may display one or more applications installed in the electronic device 101 within the portion 240 based on names, icons, colors of the icons, or a combination thereof.
일 실시예에 따른 전자 장치(101)는 일부분(240)에 표시될 외부 전자 장치의 리스트를, 전자 장치(101)에 설치된 하나 이상의 어플리케이션들에 기반하여 식별할 수 있다. 예를 들어, 전자 장치(101)에 설치된 특정 어플리케이션이 전자 장치(101)에 의해 최초로 실행되는 상태에서, 전자 장치(101)는 상기 특정 어플리케이션에 대응하는 외부 전자 장치에 액세스하여, 상기 외부 전자 장치로부터 메타 데이터를 획득할 수 있다. 상기 특정 어플리케이션은, 전자 장치(101)의 사용자에게 상기 외부 전자 장치에 의해 제공되는 SNS 및/또는 디지털 플랫폼과 관련된 기능을 제공하기 위한 어플리케이션일 수 있다. 예를 들어, 전자 장치(101)는, 전자 장치(101) 내에 설치된 하나 이상의 어플리케이션들에 기반하여, 전자 장치(101)의 사용자가 가입한 SNS 및/또는 디지털 플랫폼을 식별할 수 있다.The electronic device 101 according to an embodiment may identify a list of external electronic devices to be displayed on the portion 240 based on one or more applications installed in the electronic device 101 . For example, in a state in which a specific application installed in the electronic device 101 is initially executed by the electronic device 101, the electronic device 101 accesses an external electronic device corresponding to the specific application, and the external electronic device Meta data can be obtained from The specific application may be an application for providing a user of the electronic device 101 with functions related to SNS and/or a digital platform provided by the external electronic device. For example, the electronic device 101 may identify the SNS and/or digital platform to which the user of the electronic device 101 has subscribed, based on one or more applications installed in the electronic device 101 .
일 실시예에서, 전자 장치(101)가 외부 전자 장치로부터 상기 메타 데이터를 획득하는 것은, 전자 장치(101)의 디스플레이 상에 표시되는 팝업(예, 외부 전자 장치로 액세스하기 위한 권한을 요청하는 메시지를 포함하는 팝업)에 기반하여 수행될 수 있다. 예를 들어, 상기 팝업 내에서 사용자 입력을 수신하는 것에 응답하여, 전자 장치(101)는 외부 전자 장치로 메타 데이터를 요청하는 신호를 송신할 수 있다. 외부 전자 장치로부터 메타 데이터를 수신하는 것에 응답하여, 전자 장치(101)는 일부분(240)에 표시되는 리스트 내에, 상기 특정 어플리케이션 및/또는 상기 특정 어플리케이션에 대응하는 외부 전자 장치를 지시하는 시각적 객체를 표시할 수 있다. 상기 시각적 객체는, 예를 들어, 특정 어플리케이션의 명칭, 아이콘, 상기 아이콘의 색상 또는 이들의 조합에 기반하여, 상기 시각적 객체가 선택됨에 따라 상기 특정 어플리케이션에 대응하는 외부 전자 장치로 콘텐트를 업로드할 수 있음을 나타낼 수 있다.In one embodiment, the electronic device 101 obtaining the meta data from the external electronic device is a pop-up displayed on the display of the electronic device 101 (eg, a message requesting permission to access the external electronic device). Pop-up including) may be performed based on. For example, in response to receiving a user input within the popup, the electronic device 101 may transmit a meta data request signal to the external electronic device. In response to receiving the meta data from the external electronic device, the electronic device 101 displays a visual object indicating the specific application and/or the external electronic device corresponding to the specific application in the list displayed on the portion 240. can be displayed The visual object may upload content to an external electronic device corresponding to the specific application as the visual object is selected based on, for example, a name, an icon, a color of the icon, or a combination thereof of the specific application. can indicate that there is
도 2의 일 예에서, 전자 장치(101)는, 일부분(240) 내에, 전자 장치(101)에 설치된 제1 어플리케이션(예, 도 1의 제1 어플리케이션(190-1))에 대응하는 시각적 객체(240-1)를 표시할 수 있다. 상기 시각적 객체(240-1)는, 제1 어플리케이션에 대응하는 제1 외부 전자 장치(예, 도 1의 제1 외부 전자 장치(170-1))로부터 수신된 메타 데이터에 기반하여 표시될 수 있다. 제1 외부 전자 장치로부터 수신된 상기 메타 데이터는, 제1 외부 전자 장치로 업로드될 콘텐트의 규격을 포함할 수 있다. 상기 메타 데이터는, 예를 들어, 사진 및/또는 비디오 중에서 콘텐트의 타입을 나타내는 정보, 콘텐트의 해상도, 콘텐트의 종횡비 또는 콘텐트의 용량(예, Bytes 단위에 기반하는 콘텐트의 용량)의 제한(upper bound) 중 적어도 하나를 나타내는 데이터를 포함할 수 있다.In the example of FIG. 2 , the electronic device 101, within the portion 240, is a visual object corresponding to a first application installed on the electronic device 101 (eg, the first application 190-1 of FIG. 1). (240-1) can be displayed. The visual object 240-1 may be displayed based on metadata received from the first external electronic device corresponding to the first application (eg, the first external electronic device 170-1 of FIG. 1). . The meta data received from the first external electronic device may include specifications of content to be uploaded to the first external electronic device. The meta data may include, for example, information indicating the type of content among photos and/or videos, resolution of content, aspect ratio of content, or upper bound of content capacity (eg, content capacity based on a unit of Bytes). ) may include data representing at least one of them.
일 실시예에 따른 전자 장치(101)는 일부분(240) 내 리스트에 표시되는 하나 이상의 시각적 객체들 중에서, 사용자에 의해 선택된 시각적 객체에 대응하는 어플리케이션, 외부 전자 장치 및/또는 메타 데이터에 기반하여, 프리뷰 이미지(220) 내에 시각적 가이드를 표시할 수 있다. 전자 장치(101)가 프리뷰 이미지(220) 내에 표시하는 시각적 가이드의 개수는 하나 이상일 수 있다. 예를 들어, 일부분(240) 내에서 복수의 어플리케이션들 각각에 대응하는 시각적 객체들을 선택하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 상기 복수의 어플리케이션들 각각에 대응하는 복수의 시각적 가이드들을, 프리뷰 이미지(220) 내에 동시에 표시할 수 있다. 상기 복수의 시각적 가이드들은, 상기 사용자 입력에 의해 상기 복수의 어플리케이션들이 선택된 순서에 기반하여, 프리뷰 이미지(220) 내에 중첩하여 표시될 수 있다. 상기 복수의 시각적 가이드들은, 프리뷰 이미지(220) 상에 중첩되고, 프리뷰 이미지(220)와 구별되는, 하나 이상의 레이어들에 기반하여 렌더링될 수 있다.The electronic device 101 according to an embodiment, among one or more visual objects displayed in a list in the portion 240, based on an application corresponding to a visual object selected by a user, an external electronic device, and/or metadata, A visual guide may be displayed in the preview image 220 . The number of visual guides displayed in the preview image 220 by the electronic device 101 may be one or more. For example, in response to identifying user input selecting visual objects corresponding to each of a plurality of applications within portion 240, the electronic device 101 displays a plurality of visual objects corresponding to each of the plurality of applications. Guides may be simultaneously displayed in the preview image 220 . The plurality of visual guides may be overlapped and displayed in the preview image 220 based on the order in which the plurality of applications are selected by the user input. The plurality of visual guides may be rendered based on one or more layers that are superimposed on the preview image 220 and distinguished from the preview image 220 .
일 실시예에 따른 전자 장치(101)가 표시하는 시각적 가이드는, 직사각형, 둥근 직사각형(rounded rectangle), 및/또는 원형과 같은 폐곡선(closed curve)의 형태에 기반하여, 전자 장치(101)가 촬영 입력에 기반하여 획득할 콘텐트를 나타낼 수 있다. 예를 들어, 사용자는 프리뷰 이미지(220) 내에 표시된 시각적 가이드에 기반하여, 촬영 입력을 수행하기 이전에, 촬영 입력에 의해 획득될 콘텐트를 예상할 수 있다.The visual guide displayed by the electronic device 101 according to an embodiment is captured by the electronic device 101 based on a shape of a closed curve such as a rectangle, a rounded rectangle, and/or a circle. Content to be acquired based on the input may be indicated. For example, based on the visual guide displayed in the preview image 220, the user may predict the content to be obtained by the photographing input before performing the photographing input.
도 2의 일 예에서, 전자 장치(101)의 사용자가 시각적 객체(240-1)를 터치 및/또는 클릭하는 것에 응답하여, 전자 장치(101)가 프리뷰 이미지(220) 내에 표시한 시각적 가이드(250-1)가 도시된다. 시각적 가이드(250-1)는, 시각적 가이드(250-1)에 대응하는 제1 외부 전자 장치로부터 수신된 메타 데이터에 의하여 나타나는 콘텐트의 형태, 크기 및/또는 종횡비를 가질 수 있다. 예를 들어, 시각적 객체(240-1)에 대응하는 제1 외부 전자 장치가 정사각형과 같이 1:1의 종횡비를 가지는 사진을 요구하는 경우, 시각적 가이드(250-1)의 형태는 정사각형에 대응할 수 있다. 시각적 가이드(250-1)의 색상은, 메타 데이터에 의하여 지정되거나, 시각적 객체(240-1)의 색상과 일치하거나, 및/또는 시각적 객체(240-1)와 관련된 제1 어플리케이션에 기반하여 결정될 수 있다. 예를 들어, 시각적 가이드(250-1)의 색상은, 제1 어플리케이션에 포함된 아이콘의 색상 분포에 기반하여 결정될 수 있다. 예를 들어, 시각적 가이드(250-1)의 색상은, 상기 아이콘에 포함된 픽셀들의 색상들의 평균값, 최빈값 및/또는 주 색상(key-color)에 대응할 수 있다.In the example of FIG. 2 , in response to the user of the electronic device 101 touching and/or clicking the visual object 240-1, the electronic device 101 displays a visual guide in the preview image 220 ( 250-1) is shown. The visual guide 250-1 may have the shape, size, and/or aspect ratio of content indicated by metadata received from the first external electronic device corresponding to the visual guide 250-1. For example, when the first external electronic device corresponding to the visual object 240-1 requests a picture having an aspect ratio of 1:1 like a square, the shape of the visual guide 250-1 may correspond to a square. there is. The color of the visual guide 250-1 may be designated by metadata, match the color of the visual object 240-1, and/or determined based on a first application related to the visual object 240-1. can For example, the color of the visual guide 250-1 may be determined based on the color distribution of icons included in the first application. For example, the color of the visual guide 250-1 may correspond to an average value, a mode value, and/or a key-color of colors of pixels included in the icon.
일 실시예에 따른 전자 장치(101)는, 시각적 가이드(예, 시각적 가이드(250-1))를 표시한 상태에서, 상기 시각적 가이드의 위치 및/또는 크기를 조절하기 위한 사용자 입력을 더 수신할 수 있다. 상기 사용자 입력은, 예를 들어, 시각적 가이드(250-1)의 경계선(boundary) 상에서 시작되는 드래그 제스쳐 및/또는 핀치-투-줌(pinch-to-zoom) 제스쳐를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)가 시각적 가이드(250-1)의 위치 및/또는 크기를 조절하기 위한 사용자 입력에 응답하여 수행하는 동작은, 도 5를 참고하여 상세히 설명된다.In a state in which a visual guide (eg, the visual guide 250-1) is displayed, the electronic device 101 according to an embodiment may further receive a user input for adjusting the position and/or size of the visual guide. can The user input may include, for example, a drag gesture starting on the boundary of the visual guide 250-1 and/or a pinch-to-zoom gesture. An operation performed by the electronic device 101 in response to a user input for adjusting the position and/or size of the visual guide 250-1 according to an embodiment will be described in detail with reference to FIG. 5 .
일 실시예에 따른 전자 장치(101)는, 하나 이상의 시각적 가이드들이 프리뷰 이미지(220) 내에 표시된 상태에서, 셔터(260)와 같은 시각적 객체에 기반하여 수행되는 촬영 입력을 식별할 수 있다. 비록 원형의 아이콘 및/또는 이미지의 형태를 가지는 셔터(260)가 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101)의 사용자가 셔터(260)를 두드리거나(tapping), 및/또는 클릭하는 경우, 전자 장치(101)는 촬영 입력을 수신한 것으로 결정할 수 있다. 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는 카메라(예, 도 1의 카메라(140))를 제어하여, 하나 이상의 콘텐트들을 획득할 수 있다. 전자 장치(101)가 상기 촬영 입력에 응답하여 획득하는 콘텐트의 개수는, 상기 촬영 입력을 수신하기 이전에 프리뷰 이미지(220) 상에 표시되는 시각적 가이드의 개수에 대응할 수 있다. 전자 장치(101)가 상기 촬영 입력에 응답하여 획득하는 콘텐트는, 상기 촬영 입력을 수신하기 이전에 프리뷰 이미지(220) 상에 표시되는 시각적 가이드에 의해 구별되는, 프리뷰 이미지(220)의 적어도 일부분과 관련될 수 있다.In a state in which one or more visual guides are displayed in the preview image 220 , the electronic device 101 according to an embodiment may identify a photographing input performed based on a visual object such as the shutter 260 . Although the shutter 260 having a circular icon and/or image shape is shown, the embodiment is not limited thereto. For example, when the user of the electronic device 101 taps and/or clicks the shutter 260, the electronic device 101 may determine that a photographing input has been received. In response to identifying the photographing input, the electronic device 101 may acquire one or more contents by controlling a camera (eg, the camera 140 of FIG. 1 ). The number of contents acquired by the electronic device 101 in response to the photographing input may correspond to the number of visual guides displayed on the preview image 220 before receiving the photographing input. The content acquired by the electronic device 101 in response to the photographing input is at least a portion of the preview image 220 that is distinguished by a visual guide displayed on the preview image 220 before receiving the photographing input. can be related
도 2의 일 예에서, 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는, 프리뷰 이미지(220) 내에서, 시각적 가이드(250-1)에 의해 구별되는 일부분에 대응하는, 콘텐트를 획득할 수 있다. 상기 콘텐트와 독립적으로, 전자 장치(101)는 프리뷰 이미지(220)의 전체 영역(entire area)에 대응하는 다른 콘텐트를 획득할 수 있다. 전자 장치(101)가 획득하는 상기 다른 콘텐트는, 전자 장치(101)의 메모리(예, 도 1의 메모리(120)) 내에 저장될 수 있다. 예를 들어, 상기 다른 콘텐트는 메모리 내에, 전자 장치(101)에 설치되고, 전자 장치(101)에 저장된 하나 이상의 콘텐트들을 브라우징하기 위한 어플리케이션(예, 갤러리 어플리케이션)에 의해 열람 가능한(browsable) 상태로 저장될 수 있다. 일 실시예에 따른 전자 장치(101)는, 촬영 입력을 식별하는 것에 응답하여, 시각적 가이드(250-1)에 의해 구별되는 프리뷰 이미지(220)의 일부분에 대응하는 상기 콘텐트 및 프리뷰 이미지(220)의 전체 영역에 대응하는 상기 다른 콘텐트 전부를 획득할 수 있다.In the example of FIG. 2 , in response to identifying a photographing input, the electronic device 101 acquires content, corresponding to a portion identified by the visual guide 250-1 in the preview image 220. can do. Independently of the content, the electronic device 101 may acquire other content corresponding to the entire area of the preview image 220 . The other content obtained by the electronic device 101 may be stored in a memory of the electronic device 101 (eg, the memory 120 of FIG. 1 ). For example, the other content is installed in the electronic device 101 in a memory, and is browsable by an application (eg, a gallery application) for browsing one or more contents stored in the electronic device 101. can be stored In response to identifying the photographing input, the electronic device 101 according to an embodiment, the content corresponding to a portion of the preview image 220 distinguished by the visual guide 250-1 and the preview image 220 All of the other content corresponding to the entire area of can be obtained.
일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 상에 중첩되어 표시되는 하나 이상의 시각적 가이드들에 의해 구별되는 프리뷰 이미지(220) 내 하나 이상의 일부분들에 대응하는 하나 이상의 콘텐트들을 획득하는 것에 응답하여, 상기 콘텐트들을 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 외부 전자 장치들로 송신할 수 있다. 도 2의 일 예에서, 시각적 가이드(250-1)에 의해 구별되는 콘텐트를 획득하는 것에 응답하여, 전자 장치(101)는 시각적 가이드(250-1)와 관련된 제1 외부 전자 장치로 상기 획득된 콘텐트를 송신할 수 있다. 일 실시예에서, 전자 장치(101)는 상기 콘텐트와 함께 획득된 정보를, 제1 외부 전자 장치로 송신할 수 있다. 상기 콘텐트와 함께 획득된 상기 정보는, 전자 장치(101)가 촬영 입력에 기반하여 획득하는 정보로써, 예를 들어, 상기 콘텐트를 획득한 시점에서 식별된 전자 장치(101)의 지리적 위치(geographical location), 타임스탬프, 상기 콘텐트를 획득하기 위해 이용된 카메라와 관련된 정보, 또는 전자 장치(101)의 사용자와 관련된 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)가 제1 외부 전자 장치로 송신하고, 콘텐트와 함께 획득하는, 상기 정보의 일 예는, 도 6을 참고하여 상세히 설명된다.The electronic device 101 according to an embodiment acquires one or more contents corresponding to one or more parts in the preview image 220 distinguished by one or more visual guides overlapping and displayed on the preview image 220. In response to this, the contents may be transmitted to one or more external electronic devices corresponding to each of the one or more visual guides. In the example of FIG. 2 , in response to obtaining content distinguished by the visual guide 250-1, the electronic device 101 transfers the acquired content to a first external electronic device related to the visual guide 250-1. content can be transmitted. In one embodiment, the electronic device 101 may transmit the information obtained along with the content to the first external electronic device. The information acquired together with the content is information acquired by the electronic device 101 based on a photographing input, and is, for example, the geographical location of the electronic device 101 identified at the time of acquiring the content. ), a timestamp, information related to a camera used to acquire the content, or information related to the user of the electronic device 101. An example of the information that the electronic device 101 according to an embodiment transmits to the first external electronic device and acquires along with content will be described in detail with reference to FIG. 6 .
프리뷰 이미지(220) 상에 표시되는 시각적 가이드에 대응하는 콘텐트를 획득하는 상태에서, 일 실시예에 따른 전자 장치(101)는 상기 콘텐트를 획득한 이력을 나타내는 정보를 저장할 수 있다. 상기 정보는, 도 2의 일 예에서, 시각적 가이드(250-1)의 크기 및/또는 위치를 조절하기 위해 수행된 사용자 입력, 시각적 가이드(250-1) 내에서의 피사체의 크기 및/또는 위치, 또는 콘텐트에 필터와 같은 후처리(postprocess) 기능을 실행한 이력 중 적어도 하나를 나타내는 데이터를 포함할 수 있다. 상기 정보는, 상기 정보가 저장된 이후의 콘텐트 및/또는 시각적 가이드의 생성에 이용될 수 있다. 일 실시예에 따른 전자 장치(101)가 특정 콘텐트를 획득하는 동안, 상기 특정 콘텐트 이전에 다른 콘텐트를 획득한 이럭에 기반하여 수행하는 동작은, 도 6 및/또는 도 11을 참고하여 상세히 설명된다.In a state in which content corresponding to the visual guide displayed on the preview image 220 is acquired, the electronic device 101 according to an embodiment may store information indicating a history of acquiring the content. In the example of FIG. 2 , the information is a user input performed to adjust the size and/or position of the visual guide 250-1, and the size and/or position of the subject within the visual guide 250-1. , or data indicating at least one of a history of executing a postprocess function such as a filter on the content. The information may be used to create content and/or a visual guide after the information is stored. While the electronic device 101 according to an embodiment obtains specific content, an operation performed based on an example of obtaining another content prior to the specific content will be described in detail with reference to FIGS. 6 and/or 11 . .
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 단일 촬영 입력을 수신하는 것에 응답하여, 복수의 콘텐트들을 획득할 수 있다. 상기 복수의 콘텐트들은, 프리뷰 이미지(220)의 전체 영역에 대응하는 콘텐트를 포함할 수 있다. 상기 복수의 콘텐트들은, 시각적 가이드(250-1)와 같이 촬영 입력 이전에 수행된 사용자 입력에 의하여 프리뷰 이미지(220) 상에 중첩되어 표시되고, 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 포함할 수 있다. 상기 하나 이상의 콘텐트들은, 대응하는 시각적 가이드에 의해 구별되는 프리뷰 이미지(220)의 일부분에 적어도 기반하는 사진 및/또는 비디오일 수 있다. 상기 하나 이상의 콘텐트들은, 대응하는 시각적 가이드의 종횡비를 가질 수 있다. 상술한 바와 같이, 프리뷰 이미지(220) 상에 중첩되어 표시되는 복수의 시각적 가이드들은, 상이한 외부 전자 장치들 각각에 대응하므로, 독립적인 종횡비, 크기 및/또는 위치를 가질 수 있다. 예를 들어, 전자 장치(101)가 획득하는 복수의 콘텐트들은, 서로 독립적인 종횡비를 가질 수 있다. 전자 장치(101)가, 프리뷰 이미지(220)의 종횡비와 독립적이고, 외부 전자 장치에 의해 요구되는, 종횡비를 가지는 콘텐트를 획득함에 따라, 전자 장치(101)는 상기 외부 전자 장치에 최적화된 콘텐트를 획득할 수 있다.As described above, the electronic device 101 according to an embodiment may acquire a plurality of contents in response to receiving a single photographing input. The plurality of contents may include contents corresponding to the entire area of the preview image 220 . The plurality of contents are overlapped and displayed on the preview image 220 by a user input performed before a photographing input, such as the visual guide 250-1, and one or more visual contents corresponding to one or more external electronic devices, respectively. It may include one or more contents corresponding to each of the guides. The one or more contents may be photos and/or videos based at least on a portion of the preview image 220 distinguished by a corresponding visual guide. The one or more contents may have a corresponding visual guide aspect ratio. As described above, the plurality of visual guides overlapping and displayed on the preview image 220 correspond to different external electronic devices, and thus may have independent aspect ratios, sizes, and/or positions. For example, a plurality of contents obtained by the electronic device 101 may have independent aspect ratios. As the electronic device 101 obtains content having an aspect ratio independent of the aspect ratio of the preview image 220 and requested by the external electronic device, the electronic device 101 displays content optimized for the external electronic device. can be obtained
이하에서는 도 3을 참고하여, 일 실시예에 따른 전자 장치(101)가 일부분(240) 내에서 수행된 사용자 입력에 기반하여, 프리뷰 이미지(220) 상에 시각적 가이드들을 누적하는 동작이 상세히 설명된다.Hereinafter, referring to FIG. 3 , an operation of accumulating visual guides on the preview image 220 of the electronic device 101 based on a user input performed within the portion 240 according to an exemplary embodiment will be described in detail. .
도 3은 일 실시예에 따른 전자 장치(101)에서 표시되고, 서로 다른 어플리케이션들 각각에 대응하는, 서로 다른 시각적 가이드들(250-1, 250-3)을 표시하는 동작을 설명하기 위한 예시적인 도면이다. 도 3의 전자 장치(101)는 도 1 내지 도 2의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 3의 UI(210)는 도 2의 UI(210)의 일 예에 대응할 수 있다.3 is an example for explaining an operation of displaying different visual guides 250-1 and 250-3 displayed on the electronic device 101 according to an embodiment and corresponding to different applications, respectively. it is a drawing The electronic device 101 of FIG. 3 may correspond to an example of the electronic device 101 of FIGS. 1 and 2 . For example, the UI 210 of FIG. 3 may correspond to an example of the UI 210 of FIG. 2 .
도 3을 참고하면, 일 실시예에 따른 전자 장치(101)는 UI(210)의 일부분(230) 내에, 카메라에 기반하여 획득할 콘텐트의 타입을 선택하기 위한 리스트를 표시할 수 있다. 예를 들어, 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는 일부분(230)에 표시되는 리스트에 의하여 선택된 타입에 대응하는 하나 이상의 콘텐트들을 획득할 수 있다. 도 3을 참고하면, 일 실시예에 따른 전자 장치(101)는 UI(210)의 일부분(240) 내에, 콘텐트의 업로드를 지원하고, 전자 장치(101)에 설치된, 하나 이상의 어플리케이션들의 리스트를 표시할 수 있다. 예를 들어, 새로운 어플리케이션이 전자 장치(101)에 설치될 때마다, 전자 장치(101)는 새로운 어플리케이션에 대응하는 시각적 객체를, 일부분(240)에 표시되는 리스트에 추가할지 여부를 결정할 수 있다. 일부분(240)에 표시되는 리스트 내에 상기 시각적 객체를 추가하기로 결정한 경우, 전자 장치(101)는 새로운 어플리케이션 및/또는 상기 새로운 어플리케이션에 대응하는 외부 전자 장치로부터 콘텐트의 규격을 나타내는 메타 데이터를 획득할 수 있다.Referring to FIG. 3 , the electronic device 101 according to an embodiment may display a list for selecting a type of content to be acquired based on a camera in a portion 230 of the UI 210. For example, in response to identifying a photographing input, the electronic device 101 may acquire one or more contents corresponding to a type selected by a list displayed on the portion 230 . Referring to FIG. 3 , the electronic device 101 according to an embodiment supports content upload and displays a list of one or more applications installed in the electronic device 101 within a portion 240 of the UI 210. can do. For example, whenever a new application is installed on the electronic device 101 , the electronic device 101 may determine whether to add a visual object corresponding to the new application to the list displayed on the portion 240 . When it is determined to add the visual object to the list displayed on the portion 240, the electronic device 101 obtains a new application and/or meta data representing the standard of content from an external electronic device corresponding to the new application. can
일 실시예에 따른 전자 장치(101)는 일부분들(230, 240) 각각에서 표시되는 리스트들 중 어느 하나에서 사용자 입력을 식별하는 것에 응답하여, 상기 리스트들 각각에 대한 필터링을 수행할 수 있다. 전자 장치(101)가 상기 필터링을 수행하는 것은, 프리뷰 이미지 상에 표시되고 있는 하나 이상의 시각적 가이드들의 표시를 변경하는 것을 야기할 수 있다. 예를 들어, 일부분(230)에 표시되는 리스트 내에서 콘텐트의 타입을 선택하기 위한 사용자 입력을 수신하는 것에 응답하여, 전자 장치(101)는 일부분(240)에 표시되는 리스트 내에서, 사용자 입력에 의해 선택된 상기 타입과 구별되는 다른 타입을 요구하는 어플리케이션에 대응하는 시각적 객체의 표시를 변경할 수 있다.The electronic device 101 according to an embodiment may perform filtering on each of the lists in response to identifying a user input in any one of the lists displayed in each of the portions 230 and 240 . Performing the filtering by the electronic device 101 may cause display of one or more visual guides being displayed on the preview image to be changed. For example, in response to receiving user input for selecting a type of content from the list displayed on portion 230, the electronic device 101 responds to the user input from within the list displayed on portion 240. Display of a visual object corresponding to an application requesting a different type distinguished from the type selected by the above may be changed.
예를 들어, 콘텐트의 타입 중 사진을 나타내는 시각적 객체(310)를 선택하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 일부분(240)에 표시되는 리스트 내에서, 사진과 구별되는 다른 타입(예, 비디오)을 요구하는 제2 어플리케이션에 대응하는 시각적 객체(240-2)를, 상기 사진을 요구하는 다른 어플리케이션에 대응하는 시각적 객체(예, 시각적 객체들(240-1, 240-3))와 독립적으로, 비활성화할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(240-2)의 색상을, 비활성화를 나타내는 지정된 색상으로 변경할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(240-2)를 표시하는 것을 적어도 일시적으로 중단할 수 있다(may cease at least temporarily). 예를 들어, 시각적 객체(240-2)에 대응하는 시각적 가이드가 프리뷰 이미지(220) 내에 표시되는 경우, 전자 장치(101)는 시각적 객체(240-2)에 대응하는 시각적 가이드를 숨길 수 있다(may hide).For example, in response to identifying a user input for selecting a visual object 310 representing a photo from among types of content, the electronic device 101 selects another object distinct from the photo within the list displayed on the portion 240. A visual object 240-2 corresponding to a second application requesting a type (eg, video) is converted into a visual object (eg, visual objects 240-1 and 240-3 corresponding to another application requesting the photo). )), can be disabled. For example, the electronic device 101 may change the color of the visual object 240-2 to a designated color representing inactivation. For example, the electronic device 101 may cease at least temporarily to display the visual object 240-2. For example, when a visual guide corresponding to the visual object 240-2 is displayed in the preview image 220, the electronic device 101 may hide the visual guide corresponding to the visual object 240-2 ( may hide).
상기 예시에서, 콘텐트의 타입 중 비디오를 나타내는 시각적 객체(320)를 선택하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 일부분(240)에 표시되는 리스트 내에서, 비디오를 요구하는 제2 어플리케이션에 대응하는 시각적 객체(240-2)를 활성화할 수 있다. 시각적 객체(240-2)의 활성화와 독립적으로, 전자 장치(101)는 사진을 요구하는 어플리케이션들에 대응하는 시각적 객체들(240-1, 240-3)을 비활성화하거나, 및/또는 숨길 수 있다. 도 3을 참고하면, 전자 장치(101)의 사용자가 시각적 객체들(240-1, 240-3)을 선택함에 따라, 프리뷰 이미지(220) 상에 시각적 객체들(240-1, 240-3) 각각에 대응하는 시각적 가이드들(250-1, 250-3)이 표시된 상태에서, 시각적 객체(320)를 선택하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 시각적 객체들(240-1, 240-3)의 표시를 변경하는 것과 함께, 시각적 가이드들(250-1, 250-3)을 표시하는 것을 중단할 수 있다. 상기 사용자 입력에 의한 시각적 객체(320)의 선택이 유지되는 동안, 전자 장치(101)는 사진을 요구하는 어플리케이션들에 대응하는 시각적 객체들(240-1, 240-3) 및 상기 시각적 객체들(240-1, 240-3) 각각에 대응하는 시각적 가이드들(250-1, 250-3)을 표시하거나 및/또는 활성화하는 것을 삼가할 수 있다(may refrain). 비록 도시되지 않았지만, 시각적 객체(240-2)를 활성화한 상태에서, 전자 장치(101)는 프리뷰 이미지(220) 상에 시각적 객체(240-2)에 대응하는 시각적 가이드를 표시할 수 있다.In the above example, in response to identifying a user input selecting a visual object 320 representing a video from among types of content, the electronic device 101, within a list displayed in portion 240, requests a video. 2 The visual object 240-2 corresponding to the application may be activated. Independently of the activation of the visual object 240-2, the electronic device 101 may inactivate and/or hide the visual objects 240-1 and 240-3 corresponding to applications requesting pictures. . Referring to FIG. 3 , as the user of the electronic device 101 selects the visual objects 240-1 and 240-3, the visual objects 240-1 and 240-3 are displayed on the preview image 220. In a state where the corresponding visual guides 250-1 and 250-3 are displayed, in response to identifying a user input for selecting the visual object 320, the electronic device 101 displays the visual objects 240-3. 1 and 240-3, it is possible to stop displaying the visual guides 250-1 and 250-3. While the selection of the visual object 320 by the user input is maintained, the electronic device 101 displays the visual objects 240-1 and 240-3 corresponding to applications requesting photos and the visual objects ( Displaying and/or activating the visual guides 250-1 and 250-3 corresponding to 240-1 and 240-3 may be refrained from. Although not illustrated, in a state in which the visual object 240-2 is activated, the electronic device 101 may display a visual guide corresponding to the visual object 240-2 on the preview image 220.
일 실시예에 따른 전자 장치(101)는 일부분(240)에 표시되는 리스트 내에서, 상이한 타입들에 대응하는 어플리케이션들에 대응하는 시각적 객체들이 동시에 선택되는 것을 방지하기 위하여, 상기 리스트 내에서 수행된 사용자 입력에 의해 선택된 시각적 객체에 대응하는 어플리케이션에 의해 요구되는 콘텐트의 타입을 식별할 수 있다. 전자 장치(101)는 식별된 타입에 기반하여, 일부분(240)에 표시되는 리스트 내에서 필터링을 수행할 수 있다. 예를 들어, 일부분(240) 내에서 사진을 요구하는 제1 어플리케이션에 대응하는 시각적 객체(240-1)를 선택하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 비디오를 요구하는 제2 어플리케이션에 대응하는 시각적 객체(240-2)를 비활성화할 수 있다. 전자 장치(101)가 시각적 객체(240-2)를 비활성화하는 것은, 전자 장치(101)의 사용자가 일부분(230)에 표시되는 리스트 내에서, 비디오에 대응하는 시각적 객체(320)를 선택하거나, 및/또는 사용자가 일부분(240)에 표시되는 리스트 내에 표시되고 있는 하나 이상의 시각적 객체들 중 어느 것도 선택하지 않을 때까지, 유지될 수 있다.In order to prevent visual objects corresponding to applications corresponding to different types from being selected in the list displayed on the portion 240 at the same time, the electronic device 101 according to an embodiment performs an operation in the list. A type of content requested by an application corresponding to a visual object selected by a user input may be identified. The electronic device 101 may perform filtering within the list displayed on the portion 240 based on the identified type. For example, in response to identifying a user input within portion 240 that selects a visual object 240 - 1 corresponding to a first application requesting a picture, the electronic device 101 may request a video. 2 The visual object 240-2 corresponding to the application may be deactivated. When the electronic device 101 deactivates the visual object 240-2, the user of the electronic device 101 selects the visual object 320 corresponding to the video from the list displayed on the part 230, or and/or until the user selects none of the one or more visual objects being displayed in the list displayed in portion 240 .
복수의 어플리케이션들에 대응하는 복수의 시각적 객체들이 일부분(240)의 리스트 내에 표시되는 상태에서, 일 실시예에 따른 전자 장치(101)는 상기 시각적 객체들의 순서를, 상기 복수의 어플리케이션들의 명칭들 또는 상기 시각적 객체들이 선택된 이력 중 적어도 하나에 기반하여 조절할 수 있다. 예를 들어, 화면(210)을 최초로 표시하거나, 및/또는 상기 시각적 객체들이 선택된 이력이 존재하지 않는 경우, 전자 장치(101)는 복수의 어플리케이션들의 명칭들에 기반하여, 상기 시각적 객체들의 순서를 결정할 수 있다. 예를 들어, 상기 어플리케이션들 각각에 대응하는 상기 시각적 객체들의 일부분(240)의 리스트 내에서의 순서는, 상기 어플리케이션들의 명칭들의 오름차순 또는 내림차순에 대응할 수 있다. 예를 들어, 상기 시각적 객체들 중 적어도 하나가 선택됨에 따라 콘텐트의 획득 및/또는 업로드가 수행된 이력이 존재하는 경우, 전자 장치(101)는 상기 이력에 의해 나타나고, 콘텐트의 획득 및/또는 업로드에 이용된, 적어도 하나의 시각적 객체를, 일부분(240)의 리스트 내에서 다른 시각적 객체 보다 우선적으로 표시할 수 있다. 전자 장치(101)가 특정 시각적 객체를 다른 시각적 객체 보다 우선적으로 표시하는 것은, UI(210) 내에서 우선적으로 표시되는 리스트 내 지정된 위치에, 상기 특정 시각적 객체를 할당함을 의미할 수 있다.In a state in which a plurality of visual objects corresponding to a plurality of applications are displayed in the list of the portion 240, the electronic device 101 according to an embodiment sets the order of the visual objects to the names or names of the plurality of applications. The visual objects may be adjusted based on at least one of selected histories. For example, when the screen 210 is displayed for the first time and/or there is no history of selecting the visual objects, the electronic device 101 determines the order of the visual objects based on the names of a plurality of applications. can decide For example, the order in the list of the portion 240 of the visual objects corresponding to each of the applications may correspond to an ascending or descending order of names of the applications. For example, if there is a history of content acquisition and/or upload as at least one of the visual objects is selected, the electronic device 101 is indicated by the history and obtains and/or uploads content. At least one visual object used in may be displayed with priority over other visual objects in the list of the portion 240 . Priority display of a specific visual object over other visual objects by the electronic device 101 may mean allocating the specific visual object to a designated position in a list that is preferentially displayed in the UI 210 .
일부분(240)의 리스트에 포함된 시각적 객체들 중 하나를 선택 및/또는 해제하는 사용자 입력들이 누적됨에 따라, 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서 누적된 사용자 입력들에 의해 선택된 하나 이상의 시각적 가이드들을 동시에 표시할 수 있다. 도 3을 참고하면, 상기 리스트에 기반하여 UI(210) 내에 표시되는 시각적 객체들(240-1, 240-2, 240-3)과 관련된 하나 이상의 사용자 입력들에 의하여 표시된 시각적 가이드들(250-1, 250-3)이 도시된다. 예를 들어, 시각적 가이드(250-1)는 시각적 객체(240-1)에 대응하는 제1 어플리케이션에 대응하는 제1 외부 전자 장치에 의해 요구되는 종횡비 및 형태를 가질 수 있다. 시각적 가이드(250-1)는, 상기 제1 어플리케이션과 관련된 색상(예, 상기 제1 어플리케이션의 아이콘의 주 색상)을 가질 수 있다. 예를 들어, 시각적 가이드(250-3)는 시각적 객체(240-3)에 대응하는 제3 어플리케이션에 대응하는 제3 외부 전자 장치에 의해 요구되는 종횡비(예, 4:3, 16:9 및/또는 9:16) 및 형태를 가질 수 있다. 시각적 가이드(250-3)는, 상기 제3 어플리케이션과 관련된 색상을 가질 수 있다. 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에 복수의 시각적 가이드들을 표시하는 상태에서, 상기 복수의 시각적 가이드들의 색상들이 일치하지 않도록, 상기 색상들을 조절할 수 있다.As user inputs for selecting and/or deselecting one of the visual objects included in the list of the portion 240 are accumulated, the electronic device 101 according to an exemplary embodiment accumulates user inputs within the preview image 220. It is possible to simultaneously display one or more visual guides selected by Referring to FIG. 3 , visual guides 250-1 displayed by one or more user inputs related to visual objects 240-1, 240-2, and 240-3 displayed in the UI 210 based on the list. 1, 250-3) is shown. For example, the visual guide 250-1 may have an aspect ratio and a shape required by a first external electronic device corresponding to a first application corresponding to the visual object 240-1. The visual guide 250-1 may have a color related to the first application (eg, a main color of an icon of the first application). For example, the visual guide 250-3 has an aspect ratio required by a third external electronic device corresponding to a third application corresponding to the visual object 240-3 (eg, 4:3, 16:9 and/or or 9:16) and forms. The visual guide 250-3 may have a color related to the third application. In a state of displaying a plurality of visual guides in the preview image 220, the electronic device 101 according to an embodiment may adjust the colors of the plurality of visual guides so that they do not match.
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 UI(210) 내에서 하나 이상의 콘텐트들의 타입을 선택하기 위한 리스트(예, 일부분(230)에 표시되는 리스트) 및 상기 하나 이상의 콘텐트들을 업로드할 하나 이상의 외부 전자 장치들을 선택하기 위한 리스트(예, 일부분(240)에 표시되는 리스트)를 표시할 수 있다. 상기 리스트들은, 전자 장치(101)의 사용자에 의한 콘텐트의 타입 및 상기 콘텐트를 업로드할 외부 전자 장치의 선택에 이용될 수 있다. 상기 리스트들에 기반하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지(220) 내에, 하나 이상의 외부 전자 장치로 업로드될 하나 이상의 콘텐트들 각각과 관련된 하나 이상의 시각적 가이드들(예, 시각적 가이드들(250-1, 250-3))을 표시할 수 있다. 사용자는 상기 하나 이상의 시각적 가이드들에 기반하여, 하나 이상의 외부 전자 장치로 업로드될 하나 이상의 콘텐트들을 예상할 수 있다. 상기 하나 이상의 시각적 가이드들이 프리뷰 이미지(220)에서 상대적으로 적은 수의 픽셀들 위에 중첩되는 폐곡선의 형태를 가짐에 따라, 전자 장치(101)는, 사용자가 프리뷰 이미지(220)를 보면서 촬영 입력을 수행하는 것을 방해하지 않을 수 있다. 시각적 가이드들(250-1, 250-3)과 같이 복수의 시각적 가이드들이 프리뷰 이미지(220) 내에 표시된 상태에서, 단일 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는 상기 복수의 시각적 가이드들 각각에 대응하는 복수의 콘텐트들 전부를 획득할 수 있다.As described above, the electronic device 101 according to an embodiment provides a list for selecting the type of one or more contents within the UI 210 (eg, a list displayed on the portion 230) and the one or more contents. A list (eg, a list displayed on the portion 240) for selecting one or more external electronic devices to be uploaded may be displayed. The lists may be used by the user of the electronic device 101 to select a type of content and an external electronic device to upload the content to. In response to identifying the user input based on the above lists, the electronic device 101 displays, within the preview image 220, one or more visual guides (e.g., , the visual guides 250-1 and 250-3) may be displayed. A user may predict one or more contents to be uploaded to one or more external electronic devices based on the one or more visual guides. As the one or more visual guides have the shape of a closed curve overlapping a relatively small number of pixels in the preview image 220, the electronic device 101 performs a shooting input while the user views the preview image 220. It may not hinder you from doing it. In a state where a plurality of visual guides such as the visual guides 250-1 and 250-3 are displayed in the preview image 220, in response to identifying a single shooting input, the electronic device 101 displays the plurality of visual guides. All of the plurality of contents corresponding to each of the contents may be acquired.
도 3을 참고하면, 일 실시예에 따른 전자 장치(101)는, 프리뷰 이미지(220)의 중심점 및 시각적 가이드들(250-1, 250-3) 각각의 중심점이 일치되도록, 프리뷰 이미지(220) 상에 시각적 가이드들(250-1, 250-3)을 중첩하여 표시할 수 있다. 그러나, 실시예가 이에 제한되는 것은 아니다. 이하에서는, 도 4를 참고하여, 일 실시예에 따른 전자 장치(101)가 카메라의 FOV 내에 포함된 피사체에 기반하여, 시각적 가이드들(250-1, 250-3)의 위치 및/또는 크기를 변경하는 동작이 상세히 설명된다.Referring to FIG. 3 , in the electronic device 101 according to an embodiment, the preview image 220 is aligned so that the center point of the preview image 220 and the center point of each of the visual guides 250-1 and 250-3 coincide. The visual guides 250-1 and 250-3 may be overlapped and displayed on the screen. However, the embodiment is not limited thereto. Hereinafter, referring to FIG. 4 , the electronic device 101 according to an embodiment determines the location and/or size of the visual guides 250-1 and 250-3 based on a subject included in the FOV of the camera. The changing operation is described in detail.
도 4는 일 실시예에 따른 전자 장치(101)가, FOV 내에 포함된 피사체에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 4의 전자 장치(101)는 도 1 내지 도 3의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 4의 UI(210)는 도 2 내지 도 3의 UI(210)의 일 예에 대응할 수 있다. 이하에서는, 도 3의 UI(210)와 같이, 제1 어플리케이션 및 제3 어플리케이션 각각에 대응하는 시각적 가이드들(250-1, 250-3)이 표시된 상태에 기반하여, 전자 장치(101)의 동작이 예시적으로 설명된다.4 is an exemplary diagram for explaining an operation performed by the electronic device 101 based on a subject included in the FOV according to an embodiment. The electronic device 101 of FIG. 4 may correspond to an example of the electronic device 101 of FIGS. 1 to 3 . For example, the UI 210 of FIG. 4 may correspond to one example of the UI 210 of FIGS. 2 to 3 . Hereinafter, as shown in the UI 210 of FIG. 3 , the operation of the electronic device 101 is based on the displayed state of the visual guides 250-1 and 250-3 corresponding to the first application and the third application, respectively. This is explained exemplarily.
일 실시예에 따른 전자 장치(101)는 카메라(예, 도 1의 카메라(140))를 활성화하여 프리뷰 이미지(220)를 표시하는 동안, 상기 카메라의 FOV 내에 포함된 하나 이상의 피사체들을 식별할 수 있다. 전자 장치(101)가 상기 하나 이상의 피사체들을 식별하는 것은, 상기 카메라로부터 수신되는 복수의 이미지들, 상기 복수의 이미지들에 대응하는 깊이 영상, 및/또는 상기 카메라에서 피사체를 향하여 방출되는 광(예, 레이저 광)에 기반하여 상기 카메라 및 상기 피사체 사이의 거리를 측정한 데이터 중 적어도 하나에 기반하여 수행될 수 있다. 예를 들어, 전자 장치(101)는 복수의 이미지들로부터 추출된 특징, 및/또는 코드워드(codeword)를 이용하여, 상기 복수의 이미지들 내에서 상기 FOV 내에 포함된 하나 이상의 피사체들 각각에 대응하는 하나 이상의 시각적 객체들을 식별할 수 있다. The electronic device 101 according to an embodiment may identify one or more subjects included in the FOV of the camera while activating a camera (eg, the camera 140 of FIG. 1 ) and displaying the preview image 220 . there is. The identification of the one or more subjects by the electronic device 101 may include a plurality of images received from the camera, a depth image corresponding to the plurality of images, and/or light emitted from the camera toward the subject (e.g. , laser light) may be performed based on at least one of data obtained by measuring the distance between the camera and the subject. For example, the electronic device 101 corresponds to each of one or more subjects included in the FOV in the plurality of images by using a feature extracted from the plurality of images and/or a codeword. can identify one or more visual objects that
도 4를 참고하면, 전자 장치(101)는 FOV 내에 포함된 피사체(예, 사람의 얼굴)에 대응하는 시각적 객체(410)를 식별한 일 예가 도시된다. 피사체가 전자 장치(101)의 카메라의 FOV 내에 포함됨에 따라, 상기 피사체에 대응하는 시각적 객체(410)가 프리뷰 이미지(220) 내에 표시될 수 있다. 일 실시예에 따른 전자 장치(101)는 상기 피사체에 대응하는 시각적 객체(410)를 식별하는 것에 응답하여, 식별된 시각적 객체(410)에 기반하는 하나 이상의 기능들을 수행할 수 있다. 상기 하나 이상의 기능들은, 예를 들어, 카메라의 초점 거리의 조절, 시각적 객체(410)를 식별하였음을 나타내는 하나 이상의 다른 시각적 객체들을 표시하는 것을 포함할 수 있다.Referring to FIG. 4 , an example in which the electronic device 101 identifies a visual object 410 corresponding to a subject (eg, a human face) included in the FOV is shown. As the subject is included in the FOV of the camera of the electronic device 101, a visual object 410 corresponding to the subject may be displayed in the preview image 220. The electronic device 101 according to an embodiment may perform one or more functions based on the identified visual object 410 in response to identifying the visual object 410 corresponding to the subject. The one or more functions may include, for example, adjusting the focal length of the camera, displaying one or more other visual objects indicating that the visual object 410 has been identified.
일 실시예에 따른 전자 장치(101)는 상기 피사체에 대응하는 시각적 객체(410)를 식별하는 것에 응답하여, 하나 이상의 어플리케이션들로 업로드될 콘텐트를 나타내는, 하나 이상의 시각적 가이드들의 프리뷰 이미지(220) 내에서의 위치를, 조절할 수 있다. 도 4를 참고하면, 전자 장치(101)는 프리뷰 이미지(220) 내에서의 시각적 객체(410)의 위치에 기반하여, 시각적 가이드들(250-1, 250-3)의 프리뷰 이미지(220) 내에서의 위치를 조절할 수 있다. 시각적 가이드들(250-1, 250-3) 각각은, 도 3의 예시에 기반하여, 제1 어플리케이션 및 제3 어플리케이션 각각에 대응하는 시각적 객체들을 선택한 사용자 입력을 식별하는 것에 응답하여, 프리뷰 이미지(220) 내에 중첩하여 표시될 수 있다.In response to identifying the visual object 410 corresponding to the subject, the electronic device 101 according to an embodiment, in the preview image 220 of one or more visual guides representing content to be uploaded to one or more applications. The position in can be adjusted. Referring to FIG. 4 , the electronic device 101 displays visual guides 250-1 and 250-3 within the preview image 220 based on the position of the visual object 410 within the preview image 220. position can be adjusted. Based on the example of FIG. 3 , each of the visual guides 250-1 and 250-3 responds to identifying a user input for selecting visual objects corresponding to the first application and the third application, respectively, in response to a preview image ( 220) may be overlapped and displayed.
도 4를 참고하면, 시각적 가이드들(250-1, 250-3)이 프리뷰 이미지(220) 내에 중첩하여 표시된 상태에서, 시각적 객체(410)를 식별하는 것에 응답하여, 전자 장치(101)는 시각적 가이드들(250-1, 250-3)을, 프리뷰 이미지(220) 내 지정된 위치(예, 프리뷰 이미지(220) 내에서 동심으로 배치되기 위한(concentrically positioned) 위치)로부터 시각적 객체(410)와 관련된 다른 위치로 이동할 수 있다(may shifts). 시각적 객체(410)를 식별하는 것에 응답하여, 일 실시예에 따른 전자 장치(101)는 시각적 가이드들(250-1, 250-3) 각각의 크기를, 식별된 시각적 객체(410)의 크기에 기반하여 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는, 프리뷰 이미지(220) 내에 표시되고 있는 하나 이상의 시각적 가이드들 각각에 대응하는, 하나 이상의 외부 전자 장치들로부터 수신하였던 하나 이상의 메타 데이터들에 기반하여, 상기 하나 이상의 시각적 가이드들의 위치 및/또는 크기를 변경할 수 있다. 예를 들어, 프리뷰 이미지(220) 내에서의 시각적 가이드(250-1)의 위치 및 크기는, 시각적 가이드(250-1)에 대응하는 제1 어플리케이션과 관련된 제1 외부 전자 장치로부터 수신된 메타 데이터에 의해 지시되는, 시각적 객체(410) 및 시각적 가이드(250-1) 사이의 위치 관계 및/또는 크기 관계에 기반하여 결정될 수 있다. 예를 들어, 상기 제1 외부 전자 장치로부터 수신된 메타 데이터는, 콘텐트 내에서의 시각적 객체(410)의 위치를 나타내는 오프셋(offset), 및/또는 콘텐트의 크기 및 시각적 객체(410)의 크기의 비율을 나타내는 데이터를 포함할 수 있다.Referring to FIG. 4 , in a state in which the visual guides 250-1 and 250-3 are overlapped and displayed in the preview image 220, in response to identifying the visual object 410, the electronic device 101 provides a visual The guides 250-1 and 250-3 are directed from a designated position within the preview image 220 (eg, a position to be concentrically positioned within the preview image 220) relative to the visual object 410. It may shift to other locations. In response to identifying the visual object 410, the electronic device 101 according to an embodiment sets the size of each of the visual guides 250-1 and 250-3 to the size of the identified visual object 410. can be changed based on The electronic device 101 according to an embodiment, based on one or more metadata received from one or more external electronic devices corresponding to each of one or more visual guides displayed in the preview image 220, The position and/or size of one or more visual guides may be changed. For example, the position and size of the visual guide 250-1 in the preview image 220 is metadata received from a first external electronic device related to a first application corresponding to the visual guide 250-1. It may be determined based on a positional relationship and/or a size relationship between the visual object 410 and the visual guide 250-1, indicated by . For example, the meta data received from the first external electronic device may include an offset indicating a position of the visual object 410 within the content and/or a size of the content and the visual object 410. It may contain data representing proportions.
일 실시예에 따른 전자 장치(101)는, 프리뷰 이미지(220) 내에 표시되고 있는 하나 이상의 시각적 가이드들 각각에 대응하는, 하나 이상의 외부 전자 장치들로 업로드되었던, 하나 이상의 콘텐트들 내에서의 시각적 객체의 위치에 기반하여, 상기 다른 위치를 결정할 수 있다. 예를 들어, 전자 장치(101)는 시각적 가이드(250-1)에 대응하는 제1 어플리케이션에 의해 지시되는 제1 외부 전자 장치(예, 도 1의 제1 외부 전자 장치(170-1))로 업로드되었던 콘텐트 내에서의 시각적 객체의 위치 및/또는 크기에 기반하여, 프리뷰 이미지(220) 내에서의 시각적 가이드(250-1)의 위치 및/또는 크기를 결정할 수 있다.The electronic device 101 according to an embodiment provides a visual object in one or more contents, uploaded to one or more external electronic devices, corresponding to each of one or more visual guides displayed in the preview image 220. Based on the position of , it is possible to determine the other position. For example, the electronic device 101 is directed to a first external electronic device (eg, the first external electronic device 170-1 of FIG. 1) indicated by a first application corresponding to the visual guide 250-1. The position and/or size of the visual guide 250-1 in the preview image 220 may be determined based on the position and/or size of the visual object in the uploaded content.
예를 들어, 시각적 가이드(250-1) 내에서의 시각적 객체(410)의 위치는, 상기 제1 외부 전자 장치로 업로드되었던 상기 콘텐트 내에서의 시각적 객체의 위치에 대응할 수 있다. 예를 들어, 시각적 가이드(250-1) 내에서의 시각적 객체(410)의 크기(또는, 시각적 가이드(250-1) 내에서 시각적 객체(410)의 점유 면적(occupied area))는, 상기 제1 외부 전자 장치로 업로드되었던 상기 콘텐트 내에서의 시각적 객체의 크기에 대응할 수 있다. 유사하게, 시각적 가이드(250-3) 내에서의 시각적 객체(410)의 위치가 시각적 가이드(250-3)에 대응하는 외부 전자 장치(예, 제3 외부 전자 장치)로 업로드되었던 콘텐트 내에서의 시각적 객체의 위치에 대응하도록, 전자 장치(101)는 시각적 가이드(250-3)의 위치 및/또는 크기를 조절할 수 있다.For example, the position of the visual object 410 in the visual guide 250-1 may correspond to the position of the visual object in the content uploaded to the first external electronic device. For example, the size of the visual object 410 in the visual guide 250-1 (or the occupied area of the visual object 410 in the visual guide 250-1) is 1 It may correspond to the size of a visual object in the content uploaded to an external electronic device. Similarly, the position of the visual object 410 in the visual guide 250-3 is determined by the content uploaded to the external electronic device (eg, the third external electronic device) corresponding to the visual guide 250-3. To correspond to the position of the visual object, the electronic device 101 may adjust the position and/or size of the visual guide 250-3.
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 프리뷰 이미지(220)의 획득에 이용되는 카메라의 FOV 내에 포함된 피사체를 식별하는 것에 응답하여, 프리뷰 이미지(220) 내에서 표시되는 하나 이상의 시각적 가이드들(예, 시각적 가이드들(250-1, 250-3))의 위치 및/또는 크기를 변경할 수 있다. 상기 위치 및/또는 크기는, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 메타 데이터, 상기 하나 이상의 시각적 가이드들에 대응하는 하나 이상의 외부 전자 장치들로 업로드되었던 콘텐트, 또는 상기 하나 이상의 시각적 가이드들과 관련된 사용자 입력 중 적어도 하나에 기반하여 결정될 수 있다. 도 4를 참고하면, 전자 장치(101)가 식별된 피사체에 기반하여 시각적 가이드들(250-1, 250-3)의 위치를 조절함에 따라, 전자 장치(101)의 사용자는 셔터(260)를 터치 및/또는 클릭하는 촬영 입력만으로, 피사체에 대응하는 시각적 객체(410)를 포함하고, 시각적 가이드들(250-1, 250-3) 각각에 대응하는 콘텐트들을 획득할 수 있다.As described above, the electronic device 101 according to an embodiment displays a preview image 220 in response to identifying a subject included in the FOV of a camera used to acquire the preview image 220. A position and/or size of one or more visual guides (eg, visual guides 250-1 and 250-3) may be changed. The location and/or size may be determined by metadata corresponding to each of the one or more visual guides, content uploaded to one or more external electronic devices corresponding to the one or more visual guides, or related to the one or more visual guides. It may be determined based on at least one of user inputs. Referring to FIG. 4 , as the electronic device 101 adjusts the positions of the visual guides 250-1 and 250-3 based on the identified subject, the user of the electronic device 101 releases the shutter 260. Contents including a visual object 410 corresponding to a subject and corresponding to each of the visual guides 250-1 and 250-3 may be obtained by only touching and/or clicking a photographing input.
이하에서는 도 5를 참고하여, 일 실시예에 따른 전자 장치(101)가 시각적 가이드들(250-1, 250-3) 중 적어도 하나와 관련된 사용자 입력에 기반하여, 시각적 가이드들(250-1, 250-3) 중 적어도 하나의 위치 및/또는 크기를 변경하는 동작이 상세히 설명된다.Hereinafter, referring to FIG. 5 , the electronic device 101 according to an exemplary embodiment provides visual guides 250-1 and 250-3 based on a user input related to at least one of visual guides 250-1 and 250-3. An operation of changing the position and/or size of at least one of 250-3) will be described in detail.
도 5는 일 실시예에 따른 전자 장치(101)가, 프리뷰 이미지(220) 내에서 수행되는 사용자 입력에 대응하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 5의 전자 장치(101)는 도 1 내지 도 4의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 5의 UI(210)는 도 2 내지 도 4의 UI(210)의 일 예에 대응할 수 있다. 이하에서는, 도 4의 UI(210)와 같이, 제1 어플리케이션 및 제3 어플리케이션 각각에 대응하는 시각적 가이드들(250-1, 250-3)이 표시된 상태에 기반하여, 전자 장치(101)의 동작이 예시적으로 설명된다.5 is an exemplary diagram for explaining an operation performed by the electronic device 101 in response to a user input performed within a preview image 220 according to an exemplary embodiment. The electronic device 101 of FIG. 5 may correspond to an example of the electronic device 101 of FIGS. 1 to 4 . For example, the UI 210 of FIG. 5 may correspond to one example of the UI 210 of FIGS. 2 to 4 . Hereinafter, as shown in the UI 210 of FIG. 4 , the operation of the electronic device 101 is based on the displayed state of the visual guides 250-1 and 250-3 corresponding to the first application and the third application, respectively. This is explained exemplarily.
일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서 표시되는 하나 이상의 시각적 가이드들 각각의 위치 및/또는 크기를 조절하는 사용자 입력을 식별할 수 있다. 상기 사용자 입력은, 전자 장치(101)의 디스플레이에 포함된 복수의 픽셀들 중에서, 상기 하나 이상의 시각적 가이드들에 대응하는 적어도 하나의 픽셀 상에서 수행되는 제스쳐를 포함할 수 있다. 시각적 가이드에 대응하는 적어도 하나의 픽셀은, 예를 들어, 상기 시각적 가이드에 의해 나타나는 폐곡선과 관련된 색상을 가지는 하나 이상의 픽셀들 및/또는 상기 폐곡선 내에 포함된 하나 이상의 픽셀들을 포함할 수 있다. 상기 제스쳐는, 전자 장치(101)의 디스플레이를 문지르는(rubbing) 터치 입력의 일 예에 대응할 수 있다. The electronic device 101 according to an embodiment may identify a user input for adjusting the position and/or size of each of one or more visual guides displayed in the preview image 220 . The user input may include a gesture performed on at least one pixel corresponding to the one or more visual guides among a plurality of pixels included in the display of the electronic device 101 . At least one pixel corresponding to the visual guide may include, for example, one or more pixels having a color related to a closed curve indicated by the visual guide and/or one or more pixels included in the closed curve. The gesture may correspond to an example of a touch input rubbing the display of the electronic device 101 .
도 5를 참고하면, 일 실시예에 따른 전자 장치(101)는, 시각적 가이드(250-1)에 의해 구별되는 디스플레이의 일부분(예, 시각적 가이드(250-1)의 내부 영역)에서 시작되고, 궤적들(522, 524)을 따라 상기 일부분과 구별되는 다른 일부분(예, 시각적 가이드(250-1)의 외부 영역)으로 이동하는 두 외부 객체들(예, 사용자의 상이한 손가락들)에 기반하는 제1 제스쳐를 식별할 수 있다. 상기 제1 제스쳐는, 예를 들어, 핀치-투-줌 제스쳐의 일 예에 대응할 수 있다. 핀치-투-줌 제스쳐는, 전자 장치(101)의 디스플레이에 접촉된 두 외부 객체들 사이의 거리가 점진적으로 증가되는 제1 타입의 핀치-투-줌 제스쳐 및, 상기 두 외부 객체들 사이의 거리가 점진적으로 줄어드는 제2 타입의 핀치-투-줌 제스쳐를 포함할 수 있다. 도 5를 참고하면, 상기 제1 제스쳐는, 두 외부 객체들 사이의 거리가 궤적들(522, 524)을 따라 점진적으로 증가되는 상기 제1 타입의 핀치-투-줌 제스쳐에 대응할 수 있다. 상기 제1 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 상기 제1 제스쳐에 의해 나타내어지는 궤적들(522, 524)에 기반하여, 시각적 가이드(250-1)를 이동하거나, 및/또는 시각적 가이드(250-1)의 크기를 조절할 수 있다.Referring to FIG. 5 , the electronic device 101 according to an embodiment starts from a portion of a display distinguished by a visual guide 250-1 (eg, an inner area of the visual guide 250-1), Control based on two external objects (eg, different fingers of the user) moving along the trajectories 522 and 524 to another part distinct from the part (eg, an area outside the visual guide 250-1) 1 can identify gestures. The first gesture may correspond to, for example, an example of a pinch-to-zoom gesture. The pinch-to-zoom gesture is a first-type pinch-to-zoom gesture in which a distance between two external objects contacting the display of the electronic device 101 is gradually increased, and a distance between the two external objects. It may include a pinch-to-zoom gesture of the second type in which λ gradually decreases. Referring to FIG. 5 , the first gesture may correspond to the first type of pinch-to-zoom gesture in which a distance between two external objects is gradually increased along trajectories 522 and 524 . In response to identifying the first gesture, the electronic device 101 moves the visual guide 250-1 based on the trajectories 522 and 524 indicated by the first gesture, and/or The size of the visual guide 250-1 can be adjusted.
일 실시예에 따른 전자 장치(101)는 시각적 가이드(250-1)의 크기를, 시각적 가이드(250-1)에 대응하는 메타 데이터(예, 시각적 가이드(250-1)와 관련된 제1 외부 전자 장치로부터 수신된 메타 데이터)에 의해 나타나는 규격(예, 크기, 해상도 및/또는 종횡비) 및 상기 제1 제스쳐에 기반하여 변경할 수 있다. 도 5를 참고하면, 전자 장치(101)가 상기 제1 제스쳐에 따라 시각적 가이드(250-1)의 크기를 조절하여 표시하는 시각적 가이드(510)가, 시각적 가이드(250-1)와 함께 도시된다. 시각적 가이드들(250-1, 510)을 참고하면, 시각적 가이드(510)의 종횡비는 시각적 가이드(250-1)의 종횡비에 대응할 수 있다. 시각적 가이드(510)의 색상은 시각적 가이드(250-1)의 색상에 대응할 수 있다. 시각적 가이드(510)는, 상기 제1 제스쳐에 따라, 시각적 가이드(250-1)의 크기보다 확대된 크기를 가질 수 있다. 상기 메타 데이터로부터 최대 크기 및/또는 최대 해상도를 식별하는 것에 응답하여, 전자 장치(101)는 상기 최대 크기 및/또는 상기 최대 해상도에 이하의 크기 및/또는 해상도에 기반하여, 시각적 가이드(250-1)의 크기를 조절할 수 있다. 예를 들어, 시각적 가이드(510)는 상기 최대 크기 및/또는 상기 최대 해상도에 이하의 크기 및/또는 해상도를 가질 수 있다.The electronic device 101 according to an embodiment determines the size of the visual guide 250-1, meta data corresponding to the visual guide 250-1 (eg, the first external electronic device related to the visual guide 250-1). It may be changed based on a standard (eg, size, resolution, and/or aspect ratio) indicated by meta data received from a device and the first gesture. Referring to FIG. 5 , a visual guide 510 that the electronic device 101 adjusts and displays the size of the visual guide 250-1 according to the first gesture is shown together with the visual guide 250-1. . Referring to the visual guides 250-1 and 510, the aspect ratio of the visual guide 510 may correspond to the aspect ratio of the visual guide 250-1. The color of the visual guide 510 may correspond to the color of the visual guide 250-1. According to the first gesture, the visual guide 510 may have a size larger than that of the visual guide 250-1. In response to identifying the maximum size and/or maximum resolution from the metadata, the electronic device 101, based on a size and/or resolution less than or equal to the maximum size and/or maximum resolution, provides a visual guide (250- 1) can be resized. For example, the visual guide 510 may have a size and/or resolution less than or equal to the maximum size and/or maximum resolution.
비록 상기 제1 타입의 핀치-투-줌 제스쳐에 대응하는 상기 제1 제스쳐에 기반하는 전자 장치(101)의 동작이 설명되었으나, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101)의 디스플레이 상에 접촉된 두 외부 객체들 사이의 거리가 점진적으로 줄어드는 상기 제2 타입의 핀치-투-줌 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 적어도 하나의 시각적 가이드의 크기를 줄일 수 있다. 전자 장치(101)가 적어도 하나의 시각적 가이드의 크기를 줄이는 것은, 식별된 상기 제2 타입의 핀치-투-줌 제스쳐 및/또는 상기 적어도 하나의 시각적 가이드에 대응하는 메타 데이터로부터 식별되는 콘텐트의 최소 크기 및/또는 최소 해상도에 기반하여 수행될 수 있다. 전자 장치(101)가 상기 제2 타입의 핀치-투-줌 제스쳐에 기반하여 수행하는 동작은, 예를 들어, 제1 타입의 핀치-투-줌 제스쳐에 대응하는 상기 제1 제스쳐에 기반하는 전자 장치(101)의 동작과 정반대로 수행될 수 있다(may be performed conversely).Although the operation of the electronic device 101 based on the first gesture corresponding to the first type of pinch-to-zoom gesture has been described, the embodiment is not limited thereto. For example, in response to identifying the pinch-to-zoom gesture of the second type in which a distance between two external objects contacted on the display of the electronic device 101 gradually decreases, the electronic device 101 The size of at least one visual guide may be reduced. When the electronic device 101 reduces the size of the at least one visual guide, the second type of pinch-to-zoom gesture and/or the content identified from the metadata corresponding to the at least one visual guide is reduced to a minimum size. It can be done based on size and/or minimum resolution. An operation performed by the electronic device 101 based on the pinch-to-zoom gesture of the second type may be, for example, an electronic device based on the first gesture corresponding to the pinch-to-zoom gesture of the first type. Operation of device 101 may be performed conversely.
도 5를 참고하면, 일 실시예에 따른 전자 장치(101)는, 시각적 가이드(250-3)의 폐곡선을 포함하는 디스플레이의 일부분에서 시작되고, 궤적(540)을 따라 상기 일부분과 구별되는 다른 일부분으로 이동하는 외부 객체에 기반하는 제2 제스쳐를 식별할 수 있다. 상기 제2 제스쳐는, 예를 들어, 드래그 제스쳐의 일 예에 대응할 수 있다. 상기 제2 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 상기 제2 제스쳐에 의해 나타내어지는 궤적(540)에 기반하여, 시각적 가이드(250-3)를 이동하거나, 및/또는 시각적 가이드(250-3)를 회전할 수 있다.Referring to FIG. 5 , the electronic device 101 according to an embodiment starts at a portion of the display including the closed curve of the visual guide 250-3 and follows a trajectory 540 to another portion distinct from the portion. A second gesture based on an external object moving to may be identified. The second gesture may correspond to, for example, an example of a drag gesture. In response to identifying the second gesture, the electronic device 101 moves the visual guide 250-3 based on the trajectory 540 indicated by the second gesture, and/or the visual guide ( 250-3) can be rotated.
도 5를 참고하면, 시각적 가이드(250-3)에 의해 나타나는 폐곡선이 직사각형의 형태를 가지고, 상기 제2 제스쳐의 궤적(540)이 지정된 각도(예, 45°)를 초과하는 호(arc)에 대응함을 식별하는 상태에서, 전자 장치(101)는 시각적 가이드(250-3)를 지정된 다른 각도(예, 90°)를 따라 회전할 수 있다. 전자 장치(101)가 시각적 가이드(250-3)를 회전하는 것은, 시각적 가이드(250-3)에 대응하는 메타 데이터(예, 시각적 가이드(250-3)와 관련된 제3 외부 전자 장치로부터 수신된 메타 데이터)에 의해 나타나는 규격(예, 종횡비) 및 상기 제2 제스쳐에 기반하여 수행될 수 있다. 도 5를 참고하면, 전자 장치(101)가 상기 제2 제스쳐에 따라 시각적 가이드(250-3)의 크기를 조절하여 표시하는 시각적 가이드(530)가, 시각적 가이드(250-3)와 함께 도시된다. 시각적 가이드들(250-3, 530)을 참고하면, 시각적 가이드(530)의 너비 및 길이는, 시각적 가이드(250-3)의 길이 및 너비 각각에 대응할 수 있다. 시각적 가이드(530)의 너비 및 길이 사이의 비율은, 시각적 가이드(250-3)의 너비 및 길이 사이의 비율의 역수에 대응할 수 있다. 시각적 가이드(530)의 색상은 시각적 가이드(250-3)의 색상에 대응할 수 있다.Referring to FIG. 5 , the closed curve indicated by the visual guide 250-3 has a rectangular shape, and the trajectory 540 of the second gesture is formed on an arc exceeding a designated angle (eg, 45°). In a state of identifying correspondence, the electronic device 101 may rotate the visual guide 250 - 3 along another designated angle (eg, 90°). The rotation of the visual guide 250-3 by the electronic device 101 is caused by metadata corresponding to the visual guide 250-3 (eg, received from a third external electronic device related to the visual guide 250-3). meta data) and the second gesture. Referring to FIG. 5 , a visual guide 530 that the electronic device 101 adjusts and displays the size of the visual guide 250-3 according to the second gesture is shown together with the visual guide 250-3. . Referring to the visual guides 250-3 and 530, the width and length of the visual guide 530 may correspond to the length and width of the visual guide 250-3, respectively. The ratio between the width and the length of the visual guide 530 may correspond to the reciprocal of the ratio between the width and the length of the visual guide 250 - 3 . The color of the visual guide 530 may correspond to the color of the visual guide 250-3.
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 UI(210) 내에서 수행되는 사용자 입력에 기반하여, 하나 이상의 시각적 가이드들(예, 시각적 가이드들(250-1, 250-3))의 크기 또는 위치 중 적어도 하나를 변경하거나, 또는 회전할 수 있다. 시각적 가이드들(250-1, 250-3)과 같이 복수의 시각적 가이드들을 동시에 표시하는 상태에서, 전자 장치(101)는 복수의 시각적 가이드들 각각을 독립적으로 변경할 수 있다. 전자 장치(101)가 사용자 입력에 기반하여 복수의 시각적 가이드들 각각을 독립적으로 변경하는 것은, 복수의 시각적 가이드들 각각에 대응하는 메타 데이터에 의해 지시되는 콘텐트의 규격(예, 크기, 해상도 및/또는 종횡비)을 유지하면서, 수행될 수 있다. 도 5를 참고하면, 상기 제1 제스쳐 및 상기 제2 제스쳐에 의해 조절된 시각적 가이드들(510, 530)이 표시된 상태에서, 셔터(260)에 기반하는 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 시각적 가이드들(510, 530) 각각에 의해 구별되는 프리뷰 이미지(220)의 일부분들에 대응하는 복수의 콘텐트들을 실질적으로 동시에 획득할 수 있다. As described above, the electronic device 101 according to an embodiment provides one or more visual guides (eg, visual guides 250-1 and 250-3) based on a user input performed within the UI 210. ) may change at least one of the size or position of, or rotate. In a state of simultaneously displaying a plurality of visual guides such as the visual guides 250-1 and 250-3, the electronic device 101 may independently change each of the plurality of visual guides. The reason why the electronic device 101 independently changes each of the plurality of visual guides based on the user input is that the standard of the content indicated by the meta data corresponding to each of the plurality of visual guides (eg, size, resolution and/or or aspect ratio). Referring to FIG. 5 , in a state in which the visual guides 510 and 530 controlled by the first and second gestures are displayed, in response to receiving a photographing input based on the shutter 260, the electronic device In operation 101 , a plurality of contents corresponding to portions of the preview image 220 distinguished by each of the visual guides 510 and 530 may be obtained substantially simultaneously.
이하에서는 도 6을 참고하여, 일 실시예에 따른 전자 장치(101)가 시각적 가이드들(510, 530) 각각에 대응하는 복수의 콘텐트들을, 시각적 가이드들(510, 530) 각각에 대응하는 복수의 외부 전자 장치들로 송신하기 위해 표시하는 다른 UI가 상세히 설명된다.Hereinafter, referring to FIG. 6 , the electronic device 101 according to an embodiment displays a plurality of contents corresponding to each of the visual guides 510 and 530, and a plurality of contents corresponding to each of the visual guides 510 and 530, respectively. Another UI displaying for transmission to external electronic devices is described in detail.
도 6은 일 실시예에 따른 전자 장치(101)가, 하나 이상의 어플리케이션들 각각에 대응하는 하나 이상의 외부 전자 장치들로, 독립적인 종횡비를 가지는 하나 이상의 콘텐트들을 업로드하기 위하여 표시하는 UI(610)의 일 예를 도시한 도면이다. 도 6의 전자 장치(101)는 도 1 내지 도 5의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 6의 UI(610)는, 도 1의 카메라 어플리케이션(180)에 기반하여 전자 장치(101)의 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시되는 UI의 일 예에 대응할 수 있다. 도 6의 UI(610)는, 예를 들어, 도 1의 제2 UI의 일 예에 대응할 수 있다.6 illustrates a UI 610 displayed by the electronic device 101 to upload one or more contents having an independent aspect ratio to one or more external electronic devices corresponding to one or more applications, respectively, according to an embodiment. It is a drawing showing an example. The electronic device 101 of FIG. 6 may correspond to an example of the electronic device 101 of FIGS. 1 to 5 . For example, the UI 610 of FIG. 6 is an example of a UI displayed on the display (eg, the display 130 of FIG. 1 ) of the electronic device 101 based on the camera application 180 of FIG. 1 . can respond to The UI 610 of FIG. 6 may correspond to an example of the second UI of FIG. 1 , for example.
일 실시예에 따른 전자 장치(101)는 도 2 내지 도 5의 셔터(260)를 터치 및/또는 클릭하는 촬영 입력을 식별하는 것에 응답하여, 도 6의 UI(610)를 표시할 수 있다. 프리뷰 이미지(예, 도 2 내지 도 5의 프리뷰 이미지(220)) 내에 하나 이상의 시각적 가이드들(예, 도 3 내지 도 4의 시각적 가이드들(250-1, 250-3))을 표시한 상태에서, 상기 촬영 입력을 식별하는 것에 응답하여, 일 실시예에 따른 전자 장치(101)는 상기 프리뷰 이미지에 대응하는 콘텐트 및 상기 하나 이상의 시각적 가이드들 각각에 대응하는 콘텐트들을 포함하는 복수의 콘텐트들을 획득할 수 있다. 도 6을 참고하면, 상기 복수의 콘텐트들을 획득하는 것에 응답하여, 전자 장치(101)가 하나 이상의 외부 전자 장치들로, 상기 복수의 콘텐트들 중 적어도 하나를 송신하기 위하여 표시하는 UI(610)가 도시된다. 상기 복수의 콘텐트들의 타입은, 촬영 입력 이전에 콘텐트의 타입을 선택하기 위해 수행되었던 사용자 입력(예, 도 2의 일부분(230) 내에서 수행된 사용자 입력)에 기반하여, 복수의 지정된 타입들 중에 선택될 수 있다.The electronic device 101 according to an embodiment may display the UI 610 of FIG. 6 in response to identifying a photographing input of touching and/or clicking the shutter 260 of FIGS. 2 to 5 . In a state in which one or more visual guides (eg, the visual guides 250-1 and 250-3 of FIGS. 3 to 4) are displayed in a preview image (eg, the preview image 220 of FIGS. 2 to 5) , In response to identifying the photographing input, the electronic device 101 according to an embodiment obtains a plurality of contents including content corresponding to the preview image and contents corresponding to each of the one or more visual guides. can Referring to FIG. 6 , in response to acquiring the plurality of contents, a UI 610 displayed by the electronic device 101 to transmit at least one of the plurality of contents to one or more external electronic devices is shown The type of the plurality of contents is selected from among a plurality of designated types based on a user input (eg, a user input performed within the portion 230 of FIG. 2 ) performed to select the type of content prior to the shooting input. can be chosen
일 실시예에 따른 전자 장치(101)는 UI(610) 내에, 하나 이상의 콘텐트들 각각의 업로드를 제어하기 위한 하나 이상의 시각적 객체들을 표시할 수 있다. 하나 이상의 시각적 가이드들(예, 도 3 내지 도 4의 시각적 가이드들(250-1, 250-3)) 각각에 대응하는 하나 이상의 콘텐트들을 획득한 상태에서, 전자 장치(101)는 UI(610)의 하나 이상의 일부분들에, 상기 하나 이상의 콘텐트들의 업로드를 제어하기 위한 시각적 객체를 표시할 수 있다. 도 6을 참고하면, 전자 장치(101)가 세 개의 콘텐트들을 획득한 상태에서 표시하는 UI(610)의 일 예가 도시된다. 상기 상태에서, 전자 장치(101)는 UI(610)의 서로 다른 일부분들(630, 640, 650) 내에, 상기 세 개의 콘텐트들을 외부 전자 장치로 업로드하기 위한 하나 이상의 시각적 객체들을 표시할 수 있다. 상기 세 개의 콘텐트들은, 촬영 입력 이전에 하나 이상의 어플리케이션들 및/또는 외부 전자 장치들을 선택하기 위한 사용자 입력(예, 도 2의 일부분(240) 내에서 수행된 사용자 입력)에 기반하여 생성될 수 있다.The electronic device 101 according to an embodiment may display one or more visual objects for controlling upload of one or more contents in the UI 610 . In a state in which one or more contents corresponding to each of the one or more visual guides (eg, the visual guides 250-1 and 250-3 of FIGS. 3 and 4) are obtained, the electronic device 101 displays the UI 610 A visual object for controlling upload of the one or more contents may be displayed on one or more parts of the . Referring to FIG. 6 , an example of a UI 610 displayed by the electronic device 101 in a state in which three contents are acquired is shown. In this state, the electronic device 101 may display one or more visual objects for uploading the three contents to the external electronic device in different parts 630 , 640 , and 650 of the UI 610 . The three contents may be created based on a user input for selecting one or more applications and/or external electronic devices (eg, a user input performed within the portion 240 of FIG. 2 ) prior to a photographing input. .
도 6을 참고하면, 일 실시예에 따른 전자 장치(101)는 UI(610) 내에, 촬영 입력에 기반하여 획득한 하나 이상의 콘텐트들 각각에 대응하는 하나 이상의 썸네일들을 표시할 수 있다. 예를 들어, 썸네일(612)은, 프리뷰 이미지의 전체 영역에 기반하여 카메라(예, 도 1의 카메라(140))로부터 획득된 콘텐트에 대응할 수 있다. 썸네일(612)에 대응하는 콘텐트는, 전자 장치(101)의 메모리(예, 도 1의 메모리(120)) 내에, 외부 전자 장치로 상기 콘텐트를 송신할 지 여부와 독립적으로 저장될 수 있다. 도 6을 참고하면, 일부분들(630, 640, 650) 각각에 표시되는 썸네일들(632, 642, 652)은, 촬영 입력을 식별하는 시점에서 프리뷰 이미지 상에 중첩하여 표시된 복수의 시각적 가이드들 각각에 기반하여 획득된 복수의 콘텐트들 각각에 대응할 수 있다. 썸네일들(632, 642, 642)에 대응하는 복수의 콘텐트들 각각은, 전자 장치(101)의 메모리 내에 적어도 일시적으로 저장될 수 있다. 예를 들어, 썸네일들(632, 642, 642)에 대응하는 복수의 콘텐트들은, UI(610)가 표시되는 동안, 전자 장치(101)의 메모리 내에서 임시 파일의 포맷에 기반하여 저장될 수 있다. 일 실시예에 따른 전자 장치(101)는 썸네일과 함께, 썸네일들에 대응하는 콘텐트의 용량 및/또는 상기 콘텐트를 획득한 시각을 더 표시할 수 있다. 콘텐트가 비디오에 대응하는 경우, 전자 장치(101)는 콘텐트에 대응하는 썸네일과 함께, 콘텐트의 재생 시간을 더 표시할 수 있다.Referring to FIG. 6 , the electronic device 101 according to an embodiment may display one or more thumbnails corresponding to each of one or more contents acquired based on a photographing input in the UI 610 . For example, the thumbnail 612 may correspond to content obtained from a camera (eg, the camera 140 of FIG. 1 ) based on the entire area of the preview image. The content corresponding to the thumbnail 612 may be stored in the memory of the electronic device 101 (eg, the memory 120 of FIG. 1 ) independently of whether or not the content is to be transmitted to an external electronic device. Referring to FIG. 6 , thumbnails 632, 642, and 652 displayed on each of the portions 630, 640, and 650 are a plurality of visual guides overlapping and displayed on the preview image at the time of identifying a photographing input. It may correspond to each of a plurality of contents obtained based on. Each of the plurality of contents corresponding to the thumbnails 632 , 642 , and 642 may be at least temporarily stored in the memory of the electronic device 101 . For example, a plurality of contents corresponding to the thumbnails 632, 642, and 642 may be stored based on the format of a temporary file in the memory of the electronic device 101 while the UI 610 is displayed. . The electronic device 101 according to an embodiment may further display the capacity of the content corresponding to the thumbnails and/or the time at which the content was obtained, together with the thumbnails. If the content corresponds to a video, the electronic device 101 may further display a reproduction time of the content along with a thumbnail corresponding to the content.
일 실시예에 따른 전자 장치(101)는 UI(610)내에, 하나 이상의 콘텐트들을 업로드할 하나 이상의 외부 전자 장치들과 관련된 정보를 표시할 수 있다. 도 6의 일 예에서, 전자 장치(101)는 UI(610)의 일부분들(630, 640, 650) 각각에, 촬영 입력에 기반하여 획득한 상기 세 개의 콘텐트들 각각이 업로드될 세 개의 외부 전자 장치들 각각과 관련된 정보를 표시할 수 있다. 예를 들어, 외부 전자 장치와 관련된 정보는, 외부 전자 장치에 의해 지시되는 SNS 및/또는 디지털 플랫폼의 명칭, 전자 장치(101)의 사용자에 의해 상기 외부 전자 장치 내에 저장된 계정 정보(예, ID)를 포함할 수 있다. 상기 외부 전자 장치와 관련된 정보는, 전자 장치(101)에 설치되고, 상기 외부 전자 장치에 대응하는, 어플리케이션에 기반하여 식별될 수 있다.The electronic device 101 according to an embodiment may display information related to one or more external electronic devices to which one or more contents are to be uploaded in the UI 610 . In the example of FIG. 6 , the electronic device 101 includes three external electronic devices to which each of the three contents acquired based on a photographing input is uploaded to each of the parts 630 , 640 , and 650 of the UI 610 . Information related to each of the devices may be displayed. For example, the information related to the external electronic device may include a name of an SNS and/or a digital platform indicated by the external electronic device, and account information (eg, ID) stored in the external electronic device by the user of the electronic device 101 . can include Information related to the external electronic device may be identified based on an application installed in the electronic device 101 and corresponding to the external electronic device.
일 실시예에 따른 전자 장치(101)는 UI(610) 내에, 하나 이상의 콘텐트들과 함께 하나 이상의 외부 전자 장치들로 업로드될 정보를 표시할 수 있다. 도 6을 참고하면, 전자 장치(101)는 UI(610)의 일부분들(630, 640, 650) 각각을 이용하여, 서로 다른 외부 전자 장치들로 송신될 정보로써, 콘텐트와 관련된 정보를 표시할 수 있다. 예를 들어, 일부분(630)에 대응하는 특정 외부 전자 장치로 업로드될 콘텐트에 대응하는 썸네일(632)을 표시한 상태에서, 전자 장치(101)는 일부분(630)에 포함된 영역(636)을 통해, 상기 특정 외부 전자 장치로 상기 콘텐트와 함께 업로드될 정보를 표시할 수 있다. 전자 장치(101)는 영역(636) 내에, 상기 특정 외부 전자 장치로 상기 콘텐트를 업로드하기 위해 이용될 계정 정보, 상기 콘텐트를 획득한 지리적 위치, 또는 상기 콘텐트와 관련된 텍스트 중 적어도 하나를 표시할 수 있다.The electronic device 101 according to an embodiment may display information to be uploaded to one or more external electronic devices together with one or more contents in the UI 610 . Referring to FIG. 6 , the electronic device 101 displays content-related information as information to be transmitted to different external electronic devices using portions 630, 640, and 650 of the UI 610, respectively. can For example, in a state in which a thumbnail 632 corresponding to content to be uploaded to a specific external electronic device corresponding to the portion 630 is displayed, the electronic device 101 displays an area 636 included in the portion 630. Through this, information to be uploaded together with the content can be displayed on the specific external electronic device. The electronic device 101 may display at least one of account information to be used to upload the content to the specific external electronic device, a geographical location where the content was obtained, or text related to the content, in the area 636. there is.
일 실시예에 따른 전자 장치(101)는 UI(610)를 이용하여 사용자로부터, 콘텐트와 함께 외부 전자 장치로 업로드될 정보를 획득할 수 있다. UI(610) 내에, 상이한 외부 전자 장치들로 업로드될 상이한 콘텐트들을 표시하는 경우, 전자 장치(101)는 사용자로부터 콘텐트들 각각에 대응하는 정보를 독립적으로 획득할 수 있다. 예를 들어, 전자 장치(101)는 일부분(630)의 영역(636) 내에 포함된 텍스트 박스를 이용하여, 사용자로부터 썸네일(632)에 대응하는 콘텐트와 관련된 텍스트를 획득할 수 있다. 예를 들어, 상기 텍스트는 상기 특정 외부 전자 장치에 의해 상기 콘텐트와 함께 상기 특정 외부 전자 장치와 관련된 SNS 내에 게시될(to be posted) 게시물(article)의 제목 또는 본문 중 적어도 하나를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는 일부분(630) 내에 상기 특정 외부 전자 장치에 대응하는 어플리케이션에 기반하여 편집하기 위한 버튼(638)을 더 표시할 수 있다. 상기 버튼(638)을 이용하여, 전자 장치(101)는, 상기 특정 외부 전자 장치에 대응하고, 전자 장치(101)에 설치된, 특정 어플리케이션에 기반하는 상기 콘텐트의 업로드를 지원할 수 있다.The electronic device 101 according to an embodiment may obtain information to be uploaded to an external electronic device along with content from a user by using the UI 610 . When different contents to be uploaded to different external electronic devices are displayed in the UI 610, the electronic device 101 may independently obtain information corresponding to each of the contents from the user. For example, the electronic device 101 may obtain text related to the content corresponding to the thumbnail 632 from the user by using a text box included in the area 636 of the portion 630 . For example, the text may include at least one of a title or body of an article to be posted in an SNS related to the specific external electronic device together with the content by the specific external electronic device. . The electronic device 101 according to an embodiment may further display a button 638 for editing based on an application corresponding to the specific external electronic device in the portion 630 . Using the button 638 , the electronic device 101 may support uploading of the content based on a specific application that corresponds to the specific external electronic device and is installed in the electronic device 101 .
일 실시예에 따른 전자 장치(101)가 콘텐트와 함께 외부 전자 장치로 업로드할 정보의 타입은, 도 6의 일 예에 제한되지 않는다. 예를 들어, 전자 장치(101)가 콘텐트와 함께 외부 전자 장치로 업로드할 정보는, 콘텐트에 적용된 필터, 콘텐트와 함께 재생될 음악, 콘텐트의 크기, 용량, 해상도, 종횡비, 타입, 해시태그 또는 상기 콘텐트에 액세스 가능한 사용자의 리스트 중 적어도 하나를 포함할 수 있다. 전자 장치(101)는 메타 데이터에 기반하여, 콘텐트와 함께 외부 전자 장치로 업로드할 정보의 타입을 식별할 수 있다.The type of information to be uploaded by the electronic device 101 to an external electronic device together with content according to an embodiment is not limited to the example of FIG. 6 . For example, information to be uploaded by the electronic device 101 to an external electronic device together with content includes a filter applied to the content, music to be played along with the content, size, capacity, resolution, aspect ratio, type, hashtag, or the above information. It may include at least one of a list of users who can access the content. The electronic device 101 may identify the type of information to be uploaded to the external electronic device along with the content based on the metadata.
도 6을 참고하면, UI(610)의 버튼(625)을 이용하여, 일 실시예에 따른 전자 장치(101)는 UI(610)의 서로 다른 일부분들 각각에 대응하는 외부 전자 장치들과 구별되는 다른 외부 전자 장치로 콘텐트를 업로드하는 것을 지원할 수 있다. 예를 들어, 버튼(625)을 터치 및/또는 클릭하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 UI(610)의 일부분들(630, 640, 650)과 구별되는 다른 일부분 내에, 일부분들(630, 640, 650)과 관련된 외부 전자 장치들과 구별되는 다른 외부 전자 장치로 콘텐트를 업로드하기 위한 하나 이상의 시각적 객체들을 표시할 수 있다. 상기 다른 일부분 내에서, 전자 장치(101)는 다른 외부 전자 장치에 대응하는 메타 데이터에 기반하여, 썸네일(612)에 대응하는 콘텐트로부터 획득된, 다른 콘텐트의 썸네일을 표시할 수 있다. 상기 다른 일부분 내에서, 전자 장치(101)는 상기 다른 콘텐트와 함께 상기 다른 외부 전자 장치로 업로드될 정보를 표시할 수 있다. 상기 정보는, 사용자에 의해 수정 가능한(modifiable) 시각적 객체(예, 텍스트 박스)에 기반하여 표시될 수 있다.Referring to FIG. 6 , by using a button 625 of the UI 610, the electronic device 101 according to an embodiment is distinguished from external electronic devices corresponding to different portions of the UI 610. Uploading of content to another external electronic device may be supported. In response to identifying user input, for example, of touching and/or clicking button 625 , electronic device 101 may be displayed within another portion of UI 610 that is distinct from portions 630 , 640 , and 650 . , One or more visual objects for uploading content may be displayed on an external electronic device that is distinguished from external electronic devices related to the portions 630 , 640 , and 650 . Within the other part, the electronic device 101 may display a thumbnail of another content obtained from the content corresponding to the thumbnail 612 based on meta data corresponding to another external electronic device. Within the other part, the electronic device 101 may display information to be uploaded to the other external electronic device together with the other content. The information may be displayed based on a visual object (eg, a text box) that is modifiable by a user.
일 실시예에 따른 전자 장치(101)는 UI(610) 내에서, 상이한 외부 전자 장치들 각각에 대응하는 일부분들 각각에, 일부분들 각각에 의해 지시되는 콘텐트 및 정보의 결합을 업로드할지 여부를 선택하기 위한 시각적 객체(예, 체크 박스 및/또는 라디오 버튼)를 표시할 수 있다. 도 6을 참고하면, 전자 장치(101)는 일부분들(630, 640, 650) 각각에 포함된 체크 박스들(634, 644, 654)을 이용하여, 사용자로부터 일부분들(630, 640, 650) 각각에 대응하는 콘텐트 및 정보의 결합을 송신할지 여부를 식별할 수 있다. 일 실시예에 따른 전자 장치(101)는 UI(610)의 하나 이상의 일부분들(예, 일부분들(630, 640, 650))에 기반하여 지시되는, 하나 이상의 콘텐트들 및 정보의 결합을, 버튼(620)과 같은 지정된 시각적 객체에 대한 사용자 입력을 식별하는 것에 응답하여, 하나 이상의 외부 전자 장치들로 송신할 수 있다. 도 6의 일 예에서, 일부분(640)에 포함된 체크 박스(644)가 사용자에 의하여 선택되지 않았거나, 및/또는 해제되었으므로, 전자 장치(101)는 체크 박스(644)를 포함하는 일부분(640)에 대응하는 콘텐트 및 정보의 결합을, 일부분(640)에 대응하는 외부 전자 장치로 송신하지 않을 수 있다.The electronic device 101 according to an embodiment selects, within the UI 610, whether to upload a combination of content and information indicated by each of the parts to each of the parts corresponding to each of the different external electronic devices. A visual object (eg, a check box and/or radio button) may be displayed. Referring to FIG. 6 , the electronic device 101 uses check boxes 634 , 644 , and 654 included in each of the portions 630 , 640 , and 650 to allow the user to select portions 630 , 640 , and 650 . It is possible to identify whether to transmit a combination of content and information corresponding to each. The electronic device 101 according to an embodiment performs a combination of one or more contents and information indicated based on one or more portions (eg, portions 630, 640, and 650) of the UI 610, using a button. In response to identifying user input for a designated visual object, such as 620, it can be transmitted to one or more external electronic devices. In the example of FIG. 6 , since the check box 644 included in the portion 640 is not selected and/or released by the user, the electronic device 101 is the portion including the check box 644 ( The combination of content and information corresponding to 640) may not be transmitted to an external electronic device corresponding to portion 640.
도 6의 일 예에서, 사용자가 일부분들(630, 650) 각각에 포함된 체크 박스들(634, 654)을 선택한 이후, 버튼(620)을 터치 및/또는 클릭하는 경우, 전자 장치(101)는 일부분들(630, 650) 각각에 대응하는 콘텐트 및 정보의 결합들을, 일부분들(630, 650) 각각에 대응하는 외부 전자 장치들로 송신할 수 있다. 예를 들어, 전자 장치(101)는 일부분(630)에 대응하는 특정 외부 전자 장치로, 썸네일(632)에 대응하는 콘텐트 및 영역(636)에 의해 표시되는 정보의 결합을 송신할 수 있다. 상기 콘텐트 및 상기 정보의 결합은, 전자 장치(101)에 설치되고, 상기 특정 외부 전자 장치에 대응하는, 상기 특정 어플리케이션에 의하여, 상기 특정 외부 전자 장치로 송신될 수 있다. 예를 들어, 전자 장치(101)는 상기 특정 어플리케이션에 기반하여, 상기 특정 외부 전자 장치로 상기 콘텐트 및 상기 정보의 결합을 포함하는 신호를 송신할 수 있다. 상기 신호는, 상기 전자 장치(101)의 사용자와 관련된 계정 정보에 기반하는, 상기 콘텐트 및 상기 정보의 결합에 대응하는 게시물을 생성하라는 요청에 대응할 수 있다. 유사하게, 전자 장치(101)는 일부분(654)에 대응하는 다른 전자 장치로, 일부분(654)에 의해 나타나는 콘텐트 및 정보의 결합을 송신할 수 있다.In the example of FIG. 6 , when a user touches and/or clicks a button 620 after selecting check boxes 634 and 654 included in each of the portions 630 and 650, the electronic device 101 may transmit combinations of content and information corresponding to each of the portions 630 and 650 to external electronic devices corresponding to each of the portions 630 and 650 . For example, electronic device 101 may transmit a combination of content corresponding to thumbnail 632 and information represented by area 636 to a specific external electronic device corresponding to portion 630 . The combination of the content and the information may be transmitted to the specific external electronic device by the specific application installed in the electronic device 101 and corresponding to the specific external electronic device. For example, the electronic device 101 may transmit a signal including a combination of the content and the information to the specific external electronic device based on the specific application. The signal may correspond to a request to create a post corresponding to the combination of the content and the information based on account information related to the user of the electronic device 101 . Similarly, electronic device 101 can transmit a combination of content and information represented by portion 654 to another electronic device corresponding to portion 654 .
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 복수의 외부 전자 장치들 각각에 의해 요구되는 크기, 해상도 및/또는 종횡비를 가지는 복수의 콘텐트들을, 상기 복수의 콘텐트들 각각에 대응하는 정보와 함께, 복수의 외부 전자 장치들로 동시에 송신할 수 있다. 상기 복수의 콘텐트들 각각에 대응하는 정보의 적어도 일부분이, 예를 들어, 도 6의 UI(610)에 기반하여, 사용자로부터 수신될 수 있다. 전자 장치(101)는 UI(610)의 버튼(620)을 이용하여, 복수의 콘텐트들 및 대응하는 정보의 결합을, 상기 복수의 콘텐트들 각각에 대응하는 복수의 외부 전자 장치들로 실질적으로 동시에 업로드하는 것을 지원할 수 있다. 예를 들어, 전자 장치(101)는 단일 촬영 입력으로 획득한 사진 및/또는 비디오를, 전자 장치(101)의 사용자에 의해 특정된 복수의 SNS들로 일괄적으로 업로드할 수 있다.As described above, the electronic device 101 according to an embodiment provides a plurality of contents having a size, resolution, and/or aspect ratio required by each of a plurality of external electronic devices, corresponding to each of the plurality of contents. Together with the information, it can be simultaneously transmitted to a plurality of external electronic devices. At least a portion of the information corresponding to each of the plurality of contents may be received from the user, for example, based on the UI 610 of FIG. 6 . The electronic device 101 uses the button 620 of the UI 610 to substantially simultaneously combine a plurality of contents and corresponding information to a plurality of external electronic devices corresponding to each of the plurality of contents. Uploading can be supported. For example, the electronic device 101 may collectively upload photos and/or videos acquired through a single shooting input to a plurality of SNSs specified by the user of the electronic device 101 .
도 7a 내지 7b는 일 실시예에 따른 전자 장치(101)가, 프리뷰 이미지의 종횡비를 변경하는 동작을 설명하기 위한 예시적인 도면이다. 도 7a 내지 7b의 전자 장치(101)는 도 1의 전자 장치(101)의 일 예에 대응할 수 있다. 예를 들어, 도 7a 내지 7b의 UI(710)는, 도 1의 카메라 어플리케이션(180)에 기반하여 전자 장치(101)의 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시되는 UI의 일 예에 대응할 수 있다. 예를 들어, 도 7a 내지 7b의 UI(710)는 도 1의 제1 UI의 일 예에 대응할 수 있다.7A to 7B are diagrams for explaining an operation of changing an aspect ratio of a preview image by the electronic device 101 according to an exemplary embodiment. The electronic device 101 of FIGS. 7A to 7B may correspond to an example of the electronic device 101 of FIG. 1 . For example, the UI 710 of FIGS. 7A to 7B is a UI displayed on the display of the electronic device 101 (eg, the display 130 of FIG. 1 ) based on the camera application 180 of FIG. 1 . An example may correspond. For example, the UI 710 of FIGS. 7A to 7B may correspond to an example of the first UI of FIG. 1 .
도 7a 내지 7b를 참고하면, 전자 장치(101)가 셔터(260)와 관련된 드래그 제스쳐에 기반하여 표시하는 UI(710)의 서로 다른 상태들(700, 705)이 도시된다. 전자 장치(101)가 도 7a 내지 7b의 UI(710)를 표시하는 것은, 도 2 내지 도 6의 UI(210)의 적어도 일부분을 표시하는 것과 유사하게 수행될 수 있다. 예를 들어, UI(710) 내 일부분(230)은, UI(210)의 일부분(230)과 관련되고, 카메라를 제어하여 획득 가능한(obtainable) 콘텐트의 상이한 타입들을 나타내는 리스트를 표시하기 위해 이용될 수 있다. 예를 들어, 전자 장치(101)는 셔터(260)를 터치 및/또는 클릭하는 촬영 입력에 기반하여, 카메라를 제어하여 일부분(230) 내 리스트에 의해 선택된 타입의 콘텐트를 획득할 수 있다.Referring to FIGS. 7A and 7B , different states 700 and 705 of the UI 710 displayed by the electronic device 101 based on a drag gesture related to the shutter 260 are shown. Displaying the UI 710 of FIGS. 7A to 7B by the electronic device 101 may be similar to displaying at least a portion of the UI 210 of FIGS. 2 to 6 . For example, portion 230 in UI 710 may be used to display a list representing different types of content that is associated with portion 230 of UI 210 and obtainable by controlling a camera. can For example, the electronic device 101 may obtain content of a type selected by a list in the portion 230 by controlling a camera based on a photographing input of touching and/or clicking the shutter 260 .
일 실시예에 따른 전자 장치(101)는 셔터(260) 상에, 촬영 입력에 의해 획득될 콘텐트를 업로드할 외부 전자 장치 및/또는 상기 콘텐트의 업로드를 위해 이용될 어플리케이션을 나타내는 아이콘을 중첩하여 표시할 수 있다. 셔터(260) 상에 상기 아이콘을 중첩하여 표시한 상태에서, 전자 장치(101)는 상기 아이콘과 관련된 외부 전자 장치 및/또는 어플리케이션에 대응하는 메타 데이터에 기반하는 크기, 해상도 및/또는 종횡비를 가지는 프리뷰 이미지를 표시할 수 있다. 셔터(260) 상에 상기 아이콘을 중첩하여 표시한 상태에서, 전자 장치(101)는 상기 메타 데이터에 의해 지시되는 콘텐트의 타입에 기반하여, 일부분(230) 내 리스트에서 콘텐트의 타입을 선택할 수 있다.The electronic device 101 according to an embodiment overlaps and displays an icon representing an external electronic device to upload content to be obtained by a photographing input and/or an application to be used for uploading the content on the shutter 260 . can do. In a state in which the icon is overlapped and displayed on the shutter 260, the electronic device 101 has a size, resolution, and/or aspect ratio based on metadata corresponding to an external electronic device and/or application related to the icon. A preview image can be displayed. In a state in which the icon is overlapped and displayed on the shutter 260, the electronic device 101 may select a content type from a list in the portion 230 based on the type of content indicated by the meta data. .
예를 들어, 도 7a의 상태(700)에서, 전자 장치(101)는 셔터(260) 상에, 제1 어플리케이션(예, 도 1의 제1 어플리케이션(190-1)) 및/또는 상기 제1 어플리케이션에 대응하는 제1 외부 전자 장치(예, 도 1의 제1 외부 전자 장치(170-1))를 나타내는 제1 아이콘을 중첩하여 표시할 수 있다. 예를 들어, 셔터(260) 상에 중첩하여 표시되는 상기 제1 아이콘은, 상기 제1 어플리케이션의 아이콘에 대응할 수 있다. 상태(700)에서, 전자 장치(101)가 UI(710) 내에 표시하는 프리뷰 이미지(720)는, 상기 제1 어플리케이션 및/또는 상기 제1 외부 전자 장치와 관련된 메타 데이터에 의해 지시되는 크기, 해상도 및/또는 종횡비를 가질 수 있다. 상태(700)에서, 전자 장치(101)가 일부분(230) 내 리스트에서 선택하는 시각적 객체(310)는, 상기 제1 어플리케이션 및/또는 상기 제1 외부 전자 장치와 관련된 메타 데이터에 의해 지시되는 콘텐트의 타입(예, 사진)에 대응할 수 있다.For example, in state 700 of FIG. 7A , the electronic device 101 displays a first application (eg, the first application 190-1 of FIG. 1) and/or the first application 190-1 on the shutter 260. A first icon representing a first external electronic device corresponding to an application (eg, the first external electronic device 170 - 1 of FIG. 1 ) may be overlapped and displayed. For example, the first icon displayed overlapping on the shutter 260 may correspond to the icon of the first application. In state 700, the preview image 720 displayed in the UI 710 by the electronic device 101 has a size and resolution indicated by meta data related to the first application and/or the first external electronic device. and/or aspect ratio. In state 700, the visual object 310 that the electronic device 101 selects from the list in the portion 230 is content indicated by metadata related to the first application and/or the first external electronic device. may correspond to the type of (eg, photo).
도 7a의 상태(700)에서, 셔터(260)를 두드리는 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지(720)에 대응하는 콘텐트를 획득할 수 있다. 전자 장치(101)가 획득하는 콘텐트는, 셔터(260) 상에 표시되는 제1 아이콘과 관련된 상기 제1 외부 전자 장치로 업로드될 수 있다. 상기 콘텐트를 상기 제1 외부 전자 장치로 업로드하기 이전에, 전자 장치(101)는 도 6의 UI(610)와 같이 상기 콘텐트와 함께 상기 제1 외부 전자 장치로 업로드될 정보를 획득하기 위한 UI를 더 표시할 수 있다.In state 700 of FIG. 7A , the electronic device 101 may acquire content corresponding to the preview image 720 in response to identifying a photographing input of tapping the shutter 260 . The content acquired by the electronic device 101 may be uploaded to the first external electronic device related to the first icon displayed on the shutter 260 . Before uploading the content to the first external electronic device, the electronic device 101 provides a UI for obtaining information to be uploaded to the first external electronic device along with the content, such as the UI 610 of FIG. 6 . more can be displayed.
일 실시예에 따른 전자 장치(101)는 셔터(260)를 이용하여, 촬영 입력과 구별되고, 상기 촬영 입력에 의해 획득될 콘텐트의 타입, 크기, 해상도, 종횡비 또는 상기 콘텐트를 업로드할 외부 전자 장치 중 적어도 하나를 조절하기 위한 사용자 입력을 식별할 수 있다. 예를 들어, 상기 사용자 입력은, 셔터(260)에 의해 구별되는 디스플레이의 일부분(예, 셔터(260)의 내부 영역)에서 시작되고, 지정된 방향을 따라 상기 일부분과 구별되는 다른 일부분(예, 셔터(260)의 외부 영역)으로 이동하는 외부 객체(예, 사용자의 손가락)의 제스쳐를 포함할 수 있다. 상기 제스쳐는, 예를 들어, 셔터(260)에 대한 드래그 제스쳐 및/또는 스와이프 제스쳐의 일 예에 대응할 수 있다.The electronic device 101 according to an embodiment is distinguished from a photographing input by using the shutter 260, and determines the type, size, resolution, aspect ratio of content to be obtained by the photographing input, or an external electronic device to upload the content. A user input for adjusting at least one of them may be identified. For example, the user input starts from a part of the display distinguished by the shutter 260 (eg, an inner region of the shutter 260), and proceeds along a designated direction to another part distinguished from the part (eg, the shutter 260). A gesture of an external object (eg, a user's finger) moving to the external area of 260 may be included. The gesture may correspond to an example of a drag gesture and/or a swipe gesture for the shutter 260 .
도 7a를 참고하면, 상태(700)에서, 전자 장치(101)는, 셔터(260) 내에서 시작되고, 궤적들(712, 714) 중 어느 한 방향을 따르는, 드래그 제스쳐를 식별할 수 있다. 이하에서, 궤적들(712, 714)과 같이 UI(710)의 길이 및 너비 중에서 너비와 평행한 방향을 따르는 드래그 제스쳐에 기반하는 전자 장치(101)의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니다. 상기 드래그 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 셔터(260) 상에 표시되는 제1 아이콘과 구별되는 제2 아이콘을 표시할 수 있다. 상기 제2 아이콘은, 상기 제1 아이콘에 대응하는 제1 어플리케이션 및 제1 외부 전자 장치와 구별되는 제2 어플리케이션(예, 도 1의 제2 어플리케이션(190-2)) 및 제2 외부 전자 장치(예, 도 1의 제2 외부 전자 장치(170-2))과 관련될 수 있다.Referring to FIG. 7A , in state 700, the electronic device 101 may identify a drag gesture that starts within the shutter 260 and follows one of the trajectories 712 and 714. Hereinafter, an operation of the electronic device 101 based on a drag gesture along a direction parallel to the width among the length and width of the UI 710 will be described, such as the trajectories 712 and 714, but the embodiment is not limited thereto. no. In response to identifying the drag gesture, the electronic device 101 may display a second icon distinct from the first icon displayed on the shutter 260 . The second icon includes a first application corresponding to the first icon and a second application (eg, the second application 190-2 of FIG. 1) and a second external electronic device (eg, the second application 190-2 in FIG. For example, it may be related to the second external electronic device 170 - 2 of FIG. 1 .
도 7b를 참고하면, 상기 드래그 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)가 상태(700)로부터 상태(705)로 전환된 이후 표시하는 UI(710)가 도시된다. 도 7b를 참고하면, 상태(705)에서, 전자 장치(101)는 상태(700)의 프리뷰 이미지(720)와 구별되는 크기, 해상도 및/또는 종횡비를 가지는 프리뷰 이미지(730)를 표시할 수 있다. 상태(705)에서 프리뷰 이미지(730)의 크기, 해상도 및/또는 종횡비는, 상태(705)에서 셔터(260) 상에 표시되는 제2 아이콘에 대응하는 상기 제2 어플리케이션 및/또는 상기 제2 외부 전자 장치와 관련된 메타 데이터에 의해 지시되는 크기, 해상도 및/또는 종횡비에 대응할 수 있다. 예를 들어, 셔터(260)로부터 궤적들(712, 714) 중 적어도 하나를 따라 수행되는 드래그 제스쳐에 의하여, 전자 장치(101)는 프리뷰 이미지의 크기, 해상도 및/또는 종횡비를 변경할 수 있다.Referring to FIG. 7B , a UI 710 displayed after the electronic device 101 switches from a state 700 to a state 705 in response to identifying the drag gesture is shown. Referring to FIG. 7B , in state 705, the electronic device 101 may display a preview image 730 having a size, resolution, and/or aspect ratio different from the preview image 720 in state 700. . The size, resolution and/or aspect ratio of the preview image 730 in state 705 is determined by the second application and/or the second external application corresponding to the second icon displayed on the shutter 260 in state 705. It may correspond to the size, resolution, and/or aspect ratio indicated by metadata related to the electronic device. For example, by a drag gesture performed from the shutter 260 along at least one of the trajectories 712 and 714, the electronic device 101 may change the size, resolution, and/or aspect ratio of the preview image.
도 7b를 참고하면, 상태(705)에서, 전자 장치(101)는 일부분(230) 내 리스트를 이용하여 표시하는 콘텐트의 타입은, 상기 제2 어플리케이션 및/또는 상기 제2 외부 전자 장치와 관련된 메타 데이터에 의해 지시되는 콘텐트의 타입에 대응할 수 있다. 예를 들어, 사진에 대응하는 시각적 객체(310)가 활성화된 상태(700)로부터 상태(705)로 전환됨에 따라, 셔터(260) 상의 제2 아이콘과 관련된 메타 데이터가 비디오를 지시함을 식별하는 것에 응답하여, 전자 장치(101)는 일부분(230) 내 리스트에서 비디오에 대응하는 시각적 객체(320)를 활성화할 수 있다. 비디오에 대응하는 시각적 객체(320)를 활성화함에 따라, 전자 장치(101)는 시각적 객체(310)를 활성화하는 것을 중단할 수 있다.Referring to FIG. 7B , in state 705, the type of content displayed using the list in the portion 230 of the electronic device 101 is meta related to the second application and/or the second external electronic device. It may correspond to the type of content indicated by data. For example, as the visual object 310 corresponding to the picture is transitioned from the activated state 700 to the state 705, identifying that the meta data associated with the second icon on the shutter 260 indicates a video. In response, the electronic device 101 may activate the visual object 320 corresponding to the video in the list in the portion 230 . As the visual object 320 corresponding to the video is activated, the electronic device 101 may stop activating the visual object 310 .
도 7b의 상태(705)에서, 상기 드래그 제스쳐와 구별되는 촬영 입력을 식별하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지(730)에 대응하는 콘텐트를 획득할 수 있다. 전자 장치(101)가 획득하는 콘텐트는, 셔터(260) 상에 표시되는 제2 아이콘과 관련된 상기 제2 외부 전자 장치로 업로드될 수 있다. 상기 콘텐트를 상기 제2 외부 전자 장치로 업로드하기 이전에, 전자 장치(101)는 도 6의 UI(610)와 같이 상기 콘텐트와 함께 상기 제2 외부 전자 장치로 업로드될 정보를 획득하기 위한 UI를 더 표시할 수 있다.In state 705 of FIG. 7B , the electronic device 101 may acquire content corresponding to the preview image 730 in response to identifying a photographing input distinct from the drag gesture. The content obtained by the electronic device 101 may be uploaded to the second external electronic device related to the second icon displayed on the shutter 260 . Before uploading the content to the second external electronic device, the electronic device 101 provides a UI for obtaining information to be uploaded to the second external electronic device together with the content, such as the UI 610 of FIG. 6 . more can be displayed.
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 셔터(260)로부터 시작되는 드래그 제스쳐에 기반하여, 카메라로부터 획득될 콘텐트가 업로드될 외부 전자 장치를, 복수의 외부 전자 장치들 중에서 스위칭 및/또는 스크롤할 수 있다. 상기 드래그 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지의 크기, 해상도 및/또는 종횡비를, 스위칭된 외부 전자 장치에 대응하는 메타 데이터에 기반하여 변경할 수 있다. 상기 드래그 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 카메라로부터 획득될 콘텐트의 타입을, 상기 메타 데이터에 기반하여 변경할 수 있다.As described above, the electronic device 101 according to an embodiment switches an external electronic device to which content to be obtained from a camera will be uploaded, among a plurality of external electronic devices, based on a drag gesture initiated from the shutter 260. and/or scrollable. In response to identifying the drag gesture, the electronic device 101 may change the size, resolution, and/or aspect ratio of the preview image based on meta data corresponding to the switched external electronic device. In response to identifying the drag gesture, the electronic device 101 may change the type of content to be acquired from the camera based on the meta data.
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 촬영 입력에 기반하여, 적어도 하나의 외부 전자 장치로 송신될 적어도 하나의 콘텐트를 획득할 수 있다. 전자 장치(101) 내에 설치된 하나 이상의 어플리케이션들에 기반하여, 전자 장치(101)는 촬영 입력을 수신 가능한 UI(예, 도 2 내지 도 5의 UI(210) 및/또는 도 7a 내지 7b의 UI(710)) 내에, 상기 하나 이상의 어플리케이션들 각각에 대응하고, 상기 적어도 하나의 콘텐트가 업로드될, 하나 이상의 외부 전자 장치들의 리스트를 표시할 수 있다. 상기 하나 이상의 어플리케이션들 및/또는 상기 하나 이상의 외부 전자 장치들은, 전자 장치(101)의 사용자가 가입한 SNS 및/또는 디지털 플랫폼과 관련될 수 있다. 상기 리스트 내에서 적어도 하나의 외부 전자 장치를 선택하는 사용자 입력을 식별한 이후, 전자 장치(101)는 식별된 사용자 입력에 대응하는 적어도 하나의 외부 전자 장치에 의해 요구되는 규격에 기반하는 콘텐트를 획득할 수 있다.As described above, the electronic device 101 according to an embodiment may obtain at least one content to be transmitted to at least one external electronic device based on a photographing input. Based on one or more applications installed in the electronic device 101, the electronic device 101 is a UI capable of receiving a photographing input (eg, the UI 210 of FIGS. 2 to 5 and/or the UI of FIGS. 7A to 7B ( In 710)), a list of one or more external electronic devices corresponding to each of the one or more applications and to which the at least one content is to be uploaded may be displayed. The one or more applications and/or the one or more external electronic devices may be related to an SNS and/or a digital platform to which the user of the electronic device 101 subscribes. After identifying a user input for selecting at least one external electronic device from the list, the electronic device 101 obtains content based on standards required by the at least one external electronic device corresponding to the identified user input. can do.
예를 들어, 전자 장치(101)가 획득하는 콘텐트의 타입, 크기, 해상도 및/또는 종횡비가, 상기 사용자 입력에 의해 선택된 외부 전자 장치에 의해 조절될 수 있다. 사용자가 상기 리스트 내에서 복수의 외부 전자 장치들을 선택하는 경우, 전자 장치(101)는 복수의 외부 전자 장치들 각각의 규격을 만족하는 복수의 콘텐트들을, 단일 촬영 입력에 기반하여 획득할 수 있다. 전자 장치(101)는 단일 촬영 입력에 기반하여 획득된 복수의 콘텐트들을, 상기 선택된 복수의 외부 전자 장치들로 실질적으로 동시에 업로드할 수 있다.For example, the type, size, resolution, and/or aspect ratio of content obtained by the electronic device 101 may be adjusted by an external electronic device selected by the user input. When the user selects a plurality of external electronic devices from the list, the electronic device 101 may acquire a plurality of contents that satisfy the standards of each of the plurality of external electronic devices based on a single photographing input. The electronic device 101 may substantially simultaneously upload a plurality of contents acquired based on a single photographing input to the selected plurality of external electronic devices.
이하에서는 도 8 내지 도 13의 흐름도들을 참고하여, 일 실시예에 따른 전자 장치(101)가 수행하는 동작이 상세히 설명된다.Hereinafter, an operation performed by the electronic device 101 according to an embodiment will be described in detail with reference to the flowcharts of FIGS. 8 to 13 .
도 8은 일 실시예에 따른 전자 장치가, 카메라를 제어하여, 독립적인 종횡비를 가지는 하나 이상의 콘텐트들을 획득하는 동작을 설명하기 위한 흐름도이다. 도 8의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 8의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다.8 is a flowchart illustrating an operation of acquiring one or more contents having an independent aspect ratio by controlling a camera, by an electronic device, according to an exemplary embodiment. The electronic device of FIG. 8 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 8 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 .
도 8을 참고하면, 동작(810)에서, 일 실시예에 따른 전자 장치는 제1 사용자 인터페이스 내에서 프리뷰 이미지를 표시할 수 있다. 예를 들어, 상기 제1 사용자 인터페이스는, 도 1의 제1 UI, 도 2 내지 도 5의 UI(210) 및/또는 도 7a 내지 7b의 UI(710)를 포함할 수 있다. 상기 프리뷰 이미지는, 전자 장치의 카메라(예, 도 1의 카메라(140))로부터 지정된 프레임율(예, 12 fps(frames per second), 24 fps, 30 fps, 60 fps 또는 120 fps 중 하나의 프레임율)을 따라 수신되는 복수의 이미지들의 적어도 하나 일부분에 대응할 수 있다. 제1 사용자 인터페이스 내에서, 전자 장치는 상기 프리뷰 이미지와 관련된 카메라에 기반하는 콘텐트의 획득을 개시하는 지정된 입력(예, 촬영 입력)을 수신하기 위한 시각적 객체(예, 도 2의 셔터(260))를 더 표시할 수 있다. 상기 제1 사용자 인터페이스는 카메라 어플리케이션(예, 도 1의 카메라 어플리케이션(180))과 같은 지정된 어플리케이션을 실행하는 것에 응답하여, 전자 장치의 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시될 수 있다.Referring to FIG. 8 , in operation 810, the electronic device according to an embodiment may display a preview image within the first user interface. For example, the first user interface may include the first UI of FIG. 1 , the UI 210 of FIGS. 2 to 5 , and/or the UI 710 of FIGS. 7A to 7B . The preview image is selected from a camera of the electronic device (eg, the camera 140 of FIG. 1 ) at a specified frame rate (eg, 12 frames per second (fps), 24 fps, 30 fps, 60 fps, or one frame of 120 fps). rate) may correspond to at least one part of a plurality of images received according to the ratio. Within the first user interface, the electronic device is a visual object (eg, the shutter 260 of FIG. 2 ) for receiving a designated input (eg, a photographing input) initiating acquisition of camera-based content related to the preview image. can display more. The first user interface may be displayed on a display (eg, display 130 of FIG. 1 ) of an electronic device in response to executing a designated application such as a camera application (eg, camera application 180 of FIG. 1 ). can
제1 사용자 인터페이스 내에서, 일 실시예에 따른 전자 장치는 상기 콘텐트의 타입 및/또는 상기 콘텐트를 업로드할 하나 이상의 외부 전자 장치들을 선택하기 위한 리스트를 더 표시할 수 있다. 상기 리스트를 표시하기 위하여, 전자 장치는 메모리(예, 도 1의 메모리(120)) 내에서, 카메라 어플리케이션과 구별되는 하나 이상의 어플리케이션들(예, 도 1의 제1 어플리케이션(190-1) 및/또는 제2 어플리케이션(190-2))에 기반하여, 상기 하나 이상의 외부 전자 장치들을 식별할 수 있다. 상기 하나 이상의 외부 전자 장치들을 식별하는 것에 응답하여, 전자 장치는 상기 하나 이상의 외부 전자 장치들로부터, 상기 하나 이상의 외부 전자 장치들 각각으로 업로드 가능한 콘텐트의 타입, 크기, 용량, 해상도, 종횡비 또는 시각적 가이드의 색상 중 적어도 하나를 나타내는 메타 데이터를 획득할 수 있다.Within the first user interface, the electronic device according to an embodiment may further display a list for selecting the type of content and/or one or more external electronic devices to upload the content to. In order to display the list, the electronic device includes one or more applications (eg, the first application 190-1 of FIG. 1) and/or a camera application within a memory (eg, the memory 120 of FIG. 1). Alternatively, the one or more external electronic devices may be identified based on the second application 190-2). In response to identifying the one or more external electronic devices, the electronic device determines the type, size, capacity, resolution, aspect ratio, or visual guide of uploadable content from the one or more external electronic devices to each of the one or more external electronic devices. Meta data representing at least one of the colors of may be obtained.
도 8을 참고하면, 동작(820)에서, 일 실시예에 따른 전자 장치는 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시할 수 있다. 예를 들어, 동작(810)에 기반하여 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 전자 장치는 동작(820)을 수행할 수 있다. 상기 하나 이상의 시각적 가이드들은, 제1 사용자 인터페이스 내에 표시되고, 상기 하나 이상의 외부 전자 장치들을 선택하기 위한 리스트 내에서 수행되는, 사용자 입력을 식별하는 것에 응답하여 표시될 수 있다.Referring to FIG. 8 , in operation 820, the electronic device according to an embodiment may overlap and display one or more visual guides corresponding to one or more external electronic devices, respectively, on the preview image. For example, while displaying the preview image in the first user interface based on operation 810, the electronic device may perform operation 820. The one or more visual guides may be displayed in response to identifying a user input displayed in the first user interface and performed in a list for selecting the one or more external electronic devices.
일 실시예에 따른 전자 장치가 프리뷰 이미지 상에, 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 것은, 도 3 내지 도 5에서 상술된 동작들 중 적어도 하나에 기반하여 수행될 수 있다. 예를 들어, 프리뷰 이미지 상에서 표시되는 하나 이상의 시각적 가이드들은, 상기 메타 데이터, 전자 장치가 프리뷰 이미지에 대응하는 FOV 내에서 피사체를 식별한 결과 또는 프리뷰 이미지 상에서 수행되는 사용자 입력 중 적어도 하나에 기반하여 표시될 수 있다. 예를 들어, 복수의 시각적 가이드들이 프리뷰 이미지 상에 표시되는 경우, 복수의 시각적 가이드들 각각은 독립적인 크기 및/또는 종횡비를 가질 수 있다.An overlapping display of the one or more visual guides on the preview image by the electronic device according to an embodiment may be performed based on at least one of the operations described above with reference to FIGS. 3 to 5 . For example, one or more visual guides displayed on the preview image are displayed based on at least one of the metadata, a result of the electronic device identifying a subject within the FOV corresponding to the preview image, or a user input performed on the preview image. It can be. For example, when a plurality of visual guides are displayed on the preview image, each of the plurality of visual guides may have an independent size and/or aspect ratio.
도 8을 참고하면, 동작(830)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 상기 촬영 입력은, 예를 들어, 제1 사용자 인터페이스 내에서 표시되고 있는 지정된 시각적 객체(예, 도 2의 셔터(260))를 지정된 시간 구간 이내의 기간(duration) 동안 터치 및/또는 클릭하는 제스쳐를 포함할 수 있다. 촬영 입력을 수신하기 이전에(830-아니오), 전자 장치는 동작(820)에 기반하는 프리뷰 이미지 및/또는 하나 이상의 시각적 가이드들을 표시하는 것을 유지할 수 있다.Referring to FIG. 8 , in operation 830, the electronic device according to an embodiment may determine whether a photographing input is received. The photographing input is, for example, a gesture of touching and/or clicking a designated visual object (eg, the shutter 260 of FIG. 2 ) being displayed in the first user interface for a duration within a designated time interval. can include Before receiving the photographing input (830-No), the electronic device may maintain displaying a preview image and/or one or more visual guides based on operation 820.
촬영 입력을 수신하는 것에 응답하여(830-예), 동작(840)에서, 일 실시예에 따른 전자 장치는 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득할 수 있다. 프리뷰 이미지 상에 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 동안, 카메라에 대한 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 상기 카메라로부터 수신되는 복수의 이미지들 중 적어도 하나에 기반하여, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득할 수 있다. 예를 들어, 전자 장치가 획득하는 상기 하나 이상의 콘텐트는, 폐곡선의 형태를 가지는 상기 하나 이상의 시각적 가이드들의 내부 영역에 대응하는 프리뷰 이미지의 일부분과 관련될 수 있다. 예를 들어, 상이한 종횡비들을 가지는 복수의 시각적 가이드들을 표시하는 상태에서, 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 복수의 시각적 가이드들 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득할 수 있다.In response to receiving a photographing input (830-Yes), in operation 840, the electronic device according to an embodiment may obtain one or more contents corresponding to each of one or more visual guides. While displaying the one or more visual guides superimposed on a preview image, in response to receiving a photographing input for a camera, the electronic device determines the one or more visual guides based on at least one of a plurality of images received from the camera. One or more contents corresponding to each of the visual guides may be obtained. For example, the one or more contents acquired by the electronic device may relate to a portion of a preview image corresponding to an inner area of the one or more visual guides having a closed curve shape. For example, in a state in which a plurality of visual guides having different aspect ratios are displayed, in response to receiving a photographing input, the electronic device may obtain a plurality of contents having aspect ratios corresponding to each of the plurality of visual guides. .
도 8을 참고하면, 동작(850)에서, 일 실시예에 따른 전자 장치는 하나 이상의 콘텐트들을 하나 이상의 외부 전자 장치들로 업로드하기 위한 제2 사용자 인터페이스를 표시할 수 있다. 예를 들어, 상기 제2 사용자 인터페이스는 도 6의 UI(610)를 포함할 수 있다. 전자 장치가 복수의 콘텐트들을 획득하는 경우, 전자 장치는 상기 복수의 콘텐트들 중 제1 콘텐트에 대응하는 제1 정보를 획득하기 위한 제1 일부분, 및 상기 복수의 콘텐트들 중 제2 콘텐트에 대응하는 제2 정보를 획득하기 위한 제2 일부분을 포함하는 상기 제2 사용자 인터페이스를 표시할 수 있다. 상기 제1 일부분 및/또는 상기 제2 일부분은, 예를 들어, 도 6의 일부분들(630, 640, 650) 중 적어도 하나에 대응할 수 있다. 상기 제1 일부분 및 상기 제2 일부분 각각을 이용하여 전자 장치는 사용자로부터 상기 제1 콘텐트에 대응하는 제1 정보 및 상기 제2 콘텐트에 대응하는 제2 정보를 획득할 수 있다. 일 실시예에 따른 전자 장치는 제2 사용자 인터페이스 내에 포함된 지정된 시각적 객체(예, 도 6의 버튼(620))에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 콘텐트에 대응하는 제1 외부 전자 장치로, 상기 제1 정보 및 상기 제1 콘텐트를 송신할 수 있다. 상기 사용자 입력을 수신하는 것에 응답하여, 상기 제1 정보 및 상기 제1 콘텐트를 송신하는 것과 독립적으로, 전자 장치는 상기 제2 콘텐트에 대응하는 제2 외부 전자 장치로, 상기 제2 정보 및 상기 제2 콘텐트를 송신할 수 있다. Referring to FIG. 8 , in operation 850, the electronic device according to an embodiment may display a second user interface for uploading one or more contents to one or more external electronic devices. For example, the second user interface may include the UI 610 of FIG. 6 . When the electronic device acquires a plurality of contents, the electronic device obtains a first part for obtaining first information corresponding to a first content among the plurality of contents, and a first part corresponding to a second content among the plurality of contents. The second user interface including a second part for obtaining second information may be displayed. The first portion and/or the second portion may correspond to, for example, at least one of the portions 630 , 640 , and 650 of FIG. 6 . The electronic device may obtain first information corresponding to the first content and second information corresponding to the second content from a user by using each of the first portion and the second portion. In response to receiving a user input for a designated visual object (eg, the button 620 of FIG. 6 ) included in the second user interface, the electronic device according to an embodiment provides a first external image corresponding to the first content. The electronic device may transmit the first information and the first content. In response to receiving the user input, independently of transmitting the first information and the first content, the electronic device sends the second information and the first content to a second external electronic device corresponding to the second content. 2 Content can be transmitted.
상술한 바와 같이, 일 실시예에 따른 전자 장치가 하나 이상의 콘텐트들을, 상기 하나 이상의 콘텐트들 각각에 대응하는 하나 이상의 외부 전자 장치들로부터 수신한 메타 데이터에 기반하여 획득함에 따라, 사용자가 외부 전자 장치로 업로드할 콘텐트를 생성하기 위해 콘텐트를 편집하는 동작이 최소화되거나, 또는 제거될 수 있다. 전자 장치는 상기 하나 이상의 콘텐트들의 개수와 독립적으로, 단일 촬영 입력에 기반하여 상기 하나 이상의 콘텐트들을 획득할 수 있다. 예를 들어, 사용자는 상기 단일 촬영 입력을 이용하여 복수의 외부 전자 장치 각각으로 업로드되고, 상이한 규격을 가지는, 복수의 콘텐트들을 획득할 수 있다.As described above, as an electronic device according to an embodiment obtains one or more contents based on metadata received from one or more external electronic devices corresponding to the one or more contents, the user may access the external electronic device An operation of editing the content to create the content to be uploaded may be minimized or eliminated. The electronic device may acquire the one or more contents based on a single shooting input, independently of the number of the one or more contents. For example, a user may acquire a plurality of contents that are uploaded to each of a plurality of external electronic devices and have different standards by using the single photographing input.
도 9는 일 실시예에 따른 전자 장치가, 외부 전자 장치로부터, 프리뷰 이미지 상에 중첩하여 표시될 시각적 가이드와 관련된 정보를 획득하는 동작을 설명하기 위한 흐름도이다. 도 9의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 9의 외부 전자 장치는, 도 1의 제1 외부 전자 장치(170-1) 및 제2 외부 전자 장치(170-2)를 포함할 수 있다. 도 9의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다. 도 9의 동작들 중 적어도 하나는, 도 8의 동작들 중 적어도 하나(예, 동작(810))와 관련될 수 있다.9 is a flowchart illustrating an operation of obtaining, from an external electronic device, information related to a visual guide to be overlapped and displayed on a preview image by an electronic device according to an exemplary embodiment. The electronic device of FIG. 9 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. The external electronic device of FIG. 9 may include the first external electronic device 170-1 and the second external electronic device 170-2 of FIG. 1 . At least one of the operations of FIG. 9 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 . At least one of the operations of FIG. 9 may be related to at least one of the operations of FIG. 8 (eg, operation 810).
도 9를 참고하면, 동작(910)에서, 일 실시예에 따른 전자 장치는 어플리케이션을, 전자 장치 내에 설치할 수 있다. 예를 들어, 전자 장치는, 도 1의 제1 어플리케이션(190-1) 및/또는 제2 어플리케이션(190-2)을, 전자 장치의 메모리 내에 설치할 수 있다. 동작(910)은, 전자 장치가 마켓 어플리케이션과 같이 네트워크에 기반하는 어플리케이션의 설치를 지원하는 지정된 어플리케이션 내에서 수행되는 사용자 입력을 식별하는 것에 응답하여 수행될 수 있다.Referring to FIG. 9 , in operation 910, an electronic device according to an embodiment may install an application into the electronic device. For example, the electronic device may install the first application 190-1 and/or the second application 190-2 of FIG. 1 in the memory of the electronic device. Operation 910 may be performed in response to the electronic device identifying a user input performed within a designated application that supports installation of a network-based application, such as a market application.
동작(910)에 기반하여 어플리케이션을 설치한 이후, 동작(920)에서, 일 실시예에 따른 전자 장치는 동작(910)의 어플리케이션을 실행하기 위한 사용자 입력을 식별할 수 있다. 예를 들어, 어플리케이션을 실행한 이후, 전자 장치는 홈 화면과 같이 운영 체제에 의해 제공되고, 전자 장치에 설치된 복수의 어플리케이션들 중 어느 하나를 실행하기 위한, 지정된 UI 내에서, 상기 사용자 입력을 수신할 수 있다.After installing the application based on operation 910 , in operation 920 , the electronic device according to an embodiment may identify a user input for executing the application of operation 910 . For example, after executing an application, the electronic device receives the user input within a designated UI for executing any one of a plurality of applications provided by an operating system and installed in the electronic device, such as a home screen. can do.
동작(910)의 어플리케이션을 실행하기 위한 사용자 입력을 식별하는 것에 응답하여, 동작(930)에서, 일 실시예에 따른 전자 장치는, 사용자 입력에 의해 선택된 어플리케이션이 전자 장치에 의해 처음 실행되는지 여부를 판단할 수 있다. 동작(910)의 어플리케이션이 전자 장치에 의해 처음 실행되는 경우(930-예), 동작(940)에서, 일 실시예에 따른 전자 장치는 상기 어플리케이션에 대응하는 외부 전자 장치를 식별하였는지 여부를 판단할 수 있다. 예를 들어, 전자 장치가 어플리케이션을 실행함에 따라, 외부 전자 장치 및 전자 장치 사이의 연결을 수립한 경우, 전자 장치는 수립된 연결에 기반하여 외부 전자 장치를 식별할 수 있다. In response to identifying the user input for executing the application in operation 910, in operation 930, the electronic device according to an embodiment determines whether the application selected by the user input is initially executed by the electronic device. can judge When the application of operation 910 is first executed by the electronic device (930-Yes), in operation 940, the electronic device according to an embodiment determines whether an external electronic device corresponding to the application has been identified. can For example, when the electronic device establishes a connection between the external electronic device and the electronic device as an application is executed, the electronic device may identify the external electronic device based on the established connection.
상기 어플리케이션에 대응하는 외부 전자 장치를 식별하는 것에 응답하여(940-예), 동작(950)에서, 일 실시예에 따른 전자 장치는 외부 전자 장치로부터 카메라에 대한 정보를 가져올지를 확인하는 UI 표시할 수 있다. 상기 UI는, 팝업 윈도우와 같이, 상기 정보를 가져올지를 선택하기 위한 하나 이상의 시각적 객체들(예, '예' 및 '아니오'와 같은 지정된 텍스트들을 가지는 버튼들)을 포함할 수 있다. 동작(950)의 UI를 표시하는 동안, 동작(960)에서, 일 실시예에 따른 전자 장치는 상기 UI를 통하여 정보를 가져오기 위한 사용자 입력을 수신하였는지 여부를 판단할 수 있다.In response to identifying the external electronic device corresponding to the application (940-Yes), in operation 950, the electronic device according to an embodiment displays a UI for confirming whether to obtain camera information from the external electronic device. can The UI may include one or more visual objects (eg, buttons having designated texts such as 'Yes' and 'No') for selecting whether to retrieve the information, such as a pop-up window. While displaying the UI of operation 950, in operation 960, the electronic device according to an embodiment may determine whether a user input for obtaining information is received through the UI.
동작(950)의 UI를 통하여 정보를 가져오기 위한 사용자 입력을 수신하는 것에 응답하여(960-예), 동작(970)에서, 일 실시예에 따른 전자 장치는 외부 전자 장치로부터 카메라에 대한 정보를 획득할 수 있다. 상기 정보는, 외부 전자 장치로 업로드 가능하고, 카메라로부터 획득되는, 콘텐트의 규격을 나타내는 메타 데이터에 대응할 수 있다. 상기 정보는, 외부 전자 장치에 의해 가이드되는 콘텐트의 규격으로, 예를 들어, 콘텐트의 타입, 크기, 해상도, 종횡비, 또는 상기 콘텐트와 함께 업로드 가능한 정보 중 적어도 하나를 나타낼 수 있다. 전자 장치가 동작(970)에 기반하여 획득하는 정보는, 도 2 내지 도 6 및/또는 도 7a 내지 7b에서 상술된 바와 같이, 전자 장치가 카메라를 이용하여 콘텐트를 획득하기 위하여 이용될 수 있다.In response to receiving a user input for obtaining information through the UI in operation 950 (960-yes), in operation 970, the electronic device according to an embodiment receives information about a camera from an external electronic device. can be obtained The information may correspond to metadata indicating standards of content that can be uploaded to an external electronic device and obtained from a camera. The information is a standard of content guided by an external electronic device, and may indicate, for example, at least one of the type, size, resolution, aspect ratio of the content, or information that can be uploaded together with the content. The information acquired by the electronic device based on operation 970 may be used by the electronic device to obtain content using a camera, as described above with reference to FIGS. 2 to 6 and/or 7A to 7B.
도 9를 참고하면, 동작(980)에서, 일 실시예에 따른 전자 장치는 어플리케이션을 실행할 수 있다. 도 9를 참고하면, 동작(970)에 기반하여 외부 전자 장치로부터 카메라에 대한 정보를 획득한 이후, 전자 장치는 어플리케이션을 실행할 수 있다. 또는, 어플리케이션이 전자 장치에 의해 처음 실행되는 경우가 아니거나(930-아니오), 어플리케이션에 대응하는 외부 전자 장치가 존재하지 않거나(940-아니오), 또는 동작(950)의 UI를 통하여 정보를 가져오기 위한 사용자 입력을 수신하지 못한 경우(960-아니오), 전자 장치는 동작(970)의 수행을 바이패스한 다음, 동작(980)을 수행할 수 있다.Referring to FIG. 9 , in operation 980, an electronic device according to an embodiment may execute an application. Referring to FIG. 9 , after obtaining camera information from an external electronic device based on operation 970, the electronic device may execute an application. Alternatively, the application is not first executed by the electronic device (930-No), the external electronic device corresponding to the application does not exist (940-No), or information is obtained through the UI of operation 950. If the user input to come is not received (960 - No), the electronic device may bypass operation 970 and then perform operation 980.
도 10은 일 실시예에 따른 전자 장치가, 사용자에 의해 선택된 시각적 객체에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 10의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 10의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다. 도 10의 동작들 중 적어도 하나는, 도 8의 동작들 중 적어도 하나(예, 동작들(810, 820))와 관련될 수 있다.10 is a flowchart illustrating an operation performed by an electronic device based on a visual object selected by a user, according to an exemplary embodiment. The electronic device of FIG. 10 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 10 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 . At least one of the operations of FIG. 10 may be related to at least one of the operations of FIG. 8 (eg, operations 810 and 820).
도 10을 참고하면, 동작(1010)에서, 일 실시예에 따른 전자 장치는, 전자 장치 내에 저장된 복수의 어플리케이션들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다. 예를 들어, 도 2의 UI(210)를 표시한 상태에서, 전자 장치는 UI(210)의 일부분(240) 내에, 상기 복수의 시각적 객체들을 표시할 수 있다. 복수의 시각적 객체들은, 전자 장치에 설치되고, 복수의 외부 전자 장치들 각각에 대응하는 복수의 어플리케이션들의 명칭 및/또는 아이콘을 포함할 수 있다. 예를 들어, 전자 장치는 카메라 어플리케이션에 기반하는 사용자 인터페이스를 이용하여 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을, 상기 사용자 인터페이스 내에서 표시할 수 있다. 상기 복수의 시각적 객체들은, 콘텐트를 업로드할 하나 이상의 외부 전자 장치들을, 상기 복수의 외부 전자 장치들 중에서 선택하기 위하여, 전자 장치에 의하여 표시될 수 있다.Referring to FIG. 10 , in operation 1010, the electronic device according to an embodiment may display a plurality of visual objects corresponding to each of a plurality of applications stored in the electronic device. For example, while displaying the UI 210 of FIG. 2 , the electronic device may display the plurality of visual objects within a portion 240 of the UI 210 . The plurality of visual objects may include names and/or icons of a plurality of applications installed on the electronic device and corresponding to each of the plurality of external electronic devices. For example, while the electronic device displays a preview image using a user interface based on a camera application, visual objects representing each of a plurality of applications that are distinguished from the camera application and request upload of an image, Can be displayed within the user interface. The plurality of visual objects may be displayed by an electronic device in order to select one or more external electronic devices to upload content from among the plurality of external electronic devices.
도 10을 참고하면, 동작(1020)에서, 일 실시예에 따른 전자 장치는 동작(1010)의 복수의 시각적 객체들 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 예를 들어, 도 2의 일부분(240) 내에서 수행되는 사용자 입력을 포함할 수 있다. 사용자 입력을 수신하기 이전에(1020-아니오), 전자 장치는 동작(1010)에 기반하여 복수의 시각적 객체들을 표시하는 것을 유지할 수 있다. 복수의 시각적 객체들 중 어느 하나를 선택하는 사용자 입력을 수신하는 것에 응답하여, 전자 장치는 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트를 나타내는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시할 수 있다.Referring to FIG. 10 , in operation 1020 , the electronic device according to an embodiment may receive a user input for selecting one of a plurality of visual objects in operation 1010 . The user input may include, for example, user input performed within portion 240 of FIG. 2 . Before receiving the user input (1020-No), the electronic device may maintain displaying a plurality of visual objects based on operation 1010. In response to receiving a user input for selecting one of a plurality of visual objects, the electronic device displays a visual guide indicating content to be uploaded through an application indicated by a visual object related to the user input, on the preview image. can be displayed superimposed on .
복수의 시각적 객체들 중 어느 하나를 선택하는 사용자 입력을 수신하는 것에 응답하여(1020-예), 동작(1030)에서, 일 실시예에 따른 전자 장치는 수신된 사용자 입력에 의하여 선택된 시각적 객체에 대응하는 어플리케이션에 의하여 요구되는 콘텐트의 타입을 식별할 수 있다. 예를 들어, 전자 장치는 상기 시각적 객체에 대응하는 어플리케이션 및/또는 외부 전자 장치로부터 획득된 메타 데이터에 기반하여, 상기 어플리케이션 및/또는 상기 외부 전자 장치와 관련된 콘텐트의 타입을 식별할 수 있다. 상기 콘텐트의 타입은, 전자 장치의 카메라를 이용하여 획득 가능한 복수의 지정된 타입들에 포함될 수 있다.In response to receiving a user input selecting one of the plurality of visual objects (1020-Yes), in operation 1030, the electronic device according to an embodiment corresponds to the visual object selected by the received user input. It is possible to identify the type of content requested by the application. For example, the electronic device may identify the type of content related to the application and/or the external electronic device based on meta data acquired from the application corresponding to the visual object and/or the external electronic device. The type of content may be included in a plurality of designated types obtainable using a camera of an electronic device.
동작(1030)의 콘텐트의 타입을 식별하는 것에 응답하여, 동작(1040)에서, 일 실시예에 따른 전자 장치는, 복수의 시각적 객체들 중에서, 식별된 타입과 구별되는 타입의 콘텐트를 요구하는 하나 이상의 어플리케이션들에 대응하는 하나 이상의 시각적 객체들의 표시를 변경 및/또는 중단할 수 있다. 예를 들어, 전자 장치는 동작(1010)에 기반하여 표시되는 복수의 시각적 객체들 중에서, 동작(1030)에 기반하여 식별된 타입과 구별되는 다른 타입을 요구하는 하나 이상의 어플리케이션들에 대응하는 하나 이상의 시각적 객체들을, 적어도 일시적으로 숨기거나, 및/또는 비활성화할 수 있다. 시각적 객체를 비활성화하는 것은, 전자 장치가 시각적 객체의 색상 및/또는 형태를, 비활성화를 나타내는 지정된 색상 및/또는 형태로 변경하는 동작을 포함할 수 있다. 시각적 객체를 비활성화하는 것은, 전자 장치가 비활성화된 시각적 객체를 선택하는 사용자 입력을 식별하는 것에 응답하여, 상기 비활성화된 시각적 객체와 관련된 기능을 실행하지 않거나, 및/또는 상기 사용자 입력에 기반하는 이벤트를 버리는 동작(discarding)을 포함할 수 있다.In response to identifying the type of content in operation 1030, in operation 1040, the electronic device according to an embodiment selects one of the plurality of visual objects, requesting content of a type distinct from the identified type. Display of one or more visual objects corresponding to one or more applications may be changed and/or stopped. For example, among a plurality of visual objects displayed based on the operation 1010, the electronic device may include one or more applications corresponding to one or more applications that require a different type distinguished from the type identified based on the operation 1030. Visual objects may be hidden and/or deactivated, at least temporarily. Deactivating the visual object may include an operation of the electronic device to change the color and/or shape of the visual object to a designated color and/or shape indicating inactivation. Disabling a visual object means that the electronic device does not execute a function related to the disabled visual object in response to the electronic device identifying a user input that selects the disabled visual object, and/or an event based on the user input. It may include discarding.
도 11은 일 실시예에 따른 전자 장치가, FOV 내에 포함된 피사체에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 11의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 11의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다. 도 11의 동작들 중 적어도 하나는, 도 8 내지 도 10의 동작들 중 적어도 하나(예, 도 8의 동작(820))와 관련될 수 있다.11 is a flowchart illustrating an operation performed by an electronic device based on a subject included in an FOV, according to an exemplary embodiment. The electronic device of FIG. 11 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 11 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 . At least one of the operations of FIG. 11 may be related to at least one of the operations of FIGS. 8 to 10 (eg, operation 820 of FIG. 8 ).
도 11을 참고하면, 동작(1110)에서, 일 실시예에 따른 전자 장치는 사용자에 의해 선택된 시각적 객체에 대응하는 어플리케이션을 통해 제1 콘텐트를 업로드한 이력을 식별할 수 있다. 동작(1110)은, 예를 들어, 도 10의 동작(1020)의 시각적 객체들 중 어느 하나를 선택하는 사용자 입력을 수신하는 것에 응답하여, 전자 장치에 의하여 수행될 수 있다. 상기 이력은, 카메라를 이용하여 상기 제1 콘텐트를 획득한 시점 및/또는 상기 어플리케이션와 관련된 외부 전자 장치로 상기 제1 콘텐트를 업로드한 시점에, 전자 장치에 의하여 전자 장치의 메모리 내에 저장될 수 있다.Referring to FIG. 11 , in operation 1110, the electronic device according to an embodiment may identify a history of uploading first content through an application corresponding to a visual object selected by a user. Operation 1110 may be performed by the electronic device, for example, in response to receiving a user input selecting one of the visual objects of operation 1020 of FIG. 10 . The history may be stored in the memory of the electronic device by the electronic device at the time of acquiring the first content using a camera and/or uploading the first content to an external electronic device related to the application.
도 11을 참고하면, 동작(1120)에서, 일 실시예에 따른 전자 장치는 식별된 이력에 의해 나타나는 제1 콘텐트 내에서 제1 피사체에 대응하는 제1 시각적 객체의 제1 위치를 식별할 수 있다. 도 4에서 상술된 바와 같이, 전자 장치는 상기 이력 내에, 상기 제1 콘텐트 내에서의 상기 제1 시각적 객체의 제1 위치를 저장할 수 있다. 도 11을 참고하면, 동작(1130)에서, 일 실시예에 따른 전자 장치는 프리뷰 이미지 내에서, 제2 피사체에 대응하는 제2 시각적 객체의 제2 위치를 식별할 수 있다. 상기 제2 피사체는, 상기 프리뷰 이미지에 대응하는 카메라의 FOV 내에 포함될 수 있다.Referring to FIG. 11 , in operation 1120, the electronic device according to an embodiment may identify a first position of a first visual object corresponding to a first subject within the first content represented by the identified history. . As described above with reference to FIG. 4 , the electronic device may store the first position of the first visual object in the first content within the history. Referring to FIG. 11 , in operation 1130, the electronic device according to an embodiment may identify a second position of a second visual object corresponding to a second subject in a preview image. The second subject may be included in the FOV of a camera corresponding to the preview image.
도 11을 참고하면, 동작(1140)에서, 일 실시예에 따른 전자 장치는 프리뷰 이미지 내에서, 시각적 가이드를, 식별된 제1 위치 또는 제2 위치 중 적어도 하나에 기반하여 표시할 수 있다. 예를 들어, 프리뷰 이미지 내에서의 시각적 가이드의 위치는, 시각적 가이드에 의해 구별되는 프리뷰 이미지의 일부분 내에서의 상기 제2 시각적 객체의 위치가, 상기 제1 콘텐트 내에서의 상기 제1 시각적 객체의 제1 위치에 대응하도록, 상기 제1 위치 및 상기 제2 위치에 기반하여 결정될 수 있다.Referring to FIG. 11 , in operation 1140, the electronic device according to an embodiment may display a visual guide based on at least one of the identified first location or second location within the preview image. For example, the location of the visual guide within the preview image is determined by the location of the second visual object within a portion of the preview image identified by the visual guide, the location of the first visual object within the first content. It may be determined based on the first location and the second location to correspond to the first location.
동작(1140)에 기반하여 시각적 가이드를 표시하는 상태에서, 동작(1150)에서, 일 실시예에 따른 전자 장치는 상기 시각적 가이드의 크기 및/또는 위치를 변경하는 사용자 입력을 수신할 수 있다. 예를 들어, 도 6에서 상술된 바와 같이, 전자 장치는 상기 시각적 가이드와 관련된 드래그 제스쳐, 스와이프 제스쳐 및/또는 핀치-투-줌 제스쳐를 포함하는 상기 사용자 입력을 수신할 수 있다. 동작(1150)의 사용자 입력을 수신하는 것에 응답하여(1150-예), 동작(1160)에서, 일 실시예에 따른 전자 장치는 수신된 사용자 입력에 기반하여, 시각적 가이드의 크기 및/또는 위치를 변경할 수 있다.In a state in which the visual guide is displayed based on operation 1140 , the electronic device according to an embodiment may receive a user input for changing the size and/or location of the visual guide in operation 1150 . For example, as described above with reference to FIG. 6 , the electronic device may receive the user input including a drag gesture, a swipe gesture, and/or a pinch-to-zoom gesture related to the visual guide. In response to receiving the user input of operation 1150 (1150-yes), in operation 1160, the electronic device according to an embodiment determines the size and/or position of the visual guide based on the received user input. can be changed
동작(1150)의 사용자 입력에 대응하는 동작(1160)을 수행한 이후, 또는 동작(1150)의 사용자 입력을 수신하지 않은 동안(1150-아니오), 동작(1170)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 촬영 입력을 수신하기 이전에(1170-아니오), 또는 동작(1160)을 수행한 이후, 전자 장치는 동작들(1150, 1170)에 기반하여, 상기 사용자 입력 및/또는 상기 촬영 입력을 탐지하는 것을 유지할 수 있다. After performing operation 1160 corresponding to the user input of operation 1150, or while not receiving the user input of operation 1150 (1150-no), in operation 1170, the electronic device according to one embodiment The device may determine whether a photographing input is received. Before receiving the photographing input (1170 - No) or after performing the operation 1160, the electronic device may, based on the operations 1150 and 1170, detect the user input and/or the photographing input. can keep
촬영 입력을 수신하는 것에 응답하여(1170-예), 동작(1180)에서, 일 실시예에 따른 전자 장치는 카메라를 제어하여 제2 콘텐트를 획득할 수 있다. 동작들(1120, 1130, 1140)에 기반하여, 시각적 가이드의 위치가 조절된 이후, 동작(1160)과 독립적으로 전자 장치가 획득하는 상기 제2 콘텐트 내에서의 상기 제2 시각적 객체의 위치는, 상기 제1 콘텐트 내에서의 제1 시각적 객체의 제1 위치와 유사하게 조절될 수 있다. 상기 제2 콘텐트를 획득하는 것에 응답하여, 전자 장치는 메모리 내에 상기 제2 콘텐트 내에서의 상기 제2 시각적 객체의 위치를 저장할 수 있다. 메모리 내에 저장된 상기 제2 콘텐트 내에서의 상기 제2 시각적 객체의 위치는, 제2 콘텐트 이후에 획득될 다른 콘텐트 내에서 피사체에 대응하는 시각적 객체의 위치를 결정하기 위해 전자 장치에 의하여 이용될 수 있다. 일 실시예에 따른 전자 장치는 제2 콘텐트를 획득하는 것에 응답하여, 상기 제2 콘텐트를, 적어도 하나의 외부 전자 장치로 송신하기 위한 UI(예, 도 6의 UI(610))를 표시할 수 있다. In response to receiving a photographing input (1170 - Yes), in operation 1180, the electronic device according to an embodiment may obtain second content by controlling a camera. After the position of the visual guide is adjusted based on operations 1120, 1130, and 1140, the position of the second visual object in the second content acquired by the electronic device independently of operation 1160 is, It may be adjusted similarly to the first position of the first visual object in the first content. In response to obtaining the second content, the electronic device may store the location of the second visual object within the second content in a memory. The position of the second visual object in the second content stored in memory may be used by the electronic device to determine the position of the visual object corresponding to the subject in other content to be obtained after the second content. . In response to acquiring the second content, the electronic device according to an embodiment may display a UI (eg, the UI 610 of FIG. 6 ) for transmitting the second content to at least one external electronic device. there is.
도 12는 일 실시예에 따른 전자 장치가, 하나 이상의 콘텐트들 및 하나 이상의 콘텐트들 각각에 대응하는 하나 이상의 정보들을, 외부 전자 장치로 업로드하는 동작을 설명하기 위한 흐름도이다. 도 12의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 12의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다. 도 12의 동작들 중 적어도 하나는, 도 8 내지 도 11의 동작들 중 적어도 하나(예, 동작들(840, 850))와 관련될 수 있다.12 is a flowchart illustrating an operation of an electronic device uploading one or more contents and one or more pieces of information corresponding to each of the one or more contents to an external electronic device according to an exemplary embodiment. The electronic device of FIG. 12 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 12 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 . At least one of the operations of FIG. 12 may be related to at least one of the operations of FIGS. 8 to 11 (eg, operations 840 and 850).
도 12를 참고하면, 동작(1210)에서, 일 실시예에 따른 전자 장치는 카메라를 제어하여, 하나 이상의 시각적 가이드들 각각에 기반하는 하나 이상의 콘텐트들을 획득할 수 있다. 예를 들어, 전자 장치는 도 1의 카메라(140)를 제어하여, 도 8의 동작(820) 및/또는 도 11의 동작들 중 적어도 하나에 기반하여 표시되고 있는 하나 이상의 시각적 가이드들 각각에 기반하는 하나 이상의 콘텐트들을 획득할 수 있다. 일 실시예에 따른 전자 장치는, 도 8의 동작(840) 및/또는 도 11의 동작(1180)과 유사하게, 전자 장치가 촬영 입력을 식별하는 것에 응답하여 동작(1210)을 수행할 수 있다.Referring to FIG. 12 , in operation 1210, the electronic device according to an embodiment controls a camera to obtain one or more contents based on one or more visual guides, respectively. For example, the electronic device controls the camera 140 of FIG. 1 , based on each of one or more visual guides being displayed based on at least one of operation 820 of FIG. 8 and/or operations of FIG. 11 . It is possible to obtain one or more contents that do. Similar to operation 840 of FIG. 8 and/or operation 1180 of FIG. 11 , the electronic device according to an embodiment may perform operation 1210 in response to the electronic device identifying a photographing input. .
도 12를 참고하면, 동작(1220)에서, 일 실시예에 따른 전자 장치는, 상이한 일부분들에 동작(1210)에 기반하여 획득된 하나 이상의 콘텐트들이 표시되는, 사용자 인터페이스를 표시할 수 있다. 동작(1220)의 사용자 인터페이스는 도 6의 UI(610)를 포함할 수 있다. 예를 들어, 전자 장치는 사용자 인터페이스의 일부분들(예, 도 6의 일부분들(630, 640, 650)) 각각에, 동작(1210)에 기반하여 획득된 하나 이상의 콘텐트들을 표시할 수 있다.Referring to FIG. 12 , in operation 1220, the electronic device according to an embodiment may display a user interface in which one or more contents obtained based on operation 1210 are displayed on different parts. The user interface of operation 1220 may include the UI 610 of FIG. 6 . For example, the electronic device may display one or more contents acquired based on the operation 1210 on each of the parts of the user interface (eg, the parts 630 , 640 , and 650 of FIG. 6 ).
도 12를 참고하면, 동작(1230)에서, 일 실시예에 따른 전자 장치는 상이한 일부분들 각각을 통해, 대응하는 콘텐트와 함께 업로드될 정보를 획득할 수 있다. 상기 정보의 타입은, 상기 콘텐트와 관련된 메타 데이터에 의하여 결정될 수 있다. 상기 정보는, 상기 콘텐트에 대응하는 계정 정보, 상기 콘텐트와 관련된 게시물의 제목, 본문 또는 상기 콘텐트와 관련된 데이터(예, 콘텐트를 획득한 지리적 위치, 콘텐트의 크기, 해상도 및/또는 종횡비) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 12 , in operation 1230, the electronic device according to an embodiment may obtain information to be uploaded together with corresponding content through different portions, respectively. The type of information may be determined by meta data related to the content. The information may include at least one of account information corresponding to the content, title and body of a post related to the content, or data related to the content (eg, geographical location where the content was obtained, size, resolution and/or aspect ratio of the content) can include
도 12를 참고하면, 동작(1240)에서, 일 실시예에 따른 전자 장치는 동작(1220)의 사용자 인터페이스 내 지정된 시각적 객체에 대한 사용자 입력을 수신하였는지 여부를 판단할 수 있다. 상기 시각적 객체는, 도 6의 버튼(620)과 같이, 사용자 인터페이스 내에 표시되고 있는 하나 이상의 콘텐트들 및 상기 하나 이상의 콘텐트들 각각에 대응하는 정보를, 상기 하나 이상의 콘텐트들 각각에 대응하는 하나 이상의 외부 전자 장치들로 업로드하기 위한 지정된 시각적 객체에 대응할 수 있다. 상기 사용자 입력을 수신하기 이전에(1240-아니오), 전자 장치는 동작(1230)에 기반하여 사용자 인터페이스를 표시하는 것 및/또는 동작(1230)의 정보를 획득하는 것을 유지할 수 있다.Referring to FIG. 12 , in operation 1240, the electronic device according to an embodiment may determine whether a user input for a designated visual object in the user interface is received in operation 1220. The visual object, such as the button 620 of FIG. 6 , transmits one or more contents displayed in a user interface and information corresponding to each of the one or more contents to one or more external contents corresponding to each of the one or more contents. It may correspond to a designated visual object for uploading to electronic devices. Before receiving the user input (1240-No), the electronic device may continue to display the user interface and/or obtain information of the operation 1230 based on operation 1230.
동작(1240)의 사용자 입력을 수신하는 것에 응답하여(1240-예), 동작(1250)에서, 일 실시예에 따른 전자 장치는 하나 이상의 콘텐트들을, 대응하는 어플리케이션을 통하여 외부 전자 장치로 업로드할 수 있다. 예를 들어, 도 6의 체크 박스들(634, 644, 654) 중 활성화된 적어도 하나의 체크 박스에 대응하는 적어도 하나의 콘텐트 및 상기 적어도 하나의 콘텐트에 대응하는 정보가, 전자 장치에 의하여 상기 적어도 하나 콘텐트에 대응하는 적어도 하나의 외부 전자 장치로 업로드될 수 있다.In response to receiving the user input of operation 1240 (1240-yes), in operation 1250, the electronic device according to an embodiment may upload one or more contents to an external electronic device through a corresponding application. there is. For example, at least one content corresponding to at least one activated check box among the check boxes 634, 644, and 654 of FIG. It may be uploaded to at least one external electronic device corresponding to one content.
일 실시예에 따른 전자 장치는 동작(1250)에 기반하여 콘텐트를 업로드하기 이전에, 동작(1210)에 기반하여 획득된 하나 이상의 콘텐트들을, 전자 장치 내에 임시 파일로써 저장할 수 있다. 동작(1250)에 기반하여 하나 이상의 콘텐트들의 업로드를 수행하는 것에 응답하여, 전자 장치는 하나 이상의 외부 전자 장치들로 업로드되는 상기 하나 이상의 콘텐트들을, 전자 장치 내에 상기 임시 파일과 구별되는 다른 파일로 저장할 수 있다. 동작(1210)에 기반하여 획득된 하나 이상의 콘텐트들 중에서, 동작(1250)에 기반하여 외부 전자 장치로 업로드되지 않는 콘텐트는, 임시 파일로 저장되거나, 및/또는 전자 장치로부터 제거될 수 있다.Before uploading the content based on operation 1250, the electronic device according to an embodiment may store one or more contents obtained based on operation 1210 as temporary files in the electronic device. In response to uploading one or more contents based on operation 1250, the electronic device stores the one or more contents uploaded to one or more external electronic devices as another file distinct from the temporary file in the electronic device. can Among the one or more contents acquired based on operation 1210 , content that is not uploaded to an external electronic device based on operation 1250 may be stored as a temporary file and/or removed from the electronic device.
도 13은 일 실시예에 따른 전자 장치가, 프리뷰 이미지의 종횡비를 변경하는 동작을 설명하기 위한 흐름도이다. 도 13의 전자 장치는 도 1 내지 도 6 및/또는 도 7a 내지 7b의 전자 장치(101)의 일 예에 대응할 수 있다. 도 13의 동작들 중 적어도 하나는, 예를 들어, 도 1의 전자 장치(101) 및/또는 도 1의 프로세서(110)에 의해 수행될 수 있다. 도 13의 동작들 중 적어도 하나는, 도 8 내지 도 11의 동작들 중 적어도 하나와 관련될 수 있다.13 is a flowchart illustrating an operation of changing an aspect ratio of a preview image by an electronic device according to an exemplary embodiment. The electronic device of FIG. 13 may correspond to an example of the electronic device 101 of FIGS. 1 to 6 and/or 7a to 7b. At least one of the operations of FIG. 13 may be performed by, for example, the electronic device 101 of FIG. 1 and/or the processor 110 of FIG. 1 . At least one of the operations of FIG. 13 may be related to at least one of the operations of FIGS. 8 to 11 .
도 13을 참고하면, 동작(1310)에서, 일 실시예에 따른 전자 장치는 셔터에 중첩되어 표시되고 있는 시각적 객체에 대응하는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 기반하여, 프리뷰 이미지를 표시할 수 있다. 일 실시예에 따른 전자 장치는, 예를 들어, 도 7a 내지 7b와 같이, 셔터(260) 상에 상기 시각적 객체를 중첩하여 표시할 수 있다. 상기 시각적 객체는, 예를 들어, 전자 장치에 설치된 복수의 어플리케이션들 중 한 어플리케이션의 아이콘에 대응할 수 있다. 상기 종횡비는, 상기 시각적 객체에 의해 지시되는 특정 어플리케이션 및/또는 상기 특정 어플리케이션과 관련된 외부 전자 장치로부터 획득된 메타 데이터에 의해 지시될 수 있다. 전자 장치가 동작(1310)에 기반하여 표시하는 프리뷰 이미지는, 예를 들어, 도 7a 내지 7b의 프리뷰 이미지들(720, 730) 중 적어도 하나에 대응할 수 있다.Referring to FIG. 13 , in operation 1310, the electronic device according to an embodiment may display a preview image based on an aspect ratio of content to be uploaded through an application corresponding to a displayed visual object overlapping a shutter. there is. The electronic device according to an embodiment may overlap and display the visual object on the shutter 260 as shown in FIGS. 7A to 7B . The visual object may correspond to, for example, an icon of one application among a plurality of applications installed in the electronic device. The aspect ratio may be indicated by a specific application indicated by the visual object and/or metadata acquired from an external electronic device related to the specific application. A preview image displayed by the electronic device based on operation 1310 may correspond to, for example, at least one of the preview images 720 and 730 of FIGS. 7A to 7B .
도 13을 참고하면, 동작(1320)에서, 일 실시예에 따른 전자 장치는 동작(1310)의 셔터 상에서 수행되고, 촬영 입력과 구별되는 사용자 입력을 수신하였는지 여부를 판단할 수 있다. 상기 사용자 입력은, 셔터에 대응하는 디스플레이의 일부분 내에서 시작되고, 상기 일부분과 구별되는 다른 일부분으로 향하는 스와이프 제스쳐 및/또는 드래그 제스쳐를 포함할 수 있다. 동작(1320)에 기반하여 사용자 입력을 수신하는 것에 응답하여, 동작(1330)에서, 일 실시예에 따른 전자 장치는 동작(1310)의 시각적 객체와 구별되는 다른 시각적 객체를 셔터에 중첩하여 표시할 수 있다. 상기 셔터 상에 상기 다른 시각적 객체를 중첩하여 표시함에 따라, 전자 장치는 상기 셔터 상에 동작(1310)의 시각적 객체를 중첩하여 표시하는 것을 중지할 수 있다. 상기 셔터 상에 상기 다른 시각적 객체를 중첩하여 표시하기 이전에, 전자 장치는 상기 셔터에 의해 구별되는 디스플레이의 일부분 내에서, 상기 시각적 객체로부터 상기 다른 시각적 객체로 스위칭되는 애니메이션을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 사용자 입력에 의해 지시되는 방향(예, 드래그 제스쳐의 궤적에 대응하는 방향)을 따라 상기 일부분의 외부로 상기 시각적 객체를 이동하고, 상기 방향을 따라 상기 일부분의 내부로 상기 다른 시각적 객체를 이동할 수 있다.Referring to FIG. 13 , in operation 1320, the electronic device according to an embodiment may perform operation 1310 on the shutter and determine whether a user input distinct from a photographing input is received. The user input may include a swipe gesture and/or a drag gesture initiated within a portion of the display corresponding to the shutter and directed to another portion distinct from the portion. In response to receiving the user input based on operation 1320, in operation 1330, the electronic device according to an embodiment displays another visual object distinct from the visual object of operation 1310 by overlapping the shutter. can As the other visual object is overlapped and displayed on the shutter, the electronic device may stop overlapping and displaying the visual object of operation 1310 on the shutter. Before overlapping and displaying the other visual object on the shutter, the electronic device may display an animation switching from the visual object to the other visual object within a part of the display distinguished by the shutter. For example, the electronic device moves the visual object to the outside of the portion along a direction indicated by the user input (eg, a direction corresponding to a trajectory of a drag gesture), and moves the visual object to the inside of the portion along the direction. The other visual object can be moved with .
도 13을 참고하면, 동작(1340)에서, 일 실시예에 따른 전자 장치는 동작(1330)의 다른 시각적 객체에 대응하는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 기반하여, 프리뷰 이미지의 표시를 변경할 수 있다. 동작(1340)의 종횡비는, 동작(1310)의 종횡비와 독립적으로, 상기 다른 시각적 객체에 의해 지시되는 다른 어플리케이션 및/또는 상기 다른 어플리케이션과 관련된 외부 전자 장치로부터 획득된 메타 데이터에 의하여 결정될 수 있다. 전자 장치가 동작들(1320, 1330, 1340)에 기반하여 수행하는 동작은 도 7a 내지 7b의 상태들(700, 705) 사이를 스위칭하는 동작을 포함할 수 있다. 전자 장치가 동작들(1330, 1340)을 수행하는 순서는, 도 13의 일 실시예에 제한되지 않으며, 예를 들어, 전자 장치는 동작들(1330, 1340)을 실질적으로 동시에 수행할 수 있다.Referring to FIG. 13 , in operation 1340, the electronic device according to an embodiment may change the display of a preview image based on the aspect ratio of content to be uploaded through an application corresponding to another visual object in operation 1330. there is. The aspect ratio of operation 1340 may be determined independently of the aspect ratio of operation 1310 by other applications indicated by the other visual object and/or metadata obtained from an external electronic device related to the other application. An operation performed by the electronic device based on the operations 1320, 1330, and 1340 may include an operation of switching between the states 700 and 705 of FIGS. 7A and 7B. The order in which the electronic device performs the operations 1330 and 1340 is not limited to the embodiment of FIG. 13 , and for example, the electronic device may perform the operations 1330 and 1340 substantially simultaneously.
동작(1320)의 사용자 입력에 기반하여 동작들(1330, 1340)을 수행한 이후, 또는 동작(1320)의 사용자 입력을 수신하기 이전에(1320-아니오), 동작(1350)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 상기 촬영 입력은, 동작(1320)의 사용자 입력과 구별되는 제스쳐(예, 셔터 상에서 수행되는 탭 제스쳐)를 포함할 수 있다. 촬영 입력을 수신하기 이전에(1350-아니오), 전자 장치는 동작들(1310, 1320, 1330, 1340) 중 적어도 하나를 수행하는 것을 유지할 수 있다. After performing actions 1330 and 1340 based on the user input of action 1320, or prior to receiving the user input of action 1320 (1320-no), in action 1350, one embodiment The electronic device according to may determine whether or not a photographing input has been received. The photographing input may include a gesture (eg, a tap gesture performed on a shutter) distinct from the user input of operation 1320 . Before receiving a photographing input (1350 - No), the electronic device may continue to perform at least one of operations 1310, 1320, 1330, and 1340.
촬영 입력을 수신하는 것에 응답하여(1350-예), 동작(1360)에서, 일 실시예에 따른 전자 장치는 카메라를 제어하여, 셔터에 중첩하여 표시되고 있는 시각적 객체에 대응하는 종횡비를 가지는 콘텐트를 획득할 수 있다. 예를 들어, 전자 장치는 카메라로부터 획득되는 복수의 이미지들 중 적어도 하나에 기반하여, 동작들(1320, 1330, 1340)에 의해 변경된 종횡비를 가지는 프리뷰 이미지의 전체 영역에 대응하는 콘텐트를 획득할 수 있다. 상기 콘텐트를 획득하는 것에 응답하여, 전자 장치는 상기 시각적 객체에 의해 지시되는 어플리케이션을 이용하여, 획득된 콘텐트를 업로드할 수 있다. 예를 들어, 상기 콘텐트를 획득하는 것에 응답하여, 전자 장치는 상기 어플리케이션과 관련된 외부 전자 장치로 획득된 콘텐트를 송신할 수 있다. 상기 콘텐트를 송신하기 이전에, 전자 장치는 사용자로부터 상기 콘텐트와 함께 외부 전자 장치로 송신할 정보를 획득할 수 있다. 상기 정보는, 예를 들어, 도 6의 UI(610)에 기반하여, 사용자로부터 수신될 수 있다.In response to receiving the photographing input (1350-yes), in operation 1360, the electronic device according to an embodiment controls the camera to overlap the shutter to display content having an aspect ratio corresponding to the displayed visual object. can be obtained For example, the electronic device may acquire content corresponding to the entire area of the preview image having the aspect ratio changed by the operations 1320, 1330, and 1340, based on at least one of a plurality of images acquired from the camera. there is. In response to obtaining the content, the electronic device may upload the obtained content using an application indicated by the visual object. For example, in response to acquiring the content, the electronic device may transmit the acquired content to an external electronic device related to the application. Before transmitting the content, the electronic device may obtain information to be transmitted to the external electronic device together with the content from the user. The information may be received from the user, for example, based on the UI 610 of FIG. 6 .
사용자가 복수의 외부 전자 장치들 각각에 대응하는 상이한 웹 서비스들을 통해 콘텐트를 공유하기 위한 방안이 요구될 수 있다. 사용자가 상기 웹 서비스들을 통해 공유할 콘텐트들을, 상기 웹 서비스들 각각에 의해 요구되는 규격에 기반하여 생성하기 위한 방안이 요구될 수 있다.A method for a user to share content through different web services corresponding to each of a plurality of external electronic devices may be required. A method for generating contents to be shared by users through the web services based on standards required by each of the web services may be required.
상술한 바와 같은, 일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 카메라, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하도록, 구성될 수 있다. 일 실시예에 따른 전자 장치는, 단일 촬영 입력만으로, 상이한 웹 서비스들에 업로드될 복수의 콘텐트들을 획득할 수 있다. 일 실시예에 따른 전자 장치는 상기 복수의 콘텐트들을, 상기 웹 서비스들 각각에 의해 제공된 규격에 기반하여 생성할 수 있다.As described above, an electronic device according to an embodiment may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory. there is. The processor may be configured to, upon executing the one or more instructions, display a preview image within a user interface of a camera application based on at least a portion of a plurality of images received from the camera. When the processor executes the one or more instructions, while displaying the preview image in the user interface, the processor generates visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, while displaying the preview image in the user interface. It can be configured to display within the user interface. The processor, upon executing the one or more instructions, in response to receiving a user input for one of the visual objects, provides content to be uploaded through an application represented by a visual object related to the user input. It may be configured to superimpose and display a visual guide based on at least an aspect ratio of the preview image. An electronic device according to an embodiment may acquire a plurality of contents to be uploaded to different web services with only a single photographing input. The electronic device according to an embodiment may generate the plurality of contents based on standards provided by each of the web services.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 제1 종횡비(aspect ratio)를 가지는 상기 프리뷰 이미지를 표시하는 동안, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 제1 종횡비와 구별되는 제2 종횡비에 기반하여 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트를 나타내는 상기 시각적 가이드를 표시할 수 있다. For example, the processor, upon executing the one or more instructions, may, in response to receiving the user input while displaying the preview image having a first aspect ratio, differentiate from the first aspect ratio. Based on the second aspect ratio, the visual guide indicating the content to be uploaded through the application represented by the visual object may be displayed.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 시각적 객체들 중 하나의 시각적 객체에 대한 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트의 타입을 식별하고, 상기 콘텐트의 상기 타입을 식별하는 것에 응답하여, 상기 시각적 객체들 중에서, 상기 식별된 타입과 구별되는 다른 타입의 콘텐트를 요구하는 하나 이상의 어플리케이션에 대응하는, 하나 이상의 시각적 객체들을 표시하는 것을 적어도 일시적으로 중단할 수 있다(cease at least temporarily).For example, the processor, upon executing the one or more instructions, in response to receiving the user input for one of the visual objects, uploads through the application represented by the visual object. one or more applications that identify the type of content to be and, in response to identifying the type of content, correspond to one or more applications requesting, among the visual objects, content of a different type that is distinct from the identified type; It is possible to at least temporarily stop displaying visual objects (cease at least temporarily).
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션에 대응하는 색상을 가지는 상기 시각적 가이드를 표시할 수 있다. For example, when executing the one or more instructions, the processor may display the visual guide having a color corresponding to the application represented by the visual object in response to receiving the user input. .
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 어플리케이션을 나타내는 아이콘에 포함된 복수의 픽셀들 각각의 색상들의 분포에 기반하여, 상기 시각적 가이드의 색상을 획득할 수 있다. For example, when executing the one or more instructions, the processor may obtain the color of the visual guide based on a color distribution of each of a plurality of pixels included in an icon representing the application.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 프리뷰 이미지 상에 상기 시각적 가이드를 중첩하여 표시하는 동안, 상기 시각적 객체들 중 상기 사용자 입력에 대응하는 시각적 객체와 구별되는 다른 시각적 객체에 대한 다른 사용자 입력을 수신하는 것에 응답하여, 상기 다른 시각적 객체에 의해 나타내어지는 다른 어플리케이션을 통해 업로드될 다른 콘텐트의 종횡비(an aspect ratio)에 적어도 기반하는 다른 시각적 가이드를, 상기 시각적 가이드와 함께 상기 프리뷰 이미지 상에 중첩하여 표시할 수 있다. For example, while executing the one or more instructions, the processor overlaps and displays the visual guide on the preview image, while displaying another visual object corresponding to the user input among the visual objects. In response to receiving another user input for an object, together with the visual guide, another visual guide based at least on an aspect ratio of other content to be uploaded through another application represented by the other visual object. It can be displayed superimposed on the preview image.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 시각적 가이드 및 상기 다른 시각적 가이드를 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라를 제어하여 상기 시각적 가이드 및 상기 다른 시각적 가이드 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득하고, 및 상기 복수의 콘텐트들을 획득하는 것에 응답하여, 상이한 일부분들에 상기 복수의 콘텐트들 각각에 대한 텍스트들을 수신하기 위한 시각적 객체들이 표시된 다른 사용자 인터페이스를 표시할 수 있다. For example, the processor, upon executing the one or more instructions, in response to receiving a shooting input to the camera while displaying the visual guide and the other visual guide, the processor may: to obtain a plurality of contents having aspect ratios corresponding to each of the visual guide and the other visual guide, and in response to obtaining the plurality of contents, text for each of the plurality of contents in different portions. Other user interfaces displaying visual objects for receiving them may be displayed.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라의 FOV(Field-of-View) 내에 포함된 피사체를 식별하고, 및 상기 피사체를 식별한 상태에서, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 프리뷰 이미지 내에서 상기 식별된 피사체의 위치에 적어도 기반하여, 상기 시각적 가이드를 표시할 수 있다. For example, the processor, when executing the one or more instructions, identifies a subject included in a field-of-view (FOV) of the camera while displaying the preview image in the user interface, and In a state in which the subject is identified, in response to receiving the user input, the visual guide may be displayed based on at least a location of the identified subject within the preview image.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 사용자 입력을 수신하기 이전에 획득된 다른 콘텐트 내에서의 다른 피사체의 위치에 적어도 기반하여, 상기 프리뷰 이미지 내에 상기 시각적 가이드를 표시할 수 있다. For example, the processor, when executing the one or more instructions, displays the visual guide in the preview image based on at least a location of another subject in other content obtained before receiving the user input. can do.
일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하는 동작을 포함할 수 있다. 상기 방법은, 및 상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 포함할 수 있다. A method of an electronic device according to an embodiment may include an operation of displaying a preview image in a user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device. The method includes an operation of displaying visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, in the user interface while displaying the preview image in the user interface. can include The method comprises: and, in response to receiving a user input for one of the visual objects, a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by a visual object associated with the user input. may include an operation of overlapping and displaying , on the preview image.
예를 들어, 상기 시각적 가이드를 표시하는 동작은, 제1 종횡비(aspect ratio)를 가지는 상기 프리뷰 이미지를 표시하는 동안, 상기 사용자 입력을 수신하는 것에 응답하여 상기 제1 종횡비와 구별되는 제2 종횡비에 기반하여 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트를 나타내는 상기 시각적 가이드를 표시하는 동작을 더 포함할 수 있다. For example, the operation of displaying the visual guide may include displaying the preview image having a first aspect ratio in response to receiving the user input at a second aspect ratio distinct from the first aspect ratio. Based on this, the method may further include displaying the visual guide indicating the content to be uploaded through the application represented by the visual object.
예를 들어, 전자 장치의 방법은, 상기 시각적 객체들 중 하나의 시각적 객체에 대한 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트의 타입을 식별하는 동작, 및 상기 콘텐트의 상기 타입을 식별하는 것에 응답하여, 상기 시각적 객체들 중에서, 상기 식별된 타입과 구별되는 다른 타입의 콘텐트를 요구하는 하나 이상의 어플리케이션에 대응하는, 하나 이상의 시각적 객체들을 표시하는 것을 적어도 일시적으로 중단하는 동작(ceasing at least temporarily)을 더 포함할 수 있다. For example, the method of the electronic device may, in response to receiving the user input for one of the visual objects, identify the type of content to be uploaded through the application represented by the visual object. and, in response to identifying the type of content, displaying one or more visual objects, among the visual objects, corresponding to one or more applications requesting content of a different type distinct from the identified type. It may further include ceasing at least temporarily.
예를 들어, 상기 전자 장치의 방법은, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션에 대응하는 색상을 가지는 상기 시각적 가이드를 표시하는 동작을 더 포함할 수 있다. For example, the method of the electronic device may further include displaying the visual guide having a color corresponding to the application indicated by the visual object in response to receiving the user input.
예를 들어, 상기 전자 장치의 방법은, 상기 프리뷰 이미지 상에 상기 시각적 가이드를 중첩하여 표시하는 동안, 상기 시각적 객체들 중 상기 사용자 입력에 대응하는 시각적 객체와 구별되는 다른 시각적 객체에 대한 다른 사용자 입력을 수신하는 것에 응답하여, 상기 다른 시각적 객체에 의해 나타내어지는 다른 어플리케이션을 통해 업로드될 다른 콘텐트의 종횡비(an aspect ratio)에 적어도 기반하는 다른 시각적 가이드를, 상기 시각적 가이드와 함께 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 더 포함할 수 있다. For example, the method of the electronic device may, while overlapping and displaying the visual guide on the preview image, another user input for another visual object that is distinguished from a visual object corresponding to the user input among the visual objects. In response to receiving, overlay another visual guide on the preview image with the visual guide, based at least on an aspect ratio of other content to be uploaded through another application represented by the other visual object. It may further include an operation of displaying by doing so.
예를 들어, 상기 전자 장치의 방법은, 상기 시각적 가이드 및 상기 다른 시각적 가이드를 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라를 제어하여 상기 시각적 가이드 및 상기 다른 시각적 가이드 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득하는 동작, 및 상기 복수의 콘텐트들을 획득하는 것에 응답하여, 상이한 일부분들에 상기 복수의 콘텐트들 각각에 대한 텍스트들을 수신하기 위한 시각적 객체들이 표시된 다른 사용자 인터페이스를 표시하는 동작을 더 포함할 수 있다. For example, the method of the electronic device may, in response to receiving a shooting input for the camera while displaying the visual guide and the other visual guide, control the camera to provide the visual guide. and obtaining a plurality of contents having aspect ratios corresponding to each of the other visual guides, and in response to acquiring the plurality of contents, visual instructions for receiving texts for each of the plurality of contents in different portions. An operation of displaying another user interface in which objects are displayed may be further included.
일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 카메라, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 제1 사용자 인터페이스 내에서 프리뷰 이미지를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 프리뷰 이미지 상에 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라로부터 수신되는 복수의 이미지들 중 적어도 하나에 기반하여, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 하나 이상의 콘텐트들을 획득하는 것에 응답하여, 상기 하나 이상의 외부 전자 장치들로 상기 획득된 하나 이상의 콘텐트들을 업로드하기 위한 제2 사용자 인터페이스를 표시하도록, 구성될 수 있다. An electronic device according to an embodiment may include a display, a camera, a memory storing one or more instructions, and a processor operatively coupled to the display, the camera, and the memory. The processor, upon executing the one or more instructions, may be configured to display a preview image within a first user interface of a camera application based on at least a portion of a plurality of images received from the camera. When executing the one or more instructions, the processor superimposes one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. It can be configured so that it can be displayed. The processor, upon executing the one or more instructions, in response to receiving a shooting input to the camera while displaying the one or more visual guides superimposed on the preview image, the camera It may be configured to acquire one or more contents corresponding to each of the one or more visual guides, based on at least one of a plurality of images received from. The processor, when executing the one or more instructions, displays a second user interface for uploading the one or more acquired contents to the one or more external electronic devices in response to obtaining the one or more contents, can be configured.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 사용자 인터페이스의 지정된 일부분 내에, 상기 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 객체들을 표시하고, 및 상기 하나 이상의 시각적 객체들 중 하나를 선택하기 위한 하나 이상의 사용자 입력들을 수신하는 것에 응답하여, 상기 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시할 수 있다. For example, when executing the one or more instructions, the processor may, while displaying the preview image in the first user interface, each of the one or more external electronic devices in a designated part of the first user interface. One or more visual objects corresponding to are displayed, and in response to receiving one or more user inputs for selecting one of the one or more visual objects, the one or more visual guides are overlapped and displayed on the preview image. can do.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 카메라 어플리케이션이 실행된 상태에서, 상기 메모리 내에서, 상기 카메라 어플리케이션과 구별되는 하나 이상의 어플리케이션들 각각과 관련된 하나 이상의 외부 전자 장치들로부터 수신된 메타 데이터를 식별하고, 및 상기 식별된 메타 데이터에 기반하여, 상기 하나 이상의 시각적 가이드들의 해상도, 종횡비 또는 색상 중 적어도 하나를 획득할 수 있다. For example, the processor may, when executing the one or more instructions, in a state in which the camera application is executed, in the memory, one or more external electronic devices associated with one or more applications distinct from the camera application. Meta data received from may be identified, and at least one of resolution, aspect ratio, or color of the one or more visual guides may be obtained based on the identified meta data.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상이한 종횡비들을 가지는 복수의 시각적 가이드들을 표시하는 상태에서, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 시각적 가이드들 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득하고, 및 상기 복수의 콘텐트들을 획득하는 것에 응답하여, 상기 복수의 콘텐트들 중 제1 콘텐트에 대응하는 제1 정보를 획득하기 위한 제1 일부분, 및 상기 복수의 콘텐트들 중 제2 콘텐트에 대응하는 제2 정보를 획득하기 위한 제2 일부분을 포함하는 상기 제2 사용자 인터페이스를 표시할 수 있다. For example, the processor, when executing the one or more instructions, displays a plurality of visual guides having different aspect ratios, and responds to each of the plurality of visual guides in response to receiving the photographing input. A first portion for obtaining a plurality of contents having aspect ratios of the plurality of contents, and in response to obtaining the plurality of contents, obtaining first information corresponding to a first content among the plurality of contents, and the plurality of contents. The second user interface including a second part for acquiring second information corresponding to second content among contents may be displayed.
예를 들어, 상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에, 상기 제2 사용자 인터페이스 내에 포함된 지정된 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 콘텐트에 대응하는 제1 외부 전자 장치로, 상기 제1 정보 및 상기 제1 콘텐트를 송신하고, 상기 제2 콘텐트에 대응하는 제2 외부 전자 장치로, 상기 제2 정보 및 상기 제2 콘텐트를 송신할 수 있다. For example, the processor, when executing the one or more instructions, in response to receiving a user input for a designated visual object included in the second user interface, the first external electronic device corresponding to the first content The device may transmit the first information and the first content, and may transmit the second information and the second content to a second external electronic device corresponding to the second content.
일 실시예에 따른 전자 장치의 방법은, 전자 장치의 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 제1 사용자 인터페이스 내에서 프리뷰 이미지를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 하나 이상의 외부 전자 장치들 각각에 대응하는 하나 이상의 시각적 가이드들을, 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 프리뷰 이미지 상에 상기 하나 이상의 시각적 가이드들을 중첩하여 표시하는 동안, 상기 카메라에 대한 촬영 입력을 수신하는 것에 응답하여, 상기 카메라로부터 수신되는 복수의 이미지들 중 적어도 하나에 기반하여, 상기 하나 이상의 시각적 가이드들 각각에 대응하는 하나 이상의 콘텐트들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 및 상기 하나 이상의 콘텐트들을 획득하는 것에 응답하여, 상기 하나 이상의 외부 전자 장치들로 상기 획득된 하나 이상의 콘텐트들을 업로드하기 위한 제2 사용자 인터페이스를 표시하는 동작을 포함할 수 있다.A method of an electronic device according to an embodiment may include an operation of displaying a preview image in a first user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device. The method may include an operation of overlapping and displaying one or more visual guides corresponding to one or more external electronic devices on the preview image while displaying the preview image in the first user interface. . In the method, in response to receiving a shooting input for the camera while displaying the one or more visual guides superimposed on the preview image, based on at least one of a plurality of images received from the camera, An operation of acquiring one or more contents corresponding to each of the one or more visual guides may be included. The method may include an operation of displaying a second user interface for uploading the one or more acquired contents to the one or more external electronic devices in response to obtaining the one or more contents.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable PLU (programmable logic unit). logic unit), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. there is. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. In this case, the medium may continuously store a program executable by a computer or temporarily store the program for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (15)

  1. 전자 장치(electronic device)에 있어서,In an electronic device,
    디스플레이;display;
    카메라;camera;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및a memory that stores one or more instructions; and
    상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고,a processor operatively coupled with the display, the camera, and the memory;
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하고,Based on at least a portion of the plurality of images received from the camera, display a preview image within a user interface of a camera application;
    상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하고;while displaying the preview image in the user interface, display visual objects in the user interface that are distinct from the camera application and represent each of a plurality of applications requesting an image upload;
    상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하는 전자 장치.In response to receiving a user input for one of the visual objects, a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by the visual object related to the user input, the preview image An electronic device that is superimposed on a display.
  2. 제1항에 있어서,According to claim 1,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    제1 종횡비(aspect ratio)를 가지는 상기 프리뷰 이미지를 표시하는 동안, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 제1 종횡비와 구별되는 제2 종횡비에 기반하여 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트를 나타내는 상기 시각적 가이드를 표시하는 전자 장치.In response to receiving the user input while displaying the preview image having a first aspect ratio, the application represented by the visual object based on a second aspect ratio distinct from the first aspect ratio is opened. An electronic device that displays the visual guide indicating the content to be uploaded through.
  3. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 시각적 객체들 중 하나의 시각적 객체에 대한 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트의 타입을 식별하고;in response to receiving the user input for one of the visual objects, identify the type of content to be uploaded through the application represented by the visual object;
    상기 콘텐트의 상기 타입을 식별하는 것에 응답하여, 상기 시각적 객체들 중에서, 상기 식별된 타입과 구별되는 다른 타입의 콘텐트를 요구하는 하나 이상의 어플리케이션에 대응하는, 하나 이상의 시각적 객체들을 표시하는 것을 적어도 일시적으로 중단하는(cease at least temporarily) 전자 장치.In response to identifying the type of content, at least temporarily displaying, among the visual objects, one or more visual objects corresponding to one or more applications requesting content of a different type distinct from the identified type. An electronic device that ceases at least temporarily.
  4. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션에 대응하는 색상을 가지는 상기 시각적 가이드를 표시하는 전자 장치.An electronic device displaying the visual guide having a color corresponding to the application represented by the visual object in response to receiving the user input.
  5. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 어플리케이션을 나타내는 아이콘에 포함된 복수의 픽셀들 각각의 색상들의 분포에 기반하여, 상기 시각적 가이드의 색상을 획득하는 전자 장치.An electronic device that obtains the color of the visual guide based on a distribution of colors of each of a plurality of pixels included in the icon representing the application.
  6. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 프리뷰 이미지 상에 상기 시각적 가이드를 중첩하여 표시하는 동안, 상기 시각적 객체들 중 상기 사용자 입력에 대응하는 시각적 객체와 구별되는 다른 시각적 객체에 대한 다른 사용자 입력을 수신하는 것에 응답하여, 상기 다른 시각적 객체에 의해 나타내어지는 다른 어플리케이션을 통해 업로드될 다른 콘텐트의 종횡비(an aspect ratio)에 적어도 기반하는 다른 시각적 가이드를, 상기 시각적 가이드와 함께 상기 프리뷰 이미지 상에 중첩하여 표시하는 전자 장치.While displaying the visual guide superimposed on the preview image, in response to receiving another user input for another visual object that is distinct from the visual object corresponding to the user input among the visual objects, the other visual object An electronic device that displays another visual guide based at least on an aspect ratio of other content to be uploaded through another application indicated by the visual guide, superimposed on the preview image.
  7. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 시각적 가이드 및 상기 다른 시각적 가이드를 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라를 제어하여 상기 시각적 가이드 및 상기 다른 시각적 가이드 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득하고; 및While displaying the visual guide and the other visual guide, in response to receiving a shooting input to the camera, the camera is controlled to set aspect ratios corresponding to each of the visual guide and the other visual guide. obtain a plurality of contents having; and
    상기 복수의 콘텐트들을 획득하는 것에 응답하여, 상이한 일부분들에 상기 복수의 콘텐트들 각각에 대한 텍스트들을 수신하기 위한 시각적 객체들이 표시된 다른 사용자 인터페이스를 표시하는 전자 장치.In response to acquiring the plurality of contents, the electronic device displays another user interface in which visual objects for receiving texts for each of the plurality of contents are displayed in different portions.
  8. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라의 FOV(Field-of-View) 내에 포함된 피사체를 식별하고; 및identifying a subject included in a field-of-view (FOV) of the camera while displaying the preview image within the user interface; and
    상기 피사체를 식별한 상태에서, 상기 사용자 입력을 수신하는 것에 응답하여, 상기 프리뷰 이미지 내에서 상기 식별된 피사체의 위치에 적어도 기반하여, 상기 시각적 가이드를 표시하는 전자 장치.In response to receiving the user input in a state in which the subject is identified, the electronic device displays the visual guide based at least on the location of the identified subject within the preview image.
  9. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행할 시에,The processor, upon executing the one or more instructions,
    상기 사용자 입력을 수신하기 이전에 획득된 다른 콘텐트 내에서의 다른 피사체의 위치에 적어도 기반하여, 상기 프리뷰 이미지 내에 상기 시각적 가이드를 표시하는 전자 장치.An electronic device that displays the visual guide in the preview image, based at least on a position of another subject in other content obtained before receiving the user input.
  10. 전자 장치의 방법에 있어서,In the method of electronic device,
    상기 전자 장치의 카메라로부터 수신되는 복수의 이미지들의 적어도 일부분에 기반하여, 카메라 어플리케이션의 사용자 인터페이스 내에서 프리뷰 이미지를 표시하는 동작;displaying a preview image in a user interface of a camera application based on at least a portion of a plurality of images received from a camera of the electronic device;
    상기 사용자 인터페이스 내에서 상기 프리뷰 이미지를 표시하는 동안, 상기 카메라 어플리케이션과 구별되고, 이미지의 업로드를 요구하는, 복수의 어플리케이션들 각각을 나타내는 시각적 객체들을 상기 사용자 인터페이스 내에서 표시하는 동작; 및while displaying the preview image in the user interface, displaying visual objects representing each of a plurality of applications, which are distinguished from the camera application and request upload of an image, in the user interface; and
    상기 시각적 객체들 중 하나의 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 사용자 입력과 관련된 시각적 객체에 의해 나타내어지는 어플리케이션을 통해 업로드될 콘텐트의 종횡비에 적어도 기반하는 시각적 가이드를, 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 포함하는 방법.In response to receiving a user input for one of the visual objects, a visual guide based at least on an aspect ratio of content to be uploaded through an application represented by the visual object related to the user input, the preview image A method including an operation of overlapping and displaying a picture.
  11. 제10항에 있어서,According to claim 10,
    상기 시각적 가이드를 표시하는 동작은,The operation of displaying the visual guide,
    제1 종횡비(aspect ratio)를 가지는 상기 프리뷰 이미지를 표시하는 동안, 상기 사용자 입력을 수신하는 것에 응답하여 상기 제1 종횡비와 구별되는 제2 종횡비에 기반하여 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트를 나타내는 상기 시각적 가이드를 표시하는 동작을 더 포함하는 방법.Through the application represented by the visual object based on a second aspect ratio distinct from the first aspect ratio in response to receiving the user input while displaying the preview image having a first aspect ratio. The method further comprising displaying the visual guide indicating the content to be uploaded.
  12. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 시각적 객체들 중 하나의 시각적 객체에 대한 상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션을 통해 업로드될 상기 콘텐트의 타입을 식별하는 동작; 및in response to receiving the user input for one of the visual objects, identifying the type of content to be uploaded through the application represented by the visual object; and
    상기 콘텐트의 상기 타입을 식별하는 것에 응답하여, 상기 시각적 객체들 중에서, 상기 식별된 타입과 구별되는 다른 타입의 콘텐트를 요구하는 하나 이상의 어플리케이션에 대응하는, 하나 이상의 시각적 객체들을 표시하는 것을 적어도 일시적으로 중단하는 동작(ceasing at least temporarily)을 더 포함하는 방법.In response to identifying the type of content, at least temporarily displaying, among the visual objects, one or more visual objects corresponding to one or more applications requesting content of a different type distinct from the identified type. A method further comprising ceasing at least temporarily.
  13. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 사용자 입력을 수신하는 것에 응답하여, 상기 시각적 객체에 의해 나타내어지는 상기 어플리케이션에 대응하는 색상을 가지는 상기 시각적 가이드를 표시하는 동작을 더 포함하는 방법.In response to receiving the user input, the method further comprises displaying the visual guide having a color corresponding to the application represented by the visual object.
  14. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 프리뷰 이미지 상에 상기 시각적 가이드를 중첩하여 표시하는 동안, 상기 시각적 객체들 중 상기 사용자 입력에 대응하는 시각적 객체와 구별되는 다른 시각적 객체에 대한 다른 사용자 입력을 수신하는 것에 응답하여, 상기 다른 시각적 객체에 의해 나타내어지는 다른 어플리케이션을 통해 업로드될 다른 콘텐트의 종횡비(an aspect ratio)에 적어도 기반하는 다른 시각적 가이드를, 상기 시각적 가이드와 함께 상기 프리뷰 이미지 상에 중첩하여 표시하는 동작을 더 포함하는 방법.While displaying the visual guide superimposed on the preview image, in response to receiving another user input for another visual object that is distinct from the visual object corresponding to the user input among the visual objects, the other visual object The method further comprising displaying another visual guide based at least on an aspect ratio of other content to be uploaded through another application indicated by the visual guide by overlapping it on the preview image.
  15. 전술한 항들 중 어느 한 항에 있어서,According to any one of the preceding claims,
    상기 시각적 가이드 및 상기 다른 시각적 가이드를 표시하는 동안, 상기 카메라에 대한 촬영 입력(a shooting input)을 수신하는 것에 응답하여, 상기 카메라를 제어하여 상기 시각적 가이드 및 상기 다른 시각적 가이드 각각에 대응하는 종횡비들을 가지는 복수의 콘텐트들을 획득하는 동작; 및While displaying the visual guide and the other visual guide, in response to receiving a shooting input to the camera, the camera is controlled to set aspect ratios corresponding to each of the visual guide and the other visual guide. an operation of obtaining a plurality of contents; and
    상기 복수의 콘텐트들을 획득하는 것에 응답하여, 상이한 일부분들에 상기 복수의 콘텐트들 각각에 대한 텍스트들을 수신하기 위한 시각적 객체들이 표시된 다른 사용자 인터페이스를 표시하는 동작을 더 포함하는 방법.In response to acquiring the plurality of contents, the method further includes displaying another user interface in which visual objects for receiving texts for each of the plurality of contents are displayed in different portions.
PCT/KR2022/011225 2021-09-27 2022-07-29 Electronic device and method for generating at least one piece of content to be transmitted to at least one external electronic device WO2023048387A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0127568 2021-09-27
KR20210127568 2021-09-27
KR10-2021-0135562 2021-10-13
KR1020210135562A KR20230044906A (en) 2021-09-27 2021-10-13 Electronic device for generating one or more contents to be transmitted to one or more external electronic device and method thereof

Publications (1)

Publication Number Publication Date
WO2023048387A1 true WO2023048387A1 (en) 2023-03-30

Family

ID=85720872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/011225 WO2023048387A1 (en) 2021-09-27 2022-07-29 Electronic device and method for generating at least one piece of content to be transmitted to at least one external electronic device

Country Status (1)

Country Link
WO (1) WO2023048387A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123280A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Apparatus and method for taking moving picture in terminal
KR101509871B1 (en) * 2009-09-10 2015-04-08 모토로라 모빌리티 엘엘씨 Method and apparatus for loading a photo
KR20160046205A (en) * 2014-10-20 2016-04-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101984177B1 (en) * 2012-10-15 2019-05-30 엘지전자 주식회사 Mobile terminal and method for controlling of the same
KR102045957B1 (en) * 2013-01-18 2019-11-18 삼성전자 주식회사 Method and apparatus for photographing of a portable terminal
US10516830B2 (en) * 2017-10-11 2019-12-24 Adobe Inc. Guided image composition on mobile devices
KR20200101230A (en) * 2019-02-19 2020-08-27 삼성전자주식회사 Electronic device for recommending composition and operating method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101509871B1 (en) * 2009-09-10 2015-04-08 모토로라 모빌리티 엘엘씨 Method and apparatus for loading a photo
KR101984177B1 (en) * 2012-10-15 2019-05-30 엘지전자 주식회사 Mobile terminal and method for controlling of the same
KR102045957B1 (en) * 2013-01-18 2019-11-18 삼성전자 주식회사 Method and apparatus for photographing of a portable terminal
KR20140123280A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Apparatus and method for taking moving picture in terminal
KR20160046205A (en) * 2014-10-20 2016-04-28 엘지전자 주식회사 Mobile terminal and method for controlling the same
US10516830B2 (en) * 2017-10-11 2019-12-24 Adobe Inc. Guided image composition on mobile devices
KR20200101230A (en) * 2019-02-19 2020-08-27 삼성전자주식회사 Electronic device for recommending composition and operating method thereof

Similar Documents

Publication Publication Date Title
WO2017086652A1 (en) Electronic device having rollable display and method of controlling the same
WO2015065018A1 (en) Method for controlling multiple sub-screens on display device and display device therefor
WO2016137272A1 (en) Method for controlling device having multiple operating systems installed therein, and device
WO2017018683A1 (en) User terminal apparatus and controlling method thereof
WO2014088310A1 (en) Display device and method of controlling the same
WO2017052143A1 (en) Image display device and method of operating the same
WO2016093506A1 (en) Mobile terminal and control method therefor
WO2015026101A1 (en) Application execution method by display device and display device thereof
WO2014182082A1 (en) Display apparatus and display method for displaying a polyhedral graphical user interface
WO2014157897A1 (en) Method and device for switching tasks
WO2014092469A1 (en) Content playing apparatus, method for providing ui of content playing apparatus, network server, and method for controlling by network server
WO2015046933A1 (en) Display apparatus and method for controlling thereof
WO2014058250A1 (en) User terminal device, sns providing server, and contents providing method thereof
WO2014058164A1 (en) Method of printing content shared between applications and computing apparatus to perform the method
WO2015178677A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
WO2018038428A1 (en) Electronic device and method for rendering 360-degree multimedia content
WO2018080165A1 (en) Image display apparatus, mobile device, and methods of operating the same
WO2016114607A1 (en) User terminal apparatus, system, and control method thereof
WO2017057799A1 (en) Mobile terminal for controlling dynamic resolution and control method therefor
WO2014098539A1 (en) User terminal apparatus and control method thereof
WO2016159654A1 (en) System and method for providing widget
WO2016099166A1 (en) Electronic device and method for displaying webpage using the same
WO2014017784A1 (en) Content transmission method and system, device and computer-readable recording medium that uses the same
WO2014182140A1 (en) Display apparatus and method of providing a user interface thereof
WO2017014453A1 (en) Apparatus for displaying an image and method of operating the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22873093

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE