KR20220103782A - 객체 디스플레이 방법 및 전자 기기 - Google Patents

객체 디스플레이 방법 및 전자 기기 Download PDF

Info

Publication number
KR20220103782A
KR20220103782A KR1020227021130A KR20227021130A KR20220103782A KR 20220103782 A KR20220103782 A KR 20220103782A KR 1020227021130 A KR1020227021130 A KR 1020227021130A KR 20227021130 A KR20227021130 A KR 20227021130A KR 20220103782 A KR20220103782 A KR 20220103782A
Authority
KR
South Korea
Prior art keywords
image
electronic device
objects
target
input
Prior art date
Application number
KR1020227021130A
Other languages
English (en)
Other versions
KR102680936B1 (ko
Inventor
밍 주
Original Assignee
비보 모바일 커뮤니케이션 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비보 모바일 커뮤니케이션 컴퍼니 리미티드 filed Critical 비보 모바일 커뮤니케이션 컴퍼니 리미티드
Publication of KR20220103782A publication Critical patent/KR20220103782A/ko
Application granted granted Critical
Publication of KR102680936B1 publication Critical patent/KR102680936B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23232
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/689Motion occurring during a rolling shutter mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • H04N5/23216
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 실시예는 통신 기술분야에 관한 것으로, 객체 디스플레이 방법 및 전자 기기를 제공한다. 상기 방법은, 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득하는 바, 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함되고, 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 제2 이미지의 해상도는 제1 이미지의 해상도보다 큰 단계; 제2 이미지에 따라 제1 이미지에 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하는 적어도 하나의 식별자를 디스플레이하는 바, M은 자연수인 단계; 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신하는 단계; 및 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이하는 단계;를 포함한다.

Description

객체 디스플레이 방법 및 전자 기기
본 출원은 2019년 11월 25일 중국에서 제출한 중국 특허출원 No.201911167320.5의 우선권을 주장하며, 본 출원에서는 그 전체 내용을 인용하고 있다.
본 발명의 실시예는 통신 기술분야에 관한 것으로, 특히 객체 디스플레이 방법 및 전자 기기에 관한 것이다.
전자 기기의 지능화 정도가 날따라 향상되면서, 전자 기기 중의 애플리케이션의 기능도 갈수록 많아지고 있다.
전자 기기 중의 갤러리 애플리케이션(이하 갤러리 앱이라고 함)을 예로 들면, 현재 사용자가 갤러리 앱을 통해 사진을 보는 경우, 사용자가 사진 중 특정 객체의 확대 후의 디스플레이 효과를 보려고 하면, 사용자는 상기 객체에 대해 하나의 입력을 수행하여 전자 기기가 상기 객체를 확대하고 디스플레이하도록 트리거함으로써, 사용자는 상기 객체의 확대 후의 디스플레이 효과를 볼 수 있다.
그러나, 상기 과정에서 전자 기기가 특정 객체를 확대하여 디스플레이한 후, 상기 객체의 이미지 해상도가 감소되어 전자 기기가 상기 객체를 확대하여 디스플레이하는 디스플레이 효과가 좋지 않을 수 있다.
본 발명의 실시예는 전자 기기가 사진 중의 특정 객체를 확대하여 디스플레이하는 경우, 디스플레이 효과가 좋지 않은 문제를 해결하기 위해, 객체 디스플레이 방법 및 전자 기기를 제공한다.
상기 기술적 과제를 해결하기 위해, 본 발명은 하기와 같이 구현된다.
제1 측면에서, 본 발명의 실시예는 전자 기기에 적용되며, 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득하는 단계; 제2 이미지에 따라 제1 이미지에 적어도 하나의 식별자를 디스플레이하는 단계; 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신하는 단계; 및 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이하는 단계;를 포함는 객체 디스플레이 방법을 제공한다. 여기서, 상기 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 상기 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 상기 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함되고, 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 크고, 상기 적어도 하나의 식별자는 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하며, M은 자연수이다.
제2 측면에서, 본 발명의 실시예는 획득 모듈, 처리 모듈 및 수신 모듈을 포함할 수 있는 전자 기기를 제공한다. 여기서, 획득 모듈은 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득하되, 상기 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 상기 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 상기 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함되고, 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 크다. 처리 모듈은 획득 모듈에 의해 획득된 제2 이미지에 따라 제1 이미지에 적어도 하나의 식별자를 디스플레이하되, 상기 적어도 하나의 식별자는 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하고, M은 자연수이다. 수신 모듈은 처리 모듈에 의해 디스플레이된 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신한다. 처리 모듈은 또한 수신 모듈에 의해 수신된 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이한다.
제3 측면에서, 본 발명의 실시예는 프로세서, 메모리 및 메모리에 저장되고 프로세서에 의해 실행 가능한 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행되면 상기 제1 측면에 따른 객체 디스플레이 방법의 단계가 구현되는 전자 기기를 제공한다.
제4 측면에서, 본 발명의 실시예는 프로세서에 의해 실행되면 상기 제1 측면에 따른 객체 디스플레이 방법의 단계가 구현되는 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 저장 매체를 제공한다.
본 발명의 실시예에서, 전자 기기가 제1 카메라를 통해 수집된 다수의 객체를 포함하는 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 카메라를 통해 수집된 다수의 객체를 포함하는 제2 이미지(상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 큼)를 획득할 수 있고, 또한 전자 기기는 제2 이미지에 따라 제1 이미지에 제1 이미지 중의 다수의 객체 중 M(M은 자연수임)개의 타깃 객체를 지시하는 적어도 하나의 식별자를 디스플레이할 수 있으며; 그후 전자 기기는 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신할 수 있고; 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다. 상기 방안에 따르면, 사용자가 제1 이미지 중의 다수의 객체 중 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 전자 기기는 상기 다수의 타깃 객체를 포함하는 제2 이미지를 획득하고, 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있으며, 제2 이미지의 해상도가 제1 이미지의 해상도보다 크기 때문에, 전자 기기가 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이하는 경우, 전자 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
도 1은 본 발명의 실시예에 따른 안드로이드 운영체제의 아키텍처 모식도이다.
도 2는 본 발명의 실시예에 따른 객체 디스플레이 방법의 모식도 1이다.
도 3은 본 발명의 실시예에 따른 객체 디스플레이 방법이 적용된 인터페이스 모식도 1이다.
도 4는 본 발명의 실시예에 따른 객체 디스플레이 방법이 적용된 인터페이스 모식도 2이다.
도 5는 본 발명의 실시예에 따른 객체 디스플레이 방법의 모식도 2이다.
도 6은 본 발명의 실시예에 따른 객체 디스플레이 방법이 적용된 인터페이스 모식도 3이다.
도 7은 본 발명의 실시예에 따른 전자 기기의 구조 모식도이다.
도 8은 본 발명의 실시예에 따른 전자 기기의 하드웨어 모식도이다.
이하, 본 발명의 실시예의 첨부된 도면을 결부하여 본 발명의 실시예의 기술적 해결수단을 명확하고 완전하게 설명할 것이며, 설명되는 실시예는 본 발명의 일부 실시예일 뿐 모든 실시예가 아닌 것이 분명하다. 본 발명의 실시예를 기반으로 당업자에 의해 창조적 노력 없이 획득된 다른 모든 실시예는 본 출원의 보호 범위에 속한다.
본문 중의 용어 "및/또는"은 관련 객체를 설명하는 관련 관계로, 3가지 관계가 존재할 수 있음을 의미하며, 예를 들어 A 및/또는 B는, A만 존재, A와 B가 동시에 존재, B만 존재하는 3가지 경우를 의미할 수 있다. 본문에서 부호 "/"는 관련 객체가 "또는"의 관계임을 의미하며, 예를 들어 A/B는 A 또는 B를 의미한다.
본문 중의 용어 "제1" 및 "제2" 등은 상이한 객체를 구별하기 위한 것이며, 객체의 특정 순서를 설명하기 위한 것이 아니다. 예를 들어, 제1 입력 및 제2 입력 등은 상이한 입력을 구별하기 위한 것이며, 입력의 특정 순서를 설명하기 위한 것이 아니다.
본 발명의 실시예에서, "예시적으로" 또는 "예를 들어" 등 단어는 예를 들거나 예증하거나 설명하기 위해 사용된다. 본 발명의 실시예에서 "예시적으로" 또는 "예를 들어"로 설명되는 임의의 실시예 또는 설계 방법은 다른 실시예 또는 설계 방법에 비해 더 바람직하거나 더 우수한 것으로 해석되어서는 안 된다. 정확히 말하면 "예시적으로" 또는 "예를 들어" 등 단어의 사용은 구체적인 방식으로 관련 개념을 나타내기 위한 것이다.
본 발명의 실시예의 설명에서, 다른 설명이 없는 한 "다수"의 함의는 2개 또는 2개 이상을 의미하며, 예를 들어 다수의 소자는 2개 또는 2개 이상의 소자를 의미한다.
본 발명의 실시예는 객체 디스플레이 방법 및 전자 기기를 제공하고, 이미지 중의 객체를 확대하여 디스플레이하는 시나리오에 적용된다. 구체적으로, 전자 기기가 제1 카메라를 통해 수집된 다수의 객체를 포함하는 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 카메라를 통해 수집된 다수의 객체를 포함하는 제2 이미지(상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 큼)를 획득할 수 있고, 또한 전자 기기는 제2 이미지에 따라 제1 이미지에 제1 이미지 중의 다수의 객체 중 M(M은 자연수임)개의 타깃 객체를 지시하는 적어도 하나의 식별자를 디스플레이할 수 있으며; 그런 다음 전자 기기는 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신할 수 있고; 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다. 상기 해결수단을 통해, 사용자가 제1 이미지 중의 다수의 객체 중 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 전자 기기는 상기 다수의 객체를 포함하는 제2 이미지를 획득하고, 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있으며, 제2 이미지의 해상도가 제1 이미지의 해상도보다 크기 때문에, 전자 기기가 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이하는 경우, 전자 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
본 발명의 실시예의 전자 기기는 운영체제를 갖는 전자 기기일 수 있다. 상기 운영체제는 안드로이드(Android) 운영체제일 수 있고, ios 운영체제일 수 있으며, 다른 가능한 운영체제일 수도 있고, 본 발명의 실시예는 구체적으로 한정하지 않는다.
이하, 안드로이드 운영체제를 예로 들어 본 발명의 실시예에 따른 객체 디스플레이 방법이 적용된 소프트웨어 환경을 소개한다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 하나의 가능한 안드로이드 운영체제의 아키텍처 모식도이다. 도 1에서, 안드로이드 운영체제의 아키텍처는 4개의 계층을 포함하는데, 각각 애플리케이션 계층, 애플리케이션 프레임워크 계층, 시스템 런타임 계층 및 커널 계층(구체적으로 Linux 커널 계층)이다.
여기서, 애플리케이션 계층은 안드로이드 운영체제 중의 각 애플리케이션(시스템 애플리케이션 및 제3자 애플리케이션)을 포함한다. 예시적으로, 애플리케이션 계층은 본 발명의 실시예의 이미지를 디스플레이하는 애플리케이션, 예를 들어 갤러리 애플리케이션, 카메라 애플리케이션, 쇼핑 애플리케이션 및 통신 애플리케이션 등 이미지를 디스플레이할 수 있는 임의의 애플리케이션을 포함할 수 있다.
애플리케이션 프레임워크 계층은 애플리케이션의 프레임워크로, 개발자가 애플리케이션의 프레임워크의 개발 원칙을 따르는 조건 하에, 애플리케이션 프레임워크 계층에 기반하여 일부 애플리케이션을 개발할 수 있다. 예를 들어, 애플리케이션 프레임워크 계층에 기반하여 본 발명의 실시예의 이미지를 디스플레이하는 애플리케이션을 개발할 수 있다.
일반적으로, 본 발명의 실시예의 이미지를 디스플레이하는 애플리케이션은 두 부분을 포함할 수 있는데, 한 부분은 전자 기기 백그라운드에서 실행되는 이미지 디스플레이 서비스(service)를 의미하며, 이는 이미지의 디스플레이를 트리거하는 사용자의 입력을 감지하고, 디스플레이된 이미지 중의 객체를 식별하며, 이미지 중의 객체를 추출하고, 식별자를 생성하는 데 사용되며; 다른 부분은 전자 기기 스크린에 디스플레이되는 내용을 의미하고, 예를 들어 전자 기기 스크린에 디스플레이되는 이미지이다.
시스템 런타임 계층은 라이브러리(시스템 라이브러리라고도 함) 및 안드로이드 운영체제 런타임 환경을 포함한다. 라이브러리는 주로 안드로이드 운영체제에서 필요로 하는 다양한 리소스를 제공한다. 안드로이드 운영체제 런타임 환경은 안드로이드 운영체체를 위해 소프트웨어 환경을 제공하는 데 사용된다.
커널 계층은 안드로이드 운영체제의 운영체제 계층으로, 안드로이드 운영체제 소프트웨어 계층의 최저 계층에 속한다. 커널 계층은 Linux 커널을 기반으로 안드로이드 운영체제에 핵심 시스템 서비스 및 하드웨어 관련 드라이버를 제공한다.
안드로이드 운영체제를 예로 들면, 본 발명의 실시예에서 개발자는 상기 도 1에 도시된 바와 같은 안드로이드 운영체제의 시스템 아키텍처에 기반하여, 본 발명의 실시예에 따른 객체 디스플레이 방법을 구현하는 소프트웨어 프로그램을 개발함으로써, 상기 객체 디스플레이 방법이 도 1에 도시된 바와 같은 안드로이드 운영체제에 기반하여 수행될 수 있도록 한다. 즉, 프로세서 또는 전자 기기는 안드로이드 운영체제에서 상기 소프트웨어 프로그램을 실행하여 본 발명의 실시예에 따른 객체 디스플레이 방법을 구현할 수 있다.
본 발명의 실시예의 전자 기기는 모바일 전자 기기일 수 있고, 비모바일 전자 기기일 수도 있다. 예시적으로, 모바일 전자 기기는 휴대폰, 태블릿 컴퓨터, 노트북 컴퓨터, 팜톱 컴퓨터, 차량용 단말기, 웨어러블 기기, 울트라 모바일 개인용 컴퓨터(ultra-mobile personal computer, UMPC), 넷북 또는 개인용 정보 단말기(personal digital assistant, PDA) 등일 수 있고, 비모바일 전자 기기는 개인용 컴퓨터(personal computer, PC), 텔레비전(television, TV), 자동 창구기, 셀프 서비스 기기 등일 수 있으며, 본 발명의 실시예는 구체적으로 한정하지 않는다.
본 발명의 실시예에 따른 객체 디스플레이 방법의 수행 주체는 상기 전자 기기일 수 있고, 상기 전자 기기에서 상기 객체 디스플레이 방법을 구현할 수 있는 기능 모듈 및/또는 기능 엔티티일 수도 있으며, 구체적인 사항은 실제 사용 요구사항에 따라 결정될 수 있고, 본 발명의 실시예는 이에 대해 한정하지 않는다. 이하, 전자 기기를 예로 들어 본 발명의 실시예에 따른 객체 디스플레이 방법에 대해 예시적으로 설명한다.
본 발명의 실시예에서, 전자 기기는 다수의 카메라가 설치된 전자 기기일 수 있다. 다수의 카메라(예를 들어, 본 발명의 실시예의 제1 카메라 및 제2 카메라를 포함함)가 설치된 전자 기기의 경우, 전자 기기가 이미지를 수집할 때, 전자 기기는 각각 제1 카메라 및 제2 카메라를 통해 이미지를 수집하여, 제1 이미지 및 제2 이미지를 획득할 수 있다. 통상적으로, 제1 카메라에 의해 수집된 제1 이미지는 전자 기기에서 사용자가 볼 수 있는 위치(예를 들어, 갤러리 애플리케이션 중)에 저장될 수 있으며, 즉 사용자는 갤리러 애플리케이션과의 상호작용을 통해 제1 이미지를 볼 수 있고, 제2 카메라에 의해 수집된 제2 이미지는 서버 또는 전자 기기에서 사용자가 볼 수 없는 위치에 저장될 수 있으며, 즉 사용자는 제2 이미지를 볼 수 없다. 사용자가 제1 이미지 중의 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 사용자는 전자 기기가 서버 또는 전자 기기에서 제2 이미지를 획득하도록 트리거(예를 들어, 전자 기기가 객체 분석 확대 모드에 진입하도록 트리거하여 트리거됨)할 수 있고, 제2 이미지에서 타깃 객체를 식별한 다음, 기설정 배수에 따라 상기 타깃 객체를 확대하고, 마지막으로 확대 후의 상기 타깃 객체를 디스플레이할 수 있으며, 즉 전자 기기는 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있다. 이로써, 제2 이미지의 해상도가 제1 이미지의 해상도보다 높기 때문에, 전자 기기가 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이하는 경우, 전저 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
이하, 각 첨부된 도면을 구체적으로 결부하여 본 발명의 실시예에 따른 객체 디스플레이 방법을 예시적으로 설명한다.
도 2에 도시된 바와 같이, 본 발명의 실시예는 객체 디스플레이 방법을 제공하고 상기 방법은 하기 단계 S201 ~ 단계 S204를 포함할 수 있다.
단계 S201에서, 전자 기기가 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 이미지를 획득한다.
예시적으로, 제1 이미지가 갤러리 애플리케이션 중의 이미지라고 가정하면, 사용자는 전자 기기가 포그라운드에서 갤러리 애플리케이션을 실행하도록 트리거할 수 있고, 전자 기기가 포그라운드에서 애플리케이션을 실행하는 경우, 전자 기기의 스크린에는 갤러리 애플리케이션의 인터페이스를 디스플레이할 수 있다. 그런 다음, 사용자는 상기 인터페이스에서 동작하여 갤러리 애플리케이션과 상호작용함으로써, 전자 기기의 스크린에 제1 이미지를 디스플레이하도록 할 수 있다. 또한, 전자 기기는 전자 기기가 제1 이미지를 수집할 때 수집된 제2 이미지를 획득할 수 있다.
여기서, 상기 제1 이미지는 전자 기기가 제1 카메라를 통해 수집된 이미지일 수 있고, 제2 이미지는 전자 기기가 제2 카메라를 통해 수집된 이미지일 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제2 카메라의 초점 거리는 제1 카메라의 초점 거리보다 크다. 즉, 제2 카메라와 제1 카메라를 비교하면, 제2 카메라는 망원 카메라일 수 있고, 제1 카메라는 단초점 카메라일 수 있다. 예를 들어, 제1 카메라는 광각 카메라일 수 있다.
선택 가능하게, 본 발명의 실시예에서 전자 기기는 기본적으로 광각 카메라를 사용하여 이미지를 수집할 수 있으며, 통상적으로 사용자가 전자 기기를 트리거하여 이미지를 수집하도록 하는 경우, 사용자가 전자 기기를 트리거하여 망원 카메라를 선택하도록 하는 것 외에, 전자 기기는 우선적으로 단초점 카메라(예를 들어, 상기 광각 카메라)를 통해 이미지를 수집할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제2 이미지는 사용자가 전자 기기의 제1 카메라를 트리거하여 제1 이미지를 수집하는 경우 전자 기기가 제2 카메라를 통해 수집하여 저장한 이미지일 수 있다. 구체적으로, 하나의 가능한 실시형태에서 사용자가 전자 기기의 제1 카메라를 트리거하여 제1 이미지를 수집하는 경우, 전자 기기는 자동적으로 제2 카메라를 통해 제2 이미지를 수집하여 저장할 수 있다. 다른 가능한 실시형태에서, 사용자가 전자 기기의 제1 카메라를 트리거하여 제1 이미지를 수집한 후, 전자 기기는 자동적으로 제2 카메라를 통해 제2 이미지를 수집하여 저장할 수 있다.
선택 가능하게, 본 발명의 실시예에서 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함될 수 있으며, 여기서 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지일 수 있다. 즉, 상기 제1 이미지 및 제2 이미지는 동일한 영역에 있는 다수의 제1 엔티티 객체의 수집된 이미지일 수 있고, 즉 제1 카메라가 제1 이미지를 수집한 영역과 제2 카메라가 제2 이미지를 수집한 영역은 동일한 영역일 수 있다. 물론, 상기 동일한 영역은 이론적인 개념일 뿐이며, 실제 구현에서 2개의 영역 간에 편차(상기 편차는 허용 가능한 범위 내일 수 있음)가 존재하는 것을 허용할 수 있음을 이해할 수 있다.
설명해야 할 것은, 본 발명의 실시예에서 제1 카메라가 제1 이미지를 수집한 영역과 제2 카메라가 제2 이미지를 수집한 영역이 동일할지라도, 제1 카메라와 제2 카메라의 초점 거리가 상이하기 때문에, 다수의 객체 외에 제1 이미지 및 제2 이미지에는 다른 상이한 객체가 더 포함될 수 있으며, 즉 다수의 제1 엔티티 객체 외에 상기 동일한 영역에는 다른 상이한 엔티티 객체가 더 포함될 수 있다.
이해할 수 있는 것은, 본 발명의 실시예에서 제1 이미지 중의 각 객체는 제1 이미지에서 제1 이미지에 대응되는 영역(즉, 제1 이미지를 수집한 영역) 중의 각 엔티티 객체의 디스플레이 이미지일 수 있고, 제2 이미지 중의 각 객체는 제2 이미지에서 제2 이미지에 대응되는 영역(즉, 제2 이미지를 수집한 영역) 중의 각 엔티티 객체의 디스플레이 이미지일 수 있다. 예시적으로, 제1 이미지를 예로 들면, 제1 이미지 중의 꿀벌 이미지는 제1 이미지에서 제1 이미지에 대응되는 영역 중의 "꿀벌"의 디스플레이 이미지일 수 있다.
선택 가능하게, 본 발명의 실시예에서 제2 이미지의 해상도는 제1 이미지의 해상도보다 크다.
이해할 수 있는 것은, 제2 카메라의 초점 거리가 제1 카메라의 초점 거리보다 큰 경우, 동일한 영역에 대해 제2 카메라를 통해 수집된 상기 영역의 이미지의 해상도는 제1 카메라를 통해 수집된 상기 영역의 이미지의 해상도보다 크다.
단계 S202에서, 전자 기기는 제2 이미지에 따라 제1 이미지에 적어도 하나의 식별자를 디스플레이한다.
여기서, 상기 적어도 하나의 식별자는 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시할 수 있다. 구체적으로, 적어도 하나의 식별자 중의 각각의 식별자는 제1 이미지 중의 M개의 타깃 객체 중 적어도 하나의 타깃 객체를 지시할 수 있고, M은 자연수이다.
설명해야 할 것은, 본 발명의 실시예에서 M개의 타깃 객체 중의 일부 타깃 객체에 대응되는 엔티티 객체는 하나의 작은 영역 내(예를 들어, 이러한 타깃 객체에 대응되는 엔티티 객체 사이의 거리는 비교적 가까움)에 있을 수 있고, 제1 이미지가 전자 기기에 디스플레이되는 경우 제1 이미지에서 상기 영역의 디스플레이 사이즈가 비교적 작기 때문에(예를 들어, 사용자의 육안으로 제1 이미지에서 상기 영역에 대응되는 이러한 타깃 객체를 구별할 수 없음), 전자 기기가 상기 적어도 하나의 식별자를 디스플레이하는 경우, 상기 영역에 대응되는 이러한 타깃 객체에 대해 하나의 식별자를 디스플레이할 수 있으며, 즉 하나의 식별자는 상기 영역에 대응되는 이러한 타깃 객체를 지시할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 전자 기기가 적어도 하나의 식별자를 디스플레이하는 경우, 제1 이미지 중의 M개의 타깃 객체가 위치하는 영역에 적어도 하나의 식별자를 디스플레이할 수 있다. 예를 들어, 전자 기기는 제1 이미지 중의 특정 타깃 객체 또는 일부 타깃 객체가 위치하는 영역에 하나의 식별자를 디스플레이하여, 상기 타깃 객체 또는 상기 일부 타깃 객체를 지시할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 단계 S202는 구체적으로 하기 단계 S202a ~ 단계 S202b를 통해 구현될 수 있다.
단계 S202a에서, 전자 기기는 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 M개의 타깃 객체를 획득한다.
여기서, 상기 제2 이미지 중의 M개의 타깃 객체에 대응되는 엔티티 객체는 타깃 속성에 의해 지시되는 속성에 속할 수 있다.
예시적으로, 타깃 속성 정보가 동물 속성(즉, 동물을 지시함)이라고 가정하면, 전자 기기는 동물 속성에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 모든 동물 이미지를 획득할 수 있으며, 즉 제2 이미지 중의 M개의 타깃 객체를 획득하고, M개의 타깃 객체 중의 각각의 타깃 객체에 대응되는 엔티티 객체는 모두 동물에 속한다. 또는, 타깃 속성 정보가 인물 속성(즉, 인물을 지시함)이라고 가정하면, 전자 기기는 인물 속성에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 모든 인물 이미지를 획득할 수 있으며, 즉 제2 이미지 중의 M개의 타깃 객체를 획득하고, M개의 타깃 객체 중의 각각의 타깃 객체에 대응되는 엔티티 객체는 모두 인물 속성에 속한다.
단계 S202b에서, 전자 기기는 제2 이미지 중의 M개의 타깃 객체에 따라, 제1 이미지에 적어도 하나의 식별자를 디스플레이한다.
본 발명의 실시예에서, 전자 기기가 제2 이미지에서 M개의 타깃 객체를 획득한 후, 전자 기기는 제2 이미지 중의 M개의 타깃 객체에 따라, 제1 이미지에 적어도 하나의 식별자를 디스플레이할 수 있다.
예시적으로, 타깃 속성 정보가 동물 속성이라고 가정하면, 도 3의 (a)에 도시된 바와 같이 전자 기기에 의해 제1 이미지가 디스플레이되는 인터페이스 모식도이고, 도 3의 (b)에 도시된 바와 같이 전자 기기에 의해 제2 이미지가 디스플레이되는 인터페이스 모식도이다. 여기서, 제1 이미지의 모식도 및 제2 이미지의 모식도는 제1 이미지 및 제2 이미지가 동일한 객체를 포함하는 것을 예로 들어 예시된다. 전자 기기가 동물 속성에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 모든 동물 이미지를 획득한 후, 전자 기기는 제1 이미지에 도 3의 (a)에 도시된 바와 같은 (31) ~ (35)로 표시되는 식별자를 디스플레이할 수 있다. 여기서, 식별자(31)는 동물 이미지 1을 지시할 수 있고, 식별자(32)는 동물 이미지 2를 지시할 수 있으며, 식별자(33)는 동물 이미지 3 및 동물 이미지 4를 지시할 수 있고, 식별자(34)는 동물 이미지 5를 지시할 수 있으며, 식별자(35)는 동물 이미지 6을 지시할 수 있다. 이해할 수 있는 것은, 동물 이미지 3에 대응되는 동물과 동물 이미지 4에 대응되는 동물이 하나의 영역 내에 있고, 미리보기 이미지에서 동물 이미지 3과 동물 이미지 4의 디스플레이 사이즈가 비교적 작기 때문에, 전자 기기는 동물 이미지 3과 동물 이미지 4에 대해 하나의 식별자(33)를 디스플레이할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 단계 S202a는 구체적으로 하기 단계 S202a1 ~ 단계 S202a2를 통해 구현될 수 있다.
단계 S202a1에서, 전자 기기는 타깃 속성 정보에 따라 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득한다.
여기서, 상기 적어도 하나의 템플릿 이미지 중의 객체에 대응되는 엔티티 객체는 타깃 속성 정보에 의해 지시되는 속성에 속할 수 있다.
예시적으로, 타깃 속성 정보가 동물 속성이라고 가정하면, 전자 기기가 동물 속성에 따라 템플릿 라이브러리에서 획득된 적어도 하나의 템플릿 이미지 중의 객체에 대응되는 엔티티 객체는 동물 속성에 속한다.
선택 가능하게, 본 발명의 실시예에서 전자 기기와 서버가 연결되는 경우, 전자 기기는 서버의 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득할 수 있다. 전자 기기와 서버가 연결되지 않는 경우, 전자 기기는 전자 기기의 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득할 수 있다. 여기서, 서버의 템플릿 라이브러리 중의 템플릿 이미지 및 전자 기기의 템플릿 라이브러리 중의 템플릿 이미지는 모두 사전 저장된 템플릿 이미지이다.
단계 S202a2에서, 전자 기기는 제2 이미지를 적어도 하나의 템플릿 이미지에 매칭시켜, 제2 이미지 중의 객체를 식별한다.
본 발명의 실시예에서, 전자 기기가 적어도 하나의 템플릿 이미지를 획득한 후, 전자 기기는 제2 이미지를 상기 적어도 하나의 템플릿 이미지에 매칭시켜, 제2 이미지 중의 객체를 식별할 수 있다.
선택 가능하게, 본 발명의 실시예에서 전자 기기는 제2 이미지에 대응되는 특징점과 적어도 하나의 템플릿 이미지에 대응되는 특징점을 매칭시켜, 제2 이미지 중의 객체를 식별할 수 있다. 구체적으로, 전자 기기는 먼저 제2 이미지에서 제2 이미지에 대응되는 특징점을 추출하고, 적어도 하나의 템플릿 이미지에서 적어도 하나의 템플릿 이미지 중 각각의 템플릿 이미지에 대응되는 특징점을 추출할 수 있으며, 그런 다음 전자 기기는 제2 이미지에 대응되는 특징점을 각각의 템플릿 이미지에 대응되는 특징점에 각각 매칭시켜, 제2 이미지의 객체를 식별할 수 있다. 여기서, 전자 기기는 이미지 처리 알고리즘을 통해 제2 이미지 및 템플릿 이미지에서 특징점을 추출할 수 있다.
선택 가능하게, 상기 이미지 처리 알고리즘은 안면 인식 알고리즘(안면 인식), 클러스터링 분석 알고리즘(엔티티 인식)과 같은 임의의 가능한 이미지 처리 알고리즘일 수 있고, 구체적으로 실제 사용 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
본 발명의 실시예에서, 전자 기기는 제2 이미지에 대응되는 특징점 및 획득된 적어도 하나의 템플릿 이미지 중 각각의 템플릿 이미지에 대응되는 특징점에 따라 제2 이미지 중의 객체를 식별할 수 있기 때문에, 전자 기기는 제2 이미지의 객체를 정확하게 식별함으로써, 제2 이미지에서 사용자가 식별하고자 하는 속성의 객체를 정확하게 식별할 수 있다.
단계 S203에서, 전자 기기는 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신한다.
본 발명의 실시예에서, 상기 제1 입력은 사용자가 제1 객체를 결정하는 데 사용될 수 있고, 사용자는 제1 입력을 통해 전자 기기가 제1 객체를 결정하도록 트리거할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제1 입력은 상기 제1 객체에 대한 사용자의 입력일 수 있거나, 또는 제1 입력은 상기 제1 객체를 지시하는 식별자에 대한 사용자의 입력일 수 있다. 구체적으로 실제 사용 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
구체적으로, 본 발명의 실시예에서 상기 적어도 하나의 식별자 중의 각각의 식별자가 각각 하나의 객체를 지시하는 경우, 상기 제1 입력은 제1 객체에 대한 사용자의 입력일 수 있거나, 또는 제1 객체를 지시하는 식별자에 대한 사용자의 입력일 수 있다. 적어도 하나의 식별자 중의 특정 식별자가 다수의 객체를 지시하는 경우, 하나의 가능한 실시형태에서 사용자는 먼저 상기 식별자에 대해 하나의 입력을 수행하여 전자 기기가 상기 식별자에 의해 지시되는 다수의 객체를 디스플레이하도록 트리거할 수 있고, 그런 다음 사용자는 상기 다수의 객체 중의 제1 객체에 대해 제1 입력(이런 경우, 제1 객체는 하나의 객체임)을 수행할 수 있다. 다른 가능한 실시형태에서, 사용자는 직접 상기 식별자에 대해 제1 입력(이런 경우, 제1 객체는 다수의 객체임)을 수행할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제1 입력은 클릭 입력, 길게 누르기 입력 또는 세게 누르기 입력과 같은 임의의 가능한 형태의 입력일 수 있다. 구체적으로 실제 사용 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
여기서, 상기 클릭 입력은 싱글 클릭 입력, 더블 클릭 입력 또는 기설정 횟수의 클릭 입력일 수 있다. 상기 길게 누르기 입력은 사용자가 제1 객체 또는 제1 객체를 지시하는 식별자를 시간 임계값보다 크거나 같은 지속 시간으로 누르는 입력일 수 있다. 상기 세게 누르기 입력은 사용자가 제1 객체 또는 제1 객체를 지시하는 식별자를 압력 임계값보다 크거나 같은 압력값으로 누르는 입력일 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 기설정 횟수, 시간 임계값, 압력 임계값은 전자 기기에 기설정된 값일 수 있고, 상기 기설정 횟수, 시간 임계값, 압력 임계값은 전자 기기의 제조업체에 의해 전자 기기에 기설정된 것일 수 있다. 구체적으로 실제 사용 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
단계 S204에서, 전자 기기는 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이한다.
본 발명의 실시예에서, 전자 기기가 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신한 후, 전자 기기는 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다.
예시적으로, 상기 도 3을 결부하여 전자 기기가 제1 이미지에 도 3의 (31) ~ (33)으로 표시되는 식별자를 디스플레이한 후, 제1 객체가 도 3의 식별자(32)에 의해 지시되는 객체라고 가정하면, 사용자는 식별자(32)를 클릭한 후, 즉 전자 기기가 사용자의 제1 입력을 수신한 후, 전자 기기는 제1 입력에 응답하여 도 4에 도시된 바와 같이 제2 이미지(도 3의 (b))에 도시된 제1 객체(도 4의 40)를 확대하고 디스플레이할 수 있다.
본 발명의 실시예에서, 사용자가 제1 이미지 중의 다수의 객체 중 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 전자 기기는 상기 다수의 타깃 객체를 포함하는 제2 이미지를 획득하고, 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있으며, 제2 이미지의 해상도가 제1 이미지의 해상도보다 크기 때문에, 전자 기기가 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이하는 경우, 전자 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
본 발명의 실시예에서, 제2 이미지는 전자 기기가 망원 카메라를 통해 수집한 이미지이기 때문에, 전자 기기가 기설정 배수로 제2 이미지 중의 특정 타깃 객체를 확대하여 디스플레이할지라도, 전자 기기는 여전히 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이할 수 있다.
선택 가능하게, 본 발명의 실시예에서 전자 기기가 제1 이미지를 디스플레이하는 경우, 사용자가 제1 이미지 중의 일부 타깃 객체의 확대 후의 디스플레이 효과를 보려고 한다면, 사용자는 하나의 입력(예를 들어, 하기 제2 입력)을 통해 전자 기기가 객체 분석 확대 모드에 있도록 트리거할 수 있고, 그런 다음 전자 기기는 객체 분석 확대 모드 하에 자동적으로 제2 이미지를 획득할 수 있다.
예시적으로, 상기 도 2를 결부하면, 도 5에 도시된 바와 같이 상기 단계 S201 이전에, 본 발명의 실시예에 따른 객체 디스플레이 방법은 하기 단계 S205를 더 포함할 수 있다. 또한, 상기 단계 S201은 구체적으로 하기 단계 S201a를 통해 구현될 수 있다.
단계 S205에서, 전자 기기는 객체 분석 확대 컨트롤에 대한 제2 입력을 수신한다.
선택 가능하게, 본 발명의 실시예에서 사용자가 전자 기기를 트리거하여 갤러리 애플리케이션을 실행하도록 한 후, 전자 기기는 포그라운드에서 갤러리 애플리케이션을 실행할 수 있고, 또한 전자 기기는 스크린에 갤러리 애플리케이션 인터페이스(즉, 객러리 애플리케이션의 인터페이스)를 디스플레이할 수 있다. 갤러리 애플리케이션 인터페이스는 적어도 하나의 컨트롤(각각의 컨트롤은 하나의 모드를 지시할 수 있음)을 포함할 수 있다. 도 6의 (a)에 도시된 바와 같이, 여기서 상기 적어도 하나의 컨트롤은 객체 분석 확대 컨트롤을 포함할 수 있다. 상기 객체 분석 확대 컨트롤은 객체 분석 확대 모드를 지시할 수 있다. 구체적으로, 객체 분석 확대 모드 하에 전자 기기는 사용자의 요구사항에 따라 전자 기기에서 제2 이미지를 획득하고, 제2 이미지에서 타깃 객체를 식별한 다음, 기설정 배수에 따라 상기 타깃 객체를 확대하며, 마지막으로 확대 후의 상기 타깃 객체를 디스플레이함으로써, 사용자는 상기 타깃 객체의 확대 후의 디스플레이 효과를 볼 수 있다.
선택 가능하게, 본 발명의 실시예에서 도 6의 (a)에 도시된 바와 같이 상기 적어도 하나의 컨트롤은 미화 컨트롤 및 모자이크 컨트롤과 같은 임의의 가능한 다른 컨트롤을 더 포함할 수 있다. 여기서, 미화 컨트롤은 미화 모드를 지시할 수 있고, 모자이크 컨트롤은 모자이크 모드를 지시할 수 있다. 여기서, 미화 모드 하에 전자 기기는 이미지에 대해 미화 작업을 수행할 수 있고; 모자이크 모드 하에, 전자 기기는 이미지에 대해 모자이크 작업을 수행할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제2 입력은 구체적으로 객체 분석 확대 컨트롤에 대한 클릭 입력, 길게 누르기 입력 또는 세게 누르기 입력일 수 있고, 사용자의 음성 입력일 수도 있으며, 또한 사용자의 제스처 입력과 같은 임의의 가능한 입력일 수 있고, 본 발명의 실시예는 이에 대해 한정하지 않는다.
예시적으로, 상기 음성 입력은 사용자가 "객체 분석 확대"라고 말하는 것과 같은 임의의 가능한 음성 입력일 수 있다. 상기 제스처 입력은 기설정 제스처 입력과 동일한 제스처 입력(이해할 수 있는 것은, 상기 기설정 제스처 입력은 본 발명의 실시예에서 제2 이미지를 획득하기 위해 기설정된 제스처 입력일 수 있음)일 수 있다.
단계 S201a에서, 전자 기기가 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 입력에 응답하여 제2 이미지를 획득한다.
본 발명의 실시예에서, 전자 기기가 제1 카메라를 통해 수집된 제1 이미지를 디스플레이하고, 전자 기기가 객체 분석 확대 컨트롤에 대한 사용자의 제2 입력을 수신하는 경우, 전자 기기는 제2 입력에 응답하여 제2 카메라에 의해 수집된 제2 이미지를 획득할 수 있다.
선택 가능하게, 본 발명의 실시예에서 전자 기기가 객체 분석 확대 컨트롤에 대한 사용자의 제2 입력을 수신한 후, 전자 기기는 제2 입력에 응답하여 전자 기기의 갤러리 애플리케이션이 객체 분석 확대 모드에 있도록 제어할 수 있다. 이해할 수 있는 것은, 전자 기기가 객체 분석 확대 컨트롤에 대한 사용자의 제2 입력을 수신한 후, 전자 기기는 갤러리 애플리케이션이 객체 분석 확대 모드에 있도록 제어할 수 있다.
나아가, 전자 기기가 제1 이미지를 디스플레이하고, 전자 기기가 객체 분석 확대 컨트롤에 대한 사용자의 제2 입력을 수신하는 경우, 전자 기기는 제2 입력에 응답하여 전자 기기의 갤러리 애플리케이션이 객체 분석 확대 모드에 있도록 제어하고, 제2 이미지를 획득할 수 있다.
설명해야 할 것은, 사용자가 객체 분석 확대 컨트롤에 대해 제2 입력을 수행한 후(즉, 갤러리 애플리케이션이 객체 분석 확대 모드에 있음), 전자 기기가 제1 카메라를 통해 수집된 제1 이미지를 디스플레이하면, 전자 기기는 자동적으로 제2 카메라를 통해 수집된 제2 이미지를 획득할 수 있다. 갤러리 애플리케이션이 객체 분석 확대 모드에 있지 않는 경우, 전자 기기가 제1 카메라를 통해 수집된 제1 이미지를 디스플레이할지라도, 전자 기기는 제2 카메라를 통해 수집된 제2 이미지를 획득하지 않는다.
본 발명의 실시예에서, 제2 카메라는 망원 카메라이기 때문에, 전자 기기가 획득한 제2 카메라를 통해 수집된 제2 이미지의 해상도는 비교적 높으므로, 전자 기기는 제2 이미지 중의 객체를 식별하는 성공률이 비교적 높다. 이로써, 전자 기기는 제2 이미지 중의 타깃 객체를 정확하게 식별할 수 있다. 또한, 제2 이미지의 해상도는 비교적 높기 때문에, 전자 기기가 제2 이미지 중 특정 타깃 객체를 확대하여 디스플레이할지라도, 전자 기기는 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이할 수 있으므로, 타깃 객체의 확대 후의 디스플레이 효과를 보고자 하는 사용자의 요구사항을 보다 잘 만족시킬 수 있다.
나아가, 갤러리 애플리케이션이 객체 분석 확대 모드에 있는 경우에만 전자 기기는 제2 카메라를 통해 수집된 제2 이미지를 획득할 수 있고, 즉 갤러리 애플리케이션이 객체 분석 확대 모드에 있지 않는 경우 전자 기기는 제2 카메라를 통해 수집된 제2 이미지를 획득하지 않기 때문에, 전자 기기가 불필요한 수집 동작을 실행하는 것을 방지할 수 있고, 나아가 전자 기기의 전력 소모를 줄일 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 전자 기기가 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하기 전에, 전자 기기는 또한 먼저 적어도 하나의 속성 옵션을 디스플레이할 수 있고, 그런 다음 사용자는 적어도 하나의 속성 옵션에서 타깃 속성 옵션을 선택할 수 있으며, 따라서 전자 기기는 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하여, 타깃 속성 정보에 대응되는 타깃 객체를 획득할 수 있다.
예시적으로, 상기 단계 S202a 이전에, 본 발명의 실시예에 따른 객체 디스플레이 방법은 하기 단계 S206 ~ 단계 S207을 더 포함할 수 있고, 상기 단계 S202a는 구체적으로 하기 단계 S202a3을 통해 구현될 수 있다.
단계 S206에서, 전자 기기는 적어도 하나의 속성 옵션을 디스플레이한다.
여기서, 상기 적어도 하나의 속성 옵션 중의 각각의 속성 옵션은 하나의 속성 정보를 지시할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 적어도 하나의 속성 옵션은 동물 옵션, 식물 옵션, 인물 옵션 및 전자 제품 옵션과 같은 임의의 가능한 속성 옵션을 포함할 수 있다. 구체적으로 실제 사용 요구사항에 따라 설정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
본 발명의 실시예에서, 사용자가 상기 적어도 하나의 컨트롤에서 객체 분석 확대 컨트롤을 선택하고, 즉 전자 기기가 사용자의 제2 입력을 수신한 후, 전자 기기는 제2 입력에 응답하여, 전자 기기가 객체 분석 확대 모드에 있도록 제어할 수 있을 뿐만 아니라, 적어도 하나의 속성 옵션을 디스플레이하여 사용자가 상기 적어도 하나의 속성 옵션에서 하나의 속성 옵션을 선택할 수 있도록 하며, 그런 다음 전자 기기가 제2 이미지에서 상기 속성 옵션에 대응되는 객체(상기 객체에 대응되는 엔티티 객체는 상기 속성 옵션에 대응되는 속성에 속함)를 식별하도록 트리거한다.
예시적으로, 적어도 하나의 속성 옵션이 동물 옵션, 식물 옵션 및 인물 옵션을 포함하는 것으로 가정한다. 도 6의 (a)에 도시된 바와 같이, 전자 기기에 의해 디스플레이된 갤러리 애플리케이션 인터페이스의 모식도이다. 여기서, 상기 인터페이스에는 미화 컨트롤(도 6의 (a)의 (60)으로 표시됨), 모자이크 컨트롤(도 6의 (a)의 (61)로 표시됨) 및 객체 분석 확대 컨트롤(도 6의 (a)의 (62)로 표시됨)이 포함된다. 사용자가 객체 분석 확대 컨트롤(62)을 선택하는 경우, 즉 전자 기기가 사용자의 제2 입력을 수신한 후, 전자 기기는 제2 입력에 응답하여, 도 6의 (b)에 도시된 바와 같이 갤러리 애플리케이션이 객체 분석 확대 모드(도면에서 객체 분석 확대 모드 옵션을 확대하여 디스플레이하는 것으로 갤러리 애플리케이션이 객체 분석 확대 모드에 있음을 보여줌)에 있도록 제어하고, 동물 옵션(도 6의 (b)의 (63)으로 표시됨), 식물 옵션(도 6의 (b)의 (64)으로 표시됨), 인물 옵션(도 6의 (b)의 (65)으로 표시됨)을 디스플레이할 수 있다.
단계 S207에서, 전자 기기는 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대한 사용자의 제3 입력을 수신한다.
여기서, 상기 타깃 속성 옵션은 타깃 속성 정보를 지시할 수 있다.
본 발명의 실시예에서, 상기 제3 입력은 타깃 속성 정보를 결정할 수 있다. 즉, 사용자는 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대해 제3 입력을 수행하여, 전자 기기가 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보를 결정하도록 트리거할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제3 입력은 구체적으로 타깃 속성 옵션에 대한 사용자의 입력일 수 있다. 여기서, 제3 입력은 구체적으로 타깃 속성 옵션에 대한 사용자의 클릭 입력, 길게 누르기 입력 또는 세게 누르기 입력과 같은 임의의 가능한 형태의 입력일 수 있다. 구체적으로 실제 사용 요구사항에 따라 결정될 수 있으며, 본 발명의 실시예는 이에 대해 한정하지 않는다.
클릭 입력, 길게 누르기 입력 또는 세게 누르기 입력에 대한 설명은 상기 실시예의 클릭 입력, 길게 누르기 입력 또는 세게 누르기 입력에 대한 관련 설명을 참조할 수 있고, 반복을 피하기 위해 여기서는 더 이상 반복하여 설명하지 않는다.
단계 S202a3에서, 전자 기기는 제3 입력에 응답하여, 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 M개의 타깃 객체를 획득한다.
본 발명의 실시예에서, 전자 기기가 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대한 사용자의 제3 입력을 수신한 후, 전자 기기는 제3 입력에 응답하여, 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 M개의 타깃 객체를 획득할 수 있다.
설명해야 할 것은, 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하는 단계에 대한 설명은 상기 단계 S202a1 ~ 단계 S202a2에 대한 설명을 참조할 수 있으며, 반복을 피하기 위해 여기서는 더 이상 반복하여 설명하지 않는다.
본 발명의 실시예에서, 사용자는 실제 사용 요구사항에 따라 특정 속성 옵션을 선택할 수 있기 때문에, 전자 기기는 제2 이미지에서 상기 속성 옵션에 의해 지시되는 속성 정보에 대응되는 객체를 정확하게 식별할 수 있고, 즉 전자 기기는 사용자가 식별하고자 하는 객체를 정확하게 식별함으로써, 전자 기기가 식별할 필요가 없는 다른 객체를 식별하는 것을 방지할 수 있다.
설명해야 할 것은, 본 발명의 실시예에서 상기 각 방법의 도면에 도시된 객체 디스플레이 방법은 모두 본 발명의 실시예의 하나의 도면을 예로 들어 예시적으로 설명한 것이다. 구체적인 구현에서, 상기 각 방법의 도면에 도시된 객체 디스플레이 방법은 또한 상기 실시예에 예시된 결합 가능한 다른 임의의 도면을 결부하여 구현될 수 있으며, 여기서는 더 이상 반복하여 설명하지 않는다.
도 7에 도시된 바와 같이, 본 발명의 실시예는 전자 기기(400)를 제공하고, 상기 전자 기기(400)는 획득 모듈(401), 처리 모듈(402) 및 수신 모듈(403)을 포함할 수 있다. 여기서 획득 모듈(401)은 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득할 수 있되, 상기 제1 이미지는 제1 카메라를 통해 수집된 이미지일 수 있고, 상기 제2 이미지는 제2 카메라를 통해 수집된 이미지일 수 있으며, 상기 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함될 수 있고, 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 크고; 처리 모듈(402)은 획득 모듈(401)에 의해 획득된 제2 이미지에 따라, 제1 이미지에 적어도 하나의 식별자를 디스플레이할 수 있되, 상기 적어도 하나의 식별자는 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시할 수 있고, M은 자연수이며; 수신 모듈(403)은 처리 모듈(402)에 의해 디스플레이된 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신할 수 있고; 처리 모듈(402)은 또한 수신 모듈(403)에 의해 수신된 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 수신 모듈(403)은 또한 획득 모듈(401)이 제2 이미지를 획득하기 전에 객체 분석 확대 컨트롤에 대한 제2 입력을 수신할 수 있고; 획득 모듈(401)은 구체적으로 수신 모듈(403)에 의해 수신된 제2 입력에 응답하여 제2 이미지를 획득할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 처리 모듈(402)은 구체적으로 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하여, 제2 이미지 중의 M개의 타깃 객체를 획득하고; 제2 이미지 중의 M개의 타깃 객체에 따라, 제1 이미지에 적어도 하나의 식별자를 디스플레이할 수 있되; 상기 제2 이미지 중의 M개의 타깃 객체에 대응되는 엔티티 객체는 타깃 속성 정보에 의해 지시되는 속성에 속할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 처리 모듈(402)은 또한 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별하기 전에, 적어도 하나의 속성 옵션을 디스플레이할 수 있되, 상기 적어도 하나의 속성 옵션 중의 각각의 속성 옵션은 하나의 속성 정보를 지시할 수 있고; 수신 모듈(403)은 또한 처리 모듈(402)에 의해 디스플레이된 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대한 제3 입력을 수신할 수 있으며; 처리 모듈(402)은 구체적으로 수신 모듈(403)에 의해 수신된 제3 입력에 응답하여 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 제2 이미지 중의 객체를 식별할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 처리 모듈(402)은 구체적으로 타깃 속성 정보에 따라 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득하고; 제2 이미지를 적어도 하나의 템플릿 이미지에 매칭시켜, 제2 이미지 중의 객체를 식별할 수 있되; 상기 적어도 하나의 템플릿 이미지 중의 객체에 대응되는 엔티티 객체는 타깃 속성 정보에 의해 지시되는 속성에 속할 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제2 이미지는 제1 카메라가 제1 이미지를 수집하도록 트리거되는 경우 제2 카메라를 통해 수집되어 저장된 이미지일 수 있다.
선택 가능하게, 본 발명의 실시예에서 상기 제2 카메라의 초점 거리는 제1 카메라의 초점 거리보다 클 수 있다.
본 발명의 실시예에 따른 전자 기기는 상기 방법 실시예의 전자 기기에 의해 구현되는 각 과정을 구현할 수 있으며, 반복을 피하기 위해 여기서는 더 이상 반복하여 설명하지 않는다.
본 발명의 실시예는 전자 기기를 제공하며, 전자 기기가 제1 카메라를 통해 수집된 다수의 객체를 포함하는 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 카메라를 통해 수집된 다수의 객체를 포함하는 제2 이미지(상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 큼)를 획득할 수 있고, 또한 전자 기기는 제2 이미지에 따라 제1 이미지에 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하는 적어도 하나의 식별자를 디스플레이할 수 있으며; 그런 다음 전자 기기는 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신할 수 있고; 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다. 상기 해결수단을 통해, 사용자가 제1 이미지 중의 다수의 객체 중 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 전자 기기는 상기 다수의 타깃 객체를 포함하는 제2 이미지를 획득하고, 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있으며, 제2 이미지의 해상도가 제1 이미지의 해상도보다 크기 때문에, 전자 기기가 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이하는 경우, 전자 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
도 8은 본 발명의 각 실시예를 구현하는 전자 기기의 하드웨어 모식도이다. 도 8에 도시된 바와 같이, 상기 전자 기기(100)는 RF 유닛(101), 네트워크 모듈(102), 오디오 출력 유닛(103), 입력 유닛(104), 센서(105), 디스플레이 유닛(106), 사용자 입력 유닛(107), 인터페이스 유닛(108), 메모리(109), 프로세서(110) 및 전원(111) 등 구성요소를 포함하지만 이에 한정되지 않는다. 당업자는 도 8에 도시된 전자 기기 구조가 전자 기기에 대해 한정하지 않으며, 전자 기기는 도시된 것보다 더 많거나 더 적은 구성요소를 포함하거나, 또는 일부 구성요소를 조합하거나, 또는 상이한 구성요소로 배치될 수 있음을 이해할 수 있다. 본 발명의 실시예에서, 전자 기기는 휴대폰, 태블릿 컴퓨터, 노트북 컴퓨터, 팜톱 컴퓨터, 차량용 단말기, 웨어러블 기기 및 보수계 등을 포함하지만 이에 한정되지 않는다.
여기서, 프로세서(110)는 디스플레이 유닛(106)이 제1 이미지를 디스플레이하는 경우 제2 이미지를 획득하고, 제2 이미지에 따라 디스플레이 유닛(106)이 제1 이미지에 적어도 하나의 식별자를 디스플레이하도록 제어하며, 사용자 입력 유닛(107)이 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신하도록 제어하고, 제1 입력에 응답하여 제2 이미지의 제1 객체를 확대하고 디스플레이할 수 있다. 여기서, 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 제1 이미지 및 제2 이미지에는 모두 다수의 객체가 포함되고, 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 제2 이미지의 해상도는 제1 이미지의 해상도보다 크고, 적어도 하나의 식별자는 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하며, M은 자연수이다.
이해할 수 있는 것은, 본 발명의 실시예에서 상기 전자 기기의 구조 모식도(예를 들어, 상기 도 7) 중의 획득 모듈(401) 및 처리 모듈(402)은 프로세서(110)에 의해 구현될 수 있다. 상기 전자 기기의 구조 모식도(예를 들어, 상기 도 7) 중의 수신 모듈(403)은 상기 사용자 입력 유닛(107)을 통해 구현될 수 있다.
본 발명의 실시예는 전자 기기를 제공하며, 전자 기기가 제1 카메라를 통해 수집된 다수의 객체를 포함하는 제1 이미지를 디스플레이하는 경우, 전자 기기는 제2 카메라를 통해 수집된 다수의 객체를 포함하는 제2 이미지(상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 제1 이미지의 해상도보다 큼)를 획득할 수 있고, 또한 전자 기기는 제2 이미지에 따라 제1 이미지에 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하는 적어도 하나의 식별자를 디스플레이할 수 있으며; 그런 다음 전자 기기는 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신할 수 있고; 제1 입력에 응답하여 제2 이미지 중의 제1 객체를 확대하고 디스플레이할 수 있다. 상기 해결수단을 통해, 사용자가 제1 이미지 중의 다수의 객체 중 특정 타깃 객체의 확대 후의 디스플레이 효과를 보려고 하는 경우, 전자 기기는 상기 다수의 타깃 객체를 포함하는 제2 이미지를 획득하고, 제2 이미지 중의 상기 타깃 객체를 확대하여 디스플레이할 수 있으며, 제2 이미지의 해상도가 제1 이미지의 해상도보다 크기 때문에, 전자 기기가 제2 이미지 중의 타깃 객체를 확대하여 디스플레이하는 경우, 전자 기기가 보다 나은 디스플레이 효과로 상기 타깃 객체를 확대하여 디스플레이하도록 확보할 수 있다.
이해해야 할 것은, 본 발명의 실시예에서 RF 유닛(101)은 정보의 송수신에 사용되거나 또는 통화 과정에서 신호의 수신 또는 송신에 사용될 수 있고, 구체적으로 기지국으로부터 유래된 다운링크 데이터를 수신한 후 프로세서(110)에 의해 처리되며; 또한, 업링크 데이터를 기지국에 송신한다. 통상적으로, RF 유닛(101)은 안테나, 적어도 하나의 증폭기, 트랜시버, 커플러, 저잡음 증폭기, 듀플렉서 등을 포함하지만 이에 한정되지 않는다. 이 밖에, RF 유닛(101)은 무선 통신 시스템을 통해 네트워크 및 다른 기기와 통신할 수 있다.
전자 기기는 네트워크 모듈(102)을 통해 사용자에게 무선 광대역 인터넷 액세스를 제공하며, 예를 들어 사용자가 메일을 송수신하고 웹 페이지를 브라우징하며 스트리밍 미디어에 액세스하는 등이다.
오디오 출력 유닛(103)은 RF 유닛(101) 또는 네트워크 모듈(102)에 의해 수신되거나 메모리(109)에 저장된 오디오 데이터를 오디오 신호로 변환하여 사운드로 출력할 수 있다. 또한, 오디오 출력 유닛(103)은 전자 기기(100)에 의해 실행되는 특정 기능과 관련된 오디오 출력(예를 들어, 호출 신호 수신음, 메시지 수신음 등)을 제공할 수도 있다. 오디오 출력 유닛(103)은 스피커, 버저 및 수신기 등을 포함한다.
입력 유닛(104)은 오디오 또는 비디오 신호를 수신한다. 입력 유닛(104)은 그래픽 처리 장치(graphics processing unit, GPU)(1041) 및 마이크로폰(1042)을 포함할 수 있고, 그래픽 처리 장치(1041)는 비디오 캡쳐 모드 또는 이미지 캡쳐 모드에서 이미지 캡쳐 장치(예를 들어, 카메라)에 의해 획득된 정적 사진 또는 비디오의 이미지 데이터를 처리한다. 처리된 이미지 프레임은 디스플레이 유닛(106)에 디스플레이될 수 있다. 그래픽 처리 장치(1041)에 의해 처리된 이미지 프레임은 메모리(109)(또는 다른 저장 매체)에 저장되거나 RF 유닛(101) 또는 네트워크 모듈(102)을 통해 전송될 수 있다. 마이크로폰(1042)은 사운드를 수신할 수 있고, 이러한 사운드를 오디오 데이터로 처리할 수 있다. 처리된 오디오 데이터는 전화 통화 모드 하에 RF 유닛(101)을 통해 이동통신 기지국에 전송될 수 있는 포맷으로 변환되어 출력될 수 있다.
전자 기기(100)는 광 센서, 모션 센서 및 다른 센서와 같은 적어도 하나의 센서(105)를 더 포함한다. 구체적으로, 광 센서는 주변 광 센서 및 근접 센서를 포함하고, 여기서 주변 광 센서는 주변 광의 밝기에 따라 디스플레이 패널(1061)의 밝기를 조절할 수 있고, 근접 센서는 전자 기기(100)가 귓가에 닿을 때 디스플레이 패널(1061) 및/또는 백라이트를 끌 수 있다. 모션 센서의 일종으로, 가속도 센서는 각 방향(일반적으로 3축)의 가속도의 크기를 감지할 수 있고, 정지 상태일 때 중력의 크기 및 방향을 감지할 수 있으며, 전자 기기의 자세(예를 들어, 수평 및 수직 화면 전환, 관련 게임, 자력계 자세 교정) 식별 및 진동 식별 관련 기능(예를 들어, 보수계, 탭핑) 등에 사용될 수 있고; 센서(105)는 지문 센서, 압력 센서, 홍채 센서, 분자 센서, 자이로스코프, 기압계, 습도계, 온도계, 적외선 센서 등을 더 포함할 수 있으며, 여기서는 더 이상 반복하여 설명하지 않는다.
디스플레이 유닛(106)은 사용자에 의해 입력된 정보 또는 사용자에게 제공되는 정보를 디스플레이한다. 디스플레이 유닛(106)은 디스플레이 패널(1061)을 포함할 수 있고, 액정 디스플레이 기기(liquid crystal display, LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 등 형태로 디스플레이 패널(1061)을 구성할 수 있다.
사용자 입력 유닛(107)은 입력된 숫자 또는 캐릭터 정보를 수신하고 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있다. 구체적으로, 사용자 입력 유닛(107)은 터치 패널(1071) 및 다른 입력 기기(1072)를 포함한다. 터치 패널(1071)은 터치 스크린이라고도 하며, 그 위에서 또는 그 근처에서 사용자의 터치 조작(예를 들어, 사용자가 손가락, 터치 펜과 같은 임의의 적절한 물체 또는 부속품을 사용하여 터치 패널(1071) 또는 터치 패널(1071) 근처에서 조작하는 것)을 수집할 수 있다. 터치 패널(1071)은 터치 감지 장치 및 터치 컨트롤러의 두 부분을 포함할 수 있다. 여기서, 터치 감지 장치는 사용자의 터치 방향을 감지하고, 터치 조작에 의해 발생되는 신호를 감지하며, 신호를 터치 컨트롤러로 전송하고; 터치 컨트롤러는 터치 감지 장치로부터 터치 정보를 수신하며, 이를 터치 포인트 좌표로 변환한 다음 프로세서(110)로 전송하고, 프로세서(110)가 보낸 명령을 수신하여 실행한다. 이 밖에, 터치 패널(1071)은 전기저항식, 전기용량식, 적외선 및 표면탄성파 등 다양한 유형으로 구현될 수 있다. 터치 패널(1071) 이외에, 사용자 입력 유닛(107)은 다른 입력 기기(1072)를 더 포함할 수 있다. 구체적으로, 다른 입력 기기(1072)는 물리적 키보드, 기능 키(예를 들어, 볼륨 조절 키, 스위치 키 등), 트랙볼, 마우스 및 조이스틱을 포함할 수 있지만 이에 한정되지 않으며, 여기서는 더 이상 반복하여 설명하지 않는다.
나아가, 터치 패널(1071)은 디스플레이 패널(1061)에 커버될 수 있으며, 터치 패널(1071)이 그 위에서 또는 그 근처에서 터치 조작을 감지한 후, 터치 이벤트의 유형을 결정하기 위해 프로세서(110)로 전송하고, 그런 다음 프로세서(110)는 터치 이벤트의 유형에 따라 디스플레이 패널(1061)에 상응한 시각적 출력을 제공한다. 도 8에서, 터치 패널(1071)과 디스플레이 패널(1061)은 2개의 독립적인 구성요소로 전자 기기의 입력 및 출력 기능을 구현하지만, 일부 실시예에서 터치 패널(1071)과 디스플레이 패널(1061)을 통합하여 전자 기기의 입력 및 출력 기능을 구현할 수 있으며, 구체적인 것은 여기에서 한정하지 않는다.
인터페이스 유닛(108)은 외부 장치가 전자 기기(100)에 연결되기 위한 인터페이스이다. 예를 들어, 외부 장치는 유선 또는 무선 헤드셋 포트, 외부 전원(또는 배터리 충전기) 포트, 유선 또는 무선 데이터 포트, 메모리 카드 포트, 식별 모듈을 갖는 장치를 연결하기 위한 포트, 오디오 입력/출력(I/O) 포트, 비디오 I/O 포트, 헤드폰 포트 등을 포함할 수 있다. 인터페이스 유닛(108)은 외부 장치에서 유래된 입력(예를 들어, 데이터 정보, 전력 등)을 수신하고 수신된 입력을 전자 기기(100) 내의 하나 이상의 소자로 전송하거나 전자 기기(100)와 외부 장치 간의 데이터 전송에 사용될 수 있다.
메모리(109)는 소프트웨어 프로그램 및 다양한 데이터를 저장할 수 있다. 메모리(109)는 주로 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있으며, 여기서 프로그램 저장 영역은 운영체제, 적어도 하나의 기능에 필요되는 애플리케이션(예를 들어, 사운드 재생 기능, 이미지 재생 기능 등) 등을 저장할 수 있고; 데이터 저장 영역은 휴대폰의 사용에 따라 생성된 데이터(예를 들어 오디오 데이터, 전화번호부 등) 등을 저장할 수 있다. 이 밖에, 메모리(109)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 적어도 하나의 자기 디스크 저장 소자, 플래시 메모리 소자 또는 다른 휘발성 솔리드 스테이트 저장 소자와 같은 비휘발성 메모리를 포함할 수 있다.
프로세서(110)는 전자 기기의 제어 센터로서, 다양한 인터페이스 및 회로를 이용하여 전체 전자 기기의 각 부분을 연결하며, 메모리(109) 내에 저장된 소프트웨어 프로그램 및/또는 모듈을 가동 또는 실행하고 메모리(109) 내에 저장된 데이터를 호출하여, 전자 기기의 다양한 기능을 수행하고 데이터를 처리함으로써, 전자 기기에 대해 전체적인 모니터링을 수행한다. 프로세서(110)는 하나 이상의 처리 유닛을 포함할 수 있고; 선택 가능하게, 프로세서(110)는 애플리케이션 프로세서 및 모뎀 프로세서를 통합할 수 있으며, 여기서 애플리케이션 프로세서는 주로 운영체제, 사용자 인터페이스 및 애플리케이션 등을 처리하고, 모뎀 프로세서는 주로 무선 통신을 처리한다. 이해할 수 있는 것은, 상기 모뎀 프로세서는 프로세서(110)에 통합되지 않을 수도 있다.
전자 기기(100)는 각 구성요소에 전원을 공급하기 위한 전원(111)(예를 들어, 배터리)을 더 포함할 수 있으며, 선택 가능하게, 전원(111)은 전원 관리 시스템을 통해 프로세서(110)에 논리적으로 연결되어, 전원 관리 시스템을 통해 충전, 방전 및 전력 소모 관리 등 기능을 구현할 수 있다.
또한, 전자 기기(100)는 일부 미도시된 기능 모듈을 포함하며, 여기서는 더 이상 반복하여 설명하지 않는다.
선택 가능하게, 본 발명의 실시예는 또한 전자 기기를 제공하며, 도 8에 도시된 바와 같이 프로세서(110), 메모리(109), 메모리(109)에 저장되고 프로세서(110)에 의해 실행 가능한 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 프로세서(110)에 의해 실행되면 상기 방법 실시예의 각 과정이 구현되고, 동일한 기술적 효과를 도달할 수 있으며, 반복을 피하기 위해 여기서는 반복하여 설명하지 않는다.
선택 가능하게, 본 발명의 실시예는 또한 컴퓨터 판독 가능 저장 매체를 제공하고, 컴퓨터 판독 가능 저장 매체에는 컴퓨터 프로그램이 저장되며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행되면 상기 방법 실시예의 각 과정이 구현되고, 동일한 기술적 효과를 도달할 수 있으며, 반복을 피하기 위해 여기서는 반복하여 설명하지 않는다. 여기서, 상기 컴퓨터 판독 가능 저장 매체는 판독 전용 메모리(read-only memory, ROM), 랜덤 액세스 메모리(random access memory, RAM), 자기 디스크 또는 광 디스크 등을 포함할 수 있다.
설명해야 할 것은, 본문에서 용어 "포괄", "포함" 또는 이들의 임의의 다른 변형은 비배타적인 포함을 포함하는 것으로 의도되며, 따라서 일련의 요소를 포함하는 과정, 방법, 물품 또는 장치는 이러한 요소를 포함할 뿐만 아니라 명시적으로 나열되지 않은 다른 요소를 포함하거나 또는 이러한 과정, 방법, 물품 또는 장치의 고유한 요소를 포함한다. 추가 제한 없이, 문구 "하나의 ...을 포함"에 의해 한정되는 요소는 상기 요소를 포함하는 과정, 방법, 물품 또는 장치에서 존재하는 다른 동일한 요소를 배제하지 않는다.
상기 실시형태의 설명을 통해, 당업자는 상기 실시예의 방법이 소프트웨어와 필요한 범용 하드웨어 플랫폼에 의해 구현될 수 있고, 물론 하드웨어를 통해 구현될 수 있지만, 많은 경우에 전자가 더 바람직한 실시형태임을 명확하게 이해할 수 있다. 이러한 이해에 기반하여, 본 발명의 기술적 해결수단은 본질적으로 또는 선행기술에 기여하는 부분은 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체(예를 들어, ROM/RAM, 자기 디스크, 광 디스크)에 저장되며, 하나의 전자 기기(휴대폰, 컴퓨터, 서버, 에어컨 또는 네트워크 기기 등일 수 있음)가 본 발명의 각 실시예에 따른 방법을 실행하도록 하는 복수의 명령이 포함된다.
이상, 첨부된 도면을 결부하여 본 발명의 실시예에 대해 설명하였지만, 본 발명은 상기 구체적인 실시형태에 한정되지 않으며, 상기 구체적인 실시형태는 한정적이 아닌 예시적인 것에 불과하고, 당업자는 본 발명의 교시하에 본 발명의 취지 및 특허청구범위의 보호 범위를 벗어나지 않고 많은 형태를 이룰 수 있으며, 이들은 모두 본 발명의 보호 범위에 속한다.

Claims (17)

  1. 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득하는 바, 상기 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 상기 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 상기 제1 이미지 및 상기 제2 이미지에는 모두 다수의 객체가 포함되고, 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 상기 제1 이미지의 해상도보다 큰 단계;
    상기 제2 이미지에 따라 상기 제1 이미지에 적어도 하나의 식별자를 디스플레이하는 바, 상기 적어도 하나의 식별자는 상기 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하고, M은 자연수인 단계;
    상기 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 제1 입력을 수신하는 단계; 및
    상기 제1 입력에 응답하여 상기 제2 이미지 중의 제1 객체를 확대하고 디스플레이하는 단계;를 포함하는 객체 디스플레이 방법.
  2. 제1항에 있어서,
    제2 이미지를 획득하기 전에, 상기 방법은,
    객체 분석 확대 컨트롤에 대한 제2 입력을 수신하는 단계를 더 포함하고;
    제2 이미지를 획득하는 단계는,
    상기 제2 입력에 응답하여 상기 제2 이미지를 획득하는 단계를 포함하는 객체 디스플레이 방법.
  3. 제1항에 있어서,
    상기 제2 이미지에 따라 상기 제1 이미지에 적어도 하나의 식별자를 디스플레이하는 단계는,
    타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하여 상기 제2 이미지 중의 M개의 타깃 객체를 획득하는 바, 상기 제2 이미지 중의 M개의 타깃 객체에 대응되는 엔티티 객체는 상기 타깃 속성 정보에 의해 지시되는 속성에 속하는 단계; 및
    상기 제2 이미지 중의 M개의 타깃 객체에 따라, 상기 제1 이미지에 상기 적어도 하나의 식별자를 디스플레이하는 단계;를 포함하는 객체 디스플레이 방법.
  4. 제3항에 있어서,
    타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하기 전에, 상기 방법은,
    적어도 하나의 속성 옵션을 디스플레이하는 바, 각각의 속성 옵션은 하나의 속성 정보를 지시하는 데 사용되는 단계; 및
    상기 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대한 제3 입력을 수신하는 단계;를 더 포함하고;
    타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하는 단계는,
    상기 제3 입력에 응답하여 상기 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하는 단계를 포함하는 객체 디스플레이 방법.
  5. 제3항 또는 제4항에 있어서,
    타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하는 단계는,
    상기 타깃 속성 정보에 따라 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득하는 바, 상기 적어도 하나의 템플릿 이미지 중의 객체에 대응되는 엔티티 객체는 상기 타깃 속성 정보에 의해 지시되는 속성에 속하는 단계; 및
    상기 제2 이미지를 상기 적어도 하나의 템플릿 이미지에 매칭시켜 상기 제2 이미지 중의 객체를 식별하는 단계를 포함하는 객체 디스플레이 방법.
  6. 제1항에 있어서,
    상기 제2 이미지는 상기 제1 카메라가 상기 제1 이미지를 수집하도록 트리거되는 경우 상기 제2 카메라를 통해 수집되어 저장된 이미지인 객체 디스플레이 방법.
  7. 제1항에 있어서,
    상기 제2 카메라의 초점 거리는 상기 제1 카메라의 초점 거리보다 큰 객체 디스플레이 방법.
  8. 획득 모듈, 처리 모듈 및 수신 모듈을 포함하며;
    상기 획득 모듈은 제1 이미지가 디스플레이되는 경우 제2 이미지를 획득하되, 상기 제1 이미지는 제1 카메라를 통해 수집된 이미지이고, 상기 제2 이미지는 제2 카메라를 통해 수집된 이미지이며, 상기 제1 이미지 및 상기 제2 이미지에는 모두 다수의 객체가 포함되고, 상기 다수의 객체는 다수의 제1 엔티티 객체의 이미지이며, 상기 제2 이미지의 해상도는 상기 제1 이미지의 해상도보다 크고;
    상기 처리 모듈은 상기 획득 모듈에 의해 획득된 상기 제2 이미지에 따라 상기 제1 이미지에 적어도 하나의 식별자를 디스플레이하되, 상기 적어도 하나의 식별자는 상기 제1 이미지 중의 다수의 객체 중 M개의 타깃 객체를 지시하고, M은 자연수이며;
    상기 수신 모듈은 상기 처리 모듈에 의해 디스플레이된 상기 제1 이미지 중의 M개의 타깃 객체 중 제1 객체에 대한 사용자의 제1 입력을 수신하고;
    상기 처리 모듈은 또한 상기 수신 모듈에 의해 수신된 상기 제1 입력에 응답하여 상기 제2 이미지 중의 제1 객체를 확대하고 디스플레이하는 전자 기기.
  9. 제8항에 있어서,
    상기 수신 모듈은 또한 상기 획득 모듈이 상기 제2 이미지를 획득하기 전에 객체 분석 확대 컨트롤에 대한 제2 입력을 수신하고;
    상기 획득 모듈은 구체적으로 상기 수신 모듈에 의해 수신된 상기 제2 입력에 응답하여 상기 제2 이미지를 획득하는 전자 기기.
  10. 제8항에 있어서,
    상기 처리 모듈은 구체적으로 타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하여 상기 제2 이미지 중의 M개의 타깃 객체를 획득하고; 상기 제2 이미지 중의 M개의 타깃 객체에 따라, 상기 제1 이미지에 상기 적어도 하나의 식별자를 디스플레이하되; 상기 제2 이미지 중의 M개의 타깃 객체에 대응되는 엔티티 객체는 상기 타깃 속성 정보에 의해 지시되는 속성에 속하는 전자 기기.
  11. 제10항에 있어서,
    상기 처리 모듈은 또한 상기 타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하기 전에 적어도 하나의 속성 옵션을 디스플레이하되, 각각의 속성 옵션은 하나의 속성 정보를 지시하고;
    상기 수신 모듈은 또한 상기 처리 모듈에 의해 디스플레이된 상기 적어도 하나의 속성 옵션 중의 타깃 속성 옵션에 대한 제3 입력을 수신하며;
    상기 처리 모듈은 구체적으로 상기 수신 모듈에 의해 수신된 상기 제3 입력에 응답하여 상기 타깃 속성 옵션에 의해 지시되는 타깃 속성 정보에 따라 상기 제2 이미지 중의 객체를 식별하는 전자 기기.
  12. 제10항 또는 제11항에 있어서,
    상기 처리 모듈은 구체적으로 상기 타깃 속성 정보에 따라 템플릿 라이브러리에서 적어도 하나의 템플릿 이미지를 획득하고; 상기 제2 이미지를 상기 적어도 하나의 템플릿 이미지에 매칭시켜 상기 제2 이미지 중의 객체를 식별하되; 상기 적어도 하나의 템플릿 이미지 중의 객체에 대응되는 엔티티 객체는 상기 타깃 속성 정보에 의해 지시되는 속성에 속하는 전자 기기.
  13. 제8항에 있어서,
    상기 제2 이미지는 상기 제1 카메라가 상기 제1 이미지를 수집하도록 트리거되는 경우 상기 제2 카메라를 통해 수집되어 저장된 이미지인 전자 기기.
  14. 제8항에 있어서,
    상기 제2 카메라의 초점 거리는 상기 제1 카메라의 초점 거리보다 큰 전자 기기.
  15. 프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에 의해 실행 가능한 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행되면 제1항 내지 제7항 중 어느 한 항에 따른 객체 디스플레이 방법의 단계가 구현되는 전자 기기.
  16. 프로세서에 의해 실행되면 제1항 내지 제7항 중 어느 한 항에 따른 객체 디스플레이 방법의 단계가 구현되는 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 저장 매체.
  17. 제1항 내지 제7항 중 어느 한 항에 따른 객체 디스플레이 방법을 구현하도록 구성되는 전자 기기.
KR1020227021130A 2019-11-25 2020-11-24 객체 디스플레이 방법 및 전자 기기 KR102680936B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911167320.5A CN110944113B (zh) 2019-11-25 2019-11-25 对象显示方法及电子设备
CN201911167320.5 2019-11-25
PCT/CN2020/131166 WO2021104266A1 (zh) 2019-11-25 2020-11-24 对象显示方法及电子设备

Publications (2)

Publication Number Publication Date
KR20220103782A true KR20220103782A (ko) 2022-07-22
KR102680936B1 KR102680936B1 (ko) 2024-07-04

Family

ID=

Also Published As

Publication number Publication date
CN110944113B (zh) 2021-04-27
EP4068750A1 (en) 2022-10-05
US20220286622A1 (en) 2022-09-08
EP4068750A4 (en) 2023-01-25
CN110944113A (zh) 2020-03-31
WO2021104266A1 (zh) 2021-06-03
JP2023502414A (ja) 2023-01-24
JP7371254B2 (ja) 2023-10-30

Similar Documents

Publication Publication Date Title
CN110891144B (zh) 一种图像显示方法及电子设备
CN110913132B (zh) 对象跟踪方法及电子设备
CN109743498B (zh) 一种拍摄参数调整方法及终端设备
CN111541845A (zh) 图像处理方法、装置及电子设备
JP7371254B2 (ja) 対象表示方法及び電子機器
JP7509884B2 (ja) カメラ起動方法及び電子機器
CN110908558A (zh) 一种图像显示方法及电子设备
CN111273993B (zh) 图标整理方法及电子设备
CN110752981B (zh) 一种信息控制方法及电子设备
CN109495616B (zh) 一种拍照方法及终端设备
WO2021083058A1 (zh) 图像处理方法、服务器及终端设备
CN109901761B (zh) 一种内容显示方法及移动终端
CN111064848B (zh) 图片显示方法及电子设备
WO2020215967A1 (zh) 内容选中方法及终端设备
CN110830713A (zh) 一种变焦方法及电子设备
CN110908555A (zh) 一种图标显示方法及电子设备
CN111124231B (zh) 图片生成方法及电子设备
CN110209324B (zh) 一种显示方法及终端设备
CN109104573B (zh) 一种确定对焦点的方法及终端设备
CN111093035B (zh) 图像处理方法、电子设备及存储介质
CN111638843A (zh) 信息处理方法、装置及电子设备
CN109857578B (zh) 一种文本复制方法和电子设备
CN111104533A (zh) 一种图片处理方法及电子设备
CN110780795A (zh) 一种截屏方法及电子设备
CN111045560A (zh) 图片的发送方法及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right