KR20200111446A - 합성 이미지를 생성하는 전자 장치 및 방법 - Google Patents

합성 이미지를 생성하는 전자 장치 및 방법 Download PDF

Info

Publication number
KR20200111446A
KR20200111446A KR1020190031101A KR20190031101A KR20200111446A KR 20200111446 A KR20200111446 A KR 20200111446A KR 1020190031101 A KR1020190031101 A KR 1020190031101A KR 20190031101 A KR20190031101 A KR 20190031101A KR 20200111446 A KR20200111446 A KR 20200111446A
Authority
KR
South Korea
Prior art keywords
attribute
raw image
area
image
electronic device
Prior art date
Application number
KR1020190031101A
Other languages
English (en)
Inventor
한창수
김성오
김영조
박현희
이정은
임성준
전형주
최종범
원종훈
이아랑
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190031101A priority Critical patent/KR20200111446A/ko
Priority to PCT/KR2020/003720 priority patent/WO2020190030A1/en
Priority to EP20772796.7A priority patent/EP3921805A4/en
Priority to US16/823,795 priority patent/US11308593B2/en
Publication of KR20200111446A publication Critical patent/KR20200111446A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는, 프로세서 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고, 상기 메모리는, 실행되었을 때 상기 프로세서로 하여금, 외부 전자 장치로부터, 사용자 입력을 수신하고, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하고, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하고, 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 인스트럭션들(instructions)을 저장한다.이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

합성 이미지를 생성하는 전자 장치 및 방법 {Electronic device for generating composite image and method thereof}
본 문서에서 개시되는 실시 예들은, 합성 이미지를 생성하는 전자 장치 및 방법과 관련된다.
전자 장치는 이미지 센서를 통하여 로우(raw) 이미지를 획득할 수 있다. 사용자가 로우 이미지들의 일부 및/또는 전부를 합성하여 합성 이미지를 생성하기 위해 전자 장치를 이용하는 경우, 사용자는 자연스러운 합성 이미지를 위해 로우 이미지들 각각의 속성을 일일이 조정할 필요가 있다.
한편, 전자 장치는 이미지 백업 기능 및 새로운 미디어 콘텐츠 생성 기능을 사용자에게 제공하기 위하여, 클라우드 시스템을 이용할 수 있다. 클라우드 시스템은 영상 매칭 등의 기법과 같이 전자 장치에서 수행되기 어려운 컴퓨터 기반의 기술을 적용함으로써 이미지를 처리할 수 있다. 클라우드 시스템은, 전자 장치로부터 수신한 로우 이미지들의 일부 및/또는 전부를 합성하여, 합성 이미지를 생성할 수 있다.
클라우드 시스템이 합성 이미지를 생성하는 과정에서 각 로우 이미지들을 보정한 후, 보정된 각 로우 이미지들을 합성하여 합성 이미지를 생성하면, 합성 이미지 전체적으로 밝기, 화이트 밸런스 등이 부자연스러울 수 있다.
본 문서에 개시되는 실시 예에 따르면, 전자 장치는 합성 이미지를 위한 속성을 자동적으로 생성할 수 있다. 또한, 본 문서에 개시되는 실시 예에 따르면, 전자 장치는 합성을 원하는 로우 이미지들 각각에 대한 보정을 수행하는 대신, 로우 이미지 각각의 일부 및/또는 전부 영역을 이용하여 합성 로우 이미지를 생성한 후 합성 이미지를 위한 속성을 이용하여 보정함으로써 합성 이미지를 생성할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 프로세서 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고, 상기 메모리는, 실행되었을 때 상기 프로세서로 하여금, 외부 전자 장치로부터, 사용자 입력을 수신하고, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하고, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하고, 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 인스트럭션들(instructions)을 저장한다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치의 합성 이미지 생성 방법에 있어서, 사용자 입력을 수신하는 동작, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작 및 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하는 동작을 포함할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서, 상기 인스트럭션들은, 전자 장치에 의해 실행될 때, 상기 전자 장치로 하여금, 사용자 입력을 수신하는 동작, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작 및 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 동작을 수행하도록 할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치가 합성 이미지를 위한 속성을 생성함으로써, 사용자가 합성을 원하는 로우 이미지들의 속성을 일일이 보정할 필요가 없고, 합성 이미지를 생성하는 데에 소요되는 시간을 감소시킬 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 합성 로우 이미지를 생성한 후 합성 이미지를 위한 속성을 이용하여 보정함으로써 합성 이미지를 생성하므로, 합성 이미지의 완성도를 높일 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 본 문서에 개시되는 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 도 1의 카메라 모듈(180)을 예시하는 블럭도이다.
도 3은 본 문서에 개시되는 실시 예에 따라 합성 이미지를 생성하는 전자 장치 및 외부 전자 장치의 블록도이다.
도 4는 본 문서에 개시되는 실시 예에 따른 속성을 설명하기 위한 도면이다.
도 5는 본 문서에 개시되는 실시 예에 따른 전자 장치가 합성 이미지를 생성하는 방법을 설명하기 위한 순서도이다.
도 6은 본 문서에 개시되는 실시 예에 따른 전자 장치 및 외부 전자 장치의 동작을 설명하기 위한 개념도이다.
도 7은 도 5의 동작(S300)을 설명하기 위한 순서도이다.
도 8a, 도 8b 및 도 8c는, 도 7의 전자 장치의 동작을 설명하기 위한 도면들이다.
도 9는 본 문서에 개시되는 실시 예에 따라 전자 장치가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다.
도 10은 본 문서에 개시되는 실시 예에 따라 전자 장치가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다.
도 11은 본 문서에 개시되는 실시 예에 따라 전자 장치가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다.
도 12는 본 문서에 개시되는 실시 예에 따른 전자 장치가 합성 이미지를 생성하는 방법을 설명하기 위한 순서도이다.
도 13a 및 도 13b는, 도 12의 전자 장치의 동작을 설명하기 위한 도면들이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 본 문서에 개시되는 실시 예에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 도 1의 카메라 모듈(180)을 예시하는 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일 실시 예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일 실시 예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일 실시 예에 따르면, 이미지 스태빌라이저(240)는, 일 실시 예에 따르면, 이미지 스태빌라이저(240)는 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일 실시 예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)를 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(160)를 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일 실시 예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(260)는 이미지 센서(230)를 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장 되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 표시 장치(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일 실시 예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)가 프로세서(120)와 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(160)를 통해 표시될 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
도 3은 본 문서에 개시되는 실시 예에 따라 합성 이미지를 생성하는 전자 장치(401) 및 외부 전자 장치(301)의 블록도이다.
도 3을 참조하면, 네트워크 환경(300)(예: 도 1의 네트워크 환경(100))은, 전자 장치(401)(예: 도 1의 전자 장치(104)) 및 외부 전자 장치(301)(예: 도 1의 전자 장치(101) 및/또는 도 2의 카메라 모듈(180))를 포함할 수 있다. 전자 장치(401) 및 외부 전자 장치(301)는, 서로 물리적, 기능적으로 상이한 장치일 수 있다.
일 실시 예에 따르면, 전자 장치(401)는 예를 들어, 클라우드 서버를 포함하고, 외부 전자 장치(301)는 예를 들어, 스마트 폰, 태블릿, 웨어러블 장치, 가전 장치 또는 디지털 카메라를 포함할 수 있다.
외부 전자 장치(301)는, 프로세서(320)(예: 도 1의 프로세서(120) 및/또는 도 2의 이미지 시그널 프로세서(260)), 메모리(330)(예: 도 1의 메모리(130) 및/또는 도 2의 메모리(250)), 디스플레이(360)(예: 도 1의 표시 장치(160)) 및 통신 회로(390)(예: 도 1의 통신 모듈(190))를 포함할 수 있다.
일 실시 예에 따르면, 외부 전자 장치(301)는 도 3에 도시된 구성요소들 이외에 추가적인 구성요소를 적어도 하나 더 포함할 수 있다. 외부 전자 장치(301)는, 예를 들어, 원본 이미지를 획득하는 이미지 센서(예: 도 2의 이미지 센서(230)), 사용자 입력을 수신하는 입력 장치(예: 도 1의 입력 장치(150)), 전자 장치(401)와 물리적으로 연결되기 위하여 이용되는 연결 단자(예: USB 커넥터)중 적어도 하나를 더 포함할 수 있다.
통신 회로(390)는, 전자 장치(401)로 전송하는 데이터, 또는 전자 장치(401)로부터 수신하는 데이터를 처리할 수 있다.
디스플레이(360)는, 프로세서(320)와 전기적으로 연결될 수 있다. 디스플레이(360)는, 다양한 정보를 시각적으로 제공할 수 있다. 예를 들어, 디스플레이(360)는, 이미지를 표시할 수 있다. 일 실시 예에서, 디스플레이(360)는 터치 스크린 디스플레이일 수 있다. 디스플레이(360)가 터치 스크린 디스플레이인 경우, 사용자 입력은 디스플레이(360)를 통해 수신될 수 있다.
메모리(330)는 외부 전자 장치(301)에 포함된 구성요소들의 동작과 연관된 명령, 정보 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(330)는, 실행 시에, 프로세서(320)가 사용자 입력을 전자 장치(401)로 전송하고, 전자 장치(401)로부터 합성 이미지를 수신하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
프로세서(320)는, 외부 전자 장치(301)의 전반적인 기능을 수행하기 위해, 통신 회로(390), 메모리(330) 및 디스플레이(360)와 작동적으로(operatively) 연결될(coupled) 수 있다. 프로세서(320)는 예를 들어, 하나 이상의 프로세서를 포함할 수 있다. 하나 이상의 프로세서는 예를 들어, 이미지 시그널 프로세서(image signal processor, ISP), 애플리케이션 프로세서(application processor, AP), 또는 통신 프로세서(communication processor, CP)를 포함할 수 있다.
프로세서(320)는, 이미지 센서(예: 도 2의 이미지 센서(230))를 통해 적어도 하나의 오브젝트(object)에 대해 획득된 원본 이미지를, 메모리(330)에 저장할 수 있다. 획득된 원본 이미지는 예를 들어, 사진(picture) 또는 동영상(video)에 포함되는 스틸 이미지(still image)를 포함할 수 있다
원본 이미지는 예를 들어, 외부 전자 장치(301) 및/또는 전자 장치(401)에 의해 전처리되지 않은 이미지일 수 있다.
원본 이미지는, 예를 들어, 픽셀(pixel)이 RGB(red, green blue) 중 하나의 색으로 표현되고, 8 내지 16 비트(bit)-뎁스(depth)로 표현될 수 있다. 원본 이미지는, 예를 들어, CFA(color filter array) 패턴에 의하여 처리된 Bayer 이미지일 수 있다. 원본 이미지는, 예를 들어, 하나의 픽셀에서 세 가지 색을 감지할 수 있는 레이어 구조의 원본 이미지일 수 있다. 원본 이미지는, 예를 들어, 하나의 픽셀에서 서로 다른 시차 정보 또는 위상차 정보를 포함하는 DP(dual pixel) 구조의 원본 이미지일 수 있다. 원본 이미지는, 예를 들어, 동일하거나 서로 다른 둘 이상의 이미지 센서들을 통해 획득된 둘 이상의 원본 이미지들을 포함할 수 있다. 둘 이상의 이미지 센서들은 예를 들어 듀얼 센서(dual sensor)(예: RGB + RGB, RGB + 모노(mono), wide + tele)를 포함하거나, 어레이 센서(array sensor)를 포함할 수 있다.
프로세서(320)는, 외부 전자 장치(301)에 입력된 사용자 입력을, 통신 회로(390)를 통해 전자 장치(401)로 전송할 수 있다.
사용자 입력은, 예를 들어, 사용자가 합성하고자 하는 이미지는 제1 및 제2 이미지들이라는 정보, 제1 이미지에 포함된 적어도 하나의 오브젝트 중 합성 이미지에 포함시키기 위해 선택된 오브젝트에 대한 정보, 제2 이미지에 포함된 적어도 하나의 오브젝트 중 합성 이미지에 포함시키기 위해 선택된 오브젝트에 대한 정보, 선택된 제2 이미지의 오브젝트에서 선택된 제1 이미지의 오브젝트가 위치하는 위치 정보, 및 선택된 제2 이미지의 오브젝트에서 선택된 제1 이미지의 오브젝트가 차지하는 크기 정보 중 적어도 하나가 포함될 수 있다.
프로세서(320)는, 전자 장치(401)에 의해 생성된 합성 이미지를, 통신 회로(390)를 통해 수신할 수 있다. 프로세서(320)는, 수신된 합성 이미지를 디스플레이(360)를 통해 표시할 수 있다.
전자 장치(401)는, 예를 들어, 프로세서(420) 및 메모리(430)를 포함할 수 있다. 프로세서(420)와 메모리(430)는 작동적으로 서로 연결될 수 있다. 전자 장치(401)는 도 3에 도시된 구성요소들 이외에 추가적인 구성요소를 적어도 하나 더 포함할 수 있다. 예를 들어, 전자 장치(401)는 외부 전자 장치(301)와 통신을 수행하기 위한 통신 모듈 또는 연결 단자를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(401)의 구성요소들은 동일한 개체(entity)이거나, 별도의 개체를 구성할 수 있다. 전자 장치(401)는 예를 들어, 적어도 하나의 프로세서(420)를 포함할 수 있다.
프로세서(420)는, 외부 전자 장치(301)로부터 사용자 입력을 수신할 수 있다. 프로세서(420)는 사용자 입력에 기반하여, 합성 이미지를 생성하기 위한 전반적인 기능을 수행할 수 있다.
프로세서(420)는, 합성하고자 하는 이미지가 제1 및 제2 이미지들이라는 정보가 포함된 사용자 입력에 기반하여, 제1 이미지에 대응하는 제1 로우 이미지(raw image)와 제2 이미지에 대응하는 제2 로우 이미지를 획득할 수 있다.
일 실시 예에서, 로우 이미지는, 원본 이미지를 의미할 수 있다. 예를 들어, 이미지 센서를 통해 획득된 원본 이미지는 전자 장치(401)로 전송되어 메모리(430) 및/또는 별도의 스토리지에 저장되어 있을 수 있다. 대안적으로, 예를 들어, 전자 장치(401)는 외부 전자 장치(301)로부터 사용자 입력과 함께, 사용자가 합성을 위해 선택한 적어도 하나의 원본 이미지를 전송 받을 수 있다.
일 실시 예에서, 로우 이미지는, 외부 전자 장치(301)에 의해 전처리된 이미지를 의미할 수 있다. 예를 들어, 외부 전자 장치(301)는, 이미지 센서를 통해 획득된 원본 이미지에 대해 압축 해제, 화질 개선, 디모자이크(de-mosaic) 처리, 또는 이미지 형식 변경 중 적어도 하나를 수행하여, 로우 이미지를 생성할 수 있다. 외부 전자 장치(301)에 의해 전처리되어 생성된 로우 이미지는, 전자 장치(401)로 전송되어 메모리(430) 및/또는 별도의 스토리지에 저장되어 있을 수 있다. 대안적으로, 예를 들어, 전자 장치(401)는 외부 전자 장치(301)로부터 사용자 입력과 함께, 사용자가 합성을 위해 선택한 적어도 하나의 로우 이미지를 전송 받을 수 있다.
일 실시 예에서, 로우 이미지는, 전자 장치(401)에 의해 전처리된 이미지를 의미할 수 있다. 예를 들어, 전자 장치(401)는, 이미지 센서를 통해 획득된 원본 이미지를 외부 전자 장치(301)로부터 전송 받을 수 있다. 전자 장치(401)는, 원본 이미지에 대해 압축 해제, 화질 개선, 디모자이크(de-mosaic) 처리, 또는 이미지 형식 변경 중 적어도 하나를 수행하여, 로우 이미지를 생성할 수 있다. 전자 장치(401)에 의해 전처리되어 생성된 로우 이미지는, 메모리(430) 및/또는 별도의 스토리지에 저장되어 있을 수 있다.
프로세서(420)는, 합성 이미지에 포함시키기 위해 제1 및 제2 이미지들에서 선택된 오브젝트들에 대한 정보가 포함된 사용자 입력에 기반하여, 제1 로우 이미지의 일부 영역인 제1 영역과, 제2 로우 이미지의 적어도 일부 영역인 제2 영역을 식별할 수 있다.
일 실시 예에서 프로세서(420)는, 제1 및 제2 로우 이미지들의 영역과 관련된 정보를 분석하기 위한 알고리즘을 수행할 수 있다. 프로세서(420)는, 예를 들어, 제1 및 제2 로우 이미지들에 대해, 사물 인식, 얼굴 인식, 속도 벡터, 세그먼테이션, 장면 파싱(scene parsing)을 분석을 수행할 수 있다. 프로세서(420)는, 알고리즘 수행을 통해, 제1 로우 이미지의 제1 영역과, 제2 로우 이미지의 제2 영역을 식별할 수 있다.
일 실시 예에서 전자 장치(401)는, 외부 전자 장치(301)로부터 사용자가 선택한 제1 로우 이미지의 제1 영역과 제2 로우 이미지의 제2 영역을 수신할 수 있다. 다시 말해서 프로세서(420)는, 외부 전자 장치(301)로부터 사용자 입력과 함께, 제1 및 제2 로우 이미지 전체를 수신하는 대신, 제1 영역 및 제2 영역만을 수신 받을 수 있다.
프로세서(420)는, 제1 영역과 제2 영역을 합성하여, 합성 로우 이미지를 생성할 수 있다. 합성 로우 이미지는, 예를 들어, 합성 이미지를 생성하기 위해 이미지 프로세싱(예: 보정(calibration))이 수행되지 않은 이미지일 수 있다.
프로세서(420)는, 제1 로우 이미지의 제1 속성과 제2 로우 이미지의 제2 속성을 획득할 수 있다.
일 실시 예에서, 프로세서(420)는, 메모리(430) 및/또는 별도의 스토리지로부터 제1 및 제2 속성을 획득할 수 있다. 이 경우, 제1 및 제2 속성은, 메모리(430) 및/또는 별도의 스토리지에 미리 저장되어 있을 수 있다.
일 실시 예에서, 프로세서(420)는, 외부 전자 장치(301)로부터 제1 및 제2 속성을 수신할 수 있다.
도 4는 본 문서에 개시되는 실시 예에 따른 속성을 설명하기 위한 도면이다. 도 4를 참조하면, 속성은, 인식 정보(Recognition Information), 인물 세그멘테이션 지도(Human Segmentation Map), 신뢰성 지도(Confidence Map), 깊이 지도(Depth Map), 노출 시간(Exposure time), 밝기(Lux), ISO 정보, 및 화이트 밸런스 값(WB) 중 적어도 하나를 포함할 수 있다. 속성에 포함되는 항목들(예: 인식 정보, 인물 세그멘테이션 지도, 신뢰성 지도, 깊이 지도, 노출 시간, 밝기, ISO 정보, 및 화이트 밸런스 값)은 예시이며, 본 문서에 개시된 실시 예가 나열된 항목에 한정되는 것은 아니다. 예를 들어, 속성은, 레이어 정보, 벡터 정보 및 장면 카테고리(scene category) 정보 등을 더 포함할 수도 있다.
인식 정보는 예를 들어, 로우 이미지에서 식별된 적어도 하나의 오브젝트가 사람, 동물, 또는 물체인지에 대한 정보가 포함될 수 있고, 나아가 식별된 적어도 하나의 오브젝트에서, 사람의 신체 부위(예: 얼굴, 몸), 동물의 종류, 또는 물체의 종류 등에 대한 정보가 포함될 수 있다. 인식 정보는 예를 들어, 로우 이미지에서 식별된 적어도 하나의 오브젝트가 배치된 로우 이미지(또는 화면)에서의 위치(예: 좌표 정보) 정보를 포함할 수 있다.
인물 세그멘테이션 지도는, 로우 이미지에서 인물 오브젝트를 별도로 식별하여, 식별된 인물 오브젝트의 위치 정보 및 크기 정보 등을 포함할 수 있다.
신뢰성 지도는, 예를 들어, 로우 이미지의 적어도 하나의 오브젝트에 대응되는 각 영역에 대한 정확도 정보를 포함할 수 있다. 신뢰성 지도는, 예를 들어, 로우 이미지의 적어도 하나의 오브젝트에 대응되는 각 영역의 경계에 대한 블러(blur)처리 정도에 대한 정보, 로우 이미지의 다른 영역과의 블렌딩 처리의 필요성에 대한 정보를 포함할 수 있다.
제1 속성은, 제1 로우 이미지의 이미지 파일 식별자(identifier, ID), 촬영 일자, 촬영 모드, 노출 모드, 사진 회전, 측광 모드, ISO 정보, 로우 이미지 형식, 이미지 크기, 최대 조리개 값, 초점 거리, 플래시 사용, 제1 로우 이미지의 적어도 하나의 오브젝트에 대응되는 영역 각각에 대한 인식 정보, 인물 세그멘테이션 지도, 신뢰성 지도, 깊이 지도, 노출 시간, 밝기, ISO 정보, 및 화이트 밸런스 값 중 적어도 하나를 포함할 수 있다. 제2 속성은, 제2 로우 이미지의 이미지 파일 식별자(identifier, ID), 촬영 일자, 촬영 모드, 노출 모드, 사진 회전, 측광 모드, ISO 정보, 로우 이미지 형식, 이미지 크기, 최대 조리개 값, 초점 거리, 플래시 사용, 제2 로우 이미지의 적어도 하나의 오브젝트에 대응되는 영역 각각에 대한 인식 정보, 인물 세그멘테이션 지도, 신뢰성 지도, 깊이 지도, 노출 시간, 밝기, ISO 정보, 및 화이트 밸런스 값 중 적어도 하나를 포함할 수 있다.
다시 도 3을 참조하면, 프로세서(420)는, 제1 속성과 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성할 수 있다.
일 실시 예에서, 전자 장치(401)는 제2 속성을 기준으로 제1 속성을 수정하여, 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는 제1 속성의 화이트 밸런스 값을, 제2 속성의 화이트 밸런스 값으로 수정할 수 있다. 수정된 화이트 밸런스 값을 갖는 제1 속성은, 제3 속성으로 취급될 수 있다.
일 실시 예에서, 전자 장치(401)는 제1 속성을 기준으로 제2 속성을 수정하여, 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는 제2 속성의 화이트 밸런스 값을, 제1 속성의 화이트 밸런스 값으로 수정할 수 있다. 수정된 화이트 밸런스 값을 갖는 제2 속성은, 제3 속성으로 취급될 수 있다.
일 실시 예에서, 전자 장치(401)는 제1 속성과 제2 속성을 모두 수정하여, 제3 속성을 생성할 수 있다. 예를 들어, 제1 속성의 화이트 밸런스 값과 제2 속성의 화이트 밸런스 값이 동일하다고 하더라도, 완성도 높은 합성 이미지 생성을 위해, 전자 장치(401)는 화이트 밸런스 값을 수정하여 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는 제1 속성의 화이트 밸런스 값과 제2 속성의 화이트 밸런스 값의 평균값을 제3 속성의 화이트 밸런스 값 항목에 포함시킬 수 있다.
제3 속성을 생성하는 동작에 대해 화이트 밸런스 값을 예로 들어 설명하였으나, 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(401)는 속성에 포함된 항목 중 적어도 하나(예: 밝기, 노출 시간 등)를 수정할 수 있다.
프로세서(420)는, 제3 속성을 이용하여 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성할 수 있다. 프로세서(420)는, 예를 들어, 제3 속성을 이용하여, 합성 로우 이미지에 대해 화이트 밸런스 조절, 컬러 조정, 색 필터 배열 보간, 샤프닝, 또는 이미지 개선을 수행하여, 합성 이미지를 생성할 수 있다. 합성 이미지는 예를 들어, JPEG, MPEG, 또는 360도 영상의 형태를 가질 수 있다. 합성 이미지는 예를 들어, 사진, 동영상, 또는 동영상의 스틸 이미지에 대한 파일을 포함할 수 있다.
일 실시 예에서, 제3 속성이 제2 속성을 기준으로 생성된 경우, 전자 장치(401)는 제1 영역의 화이트 밸런스 값을 제2 속성의 화이트 밸런스 값으로 수정하여, 합성 이미지를 생성할 수 있다.
일 실시 예에서, 제3 속성이 제1 속성을 기준으로 생성된 경우, 전자 장치(401)는 제2 영역의 화이트 밸런스 값을 제1 속성의 화이트 밸런스 값으로 수정하여, 합성 이미지를 생성할 수 있다.
프로세서(420)는, 합성 이미지를 메모리(430)에 저장할 수 있다. 프로세서(420)는, 합성 이미지를 외부 전자 장치(301)로 전송할 수 있다.
메모리(430)는 전자 장치(401)에 포함된 구성요소들의 동작과 연관된 명령, 정보 또는 데이터를 저장할 수 있다. 예를 들어, 메모리(430)는, 실행 시에, 프로세서(420)가 본 문서에 기재된 다양한 동작을 수행할 수 있도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
도 5는 본 문서에 개시되는 실시 예에 따른 전자 장치(401)가 합성 이미지를 생성하는 방법을 설명하기 위한 순서도이다. 도 6은 본 문서에 개시되는 실시 예에 따른 전자 장치(401) 및 외부 전자 장치(301)의 동작을 설명하기 위한 개념도이다. 설명의 명확성을 위해, 앞서 설명한 것과 중복되는 것은 간략히 하거나 생략한다.
이하에서는 도 3의 전자 장치(401)가 도 5의 프로세스를 수행하는 것을 가정한다. 도 3의 전자 장치(401)에 의해 수행되는 것으로 기술된 동작은 전자 장치(401)의 프로세서(420)에 의해 수행(혹은, 실행)될 수 있는 인스트럭션(명령어)들로 구현될 수 있다. 인스트럭션들은, 예를 들어, 컴퓨터 기록 매체 또는 도 3에 도시된 전자 장치(401)의 메모리(430)에 저장될 수 있다.
도 3, 도 4, 도 5 및 도 6을 참조하면, 동작(S100)에서, 외부 전자 장치(301)(예: 프로세서(320))는, 사용자 입력을 수신할 수 있다.
예를 들어, 사용자는, 외부 전자 장치(301)를 통해 합성하고자 하는 적어도 두 개의 이미지(예: 제1 이미지 및 제2 이미지)를 선택할 수 있다. 사용자는, 제1 이미지에 포함된 적어도 하나의 오브젝트 중, 합성 이미지에 포함시키고자 하는 오브젝트를 적어도 하나 선택할 수 있다. 또한 사용자는, 제2 이미지에 포함된 적어도 하나의 오브젝트 중, 합성 이미지에 포함시키고자 하는 오브젝트를 적어도 하나 선택할 수 있다. 사용자는, 선택한 제1 이미지의 적어도 하나의 오브젝트가, 선택한 제2 이미지의 적어도 하나의 오브젝트에서 차지하는 크기 및 위치를 지정할 수 있다. 예를 들어, 사용자가 제1 이미지에서 제1 오브젝트를 선택하고 제2 이미지에서 제2 오브젝트를 선택한 경우, 사용자는 제2 오브젝트에서의 제1 오브젝트의 위치 및 크기를 지정할 수 있다. 예를 들어, 사용자는 제1 이미지의 중앙에 위치하는 제1 오브젝트를, 합성 이미지에서 중앙으로부터 오른쪽 방향으로 이동된 위치에 위치시키고자 할 수 있다. 또한, 사용자는 합성 이미지에서 제1 오브젝트의 크기를, 제1 이미지에서보다 제2 이미지에서 작게 조정할 수 있다.
동작(S200)에서, 전자 장치(401)는 외부 전자 장치(301)로부터, 사용자 입력을 수신할 수 있다.
동작(S300)에서, 전자 장치(401)는 합성 로우 이미지를 생성할 수 있다. 전자 장치(401)는, 사용자 입력에 기반하여, 제1 로우 이미지의 일부 영역인 제1 영역과, 제2 로우 이미지의 적어도 일부 영역인 제2 영역을 합성하여, 합성 로우 이미지를 생성할 수 있다.
도 7은 도 5의 동작(S300)을 설명하기 위한 순서도이다. 도 8a, 도 8b 및 도 8c는, 도 7의 전자 장치(401)의 동작을 설명하기 위한 도면들이다.
도 7을 참조하면, 동작(S301)에서, 전자 장치(401)는, 사용자 입력에 기반하여, 제1 로우 이미지의 제1 영역 및 제2 로우 이미지의 제2 영역을 식별할 수 있다.
제1 영역은 예를 들어, 제1 로우 이미지의 일부 영역일 수 있다. 제1 로우 이미지의 일부 영역은 예를 들어, 제1 이미지에 포함된 적어도 하나의 오브젝트 중, 사용자가 합성을 위해 선택한 제1 오브젝트에 대응되는 영역일 수 있다. 제1 오브젝트는, 예를 들어, 하나의 오브젝트(예: 사람)를 포함할 수 있다. 제1 오브젝트는, 예를 들어, 복수의 오브젝트들(예: 두 명의 사람)을 포함할 수 있다.
제2 영역은 예를 들어, 제2 로우 이미지의 적어도 일부 영역일 수 있다. 다시 말해서, 제2 영역은, 제2 로우 이미지의 일부 영역일 수도 있고, 제2 로우 이미지의 전체 영역일 수도 있다. 제2 로우 이미지의 적어도 일부 영역은 예를 들어, 제2 이미지에 포함된 적어도 하나의 오브젝트 중, 사용자가 합성을 위해 선택한 제2 오브젝트에 대응되는 영역일 수 있다. 제2 오브젝트는, 예를 들어, 하나의 오브젝트(예: 산)를 포함할 수 있다. 제2 오브젝트는, 예를 들어, 복수의 오브젝트들(예: 산과 하늘)을 포함할 수 있다.
사용자 입력은, 예를 들어, 사용자가 합성하고자 하는 이미지들이 제1 이미지와 제2 이미지라는 정보를 포함할 수 있다. 또한 사용자 입력은, 예를 들어, 사용자가 제1 이미지의 제1 오브젝트와 제2 이미지의 제2 오브젝트를 합성하고자 한다는 정보를 포함할 수 있다.
도 8a를 참조하면, 사용자 입력은, 사용자가 합성하고자 하는 이미지들이 제1 이미지(I1)와 제2 이미지(I2)라는 정보를 포함할 수 있다. 제1 이미지(I1)는, 제1 오브젝트(OB1)(예: 사람)를 포함할 수 있다. 제2 이미지(I2)는 제2 오브젝트(OB2)(예: 산과 하늘)를 포함할 수 있다. 제1 이미지(I1)에서, 제1 오브젝트(OB1)는 중심선(CL)과 일치하는 제1 위치(P0)에 위치할 수 있다. 중심선(CL)은 해당 이미지의 중앙 위치를 나타내는 가상선일 수 있다.
도 8b를 참조하면, 전자 장치(401)는, 사용자 입력에 기반하여, 제1 로우 이미지의 제1 영역(RI1) 및 제2 로우 이미지의 제2 영역(RI2)을 식별할 수 있다. 사용자 입력은, 사용자가 제1 이미지(I1)의 제1 오브젝트(OB1)와 제2 이미지(I2)의 제2 오브젝트(OB2)를 합성하고자 한다는 정보를 포함할 수 있다.
일 실시 예에서 전자 장치(401)는, 사용자 입력에 기반하여, 메모리(430) 및/또는 별도의 스토리지에 저장되어 있던, 제1 이미지에 대응되는 제1 로우 이미지와, 제2 이미지에 대응되는 제2 로우 이미지를 획득할 수 있다. 전자 장치(401)는, 사용자 입력에 기반하여, 제1 오브젝트(OB1)와 대응되는 제1 로우 이미지의 제1 영역(RI1)을 식별하고, 제2 오브젝트(OB2)와 대응되는 제2 로우 이미지의 제2 영역(RI2)을 식별할 수 있다.
일 실시 예에서 전자 장치(401)는, 외부 전자 장치(301)로부터 사용자 입력과 함께, 사용자가 합성을 위해 선택한, 제1 이미지(I1)에 대응되는 제1 로우 이미지와, 제2 이미지(I2)에 대응되는 제2 로우 이미지를 수신할 수 있다. 전자 장치(401)는, 사용자 입력에 기반하여, 제1 오브젝트(OB1)와 대응되는 제1 로우 이미지의 제1 영역(RI1)을 식별하고, 제2 오브젝트(OB2)와 대응되는 제2 로우 이미지의 제2 영역(RI2)을 식별할 수 있다.
일 실시 예에서 전자 장치(401)는, 외부 전자 장치(301)로부터 사용자 입력과 함께, 식별된 제1 로우 이미지의 제1 영역(RI1)과 제2 로우 이미지의 제2 영역(RI2)을 수신할 수 있다.
전자 장치(401)에 의해 식별된 제1 영역(RI1)은, 제1 위치(P0)에 위치할 수 있다. 전자 장치(401)에 의해 식별된 제1 영역(RI1)은, 제1 폭(W1) 및 제1 높이(H1)를 가질 수 있다.
다시 도 7을 참조하면, 동작(S303)에서, 전자 장치(401)는 사용자 입력에 기반하여, 제1 영역 및 제2 영역을 합성하여 합성 로우 이미지를 생성할 수 있다. 전자 장치(401)는, 제1 영역, 제2 영역 및 합성 로우 이미지 각각에 대해, 화이트 밸런스 조절, 컬러 조정, 색 필터 배열 보간, 샤프닝, 또는 이미지 개선과 같은 이미지 프로세싱(예: 보정(calibration))을 수행하지 않을 수 있다.
사용자 입력은, 예를 들어, 합성 이미지에서의 제1 오브젝트의 크기 및 위치 정보를 포함할 수 있다. 전자 장치(401)는, 사용자 입력에 기반하여, 제1 영역의 크기를 조정하고, 제2 영역에서의 제1 영역의 위치를 식별할 수 있다. 전자 장치(401)는, 크기가 조정된 제1 영역을, 제2 영역내의 사용자 입력에 기반한 위치에 위치시킴으로써, 합성 로우 이미지를 생성할 수 있다.
도 8c를 참조하면, 전자 장치(401)는 합성 로우 이미지(CRI)를 생성할 수 있다. 전자 장치(401)는, 사용자 입력에 기반하여 제1 영역(RI1)의 크기 및 위치를 조정할 수 있다.
예를 들어, 전자 장치(401)는 사용자 입력에 기반하여, 제1 영역(RI1)의 폭을 제1 폭(도 8b의 제1 폭(W1))에서 제2 폭(W2)으로 조정할 수 있다. 예를 들어, 전자 장치(401)는 사용자 입력에 기반하여, 제1 영역(RI1)의 높이를 제1 높이(도 8b의 제1 높이(H1))에서 제2 높이(H2)로 조정할 수 있다. 예를 들어, 전자 장치(401)는 사용자 입력에 기반하여, 제1 영역(RI1)의 위치를 제1 위치(P0)에서 제2 위치(P1)로 조정할 수 있다. 제2 위치(P1)는, 제1 위치(P0)인 중심선(CL)으로부터 일정 거리(PD)만큼 이동된 위치일 수 있다. 다시 말해서, 제1 영역(RI1)은, 전자 장치(401)가 제1 로우 이미지에서 제1 영역(RI1)을 식별하였을 때(도 8b)에 비해, 크기와 위치가 조정될 수 있다.
전자 장치(401)는, 크기와 위치가 조정된 제1 영역(RI1)을 제2 영역(RI2)과 합성하여, 합성 로우 이미지(CRI)를 생성할 수 있다.
다시 도 3, 도 4, 도 5 및 도 6을 참조하면, 동작(S400)에서, 전자 장치(401)는 제1 속성과 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성할 수 있다.
일 실시 예에서 제1 속성 및 제2 속성은, 메모리(430) 및/또는 별도의 스토리지에 저장되어 있을 수 있다. 전자 장치(401)는 사용자 입력에 기반하여 제1 로우 이미지 및 제2 로우 이미지를 식별한 경우, 메모리(430) 및/또는 별도의 스토리지로부터 제1 속성 및 제2 속성을 획득할 수 있다.
일 실시 예에서, 제1 속성 및 제2 속성은, 사용자 입력과 함께, 외부 전자 장치(301)로부터 수신할 수 있다.
전자 장치(401)는 획득한 제1 속성과 제2 속성 중 적어도 하나를 수정하여, 제3 속성을 생성할 수 있다. 전자 장치(401)가 제3 속성을 생성하는 동작에 관한 자세한 사항은, 도 9, 도 10 및 도 11 각각을 참조하여 후술한다.
동작(S500)에서, 전자 장치(401)는 제3 속성을 이용하여 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성할 수 있다.
본 문서에 개시되는 실시 예에 따른 전자 장치(401)는, 합성 이미지를 생성하는 데에 적합한 제3 속성을 자동적으로 생성함으로써, 사용자가 합성을 원하는 로우 이미지들(또는 이미지들)의 속성을 일일이 보정할 필요가 없고, 합성 이미지를 생성하는 데에 소요되는 시간을 감소시킬 수 있다. 본 문서에 개시되는 실시 예에 따른 전자 장치(401)는, 제3 속성을 이용하여 합성 로우 이미지를 일괄적으로 보정하여 합성 이미지를 생성함으로써, 합성 이미지의 완성도를 높일 수 있다. 본 문서에 개시되는 실시 예에 따른 전자 장치(401)는, 제3 속성을 이용하여 합성 로우 이미지를 일괄적으로 보정하여 합성 이미지를 생성함으로써, 각 로우 이미지들(또는 이미지들)을 보정한 후 보정된 로우 이미지들(또는 이미지들)을 합성하는 경우에 비해, 전체적으로 통일된 보정을 달성할 수 있다.
동작(S600)에서, 전자 장치(401)는 합성 이미지를 외부 전자 장치(301)로 전송할 수 있다.
동작(S700)에서, 전자 장치(401)는 수신된 합성 이미지를 디스플레이(360)를 통해 표시할 수 있다.
도 9는 본 문서에 개시되는 실시 예에 따라 전자 장치(401)가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다. 도 9는 일 실시 예에 따른 도 5의 동작(S400)을 설명하기 위한 순서도일 수 있다. 설명의 명확성을 위해, 앞서 설명한 것과 중복되는 것은 간략히 하거나 생략한다.
도 9를 참조하면, 동작(S401)에서, 전자 장치(401)는 합성 로우 이미지에서 제1 영역이 차지하는 제1 면적과 기준 면적의 크기를 비교할 수 있다. 예를 들어, 도 8c의 합성 로우 이미지(CRI)에서, 제1 영역(RI1)이 차지하는 제1 면적을 기준 면적과 비교할 수 있다.
동작(S403)에서, 제1 면적이 기준 면적보다 크거나 같으면, 전자 장치(401)는 제1 속성을 기반으로, 제2 속성을 수정하여 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는, 제1 면적이 기준 면적보다 크거나 같으면, 제2 속성의 화이트 밸런스 값 및 밝기를 제1 속성의 화이트 밸런스 값 및 밝기로 수정할 수 있다. 화이트 밸런스 값 및 밝기가 수정된 제2 속성은, 제3 속성으로 취급될 수 있다. 이 경우, 전자 장치(401)는, 제3 속성에 기반하여, 제2 영역의 화이트 밸런스 값 및 밝기를 제1 속성의 화이트 밸런스 값 및 밝기로 수정함으로써, 합성 로우 이미지를 보정할 수 있다.
동작(S405)에서, 제1 면적이 기준 면적보다 작으면, 전자 장치(401)는 제2 속성을 기반으로, 제1 속성을 수정하여 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는, 제1 면적이 기준 면적보다 작으면, 제1 속성의 화이트 밸런스 값 및 밝기를 제2 속성의 화이트 밸런스 값 및 밝기로 수정할 수 있다. 화이트 밸런스 값 및 밝기가 수정된 제1 속성은, 제3 속성으로 취급될 수 있다. 이 경우, 전자 장치(401)는, 제3 속성에 기반하여, 제1 영역의 화이트 밸런스 값 및 밝기를 제2 속성의 화이트 밸런스 값 및 밝기로 수정함으로써, 합성 로우 이미지를 보정할 수 있다.
도 10은 본 문서에 개시되는 실시 예에 따라 전자 장치(401)가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다. 도 10은 일 실시 예에 따른 도 5의 동작(S400)을 설명하기 위한 순서도일 수 있다. 설명의 명확성을 위해, 앞서 설명한 것과 중복되는 것은 간략히 하거나 생략한다.
도 10을 참조하면, 동작(S411)에서, 전자 장치(401)는 합성 로우 이미지에서 제1 영역이 차지하는 제1 면적과, 합성 로우 이미지에서 제2 영역이 차지하는 제2 면적을 비교할 수 있다. 전자 장치(401)는 제1 면적과 제2 면적을 비교하여, 제1 면적과 제2 면적 중 큰 면적과 작은 면적을 식별할 수 있다.
예를 들어, 도 8c를 참조하면, 전자 장치(401)는 합성 로우 이미지(CRI)에서 제1 영역(RI1)이 차지하는 제1 면적과, 제2 영역(RI2)이 차지하는 제2 면적을 비교할 수 있다. 도 8c의 예에서, 전자 장치(401)는 제1 면적이 작은 면적이고, 제2 면적이 큰 면적임을 식별할 수 있다.
다시 도 10을 참조하면, 동작(S413)에서, 전자 장치(401)는 식별된 큰 면적의 속성을 기반으로, 식별된 작은 면적의 속성을 수정하여, 제3 속성을 생성할 수 있다.
예를 들어, 도 8c를 참조하면, 큰 면적은 제2 면적이므로, 전자 장치(401)는 제2 속성을 기반으로, 제1 속성을 수정하여, 제3 속성을 생성할 수 있다. 이 경우, 전자 장치(401)는, 제3 속성에 기반하여, 제1 영역의 화이트 밸런스 값 및 밝기를 제2 속성의 화이트 밸런스 값 및 밝기로 수정함으로써, 합성 로우 이미지를 보정할 수 있다.
도 11은 본 문서에 개시되는 실시 예에 따라 전자 장치(401)가 제3 속성을 생성하는 방법을 설명하기 위한 순서도이다. 도 11은 일 실시 예에 따른 도 5의 동작(S400)을 설명하기 위한 순서도일 수 있다. 설명의 명확성을 위해, 앞서 설명한 것과 중복되는 것은 간략히 하거나 생략한다.
도 11을 참조하면, 동작(S421)에서, 전자 장치(401)는 사용자 입력에 기준 이미지에 대한 정보가 존재하는지 식별할 수 있다. 기준 이미지는, 전자 장치(401)가 제3 속성을 생성함에 있어서, 기준이 되는 속성에 대응되는 이미지일 수 있다. 사용자는, 외부 전자 장치(301)를 통해 기준 이미지를 선택할 수 있다.
동작(S423)에서, 사용자 입력에서 기준 이미지에 대한 정보가 식별된 경우, 전자 장치(401)는 기준 이미지에 대한 속성을 기반으로, 다른 이미지에 대한 속성을 수정하여 제3 속성을 생성할 수 있다. 예를 들어, 기준 이미지가 제1 로우 이미지이면, 전자 장치(401)는 제1 속성을 기반으로, 제2 로우 이미지에 대한 제2 속성을 수정하여, 제3 속성을 생성할 수 있다.
동작(S425)에서, 사용자 입력에서 기준 이미지에 대한 정보가 식별되지 않은 경우, 전자 장치(401)는 제1 속성과 제2 속성의 평균값을 기반으로, 제3 속성을 생성할 수 있다. 예를 들어, 전자 장치(401)는, 제1 속성의 화이트 밸런스 값과 제2 속성의 화이트 밸런스 값의 평균값을, 제3 속성의 화이트 밸런스 항목에 대한 값으로 설정할 수 있다.
도 12는 본 문서에 개시되는 실시 예에 따른 전자 장치(401)가 합성 이미지를 생성하는 방법을 설명하기 위한 순서도이다. 도 13a 및 도 13b는, 도 12의 전자 장치(401)의 동작을 설명하기 위한 도면들이다. 설명의 명확성을 위해, 앞서 설명한 것과 중복되는 것은 간략히 하거나 생략한다.
도 12를 참조하면, 동작(S301)에서, 전자 장치(401)는, 사용자 입력에 기반하여, 제1 로우 이미지의 제1 영역 및 제2 로우 이미지의 제2 영역을 식별할 수 있다.
동작(S501)에서, 전자 장치(401)는, 제1 로우 이미지에서 제1 영역 외에, 추가 영역을 추출할 필요성이 존재하는지 판단할 수 있다. 추가 영역은 예를 들어, 제1 영역의 주변 영역일 수 있다. 추가 영역은 예를 들어, 제1 영역과 직접 접하는 영역일 수 있다. 전자 장치(401)는, 예를 들어, 사용자 입력에 기반하지 않고, 추가 영역을 추출할 필요성이 존재하는지 판단할 수 있다.
동작(S503)에서, 추가 영역을 추출할 필요성이 존재한다고 판단된 경우, 전자 장치(401)는 제1 로우 이미지에서 추가 영역을 더 식별할 수 있다.
동작(S505)에서, 전자 장치(401)는, 제1 영역, 추가 영역 및 제2 영역을 합성하여, 합성 로우 이미지를 생성할 수 있다.
도 8a 및 도 13a를 참조하면, 전자 장치(401)는, 제1 영역(RI1) 외에, 추가 영역(RI1a)을 식별하여 추출할 수 있다. 예를 들어, 사용자가 합성 이미지에 제1 이미지(I1)의 제1 오브젝트(OB1)를 포함시키고자 하는 경우, 전자 장치(401)는 사용자에 의해 선택된 제1 오브젝트(OB1)에 대응되는 제1 영역(RI1) 외에, 추가 영역(RI1a)을 식별하여 추출할 수 있다. 추가 영역(RI1a)은 예를 들어, 합성 이미지에서 제1 영역(RI1)의 경계를 자연스럽게 표현하기 위해 필요한 영역일 수 있다. 예를 들어, 제1 오브젝트(OB1)인 사람의 머리카락이 제1 영역(RI1) 및 제1 영역(RI1) 이외의 영역(즉, 추가 영역(RI1a))에 걸쳐 존재하고, 전자 장치(401) 및/또는 외부 전자 장치(301)에 의해 제1 영역(RI1)만이 식별되어 사용자가 제1 영역(RI1)만을 선택한 경우, 전자 장치(401)는 제1 로우 이미지에서 추가 영역(RI1a)을 식별할 수 있다.
도 13b를 참조하면, 전자 장치(401)는, 제1 영역(RI1), 추가 영역(RI1a) 및 제2 영역(RI2)을 합성하여, 합성 로우 이미지를 생성할 수 있다. 합성 로우 이미지가 생성된 후, 도 5를 참조하여 설명한 동작(S600) 및 동작(S700)이 수행(혹은, 실행)될 수 있다.
본 문서에 개시되는 실시 예에 따른 전자 장치에 있어서, 프로세서(320)(예: 도 1의 프로세서(120) 및/또는 도 2의 이미지 시그널 프로세서(260)) 및 상기 프로세서에 작동적으로(operatively) 연결된 메모리(330)(예: 도 1의 메모리(130) 및/또는 도 2의 메모리(250))를 포함하고, 상기 메모리는, 실행되었을 때 상기 프로세서로 하여금, 외부 전자 장치로부터, 사용자 입력을 수신하고, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하고, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하고, 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서가, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 제1 속성은, 상기 제1 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고, 상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고, 상기 인스트럭션들은, 상기 프로세서가, 상기 제1 면적이 상기 기준 면적보다 크거나 같으면, 상기 제3 속성을 기반으로, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값을, 상기 제1 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하고, 상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제3 속성을 기반으로, 상기 제1 영역의 화이트 밸런스 값을, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서가, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고, 상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고, 상기 인스트럭션들은, 상기 프로세서가, 상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서가, 상기 제1 로우 이미지에서, 제2 영역을 추출하고, 상기 제1 영역, 상기 제2 영역, 및 상기 제2 로우 이미지의 적어도 일부 영역을 합성하여, 상기 합성 로우 이미지를 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서가, 기준 이미지와 관련된 상기 사용자 입력에 기반하여, 상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 제1 속성은, 상기 제1 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고, 상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고, 상기 인스트럭션들은, 상기 프로세서가, 상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제3 속성을 기반으로, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값을, 상기 제1 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하고, 상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제3 속성을 기반으로, 상기 제1 영역의 화이트 밸런스 값을, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서가, 상기 제1 속성과 상기 제2 속성의 평균값을 기반으로, 상기 제3 속성을 생성하도록 할 수 있다.
일 실시 예에 있어서, 상기 제1 속성은, 상기 제1 로우 이미지의 일부 영역의 밝기 정보, 노출시간, 화이트 밸런스 값, 깊이 지도 중 적어도 하나를 포함하고, 상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기 정보, 노출시간, 화이트 밸런스 값, 깊이 지도 중 적어도 하나를 포함하고, 상기 인스트럭션들은, 상기 프로세서가, 상기 제1 로우 이미지의 일부 영역의 화이트 밸런스 값과 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값의 평균값을 기반으로, 상기 제3 속성을 생성하도록 할 수 있다.
본 문서에 개시되는 실시 예에 따른 전자 장치의 합성 이미지 생성 방법에 있어서, 사용자 입력을 수신하는 동작, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작 및 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 제3 속성을 생성하는 동작은, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작일 수 있다.
일 실시 예에 있어서, 상기 제3 속성을 생성하는 동작은, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고, 상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 하는 동작일 수 있다.
일 실시 예에 있어서, 상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고, 상기 합성 로우 이미지를 생성하는 동작은, 상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하는 동작일 수 있다.
일 실시 예에 있어서, 상기 사용자 입력은, 기준 이미지에 대한 정보를 포함하고, 상기 제3 속성을 생성하는 동작은, 상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작일 수 있다.
본 문서에 개시되는 실시 예에 따른 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서, 상기 인스트럭션들은, 전자 장치에 의해 실행될 때, 상기 전자 장치로 하여금, 사용자 입력을 수신하는 동작, 상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작, 상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작 및 상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 동작을 수행하도록 할 수 있다.
일 실시 예에 있어서, 상기 제3 속성을 생성하는 동작은, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작일 수 있다.
일 실시 예에 있어서, 상기 제3 속성을 생성하는 동작은, 상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고, 상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작일 수 있다.
일 실시 예에 있어서, 상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고, 상기 합성 로우 이미지를 생성하는 동작은, 상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하는 동작일 수 있다.
일 실시 예에 있어서, 상기 사용자 입력은, 기준 이미지에 대한 정보를 포함하고, 상기 제3 속성을 생성하는 동작은, 상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고, 상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작일 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(401)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(430))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(401))의 프로세서(예:프로세서(420))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    프로세서; 및
    상기 프로세서에 작동적으로(operatively) 연결된 메모리를 포함하고,
    상기 메모리는, 실행되었을 때 상기 프로세서로 하여금:
    외부 전자 장치로부터, 사용자 입력을 수신하고,
    상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하고,
    상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하고,
    상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 인스트럭션들(instructions)을 저장하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 하는, 전자 장치
  3. 청구항 2에 있어서,
    상기 제1 속성은, 상기 제1 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고,
    상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 제1 면적이 상기 기준 면적보다 크거나 같으면, 상기 제3 속성을 기반으로, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값을, 상기 제1 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하고,
    상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제3 속성을 기반으로, 상기 제1 영역의 화이트 밸런스 값을, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하도록 하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고,
    상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하도록 하는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 제1 로우 이미지에서, 제2 영역을 추출하고,
    상기 제1 영역, 상기 제2 영역, 및 상기 제2 로우 이미지의 적어도 일부 영역을 합성하여, 상기 합성 로우 이미지를 생성하도록 하는, 전자 장치.
  7. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    기준 이미지와 관련된 상기 사용자 입력에 기반하여, 상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 하는, 전자 장치.
  8. 청구항 7에 있어서,
    상기 제1 속성은, 상기 제1 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고,
    상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기, 노출 시간, 화이트 밸런스 값, 및 깊이 지도 중 적어도 하나를 포함하고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제3 속성을 기반으로, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값을, 상기 제1 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하고,
    상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제3 속성을 기반으로, 상기 제1 영역의 화이트 밸런스 값을, 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값으로 수정하여 상기 합성 이미지를 생성하도록 하는, 전자 장치.
  9. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 제1 속성과 상기 제2 속성의 평균값을 기반으로, 상기 제3 속성을 생성하도록 하는, 전자 장치.
  10. 청구항 9에 있어서,
    상기 제1 속성은, 상기 제1 로우 이미지의 일부 영역의 밝기 정보, 노출시간, 화이트 밸런스 값, 깊이 지도 중 적어도 하나를 포함하고,
    상기 제2 속성은, 상기 제2 로우 이미지의 적어도 일부 영역의 밝기 정보, 노출시간, 화이트 밸런스 값, 깊이 지도 중 적어도 하나를 포함하고,
    상기 인스트럭션들은, 상기 프로세서가,
    상기 제1 로우 이미지의 일부 영역의 화이트 밸런스 값과 상기 제2 로우 이미지의 적어도 일부 영역의 화이트 밸런스 값의 평균값을 기반으로, 상기 제3 속성을 생성하도록 하는, 전자 장치.
  11. 전자 장치의 합성 이미지 생성 방법에 있어서,
    사용자 입력을 수신하는 동작;
    상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작;
    상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작; 및
    상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하는 동작을 포함하는, 합성 이미지 생성 방법.
  12. 청구항 11에 있어서,
    상기 제3 속성을 생성하는 동작은,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작인, 합성 이미지 생성 방법.
  13. 청구항 11에 있어서,
    상기 제3 속성을 생성하는 동작은,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고,
    상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하도록 하는 동작인, 합성 이미지 생성 방법.
  14. 청구항 11에 있어서,
    상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고,
    상기 합성 로우 이미지를 생성하는 동작은,
    상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하는 동작인, 합성 이미지 생성 방법.
  15. 청구항 11에 있어서,
    상기 사용자 입력은, 기준 이미지에 대한 정보를 포함하고,
    상기 제3 속성을 생성하는 동작은,
    상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작인, 합성 이미지 생성 방법.
  16. 컴퓨터 판독 가능한 인스트럭션들(instructions)을 저장하고 있는 저장 매체에 있어서,
    상기 인스트럭션들은, 전자 장치에 의해 실행될 때, 상기 전자 장치로 하여금:
    사용자 입력을 수신하는 동작;
    상기 사용자 입력에 기반하여, 제1 로우 이미지(raw image)의 일부 영역인 제1 영역과 제2 로우 이미지의 적어도 일부 영역을 합성하여, 합성 로우 이미지를 생성하는 동작;
    상기 제1 로우 이미지의 제1 속성과 상기 제2 로우 이미지의 제2 속성 중 적어도 하나를 수정(modification)하여, 제3 속성을 생성하는 동작; 및
    상기 제3 속성을 이용하여 상기 합성 로우 이미지를 보정(calibration)하여, 합성 이미지를 생성하도록 하는 동작을 수행하도록 하는, 저장 매체.
  17. 청구항 16에 있어서,
    상기 제3 속성을 생성하는 동작은,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적이 기준 면적보다 크거나 같으면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 제1 면적이 상기 기준 면적보다 작으면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작인, 저장 매체.
  18. 청구항 16에 있어서,
    상기 제3 속성을 생성하는 동작은,
    상기 합성 로우 이미지에서 상기 제1 영역이 차지하는 제1 면적과, 상기 합성 로우 이미지에서 상기 제2 로우 이미지의 적어도 일부 영역이 차지하는 제2 면적을 비교하여 상기 제1 면적과 상기 제2 면적 중 큰 면적과 작은 면적을 식별하고,
    상기 식별된 큰 면적이 상기 제1 면적이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 식별된 큰 면적이 상기 제2 면적이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작인, 저장 매체.
  19. 청구항 16에 있어서,
    상기 사용자 입력은, 상기 제2 로우 이미지의 적어도 일부 영역에서 상기 제1 영역이 위치하는 위치 정보 및 상기 제2 로우 이미지의 적어도 일부 영역에서 차지하는 상기 제1 영역의 크기 정보를 포함하고,
    상기 합성 로우 이미지를 생성하는 동작은,
    상기 제2 로우 이미지의 적어도 일부 영역에, 상기 위치 정보에 기반하여 상기 제1 영역을 위치시키고, 상기 크기 정보에 기반하여 상기 제1 영역의 크기를 조정하여, 상기 합성 로우 이미지를 생성하는 동작인, 저장 매체.
  20. 청구항 16에 있어서,
    상기 사용자 입력은, 기준 이미지에 대한 정보를 포함하고,
    상기 제3 속성을 생성하는 동작은,
    상기 기준 이미지가 상기 제1 로우 이미지이면, 상기 제1 속성을 기반으로 상기 제2 속성을 수정하여 상기 제3 속성을 생성하고,
    상기 기준 이미지가 상기 제2 로우 이미지이면, 상기 제2 속성을 기반으로 상기 제1 속성을 수정하여 상기 제3 속성을 생성하는 동작인, 저장 매체.
KR1020190031101A 2019-03-19 2019-03-19 합성 이미지를 생성하는 전자 장치 및 방법 KR20200111446A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190031101A KR20200111446A (ko) 2019-03-19 2019-03-19 합성 이미지를 생성하는 전자 장치 및 방법
PCT/KR2020/003720 WO2020190030A1 (en) 2019-03-19 2020-03-18 Electronic device for generating composite image and method thereof
EP20772796.7A EP3921805A4 (en) 2019-03-19 2020-03-18 ELECTRONIC COMPOSITE IMAGE GENERATING DEVICE AND RELATED METHOD
US16/823,795 US11308593B2 (en) 2019-03-19 2020-03-19 Electronic device for generating composite image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190031101A KR20200111446A (ko) 2019-03-19 2019-03-19 합성 이미지를 생성하는 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20200111446A true KR20200111446A (ko) 2020-09-29

Family

ID=72514561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190031101A KR20200111446A (ko) 2019-03-19 2019-03-19 합성 이미지를 생성하는 전자 장치 및 방법

Country Status (4)

Country Link
US (1) US11308593B2 (ko)
EP (1) EP3921805A4 (ko)
KR (1) KR20200111446A (ko)
WO (1) WO2020190030A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219189A1 (ko) * 2022-05-12 2023-11-16 주식회사 엔씨소프트 깊이 맵에 기반하여 이미지를 합성하기 위한 전자 장치 및 그 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744161B (zh) * 2021-09-16 2024-03-29 北京顺势兄弟科技有限公司 增强数据的获取方法及装置、数据增强方法、电子设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268345A (ja) 2000-03-17 2001-09-28 Ricoh Co Ltd 画像合成装置
US6999117B2 (en) * 2000-05-16 2006-02-14 Fuji Photo Film Co., Ltd. Image pickup device and method for automatically inputting predefined information and processing images thereof
JP3801126B2 (ja) * 2002-09-25 2006-07-26 ソニー株式会社 撮像装置,撮像装置の画像出力方法,およびコンピュータプログラム
KR100698845B1 (ko) 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
JP2009134068A (ja) * 2007-11-30 2009-06-18 Seiko Epson Corp 表示装置、電子機器、及び画像処理方法
US8520967B2 (en) * 2009-06-26 2013-08-27 Nokia Corporation Methods and apparatuses for facilitating generation images and editing of multiframe images
JP5316625B2 (ja) * 2011-11-11 2013-10-16 カシオ計算機株式会社 画像合成装置、及びプログラム
US9558575B2 (en) * 2012-02-28 2017-01-31 Blackberry Limited Methods and devices for selecting objects in images
US10088989B2 (en) * 2014-11-18 2018-10-02 Duelight Llc System and method for computing operations based on a first and second user input
JP6494294B2 (ja) 2014-05-15 2019-04-03 キヤノン株式会社 画像処理装置、及び撮像システム
KR101968908B1 (ko) * 2015-01-22 2019-04-15 한국전자통신연구원 시각지식 제공 장치 및 방법
KR102472970B1 (ko) * 2015-09-07 2022-12-01 엘지전자 주식회사 디스플레이 장치
CN105894449B (zh) * 2015-11-11 2019-11-08 法法汽车(中国)有限公司 克服图像融合中颜色突变的方法及***
KR102584187B1 (ko) 2016-03-30 2023-10-05 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
KR102623391B1 (ko) * 2017-01-10 2024-01-11 삼성전자주식회사 영상 출력 방법 및 이를 지원하는 전자 장치
KR102386385B1 (ko) 2017-07-21 2022-04-15 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 압축 방법
KR102384054B1 (ko) * 2017-08-01 2022-04-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP3680853A4 (en) * 2017-09-11 2020-11-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. IMAGE PROCESSING PROCESS AND DEVICE, ELECTRONIC DEVICE AND COMPUTER READABLE INFORMATION MEDIA
US10757384B2 (en) * 2017-09-28 2020-08-25 Gopro, Inc. Desaturation control
KR102609734B1 (ko) 2018-07-20 2023-12-05 삼성전자 주식회사 전자 장치 및 이미지의 전송 상태에 기반하여 이미지를 보정하는 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219189A1 (ko) * 2022-05-12 2023-11-16 주식회사 엔씨소프트 깊이 맵에 기반하여 이미지를 합성하기 위한 전자 장치 및 그 방법

Also Published As

Publication number Publication date
WO2020190030A1 (en) 2020-09-24
EP3921805A4 (en) 2022-03-30
EP3921805A1 (en) 2021-12-15
US11308593B2 (en) 2022-04-19
US20200302583A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
KR102385360B1 (ko) 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
US10956774B2 (en) Electronic device for acquiring image using plurality of cameras and method for processing image using the same
KR102525000B1 (ko) 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
US11558553B2 (en) Electronic device for stabilizing image and method for operating same
KR102495763B1 (ko) 제1 이미지 처리 방식으로 보정된 이미지를 제2 이미지 처리 방식을 이용하여 외부 전자 장치에서 보정하기 위한 전자 장치 및 방법
KR102383134B1 (ko) 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법
US11144197B2 (en) Electronic device performing function according to gesture input and operation method thereof
US11626447B2 (en) Electronic device comprising image sensor for identifying an operation setting and an external environmental condition and method of operation thereof
KR102397924B1 (ko) 이미지 보정 방식 및 이미지의 특징 정보에 기반하여 이미지를 보정하는 전자 장치 및 방법
KR20200095106A (ko) 전자 장치 및 이미지 처리 방법
KR102418852B1 (ko) 이미지 표시를 제어하는 전자 장치 및 방법
US11308593B2 (en) Electronic device for generating composite image and method thereof
US11354777B2 (en) Image processing device and method of electronic device
US10970587B2 (en) Electronic device for notifying of update of image signal processing and method for operating the same
US20220103795A1 (en) Electronic device and method for generating images by performing auto white balance
EP4102451A1 (en) Method for generating image and electronic device therefor
KR20190114242A (ko) 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치
KR20210151613A (ko) 이미지 처리 장치 및 이미지 처리 방법
KR20200114275A (ko) 전자 장치 및 이미지에 포함된 개인 정보의 보안 방법
KR102608127B1 (ko) 이미지 프로세싱을 수행하는 전자 장치 및 방법
US20230085017A1 (en) Electronic device and method for improving quality of image by using multiple cameras
KR20240056374A (ko) 다중 노출 영상을 획득하는 전자 장치 및 그 동작 방법
KR20210016984A (ko) 얼굴이 포함된 영상의 노출 값을 조절하는 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal