KR102000536B1 - 합성 이미지를 촬영하는 촬영 장치 및 그 방법 - Google Patents

합성 이미지를 촬영하는 촬영 장치 및 그 방법 Download PDF

Info

Publication number
KR102000536B1
KR102000536B1 KR1020120157065A KR20120157065A KR102000536B1 KR 102000536 B1 KR102000536 B1 KR 102000536B1 KR 1020120157065 A KR1020120157065 A KR 1020120157065A KR 20120157065 A KR20120157065 A KR 20120157065A KR 102000536 B1 KR102000536 B1 KR 102000536B1
Authority
KR
South Korea
Prior art keywords
photographing
image
live view
unit
background
Prior art date
Application number
KR1020120157065A
Other languages
English (en)
Other versions
KR20140086491A (ko
Inventor
우지환
김세훈
임태규
곽한탁
심우성
이서영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120157065A priority Critical patent/KR102000536B1/ko
Priority to US14/134,005 priority patent/US9357117B2/en
Priority to JP2013269718A priority patent/JP6292867B2/ja
Priority to EP13199825.4A priority patent/EP2750372B1/en
Priority to CN201310745718.9A priority patent/CN103916587B/zh
Publication of KR20140086491A publication Critical patent/KR20140086491A/ko
Application granted granted Critical
Publication of KR102000536B1 publication Critical patent/KR102000536B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

촬영 장치가 개시된다. 본 장치는, 촬영부, 촬영부를 통해 획득된 제1 촬영 이미지로부터 객체를 분리하는 이미지 처리부, 분리된 객체가 중첩된 배경 라이브 뷰를 디스플레이하는 디스플레이부 및 배경 촬영 명령이 입력되면 배경 라이브 뷰에 대응되는 제2 촬영 이미지를 획득하고, 제2 촬영 이미지에 분리된 객체를 부가하여 합성 이미지를 생성하는 제어부를 포함한다. 이에 따라, 합성 이미지를 용이하게 생성할 수 있다.

Description

합성 이미지를 촬영하는 촬영 장치 및 그 방법 { PHOTOGRAPHING DEVICE FOR MAKING A COMPOSION IMAGE AND METHOD THEREOF }
본 발명은 촬영 장치 및 그 합성 이미지 촬영 방법에 대한 것으로, 보다 상세하게는, 이미지로부터 분리된 객체를 라이브뷰와 함께 표시하여 합성 이미지를 촬영하는 촬영 장치 및 그 합성 이미지 촬영 방법에 대한 것이다.
전자 기술의 발달에 힘입어, 다양한 휴대형 기기들이 개발 및 보급되고 있다. 최근 보급되고 있는 휴대형 기기는 대부분 디스플레이 수단 및 촬영 수단을 구비하고 있어, 촬영 기능을 지원한다. 촬영 기능을 지원하는 촬영 장치는 렌즈를 통해 입사되는 광을 이용하여, 디스플레이 수단에 라이브 뷰를 디스플레이한다. 사용자는 라이브 뷰를 보면서 촬영을 수행할 수 있다.
이에 따라, 사진 촬영이 일상화되어, 다양한 장소에서 촬영이 이루어지고, 촬영된 사진은 다양하게 활용될 수 있다. 일 예로, 사용자들은 자신이 촬영한 사진을 블로그나 웹 까페, SNS(Social Network Service) 등에 업로드시켜, 타인과 공유할 수 있다.
한편, 사용자는 유명한 장소나 건물 등을 배경으로 자신의 모습을 촬영하고자 하는 경우가 빈번하게 발생한다. 이 경우, 타인이 도와주지 않는 이상에는 셀프 촬영 모드나 타이머 기능 등을 이용할 수밖에 없다.
하지만, 타이머 기능을 이용하기 위해서는 자신의 촬영 장치를 바닥이나 기타 사물 위에 놓고 촬영 각도나 방향을 조정한 후 고정시켜야 한다는 어려움이 있다. 또한, 셀프 촬영을 하는 경우에는 팔 길이의 제한 등으로 인해 사진의 상당 부분이 사용자의 얼굴로 채워지게 되어, 배경을 잘 알아볼 수 없다는 문제점이 있다.
이에 따라, 사용자가 자신의 모습과 배경이 잘 어우러지도록 촬영할 수 있는 기술에 대한 필요성이 대두되었다.
본 발명은 이러한 필요성에 따라 안출된 것으로, 본 발명의 목적은 촬영 이미지로부터 객체를 분리하고, 분리된 객체가 중첩된 라이브 뷰를 제공하여 합성 이미지를 촬영할 수 있도록 하는 촬영 장치 및 그 합성 이미지 촬영 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따르면, 촬영 장치는, 촬영부, 상기 촬영부를 통해 획득된 제1 촬영 이미지로부터 객체를 분리하는 이미지 처리부, 상기 분리된 객체가 중첩된 배경 라이브 뷰를 디스플레이하는 디스플레이부, 배경 촬영 명령이 입력되면 상기 배경 라이브 뷰에 대응되는 제2 촬영 이미지를 획득하고, 상기 제2 촬영 이미지에 상기 분리된 객체를 부가하여 합성 이미지를 생성하는 제어부를 포함한다.
여기서, 상기 제어부는, 합성 촬영 모드가 선택되면 상기 촬영부의 라이브 뷰를 디스플레이하도록 상기 디스플레이부를 제어하고, 상기 라이브 뷰의 각 프레임을 모니터링하여 상기 객체를 탐색하고 추적하며, 객체 촬영 명령이 입력되면 상기 촬영부의 라이브 뷰에 대응되는 상기 제1 촬영 이미지를 생성하고, 상기 제1 촬영 이미지 내에서 상기 추적된 객체를 분리하도록 상기 이미지 처리부를 제어할 수 있다.
그리고, 상기 촬영부는, 제1 촬영 방향으로 촬영을 수행하기 위한 제1 촬영부, 상기 제1 촬영 방향의 반대인 제2 촬영 방향으로 촬영을 수행하기 위한 제2 촬영부를 더 포함할 수 있다.
또한, 상기 제어부는, 상기 합성 촬영 모드가 개시되면 상기 라이브 뷰를 상기 디스플레이부에 제공하도록 상기 제1 촬영부를 활성화시키고, 상기 제1 촬영부에 의해 상기 제1 촬영 이미지가 획득되면, 상기 배경 라이브 뷰를 상기 디스플레이부에 제공하도록 상기 제2 촬영부를 활성화시킬 수도 있다.
또는, 사전 학습된 객체 모델이 저장된 저장부를 더 포함할 수 있다.
이 경우, 상기 제어부는, 상기 제1 촬영 이미지 내에서 상기 객체 모델에 부합되는 영역을 상기 객체로 판단할 수 있다.
또한, 상기 디스플레이부는, 상기 제1 촬영 이미지를 디스플레이하고, 상기 제어부는, 상기 제1 촬영 이미지에 대한 사용자 조작이 이루어지면, 상기 사용자 조작에 따라 상기 객체로 판단된 영역의 크기 및 형태를 변경할 수 있다.
또는, 상기 제어부는, 상기 제1 촬영 이미지로부터 분리된 상기 객체의 형상을 복원하도록 상기 이미지 처리부를 제어하여, 복원된 객체를 상기 배경 라이브 뷰에 중첩시켜 표시할 수 있다.
그리고, 상기 제어부는, 상기 배경 라이브 뷰 내에서, 상기 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 사용자 선택에 따라 조정하도록 상기 이미지 처리부를 제어할 수 있다.
또는, 상기 제어부는, 상기 배경 라이브 뷰의 특성에 기초하여, 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 조정할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 합성 이미지 촬영 방법은, 제1 촬영 이미지를 획득하여, 상기 제1 촬영 이미지로부터 객체를 분리하는 단계, 상기 객체가 중첩된 배경 라이브 뷰를 디스플레이하는 단계, 배경 촬영 명령이 입력되면 상기 배경 라이브 뷰에 대응되는 제2 촬영 이미지를 획득하는 단계, 상기 제2 촬영 이미지에 상기 분리된 객체를 부가하여 합성 이미지를 생성하는 단계를 포함한다.
또한, 상기 객체를 분리하는 단계는, 합성 촬영 모드가 선택되면 라이브 뷰를 디스플레이하는 단계, 상기 라이브 뷰의 각 프레임을 모니터링하여 상기 객체를 탐색하고 추적하는 단계, 객체 촬영 명령이 입력되면 상기 라이브 뷰에 대응되는 상기 제1 촬영 이미지를 생성하는 단계, 상기 제1 촬영 이미지 내에서 상기 추적된 객체를 분리하는 단계를 포함한다.
그리고, 상기 객체를 탐색하고 추적하는 단계는, 상기 제1 촬영 이미지 내에서, 사전 학습된 객체 모델에 부합되는 영역을 상기 객체로 판단할 수 있다.
그리고, 상기 객체를 분리하는 단계는, 상기 제1 촬영 이미지를 디스플레이하는 단계, 상기 제1 촬영 이미지에 대한 사용자 조작이 이루어지면, 상기 사용자 조작에 따라 상기 객체로 판단된 영역의 크기 및 형태를 변경하는 단계를 포함할 수 있다.
또는, 상기 제1 촬영 이미지로부터 분리된 상기 객체의 형상을 복원하는 단계;를 더 포함할 수도 있다.
한편, 상기 배경 라이브 뷰 내에서의 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 사용자 선택에 따라 조정하는 단계를 더 포함할 수도 있다.
또는, 상기 배경 라이브 뷰의 특성에 기초하여, 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 조정하는 단계를 더 포함할 수도 있다.
이상과 같은 본 발명의 다양한 실시 예들에 따르면, 객체가 중첩된 라이브 뷰를 제공하여, 사용자가 특정 객체를 포함하는 합성 이미지를 용이하게 촬영할 수 있도록 한다.
도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도,
도 2는 본 발명의 일 실시 예에 따른 합성 이미지 촬영 방법을 설명하기 위한 도면,
도 3 및 도 4는 라이브 뷰 상에서 객체의 표시 상태를 변경하는 다양한 방법을 설명하기 위한 도면,
도 5는 촬영 이미지로부터 객체를 분리하는 방법을 설명하기 위한 도면,
도 6은 사용자 조작에 따라 객체 분리 영역을 조정하는 방법을 설명하기 위한 도면,
도 7은 촬영 이미지로부터 객체를 분리하여 형태를 복원하는 방법을 설명하기 위한 도면,
도 8은 복수의 촬영부를 이용하는 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도,
도 9는 복수의 촬영부를 이용하여 합성 이미지를 촬영하는 방법의 일 예를 나타내는 도면,
도 10은 합성 이미지 촬영 과정을 구체적으로 설명하기 위한 화면,
도 11은 본 발명의 일 실시 예에 따른 합성 이미지 촬영 방법을 설명하기 위한 흐름도, 그리고,
도 12는 본 발명의 일 실시 예에 따른 객체 분리 방법을 설명하기 위한 흐름도이다.
이하에서, 첨부된 도면을 이용하여 본 발명에 대하여 구체적으로 설명한다.
도 1은 본 발명의 일 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도이다. 도 1에 따른 촬영 장치(100)는, 디지털 카메라나 캠코더 뿐만 아니라, 휴대폰, 태블릿 PC, 랩탑 컴퓨터, PDA, MP3 플레이어 등과 같은 다양한 유형의 장치로 구현될 수 있다.
도 1에 따르면, 촬영 장치(100)는 촬영부(110), 이미지 처리부(120), 디스플레이부(130), 제어부(140)를 포함한다.
촬영부(110)는 촬영 동작을 수행하기 위한 구성요소이다. 촬영부(110)는 렌즈와 이미지 센서를 포함한다. 촬영부(110)에 사용할 수 있는 렌즈의 종류에는 일반적인 범용 렌즈, 광각 렌즈, 줌 렌즈 등이 있다. 렌즈의 종류는 촬영 장치(100)의 종류 및 특성, 사용 환경에 따라 결정될 수 있다. 이미지 센서로는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS)와 전하결합소자(Charge Coupled Device: CCD) 등이 사용될 수 있다.
이미지 처리부(120)는 촬영부(110)를 통해 센싱되는 이미지를 처리한다. 구체적으로는, 이미지 처리부(120)는 촬영부(110)를 통해 획득된 촬영 이미지로부터 피사체의 구체적인 형상인 객체를 분리한다.
객체 분리는 다양한 알고리즘에 따라 이루어질 수 있다.
일 예로, 제어부(140)는 촬영 이미지를 픽셀 단위로 또는 복수 개의 픽셀로 이루어진 픽셀 블럭 단위로 구분한다. 제어부(140)는 각 픽셀의 픽셀 값 또는 각 픽셀 블럭의 대표 픽셀 값을 비교하여, 그 차이가 임계치를 초과하는 픽셀 영역을 검출한다. 제어부(140)는 검출된 픽셀 영역을 에지(edge)로 판단하여, 그 에지를 기준으로 객체 영역을 구분한다. 제어부(140)는 구분된 객체 영역 중 기 설정된 조건을 충족하는 객체 영역을 합성 대상으로 판단한다. 제어부(140)는 합성 대상으로 판단된 객체 영역을 촬영 이미지로부터 분리하도록 이미지 처리부(120)를 제어한다. 사람의 얼굴을 합성하고자 하는 경우에는 사람의 얼굴색에 해당하는 픽셀 값을 가지는 객체 영역을 합성 대상으로 판단한다.
다른 예로, 제어부(140)는 사전 학습된 객체 모델을 이용하여 객체 영역을 판단할 수도 있다. 객체 모델이란 복수의 촬영 동작을 수행하여 획득된 복수의 촬영 이미지를 분석하여 객체가 위치한 영역의 통계치에 따라 객체 영역을 정의한 모델을 의미한다. 객체 모델은 반복 학습에 의해 지속적으로 업데이트될 수 있다. 제어부(140)는 촬영 이미지에 객체 모델을 적용하여, 그 객체 모델에 부합되는 영역을 객체로 판단할 수 있다. 구체적으로는, 객체 모델에 부합되는 영역 주변의 에지를 기준으로 객체를 특정할 수 있다. 제어부(140)는 객체로 판단된 부분을 분리하도록 이미지 처리부(120)를 제어한다.
디스플레이부(130)는 촬영부(110)에 의해 획득되는 라이브 뷰를 디스플레이한다. 라이브 뷰란 피사체를 뷰 파인더가 아닌 디스플레이부(130)를 통해 확인할 수 있도록 제공하는 이미지를 의미한다. 구체적으로는, 촬영부(110)의 렌즈를 통해 입사되는 광은 이미지 센서로 입사되며, 이미지 센서는 입사된 광에 대응되는 전기 신호를 디스플레이부(130)로 출력한다. 이에 따라, 현재 촬영 범위 내의 피사체의 이미지가 라이브 뷰 영역에 표시된다. 라이브 뷰는 컨트라스트 AF(Auto Focus) 라이브 뷰 방식, 위상차 AF 라이브뷰 방식. 라이브 뷰 처리를 위한 별도의 이미지 센서를 이용하는 방식 등과 같이 다양한 방식에 따라 제공될 수 있다. 이미지 처리부(120)에서 객체를 분리한 경우, 분리된 객체는 라이브 뷰에 중첩되어 디스플레이된다.
제어부(140)는 촬영 장치(100)의 전반적인 동작을 제어한다. 구체적으로는, 제어부(140)는 촬영 명령이 입력되면, 촬영부(110)를 제어하여 촬영 동작을 수행한다. 이에 따라, 배경에 해당하는 촬영 이미지가 획득되면, 그 촬영 이미지에 객체를 부가하여 합성 이미지를 생성한다. 제어부(140)는 객체에 대해 다양한 이미지 처리를 수행하도록 이미지 처리부(120)를 제어하여, 객체(11)가 촬영 이미지에 자연스럽게 합성되도록 할 수 있다. 구체적으로는, 이미지 처리부(120)는 객체(11)와 배경 이미지의 밝기 차를 경감시키고, 컬러 분포를 보정하는 톤 매핑(tone mapping)을 수행할 수 있다. 또는, 이미지 처리부(120)는 객체와 배경 이미지 사이의 경계를 제거하도록 이미지 매팅(image matting)을 수행할 수도 있다. 이에 따라 좀 더 자연스러운 합성 이미지를 생성할 수 있다.
이러한 합성 이미지 생성 동작은 촬영 장치(100)가 합성 촬영 모드로 동작할 때 수행될 수 있다. 즉, 촬영 장치(100)는 사용자의 선택에 따라 일반 촬영 모드, 셀프 촬영 모드, 합성 촬영 모드, 특수 촬영 모드 등과 같은 다양한 모드로 동작할 수 있다.
도 2는 합성 이미지를 촬영하는 과정을 설명하기 위한 도면이다. 도 2에 따르면, 제어부(140)는, 합성 촬영 모드가 선택되면 촬영부(110)를 활성화시켜 그 라이브 뷰를 디스플레이한다. 이러한 상태에서 촬영 명령이 입력되면, 객체(11)를 포함하는 촬영 이미지(10)가 획득된다. 이미지 처리부(120)는 촬영 이미지(10)로부터 객체(11)를 분리한다.
제어부(140)는 촬영 이미지(10)가 획득되면 다시 촬영부(110)를 활성화시켜 라이브 뷰(20)를 디스플레이부(150) 상에 디스플레이한다. 디스플레이부(150)는 라이브 뷰(20)와 객체(11)를 하나의 화면 상에 중첩시켜 표시한다. 라이브 뷰(20)는 촬영 장치(100)의 촬영 방향에 따라 실시간으로 변경되지만, 객체(11)는 매 라이브 뷰(20) 화면 상에 지속적으로 표시된다. 이에 따라, 사용자는 배경 이미지와 객체(11)를 하나의 화면에서 확인할 수 있게 되어, 객체(11)와 배경 이미지의 구도를 고려하여 적절한 촬영 각도 및 시점에서 촬영 명령을 입력할 수 있다. 촬영 명령이 입력되면 제어부(140)는 촬영부(110)를 제어하여 촬영 이미지를 획득하고, 그 촬영 이미지와 객체(11)를 하나의 이미지로 합성한다. 설명의 편의를 위하여 먼저 촬영된 이미지를 제1 촬영 이미지 또는 객체 이미지로 명명하고, 이후에 촬영된 이미지를 제2 촬영 이미지 또는 배경 이미지라 명명한다. 또한, 객체(11)와 함께 표시되는 라이브 뷰는 배경 라이브 뷰라 명명한다.
도 3은 본 발명의 또 다른 실시 예에 따른 합성 방법을 설명하기 위한 도면이다. 도 3에 따르면, 촬영 장치(100)는 배경 라이브 뷰 내에서의 객체의 표시 위치, 크기. 컬러 및 휘도 등과 같은 표시 속성 중 적어도 하나를 변경할 수 있다.
가령, 제1 촬영 이미지로부터 객체(11)가 분리되면, 도 3의 (a)에 도시된 바와 같이, 분리된 객체(11)는 배경 라이브 뷰(20)에 중첩되어 표시된다. 이러한 상태에서 사용자가 객체(11)가 표시된 지점을 터치하여 다른 지점으로 드래깅하면, 제어부(140)는 디스플레이부(130)에 내장된 터치 센서의 센싱 값을 이용하여, 터치 지점의 좌표값을 분석하여 드래깅 궤적 및 방향을 판단한다. 제어부(140)는 그 드래깅 궤적 및 방향에 따라 객체(11)의 표시 위치를 변경하도록 이미지 처리부(120)를 제어한다. 이에 따라 도 3의 (b)에 도시된 바와 같이 객체(11)가 라이브 뷰(20) 화면 내에서 다른 위치로 이동하여 표시된다.
또는, 사용자는 핀치 인이나 핀치 아웃 등과 같은 조작을 수행할 수도 있다. 제어부(140)는 객체(11)가 표시된 영역 내에서 두 개 이상의 지점이 터치되고 터치 지점 사이의 간격이 커지게 되면, 객체(11)의 크기를 확대시키기 위한 핀치 인 조작이 이루어진 것으로 판단한다. 반면, 터치 지점 사이의 간격이 줄어들게 되면, 객체(11)의 크기를 축소시키기 위한 핀치 아웃 조작이 이루어진 것으로 판단한다. 제어부(140)는 판단 결과에 따라 객체(11)의 크기를 확대 또는 축소하도록 이미지 처리부(120)를 제어한다. 도 3의 (c)에서는 객체(11)가 축소된 상태를 나타낸다.
도 3의 (b) 및 (c)에서는 사용자의 조작에 따라 객체의 표시 위치 또는 크기를 변경하는 것으로 설명하였으나, 객체의 표시 속성은 배경 라이브 뷰의 특성에 따라 자동적으로 조정될 수도 있다. 즉, 제어부(140)는 배경 라이브 뷰(20)를 분석하여, 배경 라이브 뷰(20) 내의 다른 객체들과 겹치지 않는 위치로 객체(11)의 위치를 이동시키거나, 다른 객체들과 겹치지 않을 정도의 크기로 객체(11)의 크기를 조정하도록 이미지 처리부(120)를 제어한다.
도 3에서는 객체의 표시 위치나 크기를 변경하는 경우를 설명하였으나, 이 밖에, 객체의 휘도나 컬러 등과 같은 속성을 배경 라이브 뷰의 특성에 기초하여 조정할 수도 있다.
도 4에서는 분리된 객체(11)의 휘도를 배경 라이브 뷰(20)에 휘도나 컬러 등과 같은 속성에 부합되도록 조정하는 실시 예를 나타낸다. 제어부(140)는 배경 라이브 뷰의 휘도나 컬러 등과 같은 속성을 분석한다. 그리고, 분석된 속성에 대응되는 값으로 객체(11)의 휘도나 컬러 등을 조정하도록 이미지 처리부(120)를 제어한다. 도 4에서는 배경 라이브 뷰(20)의 휘도에 따라 객체(11)의 휘도가 증가된 상태를 나타낸다.
한편, 본 발명의 또 다른 실시 예에 따르면, 촬영 장치(100)는 라이브 뷰에 기초하여 객체를 추적하여 분리할 수도 있다.
도 5는 이러한 실시 예에 따른 객체 분리 방법을 설명하기 위한 도면이다. 합성 촬영 모드가 수행되면 제어부(140)는 촬영부(110)를 활성화시켜 라이브 뷰(10)를 디스플레이한다. 라이브 뷰(30)에는 피사체에 대응되는 객체(11)가 표시될 수 있다.
제어부(140)는 라이브 뷰(30)의 각 프레임을 모니터링하여 객체를 탐색한다. 구체적으로는, 제어부(140)는 라이브 뷰(30)를 프레임 단위로 추출하여 그 프레임을 분석하여 에지를 검출한다. 에지에 의해 구분되는 픽셀 영역들 중 유사한 픽셀 값을 가지면서 연속적으로 배치되는 픽셀들을 포함하는 픽셀 영역들을 하나의 객체로 판단한다.
이 경우, 픽셀 영역의 크기가 임계치 미만인 경우에는 객체 판단이 어려울 수 있다. 가령, 도 5의 (a)에 도시된 바와 같이 사용자의 뒷통수가 보이고 있거나, 도 5의 (b)에 도시된 바와 같이 옆 모습이 보이고 있는 경우에는, 얼굴 색에 대응되는 픽셀 영역이 작아서 얼굴 영역 판단에 어려움이 있다. 제어부(140)는 얼굴 영역이 판단될 때까지 라이브 뷰를 지속적으로 모니터링한다.
이에 따라 도 5의 (c)에 도시된 바와 같이 사용자가 얼굴을 돌린 경우에는, 얼굴 영역의 크기가 임계치 이상이 되어 얼굴 영역 및 이에 연결된 사용자 신체 영역을 포함하여 하나의 객체로 판단할 수 있다. 제어부(140)는 일단 객체(11)가 탐색되면, 그 탐색된 객체(11)의 크기가 축소되거나 이동하더라도 지속적으로 추적할 수 있다. 이에 따라 도 5의 (d), (e)에 도시된 바와 같이 사용자가 다양한 형태로 움직여서 얼굴 형태가 변경되더라도, 객체(11)를 정확하게 판단할 수 있다. 이러한 상태에서 촬영이 이루어지면, 도 5의 (f)와 같이 촬영 이미지(10)가 획득된다. 그리고, 최종 촬영된 이미지(10)로부터 객체(11)를 분리한다.
이상과 같이, 사용자가 자신의 모습을 먼저 촬영하게 되면, 그 촬영 이미지로부터 사용자 모습을 분리하는 세그멘테이션(auto segmentation) 작업이 이루어진다. 도 5에서는 자동으로 객체가 분리되는 과정을 설명하였으나, 정밀도를 높이기 위해서 사용자가 추가적으로 객체 분리 영역을 조정하는 실시 예로 구현될 수도 있다.
도 6은 본 발명의 또 다른 실시 예에 따른 촬영 장치에서의 객체 분리 영역 조정 방법을 설명하기 위한 도면이다. 제어부(140)는 제1 촬영 이미지(10)가 획득되면, 이를 디스플레이부(130) 화면 상에 디스플레이한다. 이 때, 화면 상에는 객체의 경계 부분을 표시하기 위한 가이드 이미지(61)를 함께 표시할 수 있다. 제어부(140)는 객체 영역을 자동으로 특정하는 오토 세그멘테이션 작업을 수행하여, 그 객체 경계 부분을 판단한 후, 판단된 경계 부분에 점선이나 실선 형태의 가이드 이미지(61)를 렌더링할 수 있다.
이러한 상태에서 사용자는 화면에 대해 터치, 드래그, 플릭, 스크리블(scribble), 러그(rug) 등과 같은 다양한 사용자 조작을 할 수 있다. 이 경우, 화면 상에는 사용자 조작이 이루어지는 궤적에 따라 라인 이미지(62)가 표시될 수 있다. 결과적으로, 사용자 조작의 방향이나 크기 등에 따라, 객체로 판단된 영역의 크기 및 형태가 용이하게 변경될 수 있다. 따라서, 사용자 모습과 같은 객체가 표시된 영역을 세부적으로 보정하여 정확한 객체 검출이 가능해진다.
또한, 촬영 이미지의 구도는 피사체와의 거리나 피사체의 크기 등에 따라 다양할 수 있다. 가령, 사용자가 자신의 모습을 촬영하면, 팔 길이 제한 때문에 사용자의 전신 모습이 나오지 않고 얼굴과 상반신 일부 정도만 촬영 이미지에 표시된다. 이러한 상태에서 객체를 분리하면, 나머지 상반신이나 하반신은 잘리게 되므로 배경 이미지와 합성하면 이상하게 보일 수 있다. 따라서, 합성에 앞서, 분리된 객체의 형태를 복원하여 줄 수 있다.
도 7은 본 발명의 또 다른 실시 예에 따른 촬영 장치에서의 객체 복원 방법을 설명하기 위한 도면이다. 도 7에 따르면, 객체(11) 중에서 얼굴 영역의 폭과 바디 영역의 폭을 이용하여 복원 영역의 폭을 결정할 수 있다. 즉, 도 7의 (a)에 도시된 바와 같이 얼굴 영역의 폭의 절반을 Wf, 바디 영역의 폭의 절반을 Ws라고 두면, 로그 함수를 적용하여 복원 영역의 크기를 결정할 수 있다.
구체적으로는, 제어부(140)는 다음과 같은 수학식을 이용하여 복원 영역을 결정할 수 있다.
Figure 112012109305061-pat00001
수학식 1을 통해 계산되는 값은 복원 영역의 폭이 될 수 있다. 수학식 1에서 x는 가로 축 좌표 값을 의미한다. 즉, 도 7의 (a)에서 좌측 최상단의 좌표를 (0,0)으로 두고, 오른쪽으로 갈수록 x가 증가하고, 아래로 내려갈수록 y가 증가하는 x-y 좌표계로 모델링할 수 있다. 이 경우, 어깨 shape을 구성하는 부분을 (x,y)로 표시할 수 있다. 도 7에서 어깨를 복원하기 위해서 어깨 shape을 우선 찾아야 한다. 우측 어깨를 복원하고자 하는 경우, 제어부(140)는 어깨 shape을 구성하는 부분 중 오른쪽 마지막 x 좌표값 지점에서 y값이 최대값이 될 때까지 x 값을 순차적으로 증가시키면서, 수학식 1을 이용하여 y값을 산출한다. y값의 최대값은 결국 제1 촬영 이미지의 세로 방향 최대 해상도가 될 수 있다. 좌측 어깨를 복원하는 경우에는 좌측 마지막 x 좌표값 지점에서 y값이 최대값이 될 때까지 x 값을 순차적으로 감소시키면서 y값을 산출할 수 있다. 이에 따라, 어깨에 해당하는 영역이 추정되면, 이미지 처리부(120)는 바디 영역의 에지 라인을 따라서 어깨 부분(12)의 경계 라인을 드로잉(drawing)하고, 그 드로잉된 경계 라인의 내부 영역을 결정된 픽셀 값으로 채워서, 어깨 영역을 복원한다. 복원 영역의 픽셀 값은 그 주변 색상을 그대로 차용하는 미러링 기법에 따라 결정될 수 있다.
상술한 수학식 1은 일 예에 불과하며, 제어부(140)는 이 밖에 다양한 수식화된 함수 그래프를 이용하여 어깨를 복원할 수 있다. 가령, 로그 함수 대신에 로그 함수와 근사되는 다른 함수를 사용할 수도 있다.
결과적으로, 도 7의 (b) 및 (c)에 도시된 바와 같이, 이미지 처리부(120)는 제1 촬영 이미지(10)로부터 객체(11)를 분리하여 어깨 부분(12)을 복원할 수 있다. 도 7의 (c)는 어깨 부분이 복원된 객체(11)의 형상을 나타낸다.
이상과 같이, 촬영 장치(100)는 촬영부(110)를 이용하여 복수의 촬영 이미지를 촬영한 후, 합성 이미지를 생성한다. 촬영부의 개수는 다양하게 구현될 수 있다. 가령, 하나의 촬영부를 가지고 촬영 동작을 복수번 수행하여 복수의 촬영 이미지를 획득할 수도 있고, 두 개의 촬영부를 가지고 순차적으로 또는 동시에 촬영 동작을 수행하여 복수의 촬영 이미지를 획득할 수도 있다. 이하에서는 복수의 촬영부를 구비하는 실시 예에 따른 촬영 장치의 구성 및 동작을 설명한다.
도 8은 복수의 촬영부를 구비하는 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도이다. 도 8에 따르면, 촬영 장치(100)는 촬영부(110), 이미지 처리부(120), 디스플레이부(130), 제어부(140), 저장부(150)를 포함한다.
저장부(150)는 촬영 장치에서 사용되는 다양한 프로그램 및 데이터 등이 저장될 수 있다. 또한, 촬영부(110)에서 촬영된 촬영 이미지, 이미지 처리부(120)에서 생성되는 합성 이미지 등도 저장부(150)에 저장될 수 있다. 그 밖에, 상술한 객체 모델도 저장부(150)에 저장될 수 있다. 저장부(150)는 촬영 장치에 내장되는 플래시 메모리나 HDD 등이 될 수도 있고, 촬영 장치에 장착 또는 연결 가능한 메모리 카드, USB 메모리 스틱, 외장 하드 등이 될 수도 있다.
촬영부(110)는 제1 촬영부(111), 제2 촬영부(112)와 같이 복수의 촬영부를 포함할 수 있다. 제1 촬영부(111)와 제2 촬영부(112)는 촬영 장치(100)의 본체에서 서로 반대 방향에 배치될 수 있다. 가령, 제1 촬영부(111)가 제1 촬영 방향으로 촬영을 수행할 수 있도록 촬영 장치(100)의 제1 면에 배치되었다면, 제2 촬영부(112)는 제1 촬영 방향의 반대인 제2 촬영 방향으로 촬영을 수행할 수 있도록 제2 면에 배치된다.
제어부(140)는, 합성 촬영 모드가 개시되면 제1 촬영부(111)를 먼저 활성화시켜, 제1 촬영부(111)의 라이브 뷰를 디스플레이부(130) 화면 상에 디스플레이한다. 이러한 상태에서 촬영 명령이 입력되면, 제어부(140)는 제1 촬영부(111)를 제어하여 촬영을 수행하여 제1 촬영 이미지를 획득한다. 이미지 처리부(120)는 제1 촬영 이미지로부터 객체를 분리할 수 있다.
제어부(140)는 제1 촬영부(111)에 의해 제1 촬영 이미지가 획득되면, 제2 촬영부(112)를 활성화시킨다. 이에 따라, 제2 촬영부(112)에 의해 획득되는 라이브 뷰, 즉, 배경 라이브 뷰를 디스플레이부(130)에 제공한다.
이미지 처리부(120)는 제1 버퍼부(121), 객체 처리부(122), 제2 버퍼부(123), 가산부(124)를 포함한다. 제1 버퍼부(121)에는 제1 촬영부(111)를 통해 센싱되는 이미지 데이터들이 버퍼링되고, 제2 버퍼부(123)에는 제2 촬영부(112)를 통해 센싱되는 이미지 데이터들이 버퍼링된다.
객체 처리부(122)는 제1 버퍼부(121)에 저장된 이미지 데이터 중에서 객체로 판단된 영역의 데이터를 분리한다. 분리된 객체는 가산부(124)로 제공된다.
가산부(124)는 제2 버퍼부(123)에 버퍼링된 이미지와 객체 처리부(122)에서 분리된 객체를 중첩시켜 디스플레이부(130)로 출력한다.
디스플레이부(130)는 제1 버퍼부(121), 제2 버퍼부(122), 가산부(124)에서 출력되는 이미지 데이터를 선택적으로 디스플레이할 수 있다.
제어부(140)는 객체 및 배경 라이브뷰가 디스플레이되고 있는 상태에서 촬영 명령이 입력되면 제2 촬영부(122)를 제어하여 촬영을 수행한다. 그리고, 촬영 이미지와 객체를 합성시켜 저장부(150)에 저장시킨다.
도 9는 두 개의 촬영부를 이용하여 합성 이미지를 생성하는 방법의 일 예를 설명하기 위한 도면이다. 도 9에 따르면, 촬영 장치(100)의 일 표면에 디스플레이부(130)가 배치된다. 제1 촬영부(111)는 디스플레이부(130)와 동일한 면에 배치되고, 제2 촬영부(112)는 디스플레이부(130)와 반대 면에 배치된다.
합성 촬영을 수행하고자 하는 경우, 제1 촬영부(111) 및 제2 촬영부(112)는 상술한 부분에서 설명한 바와 같이 순차적으로 활성화될 수도 있으나, 도 9에서는 제1 촬영부(111) 및 제2 촬영부(112)가 함께 활성화되는 실시 예를 나타낸다. 이 경우, 디스플레이부(130)에는 제1 촬영부(111)의 라이브 뷰(910)와 제2 촬영부(112)의 라이브 뷰(920)가 함께 디스플레이될 수 있다. 사용자는 두 개의 라이브 뷰(910, 920)를 동시에 보면서 촬영을 수행할 수 있다.
일 예에 따르면, 사용자가 촬영 명령을 입력하면 제어부(140)는 제1 촬영부(111)를 제어하여 촬영 동작을 수행한다. 이미지 처리부(120)는 그 촬영 이미지로부터 객체(911)를 분리한다. 화면은 제2 촬영부(112)의 라이브 뷰로 전환되면서, 분리된 객체(911)가 그 화면 상에 함께 표시된다. 이러한 상태에서 다시 촬영 명령이 입력되면, 객체(911)를 포함하는 합성 이미지가 생성된다.
다른 예에 따르면, 사용자는 배경 이미지를 먼저 선택하여 촬영할 수도 있다. 즉, 두 개의 라이브 뷰(910, 920)가 표시된 상태에서 사용자가 제2 라이브 뷰(920)를 터치하면 배경 이미지가 촬영된다. 이 경우, 제2 라이브 뷰(920)가 표시되던 영역에 배경 이미지가 고정적으로 표시되고 제1 라이브 뷰(910)는 계속 디스플레이될 수 있다. 또는 배경 이미지가 전체 화면에 표시되고 제1 라이브 뷰(910)는 PIP(Picture in Picture) 형태로 표시되거나, 배경 이미지 상에서 투명하게 중첩 표시될 수 있다.
또 다른 예에 따르면, 두 개의 라이브 뷰(910, 920)가 표시된 상태에서 사용자가 촬영 명령을 입력하면, 제어부(140)는 제1 촬영부(111) 및 제2 촬영부(112)를 동시에 제어하여 동시 촬영을 수행할 수도 있다. 이에 따라, 배경 이미지와 객체가 동시에 획득되면, 그 객체를 배경 이미지에 중첩시켜 표시하고, 사용자 선택에 따라 객체의 표시 위치, 크기, 형태, 표시 속성 등을 변경할 수 있다.
이상과 같은 다양한 실시 예들은 촬영 기능을 갖춘 다양한 유형의 장치에서 수행될 수 있다. 촬영 장치가 휴대폰이나 태블릿 PC 등과 같이 다양한 어플리케이션을 지원하는 장치인 경우, 촬영 이전에 사용자가 촬영 모드를 선택할 수도 있다.
도 10은 합성 촬영 모드를 선택하여 합성 이미지를 생성하는 전체 과정을 설명하기 위한 도면이다. 도 10에 따르면, 촬영 장치(100)가 턴-온되거나 언-락(un-lock)되면 기 설정된 어플리케이션이나 폴더 등에 대한 아이콘을 포함하는 아이콘 화면(1000)이 표시될 수 있다. 사용자는 이러한 아이콘 중에서 카메라 어플리케이션에 해당하는 아이콘을 선택할 수 있다.
카메라 아이콘이 선택되면, 디스플레이부(130)는 각종 모드를 선택할 수 있는 선택 화면(1010)을 디스플레이한다. 선택 화면(1010)에는 일반 촬영, 셀프 촬영, 합성 촬영, 특수 촬영 등과 같은 다양한 모드에 대한 정보가 디스플레이된다.
이러한 상태에서 합성 촬영 모드가 선택되면, 먼저 제1 촬영부(111)가 활성화되어 제1 촬영부(111)의 라이브 뷰(1020)가 표시된다. 라이브 뷰(1020) 화면에는 촬영 메뉴(1022)가 표시될 수 있다. 사용자가 촬영 메뉴(1022)를 선택하면, 라이브 뷰(1020)에 대응되는 제1 촬영 이미지가 생성되고, 제1 촬영 이미지로부터 객체(1021)가 분리된다. 그리고, 제2 촬영부(112)가 활성화되어, 제2 촬영부(112)의 라이브 뷰(1030)와 객체(1021)가 중첩되어 표시된다. 이러한 배경 라이브 뷰(1030)에도 촬영 메뉴(1022)가 표시될 수 있다.
사용자는 촬영 장치(100)를 이쪽 저쪽으로 회전시켜 원하는 배경을 선택할 수 있다. 이에 따라 배경 라이브 뷰(1030)내의 적절한 위치에 객체(1021)가 위치한 상태에서 촬영 메뉴(1022)를 선택하여 촬영을 수행할 수 있다.
제어부(140)는 배경 이미지까지 촬영되면, 객체(1021)가 포함된 합성 이미지(1040)를 화면 상에 표시하고, 그 합성 이미지(1040)를 저장할 것인지 문의하는 문의 메시지(1050)를 표시한다. 제어부(140)는 문의 메시지(1050)에 대한 사용자의 선택에 따라 저장부(150)에 저장하거나, 저장취소할 수 있다. 저장 취소가 되면, 다시 객체(1021)를 포함하는 배경 라이브 뷰(1030)를 표시하는 단계로 복귀한다.
도 11은 본 발명의 일 실시 예에 따른 합성 이미지 촬영 방법을 설명하기 위한 흐름도이다. 도 11에 따르면, 촬영 장치는 먼저 제1 촬영 이미지를 획득한 후(S1110), 그 제1 촬영 이미지로부터 객체를 분리시킨다(S1120).
그리고 분리된 객체가 중첩된 배경 라이브 뷰를 디스플레이한다(S1130). 객체와 배경 라이브 뷰는 서로 다른 촬영부를 통해 각각 획득할 수도 있고, 하나의 촬영부를 이용하여 순차적으로 획득할 수도 있다. 객체의 위치, 크기, 형태, 컬러, 휘도 등과 같은 다양한 표시 속성은 사용자의 조작에 따라 또는 배경 라이브 뷰의 표시 속성에 따라 배경 라이브 뷰 상에서 다양하게 변경될 수 있다. 또한, 객체에 대해서는 형태 복원이 이루어질 수도 있고 톤 매핑, 이미지 매팅 등과 같은 후속 처리가 이루어질 수도 있다.
촬영 명령이 입력된 경우, 배경 라이브 뷰에 대응되는 촬영 이미지를 생성하고 그 촬영 이미지에 객체를 합성하여 합성 이미지를 생성한다(S1150).
도 12는 본 발명의 일 실시 예에 따른 객체 분리 방법을 설명하기 위한 흐름도이다. 도 12에 따르면, 합성 촬영 모드가 개시되면(S1210), 라이브 뷰를 디스플레이한다(S1220). 촬영 장치는 라이브 뷰의 각 프레임을 모니터링하여 객체를 탐색한다(S1230). 객체 탐색은, 사전 학습된 객체 모델을 이용하여 수행될 수 있다. 가령, 촬영 장치(100)는 촬영 이미지 내에서 객체 모델에 부합되는 영역을 객체로 판단할 수 있다. 객체가 탐색되어 특정되면 촬영 장치는 탐색된 객체를 지속적으로 추적한다(S1240).
이 후에, 객체를 촬영하기 위한 객체 촬영 명령이 입력되면 라이브 뷰에 대응되는 제1 촬영 이미지를 촬영하고(S1260), 그 제1 촬영 이미지 내에서 추적된 객체를 분리한다(S1270). 분리된 객체는, 배경 라이브 뷰에 중첩되어 사용자가 합성 이미지의 구도를 촬영 전에 미리 예측할 수 있다.
이상과 같이, 본 발명의 다양한 실시 예에 따르면, 사용자의 이미지는 배경 이미지와 적절하게 합성될 수 있다. 특히, 배경 이미지를 촬영하기 위한 라이브 뷰 상에서 사용자 이미지의 위치나 크기, 형태, 표시 속성 등을 편리하게 조정하여 셀프 촬영의 한계를 극복할 수 있다.
사용자는 합성 이미지를 자신의 촬영 장치(100)에 저장하거나, 외부의 클라우드 서버, 웹 서버 등에 업로드시켜 타인과 공유할 수 있다.
한편, 이상과 같은 실시 예들에서는 제1 촬영 이미지로부터 객체를 분리하고, 그 객체를 라이브 뷰와 중첩 표시하는 것으로 설명하였으나, 객체는 반드시 정지 영상으로부터만 분리되는 것은 아니다. 가령, 객체는 동영상 데이터의 각 프레임으로부터 분리되거나, 라이브 뷰 자체에서 분리되는, 동적 객체가 될 수도 있다.
구체적으로는, 도 8에 도시된 바와 같은 실시 예에서, 제1 촬영부에서 제공되는 라이브 뷰는 제1 버퍼부(121)에 버퍼링된다. 객체 처리부(122)는 기 설정된 주파수 주기에 따라 제1 버퍼부(121)에 버퍼링되는 라이브 뷰에 대해 객체 분리 작업을 수행한다. 이에 따라, 제1 촬영부(111)에서 제공되는 제1 라이브 뷰의 변화에 따라, 분리되는 객체의 형태 및 위치도 지속적으로 변화하게 된다. 변화된 객체는 제2 촬영부(112)에서 제공되는 제2 라이브 뷰에 중첩 표시될 수 있다. 사용자는, 동적 객체가 중첩된 제2 라이브 뷰를 보다가 적절한 시점에 촬영 명령을 입력할 수 있다. 제어부(140)는 촬영 명령이 입력되면 제1 및 제2 촬영부(111, 112)를 각각 제어하여 촬영 동작을 수행하며, 제1 촬영부(111)에서 촬영된 제1 이미지로부터 분리된 객체를, 제2 촬영부(112)에서 촬영된 이미지에 부가하여, 합성 이미지를 생성할 수 있다.
또는, 제1 촬영부(111)에서 제공되는 라이브 뷰 이외에 저장부(150) 또는 외부 저장 매체로부터 제공되는 동영상 컨텐츠로부터 객체를 분리하여, 촬영 이미지에 중첩시킬 수도 있다. 이에 따라, 사용자는 기존에 촬영한 동영상 데이터 중에서도 원하는 객체를 분리하여, 신규 촬영 이미지에 합성시킬 수 있다. 객체 분리 방법 및 합성 방법은 상술한 다른 실시 예들과 동일하므로, 중복 설명은 생략한다.
이상과 같이, 본 발명의 다양한 실시 예에 따르면, 주위에 다른 사람이 없더라도 사용자 본인이 들어간 이미지를 손쉽게 촬영할 수 있게 된다.
상술한 다양한 실시 예들에 따른 합성 이미지 촬영 방법, 객체 분리 방법 등은 소프트웨어로 코딩되어 비일시적 판독 가능 매체에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 상술한 바와 같은 다양한 유형의 촬영 장치에 탑재되어, 해당 장치에서 상술한 방법을 실행하도록 지원할 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 촬영부 120 : 이미지 처리부
130 : 디스플레이부 140 : 제어부
150 : 저장부

Claims (15)

  1. 촬영부;
    상기 촬영부를 통해 획득된 제1 촬영 이미지로부터 객체를 분리하는 이미지 처리부;
    상기 분리된 객체가 중첩된 배경 라이브 뷰를 디스플레이하는 디스플레이부; 및
    배경 촬영 명령이 입력되면 상기 배경 라이브 뷰에 대응되는 제2 촬영 이미지를 획득하고, 상기 제2 촬영 이미지에 상기 분리된 객체를 부가하여 합성 이미지를 생성하는 제어부;를 포함하고,
    상기 제어부는,
    상기 제1 촬영 이미지에 포함되지 않고 상기 분리된 객체의 영역과 오버랩핑되지 않는 복원 영역을 부가함으로써 상기 분리된 객체의 형상을 복원하도록 상기 이미지 처리부를 제어하고, 상기 복원된 형상을 포함하는 상기 분리된 객체를 상기 배경 라이브 뷰에 중첩시키는, 촬영 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    합성 촬영 모드가 선택되면 상기 촬영부의 라이브 뷰를 디스플레이하도록 상기 디스플레이부를 제어하고, 상기 라이브 뷰의 각 프레임을 모니터링하여 상기 객체를 탐색하고 추적하며,
    객체 촬영 명령이 입력되면 상기 촬영부의 라이브 뷰에 대응되는 상기 제1 촬영 이미지를 생성하고, 상기 제1 촬영 이미지 내에서 상기 추적된 객체를 분리하도록 상기 이미지 처리부를 제어하는 것을 특징으로 하는 촬영 장치.
  3. 제2항에 있어서,
    상기 촬영부는,
    제1 촬영 방향으로 촬영을 수행하기 위한 제1 촬영부;
    상기 제1 촬영 방향의 반대인 제2 촬영 방향으로 촬영을 수행하기 위한 제2 촬영부;를 더 포함하며,
    상기 제어부는,
    상기 합성 촬영 모드가 개시되면 상기 라이브 뷰를 상기 디스플레이부에 제공하도록 상기 제1 촬영부를 활성화시키고, 상기 제1 촬영부에 의해 상기 제1 촬영 이미지가 획득되면, 상기 배경 라이브 뷰를 상기 디스플레이부에 제공하도록 상기 제2 촬영부를 활성화시키는 것을 특징으로 하는 촬영 장치.
  4. 제1항에 있어서,
    사전 학습된 객체 모델이 저장된 저장부;를 더 포함하며,
    상기 제어부는,
    상기 제1 촬영 이미지 내에서 상기 객체 모델에 부합되는 영역을 상기 객체로 판단하는 것을 특징으로 하는 촬영 장치.
  5. 제4항에 있어서,
    상기 디스플레이부는, 상기 제1 촬영 이미지를 디스플레이하고,
    상기 제어부는,
    상기 제1 촬영 이미지에 대한 사용자 조작이 이루어지면, 상기 사용자 조작에 따라 상기 객체로 판단된 영역의 크기 및 형태를 변경하는 것을 특징으로 하는 촬영 장치.
  6. 삭제
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제어부는,
    상기 배경 라이브 뷰 내에서, 상기 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 사용자 선택에 따라 조정하도록 상기 이미지 처리부를 제어하는 것을 특징으로 하는 촬영 장치.
  8. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 제어부는,
    상기 배경 라이브 뷰의 특성에 기초하여, 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 조정하는 것을 특징으로 하는 촬영 장치.
  9. 합성 이미지 촬영 방법에 있어서,
    제1 촬영 이미지를 획득하여, 상기 제1 촬영 이미지로부터 객체를 분리하는 단계;
    상기 객체가 중첩된 배경 라이브 뷰를 디스플레이하는 단계;
    배경 촬영 명령이 입력되면 상기 배경 라이브 뷰에 대응되는 제2 촬영 이미지를 획득하는 단계;
    상기 제2 촬영 이미지에 상기 분리된 객체를 부가하여 합성 이미지를 생성하는 단계;를 포함하고,
    상기 합성 이미지를 생성하는 단계는,
    상기 제1 촬영 이미지에 포함되지 않고 상기 분리된 객체의 영역과 오버랩핑되지 않는 복원 영역을 부가함으로써 상기 분리된 객체의 형상을 복원하고, 상기 복원된 형상을 포함하는 상기 분리된 객체를 상기 배경 라이브 뷰에 중첩시키는 단계;를 포함하는, 합성 이미지 촬영 방법.
  10. 제9항에 있어서,
    상기 객체를 분리하는 단계는,
    합성 촬영 모드가 선택되면 라이브 뷰를 디스플레이하는 단계;
    상기 라이브 뷰의 각 프레임을 모니터링하여 상기 객체를 탐색하고 추적하는 단계;
    객체 촬영 명령이 입력되면 상기 라이브 뷰에 대응되는 상기 제1 촬영 이미지를 생성하는 단계;
    상기 제1 촬영 이미지 내에서 상기 추적된 객체를 분리하는 단계;를 포함하는 것을 특징으로 하는 합성 이미지 촬영 방법.
  11. 제10항에 있어서,
    상기 객체를 탐색하고 추적하는 단계는,
    상기 제1 촬영 이미지 내에서, 사전 학습된 객체 모델에 부합되는 영역을 상기 객체로 판단하는 것을 특징으로 하는 합성 이미지 촬영 방법.
  12. 제11항에 있어서,
    상기 객체를 분리하는 단계는,
    상기 제1 촬영 이미지를 디스플레이하는 단계;
    상기 제1 촬영 이미지에 대한 사용자 조작이 이루어지면, 상기 사용자 조작에 따라 상기 객체로 판단된 영역의 크기 및 형태를 변경하는 단계;를 포함하는 것을 특징으로 하는 합성 이미지 촬영 방법.
  13. 삭제
  14. 제9항 내지 제12항 중 어느 한 항에 있어서,
    상기 배경 라이브 뷰 내에서의 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 사용자 선택에 따라 조정하는 단계;를 더 포함하는 것을 특징으로 하는 합성 이미지 촬영 방법.
  15. 제9항 내지 제12항 중 어느 한 항에 있어서,
    상기 배경 라이브 뷰의 특성에 기초하여, 상기 분리된 객체의 표시 위치, 크기. 컬러 및 휘도 중 적어도 하나를 조정하는 단계;를 더 포함하는 것을 특징으로 하는 합성 이미지 촬영 방법.

KR1020120157065A 2012-12-28 2012-12-28 합성 이미지를 촬영하는 촬영 장치 및 그 방법 KR102000536B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020120157065A KR102000536B1 (ko) 2012-12-28 2012-12-28 합성 이미지를 촬영하는 촬영 장치 및 그 방법
US14/134,005 US9357117B2 (en) 2012-12-28 2013-12-19 Photographing device for producing composite image and method using the same
JP2013269718A JP6292867B2 (ja) 2012-12-28 2013-12-26 合成イメージを撮影する撮影装置及びその方法
EP13199825.4A EP2750372B1 (en) 2012-12-28 2013-12-30 Photographing device for producing composite image and method using the same
CN201310745718.9A CN103916587B (zh) 2012-12-28 2013-12-30 用于生成合成图像的拍摄装置以及使用所述装置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120157065A KR102000536B1 (ko) 2012-12-28 2012-12-28 합성 이미지를 촬영하는 촬영 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20140086491A KR20140086491A (ko) 2014-07-08
KR102000536B1 true KR102000536B1 (ko) 2019-07-16

Family

ID=50028708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120157065A KR102000536B1 (ko) 2012-12-28 2012-12-28 합성 이미지를 촬영하는 촬영 장치 및 그 방법

Country Status (5)

Country Link
US (1) US9357117B2 (ko)
EP (1) EP2750372B1 (ko)
JP (1) JP6292867B2 (ko)
KR (1) KR102000536B1 (ko)
CN (1) CN103916587B (ko)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992409B2 (en) * 2013-02-14 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Digital mirror apparatus
US10430894B2 (en) 2013-03-21 2019-10-01 Khoros, Llc Gamification for online social communities
US9952756B2 (en) 2014-01-17 2018-04-24 Intel Corporation Dynamic adjustment of a user interface
CN104135612B (zh) * 2014-07-11 2018-05-01 努比亚技术有限公司 一种可调节拍摄主***置的拍摄方法和拍摄装置
CN104657206B (zh) * 2015-02-09 2018-09-28 青岛海信移动通信技术股份有限公司 一种图像数据的处理方法和装置
CN106303286B (zh) * 2015-05-22 2020-02-07 中兴通讯股份有限公司 图片处理方法、发送方法、处理装置及发送装置
CN105187709B (zh) * 2015-07-28 2018-08-14 努比亚技术有限公司 一种实现异地拍摄的方法及终端
US9922452B2 (en) * 2015-09-17 2018-03-20 Samsung Electronics Co., Ltd. Apparatus and method for adjusting brightness of image
US10303925B2 (en) 2016-06-24 2019-05-28 Google Llc Optimization processes for compressing media content
US10474877B2 (en) 2015-09-22 2019-11-12 Google Llc Automated effects generation for animated content
US11138207B2 (en) 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
US20170083524A1 (en) * 2015-09-22 2017-03-23 Riffsy, Inc. Platform and dynamic interface for expression-based retrieval of expressive media content
CN105338242A (zh) * 2015-10-29 2016-02-17 努比亚技术有限公司 一种图像合成方法和装置
JP2017130735A (ja) * 2016-01-19 2017-07-27 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
KR101794453B1 (ko) * 2016-07-14 2017-11-08 주식회사 프리미스 차량의 주변 정보를 포함하는 이미지를 생성하기 위한 방법 및 장치
CN106713783A (zh) * 2016-12-16 2017-05-24 天脉聚源(北京)传媒科技有限公司 一种视频中的图像合成的方法及装置
US10586111B2 (en) 2017-01-13 2020-03-10 Google Llc Using machine learning to detect which part of the screen includes embedded frames of an uploaded video
CN106803888A (zh) * 2017-03-06 2017-06-06 联想(北京)有限公司 合成图像的方法和电子设备
US10902462B2 (en) 2017-04-28 2021-01-26 Khoros, Llc System and method of providing a platform for managing data content campaign on social networks
JP6934059B2 (ja) 2017-09-07 2021-09-08 富士フイルム株式会社 撮像装置
US11570128B2 (en) 2017-10-12 2023-01-31 Spredfast, Inc. Optimizing effectiveness of content in electronic messages among a system of networked computing device
US10999278B2 (en) 2018-10-11 2021-05-04 Spredfast, Inc. Proxied multi-factor authentication using credential and authentication management in scalable data networks
US10785222B2 (en) 2018-10-11 2020-09-22 Spredfast, Inc. Credential and authentication management in scalable data networks
US10346449B2 (en) 2017-10-12 2019-07-09 Spredfast, Inc. Predicting performance of content and electronic messages among a system of networked computing devices
US11470161B2 (en) 2018-10-11 2022-10-11 Spredfast, Inc. Native activity tracking using credential and authentication management in scalable data networks
US11050704B2 (en) 2017-10-12 2021-06-29 Spredfast, Inc. Computerized tools to enhance speed and propagation of content in electronic messages among a system of networked computing devices
US10601937B2 (en) 2017-11-22 2020-03-24 Spredfast, Inc. Responsive action prediction based on electronic messages among a system of networked computing devices
KR101932009B1 (ko) * 2017-12-29 2018-12-24 (주)제이엘케이인스펙션 다중 객체 검출을 위한 영상 처리 장치 및 방법
US11061900B2 (en) 2018-01-22 2021-07-13 Spredfast, Inc. Temporal optimization of data operations using distributed search and server management
US10594773B2 (en) 2018-01-22 2020-03-17 Spredfast, Inc. Temporal optimization of data operations using distributed search and server management
WO2019163558A1 (ja) * 2018-02-22 2019-08-29 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP7100139B2 (ja) * 2018-09-06 2022-07-12 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2020048025A (ja) * 2018-09-18 2020-03-26 富士フイルム株式会社 撮影装置、撮影装置の作動プログラム及び作動方法
US10855657B2 (en) 2018-10-11 2020-12-01 Spredfast, Inc. Multiplexed data exchange portal interface in scalable data networks
JP2020115607A (ja) * 2019-01-17 2020-07-30 日本電気株式会社 画像処理装置、画像処理方法、プログラム
US10931540B2 (en) 2019-05-15 2021-02-23 Khoros, Llc Continuous data sensing of functional states of networked computing devices to determine efficiency metrics for servicing electronic messages asynchronously
KR102057713B1 (ko) 2019-05-21 2019-12-19 주식회사 코어닷투데이 인식 영역의 스타일을 트랜스퍼하는 시스템 및 방법
CN110365907B (zh) * 2019-07-26 2021-09-21 维沃移动通信有限公司 一种拍照方法、装置及电子设备
US20210144297A1 (en) * 2019-11-12 2021-05-13 Shawn Glidden Methods System and Device for Safe-Selfie
CN111586296B (zh) 2020-04-27 2021-11-16 北京小米移动软件有限公司 图像拍摄方法、图像拍摄装置及存储介质
CN111669503A (zh) * 2020-06-29 2020-09-15 维沃移动通信有限公司 拍照方法、装置、电子设备及介质
US11438289B2 (en) 2020-09-18 2022-09-06 Khoros, Llc Gesture-based community moderation
US11128589B1 (en) 2020-09-18 2021-09-21 Khoros, Llc Gesture-based community moderation
US11627100B1 (en) 2021-10-27 2023-04-11 Khoros, Llc Automated response engine implementing a universal data space based on communication interactions via an omnichannel electronic data channel
US11924375B2 (en) 2021-10-27 2024-03-05 Khoros, Llc Automated response engine and flow configured to exchange responsive communication data via an omnichannel electronic communication channel independent of data source
US11438282B2 (en) 2020-11-06 2022-09-06 Khoros, Llc Synchronicity of electronic messages via a transferred secure messaging channel among a system of various networked computing devices
US11714629B2 (en) 2020-11-19 2023-08-01 Khoros, Llc Software dependency management
CN112492216B (zh) * 2020-12-14 2022-06-07 维沃移动通信有限公司 拍摄控制方法和拍摄控制装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050036044A1 (en) * 2003-08-14 2005-02-17 Fuji Photo Film Co., Ltd. Image pickup device and image synthesizing method
US20080317378A1 (en) * 2006-02-14 2008-12-25 Fotonation Ireland Limited Digital image enhancement with reference images
US20110053654A1 (en) * 2008-03-26 2011-03-03 Tessera Technologies Ireland Limited Method of Making a Digital Camera Image of a Scene Including the Camera User
JP2012180939A (ja) 2001-10-25 2012-09-20 Lord Corp 磁界応答材料を有するブレーキ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1229977C (zh) * 1998-06-22 2005-11-30 富士写真胶片株式会社 摄影装置及其方法
US20030105880A1 (en) 2001-12-04 2003-06-05 Koninklijke Philips Electronics N.V. Distributed processing, storage, and transmision of multimedia information
GB2398695B (en) 2001-12-21 2005-03-09 Nec Corp Portable communication terminal with camera device, and method of image capture
JP2003189168A (ja) * 2001-12-21 2003-07-04 Nec Corp 携帯電話用カメラ
US8363951B2 (en) * 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
JP2005204015A (ja) 2004-01-15 2005-07-28 Nec Corp 携帯機器および画像処理方法
KR100800804B1 (ko) * 2006-12-27 2008-02-04 삼성전자주식회사 파노라마 영상 촬영 방법
KR100840023B1 (ko) * 2007-11-13 2008-06-20 (주)올라웍스 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템
JP2009253925A (ja) * 2008-04-11 2009-10-29 Casio Comput Co Ltd 撮像装置及び撮像方法と、撮影制御プログラム
US8254760B2 (en) 2009-08-28 2012-08-28 Apple Inc. Pixel analysis and frame alignment for background frames
KR20110060499A (ko) 2009-11-30 2011-06-08 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어방법
US9264659B2 (en) 2010-04-07 2016-02-16 Apple Inc. Video conference network management for a mobile device
TW201212390A (en) 2010-09-03 2012-03-16 Walton Advanced Eng Inc USB device structure
KR101680684B1 (ko) * 2010-10-19 2016-11-29 삼성전자주식회사 영상 처리 방법 및 이를 적용한 영상 촬영 장치
JP5907660B2 (ja) 2011-02-28 2016-04-26 オリンパス株式会社 撮像装置
KR101764372B1 (ko) 2011-04-19 2017-08-03 삼성전자주식회사 휴대용 단말기에서 영상 합성 방법 및 장치
JP5963256B2 (ja) * 2012-08-17 2016-08-03 Kddi株式会社 画像生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012180939A (ja) 2001-10-25 2012-09-20 Lord Corp 磁界応答材料を有するブレーキ
US20050036044A1 (en) * 2003-08-14 2005-02-17 Fuji Photo Film Co., Ltd. Image pickup device and image synthesizing method
US20080317378A1 (en) * 2006-02-14 2008-12-25 Fotonation Ireland Limited Digital image enhancement with reference images
US20110053654A1 (en) * 2008-03-26 2011-03-03 Tessera Technologies Ireland Limited Method of Making a Digital Camera Image of a Scene Including the Camera User

Also Published As

Publication number Publication date
KR20140086491A (ko) 2014-07-08
EP2750372A1 (en) 2014-07-02
CN103916587A (zh) 2014-07-09
JP2014131281A (ja) 2014-07-10
JP6292867B2 (ja) 2018-03-14
CN103916587B (zh) 2019-03-29
EP2750372B1 (en) 2019-10-16
US9357117B2 (en) 2016-05-31
US20140184841A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
KR102000536B1 (ko) 합성 이미지를 촬영하는 촬영 장치 및 그 방법
US10284789B2 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
KR101612727B1 (ko) 리포커싱을 실행하는 방법 및 전자 기기
US20180007340A1 (en) Method and system for motion controlled mobile viewing
KR102127351B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR20140067511A (ko) 촬영된 이미지를 표시하는 촬영 장치 및 그 촬영 방법
KR20170027266A (ko) 영상 촬영 장치 및 그 동작 방법
WO2018166069A1 (zh) 拍照预览方法、图形用户界面及终端
JP6304398B2 (ja) 一連の画像からベース画像と再配置されるオブジェクトとを合成する画像生成
JP2016224173A (ja) 制御装置及び制御方法
WO2022222835A1 (zh) 视频处理方法、视频处理装置和电子设备
JP2024504159A (ja) 撮影方法、装置、電子機器及び可読記憶媒体
JP6551734B2 (ja) 動画像作成システム、動画像作成方法及び動画像作成プログラム
GB2513865A (en) A method for interacting with an augmented reality scene
CN112634339B (zh) 商品对象信息展示方法、装置及电子设备
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN114500852B (zh) 拍摄方法、拍摄装置、电子设备和可读存储介质
JP2015056825A (ja) 撮像装置、その制御方法及びプログラム
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体
WO2024001849A1 (zh) 视觉定位的位姿确定方法、装置以及电子设备
CN116980759A (zh) 拍摄方法、终端、电子设备及可读存储介质
CN115705135A (zh) 信息查询及展示方法、装置
CN115589457A (zh) 一种拍摄方法、装置、电子设备和可读存储介质
CN115242976A (zh) 拍摄方法、拍摄装置和电子设备

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant