JP2010278701A - Image combining device, and image combining method and program - Google Patents

Image combining device, and image combining method and program Download PDF

Info

Publication number
JP2010278701A
JP2010278701A JP2009128488A JP2009128488A JP2010278701A JP 2010278701 A JP2010278701 A JP 2010278701A JP 2009128488 A JP2009128488 A JP 2009128488A JP 2009128488 A JP2009128488 A JP 2009128488A JP 2010278701 A JP2010278701 A JP 2010278701A
Authority
JP
Japan
Prior art keywords
image
subject
processing
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009128488A
Other languages
Japanese (ja)
Other versions
JP2010278701A5 (en
Inventor
Naotaka Hikosaka
直孝 彦坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009128488A priority Critical patent/JP2010278701A/en
Publication of JP2010278701A publication Critical patent/JP2010278701A/en
Publication of JP2010278701A5 publication Critical patent/JP2010278701A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image combining device and image combining method and program, capable of generating a natural combined image. <P>SOLUTION: An imaging device 100 includes: a distance difference calculating part 8d for comparing background distance information, showing a distance between a main object included in a background image and an imaging device, with object distance information, showing a distance between the main object included in an object cutout image and the imaging device; a smoothing processing part 8e for performing predetermined image processing for at least one between the background image and the object cutout image on the basis of the compared result; and a combining part 8g for combining the background image and an object image of the object cutout image, for at least one between which the predetermined image processing is performed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の画像を合成する画像合成装置、画像合成方法及びプログラムに関する。   The present invention relates to an image composition apparatus, an image composition method, and a program for compositing a plurality of images.

従来、被写体画像と背景画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。   Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).

特開2004−159158号公報JP 2004-159158 A

ところで、被写体画像と背景画像を合成する場合、これらの画像を単に重ねただけでは表現力の乏しい合成画像しか生成することができなかった。   By the way, when a subject image and a background image are combined, only a combined image with poor expressiveness can be generated by simply superimposing these images.

そこで、本発明の課題は、自然な合成画像を生成することができる画像合成装置、画像合成方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an image composition device, an image composition method, and a program that can generate a natural composite image.

上記課題を解決するため、請求項1に記載の発明の画像合成装置は、
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段と、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段と、前記第1距離情報と前記第2距離情報とを比較する比較手段と、この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段と、この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image composition device according to a first aspect of the present invention provides:
A first acquisition unit that acquires a background image, first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image, a foreground image, and the foreground image; A second acquisition unit that acquires second distance information indicating a distance between the main subject and the imaging device that captured the foreground image; a comparison unit that compares the first distance information and the second distance information; Based on the comparison result by the comparison means, processing means for performing predetermined image processing on at least one of the background image and the foreground image, and the background image subjected to at least one of the predetermined image processing by the processing means; Synthesizing means for synthesizing the foreground image.

請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記比較手段は、前記第1距離情報と前記第2距離情報とを比較して、前記背景画像と前記前景画像との距離差を算出する算出手段を備え、前記処理手段は、前記算出手段により算出された前記距離差に応じて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施すことを特徴としている。
According to a second aspect of the present invention, in the image composition device according to the first aspect,
The comparison unit includes a calculation unit that compares the first distance information and the second distance information to calculate a distance difference between the background image and the foreground image, and the processing unit includes: According to the calculated distance difference, predetermined image processing is performed on at least one of the background image and the foreground image.

請求項3に記載の発明は、請求項2に記載の画像合成装置において、
前記処理手段は、前記算出手段により算出された前記距離差に応じて前記所定の画像処理の処理強度を変更して前記背景画像及び前記前景画像の少なくとも一方に施すことを特徴としている。
According to a third aspect of the present invention, in the image composition device according to the second aspect,
The processing means is characterized in that the processing intensity of the predetermined image processing is changed according to the distance difference calculated by the calculation means and applied to at least one of the background image and the foreground image.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像合成装置において、
前記前景画像は、前記主要被写体を含む領域を抽出したものであることを特徴としている。
According to a fourth aspect of the present invention, in the image synthesizing device according to any one of the first to third aspects,
The foreground image is obtained by extracting an area including the main subject.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像合成装置において、
前記所定の画像処理は、画像を平滑化する処理、画像のコントラストを調整する処理及び画像の明るさを調整する処理の少なくとも一を含むことを特徴としている。
The invention according to claim 5 is the image composition device according to any one of claims 1 to 4,
The predetermined image processing includes at least one of processing for smoothing an image, processing for adjusting the contrast of the image, and processing for adjusting the brightness of the image.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像合成装置において、
前記背景画像及び前記前景画像を撮像する撮像手段を更に備えたことを特徴としている。
The invention according to claim 6 is the image synthesizing apparatus according to any one of claims 1 to 5,
The image processing apparatus further includes an imaging unit that captures the background image and the foreground image.

請求項7に記載の発明の画像合成方法は、
画像を合成する画像合成装置の画像合成方法であって、背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得ステップと、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得ステップと、前記第1距離情報と前記第2距離情報とを比較する比較ステップと、この比較ステップによる比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理ステップと、この処理ステップによって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成ステップと、を含むことを特徴としている。
The image composition method of the invention described in claim 7
An image composition method of an image composition device for compositing images, wherein a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that images the background image are acquired. A first acquisition step, a second acquisition step of acquiring a foreground image, a second distance information indicating a distance between a main subject included in the foreground image and an imaging device that has captured the foreground image, and the first distance information. A comparison step for comparing the second distance information with the second distance information, a processing step for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result of the comparison step, And a synthesis step of synthesizing the background image and the foreground image subjected to at least one predetermined image processing.

請求項8に記載の発明のプログラムは、
画像合成装置のコンピュータを、背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段、前記第1距離情報と前記第2距離情報とを比較する比較手段、この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段、この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段、として機能させることを特徴としている。
The program of the invention described in claim 8 is:
A first acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that has captured the background image; a foreground image; A second acquisition unit configured to acquire second distance information indicating a distance between a main subject included in the foreground image and an imaging apparatus that has captured the foreground image; and comparing the first distance information and the second distance information. Comparing means, processing means for applying predetermined image processing to at least one of the background image and the foreground image based on the comparison result by the comparing means, and the predetermined image processing being applied to at least one of the processing means by the processing means It is characterized by functioning as a combining means for combining a background image and the foreground image.

本発明によれば、表現力の豊かな自然な合成画像を生成することができる。   According to the present invention, a natural composite image rich in expressive power can be generated.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による合成画像生成処理に係る平均化フィルタの一例を説明するための図である。It is a figure for demonstrating an example of the averaging filter which concerns on the synthesized image generation process by the imaging device of FIG. 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to subject clipping processing by the imaging apparatus of FIG. 1. 被写体切り抜き処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on a subject clipping process. 図1の撮像装置による背景画像撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to background image imaging processing by the imaging apparatus of FIG. 1. 図1の撮像装置による合成画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a composite image generation process by the imaging apparatus of FIG. 1. 合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image composition process in a composite image generation process. 合成画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on a synthetic image generation process.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、背景画像P4aに含まれる被写体までの距離を示す背景距離情報と、主要被写体画像Gに含まれる主要被写体までの距離を示す被写体距離情報とを比較して、当該比較結果に基づいて背景画像P4a及び主要被写体画像Gの少なくとも一方に所定の画像処理を施した後、所定の画像処理が少なくとも一方に施された背景画像(例えば、背景画像P4b)と主要被写体画像Gとを合成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
The imaging apparatus 100 according to the present embodiment compares the background distance information indicating the distance to the subject included in the background image P4a and the subject distance information indicating the distance to the main subject included in the main subject image G. After performing predetermined image processing on at least one of the background image P4a and the main subject image G based on the comparison result, the background image (for example, the background image P4b) subjected to at least one of the predetermined image processing and the main subject image Synthesize with G.
Specifically, as illustrated in FIG. 1, the imaging apparatus 100 includes a lens unit 1, an electronic imaging unit 2, an imaging control unit 3, an image data generation unit 4, an image memory 5, and a feature amount calculation unit. 6, a block matching unit 7, an image processing unit 8, a recording medium 9, a display control unit 10, a display unit 11, an operation input unit 12, and a central control unit 13.
Further, the imaging control unit 3, the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, and the central control unit 13 are designed as a custom LSI 1A, for example.

レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The lens unit 1 includes a plurality of lenses and includes a zoom lens, a focus lens, and the like.
Although not shown, the lens unit 1 includes a zoom drive unit that moves the zoom lens in the optical axis direction and a focus drive unit that moves the focus lens in the optical axis direction when imaging a subject. May be.

電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the lens unit 1 into a two-dimensional image signal. To do.

撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。   Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image data generation unit 4.

また、撮像制御部3は、被写体の撮像条件の調整制御を行う。具体的には、撮像制御部3は、合焦駆動部に所定の制御信号を出力して、レンズ部1のフォーカスレンズを光軸方向に移動させて合焦位置を調整する自動合焦処理を行う合焦制御部3aを備えている。
さらに、撮像制御部3は、撮像条件の調整制御として、AE(自動露出処理)やAWB(自動ホワイトバランス)等を行う。
In addition, the imaging control unit 3 performs adjustment control of imaging conditions of the subject. Specifically, the imaging control unit 3 outputs a predetermined control signal to the focusing drive unit, and performs an automatic focusing process of adjusting the focusing position by moving the focus lens of the lens unit 1 in the optical axis direction. An in-focus control unit 3a is provided.
Further, the imaging control unit 3 performs AE (automatic exposure processing), AWB (automatic white balance), and the like as adjustment control of imaging conditions.

このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、画像合成処理に係る背景画像P4a(図8(a)参照)や被写体存在画像P1(図4(a)参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図4(c)参照)の生成のための被写体非存在画像P2(図4(b)参照)を撮像する。
The lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 configured as described above function as an imaging unit as a background image P 4 a (see FIG. 8A) related to the image composition processing and a subject presence image P 1 (see FIG. Image a).
In addition, the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 capture the subject clipped image P3 (FIG. 4) in a state where the imaging conditions for capturing the subject presence image P1 are fixed after the subject presence image P1 is captured. A subject non-existing image P2 (see FIG. 4B) for generating (see (c)) is captured.

画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the image frame transferred from the electronic imaging unit 2, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an image memory 5 used as a buffer memory via a DMA controller (not shown).

画像メモリ5は、例えば、DRAM等により構成され、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。   The image memory 5 is configured by, for example, a DRAM or the like, and temporarily stores data processed by the feature amount calculation unit 6, the block matching unit 7, the image processing unit 8, the central control unit 13, and the like.

特徴量演算部6は、被写体非存在画像P2を基準として、当該被写体非存在画像P2から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6は、例えば、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature quantity calculation unit 6 performs feature extraction processing for extracting feature points from the subject non-existing image P2 with reference to the subject non-existing image P2. Specifically, the feature amount calculation unit 6 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the subject non-existing image P2, The contents of the block are extracted as a template (for example, a square of 16 × 16 pixels).
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.

ブロックマッチング部7は、被写体切り抜き画像P3を生成する際に、被写体非存在画像P2と被写体存在画像P1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1内のどこに対応するか、つまり、被写体存在画像P1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。   When generating the subject cutout image P3, the block matching unit 7 performs block matching processing for aligning the subject non-existing image P2 and the subject existing image P1. Specifically, the block matching unit 7 optimally matches where the template extracted by the feature extraction process corresponds to in the subject existing image P1, that is, the template pixel value optimally matches in the subject existing image P1. Search for a position (corresponding region). Then, an optimum offset between the subject non-existing image P2 and the subject existing image P1 having the best evaluation value (for example, sum of squared differences (SSD), sum of absolute differences (SAD), etc.) is calculated. Calculated as a template motion vector.

画像処理部8は、被写体切り抜き画像P3の画像データを生成する切り抜き画像生成部8aを具備している。具体的には、切り抜き画像生成部8aは、図示は省略するが、位置合わせ部と、被写体画像抽出部と、位置情報生成部と、画像生成部等を備えている。
位置合わせ部は、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
被写体画像抽出部は、位置合わせ部により位置合わせされた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1から被写体が含まれる主要被写体画像(前景画像)Gを抽出する。
位置情報生成部は、被写体存在画像P1から抽出された主要被写体画像Gの位置を特定して、被写体存在画像P1における主要被写体画像Gの位置を示す位置情報(例えば、アルファマップ)を生成する。ここで、アルファマップとは、被写体存在画像P1の各画素について、主要被写体画像Gを所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
画像生成部は、生成されたアルファマップに基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3の画像データを生成する。
The image processing unit 8 includes a cut-out image generation unit 8a that generates image data of the subject cut-out image P3. Specifically, the cut-out image generation unit 8a includes a positioning unit, a subject image extraction unit, a position information generation unit, an image generation unit, and the like, although not illustrated.
The alignment unit calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject presence image P1 with respect to the subject non-existence image P2 based on the feature points extracted from the subject non-existence image P2, and according to the coordinate conversion formula The subject presence image P1 is coordinate-transformed and aligned with the subject non-existence image P2.
The subject image extraction unit generates difference information of corresponding pixels between the subject presence image P1 and the subject non-existence image P2 aligned by the alignment unit, and uses the difference information as a reference from the subject presence image P1. A main subject image (foreground image) G including the subject is extracted.
The position information generation unit specifies the position of the main subject image G extracted from the subject presence image P1, and generates position information (for example, an alpha map) indicating the position of the main subject image G in the subject presence image P1. Here, the alpha map represents a weight when alpha blending the main subject image G with respect to a predetermined background for each pixel of the subject existing image P1 as an alpha value (0 ≦ α ≦ 1). .
Based on the generated alpha map, the image generation unit does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing image P1 to a predetermined single color image (not shown), and The image of the subject is synthesized with a predetermined single-color image so as to transmit pixels with an alpha value of 0, and image data of the subject cut-out image P3 is generated.

このように、切り抜き画像生成部8aは、被写体存在画像P1から主要被写体画像(前景画像)Gを抽出する抽出手段を構成している。   As described above, the cut-out image generation unit 8a constitutes an extraction unit that extracts the main subject image (foreground image) G from the subject presence image P1.

また、画像処理部8は、レンズ部1、電子撮像部2及び撮像制御部3により撮像された画像中の所定の領域までの距離を算出する距離算出部8bを具備している。
距離算出部8bは、背景画像P4aの撮像の際に、当該背景画像P4a中の草や木などの被写体Cまでの距離を算出する。具体的には、距離算出部8bは、自動合焦処理にて背景画像P4a中の被写体Cに合焦した状態で、フォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得して、当該レンズ位置情報に基づいて被写体Cまでの距離を所定の換算手段(例えば、換算プログラムや換算テーブル等)を用いて算出して背景距離情報(第1距離情報)を取得する。
なお、被写体Cの特定は、例えば、背景画像P4aの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで行っても良い。
Further, the image processing unit 8 includes a distance calculation unit 8 b that calculates a distance to a predetermined region in the image captured by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3.
The distance calculation unit 8b calculates the distance to the subject C such as grass or tree in the background image P4a when the background image P4a is captured. Specifically, the distance calculation unit 8b obtains lens position information related to the position of the focus lens in the optical axis direction of the imaging control unit 3 in a state where the subject C in the background image P4a is focused by the automatic focusing process. Obtained from the focusing control unit 3a, the distance to the subject C is calculated using predetermined conversion means (for example, a conversion program or a conversion table) based on the lens position information, and background distance information (first distance) Information).
The subject C may be specified by, for example, detecting a contrast difference using color information of image data of the background image P4a or extracting a contour line (edge portion) of a pixel set.

また、距離算出部8bは、被写体存在画像P1の撮像の際に、当該被写体存在画像P1中の主要被写体までの距離を算出する。具体的には、距離算出部8bは、自動合焦処理にて被写体存在画像P1中の主要被写体に合焦した状態で、フォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得して、当該レンズ位置情報に基づいて主要被写体までの距離を所定の換算手段(例えば、換算プログラムや換算テーブル等)を用いて算出して被写体距離情報(第2距離情報)を取得する。   The distance calculation unit 8b calculates the distance to the main subject in the subject presence image P1 when the subject presence image P1 is captured. Specifically, the distance calculation unit 8b obtains lens position information related to the position of the focus lens in the optical axis direction in the state where the main subject in the subject presence image P1 is focused by the automatic focusing process. The distance to the main subject is calculated using predetermined conversion means (for example, a conversion program, a conversion table, etc.) based on the lens position information, and the subject distance information (second Get distance information).

また、画像処理部8は、記録媒体9に記録されている背景画像P4aや被写体切り抜き画像P3の画像データを取得する取得部8cを具備している。
取得部8cは、合成画像生成処理にて、ユーザによる操作入力部12の所定操作に基づいて指定された背景画像P4aの画像データを記録媒体9から読み出して取得する。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている背景画像P4aを読み出すことで、画像情報の他にExif情報として付帯されている背景距離情報(第1距離情報)も取得する。
ここで、取得部8cは、背景画像P4aと、当該背景画像P4aに含まれる草や木などの被写体Cと当該背景画像P4aを撮像した撮像装置100との距離を示す背景距離情報(第1距離情報)とを取得する第1取得手段を構成している。
Further, the image processing unit 8 includes an acquisition unit 8c that acquires image data of the background image P4a and the subject cutout image P3 recorded on the recording medium 9.
The acquisition unit 8c reads and acquires the image data of the background image P4a designated based on a predetermined operation of the operation input unit 12 by the user in the composite image generation process. Specifically, the acquisition unit 8c reads the background image P4a configured from the image file in the Exif format, so that the background distance information (first distance information) attached as Exif information is also included in addition to the image information. get.
Here, the acquisition unit 8c acquires background distance information (first distance) indicating the distance between the background image P4a and the subject C such as grass or tree included in the background image P4a and the imaging device 100 that captured the background image P4a. 1st acquisition means which acquires (information).

また、取得部8cは、合成画像生成処理にて、ユーザによる操作入力部12の所定操作に基づいて指定された被写体切り抜き画像P3の画像データを記録媒体9から読み出して取得する。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている被写体切り抜き画像P3を読み出すことで、画像情報の他にExif情報として付帯されている被写体距離情報(第2距離情報)も取得する。
ここで、取得部8cは、前景画像としての主要被写体画像Gと、当該主要被写体画像Gに含まれる主要被写体と当該主要被写体画像Gに係る被写体存在画像P1を撮像した撮像装置100との距離を示す被写体距離情報(第2距離情報)とを取得する第2取得手段を構成している。
Further, the acquisition unit 8c reads and acquires the image data of the subject cutout image P3 designated based on a predetermined operation of the operation input unit 12 by the user in the composite image generation process. Specifically, the acquisition unit 8c reads the subject cutout image P3 configured from the image file in the Exif format, so that subject distance information (second distance information) attached as Exif information in addition to the image information. Also get.
Here, the acquisition unit 8c calculates the distance between the main subject image G as the foreground image, the main subject included in the main subject image G, and the imaging device 100 that has captured the subject presence image P1 related to the main subject image G. The second acquisition means is configured to acquire the subject distance information (second distance information) shown.

また、画像処理部8は、算出手段として、背景画像P4aと被写体存在画像P1に含まれる主要被写体画像(前景画像)Gとの距離差Aを算出する距離差算出部8dを具備している。
距離差算出部8dは、合成画像生成処理にて、取得部8cにより取得された背景距離情報と被写体距離情報とを比較して、背景画像P4aと主要被写体画像Gとの距離差Aを算出する。
ここで、距離差算出部8dは、背景距離情報(第1距離情報)と被写体距離情報(第2距離情報)とを比較する比較手段を構成している。
The image processing unit 8 includes a distance difference calculation unit 8d that calculates a distance difference A between the background image P4a and the main subject image (foreground image) G included in the subject presence image P1 as calculation means.
The distance difference calculation unit 8d compares the background distance information acquired by the acquisition unit 8c and the subject distance information in the composite image generation process, and calculates the distance difference A between the background image P4a and the main subject image G. .
Here, the distance difference calculation unit 8d constitutes a comparison unit that compares the background distance information (first distance information) and the subject distance information (second distance information).

また、画像処理部8は、背景画像P4aに対して平滑化処理を施す平滑化処理部8eを具備している。
平滑化処理部8eは、距離差算出部8dにより算出された背景画像P4aと主要被写体画像Gとの距離差Aに応じて、背景画像P4aに対して平滑化処理を施す。具体的には、平滑化処理部8eは、距離差算出部8dにより算出された距離差Aに応じて平滑化処理の処理強度を変更して、背景画像P4aに対して当該平滑化処理を施す。即ち、平滑化処理部8eは、距離差算出部8dにより算出された距離差Aに応じて、画像処理部8のフィルタ記憶部8fに記憶されている複数の平均化フィルタf1(図2(a)参照)の中から一の平均化フィルタf1(例えば、3×3画素からなる平均化フィルタ)を特定する。そして、平滑化処理部8eは、特定された平均化フィルタf1を用いて背景画像P4aに対して平滑化処理を施すことで、当該背景画像P4bの濃淡変化を滑らか(ピンぼけ状態)にする(図8(b)参照)。
平均化フィルタf1を用いた平滑化処理において、背景画像P4aの所定位置の画素をフィルタリングする場合、当該画素を中心とする近傍点の平均をその画素に入れ直す処理を行う。例えば、3×3画素の平均化フィルタf1を用いる場合、中央部(例えば、図2(b)における「○」で示された領域)の周囲の8つの領域に対応する画素の色の平均を算出して、この算出した平均の色を当該中央部に対応する画素の色とする。
このとき、主要被写体画像Gと背景画像P4aとの距離差Aに応じて、平均化フィルタf1のサイズを変更することで(図2(a)参照)、平均化する範囲(平均を算出する近傍点の数)を変更して、背景画像P4bのぼけの大きさを調整する。具体的には、距離差Aが大きい程、サイズの大きい平均化フィルタf1を用いることで、背景画像P4bにより大きいぼけを生じさせる。一方、距離差Aが小さい程、サイズの小さい平均化フィルタf1を用いることで、背景画像P4bにより小さいぼけを生じさせる。
The image processing unit 8 includes a smoothing processing unit 8e that performs a smoothing process on the background image P4a.
The smoothing processing unit 8e performs a smoothing process on the background image P4a according to the distance difference A between the background image P4a calculated by the distance difference calculating unit 8d and the main subject image G. Specifically, the smoothing processing unit 8e changes the processing strength of the smoothing process according to the distance difference A calculated by the distance difference calculation unit 8d, and performs the smoothing process on the background image P4a. . That is, the smoothing processing unit 8e has a plurality of averaging filters f1 (FIG. 2A) stored in the filter storage unit 8f of the image processing unit 8 according to the distance difference A calculated by the distance difference calculation unit 8d. ))), One averaging filter f1 (for example, an averaging filter composed of 3 × 3 pixels) is specified. Then, the smoothing processing unit 8e performs smoothing processing on the background image P4a using the specified averaging filter f1, thereby smoothing the change in shading of the background image P4b (in a defocused state) (FIG. 8 (b)).
In the smoothing process using the averaging filter f1, when filtering a pixel at a predetermined position of the background image P4a, a process of re-entering the average of neighboring points centered on the pixel into the pixel is performed. For example, when the 3 × 3 pixel averaging filter f1 is used, the average of the colors of the pixels corresponding to the eight regions around the central portion (for example, the region indicated by “◯” in FIG. 2B) is calculated. The calculated average color is set as the color of the pixel corresponding to the central portion.
At this time, by changing the size of the averaging filter f1 according to the distance difference A between the main subject image G and the background image P4a (see FIG. 2A), the range to be averaged (the neighborhood in which the average is calculated) The number of points) is changed to adjust the blur size of the background image P4b. Specifically, the larger the distance difference A is, the larger the size of the averaging filter f1, which causes the background image P4b to be more blurred. On the other hand, the smaller the distance difference A is, the smaller the size of the averaging filter f1, which causes a smaller blur in the background image P4b.

このように、平滑化処理部8eは、距離差算出部8dによる背景距離情報と被写体距離情報との比較結果に基づいて、背景画像P4aに対して所定の画像処理を施す処理手段を構成している。   As described above, the smoothing processing unit 8e configures processing means for performing predetermined image processing on the background image P4a based on the comparison result between the background distance information and the subject distance information by the distance difference calculation unit 8d. Yes.

フィルタ記憶部8fは、主要被写体画像Gと背景画像P4aとの距離差Aに応じて所定サイズの平均化フィルタf1を対応付けて記憶している(図2(a)参照)。
具体的には、例えば、主要被写体画像Gと背景画像P4aとの距離差Aとしての「1[m]以下」と「3×3画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「1[m]よりも大きく3[m]以下」と「5×5画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「3[m]よりも大きく5[m]以下」と「7×7画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「5[m]よりも大きい」と「5×5画素の平均化フィルタf1」とが対応付けられている。
なお、平均化フィルタf1のサイズ及び対応付けられている距離差Aは、一例であって上記したものに限られるものではない。
The filter storage unit 8f stores an averaging filter f1 having a predetermined size in association with the distance difference A between the main subject image G and the background image P4a (see FIG. 2A).
Specifically, for example, “1 [m] or less” as the distance difference A between the main subject image G and the background image P4a and “3 × 3 pixel averaging filter f1” are associated with each other, and the distance “A greater than 1 [m] and less than or equal to 3 [m]” as the difference A is associated with “5 × 5 pixel averaging filter f1”, and more than “3 [m] as the distance difference A “5 [m] or less” and “7 × 7 pixel averaging filter f1” are associated with each other, and the distance difference A is “greater than 5 [m]” and “5 × 5 pixel averaging”. Filter f1 ”is associated.
The size of the averaging filter f1 and the associated distance difference A are examples and are not limited to those described above.

また、画像処理部8は、合成手段として、背景画像P4aと被写体切り抜き画像P3とを合成する合成部8gを具備している。
合成部8gは、具体的には、平滑化処理部8eによって平滑化処理が施されていない背景画像P4a若しくは平滑化処理が施された背景画像P4bの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3の対応する画素の画素値で上書きし、さらに、背景画像P4a(P4b)の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて主要被写体画像Gを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを主要被写体画像Gを切り抜いた画像(背景画像×(1−α))と合成する。
Further, the image processing unit 8 includes a combining unit 8g that combines the background image P4a and the subject cutout image P3 as a combining unit.
Specifically, the combining unit 8g is a pixel having an alpha value of 0 among the pixels of the background image P4a that has not been smoothed by the smoothing processing unit 8e or the background image P4b that has been smoothed. Is transmitted, and the pixel with the alpha value of 1 is overwritten with the pixel value of the corresponding pixel of the subject cutout image P3, and among the pixels of the background image P4a (P4b), the pixel with the alpha value of 0 <α <1 Generates an image (background image × (1-α)) obtained by cutting out the main subject image G using the one's complement (1-α), and then uses the one's complement (1-α) in the alpha map to generate the subject. A value blended with a single background color when the cutout image P3 is generated is calculated, the value is subtracted from the subject cutout image P3, and the image obtained by cutting out the main subject image G (background image × (1-α) ).

記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3や背景画像P4aの画像データを記憶する。   The recording medium 9 is constituted by, for example, a nonvolatile memory (flash memory) or the like, and stores image data of the subject cutout image P3 and the background image P4a encoded by the JPEG compression unit (not shown) of the image processing unit 8. .

被写体切り抜き画像P3の画像データは、切り抜き画像生成部8aの位置情報生成部により生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として記憶されている。また、被写体切り抜き画像P3の画像データは、被写体存在画像P1の撮像の際に距離算出部8bにより取得された被写体距離情報(第2距離情報)がExif情報として付帯されたExif形式の画像ファイルから構成されている。
背景画像P4aの画像データは、背景画像P4aの撮像の際に距離算出部8bにより取得された背景距離情報(第1距離情報)がExif情報として付帯されたExif形式の画像ファイルから構成されている。
The image data of the subject clipped image P3 is associated with the alpha map generated by the position information generator of the clipped image generator 8a, and the extension of the image data of the subject clipped image P3 is stored as “.jpe”. ing. Further, the image data of the subject clipped image P3 is obtained from an Exif format image file in which subject distance information (second distance information) acquired by the distance calculation unit 8b at the time of capturing the subject presence image P1 is attached as Exif information. It is configured.
The image data of the background image P4a is composed of an Exif format image file in which background distance information (first distance information) acquired by the distance calculation unit 8b when the background image P4a is captured is attached as Exif information. .

このように、記録媒体9は、背景画像P4aの撮像の際に当該背景画像P4aにおける被写体(特徴領域)までの距離を測距した背景距離情報(第1距離情報)と、被写体存在画像P1の撮像の際に主要被写体までの距離を測距した被写体距離情報(第2距離情報)を記憶する。   As described above, the recording medium 9 includes the background distance information (first distance information) obtained by measuring the distance to the subject (feature region) in the background image P4a and the subject existing image P1. Object distance information (second distance information) obtained by measuring the distance to the main object at the time of imaging is stored.

表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The display control unit 10 performs control to read display image data temporarily stored in the image memory 5 and display the display image data on the display unit 11.
Specifically, the display control unit 10 includes a VRAM, a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the image memory 5 and stored in the VRAM (not shown) under the control of the central control unit 13 via the VRAM controller. The data is periodically read from the VRAM, a video signal is generated based on these data, and is output to the display unit 11.

表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。   The display unit 11 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit 2 based on a video signal from the display control unit 10 on a display screen. Specifically, the display unit 11 displays a live view image based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3 in the imaging mode. The REC view image captured as the actual captured image is displayed.

操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン12a、撮像モードや機能等の選択指示に係る選択決定ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。   The operation input unit 12 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 12 includes a shutter button 12a related to an instruction to shoot a subject, a selection determination button 12b related to an instruction to select an imaging mode and a function, a zoom button (not shown) related to an instruction to adjust the zoom amount, and the like. And outputs a predetermined operation signal to the central control unit 13 in accordance with the operation of these buttons.

中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU(図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 13 controls each unit of the imaging apparatus 100. Specifically, the central control unit 13 includes a CPU (not shown), and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による被写体切り抜き処理について、図3及び図4を参照して説明する。
図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(c)は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
Next, the subject clipping process performed by the imaging apparatus 100 will be described with reference to FIGS. 3 and 4.
FIG. 3 is a flowchart illustrating an example of an operation related to the subject clipping process. FIGS. 4A to 4C are diagrams schematically illustrating an example of an image related to the subject clipping process.

被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図3に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is.
As shown in FIG. 3, first, the central control unit 13 performs live display on the display control unit 10 based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. The view image is displayed on the display screen of the display unit 11 and is superimposed on the live view image, and an imaging instruction message for the subject existing image P1 is displayed on the display screen of the display unit 11 (step S1).

次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在画像P1(図4(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1のYUVデータを生成させる(ステップS3)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
また、中央制御部13は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Next, the central control unit 13 determines whether or not an imaging instruction is input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S2). If it is determined that an imaging instruction has been input (step S2; YES), the central control unit 13 instructs the imaging control unit 3 to focus the focus lens and exposure conditions (shutter speed, aperture, amplification factor, etc.). ) And white balance are adjusted, and an optical image of the subject existing image P1 (see FIG. 4A) is captured by the electronic imaging unit 2 under a predetermined condition. Then, the central control unit 13 causes the image data generation unit 4 to generate the YUV data of the subject existing image P1 transferred from the electronic imaging unit 2 (step S3). The YUV data of the subject existing image P1 is temporarily stored in the image memory 5.
In addition, the central control unit 13 controls the imaging control unit 3 to maintain a state in which conditions such as a focus position, an exposure condition, and a white balance at the time of imaging the subject presence image P1 are fixed.

そして、中央制御部13は、画像処理部8の距離算出部8bに、被写体存在画像P1の撮像の際の自動合焦処理にて、被写体存在画像P1中の主要被写体に合焦した状態のフォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得させる。そして、中央制御部13は、距離算出部8bに、当該レンズ位置情報に基づいて主要被写体までの距離を算出させて被写体距離情報を取得させる(ステップS4)。   Then, the central control unit 13 causes the distance calculation unit 8b of the image processing unit 8 to focus in the state in which the main subject in the subject existing image P1 is focused by the automatic focusing process when the subject existing image P1 is captured. Lens position information related to the position of the lens in the optical axis direction is acquired from the focus control unit 3a of the imaging control unit 3. Then, the central control unit 13 causes the distance calculation unit 8b to calculate the distance to the main subject based on the lens position information and acquire subject distance information (step S4).

次に、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像と被写体非存在画像P2の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS5)。
この後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS6)。そして、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2(図4(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2のYUVデータを生成させる(ステップS7)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
Next, the central control unit 13 causes the display control unit 10 to display a live view image based on a plurality of image frames generated by imaging the subject by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. Is displayed on the display screen, and is superimposed on the live view image to display a semi-transparent display mode image of the subject presence image P1 and an imaging instruction message of the subject non-existence image P2 on the display screen of the display unit 11 ( Step S5).
Thereafter, the central control unit 13 determines whether or not an imaging instruction has been input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S6). Then, the user waits for the subject to move, or moves the subject outside the angle of view, and then the camera position so that the subject non-existing image P2 overlaps the semi-transparent image of the subject existing image P1. Is adjusted, and it is determined that the shutter button 12a of the operation input unit 12 is predeterminedly operated and an imaging instruction is input (step S6; YES), the central control unit 13 includes no subject in the imaging control unit 3. An optical image of the image P2 (see FIG. 4B) is imaged by the electronic imaging unit 2 under conditions fixed after the subject presence image P1 is captured. Then, the central control unit 13 causes the image data generation unit 4 to generate YUV data of the subject non-existing image P2 transferred from the electronic imaging unit 2 (step S7). The YUV data of the subject existing image P1 is temporarily stored in the image memory 5.

次に、中央制御部13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P2のYUVデータを基準として、被写体存在画像P1のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS8)。
具体的には、特徴量演算部6は、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、切り抜き画像生成部8aの位置合わせ部は、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
Next, the central control unit 13 uses the YUV data of the subject non-existing image P2 temporarily stored in the image memory 5 in the feature amount calculating unit 6, the block matching unit 7 and the image processing unit 8 as a reference. A projection transformation matrix for projecting transformation of the PUV YUV data is calculated by a predetermined image transformation model (for example, a similarity transformation model or a joint transformation model) (step S8).
Specifically, the feature amount calculation unit 6 selects a predetermined number (or a predetermined number or more) of highly featured block areas (feature points) based on the YUV data of the subject non-existing image P2, and selects the relevant block. Is extracted as a template. Then, the block matching unit 7 searches the subject existing image P1 for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimal offset between the subject non-existing image P2 and the subject existing image P1 is calculated as a motion vector of the template. Then, the alignment unit of the cut-out image generation unit 8a statistically calculates the entire motion vector based on the motion vectors of the plurality of templates calculated by the block matching unit 7, and performs feature point correspondence related to the motion vector. Using this, a projective transformation matrix of the subject existing image P1 is calculated.

次に、中央制御部13は、切り抜き画像生成部8aの位置合わせ部に、算出された射影変換行例に基づいて被写体存在画像P1を射影変換させることで、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS9)。   Next, the central control unit 13 causes the alignment unit of the cut-out image generation unit 8a to perform projective transformation of the subject existing image P1 based on the calculated projective transformation example, so that the YUV data of the subject existing image P1 and the subject A process of aligning the YUV data of the non-existing image P2 is performed (step S9).

そして、中央制御部13は、切り抜き画像生成部8aの被写体画像抽出部に、被写体存在画像P1から被写体が含まれる主要被写体画像Gを抽出する処理を行わせる(ステップS10)。
具体的には、被写体領域抽出部は、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部は、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを主要被写体画像Gとして特定し、収縮分を修正するための膨張処理を行う。
Then, the central control unit 13 causes the subject image extraction unit of the cutout image generation unit 8a to perform a process of extracting the main subject image G including the subject from the subject existing image P1 (step S10).
Specifically, the subject region extraction unit applies a low-pass filter to each of the YUV data of the subject presence image P1 and the YUV data of the subject non-existence image P2, and removes the high frequency component of each image. Thereafter, the subject area extraction unit calculates a difference for each corresponding pixel between the subject presence image P1 and the subject non-existence image P2 subjected to the low-pass filter, and generates a difference map. Subsequently, the subject region extraction unit binarizes the dissimilarity map relating to each pixel with a predetermined threshold, and then performs a contraction process to remove a region in which the dissimilarity is caused by fine noise or camera shake from the dissimilarity map. . After that, the subject region extraction unit performs a labeling process, removes a region below a predetermined value or a region other than the maximum region, identifies the largest island pattern as the main subject image G, and corrects the shrinkage. Expansion processing is performed.

次に、中央制御部13は、画像処理部8の位置情報生成部に、抽出された主要被写体画像Gの被写体存在画像P1内での位置を示すアルファマップを生成させる(ステップS11)。   Next, the central control unit 13 causes the position information generation unit of the image processing unit 8 to generate an alpha map indicating the position of the extracted main subject image G in the subject presence image P1 (step S11).

その後、中央制御部13は、画像処理部8の画像生成部に、主要被写体画像Gを所定の単一色画像と合成した被写体切り抜き画像P3(図4(c)参照)の画像データを生成する処理を行わせる(ステップS12)。
具体的には、画像生成部は、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the central control unit 13 generates, in the image generation unit of the image processing unit 8, image data of a subject cutout image P3 (see FIG. 4C) obtained by combining the main subject image G with a predetermined single color image. (Step S12).
Specifically, the image generation unit reads out the subject existence image P1, the single color image, and the alpha map and develops them in the image memory 5. Then, for all the pixels of the subject existence image P1, the pixels with an alpha value of 0 are obtained. (Α = 0), transmission is performed for a pixel with an alpha value of 0 <α <1, (0 <α <1), and blending with a predetermined single color is performed, and for a pixel with an alpha value of 1 (α = 1) ) Do nothing and do not allow transmission through a given single color.

その後、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3の画像データと距離算出部8bにより取得された被写体距離情報とを対応付けて一ファイルで記憶させる(ステップS13)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the central control unit 13 is acquired in a predetermined storage area of the recording medium 9 by the alpha map generated by the position information generation unit of the image processing unit 8, the image data of the subject cutout image P3, and the distance calculation unit 8b. The subject distance information is associated and stored in one file (step S13).
Thereby, the subject clipping process is completed.

次に、撮像装置100による背景画像撮像処理について、図5を参照して説明する。
図5は、背景画像撮像処理に係る動作の一例を示すフローチャートである。
Next, background image imaging processing by the imaging apparatus 100 will be described with reference to FIG.
FIG. 5 is a flowchart illustrating an example of an operation related to the background image capturing process.

背景画像撮像処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
図5に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による背景画像P4aの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。
The background image capturing process is a normal still image capturing process. Based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, the still image capturing process is performed from among a plurality of capturing modes displayed on the menu screen. This process is executed when a mode is instructed to be selected.
As shown in FIG. 5, first, the central control unit 13 causes the display control unit 10 to base on a plurality of image frames generated by imaging the background image P4a by the lens unit 1, the electronic imaging unit 2, and the imaging control unit 3. Then, the live view image is displayed on the display screen of the display unit 11 (step S21).

次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、背景画像P4a(図8(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された背景画像P4aのYUVデータを生成させる(ステップS23)。   Next, the central control unit 13 determines whether or not an imaging instruction has been input based on a predetermined operation of the shutter button 12a of the operation input unit 12 by the user (step S22). If it is determined that an imaging instruction has been input (step S22; YES), the central control unit 13 instructs the imaging control unit 3 to focus the focus lens and exposure conditions (shutter speed, aperture, amplification factor, etc.). ) And white balance are adjusted, and the optical image of the background image P4a (see FIG. 8A) is picked up by the electronic image pickup unit 2 under a predetermined condition. Then, the central control unit 13 causes the image data generation unit 4 to generate YUV data of the background image P4a transferred from the electronic imaging unit 2 (step S23).

そして、中央制御部13は、画像処理部8の距離算出部8bに、背景画像P4aの撮像の際の自動合焦処理にて、背景画像P4a中の特徴のある被写体(例えば、草や木等)Cに合焦した状態のフォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得させる。そして、中央制御部13は、距離算出部8bに、当該レンズ位置情報に基づいて被写体Cまでの距離を算出させて背景距離情報を取得させる(ステップS24)。   Then, the central control unit 13 causes the distance calculation unit 8b of the image processing unit 8 to perform characteristic focusing on the background image P4a (for example, grass or trees) in the automatic focusing process when the background image P4a is captured. ) The lens position information related to the position of the focus lens in the optical axis direction in the state of focusing on C is acquired from the focusing control unit 3a of the imaging control unit 3. Then, the central control unit 13 causes the distance calculation unit 8b to calculate the distance to the subject C based on the lens position information and acquire background distance information (step S24).

続けて、中央制御部13は、記録媒体9の所定の記憶領域に、距離算出部8bにより取得された背景距離情報と背景画像P4aのYUVデータとを対応付けて一ファイルで記憶させる(ステップS25)。
これにより、背景画像生成処理を終了する。
Subsequently, the central control unit 13 stores the background distance information acquired by the distance calculation unit 8b and the YUV data of the background image P4a in a predetermined storage area of the recording medium 9 in a single file (step S25). ).
Thereby, the background image generation process is terminated.

次に、撮像装置100による合成画像生成処理について、図6〜図8を参照して説明する。
図6は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図7は、合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図8(a)〜図8(c)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
Next, composite image generation processing by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 6 is a flowchart illustrating an example of an operation related to the composite image generation process. FIG. 7 is a flowchart illustrating an example of an operation related to the image composition processing in the composite image generation processing. FIGS. 8A to 8C are diagrams schematically illustrating an example of an image related to the composite image generation process.

合成画像生成処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から画像合成モードが選択指示された場合に実行される処理である。
図6に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の被写体切り抜き画像P3(図4(c)参照)が選択されて指定されると(ステップS31)、中央制御部13は、画像処理部8の取得部8cに、指定された被写体切り抜き画像P3の画像データを読み出させて画像メモリ5に展開させる(ステップS32)。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている被写体切り抜き画像P3を読み出すことで、画像情報の他にExif情報として付帯されている被写体距離情報を取得する。
The composite image generation process is executed when an image composite mode is selected from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. It is processing.
As shown in FIG. 6, first, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, a desired subject cutout image P3 (FIG. 4) among a plurality of images recorded on the recording medium 9. When (refer to (c)) is selected and specified (step S31), the central control unit 13 causes the acquisition unit 8c of the image processing unit 8 to read out the image data of the specified subject cutout image P3 to generate an image. The data is developed in the memory 5 (step S32). Specifically, the acquiring unit 8c acquires subject distance information attached as Exif information in addition to image information by reading a subject cutout image P3 configured from an Exif format image file.

次に、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4a(図8(a)参照)が選択されて指定されると(ステップS33)、中央制御部13は、画像処理部8の取得部8cに、指定された背景画像P4aの画像データを読み出させて画像メモリ5に展開させる(ステップS34)。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている背景画像P4aを読み出すことで、画像情報の他にExif情報として付帯されている背景距離情報を取得する。   Next, a desired background image P4a (see FIG. 8A) is selected from a plurality of images recorded on the recording medium 9, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user. When designated (step S33), the central control unit 13 causes the acquisition unit 8c of the image processing unit 8 to read out the image data of the designated background image P4a and develop it in the image memory 5 (step S34). ). Specifically, the acquisition unit 8c acquires background distance information attached as Exif information in addition to image information by reading a background image P4a configured from an Exif format image file.

続けて、中央制御部13は、画像処理部8の距離差算出部8dに、取得部8cにより取得された背景距離情報と被写体距離情報とを比較させて、背景画像P4aと主要被写体画像Gとの距離差Aを算出させ、画像処理部8は、算出された距離差Aが所定値以上であるか否かを判定する(ステップS35)。
ここで、距離差Aが所定値以上であると判定されると(ステップS35;YES)、中央制御部13は、画像処理部8の平滑化処理部8eに、距離差算出部8dにより算出された距離差Aに応じて、フィルタ記憶部8fに記憶されている複数の平均化フィルタf1(図2(a)参照)の中から一の平均化フィルタf1(例えば、3×3画素からなる平均化フィルタ)を特定させる。そして、中央制御部13は、平滑化処理部8eに、特定された平均化フィルタf1を用いて背景画像P4aに対して平滑化処理を施させる(ステップS36)。これにより、画素の濃淡変化を滑らかな状態、即ち、ピンぼけ状態とされた背景画像P4b(図8(b)参照)が生成される。
Subsequently, the central control unit 13 causes the distance difference calculation unit 8d of the image processing unit 8 to compare the background distance information acquired by the acquisition unit 8c with the subject distance information, so that the background image P4a and the main subject image G are compared. And the image processing unit 8 determines whether or not the calculated distance difference A is equal to or greater than a predetermined value (step S35).
Here, if it is determined that the distance difference A is greater than or equal to the predetermined value (step S35; YES), the central control unit 13 is calculated by the distance difference calculation unit 8d in the smoothing processing unit 8e of the image processing unit 8. According to the distance difference A, one averaging filter f1 (for example, an average consisting of 3 × 3 pixels) out of a plurality of averaging filters f1 (see FIG. 2A) stored in the filter storage unit 8f. Specific filter). Then, the central control unit 13 causes the smoothing processing unit 8e to perform a smoothing process on the background image P4a using the specified averaging filter f1 (step S36). As a result, a background image P4b (see FIG. 8B) in which the density change of the pixels is in a smooth state, that is, a defocused state is generated.

次に、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、ユーザ所望の被写体切り抜き画像P3の合成位置を指定して決定した後、中央制御部13は、平滑化処理が施された背景画像P4aと被写体切り抜き画像P3における主要被写体画像Gを用いて、画像合成処理を合成部8gに行わせる(ステップS37)。
なお、ステップS35にて、距離差Aが所定値よりも小さいと判定されると(ステップS35;NO)、中央制御部13は、処理をステップS37に移行させて、平滑化処理が施されていない背景画像P4aを用いて画像合成処理を行わせる。また、背景距離情報が対応付けられていない背景画像や被写体距離情報が対応付けられていない被写体切り抜き画像を用いて画像合成を行う場合にも、背景画像に対する平滑化処理を行わずに画像合成処理を行う。
Next, based on a predetermined operation of the selection determination button 12b of the operation input unit 12 by the user, after specifying and determining the composite position of the subject cut-out image P3 desired by the user, the central control unit 13 performs a smoothing process. Using the main subject image G in the background image P4a and the subject cutout image P3, the composition unit 8g is made to perform image composition processing (step S37).
If it is determined in step S35 that the distance difference A is smaller than the predetermined value (step S35; NO), the central control unit 13 shifts the process to step S37, and the smoothing process is performed. The image composition process is performed using the non-existing background image P4a. Also, when performing image composition using a background image that is not associated with background distance information or a subject clipped image that is not associated with subject distance information, the image composition processing is performed without performing smoothing processing on the background image. I do.

ここで、画像合成処理について図7を参照して詳細に説明する。
図7は、画像合成処理に係る動作の一例を示すフローチャートである。
合成部8gは、被写体切り抜き画像P3と対応付けて記憶されているアルファマップを読み出して画像メモリ5に展開する(ステップS41)。
なお、背景画像P4aにおける被写体切り抜き画像P3の合成位置が決定された際に、背景画像P4a(P4b)とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
Here, the image composition processing will be described in detail with reference to FIG.
FIG. 7 is a flowchart illustrating an example of an operation related to the image composition process.
The synthesizing unit 8g reads the alpha map stored in association with the subject cutout image P3 and develops it in the image memory 5 (step S41).
Note that when the synthesis position of the subject cutout image P3 in the background image P4a is determined, the background image P4a (P4b) is shifted from the alpha map, and the area outside the alpha map range is set to α = 0. Avoid creating regions where no value exists.

次に、合成部8gは、平滑化処理が施された背景画像P4b若しくは当該処理が施されていない背景画像P4aの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS42)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS43)。具体的には、合成部8gは、背景画像P4a(P4b)の何れか一の画素のうち、アルファ値が1の画素については(ステップS43;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS44)、アルファ値が0<α<1の画素については(ステップS43;0<α<1)、1の補数(1−α)を用いて主要被写体画像Gを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを主要被写体画像Gを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS45、アルファ値が0の画素については(ステップS43;α=0)、何もせずに背景画像P4aを透過さるようにする。   Next, the synthesizing unit 8g designates one of the pixels (for example, the pixel in the upper left corner) of the background image P4b that has been subjected to the smoothing process or the background image P4a that has not been subjected to the process (Step S4). In step S42, the process is branched based on the alpha value of the alpha map for the pixel (step S43). Specifically, for any one pixel of the background image P4a (P4b) with an alpha value of 1 (step S43; α = 1), the compositing unit 8g corresponds to the corresponding pixel of the subject cutout image P3. (Step S44), and for pixels with an alpha value of 0 <α <1 (step S43; 0 <α <1), the main subject image G is used by using one's complement (1-α). A value blended with a single background color when the cropped image (background image × (1-α)) is generated and then the subject clipped image P3 is generated using the one's complement (1-α) in the alpha map. Is calculated, and the value is subtracted from the subject cutout image P3, and is combined with an image obtained by cutting out the main subject image G (background image × (1−α)) (step S45, pixel with alpha value 0) (Step S43 α = 0), so that monkey through the background image P4a without doing anything.

続けて、合成部8gは、背景画像P4aの全ての画素について処理したか否かを判定する(ステップS46)。
ここで、全ての画素について処理していないと判定されると(ステップS46;NO)、合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS47)、処理をステップS43に移行させる。
上記の処理を、ステップS46にて全ての画素について処理したと判定されるまで(ステップS46;YES)、繰り返すことで、合成部8gは、被写体切り抜き画像P3と背景画像P4a(P4b)とを合成した被写体合成画像P5の画像データを生成させる。
これにより、画像合成処理を終了する。
Subsequently, the composition unit 8g determines whether or not all the pixels of the background image P4a have been processed (step S46).
If it is determined that all the pixels have not been processed (step S46; NO), the synthesis unit 8g designates the next pixel as the processing target and moves the processing target to the pixel (step S47). ), The process proceeds to step S43.
By repeating the above processing until it is determined in step S46 that all pixels have been processed (step S46; YES), the combining unit 8g combines the subject cutout image P3 and the background image P4a (P4b). The image data of the subject composite image P5 is generated.
Thereby, the image composition process is terminated.

図6に示すように、その後、中央制御部13は、表示制御部10に、合成部8gにより生成された被写体合成画像P5の画像データに基づいて、背景画像P4a(P4b)に被写体が重畳された被写体合成画像P5を表示部11の表示画面に表示させる(ステップS38)。
具体的には、例えば、平滑化処理が施された背景画像P4bを用いて被写体合成画像を生成した場合、主要被写体画像Gにはピントが合っているが、背景画像P4bに対してはピントが合っていないような被写体合成画像、即ち、背景画像P4bをぼかした被写体合成画像P5(図8(c)参照)が表示部11に表示される。
これにより、合成画像生成処理を終了する。
As shown in FIG. 6, thereafter, the central control unit 13 superimposes the subject on the background image P4a (P4b) on the display control unit 10 based on the image data of the subject composite image P5 generated by the synthesis unit 8g. The subject composite image P5 is displayed on the display screen of the display unit 11 (step S38).
Specifically, for example, when a subject composite image is generated using the smoothed background image P4b, the main subject image G is in focus, but the background image P4b is in focus. A subject composite image that does not match, that is, a subject composite image P5 (see FIG. 8C) obtained by blurring the background image P4b is displayed on the display unit 11.
Thus, the composite image generation process is finished.

以上のように、本実施形態の撮像装置100によれば、背景画像P4aに含まれる被写体までの距離を示す背景距離情報と、主要被写体画像Gに含まれる主要被写体までの距離を示す被写体距離情報とを比較する。即ち、背景画像P4aの撮像の際に、当該背景画像P4aにおける特徴のある被写体Cまでの距離を測距した背景距離情報と、被写体存在画像P1の撮像の際に、被写体存在画像P1の主要被写体までの距離を測距した被写体距離情報とを比較する。そして、当該比較結果に基づいて背景画像P4aに平滑化処理を施して当該背景画像P4aの濃淡変化を滑らかにした後、平滑化処理が施された背景画像P4bと主要被写体画像Gとを合成して被写体合成画像P5を生成する。
これにより、撮像装置100に対してより遠い方の画像である背景画像P4aのピントは合っていないが、近い方の画像である主要被写体画像Gのピントは合っているような遠近感のある被写体合成画像P5(図8(c)参照)を生成することができ、複数の画像を単に重ねただけでは得られず、且つ、一眼レフカメラで撮影したような表現力の豊かな自然な被写体合成画像P5を得ることができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the background distance information indicating the distance to the subject included in the background image P4a and the subject distance information indicating the distance to the main subject included in the main subject image G. And compare. That is, when the background image P4a is captured, the background distance information obtained by measuring the distance to the characteristic subject C in the background image P4a and the main subject of the subject existing image P1 when the subject existing image P1 is captured. Is compared with subject distance information obtained by measuring the distance up to. Then, after smoothing the background image P4a based on the comparison result to smooth the density change of the background image P4a, the background image P4b subjected to the smoothing process and the main subject image G are synthesized. The subject composite image P5 is generated.
As a result, the background image P4a, which is a farther image than the image capturing apparatus 100, is not in focus, but the main subject image G, which is the nearer image, is in focus and has a sense of perspective. A composite image P5 (see FIG. 8C) can be generated, which cannot be obtained by simply superimposing a plurality of images, and is a natural subject composition rich in expressiveness as taken with a single-lens reflex camera An image P5 can be obtained.

また、背景画像P4aと被写体切り抜き画像P3の主要被写体画像Gとの距離差Aを算出して、当該距離差Aに応じて背景画像P4aに平滑化処理を施す。具体的には、背景画像P4aと主要被写体画像Gとの距離差Aに従って平滑化処理の処理強度を変更して背景画像P4aに施すので、距離差Aに応じて背景画像P4bのぼけの大きさを調整することができ、被写体存在画像の遠近感をより自然に表現することができる。   Further, a distance difference A between the background image P4a and the main subject image G of the subject cutout image P3 is calculated, and the background image P4a is smoothed according to the distance difference A. Specifically, since the processing intensity of the smoothing process is changed according to the distance difference A between the background image P4a and the main subject image G and applied to the background image P4a, the size of the blur of the background image P4b according to the distance difference A Can be adjusted, and the perspective of the subject existing image can be expressed more naturally.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、平滑化処理を背景画像P4a(撮像装置100に対して遠い方)に施すようにしたが、撮像装置100に対してより近い方の主要被写体画像Gに施しても良い。即ち、撮像装置100に対してより遠い方の背景画像P4aのピントは合っているが、近い方の主要被写体画像Gのピントは合っていないような合成画像(主要被写体画像Gがピンぼけ状態の被写体合成画像)を生成する場合や、背景画像P4a及び主要被写体画像Gの双方のピントが合っていないような被写体合成画像(背景画像P4a及び主要被写体画像Gの双方がピンぼけ状態の被写体合成画像)を生成する場合にあっては、主要被写体画像Gに対して平滑化処理を施すようにしても良い。
つまり、平滑化処理部8eは、処理手段として、背景画像P4a及び主要被写体画像(前景画像)Gの少なくとも一方に所定の画像処理を施すように構成しても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the smoothing process is performed on the background image P4a (the one farther from the imaging device 100), but is applied to the main subject image G closer to the imaging device 100. May be. That is, a composite image in which the background image P4a farther from the imaging apparatus 100 is in focus but the nearer main subject image G is not in focus (a subject in which the main subject image G is out of focus) A composite image), or a subject composite image in which both the background image P4a and the main subject image G are out of focus (a subject composite image in which both the background image P4a and the main subject image G are out of focus). In the case of generation, the main subject image G may be smoothed.
That is, the smoothing processing unit 8e may be configured to perform predetermined image processing on at least one of the background image P4a and the main subject image (foreground image) G as processing means.

また、上記実施形態にあっては、所定の画像処理として、平滑化処理を例示したが、これに限られるものではなく、例えば、背景画像P4aや主要被写体画像Gのコントラストや明るさを調整する処理であっても良い。即ち、背景画像P4aに対して主要被写体画像Gのコントラストを強くしたり明るさを明るくすることで、被写体存在画像の遠近感を自然に表現することができ、表現力の豊かな自然な被写体合成画像を得ることができる。
また、上記実施形態と同様に、距離差Aに応じて背景画像P4aや主要被写体画像Gのコントラストや明るさを調整することで、被写体存在画像の遠近感をより自然に表現することができる。
In the above embodiment, the smoothing process is exemplified as the predetermined image process. However, the present invention is not limited to this. For example, the contrast and brightness of the background image P4a and the main subject image G are adjusted. It may be processing. That is, by increasing the contrast of the main subject image G or increasing the brightness with respect to the background image P4a, the perspective of the subject existing image can be naturally expressed, and natural subject synthesis with rich expressiveness can be achieved. An image can be obtained.
Similarly to the above-described embodiment, by adjusting the contrast and brightness of the background image P4a and the main subject image G according to the distance difference A, the perspective of the subject existing image can be expressed more naturally.

さらに、上記実施形態にあっては、背景画像P4aにおけるピントがあった位置の情報を記録しておいても良く、例えば、当該位置の情報に基づいて、画像処理の強度を調整しても良い。即ち、ピントがあった位置から離れる程、画像処理の強度を強くするようにすることで、被写体存在画像の遠近感をより自然に表現することができる。   Furthermore, in the above-described embodiment, information on the position where the background image P4a is in focus may be recorded. For example, the intensity of image processing may be adjusted based on the information on the position. . In other words, the perspective of the subject existing image can be expressed more naturally by increasing the intensity of the image processing as the distance from the focused position increases.

また、上記実施形態にあっては、平滑化処理として、平均化フィルタを用いた手法を例示したが、これに限られるものではなく、画像を平滑化する方法であれば如何なる方法であっても良く、例えば、Irisフィルタなどを用いた手法であっても良い。   In the above embodiment, the method using the averaging filter is exemplified as the smoothing process. However, the method is not limited to this, and any method may be used as long as the method smoothes the image. For example, a technique using an Iris filter or the like may be used.

さらに、上記実施形態にあっては、被写体切り抜き画像P3の画像データを、被写体距離情報をExif情報として付帯したExif形式の画像ファイルから構成し、背景画像P4aの画像データを、背景距離情報をExif情報として付帯したExif形式の画像ファイルから構成するようにしたが、被写体切り抜き画像P3や背景画像P4aの画像データ並びに距離情報の記憶方法はこれらに限られるものではない。即ち、被写体切り抜き画像P3の画像データと被写体距離情報とが対応付けて記憶され、背景画像P4aの画像データと背景距離情報とが対応付けて記憶されるような記憶方法であれば如何なる方法であっても良い。   Furthermore, in the above embodiment, the image data of the subject cutout image P3 is configured from an Exif format image file with the subject distance information as Exif information, the image data of the background image P4a, and the background distance information as Exif. Although it is configured from an Exif format image file attached as information, the method of storing the image data and distance information of the subject cutout image P3 and the background image P4a is not limited to these. That is, any method may be used as long as the image data of the subject cutout image P3 and the subject distance information are stored in association with each other, and the image data of the background image P4a and the background distance information are stored in association with each other. May be.

また、上記実施形態にあっては、先ず、主要被写体画像G及び被写体距離情報を取得し(第2取得ステップ)、その後、背景画像P4aと背景距離情報を取得する(第1取得ステップ)ようにしたが、これに限られるものではなく、これらの順序が逆であっても良い。   In the embodiment, first, the main subject image G and subject distance information are acquired (second acquisition step), and then the background image P4a and background distance information are acquired (first acquisition step). However, the present invention is not limited to this, and the order of these may be reversed.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置100を例示したが、これに限られるものではなく、少なくとも第1取得手段、第2取得手段、算出手段、処理手段、合成手段を備える構成であれば適宜任意に変更することができる。例えば、背景画像P4a及び被写体切り抜き画像P3の撮像並びに当該撮像の際における背景距離情報及び被写体距離情報の取得は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データや背景距離情報や被写体距離情報を記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. That is, the image capturing apparatus 100 has been illustrated as an image compositing apparatus. However, the image capturing apparatus 100 is not limited to this. Can be changed. For example, imaging of the background image P4a and the subject cutout image P3 and acquisition of background distance information and subject distance information at the time of the imaging are performed by an imaging device different from the imaging device 100, and the image transferred from the imaging device An image composition device that records data, background distance information, and subject distance information, and executes only a composite image generation process may be used.

また、第1距離情報として、背景画像P4aの撮像の際に当該背景画像P4aに合焦した状態で測距された背景距離情報を例示し、また、第2距離情報として、被写体存在画像P1の撮像の際に主要被写体画像Gに合焦した状態で測距された被写体距離情報を例示したが、一例であり、第1距離情報及び第2距離情報はこれらに限られるものではない。即ち、第1距離情報は、背景画像に含まれる被写体と当該背景画像を撮像した撮像装置との距離を示す情報であれば如何なるものであっても良く、また、第2距離情報は、前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す情報であれば如何なるものであっても良い。   Further, as the first distance information, the background distance information measured in the state of focusing on the background image P4a when the background image P4a is captured is exemplified, and as the second distance information, the subject existing image P1 is illustrated. Although the subject distance information measured in the state of focusing on the main subject image G at the time of imaging is illustrated, it is an example, and the first distance information and the second distance information are not limited to these. That is, the first distance information may be any information as long as it is information indicating the distance between the subject included in the background image and the imaging device that captured the background image, and the second distance information may be the foreground image. Any information may be used as long as the information indicates the distance between the main subject included in the image capturing apparatus and the imaging apparatus that captured the foreground image.

加えて、上記実施形態にあっては、第1取得手段、第2取得手段、比較手段、処理手段、合成手段としての機能を、中央制御部13の制御下にて、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1取得処理ルーチン、第2取得処理ルーチン、比較処理ルーチン、画像処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部13のCPUを、背景画像P4aと、背景画像P4aに含まれる主要被写体と当該背景画像P4aを撮像した撮像装置との距離を示す背景距離情報(第1距離情報)とを取得する第1取得手段として機能させるようにしても良い。また、第2取得処理ルーチンにより中央制御部13のCPUを、被写体存在画像P1から抽出された主要被写体画像(前景画像)Gと、当該主要被写体画像に含まれる主要被写体と被写体存在画像P1を撮像した撮像装置との距離を示す被写体距離情報(第2距離情報)とを取得する第2取得手段として機能させるようにしても良い。また、比較処理ルーチンにより中央制御部13のCPUを、背景距離情報と被写体距離情報とを比較する比較手段として機能させるようにしても良い。また、画像処理ルーチンにより中央制御部13のCPUを、背景距離情報と被写体距離情報との比較結果に基づいて、背景画像P4a及び主要被写体画像Gの少なくとも一方に所定の画像処理を施す処理手段として機能させるようにしても良い。また、合成処理ルーチンにより中央制御部13のCPUを、所定の画像処理が少なくとも一方に施された背景画像P4bと主要被写体画像Gとを合成する合成手段として機能させるようにしても良い。
In addition, in the above embodiment, the image processing unit 8 drives the functions as the first acquisition unit, the second acquisition unit, the comparison unit, the processing unit, and the synthesis unit under the control of the central control unit 13. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 13.
That is, a program including a first acquisition processing routine, a second acquisition processing routine, a comparison processing routine, an image processing routine, and a synthesis processing routine is stored in a program memory (not shown) that stores the program. Then, by the first acquisition processing routine, the CPU of the central control unit 13 causes the background distance information (the first distance indicating the distance between the background image P4a and the main subject included in the background image P4a to the imaging device that captured the background image P4a) (Distance information) may be made to function as first acquisition means. Further, the CPU of the central control unit 13 captures the main subject image (foreground image) G extracted from the subject existing image P1 and the main subject and subject existing image P1 included in the main subject image by the second acquisition processing routine. You may make it function as a 2nd acquisition means which acquires the object distance information (2nd distance information) which shows the distance with the image pick-up apparatus which did. Further, the CPU of the central control unit 13 may function as a comparison unit that compares the background distance information and the subject distance information by a comparison processing routine. Further, the CPU of the central control unit 13 as a processing unit that performs predetermined image processing on at least one of the background image P4a and the main subject image G based on the comparison result between the background distance information and the subject distance information by the image processing routine. You may make it function. Further, the CPU of the central control unit 13 may function as a synthesis unit that synthesizes the background image P4b on which at least one predetermined image processing has been performed and the main subject image G by the synthesis processing routine.

100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 切り抜き画像生成部
8b 距離算出部
8c 取得部
8d 距離差算出部
8e 平滑化処理部
8g 合成部
13 中央制御部
P1 被写体存在画像
P4a、P4b 背景画像
G 主要被写体画像
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Lens part 2 Electronic imaging part 3 Imaging control part 8 Image processing part 8a Cutout image generation part 8b Distance calculation part 8c Acquisition part 8d Distance difference calculation part 8e Smoothing process part 8g Compositing part 13 Central control part P1 Subject presence Images P4a, P4b Background image G Main subject image

Claims (8)

背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段と、
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段と、
前記第1距離情報と前記第2距離情報とを比較する比較手段と、
この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段と、
この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段と、
を備えたことを特徴とする画像合成装置。
First acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
Second acquisition means for acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that has captured the foreground image;
A comparing means for comparing the first distance information and the second distance information;
Processing means for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result by the comparison means;
Synthesizing means for synthesizing the background image and the foreground image on which at least one of the predetermined image processing has been performed by the processing means;
An image composition device comprising:
前記比較手段は、
前記第1距離情報と前記第2距離情報とを比較して、前記背景画像と前記前景画像との距離差を算出する算出手段を備え、
前記処理手段は、前記算出手段により算出された前記距離差に応じて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施すことを特徴とする請求項1に記載の画像合成装置。
The comparison means includes
A calculation means for comparing the first distance information and the second distance information to calculate a distance difference between the background image and the foreground image;
The image synthesizing apparatus according to claim 1, wherein the processing unit performs predetermined image processing on at least one of the background image and the foreground image according to the distance difference calculated by the calculation unit. .
前記処理手段は、前記算出手段により算出された前記距離差に応じて前記所定の画像処理の処理強度を変更して前記背景画像及び前記前景画像の少なくとも一方に施すことを特徴とする請求項2に記載の画像合成装置。   The processing means changes the processing intensity of the predetermined image processing according to the distance difference calculated by the calculation means and applies it to at least one of the background image and the foreground image. The image composition device described in 1. 前記前景画像は、前記主要被写体を含む領域を抽出したものであることを特徴とする請求項1〜3の何れか一項に記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the foreground image is obtained by extracting an area including the main subject. 前記所定の画像処理は、画像を平滑化する処理、画像のコントラストを調整する処理及び画像の明るさを調整する処理の少なくとも一を含むことを特徴とする請求項1〜4の何れか一項に記載の画像合成装置。   5. The predetermined image processing includes at least one of processing for smoothing an image, processing for adjusting contrast of an image, and processing for adjusting brightness of an image. The image composition device described in 1. 前記背景画像及び前記前景画像を撮像する撮像手段を更に備えたことを特徴とする請求項1〜5の何れか一項に記載の画像合成装置。   The image synthesizing apparatus according to claim 1, further comprising an imaging unit configured to capture the background image and the foreground image. 画像を合成する画像合成装置の画像合成方法であって、
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得ステップと、
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得ステップと、
前記第1距離情報と前記第2距離情報とを比較する比較ステップと、
この比較ステップによる比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理ステップと、
この処理ステップによって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成ステップと、
を含むことを特徴とする画像合成方法。
An image composition method of an image composition device for compositing images,
A first acquisition step of acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
A second acquisition step of acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that captured the foreground image;
A comparison step of comparing the first distance information and the second distance information;
A processing step for performing a predetermined image processing on at least one of the background image and the foreground image based on the comparison result of the comparison step;
A synthesis step of synthesizing the background image and the foreground image subjected to the predetermined image processing on at least one of the processing steps;
An image composition method comprising:
画像合成装置のコンピュータを、
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段、
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段、
前記第1距離情報と前記第2距離情報とを比較する比較手段、
この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段、
この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段、
として機能させることを特徴とするプログラム。
The computer of the image synthesizer
First acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
Second acquisition means for acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that captured the foreground image;
A comparing means for comparing the first distance information and the second distance information;
Processing means for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result by the comparison means;
Synthesis means for synthesizing the background image and the foreground image on which at least one of the predetermined image processing has been performed by the processing means;
A program characterized by functioning as
JP2009128488A 2009-05-28 2009-05-28 Image combining device, and image combining method and program Pending JP2010278701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009128488A JP2010278701A (en) 2009-05-28 2009-05-28 Image combining device, and image combining method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009128488A JP2010278701A (en) 2009-05-28 2009-05-28 Image combining device, and image combining method and program

Publications (2)

Publication Number Publication Date
JP2010278701A true JP2010278701A (en) 2010-12-09
JP2010278701A5 JP2010278701A5 (en) 2012-07-05

Family

ID=43425256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128488A Pending JP2010278701A (en) 2009-05-28 2009-05-28 Image combining device, and image combining method and program

Country Status (1)

Country Link
JP (1) JP2010278701A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012111232A1 (en) * 2011-02-16 2012-08-23 オリンパス株式会社 Image processor, image processing method, image processing program, and imaging device
JP2016082328A (en) * 2014-10-14 2016-05-16 日本放送協会 Image composition device and program for the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832855A (en) * 1994-07-11 1996-02-02 Fuji Photo Film Co Ltd Electronic still camera, image synthesizer and image extract device
JP2009110137A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Image processor, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832855A (en) * 1994-07-11 1996-02-02 Fuji Photo Film Co Ltd Electronic still camera, image synthesizer and image extract device
JP2009110137A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Image processor, image processing method, and image processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012111232A1 (en) * 2011-02-16 2012-08-23 オリンパス株式会社 Image processor, image processing method, image processing program, and imaging device
JP2012170006A (en) * 2011-02-16 2012-09-06 Olympus Corp Image processing device, image processing method, image processing program, and imaging device
US9167135B2 (en) 2011-02-16 2015-10-20 Olympus Corporation Image processing device, image processing method, photographic imaging apparatus, and recording device recording image processing program
JP2016082328A (en) * 2014-10-14 2016-05-16 日本放送協会 Image composition device and program for the same

Similar Documents

Publication Publication Date Title
JP5051156B2 (en) Image processing apparatus and program
JP5359856B2 (en) Image composition apparatus, image composition method, and program
JP4760973B2 (en) Imaging apparatus and image processing method
JP5105550B2 (en) Image composition apparatus and program
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
JP5504990B2 (en) Imaging apparatus, image processing apparatus, and program
JP5267279B2 (en) Image composition apparatus and program
JP2011066827A (en) Image processing apparatus, image processing method and program
JP5402166B2 (en) Image composition apparatus and program
JP2010278701A (en) Image combining device, and image combining method and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5476900B2 (en) Image composition apparatus, image composition method, and program
JP2011182014A (en) Image pickup device, image processing method and program
JP2011003057A (en) Image composition device, image specifying method, image composition method, and program
JP2010233001A (en) Image compositing apparatus, image reproducing apparatus, and program
JP5494537B2 (en) Image processing apparatus and program
JP2011041041A (en) Imaging apparatus, imaging method and program
JP5381207B2 (en) Image composition apparatus and program
JP5565227B2 (en) Image processing apparatus, image processing method, and program
JP5354059B2 (en) Imaging apparatus, image processing method, and program
JP2011135619A (en) Image processing apparatus and program
JP2011175663A (en) Imaging device, image processing method, and program
JP2012009980A (en) Image processing apparatus, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120523

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131001