JP2010278701A - Image combining device, and image combining method and program - Google Patents
Image combining device, and image combining method and program Download PDFInfo
- Publication number
- JP2010278701A JP2010278701A JP2009128488A JP2009128488A JP2010278701A JP 2010278701 A JP2010278701 A JP 2010278701A JP 2009128488 A JP2009128488 A JP 2009128488A JP 2009128488 A JP2009128488 A JP 2009128488A JP 2010278701 A JP2010278701 A JP 2010278701A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- processing
- distance
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012545 processing Methods 0.000 claims abstract description 129
- 238000003384 imaging method Methods 0.000 claims abstract description 115
- 238000009499 grossing Methods 0.000 claims abstract description 32
- 239000000203 mixture Substances 0.000 claims description 31
- 230000002194 synthesizing effect Effects 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000003786 synthesis reaction Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 description 61
- 239000002131 composite material Substances 0.000 description 29
- 238000012935 Averaging Methods 0.000 description 20
- 238000000605 extraction Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 244000025254 Cannabis sativa Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、複数の画像を合成する画像合成装置、画像合成方法及びプログラムに関する。 The present invention relates to an image composition apparatus, an image composition method, and a program for compositing a plurality of images.
従来、被写体画像と背景画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。 Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).
ところで、被写体画像と背景画像を合成する場合、これらの画像を単に重ねただけでは表現力の乏しい合成画像しか生成することができなかった。 By the way, when a subject image and a background image are combined, only a combined image with poor expressiveness can be generated by simply superimposing these images.
そこで、本発明の課題は、自然な合成画像を生成することができる画像合成装置、画像合成方法及びプログラムを提供することである。 Accordingly, an object of the present invention is to provide an image composition device, an image composition method, and a program that can generate a natural composite image.
上記課題を解決するため、請求項1に記載の発明の画像合成装置は、
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段と、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段と、前記第1距離情報と前記第2距離情報とを比較する比較手段と、この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段と、この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image composition device according to a first aspect of the present invention provides:
A first acquisition unit that acquires a background image, first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image, a foreground image, and the foreground image; A second acquisition unit that acquires second distance information indicating a distance between the main subject and the imaging device that captured the foreground image; a comparison unit that compares the first distance information and the second distance information; Based on the comparison result by the comparison means, processing means for performing predetermined image processing on at least one of the background image and the foreground image, and the background image subjected to at least one of the predetermined image processing by the processing means; Synthesizing means for synthesizing the foreground image.
請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記比較手段は、前記第1距離情報と前記第2距離情報とを比較して、前記背景画像と前記前景画像との距離差を算出する算出手段を備え、前記処理手段は、前記算出手段により算出された前記距離差に応じて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施すことを特徴としている。
According to a second aspect of the present invention, in the image composition device according to the first aspect,
The comparison unit includes a calculation unit that compares the first distance information and the second distance information to calculate a distance difference between the background image and the foreground image, and the processing unit includes: According to the calculated distance difference, predetermined image processing is performed on at least one of the background image and the foreground image.
請求項3に記載の発明は、請求項2に記載の画像合成装置において、
前記処理手段は、前記算出手段により算出された前記距離差に応じて前記所定の画像処理の処理強度を変更して前記背景画像及び前記前景画像の少なくとも一方に施すことを特徴としている。
According to a third aspect of the present invention, in the image composition device according to the second aspect,
The processing means is characterized in that the processing intensity of the predetermined image processing is changed according to the distance difference calculated by the calculation means and applied to at least one of the background image and the foreground image.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像合成装置において、
前記前景画像は、前記主要被写体を含む領域を抽出したものであることを特徴としている。
According to a fourth aspect of the present invention, in the image synthesizing device according to any one of the first to third aspects,
The foreground image is obtained by extracting an area including the main subject.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像合成装置において、
前記所定の画像処理は、画像を平滑化する処理、画像のコントラストを調整する処理及び画像の明るさを調整する処理の少なくとも一を含むことを特徴としている。
The invention according to
The predetermined image processing includes at least one of processing for smoothing an image, processing for adjusting the contrast of the image, and processing for adjusting the brightness of the image.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像合成装置において、
前記背景画像及び前記前景画像を撮像する撮像手段を更に備えたことを特徴としている。
The invention according to claim 6 is the image synthesizing apparatus according to any one of
The image processing apparatus further includes an imaging unit that captures the background image and the foreground image.
請求項7に記載の発明の画像合成方法は、
画像を合成する画像合成装置の画像合成方法であって、背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得ステップと、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得ステップと、前記第1距離情報と前記第2距離情報とを比較する比較ステップと、この比較ステップによる比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理ステップと、この処理ステップによって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成ステップと、を含むことを特徴としている。
The image composition method of the invention described in claim 7
An image composition method of an image composition device for compositing images, wherein a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that images the background image are acquired. A first acquisition step, a second acquisition step of acquiring a foreground image, a second distance information indicating a distance between a main subject included in the foreground image and an imaging device that has captured the foreground image, and the first distance information. A comparison step for comparing the second distance information with the second distance information, a processing step for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result of the comparison step, And a synthesis step of synthesizing the background image and the foreground image subjected to at least one predetermined image processing.
請求項8に記載の発明のプログラムは、
画像合成装置のコンピュータを、背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段、前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段、前記第1距離情報と前記第2距離情報とを比較する比較手段、この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段、この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段、として機能させることを特徴としている。
The program of the invention described in
A first acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that has captured the background image; a foreground image; A second acquisition unit configured to acquire second distance information indicating a distance between a main subject included in the foreground image and an imaging apparatus that has captured the foreground image; and comparing the first distance information and the second distance information. Comparing means, processing means for applying predetermined image processing to at least one of the background image and the foreground image based on the comparison result by the comparing means, and the predetermined image processing being applied to at least one of the processing means by the processing means It is characterized by functioning as a combining means for combining a background image and the foreground image.
本発明によれば、表現力の豊かな自然な合成画像を生成することができる。 According to the present invention, a natural composite image rich in expressive power can be generated.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
本実施形態の撮像装置100は、背景画像P4aに含まれる被写体までの距離を示す背景距離情報と、主要被写体画像Gに含まれる主要被写体までの距離を示す被写体距離情報とを比較して、当該比較結果に基づいて背景画像P4a及び主要被写体画像Gの少なくとも一方に所定の画像処理を施した後、所定の画像処理が少なくとも一方に施された背景画像(例えば、背景画像P4b)と主要被写体画像Gとを合成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、記録媒体9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
また、撮像制御部3と、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13は、例えば、カスタムLSI1Aとして設計されている。
The
Specifically, as illustrated in FIG. 1, the
Further, the imaging control unit 3, the feature amount calculation unit 6, the block matching unit 7, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The electronic imaging unit 2 is composed of an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), for example, and converts an optical image that has passed through various lenses of the
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
Although not shown, the imaging control unit 3 includes a timing generator, a driver, and the like. Then, the imaging control unit 3 scans and drives the electronic imaging unit 2 with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 2 every predetermined period, and the electronic imaging unit 2 Image frames are read out from the imaging area for each screen and output to the image
また、撮像制御部3は、被写体の撮像条件の調整制御を行う。具体的には、撮像制御部3は、合焦駆動部に所定の制御信号を出力して、レンズ部1のフォーカスレンズを光軸方向に移動させて合焦位置を調整する自動合焦処理を行う合焦制御部3aを備えている。
さらに、撮像制御部3は、撮像条件の調整制御として、AE(自動露出処理)やAWB(自動ホワイトバランス)等を行う。
In addition, the imaging control unit 3 performs adjustment control of imaging conditions of the subject. Specifically, the imaging control unit 3 outputs a predetermined control signal to the focusing drive unit, and performs an automatic focusing process of adjusting the focusing position by moving the focus lens of the
Further, the imaging control unit 3 performs AE (automatic exposure processing), AWB (automatic white balance), and the like as adjustment control of imaging conditions.
このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、画像合成処理に係る背景画像P4a(図8(a)参照)や被写体存在画像P1(図4(a)参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図4(c)参照)の生成のための被写体非存在画像P2(図4(b)参照)を撮像する。
The
In addition, the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
画像メモリ5は、例えば、DRAM等により構成され、特徴量演算部6と、ブロックマッチング部7と、画像処理部8と、中央制御部13等によって処理されるデータ等を一時記憶する。
The
特徴量演算部6は、被写体非存在画像P2を基準として、当該被写体非存在画像P2から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6は、例えば、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature quantity calculation unit 6 performs feature extraction processing for extracting feature points from the subject non-existing image P2 with reference to the subject non-existing image P2. Specifically, the feature amount calculation unit 6 selects, for example, a predetermined number (or a predetermined number or more) of high feature block areas (feature points) based on the YUV data of the subject non-existing image P2, The contents of the block are extracted as a template (for example, a square of 16 × 16 pixels).
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.
ブロックマッチング部7は、被写体切り抜き画像P3を生成する際に、被写体非存在画像P2と被写体存在画像P1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1内のどこに対応するか、つまり、被写体存在画像P1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。 When generating the subject cutout image P3, the block matching unit 7 performs block matching processing for aligning the subject non-existing image P2 and the subject existing image P1. Specifically, the block matching unit 7 optimally matches where the template extracted by the feature extraction process corresponds to in the subject existing image P1, that is, the template pixel value optimally matches in the subject existing image P1. Search for a position (corresponding region). Then, an optimum offset between the subject non-existing image P2 and the subject existing image P1 having the best evaluation value (for example, sum of squared differences (SSD), sum of absolute differences (SAD), etc.) is calculated. Calculated as a template motion vector.
画像処理部8は、被写体切り抜き画像P3の画像データを生成する切り抜き画像生成部8aを具備している。具体的には、切り抜き画像生成部8aは、図示は省略するが、位置合わせ部と、被写体画像抽出部と、位置情報生成部と、画像生成部等を備えている。
位置合わせ部は、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
被写体画像抽出部は、位置合わせ部により位置合わせされた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1から被写体が含まれる主要被写体画像(前景画像)Gを抽出する。
位置情報生成部は、被写体存在画像P1から抽出された主要被写体画像Gの位置を特定して、被写体存在画像P1における主要被写体画像Gの位置を示す位置情報(例えば、アルファマップ)を生成する。ここで、アルファマップとは、被写体存在画像P1の各画素について、主要被写体画像Gを所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
画像生成部は、生成されたアルファマップに基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3の画像データを生成する。
The
The alignment unit calculates a coordinate conversion formula (projection conversion matrix) of each pixel of the subject presence image P1 with respect to the subject non-existence image P2 based on the feature points extracted from the subject non-existence image P2, and according to the coordinate conversion formula The subject presence image P1 is coordinate-transformed and aligned with the subject non-existence image P2.
The subject image extraction unit generates difference information of corresponding pixels between the subject presence image P1 and the subject non-existence image P2 aligned by the alignment unit, and uses the difference information as a reference from the subject presence image P1. A main subject image (foreground image) G including the subject is extracted.
The position information generation unit specifies the position of the main subject image G extracted from the subject presence image P1, and generates position information (for example, an alpha map) indicating the position of the main subject image G in the subject presence image P1. Here, the alpha map represents a weight when alpha blending the main subject image G with respect to a predetermined background for each pixel of the subject existing image P1 as an alpha value (0 ≦ α ≦ 1). .
Based on the generated alpha map, the image generation unit does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing image P1 to a predetermined single color image (not shown), and The image of the subject is synthesized with a predetermined single-color image so as to transmit pixels with an alpha value of 0, and image data of the subject cut-out image P3 is generated.
このように、切り抜き画像生成部8aは、被写体存在画像P1から主要被写体画像(前景画像)Gを抽出する抽出手段を構成している。
As described above, the cut-out
また、画像処理部8は、レンズ部1、電子撮像部2及び撮像制御部3により撮像された画像中の所定の領域までの距離を算出する距離算出部8bを具備している。
距離算出部8bは、背景画像P4aの撮像の際に、当該背景画像P4a中の草や木などの被写体Cまでの距離を算出する。具体的には、距離算出部8bは、自動合焦処理にて背景画像P4a中の被写体Cに合焦した状態で、フォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得して、当該レンズ位置情報に基づいて被写体Cまでの距離を所定の換算手段(例えば、換算プログラムや換算テーブル等)を用いて算出して背景距離情報(第1距離情報)を取得する。
なお、被写体Cの特定は、例えば、背景画像P4aの画像データの色情報などを用いてコントラスト差を検出したり、画素集合の輪郭線(エッジ部分)を抽出することで行っても良い。
Further, the
The
The subject C may be specified by, for example, detecting a contrast difference using color information of image data of the background image P4a or extracting a contour line (edge portion) of a pixel set.
また、距離算出部8bは、被写体存在画像P1の撮像の際に、当該被写体存在画像P1中の主要被写体までの距離を算出する。具体的には、距離算出部8bは、自動合焦処理にて被写体存在画像P1中の主要被写体に合焦した状態で、フォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得して、当該レンズ位置情報に基づいて主要被写体までの距離を所定の換算手段(例えば、換算プログラムや換算テーブル等)を用いて算出して被写体距離情報(第2距離情報)を取得する。
The
また、画像処理部8は、記録媒体9に記録されている背景画像P4aや被写体切り抜き画像P3の画像データを取得する取得部8cを具備している。
取得部8cは、合成画像生成処理にて、ユーザによる操作入力部12の所定操作に基づいて指定された背景画像P4aの画像データを記録媒体9から読み出して取得する。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている背景画像P4aを読み出すことで、画像情報の他にExif情報として付帯されている背景距離情報(第1距離情報)も取得する。
ここで、取得部8cは、背景画像P4aと、当該背景画像P4aに含まれる草や木などの被写体Cと当該背景画像P4aを撮像した撮像装置100との距離を示す背景距離情報(第1距離情報)とを取得する第1取得手段を構成している。
Further, the
The
Here, the
また、取得部8cは、合成画像生成処理にて、ユーザによる操作入力部12の所定操作に基づいて指定された被写体切り抜き画像P3の画像データを記録媒体9から読み出して取得する。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている被写体切り抜き画像P3を読み出すことで、画像情報の他にExif情報として付帯されている被写体距離情報(第2距離情報)も取得する。
ここで、取得部8cは、前景画像としての主要被写体画像Gと、当該主要被写体画像Gに含まれる主要被写体と当該主要被写体画像Gに係る被写体存在画像P1を撮像した撮像装置100との距離を示す被写体距離情報(第2距離情報)とを取得する第2取得手段を構成している。
Further, the
Here, the
また、画像処理部8は、算出手段として、背景画像P4aと被写体存在画像P1に含まれる主要被写体画像(前景画像)Gとの距離差Aを算出する距離差算出部8dを具備している。
距離差算出部8dは、合成画像生成処理にて、取得部8cにより取得された背景距離情報と被写体距離情報とを比較して、背景画像P4aと主要被写体画像Gとの距離差Aを算出する。
ここで、距離差算出部8dは、背景距離情報(第1距離情報)と被写体距離情報(第2距離情報)とを比較する比較手段を構成している。
The
The distance
Here, the distance
また、画像処理部8は、背景画像P4aに対して平滑化処理を施す平滑化処理部8eを具備している。
平滑化処理部8eは、距離差算出部8dにより算出された背景画像P4aと主要被写体画像Gとの距離差Aに応じて、背景画像P4aに対して平滑化処理を施す。具体的には、平滑化処理部8eは、距離差算出部8dにより算出された距離差Aに応じて平滑化処理の処理強度を変更して、背景画像P4aに対して当該平滑化処理を施す。即ち、平滑化処理部8eは、距離差算出部8dにより算出された距離差Aに応じて、画像処理部8のフィルタ記憶部8fに記憶されている複数の平均化フィルタf1(図2(a)参照)の中から一の平均化フィルタf1(例えば、3×3画素からなる平均化フィルタ)を特定する。そして、平滑化処理部8eは、特定された平均化フィルタf1を用いて背景画像P4aに対して平滑化処理を施すことで、当該背景画像P4bの濃淡変化を滑らか(ピンぼけ状態)にする(図8(b)参照)。
平均化フィルタf1を用いた平滑化処理において、背景画像P4aの所定位置の画素をフィルタリングする場合、当該画素を中心とする近傍点の平均をその画素に入れ直す処理を行う。例えば、3×3画素の平均化フィルタf1を用いる場合、中央部(例えば、図2(b)における「○」で示された領域)の周囲の8つの領域に対応する画素の色の平均を算出して、この算出した平均の色を当該中央部に対応する画素の色とする。
このとき、主要被写体画像Gと背景画像P4aとの距離差Aに応じて、平均化フィルタf1のサイズを変更することで(図2(a)参照)、平均化する範囲(平均を算出する近傍点の数)を変更して、背景画像P4bのぼけの大きさを調整する。具体的には、距離差Aが大きい程、サイズの大きい平均化フィルタf1を用いることで、背景画像P4bにより大きいぼけを生じさせる。一方、距離差Aが小さい程、サイズの小さい平均化フィルタf1を用いることで、背景画像P4bにより小さいぼけを生じさせる。
The
The smoothing
In the smoothing process using the averaging filter f1, when filtering a pixel at a predetermined position of the background image P4a, a process of re-entering the average of neighboring points centered on the pixel into the pixel is performed. For example, when the 3 × 3 pixel averaging filter f1 is used, the average of the colors of the pixels corresponding to the eight regions around the central portion (for example, the region indicated by “◯” in FIG. 2B) is calculated. The calculated average color is set as the color of the pixel corresponding to the central portion.
At this time, by changing the size of the averaging filter f1 according to the distance difference A between the main subject image G and the background image P4a (see FIG. 2A), the range to be averaged (the neighborhood in which the average is calculated) The number of points) is changed to adjust the blur size of the background image P4b. Specifically, the larger the distance difference A is, the larger the size of the averaging filter f1, which causes the background image P4b to be more blurred. On the other hand, the smaller the distance difference A is, the smaller the size of the averaging filter f1, which causes a smaller blur in the background image P4b.
このように、平滑化処理部8eは、距離差算出部8dによる背景距離情報と被写体距離情報との比較結果に基づいて、背景画像P4aに対して所定の画像処理を施す処理手段を構成している。
As described above, the smoothing
フィルタ記憶部8fは、主要被写体画像Gと背景画像P4aとの距離差Aに応じて所定サイズの平均化フィルタf1を対応付けて記憶している(図2(a)参照)。
具体的には、例えば、主要被写体画像Gと背景画像P4aとの距離差Aとしての「1[m]以下」と「3×3画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「1[m]よりも大きく3[m]以下」と「5×5画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「3[m]よりも大きく5[m]以下」と「7×7画素の平均化フィルタf1」とが対応付けられ、また、距離差Aとしての「5[m]よりも大きい」と「5×5画素の平均化フィルタf1」とが対応付けられている。
なお、平均化フィルタf1のサイズ及び対応付けられている距離差Aは、一例であって上記したものに限られるものではない。
The
Specifically, for example, “1 [m] or less” as the distance difference A between the main subject image G and the background image P4a and “3 × 3 pixel averaging filter f1” are associated with each other, and the distance “A greater than 1 [m] and less than or equal to 3 [m]” as the difference A is associated with “5 × 5 pixel averaging filter f1”, and more than “3 [m] as the distance difference A “5 [m] or less” and “7 × 7 pixel averaging filter f1” are associated with each other, and the distance difference A is “greater than 5 [m]” and “5 × 5 pixel averaging”. Filter f1 ”is associated.
The size of the averaging filter f1 and the associated distance difference A are examples and are not limited to those described above.
また、画像処理部8は、合成手段として、背景画像P4aと被写体切り抜き画像P3とを合成する合成部8gを具備している。
合成部8gは、具体的には、平滑化処理部8eによって平滑化処理が施されていない背景画像P4a若しくは平滑化処理が施された背景画像P4bの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3の対応する画素の画素値で上書きし、さらに、背景画像P4a(P4b)の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて主要被写体画像Gを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを主要被写体画像Gを切り抜いた画像(背景画像×(1−α))と合成する。
Further, the
Specifically, the combining
記録媒体9は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部8のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3や背景画像P4aの画像データを記憶する。
The
被写体切り抜き画像P3の画像データは、切り抜き画像生成部8aの位置情報生成部により生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として記憶されている。また、被写体切り抜き画像P3の画像データは、被写体存在画像P1の撮像の際に距離算出部8bにより取得された被写体距離情報(第2距離情報)がExif情報として付帯されたExif形式の画像ファイルから構成されている。
背景画像P4aの画像データは、背景画像P4aの撮像の際に距離算出部8bにより取得された背景距離情報(第1距離情報)がExif情報として付帯されたExif形式の画像ファイルから構成されている。
The image data of the subject clipped image P3 is associated with the alpha map generated by the position information generator of the clipped
The image data of the background image P4a is composed of an Exif format image file in which background distance information (first distance information) acquired by the
このように、記録媒体9は、背景画像P4aの撮像の際に当該背景画像P4aにおける被写体(特徴領域)までの距離を測距した背景距離情報(第1距離情報)と、被写体存在画像P1の撮像の際に主要被写体までの距離を測距した被写体距離情報(第2距離情報)を記憶する。
As described above, the
表示制御部10は、画像メモリ5に一時的に記憶されている表示用画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部13の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The
Specifically, the
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部11は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
The
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン12a、撮像モードや機能等の選択指示に係る選択決定ボタン12b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。
The
中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、CPU(図示略)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による被写体切り抜き処理について、図3及び図4を参照して説明する。
図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(c)は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
Next, the subject clipping process performed by the
FIG. 3 is a flowchart illustrating an example of an operation related to the subject clipping process. FIGS. 4A to 4C are diagrams schematically illustrating an example of an image related to the subject clipping process.
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図3に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
The subject clipping process is executed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the
As shown in FIG. 3, first, the
次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在画像P1(図4(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1のYUVデータを生成させる(ステップS3)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
また、中央制御部13は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Next, the
In addition, the
そして、中央制御部13は、画像処理部8の距離算出部8bに、被写体存在画像P1の撮像の際の自動合焦処理にて、被写体存在画像P1中の主要被写体に合焦した状態のフォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得させる。そして、中央制御部13は、距離算出部8bに、当該レンズ位置情報に基づいて主要被写体までの距離を算出させて被写体距離情報を取得させる(ステップS4)。
Then, the
次に、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像と被写体非存在画像P2の撮像指示メッセージを表示部11の表示画面に表示させる(ステップS5)。
この後、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS6)。そして、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタン12aが所定操作されて撮像指示が入力されたと判定されると(ステップS6;YES)、中央制御部13は、撮像制御部3に、被写体非存在画像P2(図4(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2のYUVデータを生成させる(ステップS7)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
Next, the
Thereafter, the
次に、中央制御部13は、特徴量演算部6、ブロックマッチング部7及び画像処理部8に、画像メモリ5に一時記憶されている被写体非存在画像P2のYUVデータを基準として、被写体存在画像P1のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS8)。
具体的には、特徴量演算部6は、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部7は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、切り抜き画像生成部8aの位置合わせ部は、ブロックマッチング部7により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
Next, the
Specifically, the feature amount calculation unit 6 selects a predetermined number (or a predetermined number or more) of highly featured block areas (feature points) based on the YUV data of the subject non-existing image P2, and selects the relevant block. Is extracted as a template. Then, the block matching unit 7 searches the subject existing image P1 for a position where the pixel value of the template extracted by the feature extraction process is optimally matched, and the evaluation value of the difference between the pixel values is the best. An optimal offset between the subject non-existing image P2 and the subject existing image P1 is calculated as a motion vector of the template. Then, the alignment unit of the cut-out
次に、中央制御部13は、切り抜き画像生成部8aの位置合わせ部に、算出された射影変換行例に基づいて被写体存在画像P1を射影変換させることで、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS9)。
Next, the
そして、中央制御部13は、切り抜き画像生成部8aの被写体画像抽出部に、被写体存在画像P1から被写体が含まれる主要被写体画像Gを抽出する処理を行わせる(ステップS10)。
具体的には、被写体領域抽出部は、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部は、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部は、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部は、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを主要被写体画像Gとして特定し、収縮分を修正するための膨張処理を行う。
Then, the
Specifically, the subject region extraction unit applies a low-pass filter to each of the YUV data of the subject presence image P1 and the YUV data of the subject non-existence image P2, and removes the high frequency component of each image. Thereafter, the subject area extraction unit calculates a difference for each corresponding pixel between the subject presence image P1 and the subject non-existence image P2 subjected to the low-pass filter, and generates a difference map. Subsequently, the subject region extraction unit binarizes the dissimilarity map relating to each pixel with a predetermined threshold, and then performs a contraction process to remove a region in which the dissimilarity is caused by fine noise or camera shake from the dissimilarity map. . After that, the subject region extraction unit performs a labeling process, removes a region below a predetermined value or a region other than the maximum region, identifies the largest island pattern as the main subject image G, and corrects the shrinkage. Expansion processing is performed.
次に、中央制御部13は、画像処理部8の位置情報生成部に、抽出された主要被写体画像Gの被写体存在画像P1内での位置を示すアルファマップを生成させる(ステップS11)。
Next, the
その後、中央制御部13は、画像処理部8の画像生成部に、主要被写体画像Gを所定の単一色画像と合成した被写体切り抜き画像P3(図4(c)参照)の画像データを生成する処理を行わせる(ステップS12)。
具体的には、画像生成部は、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the
Specifically, the image generation unit reads out the subject existence image P1, the single color image, and the alpha map and develops them in the
その後、中央制御部13は、記録媒体9の所定の記憶領域に、画像処理部8の位置情報生成部により生成されたアルファマップと被写体切り抜き画像P3の画像データと距離算出部8bにより取得された被写体距離情報とを対応付けて一ファイルで記憶させる(ステップS13)。
これにより、被写体切り抜き処理を終了する。
Thereafter, the
Thereby, the subject clipping process is completed.
次に、撮像装置100による背景画像撮像処理について、図5を参照して説明する。
図5は、背景画像撮像処理に係る動作の一例を示すフローチャートである。
Next, background image imaging processing by the
FIG. 5 is a flowchart illustrating an example of an operation related to the background image capturing process.
背景画像撮像処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
図5に示すように、先ず、中央制御部13は、表示制御部10に、レンズ部1、電子撮像部2及び撮像制御部3による背景画像P4aの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。
The background image capturing process is a normal still image capturing process. Based on a predetermined operation of the
As shown in FIG. 5, first, the
次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン12aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、中央制御部13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、背景画像P4a(図8(a)参照)の光学像を所定の条件で電子撮像部2により撮像させる。そして、中央制御部13は、画像データ生成部4に、電子撮像部2から転送された背景画像P4aのYUVデータを生成させる(ステップS23)。
Next, the
そして、中央制御部13は、画像処理部8の距離算出部8bに、背景画像P4aの撮像の際の自動合焦処理にて、背景画像P4a中の特徴のある被写体(例えば、草や木等)Cに合焦した状態のフォーカスレンズの光軸方向の位置に係るレンズ位置情報を撮像制御部3の合焦制御部3aから取得させる。そして、中央制御部13は、距離算出部8bに、当該レンズ位置情報に基づいて被写体Cまでの距離を算出させて背景距離情報を取得させる(ステップS24)。
Then, the
続けて、中央制御部13は、記録媒体9の所定の記憶領域に、距離算出部8bにより取得された背景距離情報と背景画像P4aのYUVデータとを対応付けて一ファイルで記憶させる(ステップS25)。
これにより、背景画像生成処理を終了する。
Subsequently, the
Thereby, the background image generation process is terminated.
次に、撮像装置100による合成画像生成処理について、図6〜図8を参照して説明する。
図6は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図7は、合成画像生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図8(a)〜図8(c)は、合成画像生成処理に係る画像の一例を模式的に示す図である。
Next, composite image generation processing by the
FIG. 6 is a flowchart illustrating an example of an operation related to the composite image generation process. FIG. 7 is a flowchart illustrating an example of an operation related to the image composition processing in the composite image generation processing. FIGS. 8A to 8C are diagrams schematically illustrating an example of an image related to the composite image generation process.
合成画像生成処理は、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から画像合成モードが選択指示された場合に実行される処理である。
図6に示すように、先ず、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の被写体切り抜き画像P3(図4(c)参照)が選択されて指定されると(ステップS31)、中央制御部13は、画像処理部8の取得部8cに、指定された被写体切り抜き画像P3の画像データを読み出させて画像メモリ5に展開させる(ステップS32)。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている被写体切り抜き画像P3を読み出すことで、画像情報の他にExif情報として付帯されている被写体距離情報を取得する。
The composite image generation process is executed when an image composite mode is selected from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the
As shown in FIG. 6, first, based on a predetermined operation of the
次に、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、記録媒体9に記録されている複数の画像の中で所望の背景画像P4a(図8(a)参照)が選択されて指定されると(ステップS33)、中央制御部13は、画像処理部8の取得部8cに、指定された背景画像P4aの画像データを読み出させて画像メモリ5に展開させる(ステップS34)。具体的には、取得部8cは、Exif形式の画像ファイルから構成されている背景画像P4aを読み出すことで、画像情報の他にExif情報として付帯されている背景距離情報を取得する。
Next, a desired background image P4a (see FIG. 8A) is selected from a plurality of images recorded on the
続けて、中央制御部13は、画像処理部8の距離差算出部8dに、取得部8cにより取得された背景距離情報と被写体距離情報とを比較させて、背景画像P4aと主要被写体画像Gとの距離差Aを算出させ、画像処理部8は、算出された距離差Aが所定値以上であるか否かを判定する(ステップS35)。
ここで、距離差Aが所定値以上であると判定されると(ステップS35;YES)、中央制御部13は、画像処理部8の平滑化処理部8eに、距離差算出部8dにより算出された距離差Aに応じて、フィルタ記憶部8fに記憶されている複数の平均化フィルタf1(図2(a)参照)の中から一の平均化フィルタf1(例えば、3×3画素からなる平均化フィルタ)を特定させる。そして、中央制御部13は、平滑化処理部8eに、特定された平均化フィルタf1を用いて背景画像P4aに対して平滑化処理を施させる(ステップS36)。これにより、画素の濃淡変化を滑らかな状態、即ち、ピンぼけ状態とされた背景画像P4b(図8(b)参照)が生成される。
Subsequently, the
Here, if it is determined that the distance difference A is greater than or equal to the predetermined value (step S35; YES), the
次に、ユーザによる操作入力部12の選択決定ボタン12bの所定操作に基づいて、ユーザ所望の被写体切り抜き画像P3の合成位置を指定して決定した後、中央制御部13は、平滑化処理が施された背景画像P4aと被写体切り抜き画像P3における主要被写体画像Gを用いて、画像合成処理を合成部8gに行わせる(ステップS37)。
なお、ステップS35にて、距離差Aが所定値よりも小さいと判定されると(ステップS35;NO)、中央制御部13は、処理をステップS37に移行させて、平滑化処理が施されていない背景画像P4aを用いて画像合成処理を行わせる。また、背景距離情報が対応付けられていない背景画像や被写体距離情報が対応付けられていない被写体切り抜き画像を用いて画像合成を行う場合にも、背景画像に対する平滑化処理を行わずに画像合成処理を行う。
Next, based on a predetermined operation of the
If it is determined in step S35 that the distance difference A is smaller than the predetermined value (step S35; NO), the
ここで、画像合成処理について図7を参照して詳細に説明する。
図7は、画像合成処理に係る動作の一例を示すフローチャートである。
合成部8gは、被写体切り抜き画像P3と対応付けて記憶されているアルファマップを読み出して画像メモリ5に展開する(ステップS41)。
なお、背景画像P4aにおける被写体切り抜き画像P3の合成位置が決定された際に、背景画像P4a(P4b)とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
Here, the image composition processing will be described in detail with reference to FIG.
FIG. 7 is a flowchart illustrating an example of an operation related to the image composition process.
The synthesizing
Note that when the synthesis position of the subject cutout image P3 in the background image P4a is determined, the background image P4a (P4b) is shifted from the alpha map, and the area outside the alpha map range is set to α = 0. Avoid creating regions where no value exists.
次に、合成部8gは、平滑化処理が施された背景画像P4b若しくは当該処理が施されていない背景画像P4aの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS42)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS43)。具体的には、合成部8gは、背景画像P4a(P4b)の何れか一の画素のうち、アルファ値が1の画素については(ステップS43;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS44)、アルファ値が0<α<1の画素については(ステップS43;0<α<1)、1の補数(1−α)を用いて主要被写体画像Gを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを主要被写体画像Gを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS45、アルファ値が0の画素については(ステップS43;α=0)、何もせずに背景画像P4aを透過さるようにする。
Next, the synthesizing
続けて、合成部8gは、背景画像P4aの全ての画素について処理したか否かを判定する(ステップS46)。
ここで、全ての画素について処理していないと判定されると(ステップS46;NO)、合成部8gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS47)、処理をステップS43に移行させる。
上記の処理を、ステップS46にて全ての画素について処理したと判定されるまで(ステップS46;YES)、繰り返すことで、合成部8gは、被写体切り抜き画像P3と背景画像P4a(P4b)とを合成した被写体合成画像P5の画像データを生成させる。
これにより、画像合成処理を終了する。
Subsequently, the
If it is determined that all the pixels have not been processed (step S46; NO), the
By repeating the above processing until it is determined in step S46 that all pixels have been processed (step S46; YES), the combining
Thereby, the image composition process is terminated.
図6に示すように、その後、中央制御部13は、表示制御部10に、合成部8gにより生成された被写体合成画像P5の画像データに基づいて、背景画像P4a(P4b)に被写体が重畳された被写体合成画像P5を表示部11の表示画面に表示させる(ステップS38)。
具体的には、例えば、平滑化処理が施された背景画像P4bを用いて被写体合成画像を生成した場合、主要被写体画像Gにはピントが合っているが、背景画像P4bに対してはピントが合っていないような被写体合成画像、即ち、背景画像P4bをぼかした被写体合成画像P5(図8(c)参照)が表示部11に表示される。
これにより、合成画像生成処理を終了する。
As shown in FIG. 6, thereafter, the
Specifically, for example, when a subject composite image is generated using the smoothed background image P4b, the main subject image G is in focus, but the background image P4b is in focus. A subject composite image that does not match, that is, a subject composite image P5 (see FIG. 8C) obtained by blurring the background image P4b is displayed on the
Thus, the composite image generation process is finished.
以上のように、本実施形態の撮像装置100によれば、背景画像P4aに含まれる被写体までの距離を示す背景距離情報と、主要被写体画像Gに含まれる主要被写体までの距離を示す被写体距離情報とを比較する。即ち、背景画像P4aの撮像の際に、当該背景画像P4aにおける特徴のある被写体Cまでの距離を測距した背景距離情報と、被写体存在画像P1の撮像の際に、被写体存在画像P1の主要被写体までの距離を測距した被写体距離情報とを比較する。そして、当該比較結果に基づいて背景画像P4aに平滑化処理を施して当該背景画像P4aの濃淡変化を滑らかにした後、平滑化処理が施された背景画像P4bと主要被写体画像Gとを合成して被写体合成画像P5を生成する。
これにより、撮像装置100に対してより遠い方の画像である背景画像P4aのピントは合っていないが、近い方の画像である主要被写体画像Gのピントは合っているような遠近感のある被写体合成画像P5(図8(c)参照)を生成することができ、複数の画像を単に重ねただけでは得られず、且つ、一眼レフカメラで撮影したような表現力の豊かな自然な被写体合成画像P5を得ることができる。
As described above, according to the
As a result, the background image P4a, which is a farther image than the
また、背景画像P4aと被写体切り抜き画像P3の主要被写体画像Gとの距離差Aを算出して、当該距離差Aに応じて背景画像P4aに平滑化処理を施す。具体的には、背景画像P4aと主要被写体画像Gとの距離差Aに従って平滑化処理の処理強度を変更して背景画像P4aに施すので、距離差Aに応じて背景画像P4bのぼけの大きさを調整することができ、被写体存在画像の遠近感をより自然に表現することができる。 Further, a distance difference A between the background image P4a and the main subject image G of the subject cutout image P3 is calculated, and the background image P4a is smoothed according to the distance difference A. Specifically, since the processing intensity of the smoothing process is changed according to the distance difference A between the background image P4a and the main subject image G and applied to the background image P4a, the size of the blur of the background image P4b according to the distance difference A Can be adjusted, and the perspective of the subject existing image can be expressed more naturally.
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、平滑化処理を背景画像P4a(撮像装置100に対して遠い方)に施すようにしたが、撮像装置100に対してより近い方の主要被写体画像Gに施しても良い。即ち、撮像装置100に対してより遠い方の背景画像P4aのピントは合っているが、近い方の主要被写体画像Gのピントは合っていないような合成画像(主要被写体画像Gがピンぼけ状態の被写体合成画像)を生成する場合や、背景画像P4a及び主要被写体画像Gの双方のピントが合っていないような被写体合成画像(背景画像P4a及び主要被写体画像Gの双方がピンぼけ状態の被写体合成画像)を生成する場合にあっては、主要被写体画像Gに対して平滑化処理を施すようにしても良い。
つまり、平滑化処理部8eは、処理手段として、背景画像P4a及び主要被写体画像(前景画像)Gの少なくとも一方に所定の画像処理を施すように構成しても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the smoothing process is performed on the background image P4a (the one farther from the imaging device 100), but is applied to the main subject image G closer to the
That is, the smoothing
また、上記実施形態にあっては、所定の画像処理として、平滑化処理を例示したが、これに限られるものではなく、例えば、背景画像P4aや主要被写体画像Gのコントラストや明るさを調整する処理であっても良い。即ち、背景画像P4aに対して主要被写体画像Gのコントラストを強くしたり明るさを明るくすることで、被写体存在画像の遠近感を自然に表現することができ、表現力の豊かな自然な被写体合成画像を得ることができる。
また、上記実施形態と同様に、距離差Aに応じて背景画像P4aや主要被写体画像Gのコントラストや明るさを調整することで、被写体存在画像の遠近感をより自然に表現することができる。
In the above embodiment, the smoothing process is exemplified as the predetermined image process. However, the present invention is not limited to this. For example, the contrast and brightness of the background image P4a and the main subject image G are adjusted. It may be processing. That is, by increasing the contrast of the main subject image G or increasing the brightness with respect to the background image P4a, the perspective of the subject existing image can be naturally expressed, and natural subject synthesis with rich expressiveness can be achieved. An image can be obtained.
Similarly to the above-described embodiment, by adjusting the contrast and brightness of the background image P4a and the main subject image G according to the distance difference A, the perspective of the subject existing image can be expressed more naturally.
さらに、上記実施形態にあっては、背景画像P4aにおけるピントがあった位置の情報を記録しておいても良く、例えば、当該位置の情報に基づいて、画像処理の強度を調整しても良い。即ち、ピントがあった位置から離れる程、画像処理の強度を強くするようにすることで、被写体存在画像の遠近感をより自然に表現することができる。 Furthermore, in the above-described embodiment, information on the position where the background image P4a is in focus may be recorded. For example, the intensity of image processing may be adjusted based on the information on the position. . In other words, the perspective of the subject existing image can be expressed more naturally by increasing the intensity of the image processing as the distance from the focused position increases.
また、上記実施形態にあっては、平滑化処理として、平均化フィルタを用いた手法を例示したが、これに限られるものではなく、画像を平滑化する方法であれば如何なる方法であっても良く、例えば、Irisフィルタなどを用いた手法であっても良い。 In the above embodiment, the method using the averaging filter is exemplified as the smoothing process. However, the method is not limited to this, and any method may be used as long as the method smoothes the image. For example, a technique using an Iris filter or the like may be used.
さらに、上記実施形態にあっては、被写体切り抜き画像P3の画像データを、被写体距離情報をExif情報として付帯したExif形式の画像ファイルから構成し、背景画像P4aの画像データを、背景距離情報をExif情報として付帯したExif形式の画像ファイルから構成するようにしたが、被写体切り抜き画像P3や背景画像P4aの画像データ並びに距離情報の記憶方法はこれらに限られるものではない。即ち、被写体切り抜き画像P3の画像データと被写体距離情報とが対応付けて記憶され、背景画像P4aの画像データと背景距離情報とが対応付けて記憶されるような記憶方法であれば如何なる方法であっても良い。 Furthermore, in the above embodiment, the image data of the subject cutout image P3 is configured from an Exif format image file with the subject distance information as Exif information, the image data of the background image P4a, and the background distance information as Exif. Although it is configured from an Exif format image file attached as information, the method of storing the image data and distance information of the subject cutout image P3 and the background image P4a is not limited to these. That is, any method may be used as long as the image data of the subject cutout image P3 and the subject distance information are stored in association with each other, and the image data of the background image P4a and the background distance information are stored in association with each other. May be.
また、上記実施形態にあっては、先ず、主要被写体画像G及び被写体距離情報を取得し(第2取得ステップ)、その後、背景画像P4aと背景距離情報を取得する(第1取得ステップ)ようにしたが、これに限られるものではなく、これらの順序が逆であっても良い。 In the embodiment, first, the main subject image G and subject distance information are acquired (second acquisition step), and then the background image P4a and background distance information are acquired (first acquisition step). However, the present invention is not limited to this, and the order of these may be reversed.
さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置100を例示したが、これに限られるものではなく、少なくとも第1取得手段、第2取得手段、算出手段、処理手段、合成手段を備える構成であれば適宜任意に変更することができる。例えば、背景画像P4a及び被写体切り抜き画像P3の撮像並びに当該撮像の際における背景距離情報及び被写体距離情報の取得は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データや背景距離情報や被写体距離情報を記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。
Furthermore, the configuration of the
また、第1距離情報として、背景画像P4aの撮像の際に当該背景画像P4aに合焦した状態で測距された背景距離情報を例示し、また、第2距離情報として、被写体存在画像P1の撮像の際に主要被写体画像Gに合焦した状態で測距された被写体距離情報を例示したが、一例であり、第1距離情報及び第2距離情報はこれらに限られるものではない。即ち、第1距離情報は、背景画像に含まれる被写体と当該背景画像を撮像した撮像装置との距離を示す情報であれば如何なるものであっても良く、また、第2距離情報は、前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す情報であれば如何なるものであっても良い。 Further, as the first distance information, the background distance information measured in the state of focusing on the background image P4a when the background image P4a is captured is exemplified, and as the second distance information, the subject existing image P1 is illustrated. Although the subject distance information measured in the state of focusing on the main subject image G at the time of imaging is illustrated, it is an example, and the first distance information and the second distance information are not limited to these. That is, the first distance information may be any information as long as it is information indicating the distance between the subject included in the background image and the imaging device that captured the background image, and the second distance information may be the foreground image. Any information may be used as long as the information indicates the distance between the main subject included in the image capturing apparatus and the imaging apparatus that captured the foreground image.
加えて、上記実施形態にあっては、第1取得手段、第2取得手段、比較手段、処理手段、合成手段としての機能を、中央制御部13の制御下にて、画像処理部8が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、第1取得処理ルーチン、第2取得処理ルーチン、比較処理ルーチン、画像処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、第1取得処理ルーチンにより中央制御部13のCPUを、背景画像P4aと、背景画像P4aに含まれる主要被写体と当該背景画像P4aを撮像した撮像装置との距離を示す背景距離情報(第1距離情報)とを取得する第1取得手段として機能させるようにしても良い。また、第2取得処理ルーチンにより中央制御部13のCPUを、被写体存在画像P1から抽出された主要被写体画像(前景画像)Gと、当該主要被写体画像に含まれる主要被写体と被写体存在画像P1を撮像した撮像装置との距離を示す被写体距離情報(第2距離情報)とを取得する第2取得手段として機能させるようにしても良い。また、比較処理ルーチンにより中央制御部13のCPUを、背景距離情報と被写体距離情報とを比較する比較手段として機能させるようにしても良い。また、画像処理ルーチンにより中央制御部13のCPUを、背景距離情報と被写体距離情報との比較結果に基づいて、背景画像P4a及び主要被写体画像Gの少なくとも一方に所定の画像処理を施す処理手段として機能させるようにしても良い。また、合成処理ルーチンにより中央制御部13のCPUを、所定の画像処理が少なくとも一方に施された背景画像P4bと主要被写体画像Gとを合成する合成手段として機能させるようにしても良い。
In addition, in the above embodiment, the
That is, a program including a first acquisition processing routine, a second acquisition processing routine, a comparison processing routine, an image processing routine, and a synthesis processing routine is stored in a program memory (not shown) that stores the program. Then, by the first acquisition processing routine, the CPU of the
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
8 画像処理部
8a 切り抜き画像生成部
8b 距離算出部
8c 取得部
8d 距離差算出部
8e 平滑化処理部
8g 合成部
13 中央制御部
P1 被写体存在画像
P4a、P4b 背景画像
G 主要被写体画像
DESCRIPTION OF
Claims (8)
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段と、
前記第1距離情報と前記第2距離情報とを比較する比較手段と、
この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段と、
この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段と、
を備えたことを特徴とする画像合成装置。 First acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
Second acquisition means for acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that has captured the foreground image;
A comparing means for comparing the first distance information and the second distance information;
Processing means for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result by the comparison means;
Synthesizing means for synthesizing the background image and the foreground image on which at least one of the predetermined image processing has been performed by the processing means;
An image composition device comprising:
前記第1距離情報と前記第2距離情報とを比較して、前記背景画像と前記前景画像との距離差を算出する算出手段を備え、
前記処理手段は、前記算出手段により算出された前記距離差に応じて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施すことを特徴とする請求項1に記載の画像合成装置。 The comparison means includes
A calculation means for comparing the first distance information and the second distance information to calculate a distance difference between the background image and the foreground image;
The image synthesizing apparatus according to claim 1, wherein the processing unit performs predetermined image processing on at least one of the background image and the foreground image according to the distance difference calculated by the calculation unit. .
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得ステップと、
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得ステップと、
前記第1距離情報と前記第2距離情報とを比較する比較ステップと、
この比較ステップによる比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理ステップと、
この処理ステップによって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成ステップと、
を含むことを特徴とする画像合成方法。 An image composition method of an image composition device for compositing images,
A first acquisition step of acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
A second acquisition step of acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that captured the foreground image;
A comparison step of comparing the first distance information and the second distance information;
A processing step for performing a predetermined image processing on at least one of the background image and the foreground image based on the comparison result of the comparison step;
A synthesis step of synthesizing the background image and the foreground image subjected to the predetermined image processing on at least one of the processing steps;
An image composition method comprising:
背景画像と、当該背景画像に含まれる主要被写体と当該背景画像を撮像した撮像装置との距離を示す第1距離情報とを取得する第1取得手段、
前景画像と、当該前景画像に含まれる主要被写体と当該前景画像を撮像した撮像装置との距離を示す第2距離情報とを取得する第2取得手段、
前記第1距離情報と前記第2距離情報とを比較する比較手段、
この比較手段による比較結果に基づいて、前記背景画像及び前記前景画像の少なくとも一方に所定の画像処理を施す処理手段、
この処理手段によって前記所定の画像処理が少なくとも一方に施された前記背景画像と前記前景画像とを合成する合成手段、
として機能させることを特徴とするプログラム。 The computer of the image synthesizer
First acquisition means for acquiring a background image and first distance information indicating a distance between a main subject included in the background image and an imaging device that captured the background image;
Second acquisition means for acquiring a foreground image and second distance information indicating a distance between a main subject included in the foreground image and an imaging device that captured the foreground image;
A comparing means for comparing the first distance information and the second distance information;
Processing means for performing predetermined image processing on at least one of the background image and the foreground image based on the comparison result by the comparison means;
Synthesis means for synthesizing the background image and the foreground image on which at least one of the predetermined image processing has been performed by the processing means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009128488A JP2010278701A (en) | 2009-05-28 | 2009-05-28 | Image combining device, and image combining method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009128488A JP2010278701A (en) | 2009-05-28 | 2009-05-28 | Image combining device, and image combining method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010278701A true JP2010278701A (en) | 2010-12-09 |
JP2010278701A5 JP2010278701A5 (en) | 2012-07-05 |
Family
ID=43425256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009128488A Pending JP2010278701A (en) | 2009-05-28 | 2009-05-28 | Image combining device, and image combining method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010278701A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012111232A1 (en) * | 2011-02-16 | 2012-08-23 | オリンパス株式会社 | Image processor, image processing method, image processing program, and imaging device |
JP2016082328A (en) * | 2014-10-14 | 2016-05-16 | 日本放送協会 | Image composition device and program for the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0832855A (en) * | 1994-07-11 | 1996-02-02 | Fuji Photo Film Co Ltd | Electronic still camera, image synthesizer and image extract device |
JP2009110137A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Image processor, image processing method, and image processing program |
-
2009
- 2009-05-28 JP JP2009128488A patent/JP2010278701A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0832855A (en) * | 1994-07-11 | 1996-02-02 | Fuji Photo Film Co Ltd | Electronic still camera, image synthesizer and image extract device |
JP2009110137A (en) * | 2007-10-29 | 2009-05-21 | Ricoh Co Ltd | Image processor, image processing method, and image processing program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012111232A1 (en) * | 2011-02-16 | 2012-08-23 | オリンパス株式会社 | Image processor, image processing method, image processing program, and imaging device |
JP2012170006A (en) * | 2011-02-16 | 2012-09-06 | Olympus Corp | Image processing device, image processing method, image processing program, and imaging device |
US9167135B2 (en) | 2011-02-16 | 2015-10-20 | Olympus Corporation | Image processing device, image processing method, photographic imaging apparatus, and recording device recording image processing program |
JP2016082328A (en) * | 2014-10-14 | 2016-05-16 | 日本放送協会 | Image composition device and program for the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5051156B2 (en) | Image processing apparatus and program | |
JP5359856B2 (en) | Image composition apparatus, image composition method, and program | |
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP5105550B2 (en) | Image composition apparatus and program | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
JP5504990B2 (en) | Imaging apparatus, image processing apparatus, and program | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP2011066827A (en) | Image processing apparatus, image processing method and program | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5476900B2 (en) | Image composition apparatus, image composition method, and program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP2010233001A (en) | Image compositing apparatus, image reproducing apparatus, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP5381207B2 (en) | Image composition apparatus and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP5354059B2 (en) | Imaging apparatus, image processing method, and program | |
JP2011135619A (en) | Image processing apparatus and program | |
JP2011175663A (en) | Imaging device, image processing method, and program | |
JP2012009980A (en) | Image processing apparatus, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120523 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120523 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131001 |