JP2012054798A - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP2012054798A JP2012054798A JP2010196369A JP2010196369A JP2012054798A JP 2012054798 A JP2012054798 A JP 2012054798A JP 2010196369 A JP2010196369 A JP 2010196369A JP 2010196369 A JP2010196369 A JP 2010196369A JP 2012054798 A JP2012054798 A JP 2012054798A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- images
- unit
- cutout
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program.
近年、画像データやその他のデータのファイルの内容を簡易的にユーザに知らせるため、サムネイル画像の表示を行うものがある(例えば、特許文献1参照)。 In recent years, in order to simply inform the user of the contents of image data and other data files, thumbnail images are displayed (for example, see Patent Document 1).
しかしながら、パーソナルコンピュータのOS(Operating System)やアプリケーションに対応していないファイルは、サムネイル画像の表示を行うことはできない。また、新しい画像データのファイルフォーマットとして複数のJPEGデータを一つの組とし、一ファイルとして扱うことができるMPF(Multi Picture Format)規格が規定されたが、この場合、複数のJPEGデータには夫々サムネイル画像が存在するため、MPFの代表画像としてのサムネイル画像がどれになるのか規定する方法が無く、またサムネイル画像の表示には専用のアプリケーションを利用しなければならないといった問題がある。 However, thumbnail images cannot be displayed for files that are not compatible with the OS (Operating System) and applications of personal computers. In addition, the MPF (Multi Picture Format) standard that allows a plurality of JPEG data as one set and be handled as one file is defined as a new image data file format. In this case, each of the plurality of JPEG data has a thumbnail. Since images exist, there is no method for defining which thumbnail image is the representative image of MPF, and there is a problem that a dedicated application must be used for displaying thumbnail images.
そこで、本願発明は、上記問題点に鑑みてなされたものであり、複数の被写体合成画像を代表する代表画像の表示を適正に行うことができる画像処理装置及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus and program capable of appropriately displaying a representative image representing a plurality of subject composite images. .
上記課題を解決するため、請求項1に記載の発明は、連続して撮像された背景内に被写体が存在する複数の被写体存在画像から被写体が含まれる被写体領域が抽出された複数の被写体切り抜き画像を取得する取得手段と、この取得手段により取得された前記複数の被写体切り抜き画像の前記被写体領域の被写体画像と所定の背景画像とを合成して複数の被写体合成画像を生成する合成手段と、前記複数の被写体切り抜き画像の中で、前記合成手段により生成される前記複数の被写体合成画像を代表する代表画像の生成に用いられる被写体切り抜き画像を所定条件に基づいて特定する特定手段と、この特定手段により特定された前記被写体切り抜き画像の識別用情報と、前記取得手段により取得された前記複数の被写体切り抜き画像と、前記所定の背景画像と、前記代表画像の生成指示とを対応付けて記録媒体に記録させる記録制御手段と、を備えたことを特徴としている。
In order to solve the above-described problem, the invention according to
請求項2に記載の発明は、請求項1に記載の発明において、前記識別用情報と、前記複数の被写体切り抜き画像と、前記所定の背景画像とを含む一の画像ファイルを生成するファイル生成手段を備え、前記記録制御手段は、前記ファイル生成手段により生成された前記一の画像ファイルを前記記録媒体に記録させることを特徴としている。 According to a second aspect of the present invention, in the first aspect of the present invention, a file generation unit that generates one image file including the identification information, the plurality of subject cut-out images, and the predetermined background image. The recording control means records the one image file generated by the file generating means on the recording medium.
請求項3に記載の発明は、請求項1又は2に記載の発明において、前記代表画像は、前記特定手段により特定された前記被写体切り抜き画像の前記被写体画像と前記所定の背景画像とを合成して生成された被写体合成画像を所定の比率で縮小した縮小画像であることを特徴としている。 According to a third aspect of the present invention, in the invention according to the first or second aspect, the representative image is obtained by combining the subject image of the subject cut-out image specified by the specifying unit and the predetermined background image. The subject composite image generated in this manner is a reduced image reduced by a predetermined ratio.
請求項4に記載の発明は、請求項3に記載の発明において、前記特定手段は、前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の中で、最初に撮像された被写体存在画像に対応する被写体切り抜き画像を特定することを特徴としている。 According to a fourth aspect of the present invention, in the invention according to the third aspect, the specifying unit is configured to extract the plurality of subject cut-out images acquired by the acquisition unit as subject cut-out images used for generating the reduced image. Among them, a subject cut-out image corresponding to a subject existing image picked up first is specified.
請求項5に記載の発明は、請求項3に記載の発明において、前記特定手段は、前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の全てを特定するか、或いは、前記複数の被写体切り抜き画像の中で、撮像タイミングが所定の間隔ずつ空けられた複数の被写体存在画像に対応する被写体切り抜き画像をそれぞれ特定することを特徴としている。 According to a fifth aspect of the present invention, in the third aspect of the invention, the specifying unit is configured to extract the plurality of subject cut-out images acquired by the acquisition unit as subject cut-out images used for generating the reduced image. It is characterized in that all are specified, or among the plurality of subject cutout images, subject cutout images corresponding to a plurality of subject existing images whose imaging timings are separated by a predetermined interval are specified.
請求項6に記載の発明は、請求項3に記載の発明において、前記特定手段は、前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の中で、一の被写体切り抜き画像と、当該一の被写体切り抜き画像に基づく第1縮小画像の表示後に新たに表示される第2縮小画像の生成に用いられる前記一の被写体切り抜き画像と異なる被写体切り抜き画像と、を特定することを特徴としている。 According to a sixth aspect of the present invention, in the third aspect of the invention, the specifying unit is configured to extract the plurality of subject cut-out images acquired by the acquisition unit as subject cut-out images used for generating the reduced image. Among them, a subject cutout image different from the one subject cutout image used for generating a second reduced image that is newly displayed after the display of the one subject cutout image and the first reduced image based on the one subject cutout image. It is characterized by specifying.
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の発明において、前記複数の被写体存在画像を撮像する撮像手段と、この撮像手段により撮像された前記複数の被写体存在画像から被写体領域をそれぞれ抽出する抽出手段と、この抽出手段により抽出された前記被写体領域の被写体画像の各々と所定の単一色の背景画像とを合成して複数の被写体切り抜き画像を生成する切り抜き画像生成手段と、を更に備え、前記取得手段は、前記切り抜き画像生成手段により生成された前記複数の被写体切り抜き画像を取得することを特徴としている。
The invention according to
請求項8に記載の発明は、画像処理装置のコンピュータを、連続して撮像された背景内に被写体が存在する複数の被写体存在画像から被写体が含まれる被写体領域が抽出された複数の被写体切り抜き画像を取得する取得手段、この取得手段により取得された前記複数の被写体切り抜き画像の前記被写体領域の被写体画像と所定の背景画像とを合成して複数の被写体合成画像を生成する合成手段、前記複数の被写体切り抜き画像の中で、前記合成手段により生成される前記複数の被写体合成画像を代表する代表画像の生成に用いられる被写体切り抜き画像を所定条件に基づいて特定する特定手段、この特定手段により特定された前記被写体切り抜き画像の識別用情報と、前記取得手段により取得された前記複数の被写体切り抜き画像と、前記所定の背景画像と、前記代表画像の生成指示とを対応付けて記録媒体に記録させる記録制御手段、として機能させることを特徴としている。 According to an eighth aspect of the present invention, a computer of an image processing apparatus causes a plurality of subject cut-out images obtained by extracting subject areas including a subject from a plurality of subject-existing images in which the subject is present in a continuously captured background. Obtaining means for obtaining a plurality of subject synthesized images by synthesizing a subject image of the subject area of the plurality of subject cut-out images obtained by the obtaining means and a predetermined background image; A specifying means for specifying a subject cut-out image used for generating a representative image representing the plurality of subject composite images generated by the combining means among the subject cut-out images based on a predetermined condition. The subject clipped image identification information, the plurality of subject clipped images acquired by the acquisition means, And background image, is characterized in that to said recording control means for recording on a recording medium in association with the generation instruction representative image functions as a.
本発明によれば、複数の被写体合成画像を代表する代表画像の表示を適正に行うことができる。 According to the present invention, it is possible to appropriately display a representative image representing a plurality of subject composite images.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
本実施形態の撮像装置100は、主要被写体を非透過領域それ以外を透過領域とした複数の画像(以下被写体切り抜き画像と称す)と一つの他の画像とを合成して順次生成される複数の合成画像について、これらを代表する代表画像の生成に用いられる被写体切り抜き画像を所定条件に基づいて特定する。そして、この特定された被写体切り抜き画像の識別用情報と、複数の被写体切り抜き画像と、上記他の画像としての所定の背景画像と、代表画像の生成指示とを対応付けて一つのファイルとして記録媒体Mに記録させる。
本実施形態の撮像装置100は、図1に示すように、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、特徴量演算部5と、ブロックマッチング部6と、画像処理部7と、ファイル生成部8と、記録制御部9と、表示制御部10と、表示部11と、操作入力部12と、中央制御部13とを備えている。
The
As illustrated in FIG. 1, the
撮像部1は、撮像手段として、背景内に存在する被写体Sを順次撮像して画像データを生成する。具体的には、撮像部1は、レンズ部1aと、電子撮像部1bとを備えている。
レンズ部1aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部1bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部1は、レンズ部1aを通過する光の量を調整する絞りを備えていても良い。
The
The
The
In addition, although illustration is abbreviate | omitted, the
撮像制御部2は、撮像部1による被写体Sの撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部1bを走査駆動して、所定周期毎に光学像を電子撮像部1bにより二次元の画像信号に変換させ、当該電子撮像部1bの撮像領域から1画面分ずつ読み出して画像データ生成部3に出力させる。
このように、撮像部1及び撮像制御部2は、背景内に存在する被写体Sを連続して撮像して画像Pa1〜Pan(nは自然数;図4(a)〜図4(e)等参照)を逐次生成する。なお、画像Pa1〜Panは、複数の静止画像であっても良いし、動画像を構成する複数の画像フレームであっても良い。
また、撮像部1及び撮像制御部2は、画像Pa1〜Panの撮像後、今度は被写体Sが存在しない状態で且つ当該画像Pa1〜Panの撮像の際の撮像条件と撮影画角を固定した状態で再度一回撮影し、画像Pa1〜Panと再度撮影された画像とを後述の特徴点抽出処理やブロックマッチング処理を介して差分を求め、被写体切り抜き画像Pb1〜Pbn(図5(a)〜図5(e)参照)を生成する。
The
As described above, the
In addition, the
また、撮像制御部2は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体Sを撮像する際の条件の調整制御を行っても良い。
In addition, the
画像データ生成部3は、電子撮像部1bから転送された画像データのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a memory 4 used as a buffer memory via a DMA controller (not shown).
メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部7、ファイル生成部8、中央制御部13等によって処理されるデータ等を一時記憶する。
The memory 4 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the
特徴量演算部5は、上記再度撮影された画像を基準として、当該画像から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部5は、例えば、上記再度撮影された画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The feature
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.
ブロックマッチング部6は、被写体切り抜き画像Pb1〜Pbnを生成する際に、上記再度撮影された画像と画像Pa1〜Panの位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部6は、特徴抽出処理にて抽出されたテンプレートが各画像Pa1〜Panの一つの内のどこに対応するか、つまり、画像Pa1〜Panの一つ、例えば、画像Pa1内にてテンプレートの画素値が上記再度撮影された画像と最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった、上記再度撮影された画像と画像Pa1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
尚、同様の処理は、連続撮影された他の画像Pa2〜Panについても実行される。
When generating the subject cutout images Pb1 to Pbn, the
Note that the same processing is executed for the other images Pa2 to Pan that are continuously shot.
画像処理部7は、位置合わせ部7aと、被写体領域抽出部7bと、位置情報生成部7cと、切抜画像生成部7dと、画像取得部7eと、画像合成部7fと、画像特定部7gと、縮小画像生成部7hとを具備している。
The
位置合わせ部7aは、画像Pa1と上記再度撮影された画像との位置合わせを行う
即ち、位置合わせ部7aは、画像Pa1について上記再度撮影された画像と位置合わせを行う。具体的には、位置合わせ部7aは、被写体非存在画像から抽出した特徴点に基づいて、上記再度撮影された画像に対する画像Pa1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って画像Pa1を座標変換して上記再度撮影された画像と位置合わせを行う。
尚、同様の処理は、連続撮影された他の画像Pa2〜Panについても実行される。
The
Note that the same processing is executed for the other images Pa2 to Pan that are continuously shot.
被写体領域抽出部7bは、画像Pa1〜Panの各画像から被写体Sが含まれる被写体領域を抽出する。
即ち、被写体領域抽出部7bは、連続して撮像された複数の画像Pa1〜Panの各々から上記再度撮影された画像との差分として主要被写体Sが含まれる被写体領域を抽出する。具体的には、例えば、被写体領域抽出部7bは、位置合わせ部7aにより位置合わせされた画像Pa1と上記再度撮影された画像との間で対応する各画素の差分情報を生成し、当該差分情報を基準として画像Pa1から主要被写体Sが含まれる被写体領域を抽出する。
ここで、被写体領域抽出部7bは、撮像部1により撮像された複数の画像Pa1〜Panから被写体領域をそれぞれ抽出する抽出手段を構成している。
The subject
In other words, the subject
Here, the subject
位置情報生成部7cは、画像Pa1〜Panにおける被写体領域の位置を示す位置情報を生成する。
即ち、位置情報生成部7cは、連続して撮像された複数の画像Pa1〜Panの各々における主要被写体Sの被写体領域の位置を示す位置情報を生成する。具体的には、例えば、位置情報生成部7cは、画像Pa1内で抽出された被写体領域の位置を特定して、画像Pa1における主要被写体Sの被写体領域の位置を示す位置情報を生成する。
ここで、位置情報としては、例えば、アルファマップにおける画素の透過度合いが挙げられる。アルファマップとは、画像Pa1の各画素について、被写体領域の画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
尚、同様の処理は、連続撮影された他の画像Pa2〜Panについても実行される。
The position
That is, the position
Here, as the position information, for example, the degree of transmission of pixels in the alpha map can be cited. The alpha map represents the weight when alpha blending the image of the subject area with respect to a predetermined background for each pixel of the image Pa1 as an alpha value (0 ≦ α ≦ 1).
Note that the same processing is executed for the other images Pa2 to Pan that are continuously shot.
切抜画像生成部7dは、主要被写体の被写体切り抜き画像Pbの画像データを生成する。
即ち、切抜画像生成部7dは、連続して撮像された複数の画像Pa1〜Panの各々について、被写体切り抜き画像Pb1〜Pbn(図5(a)〜図5(e)参照)の画像データを生成する。具体的には、例えば、切抜画像生成部7dは、位置情報生成部7cにより生成されたアルファマップに基づいて、画像 Pa1の各画素のうち、アルファ値が1の画素を非透過とし、且つ、アルファ値が0の画素を透過させるように被写体切り抜き画像Pb1の画像データを生成する。
尚、同様の処理は、連続撮影された他の画像Pa2〜Panについても実行される。
The cutout
That is, the cut-out
Note that the same processing is executed for the other images Pa2 to Pan that are continuously shot.
画像取得部7eは、切抜画像生成部7dにより取得された被写体切り抜き画像Pbを取得する。
即ち、画像取得部7eは、連続して撮像された複数の画像Pa1〜Panの各々から切抜画像生成部7dにより生成された被写体切り抜き画像Pb1〜Pbnを取得する。
ここで、画像取得部7eは、連続して撮像された背景内に主要被写体Sが存在する複数の画像Pa1〜Panから被写体Sが含まれる被写体領域が抽出された複数の被写体切り抜き画像Pb1〜Pbnを取得する取得手段を構成している。
The
That is, the
Here, the
画像合成部7fは、被写体切り抜き画像Pbと所定の背景画像Pcとを合成する。即ち、画像合成部7fは、連続して撮像された複数の画像Pa1〜Panの各々から取得された被写体切り抜き画像Pb1〜Pbnの各々と所定の背景画像Pcとを合成して被写体合成画像Pd1〜Pdnを生成する。具体的には、例えば、画像合成部7fは、記録媒体Mからユーザ所望の背景画像Pcを取得して、当該背景画像Pcの各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像Pb1の対応する画素の画素値で上書きし、さらに、背景画像Pcの各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域を切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像Pbを生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像Pbから減算し、それを被写体領域を切り抜いた画像(背景画像×(1−α))と合成する。
尚、同様の処理は、他の切り抜き画像Pb2〜Pbnと背景画像Pcについても実行される。
The
Note that the same processing is executed for the other cut-out images Pb2 to Pbn and the background image Pc.
このように、画像合成部7fは、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnの主要被写体Sが含まれる被写体領域の被写体画像Gと所定の背景画像Pcとを合成して複数の被写体合成画像Pd1〜Pdnを生成する合成手段を構成している。
As described above, the
画像特定部7gは、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnの中で、少なくとも何れか一つを所定条件に基づいて特定する。ここで、所定条件としては、例えば、被写体切り抜き画像Pb1〜Pbnに対応する画像Pa1〜Panの撮像された順序(例えば、n番目等;nは自然数)、当該画像Pa1〜Panの撮像タイミング、サムネイル画像Ps(縮小画像)の表示時間等が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、抽出された被写体画像Gのボケ度合い(例えば、撮像時の手ぶれ度合いや被写体ぶれ度合い等)を特定して、当該ボケ度合いを所定条件としても良い。
また、所定条件は、予めデフォルトとして設定されていても良いし、ユーザによる操作入力部12の所定操作に基づいて入力されて設定されても良い。
The
Further, the predetermined condition may be set as a default in advance, or may be input and set based on a predetermined operation of the
具体的には、画像特定部7gは、連続して撮像された複数の被写体切り抜き画像Pb1〜Pbnの中で、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1(図9(a)参照)をサムネイル画像Ps(縮小画像)の生成に用いられる被写体切り抜き画像Pbとして特定する。
また、画像特定部7gは、サムネイル画像Psの生成に用いられる被写体切り抜き画像Pbを二つ以上特定しても良い。即ち、画像特定部7gは、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnの全てを特定する(図9(a)〜図9(e)等参照)。また、画像特定部7gは、複数の被写体切り抜き画像Pb1〜Pbnの中で、撮像タイミングが所定の間隔ずつ空けられた複数の画像Paに対応する被写体切り抜き画像Pbをそれぞれ特定する。具体的には、画像特定部7gは、連続して撮像された複数の画像Pa1〜Panの中で、例えば、奇数番目や偶数番目といった所定の数式(例えば、2n-1、2n等;nは自然数)を満たす枚数目の被写体存在画像Paに対応する被写体切り抜き画像Pbをそれぞれ特定する。
また、画像特定部7gは、サムネイル画像Psの生成に用いられる被写体切り抜き画像Pbとして、複数の被写体切り抜き画像Pb1〜Pbnの中で、表示タイミングを異ならせて表示される第1サムネイル画像Ps4や第2サムネイル画像Ps5等に係る被写体切り抜き画像Pbを複数特定しても良い。即ち、画像特定部7gは、複数の被写体切り抜き画像Pb1〜Pbnの中で、一の被写体切り抜き画像Pb(例えば、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1;図9(a)参照)と、当該一の被写体切り抜き画像Pbに基づく第1サムネイル画像Ps4(図10(d)参照)の表示後に新たに表示される第2サムネイル画像Ps5(図10(e)参照)の生成に用いられる一の被写体切り抜き画像Pbと異なる被写体切り抜き画像Pb(例えば、最後に撮像された被写体存在画像Panに対応する被写体切り抜き画像Pbn;図9(e)参照)とを特定する。
Specifically, the
Further, the
The
このように、画像特定部7gは、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnの中で、画像合成部7fにより生成される複数の被写体合成画像Pd1〜Pdnを代表する代表画像の生成に用いられる被写体切り抜き画像Pbを所定条件に基づいて特定する特定手段を構成している。
As described above, the
縮小画像生成部7hは、画像合成部7fにより生成された被写体合成画像Pdを所定の比率で縮小してサムネイル画像Ps(縮小画像)を生成する。
即ち、縮小画像生成部7hは、画像合成部7fにより生成される複数の被写体合成画像Pd1〜Pdnを代表する代表画像として、画像特定部7gにより特定された被写体切り抜き画像Pbの被写体画像Gと所定の背景画像Pcとを合成して生成された被写体合成画像Pdを所定の比率で縮小したサムネイル画像Ps(縮小画像)を生成する。例えば、縮小画像生成部7hは、被写体合成画像Pdを水平方向(x軸方向)及び垂直方向(y軸方向)ともに所定の比率で縮小して、サムネイル画像Psを生成する。
なお、縮小画像生成部7hは、被写体合成画像Pdからサムネイル画像Psを生成するようにしたが、サムネイル画像Psの生成方法はこれに限られるものではなく、例えば、最初の被写体切り抜き画像Pb1の被写体画像Gと所定の背景画像Pcのそれぞれの縮小画像を生成した後、これら縮小画像どうしを合成するようにしても良い。
The reduced
In other words, the reduced
The reduced
ファイル生成部8は、画像特定部7gにより特定された被写体切り抜き画像Pbの識別用情報と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像の生成指示とを対応づけて一の画像ファイルFを生成する。
ここで、画像ファイルFのデータ構造について図2を参照して説明する。
The
Here, the data structure of the image file F will be described with reference to FIG.
画像ファイルFは、例えば、図2に示すように、「SOI」及び「EOI」により区分された複数の個別画像を含んで構成されている。具体的には、画像ファイルFは、背景画像Pcと、所定枚数(例えば、n枚)の被写体切り抜き画像Pb1〜Pbnとが所定の格納領域F0〜Fnに格納されている。 For example, as shown in FIG. 2, the image file F includes a plurality of individual images divided by “SOI” and “EOI”. Specifically, in the image file F, a background image Pc and a predetermined number (for example, n) of subject cut-out images Pb1 to Pbn are stored in predetermined storage areas F0 to Fn.
背景画像Pcの格納領域F0には、当該背景画像Pcの画像付属情報と、所定の圧縮形式(例えば、JPEG形式等)で符号化された背景画像Pc自体の画像情報とが格納されている。
背景画像Pcの画像付属情報には、サムネイル画像Psの生成に用いられる被写体切り抜き画像Pbの識別用情報、当該画像ファイルFを構成する所定枚数の被写体切り抜き画像Pb1〜Pbnの画像インデックス情報(複数の画像Pa1〜Panの撮像順序に関する情報を含む)、サムネイル画像Psの生成指示(例えば、サムネイル画像Ps自体の寸法(例えば、VGAサイズ等)に係る情報、合成される被写体切り抜き画像Pb1〜Pbnの背景画像Pcにおける寸法や位置に係る情報、被写体切り抜き画像Pb1〜Pbnと背景画像Pcとのアルファブレンディング(重畳表示)の実行指示に係る情報等)、各被写体切り抜き画像Pb1〜Pbnの開始アドレス(図示略)などの各種情報が含まれている。
ここで、識別用情報は、例えば、一の被写体切り抜き画像Pbに係る情報であっても良いし、複数の被写体切り抜き画像Pb1〜Pbnに係る情報であっても良い。具体的には、識別用情報としては、例えば、画像特定部7gにより特定された最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1に係る情報や、画像特定部7gにより特定された複数の被写体切り抜き画像Pb1〜Pbnに係る情報や、所定の時間間隔を空けて表示される複数のサムネイル画像Ps、…の生成に用いられる被写体切り抜き画像Pb、…に係る情報等が挙げられる。
In the storage area F0 of the background image Pc, image ancillary information of the background image Pc and image information of the background image Pc itself encoded in a predetermined compression format (for example, JPEG format) are stored.
The image ancillary information of the background image Pc includes information for identifying the subject clipped image Pb used to generate the thumbnail image Ps, and image index information of a predetermined number of the subject clipped images Pb1 to Pbn constituting the image file F (a plurality of pieces) Including information regarding the imaging order of the images Pa1 to Pan), information on the generation instruction of the thumbnail image Ps (for example, information related to the size of the thumbnail image Ps itself (for example, VGA size), and the background of the subject cut-out images Pb1 to Pbn to be combined Information related to dimensions and positions in the image Pc, information related to an instruction for executing alpha blending (superimposition display) of the subject cut-out images Pb1 to Pbn and the background image Pc, and the start addresses (not shown) of the subject cut-out images Pb1 to Pbn ) Etc. are included.
Here, the identification information may be, for example, information related to one subject cutout image Pb, or may be information related to a plurality of subject cutout images Pb1 to Pbn. Specifically, as the identification information, for example, information related to the subject cutout image Pb1 corresponding to the first image Pa1 specified by the
1番目の被写体切り抜き画像Pb1の格納領域F1には、当該1番目の被写体切り抜き画像Pb1の画像付属情報と、所定の圧縮形式(例えば、JPEG形式等)で符号化された1番目の被写体切り抜き画像Pb1自体の画像情報とが格納されている。
1番目の被写体切り抜き画像Pb1の画像付属情報には、当該被写体切り抜き画像Pb1に係るアルファマップ、背景画像Pcとの合成などの各種情報が含まれている。
同様に2番目以降の被写体切り抜き画像Pb2〜Pbnの格納領域F2〜Fnについても、1番目の被写体切り抜き画像Pb1の格納領域F1と略同様の構成をなしており、その詳細な説明は省略する。
In the storage area F1 of the first subject cutout image Pb1, the image subject information of the first subject cutout image Pb1 and the first subject cutout image encoded in a predetermined compression format (for example, JPEG format) are stored. The image information of Pb1 itself is stored.
The image attached information of the first subject cutout image Pb1 includes various types of information such as an alpha map related to the subject cutout image Pb1 and synthesis with the background image Pc.
Similarly, the storage areas F2 to Fn of the second and subsequent subject clipped images Pb2 to Pbn have substantially the same configuration as the storage area F1 of the first clipped image Pb1 and will not be described in detail.
このように、ファイル生成部8は、画像特定部7gにより特定された識別用情報と、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像Psの生成指示とを含む一の画像ファイルFを生成するファイル生成手段を構成している。
なお、画像ファイルFは、例えば、カメラ映像機器工業会規格であるマルチピクチャフォーマットに規定されたファイル構造をなしていても良い。
As described above, the
The image file F may have a file structure defined in a multi-picture format, which is a camera video equipment industry association standard, for example.
記録制御部9は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。
具体的には、記録制御部9は、ファイル生成部8により生成された一の画像ファイルF、即ち、切抜画像生成部7dにより生成された複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、識別用情報と、サムネイル画像Psの生成指示とが対応付けられた一の画像ファイルFを記録媒体Mに記録させる。
ここで、記録制御部9は、画像特定部7gにより特定された識別用情報と、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像Ps(代表画像)の生成指示とを対応付けて記録媒体Mに記録させる記録制御手段を構成している。
The recording control unit 9 is configured so that the recording medium M is detachable, and controls reading of data from the loaded recording medium M and writing of data to the recording medium M.
Specifically, the recording control unit 9 includes one image file F generated by the
Here, the recording control unit 9 identifies information for identification specified by the
なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。 The recording medium M is composed of, for example, a non-volatile memory (flash memory) or the like. However, the recording medium M is an example and is not limited to this, and can be arbitrarily changed as appropriate.
表示制御部10は、メモリ4に一時的に記憶されている表示用の画像データを読み出して表示部11に表示させる制御を行う。
具体的には、表示制御部10は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている(何れも図示略)。そして、デジタルビデオエンコーダは、中央制御部13の制御下にてメモリ4から読み出されてVRAMに記録されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部11に出力する。
The
Specifically, the
表示部11は、例えば、液晶表示装置であり、表示制御部10からのビデオ信号に基づいて電子撮像部1b1により撮像された画像などを表示画面に表示する。具体的には、表示部11は、静止画撮像モードや動画撮像モードにて、撮像部1による被写体Sの撮像により生成された複数の画像フレームを所定のフレームレートで逐次更新しながらライブビュー画像を表示する。
The display unit 11 is, for example, a liquid crystal display device, and displays an image captured by the electronic imaging unit 1b1 on the display screen based on a video signal from the
操作入力部12は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部12は、被写体Sの撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定用ボタン、ズーム量の調整指示に係るズームボタン等を備え(何れも図示略)、これらのボタンの操作に応じて所定の操作信号を中央制御部13に出力する。
The
中央制御部13は、撮像装置100の各部を制御するものである。具体的には、中央制御部13は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
次に、撮像装置100による被写体切り抜き処理について、図3〜図5を参照して説明する。
図3は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(e)は、被写体切り抜き処理に係る画像Pa1〜Panの一例を模式的に示す図であり、図5(a)〜図5(e)は、被写体切り抜き処理に係る被写体切り抜き画像Pb1〜Pbnの一例を模式的に示す図である。
Next, the subject clipping process performed by the
FIG. 3 is a flowchart illustrating an example of an operation related to the subject clipping process. FIGS. 4A to 4E are diagrams schematically showing an example of images Pa1 to Pan related to the subject clipping process, and FIGS. 5A to 5E are subject clippings. It is a figure which shows typically an example of the to-be-photographed object image Pb1-Pbn which concerns on a process.
被写体切り抜き処理は、ユーザによる操作入力部12の選択決定用ボタン(図示略)の所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
なお、以下に説明する被写体切り抜き処理にあっては、画像Paとして被写体Sを所定の撮像フレームレートで連続して撮像して複数の画像Pa1〜Panを生成し、当該複数の画像Pa1〜Panから被写体領域が抽出された複数の被写体切り抜き画像Pb1〜Pbnを生成するものとする。
The subject clipping process is performed when a subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of a selection decision button (not shown) of the
In the subject clipping process described below, the subject S is continuously captured as the image Pa at a predetermined imaging frame rate to generate a plurality of images Pa1 to Pan, and the plurality of images Pa1 to Pan are generated. A plurality of subject cutout images Pb1 to Pbn from which subject areas have been extracted are generated.
図2に示すように、先ず、表示制御部10は、撮像部1及び撮像制御部2による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、画像Paの撮像指示メッセージを表示部11の表示画面に表示させる(ステップS1)。
As shown in FIG. 2, first, the
次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタン(図示略)の所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、撮像制御部2は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整して、画像Pa1〜Pan(図4(a)〜図4(e)参照)の光学像を所定の条件で電子撮像部1b1に所定の撮像フレームレートで撮像させて、画像データ生成部3は、電子撮像部1b1から転送された複数の画像Pa1〜Panの各々のYUVデータを生成する(ステップS3)。なお、当該画像PaのYUVデータは、メモリ4に一時記憶される。
また、撮像制御部2は、当該画像Pa1〜Panの撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Next, the
Further, the
そして、表示制御部10は、撮像部1及び撮像制御部2による被写体Sの撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部11の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、何れか一の画像Pa(例えば、最初に撮像された画像Pa1等)の半透過の表示態様の画像と当該被写体Sを撮像画角から除き、撮影画角及び撮影条件を維持したままで再撮影の指示メッセージを表示部11の表示画面に表示させる(ステップS4)。
この後、中央制御部13は、ユーザによる操作入力部12のシャッタボタンの所定操作に基づいて指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体Sが移動するのを待つか、或いは、被写体Sを撮像画角外に移動させた後、ユーザにより画像Paの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部12のシャッタボタンが所定操作されて指示が入力されたと判定されると(ステップS5;YES)、撮像制御部2は、光学像を画像Pa1〜Panの撮像後に固定された条件で電子撮像部1b1に撮像させて、画像データ生成部3は、電子撮像部1b1から転送された画像に基づいて、画像のYUVデータを生成する(ステップS6)。なお、当該画像のYUVデータは、メモリ4に一時記憶される。
Then, the
Thereafter, the
次に、中央制御部13は、特徴量演算部5、ブロックマッチング部6及び画像処理部7に、メモリ4に一時記憶されている画像のYUVデータを基準として、複数の画像Pa1〜Panの各々のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)でそれぞれ算出させる(ステップS7)。
具体的には、特徴量演算部5は、ステップS6にて撮影された画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部6は、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を一の画像Pa(例えば、最初に撮像された一番目の画像Pa1等)内にて探索して、画素値の相違度の評価値が最も良かったステップS6にて撮影された画像と当該画像Pa間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部7の位置合わせ部7aは、ブロックマッチング部6により算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて画像Paの射影変換行列を算出する。
上記の処理が複数の画像Pa1〜Panの各々について行われることで、当該複数の画像Pa1〜Panの各々の射影変換行列が算出される。
Next, the
Specifically, the feature
By performing the above processing for each of the plurality of images Pa1 to Pan, a projective transformation matrix for each of the plurality of images Pa1 to Pan is calculated.
次に、中央制御部13は、位置合わせ部7aに、複数の画像Pa1〜Panの各々を射影変換させる(ステップS8)。具体的には、位置合わせ部7aは、一の画像Pa(例えば、最初に撮像された一番目の画像Pa1等)について算出された射影変換行例に基づいて当該画像Paを射影変換することで、当該画像PaのYUVデータとステップS6にて撮影された画像のYUVデータとを位置合わせする処理を行う。
上記の処理が複数の画像Pa1〜Panの各々について行われることで、当該複数の画像Pa1〜Panの各々が射影変換される。
Next, the
By performing the above processing for each of the plurality of images Pa1 to Pan, each of the plurality of images Pa1 to Pan is projectively transformed.
そして、中央制御部13は、画像処理部7の被写体領域抽出部7bに、複数の画像Pa1〜Panの各々から被写体Sが含まれる被写体領域を抽出する処理を行わせる(ステップS9)。
具体的には、被写体領域抽出部7bは、一の画像Pa(例えば、最初に撮像された一番目の画像Pa1等)のYUVデータとステップS6にて撮影された画像のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部7bは、ローパスフィルタをかけた画像PaとステップS6にて撮影された画像との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部7bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部7bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域として特定し、収縮分を修正するための膨張処理を行う。
上記の処理が複数の画像Pa1〜Panの各々について行われることで、当該複数の画像Pa1〜Panの各々から被写体領域が抽出される。
Then, the
Specifically, the subject
By performing the above processing for each of the plurality of images Pa1 to Pan, a subject area is extracted from each of the plurality of images Pa1 to Pan.
次に、中央制御部13は、画像処理部7の位置情報生成部7cに、複数の画像Pa1〜Pan内での被写体領域の位置を示すアルファマップを生成させる(ステップS10)。
具体的には、位置情報生成部7cは、一の画像Pa(例えば、最初に撮像された一番目の画像Pa1等)内で抽出された被写体領域の位置を特定して、当該画像Paにおける被写体領域の位置を示すアルファマップを生成する。
上記の処理が複数の画像Pa1〜Panの各々について行われることで、当該複数の画像Pa1〜Panについてアルファマップが生成される。
Next, the
Specifically, the position
The above processing is performed for each of the plurality of images Pa1 to Pan, so that an alpha map is generated for the plurality of images Pa1 to Pan.
その後、中央制御部13は、画像処理部7の切抜画像生成部7dに、被写体領域を非透過とした被写体切り抜き画像Pb1〜Pbn(図5(a)〜図5(e)参照)の画像データをそれぞれ生成する処理を行わせる(ステップS11)。
具体的には、切抜画像生成部7dは、一の画像Pa(例えば、最初に撮像された一番目の画像Pa1等)、アルファマップを読み出してメモリ4に展開した後、画像Paの全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が1の画素については(α=1)、透過させないようにする。
上記の処理が複数の画像Pa1〜Panの各々について行われることで、複数の被写体切り抜き画像Pb1〜Pbnが生成される。
Thereafter, the
Specifically, the cut-out
By performing the above processing for each of the plurality of images Pa1 to Pan, a plurality of subject cut-out images Pb1 to Pbn are generated.
その後、記録制御部9は、記録媒体Mの所定の記録領域に、複数の被写体切り抜き画像Pb1〜Pbnの画像データと各アルファマップとを対応付けて一ファイルで記録させる(ステップS12)。
これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から雪上をソリで滑る人が被写体Sとして抽出された複数の被写体切り抜き画像Pb1〜Pbnの画像データが生成される。
Thereafter, the recording control unit 9 records the image data of the plurality of subject cut-out images Pb1 to Pbn and the respective alpha maps in a predetermined recording area of the recording medium M in a single file (step S12).
Thereby, the subject clipping process is completed. As a result, for example, image data of a plurality of subject cutout images Pb1 to Pbn in which a person who slides on a snow with a sled from a predetermined background is extracted as the subject S is generated.
次に、撮像装置100による背景画像生成処理について、図6を参照して説明する。
図6は、背景画像生成処理に係る動作の一例を示すフローチャートである。
背景画像生成処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部12の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
Next, background image generation processing by the
FIG. 6 is a flowchart illustrating an example of an operation related to the background image generation process.
The background image generation process is a normal still image imaging process, and a still image imaging mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button of the
図6に示すように、先ず、表示制御部10は、撮像撮像部1及び撮像制御部2による背景画像Pc(図9(a)等参照)の撮像により生成された複数の画像データに基づいてライブビュー画像を表示部11の表示画面に表示させる(ステップS21)。
As shown in FIG. 6, first, the
次に、中央制御部13は、ユーザによる操作入力部12のシャッタボタンの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、撮像制御部2は、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整して、背景画像Pcの光学像を所定の条件で電子撮像部1b1に撮像させる(ステップS23)。
Next, the
続けて、画像データ生成部3は、電子撮像部1b1から転送された背景画像Pcの画像のYUVデータを生成した後、記録制御部9は、記録媒体Mの所定の記憶領域に、背景画像PcのYUVデータをExif形式の画像ファイルFとして記録させる(ステップS24)。
これにより、背景画像生成処理を終了する。この結果、例えば、大きな木のある草原が記録された背景画像Pcの静止画像データが生成される。
Subsequently, after the image
Thereby, the background image generation process is terminated. As a result, for example, still image data of a background image Pc in which a meadow with large trees is recorded is generated.
次に、画像ファイル生成処理について図7〜図10を参照して詳細に説明する。
図7は、画像ファイル生成処理に係る動作の一例を示すフローチャートである。
画像ファイル生成処理は、ユーザによる操作入力部12の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数のモードの中から画像合成モードが選択指示された場合に実行される処理である。
Next, the image file generation process will be described in detail with reference to FIGS.
FIG. 7 is a flowchart illustrating an example of an operation related to the image file generation process.
The image file generation process is a process executed when an image composition mode is selected from a plurality of modes displayed on the menu screen based on a predetermined operation of the selection determination button of the
図7に示すように、中央制御部13は、先ず、画像処理部7に合成画像生成処理(図8参照)を実行させる。
ここで、合成画像生成処理について図8及び図9を参照して説明する。
図8は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図9(a)〜図9(e)は、被写体合成画像Pd1〜Pdnの一例を模式的に示す図である。
As shown in FIG. 7, the
Here, the composite image generation processing will be described with reference to FIGS.
FIG. 8 is a flowchart illustrating an example of an operation related to the composite image generation process. FIGS. 9A to 9E are diagrams schematically illustrating examples of subject composite images Pd1 to Pdn.
図8に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体Mに記録されている複数の画像の中で合成画像の背景となる所望の背景画像Pc(図9(a)等参照)が選択して指定されると、画像処理部7は、指定された背景画像Pcの画像データを読み出してメモリ4に展開する(ステップS41)。
As shown in FIG. 8, based on a predetermined operation of the
次に、画像合成部7fは、複数の被写体切り抜き画像Pb1〜Pbnのうち、処理対象に係る被写体切り抜き画像Pbの画像番号として「1」を指定すると(ステップS42)、指定された画像番号「1」の被写体切り抜き画像Pb(例えば、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1等)及び当該被写体切り抜き画像Pbと対応付けて保存されているアルファマップを読み出してメモリ4に展開する(ステップS43)。
なお、画像番号は、例えば、画像Pa1〜Panの撮像順に被写体切り抜き画像Pb1〜Pbnに付されているものとする。
Next, when the
Note that the image numbers are assigned to the subject cut-out images Pb1 to Pbn in the order in which the images Pa1 to Pan are captured, for example.
次に、画像合成部7fは、背景画像Pcの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS44)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS45)。具体的には、画像合成部7fは、背景画像Pcの何れか一の画素のうち、アルファ値が1の画素については(ステップS45;α=1)、被写体切り抜き画像Pbの対応する画素の画素値で上書きし(ステップS46)、アルファ値が0の画素については(ステップS45;α=0)、何もせずに背景画像Pcを透過させるようにする。
Next, the
続けて、画像合成部7fは、背景画像Pcの全ての画素について処理したか否かを判定する(ステップS47)。
ここで、全ての画素について処理していないと判定されると(ステップS47;NO)、画像合成部7fは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS48)、処理をステップS45に移行させる。
上記の処理を、ステップS47にて全ての画素について処理したと判定されるまで繰り返すことで、画像合成部7fは、処理対象の被写体切り抜き画像Pbと背景画像Pcとを合成した1番目の被写体合成画像Pd1(図9(a)参照)を生成する。
Subsequently, the
If it is determined that all the pixels have not been processed (step S47; NO), the
By repeating the above processing until it is determined in step S47 that all pixels have been processed, the
そして、ステップS47にて全ての画素について処理したと判定されると(ステップS47;YES)、画像合成部7fは、複数の被写体切り抜き画像Pb1〜Pbnの全ての被写体切り抜き画像Pbについて処理したか否かを判定する(ステップS49)。
ここで、全ての被写体切り抜き画像Pbについて処理していないと判定されると(ステップS49;NO)、画像合成部7fは、複数の被写体切り抜き画像Pb1〜Pbnのうち、処理対象となる次の被写体切り抜き画像Pbに係る画像番号を+1インクリメントして次の画像番号を指定する(ステップS50)。これにより、例えば、2番目の被写体切り抜き画像Pb2が画像合成処理の対象として指定される。
If it is determined in step S47 that all pixels have been processed (step S47; YES), the
If it is determined that all the subject cutout images Pb have not been processed (step S49; NO), the
次に、画像合成部7fは、処理をステップS43に移行させて、背景画像Pcの何れか一の画素(例えば、左上隅部の画素)を指定して、それ以降の処理(ステップS44〜S49)を行うことで、背景画像Pcと2番目の被写体切り抜き画像Pb2とを合成した2番目の被写体合成画像Pd2(図9(b)参照)を生成する。
そして、2番目の被写体合成画像Pd2の生成が完了することによって、ステップS48にて全ての画素について処理したと判定されると(ステップS47;YES)、画像合成部7fは、複数の被写体切り抜き画像Pb1〜Pbnの全ての被写体切り抜き画像Pbについて処理したか否かを判定する(ステップS49)。
上記の処理を、全ての被写体切り抜き画像Pbについて処理したと判定されるまで(ステップS49;YES)、繰り返すことで、画像合成部7fは、複数の被写体合成画像Pd1〜Pdn(図9(a)〜図9(e)参照)を生成し、合成画像生成処理を終了させる。
Next, the
When the generation of the second subject composite image Pd2 is completed and it is determined in step S48 that all pixels have been processed (step S47; YES), the
By repeating the above process until it is determined that all the subject cutout images Pb have been processed (step S49; YES), the
図7に示すように、次に、画像特定部7gは、複数の被写体切り抜き画像Pb1〜Pbnの中で、サムネイル画像Psの生成に用いられる被写体切り抜き画像Pbを特定する(ステップS32)。
具体的には、画像特定部7gは、例えば、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1(図5(a)参照)をサムネイル画像Psの生成に用いられる被写体切り抜き画像Pbとして特定する。また、例えば、画像特定部7gは、画像取得部7eにより取得された複数の被写体切り抜き画像Pb1〜Pbnの全てを特定したり、或いは、撮像タイミングが所定の間隔ずつ空けられた複数の画像Pa、…に対応する被写体切り抜き画像Pb、…(例えば、奇数番目の被写体切り抜き画像Pb1、Pb3;図5(a)、図5(c)等参照)をそれぞれ特定する。また、例えば、画像特定部7gは、表示タイミングを異ならせて表示される第1サムネイル画像Ps4や第2サムネイル画像Ps5等に係る被写体切り抜き画像Pb(例えば、最初と最後の被写体切り抜き画像Pb1、Pbn;図5(a)、図5(e)等参照)をそれぞれ特定する。
As shown in FIG. 7, next, the
Specifically, for example, the
続けて、ファイル生成部8は、画像特定部7gにより特定された被写体切り抜き画像Pbの識別用情報(例えば、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1等)と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像Psの生成指示とを対応づけて一の画像ファイルFを生成する(ステップS33)。
その後、記録制御部9は、ファイル生成部8により生成された一の画像ファイルF、即ち、切抜画像生成部7dにより生成された複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、識別用情報と、サムネイル画像Psの生成指示とが対応付けられた一の画像ファイルFを記録媒体Mに記録させて(ステップS34)、画像ファイル生成処理を終了する。
Subsequently, the
Thereafter, the recording control unit 9 includes one image file F generated by the
以上のように、本実施形態の撮像装置100によれば、複数の被写体切り抜き画像Pb1〜Pbnの中で、複数の被写体合成画像Pd1〜Pdnを代表する代表画像(例えば、サムネイル画像)の生成に用いられる被写体切り抜き画像Pbを所定条件に基づいて特定し、特定された被写体切り抜き画像Pbの識別用情報と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、代表画像(サムネイル画像Ps)の生成指示とを対応付けて記録媒体Mに記録させるので、当該撮像装置100以外の他の外部機器(図示略)を用いて、専用のアプリケーションなどを必要とすることなく複数の被写体合成画像Pd1〜Pdnを代表する代表画像の表示を適正に行うことができる。即ち、代表画像の生成に用いられる被写体切り抜き画像Pbの識別用情報を用いて、当該被写体切り抜き画像Pbと背景画像Pcとを合成した被写体合成画像Pdの代表画像Psを外部機器の表示部に表示させることができる。
As described above, according to the
具体的には、代表画像の生成に用いられる被写体切り抜き画像Pbの識別用情報と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、代表画像の生成指示とを含む一の画像ファイルFを生成するので、画像ファイルFの取り扱いの自由度を高めることができ、これにより、当該画像ファイルF自体を外部機器に転送し当該外部機器を用いて、複数の被写体合成画像Pd1〜Pdnを代表する代表画像の表示を適正に行うことができる。 Specifically, one image including information for identifying the subject cutout image Pb used for generating the representative image, a plurality of subject cutout images Pb1 to Pbn, a predetermined background image Pc, and a representative image generation instruction Since the file F is generated, the degree of freedom in handling the image file F can be increased, whereby the image file F itself is transferred to an external device, and a plurality of subject composite images Pd1 to Pdn are used by using the external device. It is possible to appropriately display a representative image representing the.
また、代表画像の生成に用いられる被写体切り抜き画像Pbとして、複数の被写体切り抜き画像Pb1〜Pbnの中で、最初に撮像された画像Pa1に対応する被写体切り抜き画像Pb1が特定されることで、最初の被写体切り抜き画像Pb1の被写体画像Gと所定の背景画像Pcとが合成された被写体合成画像Pd1のサムネイル画像Ps1(図10(a)参照)を生成して外部機器に表示させることができる。 Further, as the subject cutout image Pb used for generating the representative image, the subject cutout image Pb1 corresponding to the first image Pa1 picked up among the plurality of subject cutout images Pb1 to Pbn is specified, so that the first A thumbnail image Ps1 (see FIG. 10A) of the subject composite image Pd1 in which the subject image G of the subject cutout image Pb1 and the predetermined background image Pc are combined can be generated and displayed on an external device.
また、代表画像の生成に用いられる被写体切り抜き画像Pbとして、複数の被写体切り抜き画像Pb1〜Pbnの全てが特定されることで、複数の被写体切り抜き画像Pb1〜Pbnの全ての被写体画像Gと所定の背景画像Pcとが合成された被写体合成画像Pdのサムネイル画像Ps2(図10(b)参照)を生成して外部機器に表示させることができる。さらに、代表画像の生成に用いられる被写体切り抜き画像Pbとして複数の被写体切り抜き画像Pb1〜Pbnの中で、撮像タイミングが所定の間隔ずつ空けられた複数の被写体切り抜き画像Pb、…が特定されることで、当該複数の被写体切り抜き画像Pb、…の全ての被写体画像Gと所定の背景画像Pcとが合成された被写体合成画像Pdのサムネイル画像Ps3(図10(c)参照)を生成して外部機器に表示させることができる。
なお、複数の被写体切り抜き画像Pb、…を所定の背景画像Pcと合成する場合には、撮像タイミングがより新しい画像Paに対応する被写体切り抜き画像Pbが手前側に表示される(図10(b)等参照)。
Also, by specifying all of the plurality of subject cutout images Pb1 to Pbn as the subject cutout image Pb used for generating the representative image, all the subject images G and the predetermined background of the plurality of subject cutout images Pb1 to Pbn are specified. A thumbnail image Ps2 (see FIG. 10B) of the subject composite image Pd combined with the image Pc can be generated and displayed on the external device. Further, by specifying a plurality of subject cut images Pb,... With imaging timings spaced by a predetermined interval among the plurality of subject cut images Pb1 to Pbn as the subject cut images Pb used for generating the representative image. A thumbnail image Ps3 (see FIG. 10C) of the subject composite image Pd in which all the subject images G of the plurality of subject cut-out images Pb,... And the predetermined background image Pc are combined and generated in the external device. Can be displayed.
When a plurality of subject cutout images Pb,... Are combined with a predetermined background image Pc, a subject cutout image Pb corresponding to an image Pa with a newer imaging timing is displayed on the front side (FIG. 10B). Etc.).
また、代表画像の生成に用いられる被写体切り抜き画像Pbとして、複数の被写体切り抜き画像Pb1〜Pbnの中で、一の被写体切り抜き画像Pb(例えば、最初の被写体切り抜き画像Pb1等)と、当該一の被写体切り抜き画像Pbに基づく第1サムネイル画像の表示後に新たに表示される第2サムネイル画像の生成に用いられる一の被写体切り抜き画像と異なる被写体切り抜き画像(例えば、最後の被写体切り抜き画像Pbn等)とが特定されることで、一の被写体切り抜き画像Pbの被写体画像Gと所定の背景画像Pcとが合成された被写体合成画像Pdの第1サムネイル画像Ps4(図10(d)参照)や、例えば、当該第1サムネイル画像Ps4の表示後に所定時間の経過やユーザからの他のサムネイル画像Psの表示指示に基づいて、一の被写体切り抜き画像Pbと異なる被写体切り抜き画像Pbの被写体画像Gと所定の背景画像Pcとが合成された被写体合成画像Pdの第2サムネイル画像Ps5(図10(e)参照)等を生成して外部機器に表示させることができる。 Further, as the subject cutout image Pb used for generating the representative image, among the plurality of subject cutout images Pb1 to Pbn, one subject cutout image Pb (for example, the first subject cutout image Pb1) and the one subject A subject cut-out image (for example, the last subject cut-out image Pbn, etc.) that is different from one subject cut-out image used to generate a second thumbnail image that is newly displayed after the display of the first thumbnail image based on the cut-out image Pb is specified As a result, the first thumbnail image Ps4 (see FIG. 10D) of the subject composite image Pd in which the subject image G of the one subject cutout image Pb and the predetermined background image Pc are combined, for example, the first Based on the elapse of a predetermined time after the display of one thumbnail image Ps4 and the display instruction of another thumbnail image Ps from the user, a subject different from the one subject cutout image Pb A second thumbnail image Ps5 (see FIG. 10E) of the subject composite image Pd in which the subject image G of the body cutout image Pb and a predetermined background image Pc are combined can be generated and displayed on an external device. .
また、複数の画像Pa1〜Panを撮像して、当該複数の画像Pa1〜Panから被写体領域をそれぞれ抽出し、抽出された被写体領域の被写体画像Gの各々と所定の単一色の背景画像とを合成して複数の被写体切り抜き画像Pb1〜Pbnを生成するので、当該撮像装置100を用いて生成された複数の被写体切り抜き画像の中で、複数の被写体合成画像Pd1〜Pdnを代表する代表画像の生成に用いられる被写体切り抜き画像Pbを所定条件に基づいて特定することができる。そして、特定された被写体切り抜き画像Pbの識別用情報と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像Psの生成指示とを対応付けて記録媒体Mに記録させておくので、代表画像の生成に用いられる被写体切り抜き画像Pbの識別用情報を用いて、当該被写体切り抜き画像Pbと背景画像Pcとを合成した被写体合成画像Pdの代表画像Psを外部機器の表示部に表示させることができる。
In addition, a plurality of images Pa1 to Pan are captured, subject areas are extracted from the plurality of images Pa1 to Pan, and each of the subject images G of the extracted subject areas is synthesized with a predetermined single color background image. Thus, a plurality of subject clipped images Pb1 to Pbn are generated, so that a representative image representative of the plurality of subject composite images Pd1 to Pdn among the plurality of subject clipped images generated using the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、複数の被写体合成画像Pd1〜Pdnを代表する代表画像として、所定の被写体合成画像Pdを所定の比率で縮小したサムネイル画像Psを例示したが、一例であってこれに限られるものではなく、代表画像の寸法などは適宜任意に変更可能である。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, as a representative image representing the plurality of subject composite images Pd1 to Pdn, the thumbnail image Ps obtained by reducing the predetermined subject composite image Pd at a predetermined ratio is illustrated, but the example is not limited thereto. The dimensions and the like of the representative image can be arbitrarily changed as appropriate.
さらに、上記実施形態にあっては、ファイル生成部8により生成された画像ファイルFを記録媒体Mに記録させるようにしたが、これに限られるものではなく、画像特定部7gにより特定された被写体切り抜き画像Pbの識別用情報と、複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、サムネイル画像Psの生成指示とを対応付けて記録媒体Mに記録させる構成であれば如何なる構成であっても良い。
Furthermore, in the above embodiment, the image file F generated by the
また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。例えば、被写体切り抜き画像Pbは、当該撮像装置100とは異なる外部装置(図示略)で生成し、外部装置から所定の通信回線を介して送信されることで当該撮像装置100が取得して画像ファイル生成処理を実行する構成としても良い。
さらに、被写体切り抜き画像Pbの生成方法、即ち、被写体領域の抽出方法として例示したものは一例であってこれに限られるものではなく、適宜任意に変更可能である。
In addition, the configuration of the
Furthermore, the method for generating the subject cutout image Pb, that is, the method for extracting the subject region is merely an example, and the present invention is not limited to this, and can be arbitrarily changed as appropriate.
加えて、上記実施形態にあっては、取得手段、合成手段、特定手段、記録制御手段としての機能を、中央制御部13の制御下にて、画像取得部7e、画像合成部7f、画像特定部7g、記録制御部9が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、合成処理ルーチン、特定処理ルーチン、記録制御ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部13のCPUを、連続して撮像された背景内に被写体Sが存在する複数の画像Pa1〜Panから被写体Sが含まれる被写体領域が抽出された複数の被写体切り抜き画像Pb1〜Pbnを取得する取得手段として機能させるようにしても良い。また、合成処理ルーチンにより中央制御部13のCPUを、取得手段により取得された複数の被写体切り抜き画像Pb1〜Pbnの被写体領域の被写体画像Gと所定の背景画像Pcとを合成して複数の被写体合成画像Pd1〜Pdnを生成する合成手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部13のCPUを、複数の被写体切り抜き画像Pb1〜Pbnの中で、合成手段により生成される複数の被写体合成画像Pd1〜Pdnを代表する代表画像の生成に用いられる被写体切り抜き画像Pbを所定条件に基づいて特定する特定手段として機能させるようにしても良い。また、記録制御処理ルーチンにより中央制御部13のCPUを、特定手段により特定された被写体切り抜き画像Pbの識別用情報と、取得手段により取得された複数の被写体切り抜き画像Pb1〜Pbnと、所定の背景画像Pcと、代表画像の生成指示とを対応付けて記録媒体Mに記録させる記録制御手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the acquisition unit, the synthesis unit, the identification unit, and the recording control unit are controlled under the control of the
That is, a program memory (not shown) that stores a program stores a program including an acquisition processing routine, a synthesis processing routine, a specific processing routine, and a recording control routine. Then, by the acquisition processing routine, the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
100 撮像装置
1 撮像部
7 画像処理部
7b 被写体領域抽出部
7d 切抜画像生成部
7e 画像取得部
7f 画像合成部
7g 画像特定部
8 ファイル生成部
9 記録制御部
10 表示制御部
11 表示部
M 記録媒体
DESCRIPTION OF
Claims (8)
この取得手段により取得された前記複数の被写体切り抜き画像の前記被写体領域の被写体画像と所定の背景画像とを合成して複数の被写体合成画像を生成する合成手段と、
前記複数の被写体切り抜き画像の中で、前記合成手段により生成される前記複数の被写体合成画像を代表する代表画像の生成に用いられる被写体切り抜き画像を所定条件に基づいて特定する特定手段と、
この特定手段により特定された前記被写体切り抜き画像の識別用情報と、前記取得手段により取得された前記複数の被写体切り抜き画像と、前記所定の背景画像と、前記代表画像の生成指示とを対応付けて記録媒体に記録させる記録制御手段と、
を備えたことを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of subject clipped images in which a subject region including a subject is extracted from a plurality of subject presence images in which the subject is present in a continuously captured background;
Synthesizing means for synthesizing a subject image of the subject area of the plurality of subject cut-out images acquired by the acquiring unit and a predetermined background image to generate a plurality of subject composite images;
A specifying unit that specifies a subject cut-out image used for generating a representative image representing the plurality of subject composite images generated by the combining unit among the plurality of subject cut-out images based on a predetermined condition;
The identification information of the subject clipped image specified by the specifying means, the plurality of subject cutout images acquired by the acquiring means, the predetermined background image, and the representative image generation instruction are associated with each other. Recording control means for recording on a recording medium;
An image processing apparatus comprising:
前記記録制御手段は、
前記ファイル生成手段により生成された前記一の画像ファイルを前記記録媒体に記録させることを特徴とする請求項1に記載の画像処理装置。 File generating means for generating one image file including the identification information, the plurality of subject cut-out images, and the predetermined background image;
The recording control means includes
The image processing apparatus according to claim 1, wherein the one image file generated by the file generation unit is recorded on the recording medium.
前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の中で、最初に撮像された被写体存在画像に対応する被写体切り抜き画像を特定することを特徴とする請求項3に記載の画像処理装置。 The specifying means is:
A subject cutout image corresponding to a subject existing image captured first among the plurality of subject cutout images acquired by the acquisition unit is specified as a subject cutout image used for generation of the reduced image. The image processing apparatus according to claim 3.
前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の全てを特定するか、或いは、前記複数の被写体切り抜き画像の中で、撮像タイミングが所定の間隔ずつ空けられた複数の被写体存在画像に対応する被写体切り抜き画像をそれぞれ特定することを特徴とする請求項3に記載の画像処理装置。 The specifying means is:
All of the plurality of subject cutout images acquired by the acquisition unit are specified as subject cutout images used for generation of the reduced image, or the imaging timing is predetermined among the plurality of subject cutout images. The image processing apparatus according to claim 3, wherein the subject cut-out images corresponding to the plurality of subject-existing images spaced by intervals are specified.
前記縮小画像の生成に用いられる被写体切り抜き画像として、前記取得手段により取得された前記複数の被写体切り抜き画像の中で、一の被写体切り抜き画像と、当該一の被写体切り抜き画像に基づく第1縮小画像の表示後に新たに表示される第2縮小画像の生成に用いられる前記一の被写体切り抜き画像と異なる被写体切り抜き画像と、を特定することを特徴とする請求項3に記載の画像処理装置。 The specifying means is:
Among the plurality of subject cutout images acquired by the acquisition unit, the subject cutout image used for generating the reduced image and a first reduced image based on the one subject cutout image are obtained. The image processing apparatus according to claim 3, wherein a subject cut-out image different from the one subject cut-out image used for generating a second reduced image that is newly displayed after display is specified.
この撮像手段により撮像された前記複数の被写体存在画像から被写体領域をそれぞれ抽出する抽出手段と、
この抽出手段により抽出された前記被写体領域の被写体画像の各々と所定の単一色の背景画像とを合成して複数の被写体切り抜き画像を生成する切り抜き画像生成手段と、を更に備え、
前記取得手段は、
前記切り抜き画像生成手段により生成された前記複数の被写体切り抜き画像を取得することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。 Imaging means for imaging the plurality of subject existing images;
Extraction means for extracting subject areas from the plurality of subject existing images imaged by the imaging means;
Clipped image generating means for generating a plurality of clipped images by combining each of the subject images of the subject area extracted by the extracting means and a background image of a predetermined single color;
The acquisition means includes
The image processing apparatus according to claim 1, wherein the plurality of subject cutout images generated by the cutout image generation unit are acquired.
連続して撮像された背景内に被写体が存在する複数の被写体存在画像から被写体が含まれる被写体領域が抽出された複数の被写体切り抜き画像を取得する取得手段、
この取得手段により取得された前記複数の被写体切り抜き画像の前記被写体領域の被写体画像と所定の背景画像とを合成して複数の被写体合成画像を生成する合成手段、
前記複数の被写体切り抜き画像の中で、前記合成手段により生成される前記複数の被写体合成画像を代表する代表画像の生成に用いられる被写体切り抜き画像を所定条件に基づいて特定する特定手段、
この特定手段により特定された前記被写体切り抜き画像の識別用情報と、前記取得手段により取得された前記複数の被写体切り抜き画像と、前記所定の背景画像と、前記代表画像の生成指示とを対応付けて記録媒体に記録させる記録制御手段、
として機能させることを特徴とするプログラム。 The computer of the image processing device
Acquisition means for acquiring a plurality of subject clipped images in which a subject region including a subject is extracted from a plurality of subject presence images in which a subject is present in a continuously captured background;
Synthesizing means for synthesizing a subject image of the subject area of the plurality of subject cut-out images acquired by the acquiring unit and a predetermined background image to generate a plurality of subject composite images;
A specifying unit for specifying, based on a predetermined condition, a subject cut-out image used for generating a representative image representing the plurality of subject combined images generated by the combining unit among the plurality of subject cut-out images;
The identification information of the subject clipped image specified by the specifying means, the plurality of subject cutout images acquired by the acquiring means, the predetermined background image, and the representative image generation instruction are associated with each other. Recording control means for recording on a recording medium,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196369A JP2012054798A (en) | 2010-09-02 | 2010-09-02 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196369A JP2012054798A (en) | 2010-09-02 | 2010-09-02 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012054798A true JP2012054798A (en) | 2012-03-15 |
JP2012054798A5 JP2012054798A5 (en) | 2013-10-17 |
Family
ID=45907665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010196369A Pending JP2012054798A (en) | 2010-09-02 | 2010-09-02 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012054798A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0998367A (en) * | 1995-10-03 | 1997-04-08 | Canon Inc | Signal processing unit |
JP2005020607A (en) * | 2003-06-27 | 2005-01-20 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2009159286A (en) * | 2007-12-26 | 2009-07-16 | Olympus Imaging Corp | Image file creation device and image file creation method |
JP2010081589A (en) * | 2008-08-28 | 2010-04-08 | Nikon Corp | Digital camera and image processing program |
JP2010153947A (en) * | 2008-12-24 | 2010-07-08 | Casio Computer Co Ltd | Image generating apparatus, image generating program and image display method |
-
2010
- 2010-09-02 JP JP2010196369A patent/JP2012054798A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0998367A (en) * | 1995-10-03 | 1997-04-08 | Canon Inc | Signal processing unit |
JP2005020607A (en) * | 2003-06-27 | 2005-01-20 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2009159286A (en) * | 2007-12-26 | 2009-07-16 | Olympus Imaging Corp | Image file creation device and image file creation method |
JP2010081589A (en) * | 2008-08-28 | 2010-04-08 | Nikon Corp | Digital camera and image processing program |
JP2010153947A (en) * | 2008-12-24 | 2010-07-08 | Casio Computer Co Ltd | Image generating apparatus, image generating program and image display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5105550B2 (en) | Image composition apparatus and program | |
JP5051156B2 (en) | Image processing apparatus and program | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP4947136B2 (en) | Image processing apparatus, image processing method, and program | |
CN108156365B (en) | Image pickup apparatus, image pickup method, and recording medium | |
CN107205112B (en) | Image pickup apparatus, image pickup method, and recording medium | |
JP2010239447A (en) | Image capturing apparatus, image processing method, and program | |
JP2018137797A (en) | Imaging apparatus, imaging method and program | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP2011066827A (en) | Image processing apparatus, image processing method and program | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP2010273268A (en) | Image reproducing device, imaging apparatus, image reproducing method, and image reproducing program | |
JP5402148B2 (en) | Image composition apparatus, image composition method, and program | |
JP5476900B2 (en) | Image composition apparatus, image composition method, and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP2012054798A (en) | Image processing apparatus and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5589333B2 (en) | Image composition apparatus, image composition method, and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010183254A (en) | Imaging device and subject detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130829 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140902 |