JP5402166B2 - 画像合成装置及びプログラム - Google Patents

画像合成装置及びプログラム Download PDF

Info

Publication number
JP5402166B2
JP5402166B2 JP2009086169A JP2009086169A JP5402166B2 JP 5402166 B2 JP5402166 B2 JP 5402166B2 JP 2009086169 A JP2009086169 A JP 2009086169A JP 2009086169 A JP2009086169 A JP 2009086169A JP 5402166 B2 JP5402166 B2 JP 5402166B2
Authority
JP
Japan
Prior art keywords
image
moving
subject
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009086169A
Other languages
English (en)
Other versions
JP2010239464A (ja
Inventor
博之 星野
淳 村木
博 清水
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009086169A priority Critical patent/JP5402166B2/ja
Publication of JP2010239464A publication Critical patent/JP2010239464A/ja
Application granted granted Critical
Publication of JP5402166B2 publication Critical patent/JP5402166B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、複数の画像を合成する画像合成装置及びプログラムに関する。
従来、合成用画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。
特開2004−159158号公報
しかしながら、背景用画像が動画像の場合、当該背景用画像に対する合成用の静止画像の合成位置を設定しても、合成用の静止画像が最初に設定された合成位置に固定された状態の動画像が単に生成されるに過ぎず、興趣に欠ける画像となってしまう。
そこで、本発明の課題は、合成された静止画像に動きを与えることができ、興趣性の高い画像を生成することができる画像合成装置及びプログラムを提供することである。
上記課題を解決するため、請求項1に記載の発明の画像合成装置は、背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段と、この取得手段により取得された動画像における動体を特定する特定手段と、この特定手段によって特定された動体の動き情報を検出する検出手段と、この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成手段と、を備え、前記合成手段は、前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴としている。
請求項2に記載の発明は、請求項1に記載の画像合成装置において、
前記動画像を構成する複数の画像フレームのうち、何れか一の画像フレームにおける前記静止画像の合成位置を指定する指定手段を更に備え、前記合成手段は、前記複数の画像フレームのうち、前記一の画像フレームにおいては、前記指定手段によって指定された合成位置に前記静止画像を合成し、且つ、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動きに合わせて変位させるように前記静止画像を合成することを特徴としている。
請求項3に記載の発明は、請求項2に記載の画像合成装置において、
前記合成手段は、前記指定手段によって指定された合成位置が、前記動画像における動体を含む位置であった場合に、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動き情報に応じて変位させるように前記静止画像を合成することを特徴としている。
請求項4に記載の発明は、請求項2又は3に記載の画像合成装置において、
前記検出手段は、前記複数の画像フレームのうち、少なくとも一の隣合う画像フレーム間の動体の動き情報を検出し、前記検出手段によって検出された前記少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、前記一の画像フレーム以外の各画像フレームにおける前記静止画像の合成位置を設定する合成位置設定手段を更に備えることを特徴としている。
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像合成装置において、
前記静止画像は、背景内に被写体が存在する被写体存在画像から被写体が含まれる被写体領域を抽出した画像であることを特徴としている。
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像合成装置において、
前記動体の動き情報は、動体の位置の変化情報、大きさの変化情報及び回転角度の変化情報のうち少なくとも1つを含むことを特徴としている。
請求項7に記載の発明のプログラムは、画像合成装置のコンピュータを、背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段、この取得手段により取得された動画像における動体を特定する特定手段、この特定手段によって特定された動体の動き情報を検出する検出手段、この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成制御手段、として機能させ、前記合成手段は、前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴としている。
本発明によれば、動画像を背景として合成された静止画像に動きを与えることができ、興趣性の高い合成動画を生成することができる。
本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。 図1の撮像装置による被写体切り抜き処理に係る動作の一例を示すフローチャートである。 図2の被写体切り抜き処理に係る画像の一例を模式的に示す図である。 図1の撮像装置による動画像生成処理に係る動作の一例を示すフローチャートである。 図4の動画像生成処理に係る画像の一例を模式的に示す図である。 図1の撮像装置による合成動画生成処理に係る動作の一例を示すフローチャートである。 図6の合成動画生成処理の続きを示す続きのフローチャートである。 図6及び図7の合成動画生成処理の続きを示す続きのフローチャートである。 図6〜図8の合成動画生成処理における画像合成処理に係る動作の一例を示すフローチャートである。 図6〜図8の合成動画生成処理に係る画像の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
本実施形態の撮像装置100は、背景用の動画像P4(図5参照)における動体B(図5参照)の動き情報を検出し、検出された動き情報に基づいて、動体Bの動きに合わせて合成用の静止画像P3の被写体領域S(図3(c)参照)を所定動作させるように当該静止画像P3と動画像P4とを合成して合成動画M(図10(b)参照)を生成する。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、動き検出部6と、画像処理部7と、記録媒体8と、表示制御部9と、表示部10と、操作入力部11と、CPU12とを備えている。
また、撮像制御部3と、動き検出部6と、画像処理部7と、CPU12は、例えば、カスタムLSI1Aとして設計されている。
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
このように構成されたレンズ部1、電子撮像部2及び撮像制御部3は、背景内に被写体が存在する被写体存在画像P1(図3(a)参照)や背景用の動画像P4(図5参照)を撮像する。
また、レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在画像P1の撮像後、当該被写体存在画像P1の撮像の際の撮像条件を固定した状態で、被写体切り抜き画像P3(図3(c)参照)の生成のための被写体非存在画像P2(図3(b)参照)を撮像する。
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
画像メモリ5は、例えば、DRAM等により構成され、動き検出部6と、画像処理部7と、CPU12等によって処理されるデータ等を一時記憶する。
動き検出部6は、異なる時間に撮像された複数の画像を用いて、被写体の運動を解析する。具体的には、図1に示すように、動き検出部6は、特徴量演算部6aと、ブロックマッチング部6bとを備えている。
特徴量演算部6aは、被写体非存在画像P2を基準として、当該被写体非存在画像P2から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6aは、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
ブロックマッチング部6bは、被写体非存在画像P2と被写体存在画像P1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートが被写体存在画像P1内のどこに対応するか、つまり、被写体存在画像P1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
また、ブロックマッチング部6bは、例えば、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、動画像P4を構成するユーザ所望の任意の基準画像フレーム(例えば、画像フレームf3)への被写体切り抜き画像P3における被写体領域Sの合成位置が指定入力されると、当該合成位置をテンプレートとして、当該基準画像フレームと隣合う画像フレーム(例えば、基準画像フレームの1つ前の画像フレームf2)内にて当該テンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった基準画像フレームと当該基準画像フレームの1つ前の画像フレームとの間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、算出された複数の動きベクトルの各々について、何れか一の動きベクトルを評価対象として他の動きベクトルと比較して当該評価対象の動きベクトルに対して投票するか否かを決定し、一の画像フレームにおける動体Bの動きベクトルを多数決により算出する。
さらに、動体Bの動きベクトルが算出された画像フレーム(例えば、画像フレームf2)と隣合う画像フレーム(例えば、基準画像フレームの二つ前の画像フレームf1)に対しても、上記と同様の処理を行って、当該画像フレームの動体Bの動きベクトルを算出する。これらの処理を動画像P4を構成する基準画像フレーム以外の全ての画像フレーム(例えば、画像フレームf1,f2,f4,f5)に対して行うことで、各画像フレームf1〜f5における動体Bの動きベクトルを算出する。
画像処理部7は、被写体存在画像P1と被写体非存在画像P2との位置合わせを行う位置合わせ部7aを具備している。
位置合わせ部7aは、被写体非存在画像P2から抽出した特徴点に基づいて、被写体非存在画像P2に対する被写体存在画像P1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在画像P1を座標変換して被写体非存在画像P2と位置合わせを行う。
また、画像処理部7は、位置合わせ部7aにより位置合わせされた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する被写体領域抽出部7bを具備している。
また、画像処理部7は、被写体存在画像P1内で抽出された被写体領域Sの位置を特定して、被写体存在画像P1における被写体領域Sの位置を示す位置情報を生成する位置情報生成部7cを具備している。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在画像P1の各画素について、被写体領域Sの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
また、画像処理部7は、生成されたアルファマップに基づいて、被写体存在画像P1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き画像P3(図3(c)参照)の画像データを生成する切抜画像生成部7dを具備している。
これにより、切抜画像生成部7dは、背景と被写体とが存在する被写体存在画像P1から被写体が含まれる領域を切り抜いた被写体切り抜き画像P3を取得する。
また、画像処理部7は、複数の画像フレームf1〜f5からなる動画像P4と被写体切り抜き画像P3を合成用の静止画像として取得する取得部7eを具備している。
具体的には、取得部7eは、合成動画生成処理(後述)にて、記録媒体8に記録されている複数の画像データのうち、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて指示された動画像P4や被写体切り抜き画像P3の画像データを読み出して画像メモリ5に展開する。
また、画像処理部7は、動画像P4の各画像フレームf1〜f5における被写体切り抜き画像P3の被写体領域Sの合成位置を設定する合成位置設定部7fを具備している。
具体的には、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて設定された動画像P4の基準画像フレーム(例えば、画像フレームf3(図10(a)参照))における被写体切り抜き画像P3の被写体領域Sの基準合成位置(例えば、中心座標)が指定されると、合成位置設定部7fは、基準画像フレーム中の当該基準合成位置を中心として被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。
そして、合成位置設定部7fは、動き検出部6により検出された隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動きベクトルに基づいて、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))以外の各画像フレーム(例えば、画像フレームf1,f2,f4,f5)における被写体切り抜き画像P3の被写体領域Sの合成位置を算出する。具体的には、合成位置設定部7fは、動き検出部6による各画像フレームf1〜f5の動体Bの動きベクトルの検出の際に探索された基準となる画像フレーム(例えば、画像フレームf3(図10(a)参照))における合成位置の周辺領域に対応する対応領域を、当該動きベクトルの検出に係る画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置として特定する。例えば、合成位置設定部7fは、動き検出部6による画像フレームf2の動体Bの動きベクトルの検出結果に基づいて、当該画像フレームf2内における被写体切り抜き画像P3の被写体領域Sの合成位置を算出して特定した後、当該画像フレームf2中の当該合成位置を中心として被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。続けて、合成位置設定部7fは、画像フレームf2を基準として画像フレームf1についても同様の処理を行う。このようにして、動画像P4の先頭の画像フレームf1まで繰り返すことで、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))よりも前の画像フレーム(例えば、画像フレームf1,f2)について被写体切り抜き画像P3における被写体領域Sの合成位置を設定する。
同様に、合成位置設定部7fは、動き検出部6により検出された画像フレームf3の一つ後の画像フレームである画像フレームf4、また、二つ後の画像フレームである画像フレームf5についても、被写体切り抜き画像P3が重畳される画像領域を合成領域として設定する。
このように、合成位置設定部7fは、動き検出部6によって検出された少なくとも一の隣合う画像フレーム(例えば、画像フレームf3に対する画像フレームf2)間の動体Bの動き情報に基づいて、基準画像フレーム(例えば、画像フレームf3(図10(a)参照))以外の各画像フレーム(例えば、画像フレームf1,f2,f4,f5)における被写体切り抜き画像P3の被写体領域Sの合成位置を設定する。
また、画像処理部7は、被写体切り抜き画像P3と背景用の動画像P4を構成する各画像フレームf1〜f5とを合成する画像合成部7gを具備している。具体的には、画像合成部7gは、動画像P4の各画像フレームf1〜f5を背景用画像として指定して、指定された画像フレームf1〜f5の各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き画像P3の対応する画素の画素値で上書きし、さらに、指定された画像フレームf1〜f5の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成する。
また、画像合成部7gは、被写体切り抜き画像P3の動画像P4を構成する各画像フレームf1〜f5に対する合成を制御する合成制御部7hを具備している。即ち、画像合成部7gは、合成制御部7hの制御下にて、動画像P4を構成する各画像フレームf1〜f5に対する被写体切り抜き画像P3における被写体領域Sの合成位置及び合成領域等を調整して画像合成により複数の画像フレームg1〜g5を生成して、当該複数の画像フレームg1〜g5からなる合成動画Mを生成する。
具体的には、合成制御部7hは、合成位置設定部7fにより設定された被写体切り抜き画像P3における被写体領域Sの合成位置及び合成領域に基づいて、ユーザによる操作入力部の所定操作に基づいて指定された基準画像フレーム(例えば、画像フレームf3)においては、当該基準画像フレームにおけるユーザにより指定された合成位置に被写体領域Sを合成させる。そして、合成制御部7hは、基準画像フレーム以外の各画像フレームf1〜f5においては、当該画像フレームf1〜f5に合成された被写体領域Sに対し動体Bの動きに合わせて変位させるように被写体切り抜き画像P3を順次合成させる。例えば、図10(a)及び図10(b)に示すように、基準画像フレームの一つ前の画像フレームf2においては、合成制御部7hは、合成位置設定部7fにより設定された被写体領域Sの合成位置に基づいて、被写体領域Sを画像フレームg3における被写体領域Sに対して動体Bの動きに合わせて左側に変位させるように被写体切り抜き画像P3を合成させて合成動画Mを構成する画像フレームg2を生成する。同様に、基準画像フレームよりも前の他の画像フレーム(例えば、画像フレームf1)については、処理対象となる画像フレーム(例えば、画像フレームf1)よりも一つ後の画像フレーム(例えば、画像フレームf2)における被写体領域Sの合成位置に対して動体Bの動きに合わせて左側に変位させるようにして合成動画Mを構成する画像フレームg1を生成する。
また、基準画像フレームの一つ後の画像フレームf4においては、合成制御部7hは、合成位置設定部7fにより設定された被写体領域Sの合成位置に基づいて、被写体領域Sを画像フレームg3における被写体領域Sに対して動体Bの動きに合わせて右側に変位させるように被写体切り抜き画像P3を合成させて合成動画Mを構成する画像フレームg4を生成する。同様に、基準画像フレームよりも後の他の画像フレーム(例えば、画像フレームf5)については、処理対象となる画像フレーム(例えば、画像フレームf5)よりも一つ前の画像フレーム(例えば、画像フレームf4)における被写体領域Sの合成位置に対して動体Bの動きに合わせて右側に変位させるようにして合成動画Mを構成する画像フレームg5を生成する。
このようにして、画像合成部7gは、動き検出部6により検出された動きベクトルに基づいて、動画像P4の動体Bの動きに合せて被写体切り抜き画像P3を所定動作させるように当該被写体切り抜き画像P3と動画像P4とを合成して合成動画Mを生成する。
記録媒体8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部7のJPEG圧縮部(図示略)により符号化された被写体切り抜き画像P3の静止画像データを記憶する。
また、被写体切り抜き画像P3の画像データは、画像処理部7の位置情報生成部7cにより生成されたアルファマップと対応付けられて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として保存されている。
また、記録媒体8は、レンズ部1、電子撮像部2及び撮像制御部3による動体Bの撮像により生成された複数の画像フレームf、…を画像処理部7の符号化部(図示略)により所定の圧縮形式で符号化した動画像P4を記憶する。
動画像P4は、動体Bの動きを所定の記録方式(例えば、Motion−JPEG形式)で記録したものであり、例えば、所定の撮像フレームレートで撮像された連続した複数の画像フレーム(例えば、n枚の画像フレーム)f、…からなるものである。なお、図5にあっては、動画像P4として、模式的に5枚の画像フレームf1〜f5からなるものを表すものとする。
表示制御部9は、画像メモリ5に一時的に記憶されている表示用の画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU12の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部10は、撮像モードにて、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームf、…に基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係るシャッタボタン11a、撮像モードや機能等の選択指示や被写体切り抜き画像P3における被写体領域Sの基準合成位置の設定指示等に係る選択決定ボタン11b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号をCPU12に出力する。
CPU12は、撮像装置100の各部を制御するものである。具体的には、CPU12は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。
次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3は、被写体切り抜き処理に係る画像の一例を模式的に示す図である。
被写体切り抜き処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
図2に示すように、先ず、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームf、…に基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS1)。
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、CPU12は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在画像P1(図3(a)参照)の光学像を所定の条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体存在画像P1の画像フレームのYUVデータを生成させる(ステップS3)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
また、CPU12は、撮像制御部3を制御して、当該被写体存在画像P1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
そして、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在画像P1の半透過の表示態様の画像と被写体非存在画像P2の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS4)。
この後、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体を画角外に移動させるか、或いは被写体が移動するのを待った後、ユーザにより被写体非存在画像P2が被写体存在画像P1の半透過の画像と重なるようにカメラ位置が調整されて、操作入力部11のシャッタボタン11aが所定操作されて撮像指示が入力されたと判定されると(ステップS5;YES)、CPU12は、撮像制御部3に、被写体非存在画像P2(図3(b)参照)の光学像を被写体存在画像P1の撮像後に固定された条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像P2の画像フレームに基づいて、被写体非存在画像P2のYUVデータを生成させる(ステップS6)。なお、当該被写体存在画像P1のYUVデータは、画像メモリ5に一時記憶される。
次に、CPU12は、特徴量演算部6a、ブロックマッチング部6b及び画像処理部7に、画像メモリ5に一時記憶されている被写体非存在画像P2のYUVデータを基準として、被写体存在画像P1のYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS7)。
具体的には、特徴量演算部6aは、被写体非存在画像P2のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在画像P1内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像P2と被写体存在画像P1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部7の位置合わせ部7aは、ブロックマッチング部6bにより算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在画像P1の射影変換行列を算出する。
次に、CPU12は、位置合わせ部7aに、算出された射影変換行例に基づいて被写体存在画像P1を射影変換させることで、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータとを位置合わせする処理を行わせる(ステップS8)。
そして、CPU12は、画像処理部7の被写体領域抽出部7bに、被写体存在画像P1から被写体が含まれる被写体領域Sを抽出する処理を行わせる(ステップS9)。
具体的には、被写体領域抽出部7bは、被写体存在画像P1のYUVデータと被写体非存在画像P2のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部7bは、ローパスフィルタをかけた被写体存在画像P1と被写体非存在画像P2との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部7bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部7bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域Sとして特定し、収縮分を修正するための膨張処理を行う。
次に、CPU12は、画像処理部7の位置情報生成部7cに、抽出された被写体領域Sの被写体存在画像P1内での位置を示すアルファマップを生成させる(ステップS10)。
その後、CPU12は、画像処理部7の切抜画像生成部7dに、被写体の画像を所定の単一色画像と合成した被写体切り抜き画像P3(図3(c)参照)の画像データを生成する処理を行わせる(ステップS11)。
具体的には、切抜画像生成部7dは、被写体存在画像P1、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在画像P1の全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
その後、CPU12は、記録媒体8の所定の記憶領域に、画像処理部7の位置情報生成部7cにより生成されたアルファマップと被写体切り抜き画像P3の画像データを対応付けて、当該被写体切り抜き画像P3の画像データの拡張子を「.jpe」として一ファイルで記憶させる(ステップS12)。
これにより、被写体切り抜き処理を終了する。この結果、例えば、背景内から被写体領域Sとして人(図3(c)参照)が抽出された被写体切り抜き画像P3の静止画像データが生成される。
次に、撮像装置100による背景用の動画像生成処理について、図4及び図5を参照して説明する。
図4は、背景用の動画像生成処理に係る動作の一例を示すフローチャートである。また、図5は、背景用の動画像生成処理に係る画像の一例を模式的に示す図である。
背景用の動画像生成処理は、通常の動画像の撮像処理であり、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から動画撮像モードが選択指示された場合に実行される処理である。
図4に示すように、先ず、CPU12は、表示制御部9に、レンズ部1、電子撮像部2及び撮像制御部3による動画像P4の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させる(ステップS21)。
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、CPU13は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、動画像P4(図5参照)の光学像を所定の条件で電子撮像部2により撮像させて画像データ生成部4に、電子撮像部2から転送された動画像P4の各画像フレームf1〜f5のYUVデータを生成させる(ステップS23)。その後、CPU12は、記録媒体8の所定の記憶領域に、動画像P4の各画像フレームf1〜f5のYUVデータをMotion−JPEG形式で記憶させる(ステップS24)。
これにより、動画像生成処理を終了する。この結果、例えば、トラックが左側から右側に走行する複数の画像フレームf1〜f5からなる動画像P4の画像データが生成される。
次に、合成動画生成処理について図6〜図10を参照して詳細に説明する。
図6〜図8は、合成動画生成処理に係る動作の一例を示すフローチャートである。また、図9は、合成動画生成処理における画像合成処理に係る動作の一例を示すフローチャートである。また、図10(a)及び図10(b)は、合成動画生成処理にて画像合成される画像の一例を模式的に示す図である。
合成動画生成処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図6に示すように、ユーザによる操作入力部11の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で合成用の静止画像としての被写体切り抜き画像P3が選択して指定されると、画像処理部7の取得部7eは、指定された被写体切り抜き画像P3の画像データを読み出して画像メモリ5に展開する(ステップS31)。
次に、ユーザによる操作入力部11の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で所望の動画像P4が選択して指定されると、画像処理部7の取得部7eは、指定された動画像P4の画像データを読み出して画像メモリ5に展開する。そして、CPU12は、表示制御部9に、画像メモリ5に展開された動画像P4の画像データに基づいて、当該動画像P4を構成する各画像フレームf1〜f5を所定の表示フレームレートで切り換えて表示部10の表示画面に再生表示させる(ステップS32)。
続けて、CPU12は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、表示部10の表示画面に再生表示された画像フレームf1〜f5の選択指示が入力されたか否かを判定する(ステップS33)。
ここで、画像フレームf1〜f5の選択指示が入力されたと判定されると(ステップS33;YES)、CPU12は、表示制御部9に、選択指示入力のあったユーザ所望の画像フレーム(例えば、画像フレームf3(図10(a)参照))を基準画像フレームとして表示部10の表示画面に一時停止表示させる(ステップS34)。
そして、CPU12は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、被写体切り抜き画像P3における被写体領域Sの当該基準画像フレームへの合成位置の指定指示が入力されたか否かを判定する(ステップS35)。
ここで、合成位置の指定指示が入力されたと判定されると(ステップS35;YES)、CPU12は、動画像P4の各画像フレームf1〜f5と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレームg1〜g5を生成する画像合成処理を画像合成部7gに行わせる(ステップS36)。
ここで、画像合成処理について図9を参照して詳細に説明する。
図9に示すように、画像合成部7gは、被写体切り抜き画像P3と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS61)。
なお、図6のステップS35にて被写体切り抜き画像P3における被写体領域Sの合成位置が指定された際に、動画像P4の基準画像フレーム(例えば、画像フレームf3(図10(a)参照))とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
次に、画像合成部7gは、基準画像フレームの何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS62)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS63)。具体的には、画像合成部7gは、当該基準画像フレームの何れか一の画素のうち、アルファ値が1の画素については(ステップS63;α=1)、被写体切り抜き画像P3の対応する画素の画素値で上書きし(ステップS64)、アルファ値が0<α<1の画素については(ステップS65;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P3を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P3から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS65)、アルファ値が0の画素については(ステップS63;α=0)、何もせずに当該基準画像フレームを透過させるようにする。
続けて、画像合成部7gは、当該基準画像フレームの全ての画素について処理したか否かを判定する(ステップS66)。
ここで、全ての画素について処理していないと判定されると(ステップS66;NO)、画像合成部7gは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS67)、処理をステップS63に移行させる。
上記の処理を、ステップS66にて全ての画素について処理したと判定されるまで(ステップS66;YES)、繰り返すことで、画像合成部7gは、被写体切り抜き画像P3と動画像P4とを合成した合成動画Mを構成する一の画像フレームgを生成する。
これにより、画像合成処理を終了する。
図6に示すように、その後、CPU12は、基準画像フレームが動画像P4を構成する画像フレームf1〜f5のうち最初の画像フレームf1であるか否かを判定する(ステップS37)。
ここで、基準画像フレームが最初の画像フレームf1でないと判定されると(ステップS37;NO)、CPU12は、処理対象を基準画像フレームの1つ前の画像フレームへ移動させる(ステップS38)。具体的には、図10(a)に示すように、基準画像フレームとして画像フレームf3が選択指示された場合、当該画像フレームf3の一つ前の画像フレームf2に移動する。
そして、CPU12は、隣合う画像フレーム(例えば、画像フレームf3と画像フレームf2)間の動体Bの動き情報として、基準画像フレームに対する画像フレーム(例えば、画像フレームf2)における動体の動きベクトルを動き検出部6に検出させる(ステップS39)。
そして、CPU12は、動き検出部6により検出された画像フレーム(例えば、画像フレームf2)の動体Bの動きベクトル(動き情報)に基づいて、当該画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置の算出を合成位置設定部7fに行わせる(ステップS40)。
そして、合成制御部7hは、算出された合成位置に基づいて被写体切り抜き画像P3を1つ前に移動した画像フレーム(例えば、画像フレームf2)へ合成した場合に当該被写体領域Sの合成領域の一部が当該画像フレームf2内にあるか否かを判定する(ステップS41)。
ここで、合成領域の一部が画像フレームf2内にあると判定されると(ステップS41;YES)、CPU12は、算出された一つ前の画像フレーム(例えば、画像フレームf2)における被写体切り抜き画像P3の被写体領域Sの合成位置を合成位置設定部7fに設定させる(ステップS42)。
そして、CPU12は、動画像P4の画像フレーム(例えば、画像フレームf2)と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレーム(例えば、画像フレームg2)を生成する画像合成処理を画像合成部7gに行わせる(ステップS43;図9参照)。
なお、画像合成処理の内容は、上記説明したものと略同様であり、その詳細な説明は省略する。また、図7のステップS42にて被写体切り抜き画像P3における被写体領域Sの合成位置が設定された際に、動画像P4の画像フレームf1〜f5とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
図7に示すように、その後、CPU12は、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったか否かを判定する(ステップS44)。
ここで、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行っていないと判定されると(ステップS44;NO)、ステップS38へ戻り、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理が行われるまで、CPU12は、ステップS38以降の処理を行わせる。一方、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったと判定されると(ステップS44;YES)、即ち、ステップS41にて、合成領域の一部が画像フレーム内にないと判定された場合(ステップS41;NO)、例えば、画像フレームf1における被写体切り抜き画像P3の被写体領域Sの合成領域の一部が当該画像フレームf1内にない場合には、CPU12は、ステップS44にて、基準画像フレームより前の全ての画像フレーム(例えば、画像フレームf1、f2)について合成処理を行ったと判定する。なお、ステップS41にて、合成領域の一部が画像フレーム(例えば、画像フレームf1)内にないと判定された画像フレーム(例えば、画像フレームf1)については、動画像P4の画像フレーム(例えば、画像フレームf1)を合成動画Mの画像フレーム(例えば、画像フレームg1)とみなす。
その後、CPU12は、処理対象を基準画像フレーム(例えば、画像フレームf3)の1つ後の画像フレーム(例えば、画像フレームf4)へ移動させ(ステップS45)、CPU12は、ステップS39と同様に、隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf4)の動体Bの動き情報の検出を動き検出部6に行わせる(ステップS47)。
そして、CPU12は、動き検出部6により検出された画像フレーム(例えば、画像フレームf4)の動体Bの動きベクトル(動き情報)に基づいて、当該画像フレーム(例えば、画像フレームf4)における被写体切り抜き画像P3の被写体領域Sの合成位置の算出を合成位置設定部7fに行わせる(ステップS48)。
そして、合成制御部7hは、算出された合成位置に基づいて被写体切り抜き画像P3を1つ後に移動した画像フレーム(例えば、画像フレームf4)へ合成した場合に当該被写体切り抜き画像P3における被写体領域Sの合成領域の一部が当該画像フレーム(例えば、画像フレームf4)内にあるか否かを判定する(ステップS49)。
ここで、合成領域の一部が画像フレーム(例えば、画像フレームf4)内にあると判定されると(ステップS49;YES)、CPU12は、算出された一つ後の画像フレーム(例えば、画像フレームf4)における被写体切り抜き画像P3の被写体領域Sの合成位置を合成位置設定部7fに設定させる(ステップS50)。
そして、CPU12は、動画像P4の画像フレーム(例えば、画像フレームf4)と被写体切り抜き画像P3とを合成して合成動画Mを構成する画像フレーム(例えば、画像フレームg4)を生成する画像合成処理を画像合成部7gに行わせる(ステップS51;図9参照)。
なお、画像合成処理の内容は、上記説明したものと略同様であり、その詳細な説明は省略する。また、図8のステップS50にて被写体切り抜き画像P3における被写体領域Sの合成位置が設定された際に、動画像P4の画像フレームf1〜f5とアルファマップとがずれてしまいアルファマップの範囲外となる領域については、α=0としてアルファ値が存在しない領域を生じさせないようにする。
図8に示すように、その後、CPU12は、全ての画像フレームf1〜f5について合成処理を行ったか否かを判定する(ステップS52)。
ここで、全ての画像フレームf1〜f5について合成処理を行っていないと判定されると(ステップS52;NO)、ステップS46へ戻り、全ての画像フレームf1〜f5について合成処理が行われるまで、CPU12は、ステップS46以降の処理を行わせる。一方、全ての画像フレームf1〜f5について合成処理を行ったと判定されると(ステップS52;YES)、画像合成部7gは、合成動画Mを構成する全ての画像フレームg1〜5(図10(b)参照)を生成する。なお、ステップS49にて、合成領域の一部が画像フレーム(例えば、画像フレームf5)内にないと判定された画像フレーム(例えば、画像フレームf5)については、動画像P4の画像フレーム(例えば、画像フレームf5)を合成動画Mの画像フレーム(例えば、画像フレームg5)とみなす。
また、図6のステップS37において、基準画像フレームが最初の画像フレームf1であると判定された場合(ステップS37;YES)、CPU12は、処理対象を基準画像フレームの1つ後の画像フレームf2へ移動させ、(ステップS46)上記のように、ステップS47以降の処理を行う。
これにより、合成動画生成処理を終了する。
以上のように、本実施形態の撮像装置100によれば、背景用の動画像P4の複数の画像フレームf1〜f5のうち、隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動き情報を動き検出部6により検出し、当該動き情報に基づいて、被写体切り抜き画像P3を動画像P4上で動作させるように当該被写体切り抜き画像P3と動画像P4の複数の画像フレームf1〜f5の各々とを合成して合成動画Mを画像合成部7gにより生成する。
従って、背景用の動画像P4の各画像フレームf1〜f5と合成用の静止画像である被写体切り抜き画像P3とを合成する場合に、合成用の静止画像が最初に設定された合成位置に固定されることなく、動画像P4における動体Bの動きに合わせて被写体切り抜き画像P3を所定動作させることができ、興趣性の高い合成動画Mを生成することができる。
また、画像合成部7gは、動画像P4を構成する複数の画像フレームf1〜f5のうち、ユーザによる操作入力部11の所定操作に基づいて指定された基準画像フレーム(例えば、画像フレームf3)においては、所望の基準合成位置に被写体切り抜き画像P3を合成し、且つ、基準画像フレーム以外の各画像フレームにおいては、合成位置設定部7fが、動き検出部6によって検出された隣合う画像フレーム間(例えば、画像フレームf3に対する画像フレームf2)の動体Bの動き情報に基づいて、基準画像フレーム以外の各画像フレームにおける被写体切り抜き画像P3の合成位置を設定して、基準画像フレームに合成された被写体切り抜き画像P3に対し動体Bの動きに合わせて変位させるように被写体切り抜き画像P3を合成して合成動画Mを構成する複数の画像フレームg1〜g5を生成する。
これにより、ユーザ所望の画像フレーム(基準画像フレーム)において、被写体切り抜き画像P3の合成位置を指定することにより、当該基準画像フレーム以外の各画像フレームについて被写体切り抜き画像P3の合成位置を自動的に設定することができ、合成動画Mの生成に係る操作をより簡便なものとすることができる。従って、ユーザ所望の合成位置を適切に指定するだけで、興趣性の高い合成動画Mを簡便に生成することができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態として、動画像P4を構成する各画像フレームf1〜f5間のそれぞれの動体Bの動きベクトル(動き情報)を算出したが、これに限られるものではなく、例えば、動体Bが一定の方向に一定間隔の速さで変位していると判断した場合には、少なくとも一の動体Bの動きベクトルに基づいて、各画像フレームf1〜f5に対する被写体切り抜き画像P3の合成位置を算出するようにしても良い。
また、基準画像フレームにおいて指定した基準合成位置が動体Bを含む領域だった場合に、基準画像フレーム以外の各画像フレームにおいては、動き検出部6によって検出された隣合う画像フレーム間の動体Bの動き情報に基づいて、基準画像フレーム以外の各画像フレームにおける被写体切り抜き画像P3の合成位置を設定するようにしてもよい。
また、上記実施形態として、動画像P4として、Motion−JPEG形式で記録された動画像データを例示したが、これに限られるものではなく、例えば、所定のシャッタースピードで連写された連続した複数の静止画からなる連写画像であっても良い。この場合にあっても、上記実施形態と同様に、連続する静止画どうしの間で動体Bの動き情報を検出して、当該動き情報に基づいて被写体切り抜き画像P3の被写体領域Sを所定動作させる。
また、上記実施形態にあっては、動画像データの記録方式として、Motion−JPEG形式を例示したが、MPEG形式であっても良い。かかる場合には、動体Bの動きを検出する際に、予め当該MPEG形式の動画像データを復号化して複数の画像フレームf1〜f5を生成することで、画像フレームf1〜f5間の動体Bの動きの検出を行うことができる。
また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置を例示したが、これに限られるものではい。例えば、被写体切り抜き画像P3、動画像P4及び動体Bの動き情報に基づいて設定された当該動画像P4に対する被写体切り抜き画像の合成位置に係るデータの生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送されたデータのみを記録して、合成動画の再生処理のみを実行する画像再生装置であっても良い。
加えて、上記実施形態にあっては、取得手段、検出手段、合成手段、合成位置設定手段としての機能を、CPU13の制御下にて、動き検出部6、画像処理部7の切抜画像生成部7d、取得部7e、合成位置設定部7f、画像合成部7gが駆動することにより実現される構成としたが、これに限られるものではなく、CPU13によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、検出処理ルーチン、合成位置設定処理ルーチン、合成処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンによりCPU13に、背景用の動画像と合成用の静止画像を取得させるようにしても良い。また、検出処理ルーチンによりCPU13に、取得された背景用の動画像における動体の動き情報を検出させるようにしても良い。また、合成位置設定処理ルーチンによりCPU13に、検出された少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、一の画像フレーム以外の各画像フレームにおける静止画像の合成位置を設定させるようにしても良い。また、合成処理ルーチンによりCPU13に、検出された動き情報に基づいて、動体の動きに合わせて合成用の静止画像を所定動作させるように静止画像と動画像とを合成して合成動画を生成させるようにしても良い。
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
6 動き検出部
7 画像処理部
7d 切抜画像生成部
7e 取得部
7f 合成位置設定部
7g 画像合成部
7h 合成制御部
8 記録媒体
10 表示部
12 CPU

Claims (7)

  1. 背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段と、
    この取得手段により取得された動画像における動体を特定する特定手段と、
    この特定手段によって特定された動体の動き情報を検出する検出手段と、
    この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成手段と、
    を備え
    前記合成手段は、
    前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成する
    ことを特徴とする画像合成装置。
  2. 前記動画像を構成する複数の画像フレームのうち、何れか一の画像フレームにおける前記静止画像の前記合成位置を指定する指定手段を更に備え、
    前記合成手段は、
    前記複数の画像フレームのうち、前記一の画像フレームにおいては、前記指定手段によって指定された合成位置に前記静止画像を合成し、且つ、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動きに合わせて変位させるように前記静止画像を合成することを特徴とする請求項1に記載の画像合成装置。
  3. 前記合成手段は、
    前記指定手段によって指定された合成位置が、前記一の画像フレーム以外の各画像フレームにおいては、前記一の画像フレームに合成された前記静止画像に対し前記動体の動き情報に応じて変位させるように前記静止画像を合成することを特徴とする請求項2記載の画像合成装置。
  4. 前記検出手段は、
    前記複数の画像フレームのうち、少なくとも一の隣合う画像フレーム間の動体の動き情報を検出し、
    前記検出手段によって検出された前記少なくとも一の隣合う画像フレーム間の動体の動き情報に基づいて、前記一の画像フレーム以外の各画像フレームにおける前記静止画像の合成位置を設定する合成位置設定手段を更に備えることを特徴とする請求項2又は3に記載の画像合成装置。
  5. 前記静止画像は、背景内に被写体が存在する被写体存在画像から被写体が含まれる被写体領域を抽出した画像であることを特徴とする請求項1〜4の何れか一項に記載の画像合成装置。
  6. 前記動体の動き情報は、動体の位置の変化情報、大きさの変化情報及び回転角度の変化情報のうち少なくとも1つを含むことを特徴とする請求項1〜5の何れか一項に記載の画像合成装置。
  7. 画像合成装置のコンピュータを、
    背景用の動画像及び当該動画像と合成すべき静止画像を取得する取得手段、
    この取得手段により取得された動画像における動体を特定する特定手段、
    この特定手段によって特定された動体の動き情報を検出する検出手段、
    この検出手段によって検出された動き情報に基づいて、前記静止画像を前記背景用の動画像上で動作させるように当該静止画像と前記動画像とを合成して合成動画を生成する合成制御手段、
    として機能させ
    前記合成手段は、
    前記動画像における前記静止画像の合成位置が当該動画像における動体を含む位置である場合に、前記静止画像を前記動画像中の前記動体の動き情報に応じて変位させるように前記静止画像と前記動画像とを合成することを特徴とするプログラム。
JP2009086169A 2009-03-31 2009-03-31 画像合成装置及びプログラム Expired - Fee Related JP5402166B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009086169A JP5402166B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009086169A JP5402166B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010239464A JP2010239464A (ja) 2010-10-21
JP5402166B2 true JP5402166B2 (ja) 2014-01-29

Family

ID=43093401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009086169A Expired - Fee Related JP5402166B2 (ja) 2009-03-31 2009-03-31 画像合成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5402166B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318596A (zh) * 2014-10-08 2015-01-28 北京搜狗科技发展有限公司 一种动态图片的生成方法以及生成装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5906897B2 (ja) * 2012-03-30 2016-04-20 カシオ計算機株式会社 動き情報生成方法、動き情報生成装置及びプログラム
JP2013214158A (ja) * 2012-03-30 2013-10-17 Ntt Comware Corp 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム
KR102586637B1 (ko) * 2021-12-28 2023-10-06 연세대학교 산학협력단 광학 흐름을 이용한 합성 동영상 생성 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3122099B2 (ja) * 1989-06-26 2001-01-09 ソニー株式会社 映像合成装置及び映像合成方法
JP3214258B2 (ja) * 1994-10-24 2001-10-02 三菱電機株式会社 動画処理装置、動画アンカー表示方法、動画アンカー判断方法
JP2000013683A (ja) * 1998-06-22 2000-01-14 Canon Inc 画像合成装置及び方法並びに記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318596A (zh) * 2014-10-08 2015-01-28 北京搜狗科技发展有限公司 一种动态图片的生成方法以及生成装置

Also Published As

Publication number Publication date
JP2010239464A (ja) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5105550B2 (ja) 画像合成装置及びプログラム
JP5051156B2 (ja) 画像処理装置及びプログラム
KR101062502B1 (ko) 패닝화상을 촬상하기 위한 패닝모드를 구비한 촬상장치
JP4798236B2 (ja) 撮像装置、画像処理方法及びプログラム
JP4807432B2 (ja) 撮像装置、画像処理方法及びプログラム
JP5402166B2 (ja) 画像合成装置及びプログラム
JP5267279B2 (ja) 画像合成装置及びプログラム
JP5125294B2 (ja) プログラム、画像処理装置、撮像装置および画像処理方法
JP5402148B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP2009044329A (ja) プログラム、画像処理方法および画像処理装置
JP5476900B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP5636660B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2011003057A (ja) 画像合成装置、画像特定方法、画像合成方法及びプログラム
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム
JP2011041041A (ja) 撮像装置、撮像方法及びプログラム
JP2011182014A (ja) 撮像装置、撮像処理方法及びプログラム
JP5423296B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5494537B2 (ja) 画像処理装置及びプログラム
JP2010278701A (ja) 画像合成装置、画像合成方法及びプログラム
JP6564295B2 (ja) 合成画像作成装置
JP5589333B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP5381207B2 (ja) 画像合成装置及びプログラム
JP5565227B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2009049457A (ja) 撮像装置およびプログラム
JP2010045619A (ja) 画像再生装置、撮像装置、画像再生方法、画像再生プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120327

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131014

R150 Certificate of patent or registration of utility model

Ref document number: 5402166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees