JP5197469B2 - 前方被写体像抽出装置およびその動作制御方法 - Google Patents

前方被写体像抽出装置およびその動作制御方法 Download PDF

Info

Publication number
JP5197469B2
JP5197469B2 JP2009092776A JP2009092776A JP5197469B2 JP 5197469 B2 JP5197469 B2 JP 5197469B2 JP 2009092776 A JP2009092776 A JP 2009092776A JP 2009092776 A JP2009092776 A JP 2009092776A JP 5197469 B2 JP5197469 B2 JP 5197469B2
Authority
JP
Japan
Prior art keywords
image
occlusion
superimposed
generated
generation means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009092776A
Other languages
English (en)
Other versions
JP2010245864A (ja
Inventor
恒史 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009092776A priority Critical patent/JP5197469B2/ja
Publication of JP2010245864A publication Critical patent/JP2010245864A/ja
Application granted granted Critical
Publication of JP5197469B2 publication Critical patent/JP5197469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

この発明は,前方被写体像抽出装置およびその動作制御方法に関する。
視点の異なる2つの画像を利用することが種々考えられている。たとえば,左右画像のエッジ画像を生成し,両方のエッジ画像を一致させて特定の被写体像を抽出するものがある(特許文献1)。また,視点の異なる2つの画像から2つの画像の任意の視点に対応する中間像を生成するものもある(特許文献2)。さらに,被写体の背景面までの距離を測定するものもある(特許文献3)。
しかしながら,いずれも所望の被写体像を比較的簡単に抽出することは考えられていない。
特開平8−210847号公報 特開平9−27969号公報 特開2000-125196号公報
この発明は,比較的簡単に所望の被写体像を抽出することを目的とする。
この発明による前方被写体像抽出装置は,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力する画像入力手段,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,抽出する対象画像部分の一部分または一点(たとえば顔の中心)が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成する重畳画像生成手段,ならびに上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分(たとえば,顔の中心を含む人物像全体),またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する抽出手段を備えていることを特徴とする。
この発明は,上記前方被写体像抽出装置に適した動作制御方法も提供している。すなわち,この方法は,画像入力手段が,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力し,第1の遮蔽画像生成手段が,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成し,第2の遮蔽画像生成手段が,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成し,重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成し,抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出するものである。
この発明は,上記前方被写体像抽出装置の動作制御方法を実施するのに適したプログラムも格納している。また,そのようなプログラムを格納した記録媒体も提供するようにしてもよい。
この発明によると,少なくとも第1の視点から撮像された第1の画像と第2の視点から撮像された第2の画像とが利用される。第1の画像のうち,第1の画像には見えている(存在している)が第2の画像には見えていない(存在していない)画像部分が遮蔽部分領域(オクルージョン領域)として表される第1の遮蔽画像が生成される。同様に,第2の画像のうち,第2の画像には見えているが第1の画像には見えていない画像部分が遮蔽部分領域として表わされる第2の遮蔽画像が生成される。抽出する対象画像部分の一部分または一点が一致するように,第1の遮蔽画像と第2の遮蔽画像とが重ね合わせられて重畳画像が生成される。重畳画像の中から,上記一部分または一点を含む遮蔽部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分が抽出される。
視点が異なる2つの画像には,被写体の陰となって,一方の画像には見えているが他方の画像には見えていない遮蔽部分が生じる。その遮蔽部分は,前方の被写体ほど大きくなるため,第1の遮蔽画像と第2の遮蔽画像とを,所望の対象画像部分の一部分または一点が一致するように重畳画像を生成し,その重畳画像に含まれる上記一部分または一点を含む遮蔽部分領域内に存在する画像部分が抽出されることにより,抽出された画像部分は前方の所望の被写体像となる。比較的簡単に所望の被写体像部分を抽出できる。
上記抽出手段は,たとえば,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出するものである。
上記入力手段は,たとえば,同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力するものであり,上記第1の遮蔽画像生成手段は,上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成するものであり,上記第2の遮蔽画像生成手段は,上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成するものである。
また,この場合,上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段をさらに備える。さらに,上記重畳画像生成手段は,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成するものとなろう。
抽出する対象画像部分が人物像の場合には,上記重畳画像生成手段は,たとえば,人物像に含まれる顔画像部分のうち少なくとも一点が一致するようにして重畳画像を生成するものである。上記抽出手段は,生成された重畳画像の中から(上記一部分または一点を含み),もっとも大きなまたはもっとも幅の広い遮蔽画像部分領域内に存在する画像部分,上記一部分または一点からもっとも近い遮蔽部分領域内に存在する画像部分を抽出するものでもよい。
ディジタル・スチル・カメラの電気的構成を示すブロック図である。 ディジタル・スチル・カメラの処理手順を示すフローチャートである。 (A)および(B)は,異なる視点から撮像された2駒の画像の一例である。 (A)および(B)は遮蔽画像の一例である。 重畳画像の一例である。 重畳画像において,被写体像抽出に用いられる直線を示している。 抽出された被写体像を示している。 遮蔽画像生成処理手順を示すフローチャートである。 撮像装置の構成を示している。 撮像装置の位置関係を示している。 ディジタル・スチル・カメラの処理手順を示すフローチャートである。 撮像により得られた画像の一例である。 遮蔽画像の一例である。 重畳画像の一例である。 遮蔽画像生成処理手順を示すフローチャートである。
図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。
ディジタル・スチル・カメラの全体の動作は,CPU11によって統括される。
ディジタル・スチル・カメラには,後述する動作プログラム,その他のデータが格納されているメモリ16が含まれている。動作プログラムは,メモリ・カード19等の記録媒体に書き込まれて,そのようなメモリ・カード19から読み出されてディジタル・スチル・カメラにインストールされてもよいし,プレ・インストールされていてもよい。
ディジタル・スチル・カメラには,シャッタ・レリーズ・ボタン12およびモード・スイッチ13が含まれている。シャッタ・レリーズ・ボタン12の押し下げを示す信号は,CPU11に入力する。モード・スイッチ13は,撮像モードまたは再生モードを選択するもので,スイッチS1またはS2を選択的にオンすることができる。スイッチS1がオンされることにより撮像モードが設定され,スイッチS2がオンされることにより再生モードが設定される。
この実施例によるディジタル・スチル・カメラは,左右(上下,斜め方向でもよい)に視差のある2駒の画像を同時(同時でなくともよい)に撮像することができる。このために,左右に所定距離だけ離れた第1の撮像装置1および第2の撮像装置2がディジタル・スチル・カメラに設けられている。
モード・スイッチ13によって撮像モードが設定されると,第1の撮像装置1または第2の撮像装置2の一方によって一定周期(例えば,1/30秒周期)で被写体が撮像される。被写体像を表す映像信号は,一定周期で第1の撮像装置1または第2の撮像装置2から出力し,アナログ/ディジタル変換回路9に入力する。映像信号は,アナログ/ディジタル変換回路9においてディジタル画像データに変換される。
ディジタル画像データは,画像入力コントローラ5によって画像信号処理回路6に入力し,ガンマ補正などの所定の信号処理が行われる。ディジタル画像データは,VRAM(ビデオ・ランダム・アクセス・メモリ)17に書き込まれた後に,読み出されて画像表示装置10に与えられることにより,画像表示装置27の表示画面に動画として表示(一定周期で表示)される。
この実施例によるディジタル・スチル・カメラ1においては撮像により得られた被写体像に含まれる顔画像部分を検出することができる。このために,ディジタル・スチル・カメラには,顔検出回路8が含まれている。
撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータは,AF(自動合焦)検出回路14に入力する。AF検出回路14において,検出された顔画像部分が合焦するように,ズーム・レンズ(図示略,第1の撮像装置1および第2の撮像装置2の中に含まれている)のズーム位置が制御される。また,撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータは,AE(自動露光)/AWB(自動白バランス)検出回路15にも入力する。AE/AWB検出回路15において,検出された顔画像部分の明るさが適正な明るさとなるように絞り(図示略,第1の撮像装置1および第2の撮像装置2の中に含まれている)の絞りが決定される。さらに,AE/AWB検出回路15において白バランス調整も行われる。もちろん,絞り,ズーム・レンズが不要であれば,第1の撮像装置1および第2の撮像装置2の中に絞り,ズーム・レンズが含まれなくともよい。
シャッタ・レリーズ・ボタン12が押されると,第1の撮像装置1および第2の撮像装置2の両方の撮像装置1,2によって被写体が撮像される。第1の撮像装置1の撮像により得られた第1の画像データおよび第2の撮像装置により得られた第2の画像データは,いずれも圧縮処理回路7に入力する。圧縮処理回路7において所定の圧縮処理が行われた第1の画像データおよび第2の画像データはビデオ・エンコーダ20に入力してエンコーディングされる。エンコーディングされた第1の画像データおよび第2の画像データがメモリ・カード・コントローラ18の制御のもとにメモリ・カード19に記録される。
モード・スイッチ4によって再生モードが設定されると,メモリ・カード28に記録されている第1の画像データおよび第2の画像データが読み取られる。第1の画像データと第2の画像データとは視差が生じる異なる視点から撮像されているから,第1の画像データによって表される第1の画像(右画像)には,第1の画像には見えているが第2の画像には見えていない遮蔽画像部分が含まれている。同様に,第2の画像データによって表される第2の画像(左画像)には,第2の画像には見えているが第1の画像には見えていない遮蔽画像部分が含まれている。この実施例では,これらの遮蔽画像部分を用いて第1の画像(第2の画像)から,所望の被写体像が抽出される。抽出された被写体像が画像表示装置10の表示画面に表示される。
図2は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。図3(A),(B)から図7は画像の一例である。
異なる2つの第1の視点および第2の視点において撮像された第1の画像データおよび第2の画像データがメモリ・カード19から読み取られ,第1の画像データによって表される右画像および第2の画像データによって表される左画像が得られる(ステップ31)。得られた右画像および左画像から右遮蔽画像および左遮蔽画像が生成される(ステップ32)。
図3(A)は左画像の一例であり,図3(B)は右画像の一例である。図3(A)の左画像40は上述のように第2の撮像装置2によって撮像されたものであり,図3(B)の右画像50は第1の撮像装置1によって撮像されたものである。左画像40および右画像50は実質的に同時と見なされるタイミングで撮像されている。
図3(A)に示すように左画像40には,前方に人物像41の被写体像が含まれている。この人物像40の後方に樹木の画像42,43および44が含まれている。図3(B)に示すように右画像50にも前方に人物像51の被写体像が含まれている。この人物像51の後方に樹木の画像52,53および54が含まれている。左画像40に含まれている人物像41の人物と右画像50に含まれている人物像51の人物とは同一人物である。また,左画像40に含まれている樹木の画像42,43および44のそれぞれの樹木と右画像50に含まれている樹木の画像52,53および54のそれぞれの樹木とは同じものである。
左画像40と右画像50とは異なる視点で撮像されているので,上述のように,左画像40には見えているが右画像50には見えていない画像部分が存在する。同様に,右画像50には見えているが左画像40には見えていない画像部分が存在する(このように見えていない画像部分を遮蔽部分領域といい,遮蔽部分領域を表した画像を遮蔽画像ということにする)。
図4(A)は左遮蔽画像の一例であり,図4(B)は右遮蔽画像の一例である。
図4(A)を参照して,左遮蔽画像60には,人物像41の左側に遮蔽部分領域45が表示されている。この遮蔽部分領域45は,図3(A)に示す左画像40には見えているが,図3(B)に示す右画像50には見えていない部分である。同様に,図4(B)を参照して,人物像51の右側に遮蔽部分領域55が表示されている。この遮蔽部分領域55は,図3(B)に示す右画像50には見えているが,図3(A)に示す左画像40には見えていない部分である。このように左遮蔽画像60および右遮蔽画像70が生成される。左遮蔽画像60および右遮蔽画像70の生成方法の詳細は後述する。
図4(A)においては,人物像41の左部分に形成されている遮蔽画像部分45のほかに樹木画像42,43および44の左側にも遮蔽画像部分が生じるが,それらの樹木画像42,43および44の左側に生じる遮蔽画像部分は小さいので図示を省略する。同様に,図4(B)においては,人物像51の右側に形成されている遮蔽画像部分55のほかに樹木画像52,53および54の右側にも遮蔽画像部分が生じるが,樹木画像52,53および54の右側に生じる遮蔽画像部分は小さいので図示を省略する。
図2に戻って,左遮蔽画像60および右遮蔽画像70が生成されると,それぞれの画像60,70に含まれている人物像41,51の顔画像が検出され,検出された顔画像(の中心)が一致するように重ね合わせられる(ステップ34)。
図5は,このようにして生成された重畳画像80の一例である。
左遮蔽画像60と右遮蔽画像70とが,左遮蔽画像60の顔画像と右遮蔽画像70の顔画像とが一致するように重ね合わせられると,人物像81がぶれていない重畳画像80となる。人物像81の背景には,左遮蔽画像60に含まれている樹木画像42,43および44ならびに右遮蔽画像70に含まれている樹木画像52,53および54が含まれている。人物像81の左側には,左遮蔽画像60に含まれている遮蔽部分領域45が表示されている。同様に,人物像の右側には,右遮蔽画像70に含まれている遮蔽部分領域55が表示されている。
重畳画像80の生成に利用された顔の中心は遮蔽部分領域45および55で囲まれている画像部分に含まれている。したがって遮蔽部分領域45および55で囲まれる画像部分が抽出する画像部分であると考えられる。
再び,図2に戻って,顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線と下端同士を結ぶ直線とが算出される(ステップ35)。
図6は,重畳画像80において,顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線L1および下端同士を結ぶ直線L2を示している。
顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線が求められることにより,直線L1が得られる。同様に,顔の中心を含む遮蔽部分領域45,55の下端同士を結ぶ直線が求められることにより,直線L2が得られる。
再び,図2を参照して,重畳画像80において,顔の中心を含む遮蔽部分領域45,55ならびに上端同士を結ぶ直線L1および下端同士を結ぶ直線L2で囲まれる画像部分が抽出される(ステップ36)。
図7は,重畳画像80から,顔の中心を含む遮蔽部分領域45,55ならびに上端同士を結ぶ直線L1および下端同士を結ぶ直線L2で囲まれる画像部分が抽出された画像の一例である。抽出された人物像81を含む画像90が得られるようになる。この人物像81全体が抽出する所望の被写体像である。顔画像から,顔画像を含む人物像81の全体を抽出できることとなる。
この実施例においては,左右の視差が生じている左画像40と右画像50とが用いられているから,抽出する画像の上下範囲を規定するために顔の中心を含む遮蔽部分領域45,55の上端同士と下端同士とをそれぞれ結ぶ直線が利用されているが,上下の視差が生じる2つの画像が用いられる場合には,顔の中心を含む遮蔽部分領域の左端同士および右端同士を結ぶ直線が利用されて,所望の被写体像が抽出されるのはいうまでもない。また,視差が斜め方向である場合には,その斜め方向と垂直に斜めな方向の2本の直線を利用して,前方の被写体像が抽出されることとなろう。
また,上述の実施例においては,抽出する画像の上下範囲を規定するためにもっとも大きい遮蔽部分領域45,55の上端同士と下端同士とをそれぞれ結ぶ直線が利用されているが,抽出すべき画像部分が顔の中心を含む遮蔽部分で囲まれている場合には,これらの直線を利用せずに,もっとも大きい遮蔽部分領域で囲まれる画像部分を抽出するようにしてもよい。
図8は,遮蔽画像生成処理手順(図2ステップ32の処理手順)を示すフローチャートである。この処理は,左画像の遮蔽画像(左遮蔽画像)を生成するものである。
左画像40の画像の画素pが検出される(ステップ101)。右画像50において,その画素pに対応する画素が検出される(ステップ102)。
右画像において,その画素pに対応する画素が見つかると(ステップ103でYES),左画像の画素pが,生成しようとする左画像の遮蔽画像の対応する位置に貼り付けられる(ステップ104)。右画像において,その画素pに対応する画素が見つからないと(ステップ103でNO),遮蔽画像において,その画素pに対応する位置に遮蔽画像部分であることを示すフラグが立てられる(ステップ105)。フラグを立てられた画素によって特定される部分が上述の遮蔽画像部分となる。
すべての画素について上述の処理が終了するまで(ステップ106),画素pが1つずつインクレメントされながら繰り返される(ステップ107)。左画像のすべての画素について上述の処理が行われるように,上述した画素pがインクレメントされる。
左画像の遮蔽画像が生成されると,同様に右画像の遮蔽画像が生成される。
図9から図16は,他の実施例を示すものである。上述の実施例が,2つの異なる視差によって撮像された2駒の画像を利用したものであるのに対し,この実施例は,3つの異なる視差によって撮像された3駒の画像を利用するものである。
図9は,ディジタル・スチル・カメラに含まれる撮像装置の電気的構成を示すブロック図である。図10は,ディジタル・スチル・カメラに含まれる撮像装置の位置関係を示している。
この実施例では,3つの撮像装置1,2,および3が利用される。第1の撮像装置1および第2の撮像装置2は上述したように,カメラを水平に構えた場合に,上下の視差は生じないが左右の視差が生じるように左右の異なる視点から撮像するように位置決めされている。第3の撮像装置3は,カメラを水平に構えた場合に,第1の撮像装置および第2の撮像装置と上下の視差が生じるように位置決めされている。また,第3の撮像装置3は,第1の撮像装置1と第2の撮像装置2との水平方向における中間の位置に位置決めされている。
第1の撮像装置1,第2の撮像装置2および第3の撮像装置3によって被写体が撮像されることにより,それぞれの撮像装置1,2および3から被写体像を表す映像信号が出力する。出力した映像信号は,アナログ/ディジタル変換回路4に入力し,ディジタル画像データに変換される。変換されたディジタル画像データは上述のようにしてメモリ・カード19に記録される。
上述のように,第1の撮像装置1を用いて撮像された画像は右画像であり(図3(B)),第2の撮像装置2を用いて撮像された画像は左画像である(図3(A))。また,第3の撮像装置3を用いて撮像された画像は後述する上画像となる(図12)。
図11は,ディジタル・スチル・カメラの処理手順を示すフローチャートであり,図2の処理手順に対応している。
左右に視差のある2駒の画像と,その2駒の画像と上下に視差のある1駒の画像を表す画像データがメモリ・カード19に記録されており,それらの3駒の画像データがメモリ・カード19から読み取られる(ステップ111)。左右に視差のある2駒の画像は,図3(A)および図3(B)に示した左画像40および右画像50であり,残りの一駒の画像が図12に示す上画像120である。左画像40は,被写体に対して左側から撮像された画像であり,右画像50は,被写体に対して右側から撮像された画像であり,上画像120は被写体に対して上から撮像された画像である。
図12を参照して,上画像120には,人物像121が前方に表示されている。この人物像121の後方には樹木画像122,123および124が表示されている。上画像120に含まれている樹木画像122は,左画像40に含まれている樹木画像42および右画像50に含まれている樹木画像52と同じ樹木である。また,上画像120に含まれている樹木画像123は,左画像40に含まれている樹木画像43および右画像50に含まれている樹木画像53と同じ樹木である。同様に,上画像120に含まれている樹木画像124は,左画像40に含まれている樹木画像44および右画像50に含まれている樹木画像54と同じ樹木である。
図11に戻って,異なる視点をもつ3つの画像のそれぞれについて遮蔽画像が生成されて3つの遮蔽画像が生成される(ステップ112)。左画像40および右画像50については,上述のように左遮蔽画像60(図4(A))および右遮蔽画像70(図4(B))が生成される。上画像120についても上遮蔽画像が生成される。
図13は上遮蔽画像130の一例である。
左遮蔽画像60,右遮蔽画像70と同様に,上遮蔽画像130にも上画像120には見えているが左画像40または右画像50には見えていない部分がある。その部分が遮蔽部分領域125として上遮蔽画像130に表示される。上画像120は,左画像40および右画像50と比べて被写体を上から撮像したものであるから,上画像120には被写体像121の上部分が見えているが,左画像40および右画像50には被写体像121の上の部分に相当する部分は見えていないことは理解できよう。また,上画像120と左右画像40,50との間には上下の視差だけでなく左右の視差もあるため,人物像121の左側,右側にも見えない部分が生じる。したがって,被写体像121の上側ならびに左側および右側に遮蔽部分領域125が形成される。但し,上画像120を撮像する第3の撮像装置3は右画像50を撮像する第1の撮像装置1と左画像40を撮像する第2の撮像装置2との中間にあるから,左側および右側の遮蔽部分領域125の幅は遮蔽部分領域45,55の幅の半分となる。
図2に戻って,3駒の遮蔽画像のそれぞれの画像60,70および130から顔画像が検出され(ステップ113),検出された顔画像(の中心)が一致するように3駒の遮蔽画像60,70および130が重ね合わせられる(ステップ114)。
図14は,3駒の遮蔽画像60,70および130が重ね合わせられた重畳画像150の一例である。
重畳画像150には,人物像131が表示されている。この人物像131は,左画像40の人物像41,右画像50の人物像51および上画像120の人物像121を代表して表したものである。人物像131の上には,遮蔽部分領域125が表示されている。また,人物像131の左には遮蔽部分領域45が表示されている。さらに,人物像131の右側には遮蔽部分領域55が表示されている。人物像131の後方には樹木画像42,43および44,樹木画像52,53および54ならびに樹木画像122,123および124が表示されている。
ふたたび図11に戻って,重畳画像150の中の顔を含む遮蔽部分領域45,55および125によって囲まれている画像部分が抽出される(ステップ115)。これにより,図7に示すように人物像81が抽出された画像が得られる。遮蔽部分領域によって画像部分が囲まれていない場合には,画像の四辺のいずれかの辺と遮蔽部分領域によって囲まれている部分が抽出される。
図15は,遮蔽画像生成処理手順を示すフローチャートであり,図8の処理手順に対応している。
3駒の画像のうち,一の画像の画素pが検出され(ステップ161),他の2駒の画像において,その画素pに対応する画素が検出される(ステップ162)。
他の2駒の画像のいずれにおいても対応する画素が見つかると(ステップ163でYES),一の画像の画素pが生成しようとする遮蔽画像の対応する位置に貼り付けられる(ステップ164)。他の2駒の画像のいずれかにおいて対応する画素が見つからなければ(ステップ163でNO),遮蔽画像において,その画素pに対応する位置に遮蔽画像部分フラグが立てられる(ステップ165)。
すべての画素について上述の処理が繰り返される(ステップ166,167)。
上記の実施例においては,2つまたは3つの撮像装置によって2駒または3駒の視点の異なる画像を得ているが,1つの撮像装置を用いて異なる2つまたは3つの視点から被写体を撮像して2駒または3駒の被写体像を得てもよい。また,1台のカメラを用いて撮像してもよいし,2台または3台のカメラを用いて撮像してもよい。
上述した実施例においては,重畳画像の中から,重畳画像を生成するのに用いられた顔画像(抽出する対象画像部分の一部分または一点)を含む遮蔽画像部分領域内の人物像が抽出されているが,もっとも大きなまたはもっとも幅の広い遮蔽画像部分領域内(顔画像を含む遮蔽画像部分領域内)に存在する画像部分を抽出するようにしてもよい。また,遮蔽画像部分領域が複数存在する場合,その複数の遮蔽画像部分領域の中からユーザが所望の遮蔽画像部分領域を指定し,その指定された遮蔽画像部分領域内の画像部分を抽出するようにしてもよい。たとえば,表示画面上にタッチパネルを形成し,所望の遮蔽画像部分領域をタッチすることにより,所望の遮蔽画像部分領域を指定することができる。
1,2,3 撮像装置(画像入力手段)
11 CPU(第1の遮蔽画像生成手段,第2の遮蔽画像生成手段,重畳画像生成手段,抽出手段)

Claims (8)

  1. 第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力する画像入力手段,
    上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,
    上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,
    抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成する重畳画像生成手段,ならびに
    上記重畳画像生成手段によって生成された重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出する抽出手段,
    を備えた前方被写体像抽出装置。
  2. 上記入力手段は,
    同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力するものであり,
    上記第1の遮蔽画像生成手段は,
    上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成するものであり,
    上記第2の遮蔽画像生成手段は,
    上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成するものであり,
    上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段をさらに備え,
    上記重畳画像生成手段は,
    抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成するものである,
    請求項1に記載の前方被写体像抽出装置。
  3. 抽出する対象画像部分が人物像であり,
    上記重畳画像生成手段は,
    人物像に含まれる顔画像部分のうち少なくとも一点が一致するようにして重畳画像を生成するものである,
    請求項1または2に記載の前方被写体像抽出装置。
  4. 画像入力手段が,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力し,
    第1の遮蔽画像生成手段が,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成し,
    第2の遮蔽画像生成手段が,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成し,
    重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成し,
    抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出する,
    前方被写体像抽出装置の動作制御方法。
  5. 前方被写体像抽出装置のコンピュータを制御するプログラムであって,
    第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力させ,
    上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成させ,
    上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成させ,
    抽出する対象画像部分の一部分または一点が一致するように,生成された第1の遮蔽画像と生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成させ,
    重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出させるように前方被写体像抽出装置のコンピュータを制御するコンピュータ読み取り可能なプログラム。
  6. 同一直線上に存在しない3つの第1の視点第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力する画像入力手段,
    上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,
    上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,
    上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段,
    抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせ重畳画像を生成する重畳画像生成手段,ならびに
    上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する抽出手段,
    を備えた前方被写体像抽出装置。
  7. 画像入力手段が,同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力し,
    第1の遮蔽画像生成手段が,上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成し,
    第2の遮蔽画像生成手段が,上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成し,
    第3の遮蔽画像生成手段が,上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成し,
    重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成し,
    抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する
    前方被写体像抽出装置の動作制御方法
  8. 前方被写体像抽出装置のコンピュータを制御するプログラムであって,
    同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力させ,
    上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成させ,
    上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成させ,
    上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成させ,
    抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像と上記第2の遮蔽画像と上記第3の遮蔽画像とを重ね合わせた重畳画像を生成させ,
    生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出させるように前方被写体像抽出装置のコンピュータを制御するコンピュータ読み取り可能なプログラム。
JP2009092776A 2009-04-07 2009-04-07 前方被写体像抽出装置およびその動作制御方法 Expired - Fee Related JP5197469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009092776A JP5197469B2 (ja) 2009-04-07 2009-04-07 前方被写体像抽出装置およびその動作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009092776A JP5197469B2 (ja) 2009-04-07 2009-04-07 前方被写体像抽出装置およびその動作制御方法

Publications (2)

Publication Number Publication Date
JP2010245864A JP2010245864A (ja) 2010-10-28
JP5197469B2 true JP5197469B2 (ja) 2013-05-15

Family

ID=43098396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009092776A Expired - Fee Related JP5197469B2 (ja) 2009-04-07 2009-04-07 前方被写体像抽出装置およびその動作制御方法

Country Status (1)

Country Link
JP (1) JP5197469B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061440A (ja) * 2011-09-13 2013-04-04 Canon Inc 撮像装置および撮像装置の制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203143A (ja) * 1992-12-28 1994-07-22 Canon Inc 被写体の抽出方法

Also Published As

Publication number Publication date
JP2010245864A (ja) 2010-10-28

Similar Documents

Publication Publication Date Title
JP5640143B2 (ja) 撮像装置及び撮像方法
KR101396743B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP5526233B2 (ja) 立体視用画像撮影装置およびその制御方法
JP5803467B2 (ja) 画像処理装置および撮像装置、ならびに画像処理方法
JP5284306B2 (ja) 立体撮像装置、ゴースト像処理装置およびゴースト像処理方法
JP5469258B2 (ja) 撮像装置および撮像方法
JP5612774B2 (ja) 追尾枠の初期位置設定装置およびその動作制御方法
US8878910B2 (en) Stereoscopic image partial area enlargement and compound-eye imaging apparatus and recording medium
WO2011125461A1 (ja) 画像生成装置及び方法並びにプリンタ
JP2010041586A (ja) 撮像装置
JP5978573B2 (ja) 映像信号処理装置および映像信号処理方法
JP5874192B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011087128A (ja) 複眼カメラ及び被写体判別方法
JP2013055565A5 (ja)
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
JP2011048295A (ja) 複眼撮影装置及びその姿勢検出方法
JP5197469B2 (ja) 前方被写体像抽出装置およびその動作制御方法
JP2010154311A (ja) 複眼撮像装置及び立体画像取得方法
WO2012147368A1 (ja) 撮影装置
WO2011148746A1 (ja) 立体撮像装置および顔検出装置ならびにそれらの動作制御方法
TWI516120B (zh) 產生全景影像的方法及其影像擷取裝置
JP2012094997A (ja) 撮影機器
JPWO2012002039A1 (ja) 代表画像決定装置および画像圧縮装置ならびにそれらの動作制御方法およびそのプログラム
JP4887461B2 (ja) 3次元画像撮像装置及び3次元画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees