JP2011077900A - 画像処理装置、カメラ及び画像処理方法 - Google Patents

画像処理装置、カメラ及び画像処理方法 Download PDF

Info

Publication number
JP2011077900A
JP2011077900A JP2009228226A JP2009228226A JP2011077900A JP 2011077900 A JP2011077900 A JP 2011077900A JP 2009228226 A JP2009228226 A JP 2009228226A JP 2009228226 A JP2009228226 A JP 2009228226A JP 2011077900 A JP2011077900 A JP 2011077900A
Authority
JP
Japan
Prior art keywords
face
image
focus
stereoscopic
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009228226A
Other languages
English (en)
Other versions
JP5346266B2 (ja
JP2011077900A5 (ja
Inventor
Takashi Misawa
岳志 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009228226A priority Critical patent/JP5346266B2/ja
Priority to US12/893,799 priority patent/US8599245B2/en
Publication of JP2011077900A publication Critical patent/JP2011077900A/ja
Publication of JP2011077900A5 publication Critical patent/JP2011077900A5/ja
Application granted granted Critical
Publication of JP5346266B2 publication Critical patent/JP5346266B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)

Abstract

【課題】複数の顔と共に複数の顔枠を表示する場合でも、立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えること。
【解決手段】複数の撮像手段でそれぞれ撮像して得られる複数の撮像画像から構成される 立体撮像画像を入力する立体画像入力部101と、前記各撮像画像における顔の位置を特定する顔位置特定部124と、前記各撮像画像における合焦位置を特定する合焦位置特定部146、前記顔の位置と前記複数の撮像手段の基線長及び輻輳角とに基づいて 、前記顔の位置の距離情報を取得する距離情報取得部144と、前記合焦位置と前記顔の位置の距離情報とに基づいて、前記顔の位置の焦点状態を特定する焦点状態特定部148と、前記顔の位置を示す顔枠であって、前記顔の位置の焦点状態に応じてぼかした顔枠を生成する顔枠生成部160と、前記生成した顔枠及び前記立体撮像画像から、立体表示画像を生成する立体表示画像生成部180を備えた。
【選択図】図3

Description

本発明は、撮像した複数の顔と共に、検出した複数の顔枠を表示する場合でも、立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることを可能にする画像処理装置、カメラ及び画像処理方法に関する。
複数の視点でそれぞれ被写体を撮像して立体画像を生成する3Dデジタルカメラがユーザに提供されている。立体画像は例えば2つの視点でそれぞれ撮像された2枚の撮像画像からなり、これら2枚の撮像画像をそれぞれ観察者に異なる眼で観察させることにより、奥行き感のある被写体像を観察者に認識させることができる。
また、特許文献1には、複数の顔を撮影するシーンにおいて、検出した複数の顔領域を表示する構成が開示されている。複数の顔領域を顔領域の大きさ又は位置に基づいて2以上のグループに分類し、複数のグループのうちからユーザの操作で指定されたグループを基準として、撮影制御(合焦制御、自動露出制、及び、オートホワイトバランス)を行う。特許文献2には、顔の検出状況に応じて、顔枠の色、線の種類、線の太さ、透過度、点滅状態、顔枠内の輝度又は色を、顔毎に異ならせる構成が開示されている。特許文献3には、顔らしさを示す評価値に応じて、顔枠の枠線の濃淡、色相、線分方向表示率、又は、幅を切り替える構成が開示されている。
特開2008−252713号公報 特開2008−131405号公報 特開2007−274207号公報
撮像装置からの距離が異なる複数の顔を撮像し画像を取得した場合、画像中の焦点を合わせた顔(主要被写体)は、くっきりと表示される。また、主要被写体と距離が異なり焦点深度内に入らない顔(副被写体)はボケて表示される。しかし、ボケた顔に対しても顔検出は可能である。つまり画像内の検出した顔の全てに顔枠を表示する場合、焦点が合っている、いないとは無関係に、顔枠自体はくっきりと表示される。立体表示装置に表示した場合、顔枠は検出された顔の位置に表示されるが、ボケて表示された顔であっても、その顔の周囲の顔枠がくっきりと表示されることになる。例えば合焦位置よりも遠くにあるために合焦していない顔に対しても、視認しやすい顔枠がくっきりと表示される。つまり、同じ距離にある顔と顔枠との間でボケ方が異なるため、観察者の頭の中で混乱が生じ、被写体の立体視が阻害されてしまうことになる。また、観察者の目は顔枠と同じようにボケた顔もくっきり見ようとして目の焦点合わせを試みるが、実際には不可能であるため、疲労してしまうという問題もある。
特許文献1には、複数の顔領域をグループ分けしてそのグループを指定する操作をユーザにさせることで、ユーザの利便性を高める構成が開示されているが、立体画像を立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることが可能な構成については、開示も示唆もない。特許文献2、3には、顔の検出状況に応じて顔枠を切り換える構成が開示されているが、立体画像を立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることが可能な構成については、開示も示唆もない。
本発明はこのような事情に鑑みてなされたもので、撮像した複数の顔と共に、検出した複数の顔枠を表示する場合でも、立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることを可能にする画像処理装置、カメラ及び画像処理方法を提供することを目的とする。
前記目的を達成するために、本発明は、複数の撮像手段でそれぞれ撮像して得られる複数の撮像画像から構成される 立体撮像画像を入力する画像入力手段と、前記各撮影画像から顔を検出する顔検出手段 と、前記各撮像画像における検出した顔の位置を特定する顔位置特定手段と、前記各撮像画像における合焦位置を特定する合焦位置特定手段 と、前記顔の位置と、前記複数の撮像手段間の相対距離と、前記各撮像手段の撮像方向とに基づいて、前記顔の位置の距離情報を取得する距離情報取得手段と、前記合焦位置と、前記顔の位置の距離情報とに基づいて、前記顔の位置の焦点状態を特定する焦点状態特定手段と、前記顔の位置を示す顔枠であって、前記顔の位置の焦点状態に応じてぼかした顔枠を生成する顔枠生成手段と、前記生成した顔枠及び前記立体撮像画像から、立体表示画像を生成する立体表示画像生成手段と、を備えたことを特徴とする画像処理装を提供する。
例えば、前記距離情報取得手段は、前記顔の位置と、前記複数の撮像手段の基線長及び輻輳角とに基づいて、前記顔の位置の距離情報を取得する。
即ち、撮像手段からの距離が異なる複数の顔を撮像して複数の顔枠を表示する場合でも、各撮像画像における検出した顔の位置が特定され、各撮像画像における合焦位置が特定され、顔の位置と複数の撮像手段間の相対距離と前記各撮像手段の撮像方向とに基づいて、顔の位置の距離情報が取得され、前記合焦位置と前記顔の位置の距離情報とに基づいて、顔の位置の焦点状態が特定され、顔の位置を示す顔枠であって顔の位置の焦点状態に応じてぼかした顔枠が生成されて、生成した顔枠及び立体撮像画像から立体表示画像が生成されるので、立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることが可能になる。
また、合焦位置と顔の位置の距離情報とに基づいて焦点状態を特定することで、適正な奥行き感を与える顔枠を生成することが可能になる。
本発明の一態様では、前記焦点状態特定手段は、前記顔の位置が合焦状態であるか非合焦状態であるかを特定し、前記顔枠生成手段は、前記顔の位置が非合焦状態である場合には、前記顔の位置が合焦状態である場合よりも前記顔枠をぼかした状態にする。
本発明の一態様では、前記焦点状態特定手段は、前記顔の位置のデフォーカス量を前記焦点状態として特定し、前記顔枠生成手段は、前記デフォーカス量に応じて前記顔枠のぼかし量を切り換える。
即ち、非合焦状態のボケた顔と共にその顔のボケの程度に応じたぼかし量の顔枠が表示されることになるので、立体視する観察者に対して、より自然な感じを与えることができると共に、立体感をさらに向上させることができる。
本発明の一態様では、前記距離情報取得手段は、前記複数の撮像画像間における前記顔の位置の差分を前記顔の視差量として検出し、少なくとも該視差量に基づいて、前記顔の位置の距離情報を求める。
即ち、複数の撮像画像から顔の視差量を検出してその顔の視差量を利用するので、特別なハードウェアが不要であり、また、容易且つ迅速に顔の位置の焦点状態を特定することができる。
本発明の一態様では、前記顔枠生成手段は、前記顔の位置を立体視可能に示す立体顔枠であって、前記顔の位置の焦点状態に応じてぼかした立体顔枠を生成する。
本発明の一態様では、前記表示画像を表示する画像表示手段を備える。
また、本発明は、前記画像処理装置を備えたことを特徴とするカメラを提供する。
即ち、撮影者は、顔枠により顔の検出状態を的確に把握できるとともに、立体感を十分に感じることができ、且つ、目の疲労も少ない。
また、本発明は、複数の撮像手段でそれぞれ撮像して得られる複数の撮像画像から構成される立体撮像画像を入力する画像入力ステップと、前記各撮影画像から顔を検出する顔検出ステップと、前記各撮像画像における検出した顔の位置を特定する顔位置特定ステップと、前記各撮像画像における合焦位置を特定する合焦位置特定ステップと、前記顔の位置と、前記複数の撮像手段間の相対距離と、前記各撮像手段の撮像方向とに基づいて、前記顔の位置の距離情報を取得する距離情報取得ステップと、前記合焦位置と、前記顔の位置の距離情報とに基づいて、前記顔の位置の焦点状態を特定する焦点状態特定ステップと、前記顔の位置を示す顔枠であって、前記顔の位置の焦点状態に応じてぼかした顔枠を生成する顔枠生成ステップと、前記生成した顔枠及び前記立体撮像画像から、立体表示画像を生成する立体表示画像生成ステップと、を含むことを特徴とする画像処理方法を提供する。
本発明によれば、撮像した複数の顔と共に、検出した複数の顔枠を表示する場合でも、立体視する観察者の立体感を阻害することなく且つ目の疲労を抑えることを可能にする。
本発明に係る画像処理装置の一例の全体構成を示すブロック図 被写体距離と視差量との関係の説明に用いる説明図 画像処理装置の要部の一例を示すブロック図 画像処理の第1実施例の流れを示すフローチャート 撮影場面の一例を示す説明図 顔枠基本情報の説明に用いる説明図 顔の視差量算出の説明に用いる説明図 画像処理の第2実施例の流れを示すフローチャート (A)は顔枠をぼかさなかった場合の表示画像例、(B)は顔枠をぼかした場合の表示画像例 本発明を適用した3Dデジタルカメラの全体構成を示すブロック図
以下、添付図面に従って、本発明の実施形態について、詳細に説明する。
図1は、本発明に係る画像処理装置の一例の全体構成を示すブロック図である。
図1において、画像処理装置100は、立体画像入力部101、信号処理部102、立体画像表示部103、画像記録部104、操作部105、記憶部106、及び、CPU110を含んで構成されている。
立体画像入力部101は、立体画像(「立体撮像画像」ともいう)を入力する入力デバイスである。立体画像は、複数の視点で被写体をそれぞれ撮像して得られる複数の撮像画像(複数の平面画像)からなる。尚、立体画像は、複数の視点で実際に被写体を撮像して得た実視点画像には特に限定されず、複数の仮想視点で仮想的に被写体を撮像すると得られる仮想視点画像、即ち実視点画像を画像処理して得られる画像でもよい。また、立体画像は、複数の平面画像からなる立体画像には特に限定されず、複数の平面画像から生成された一視点の平面画像に、奥行き情報を付加して構成される立体画像でもよい。奥行き情報は、例えば、画像中の各点(各画素)の視差量、又は視差量に対応する情報を示す。
また、立体画像入力部101を構成する入力デバイスは、撮影レンズ及び撮像素子をそれぞれ有する複数の撮像デバイス(撮像手段)により直接的に立体画像を入力する場合には特に限定されず、メモリカード等の記録媒体から立体画像を読み取る記録媒体インタフェースや、ネットワークを介して立体画像を受信するネットワークインタフェースでもよい。
信号処理部102は、立体画像に対し各種の信号処理を施す。
立体画像表示部103は、立体画像を立体視可能に表示する表示デバイスである。例えば、光方向制御(ライト・ディレクション・コントロール)方式の3D液晶表示デバイスを用いる。光方向制御方式では、液晶表示デバイスの背面を照らすバックライトの方向を、観察者の右眼方向及び左眼方向に制御する。これにより、観察者の左眼には左撮像画像、右眼には右撮像画像がそれぞれ映るようにする。視差バリア(パララックスバリア)方式の立体視表示デバイスでもよい。視差バリア方式では、縦方向に刻まれたスリットを通して画像を観察者に見せる。その他の空間分割方式でもよい。また、かまぼこ状のレンズ群を有するレンチキュラレンズを備えた立体視表示デバイスでもよい。また、観察者に画像分離メガネを着用させることで、立体視させてもよい。また、特に液晶表示デバイスには限定されず、例えば有機ELデバイスでもよい。
画像記録部104は、立体画像をメモリカード等の記録媒体に記録するデバイスである。
操作部105は、ユーザが指示を入力する入力デバイスである。例えば、キースイッチにより構成される。ポインティングデバイスでもよいし、タッチパネルセンサでもよい。記憶部106は、不揮発性メモリを含んで構成され、各種情報を記憶する。
CPU(Central Processing Unit)110は、プログラムに従って、画像処理装置100の各部を制御する。
次に、被写体距離とデフォーカス量(以下「ボケ量」ともいう)との関係について、説明する。尚、本明細書では、合焦した物体(主要被写体)までの距離に限らず、非合焦の物体(副被写体)までの距離も、「被写体距離」という。
撮影レンズから物体(例えば顔)までの距離(被写体距離)をa、撮影レンズから像までの距離をb、撮影レンズの焦点距離をfとすると、次の数1が成立する。
[数1] 1/a+1/b=f
数1の公式を利用して撮影レンズの錯乱円半径xを算出する。撮影レンズの絞り値をFとすると、焦点からdずれた位置にある光点の錯乱円半径x(後ボケ量)は、数2で表される。
[数2] x=df/2{F(a−f)(a+d)}
また、前ボケの場合の錯乱円半径x(前ボケ量)は、数3で表される。
[数3] x=df/2{F(a−f)(a−d)}
数2及び数3から解るように、ボケ量は、焦点距離fの2乗に比例して大きくなり、絞り値Fに反比例し、ほぼフォーカス面距離の2乗に比例して小さくなる。フォーカス面との距離差は、後ボケの場合にはd/(a+d)に比例し、前ボケの場合にはd/(a−d)に比例する。要するに、焦点距離f及び絞り値Fが決まっていれば、合焦した顔までの距離(主要被写体距離)と非合焦の顔までの距離(副被写体距離)との差分に基づいて、各顔画像のボケ量を算出することができる。
次に、被写体距離と視差量との関係について、図2を用いて説明する。
図2において、左撮像手段11L及び右撮像手段11Rは、ズームレンズ、フォーカスレンズ及び絞りを有する撮影レンズと、CCDセンサなどの撮像素子とを有する。尚、発明の理解を容易にするため、撮像手段11L、11Rの撮影レンズの焦点距離、及び、輻輳角θc(撮像手段11L、11Rの光軸(撮像方向)同士が成す角度)、及び、基線長SB(撮像手段11L、11Rの光軸の間隔(撮像手段間の相対距離))は、固定であるものとして説明する。
複数の撮像手段11L、11Rにより、同一の被写体91(ここでは球を図示した)を複数の視点から撮像することで、複数の平面画像(左撮像画像92L及び右撮像画像92R)が生成される。生成された平面画像92L、92Rは、同一の被写体91が投影された被写体像93L、93Rを、それぞれ含んでいる。一対の平面画像92L、92Rを、立体視表示可能なモニタ60で重ね合わせて表示することで、すなわち立体視表示することで、立体画像94が再生される。観察者95は、モニタ60上の立体画像94を両眼96L、96Rから観察する。そうすると、観察者95には被写体91の虚像97が飛び出して見える。尚、図2では、光軸間の交点99(クロスポイント)よりも近い位置に被写体91が存在したので虚像97が手前側に飛び出して見えるが、交点99よりも遠い位置に被写体が存在した場合には虚像が奥側に引き込んで見える。
図2に示すように被写体距離Sが交点99までの距離よりも小さい範囲内では、被写体距離Sが小さいほど、立体画像94上で被写体像93L、93Rの中心座標XLF、XRFの差分|XLF−XRF|が大きくなる。即ち、被写体距離Sが小さいほど、平面画像92L、92R間で対応画素同士が離れる。ここで、差分|XLF−XRF|は、両眼を結ぶ方向における座標(x座標)のみであり、これを視差量APとして表す。つまり、基線長SB及び輻輳角θc及び焦点距離が決まっていれば、交点99よりも近い物体点98については、被写体距離Sが小さいほど立体画像94における視差量AP(画素98Lと画素98Rとの位置の差分)が大きくなり、観察者95が体感する虚像97の飛び出し量ADも大きくなる。また、図示を省略したが、交点99よりも遠い点については、被写体距離Sが大きいほど、視差量APが大きくなり、観察者95が体感する虚像の引き込み量も大きくなる。立体画像94における被写体像93L、93Rの位置関係により、交点99よりも被写体91の物体点98が近い場合には、視差量APに正の符号を付し、交点99よりも被写体91の物体点98が遠い場合には、視差量APに負の符号を付すことで、交点99の前後にわたって被写体距離Sと視差量APとを対応付けることができる。
即ち、撮像手段11L、11Rの焦点距離及び輻輳角θc及び基線長SBが決まっていれば、視差量APから被写体距離Sを一義的に対応付けることができる。また、焦点距離、輻輳角θc、及び、基線長SBのうちで可変のものがある場合には、その可変のパラメータにも基づいて被写体距離Sを求めればよい。
次に、図1の焦点状態特定部114による焦点状態特定について説明する。
例えば、第1に、左撮像画像における顔の位置(顔座標)と右撮像画像における顔の位置(顔座標)との差分(視差量)を利用して、顔の位置のデフォーカス量を求める態様がある。まず、左撮像画像及び右撮像画像にて顔画像を検出する。次に、顔画像ごとに、各撮像画像における検出した顔画像の位置を特定する。次に、顔画像ごとに、顔画像の視差量を検出する。次に、顔画像ごとに、少なくとも顔画像の視差量と複数の撮像手段間の相対距離及び各撮像手段の撮像方向とに基づいて、顔の位置の距離情報(例えば撮影レンズと顔との距離)を特定する。次に、合焦している物体(例えば顔)の位置(合焦位置)の距離情報、非合焦の顔の位置の距離情報、焦点距離、及び、絞り値に基づいて、非合焦の顔画像のボケ量(デフォーカス量)を特定する。
尚、本発明は、視差量を用いないで顔の位置の距離情報を求める場合にも適用可能である。
第2に、フォーカスレンズの合焦位置をコントラスト方式によりサーチする際に、顔ごとの被写体距離もフォーカスレンズの位置に基づいて特定しておく態様がある。第1の態様と同様、合焦位置の距離情報、及び、非合焦の顔の位置の距離情報、焦点距離、及び、絞り値に基づいて、非合焦の顔画像のボケ量を特定すればよい。
第3に、顔の位置の距離情報を直接的に取得する態様がある。例えば、被写体を撮像して撮像画像を取得する際に、距離画像センサにより距離画像も取得する。第1の態様と同様、合焦位置の距離情報、及び、非合焦の顔の位置の距離情報、焦点距離、及び、絞り値に基づいて、非合焦の顔画像のボケ量を特定すればよい。
第4に、顔画像のデフォーカス量を直接的に特定する態様がある。例えば、撮像素子に、撮影用の通常画素と共に位相差検出用画素をアレイ状に配設しておき、その位相差検出用画素の出力信号に基づいて、顔画像のデフォーカス量を求める。
上記第3及び第4の態様では特別なハードウェアが必要だが、上記第1及び第2の態様では、特別なハードウェアを必要としない利点がある。また、上記第1の態様では、通常の顔検出処理により得られる顔枠の位置情報を顔の位置情報として利用可能なので、顔のボケ量を容易且つ迅速に得られる利点がある。
図3は、図1に示した画像処理装置100の要部の一例を示すブロック図である。
CPU10は、顔検出部122、顔位置特定部124、視差量検出部142、距離情報取得部144、合焦位置特定部146、焦点状態特定部148、顔枠生成部160、及び、立体表示画像生成部180を含んで構成されている。
顔検出部122は、立体画像を構成する各撮像画像において、顔画像(以下単に「顔」ともいう)を検出する。尚、顔画像の検出は公知の方法により行えばよいので、ここではその説明を省略する。
顔位置特定部124は、立体画像を構成する各撮像画像において、顔検出部122で検出した顔画像の位置を特定する。例えば、顔画像の座標と、縦幅及び横幅とを特定する。
視差量検出部142は、立体画像を構成する各撮像画像間において、顔検出部122で検出した顔画像の位置の差分(視差量)を検出する。2視点の場合、左撮像画像における顔画像の位置と、右撮像画像における顔画像の位置との差分を算出する。
距離情報取得部144は、顔画像の視差量(図2のAP)と、複数の撮像手段(図2の11L,11R)間の相対距離(基線長)と、各撮像手段の撮像方向(光軸方向)とに基づいて、交点(図2の99)から顔までの距離(顔の位置の距離情報)を算出する。尚、複数の撮像手段の焦点距離が可変である場合には、その焦点距離にも基づいて被写体距離を算出する。
合焦位置特定部146は、立体画像を構成する各撮像画像における合焦位置を特定する。例えば、どの顔に合焦したか、或いは、顔以外のどの物体に合焦したかを特定する。
焦点状態特定部148は、顔検出部122で検出された顔ごとに、合焦位置特定部146で特定した合焦位置と、距離情報取得部144で取得した顔の位置の距離情報とに基づいて、顔の位置の焦点状態を特定する。尚、顔以外の物体に合焦した場合には、その物体の位置(合焦位置)の距離情報にも基づいて、顔の位置の焦点状態を特定する。例えば、顔画像のデフォーカス量として、錯乱円半径を算出する。尚、焦点距離及び絞り値が可変である場合には、その可変パラーメータにも基づいて、
錯乱円半径を算出する。
顔枠生成部160は、検出された顔ごとに、顔の位置を示す顔枠であって、顔の位置の焦点状態に応じてぼかした顔枠を生成する。例えば、顔枠を立体状態で作成し、三次元フィルタを用いて、立体状態でぼかす。
本例の顔枠生成部160は、顔枠基本情報生成部162、及び、ぼかし処理部164を含んで、構成されている。
顔枠基本情報生成部162は、顔画像ごとに、顔枠の位置及びサイズ、顔枠の色及び形状を示す顔枠基本情報を生成する。尚、顔枠の色及び形状は、顔画像ごとに異なっていてもよい。
ぼかし処理部164は、顔画像ごとに、顔画像のデフォーカス量に応じて顔枠のぼかし量(フィルタ係数)を特定し、顔枠に対してフィルタ処理を施す。
立体表示画像生成部180は、顔枠生成部160で生成された顔枠と、立体画像入力部101に入力された立体画像から、立体画像表示部103で立体視表示可能な画像(「立体表示画像」ともいう)を生成する。
図4は、画像処理の第1実施例の流れを示すフローチャートである。
ステップS2にて、立体画像入力部101により、立体画像を入力する。本例の立体画像は、左撮像画像及び右撮像画像からなる2視点の撮像画像である。以下では、立体画像に、互いに被写体距離が異なる複数の顔画像(単に「顔」ともいう)が含まれているものとして説明する。
ステップS4にて、立体画像における顔検出及び顔位置特定を行う。複数の顔が撮像されている場合、まず、顔検出部122により、左撮像画像及び右撮像画像のそれぞれにおいて、複数の顔画像を検出する。次に、顔位置特定部124により、検出された顔画像ごとに、各撮像画像における顔画像の位置及びサイズを特定する。例えば、図5に模式的に示すように、左撮像手段11L及び右撮像手段11Rにより3人を撮像した場合、3人の顔画像が検出され、各顔画像の座標及びサイズが特定される。本例では、検出した顔画像の数を変数i及びkに設定しておく。
ステップS6にて、顔枠生成部160により、顔画像ごとに、顔枠基本情報を生成する。例えば、図6に示す左撮像画像用の顔枠81L、82L、83L及び右撮像画像用の顔枠81R、82R、83Rの顔枠基本情報を生成する。ここで3人の顔枠は、位置及びサイズが互いに異なるけれども、ボケのない枠である。尚、本ステップでは、図6に示した顔枠を実際に表示するわけではなく、顔枠を表示するための基本的な情報を生成するのみである。
ステップS8にて、顔画像ごとに、顔画像の焦点状態を特定する。具体的には、次のようにして、デフォーカス量を算出する。
まず、視差量検出部142により、顔画像ごとに、左撮像画像における顔画像の位置と右撮像画像における顔画像の位置との差分を、視差量として検出する。本例では、図7に示すように、左撮像画像の顔枠81L、82L、83Lの位置と右撮像画像との顔枠81R、82R、83Rの位置との差分AP1、AP2、AP3を視差量として算出する。ここで、視差量は、撮像手段(図2の11L、11R)の光軸の交点(図2の99)よりも顔が近いか遠いかを示す符号と、交点99から顔までの距離に対応する絶対値とからなる。
次に、距離情報取得部144により、顔画像ごとに、視差量と輻輳角(図2のθc)及び基線長(図2のSB)とに基づいて、顔の位置の距離情報を算出する。尚、本例では、焦点距離が固定であるが、焦点距離が可変である場合には、その可変である焦点距離にも基づいて、被写体距離を算出すればよい。本例では、交点99を基準とした距離を顔の位置の距離情報として算出するが、撮影レンズから顔までの距離を求めてもよい。
次に、合焦位置特定部146により、各撮像画像における合焦位置を特定する。本例では、どの顔に合焦したかを特定する。例えば、画像中で一番大きい顔、撮像手段に一番近い顔、あるいは、ユーザから指定された顔に合焦されている。
次に、焦点状態特定部148により、顔画像ごとに、顔画像のデフォーカス量を特定する。例えば、合焦位置、顔の位置の距離情報、焦点距離f及び絞り値Fに基づいて、錯乱円半径を算出する。尚、顔以外の物体に合焦した場合には、合焦位置の距離情報にも基づいて、非合焦の顔画像のデフォーカス量を特定する。
ステップS10にて、i番目の顔に合焦しているか否かを判定する。合焦していると判定された場合にはステップS14に進み、合焦していないと判例された場合にステップS12に進む。
ステップS12にて、顔枠生成部160により、i番目の顔枠をぼかすフィルタ処理を行う。例えば、各顔枠内の点像(点画素)がボケるように、ガウシアンフィルタをかける。例えば、焦点状態特定部114は、錯乱円半径が許容範囲内であるか否かを判定し、許容範囲内であれば顔の位置が合焦状態であると特定し、許容範囲外であれば顔の位置が非合焦状態であると特定する。そして、顔枠生成部160は、合焦状態であれば顔枠に対してフィルタ処理を行わず、非合焦状態であれば顔枠に対してフィルタ処理を行う。即ち、顔枠生成部160は、顔の位置が非合焦である場合には、顔の位置が合焦状態である場合よりも顔枠をぼかした状態にする。
ステップS14にて、iをデクリメントし、ステップS16にて、i=0であるか否かを判定する。i=0の場合、即ち全ての顔について合焦判定が終了した場合には、ステップS18に進み、iが0でない場合には、ステップS10に戻る。
ステップS18にて、立体表示画像生成部180により、入力された立体画像と生成された顔枠とから、表示画像を生成する。本例では、立体画像を構成する各撮像画像に顔枠を合成する。
尚、フィルタ処理により顔枠をぼかす場合を例に説明したが、予めぼかした顔枠を記憶部106に記憶しておき、顔の位置のデフォーカス量が許容範囲外である場合には、通常の顔枠をぼかした顔枠に切り換えるようにしてもよい。
また、顔の位置の距離情報を、入力された立体画像に基づいて求める場合を例に説明したが、立体画像を含む画像ファイルのタグ(付加情報)から顔の焦点状態を求めてもよい。
図8は、画像処理の第2実施例の流れを示すフローチャートである。
ステップS22〜28は、図4に示した第1実施例のステップS2〜8と同様である。
ステップS30にて、i番目の顔が合焦しているか否かを判定する。合焦していると判定された場合にはステップS34に進み、合焦していないと判例された場合にステップS32に進む。
ステップS32にて、顔枠生成部160により、i番目の顔枠をデフォーカス量に応じてぼかすフィルタ処理を行う。ここで、各顔画像のデフォーカス量に応じて、フィルタ係数を切り換える。例えば、複数段階(例えば5段階)のフィルタ係数を予め記憶部106に記憶しておき、顔画像のデフォーカス量が大きいほど顔枠のぼかし量が大きくなるようにフィルタ係数を選択する。例えば、錯乱円半径に応じて選択する。即ち、顔画像のデフォーカス量に応じて、顔枠のぼかし量を切り換える。
ステップS34にて、iをデクリメントし、ステップS36にて、i=0であるか否かを判定する。i=0の場合には、ステップS38に進み、iが0でない場合には、ステップS30に戻る。
ステップS38は、第1実施例のステップS18と同様である。
図9(A)は顔枠をぼかさなかった場合の表示画像例を示し、図9(B)は顔枠をぼかした場合の表示画像例を示す。図9(A)では、顔がボケて表示されていても、その周囲の顔枠がくっきりと見えるので、観察者は合焦位置にある顔も、それよりも遠くにある顔も、同じ距離にあるものと認識しがちである。即ち、顔枠により立体感が阻害されてしまう。また、観察者の目は、くっきりした顔枠内のボケた顔もくっきり見ようと目の焦点合わせを試みるため、疲労してしまう。これに対して、図9(B)では、合焦位置にある顔は顔枠がくっきりと見え、それよりも遠くにある顔は顔枠がボケて見える。即ち、顔の焦点状態に顔枠の表示状態が対応しているので、顔枠による立体感の阻害がない。尚、図9では便宜上一視点の画像のみ表したが、立体画像表示部103には、実際には複数視点の画像(立体表示画像)が表示される。
図10は、本発明を適用した3Dデジタルカメラの全体構成を示すブロック図である。
図10において、3Dデジタルカメラ1は、同一の被写体を複数の視点から撮像して立体画像を生成可能な立体撮影装置であり、CPU10、撮像系11(11R,11L)、操作部12、ROM16、フラッシュROM18、SDRAM20、VRAM22、ズームレンズ制御部24(24L、24R)、フォーカスレンズ制御部26(26L、26R)、絞り制御部28(28L、28R)、撮像素子制御部36(36L、36R)、アナログ信号処理部38(38L、38R)、A/D変換器40(40L、40R)、画像入力コントローラ41(41L、41R)、デジタル信号処理部42(42L、42R)、AF評価値取得部44、AE/AWB評価値取得部46、圧縮・伸張処理部52、メディア制御部54、メモリカード56、モニタ制御部58、モニタ60、電源制御部61、バッテリ62、フラッシュ制御部64、フラッシュ65、姿勢検出センサ66、スピーカ67、及び、計時部68を含んで構成されている。
左眼用の撮像系11L(「左撮像手段」ともいう)は、主として、撮影レンズ14L、ズームレンズ制御部24L、フォーカスレンズ制御部26L、絞り制御部28L、撮像素子34L、撮像素子制御部36L、アナログ信号処理部38L、A/D変換器40L、画像入力コントローラ41L、デジタル信号処理部42L等から構成されている。
右眼用の撮像系11R(「右撮像手段」ともいう)は、主として、撮影レンズ14R、ズームレンズ制御部24R、フォーカスレンズ制御部26R、絞り制御部28R、撮像素子34R、撮像素子制御部36R、アナログ信号処理部38R、A/D変換器40R、画像入力コントローラ41R、デジタル信号処理部42R等から構成されている。
なお、本明細書では、撮像系11L、11Rにより被写体を撮像して得られる画像信号を、「撮像画像」という。また、左眼用の撮像系11Lにより得られる撮像画像を「左撮像画像」、右眼用の撮像系11Rにより得られる撮像画像を「右撮像画像」という。
CPU10は、撮影、再生などデジタルカメラ全体の動作を統括制御する制御手段として機能し、操作部12からの入力に基づき、プログラムに従って各部を制御する。
操作部12は、シャッタボタン、電源スイッチ、モードスイッチ、ズームボタン、十字ボタン、メニューボタン、OKボタン、BACKボタンなどを含む。シャッタボタンは、いわゆる「半押し」と「全押し」が可能な二段ストローク式のスイッチで構成されている。電源スイッチは、デジタルカメラ1の電源のオン及びオフを切り替えるスイッチである。モードスイッチは、各種のモードを切り替えるスイッチである。ズームボタンはズーム操作に用いられる。十字ボタンは、上下左右4方向に操作可能であり、メニューボタン、OKボタン及びBACKボタンと共に、各種の設定操作に用いられる。
バス14を介して接続されたROM16には、CPU10が実行するプログラム及びCPU10の制御に必要な各種データ等が格納されており、フラッシュROM18には、ユーザ設定情報等のデジタルカメラ1の動作に関する各種設定情報等が格納されている。SDRAM20は、CPU10の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用され、VRAM22は、表示用の画像データ専用の一時記憶領域として利用される。
左右一対の撮影レンズ14L、14Rは、ズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを含んで構成されている。
ズームレンズ30ZR、30LRは、ズームレンズ駆動手段としてのズームレンズ制御部24R、24Lにより駆動されて、光軸に沿って前後移動する。CPU10は、ズームレンズ制御部24L、24Rを介して、ズームレンズ30LR、30ZRの位置を制御し、撮影レンズ14L、14Rのズーミングを行う。
フォーカスレンズ30FL、30FRは、フォーカスレンズ駆動手段としてのフォーカスレンズ制御部26L、26Rにより駆動されて、光軸に沿って前後移動する。CPU10は、フォーカスレンズ制御部26L、26Rを介して、フォーカスレンズ30FL、30FRの位置を制御し、撮影レンズ14L、14Rのフォーカシングを行う。
絞り32L、32R、は、たとえば、アイリス絞りで構成されており、絞り駆動手段としての絞り制御部28Rにより駆動されて、開口量(絞り値)が変化する。CPU10は、絞り制御部28L、28Rを介して絞りの開口量を制御し、撮像素子34L、34Rの露光量を制御する。
撮像素子34L、34Rは、所定のカラーフィルタ配列のカラーCCD撮像素子で構成されている。CCDは、その受光面に多数のフォトダイオードが二次元的に配列されている。撮影レンズ14L、14RによってCCDの受光面上に結像された被写体の光学像(被写体像)は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU10の指令に従って撮像素子制御部36L、36Rから与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として撮像素子34L、34Rから順次読み出される。撮像素子34L、34Rには、電子シャッタの機能が備えられており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。なお、本実施の形態では、撮像素子としてCCDを用いているが、CMOSセンサ等の他の構成の撮像素子を用いることもできる。
CPU10は、撮影レンズ14L、14Rを構成するズームレンズ30ZL、30ZR、フォーカスレンズ30FL、30FR、絞り32L、32Rを駆動する際、左右の撮影レンズ14L、14Rを同期させて駆動する。すなわち、左右の撮影レンズ14L、14Rは、常に同じ焦点距離(ズーム倍率)に設定されるとともに、常に同じ被写体に合焦するように、フォーカスレンズ30FL、30FRの位置が設定される。また、常に同じ露光量となるように絞り値及び露光時間(シャッタ速度)が調整される。
アナログ信号処理部38L、38Rは、撮像素子34L、34Rから出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関二重サンプリング回路(CD)、画像信号を増幅して一定レベルの大きさにコントロールするためのAGC回路を含み、撮像素子34L、34Rから出力される画像信号を相関二重サンプリング処理するとともに増幅する。A/D変換器40L、40Rは、アナログ信号処理部38L、38Rから出力されたアナログの画像信号をデジタルの画像信号に変換する。画像入力コントローラ41L、41Rは、A/D変換器40L、40Rから出力された画像信号を取り込んで、SDRAM20に格納する。本例では、左撮像画像及び右撮像画像がSDRAM20に一時的に格納される。デジタル信号処理部42L、42Rは、CPU10からの指令に従い、SDRAM20に格納された画像信号を取り込み、所定の信号処理を施して輝度信号Yと色差信号Cr、Cbとからなる画像データ(Y/C信号)を生成する。また、CPU10からの指令に応じて、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補間処理、RGB/YC変換処理、ノイズ低減処理、輪郭補正処理、色調補正、光源種別判定処理等の各種のデジタル補正を行う。なお、デジタル信号処理部42L、42Rはハードウェア回路で構成してもよいし、同じ機能をソフトウェアにて構成してもよい。
AF評価値取得部44は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR,G,B各色の画像信号(撮像画像)に基づいて、フォーカスレンズ30Fの合焦位置を検出するためのAF評価値(合焦評価値)を算出する。本例のAF評価値取得部44は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとにAF評価値を算出する。また、本例のAF評価値取得部44は、G信号の高周波成分のみを通過させるハイパスフィルタ、各検出ブロック内の信号を切り出す信号抽出部、及び、各検出ブロック内の信号の絶対値を積算する積算部を含み、各検出ブロックごとの積算値をAF評価値として出力する。本例のAF評価値は、各検出ブロックごとに合焦程度を示す。
CPU10は、AF制御時、複数のブロックによって構成される合焦エリアにてAF評価値取得部44から出力されるAF評価値が極大となるレンズ位置を検出し、そのレンズ位置にフォーカスレンズ30FL、30FRを移動させることにより、フォーカスレンズ30FL、30FRの合焦を行う。CPU10は、例えば、まず、フォーカスレンズ30FL、30FRを至近から無限遠まで移動させ、その移動過程で逐次AF評価値取得部44からAF評価値を取得し、合焦位置検出エリアにてAF評価値が極大となるレンズ位置を検出して、そのレンズ位置にフォーカスレンズ30FL、30FRを移動させる。これにより、画角内の合焦エリアに位置する被写体にピントが合わせられる。
AE/AWB評価値取得部46は、一方の画像入力コントローラ41によりSDRAM20に書き込まれたR、G、Bの各色の画像信号(撮像画像)に基づいて、AE(自動露出)制御及びAWB(自動ホワイトバランス調整)制御に必要な評価値を算出する。本例のAE/AWB評価値取得部46は、撮像画像を複数の検出ブロック(例えば、8×8=64ブロック)に分割し、各検出ブロックごとのR、G、B信号の積算値をAE評価値及びAWB評価値として算出する。
CPU10は、AE制御時、AE評価値に基づいて、露出量を算出する。すなわち、感度、絞り値、シャッタ速度、フラッシュ発光要否などを決定する。また、CPU10は、AWB制御時、AWB評価値として取得し、ホワイトバランス調整用のゲイン値を算出するとともに、光源種を検出する。
圧縮・伸張処理部52は、CPU10からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU10からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
メディア制御部54は、CPU10からの指令に従い、メモリカード56に対してデータの読み/書きを制御する。
モニタ制御部58は、CPU10からの指令に従い、モニタ60への表示を制御する。モニタ60は、撮影済み画像を表示するための画像表示部として利用されるとともに、各種設定時にGUIとして利用される。また、モニタ60は、撮影時には、各撮像素子34R、34Lが継続的に捉えた画像(スルー画像)を順次表示し、電子ファインダとして利用される。
電源制御部61は、CPU10からの指令に従い、バッテリ62から各部への電源供給を制御する。フラッシュ制御部64は、CPU10からの指令に従い、フラッシュ65の発光を制御する。姿勢検出センサ66は、デジタルカメラ1のボディの姿勢(上下、左右の傾き)を検出し、その結果をCPU10に出力する。すなわち、デジタルカメラ1のボディの左右方向の傾き角度(撮影レンズ14L、14Rの光軸回りの回転角度)と、デジタルカメラ1のボディの上下方向の傾き角度(撮影レンズ14L、14Rの光軸の上下方向の傾き角度)とを検出する。スピーカ67は音を出力する。計時部68は、現在日時を計時するとともに、CPU10からの指令に従って時間の計測を行う。
以上説明した3Dデジタルカメラ1において、図10の左撮像系11L及び右撮像系11Rによって図1の立体画像入力部101が構成され、図10のデジタル信号処理部42L、42R等によって図1の信号処理部102が構成され、図10のモニタ60によって図1の立体画像表示部103が構成され、図10のメディア制御部54によって図1の画像記録部104が構成され、図10の操作部12によって図1の操作部105が構成され、図10のROM16、フラッシュROM18、SDRAM20等によって図1の記憶部106が構成され、図10のCPU10によって図1のCPU110が構成される。
なお、人の顔を含む画像を例に説明したが、人以外の動物(例えば、犬、猫など)の顔を含む画像であって、本発明を適用できることは、言うまでもない。
また、本発明の画像処理装置を3Dデジタルカメラに適用した場合を例に説明したが、顔枠を含む立体表示画像を生成する各種の画像処理装置に適用できる。例えば、3Dデジタルカメラによって撮影された立体画像に対して編集処理を行うコンピュータ装置に適用してもよい。
本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。
11L、11R…撮像手段、100…画像処理装置、101…立体画像入力部、102…信号処理部、103…立体画像表示部、104…画像記録部、105…操作部、106…記憶部、110…CPU、122…顔検出部、124…顔位置特定部、142…視差量検出部、144…距離情報取得部、146…合焦位置特定部、148…焦点状態特定部、160…顔枠生成部、180…表示画像生成部

Claims (9)

  1. 複数の撮像手段でそれぞれ撮像して得られる複数の撮像画像から構成される立体撮像画像を入力する画像入力手段と、
    前記各撮影画像から顔を検出する顔検出手段と、
    前記各撮像画像における検出した顔の位置を特定する顔位置特定手段と、
    前記各撮像画像における合焦位置を特定する合焦位置特定手段と、
    前記顔の位置と、前記複数の撮像手段間の相対距離と、前記各撮像手段の撮像方向とに基づいて、前記顔の位置の距離情報を取得する距離情報取得手段と、
    前記合焦位置と、前記顔の位置の距離情報とに基づいて、前記顔の位置の焦点状態を特定する焦点状態特定手段と、
    前記顔の位置を示す顔枠であって、前記顔の位置の焦点状態に応じてぼかした顔枠を生成する顔枠生成手段と、
    前記生成した顔枠及び前記立体撮像画像から、立体表示画像を生成する立体表示画像生成手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記距離情報取得手段は、前記顔の位置と、前記複数の撮像手段の基線長及び輻輳角とに基づいて、前記顔の位置の距離情報を取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記焦点状態特定手段は、前記顔の位置が合焦状態であるか非合焦状態であるかを特定し、
    前記顔枠生成手段は、前記顔の位置が非合焦状態である場合には、前記顔の位置が合焦状態である場合よりも前記顔枠をぼかした状態にすることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記焦点状態特定手段は、前記顔の位置のデフォーカス量を前記焦点状態として特定し、
    前記顔枠生成手段は、前記デフォーカス量に応じて前記顔枠のぼかし量を切り換えることを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記距離情報取得手段は、前記複数の撮像画像間における前記顔の位置の差分を前記顔の視差量として検出し、少なくとも該視差量に基づいて、前記顔の位置の距離情報を求めることを特徴とする請求項1ないし4のうちいずれか1項に記載の画像処理装置。
  6. 前記顔枠生成手段は、前記顔の位置を立体視可能に示す立体顔枠であって、前記顔の位置の焦点状態に応じてぼかした立体顔枠を生成することを特徴とする請求項1ないし5のうちいずれか1項に記載の画像処理装置。
  7. 前記表示画像を表示する画像表示手段を備えたことを特徴とする請求項1ないし6のうちいずれか1項に記載の画像処理装置。
  8. 請求項1ないし7のうちいずれか1項に記載の画像処理装置を備えたことを特徴とするカメラ。
  9. 複数の撮像手段でそれぞれ撮像して得られる複数の撮像画像から構成される立体撮像画像を入力する画像入力ステップと、
    前記各撮影画像から顔を検出する顔検出ステップと、
    前記各撮像画像における検出した顔の位置を特定する顔位置特定ステップと、
    前記各撮像画像における合焦位置を特定する合焦位置特定ステップと、
    前記顔の位置と、前記複数の撮像手段間の相対距離と、前記各撮像手段の撮像方向とに基づいて、前記顔の位置の距離情報を取得する距離情報取得ステップと、
    前記合焦位置と、前記顔の位置の距離情報とに基づいて、前記顔の位置の焦点状態を特定する焦点状態特定ステップと、
    前記顔の位置を示す顔枠であって、前記顔の位置の焦点状態に応じてぼかした顔枠を生成する顔枠生成ステップと、
    前記生成した顔枠及び前記立体撮像画像から、立体表示画像を生成する立体表示画像生成ステップと、
    を含むことを特徴とする画像処理方法。
JP2009228226A 2009-09-30 2009-09-30 画像処理装置、カメラ及び画像処理方法 Expired - Fee Related JP5346266B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009228226A JP5346266B2 (ja) 2009-09-30 2009-09-30 画像処理装置、カメラ及び画像処理方法
US12/893,799 US8599245B2 (en) 2009-09-30 2010-09-29 Image processing apparatus, camera, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009228226A JP5346266B2 (ja) 2009-09-30 2009-09-30 画像処理装置、カメラ及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2011077900A true JP2011077900A (ja) 2011-04-14
JP2011077900A5 JP2011077900A5 (ja) 2012-12-06
JP5346266B2 JP5346266B2 (ja) 2013-11-20

Family

ID=43779906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009228226A Expired - Fee Related JP5346266B2 (ja) 2009-09-30 2009-09-30 画像処理装置、カメラ及び画像処理方法

Country Status (2)

Country Link
US (1) US8599245B2 (ja)
JP (1) JP5346266B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012222641A (ja) * 2011-04-11 2012-11-12 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP2012239006A (ja) * 2011-05-11 2012-12-06 Canon Inc 画像処理装置及びその制御方法、並びにプログラム
WO2013001839A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 撮像装置
JP2013017096A (ja) * 2011-07-05 2013-01-24 Canon Inc 撮像装置及び画像生成装置、及びそれらの制御方法、プログラム、及び記録媒体
JP2015213261A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 撮像装置、画像処理システム、ならびにそれらの制御方法
US9325975B2 (en) 2011-09-30 2016-04-26 Fujifilm Corporation Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus
JP2018507570A (ja) * 2014-12-05 2018-03-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 仮想焦点フィードバック
US10212353B2 (en) 2016-10-19 2019-02-19 Canon Kabushiki Kaisha Display control apparatus and method of controlling display control apparatus

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8615112B2 (en) * 2007-03-30 2013-12-24 Casio Computer Co., Ltd. Image pickup apparatus equipped with face-recognition function
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US8768044B2 (en) 2010-09-14 2014-07-01 Texas Instruments Incorporated Automatic convergence of stereoscopic images based on disparity maps
TWI441093B (zh) * 2010-10-29 2014-06-11 Altek Corp 立體影像產生方法及立體成像系統
JP5627438B2 (ja) * 2010-12-14 2014-11-19 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP5811602B2 (ja) * 2010-12-16 2015-11-11 ソニー株式会社 画像生成装置、プログラム、画像表示システム、および画像表示装置
JP5572647B2 (ja) * 2012-02-17 2014-08-13 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP5840022B2 (ja) * 2012-02-17 2016-01-06 キヤノン株式会社 立体画像処理装置、立体画像撮像装置、立体画像表示装置
JP5884579B2 (ja) * 2012-03-19 2016-03-15 株式会社リコー 撮像装置と表示処理方法
US9508119B2 (en) * 2012-07-13 2016-11-29 Blackberry Limited Application of filters requiring face detection in picture editor
US20140015854A1 (en) * 2012-07-13 2014-01-16 Research In Motion Limited Application of Filters Requiring Face Detection in Picture Editor
US9338348B2 (en) * 2012-10-23 2016-05-10 Snapaid Ltd. Real time assessment of picture quality
JP6218377B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
US9161020B2 (en) * 2013-04-26 2015-10-13 B12-Vision Co., Ltd. 3D video shooting control system, 3D video shooting control method and program
JP2015012304A (ja) * 2013-06-26 2015-01-19 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP6778602B2 (ja) * 2016-12-14 2020-11-04 三星電子株式会社Samsung Electronics Co.,Ltd. 撮像装置、画像データ生成方法および画像データ生成プログラム
US10499001B2 (en) * 2017-03-16 2019-12-03 Gvbb Holdings S.A.R.L. System and method for augmented video production workflow

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201839A (ja) * 2006-01-27 2007-08-09 Fujifilm Corp 対象画像検出表示制御装置およびその制御方法
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69733233T2 (de) * 1996-09-11 2006-01-19 Canon K.K. Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts
US7079669B2 (en) * 2000-12-27 2006-07-18 Mitsubishi Denki Kabushiki Kaisha Image processing device and elevator mounting it thereon
JP4507281B2 (ja) 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4888191B2 (ja) 2007-03-30 2012-02-29 株式会社ニコン 撮像装置
JP4544282B2 (ja) * 2007-09-14 2010-09-15 ソニー株式会社 データ処理装置、およびデータ処理方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007201839A (ja) * 2006-01-27 2007-08-09 Fujifilm Corp 対象画像検出表示制御装置およびその制御方法
JP2009053748A (ja) * 2007-08-23 2009-03-12 Nikon Corp 画像処理装置、画像処理プログラムおよびカメラ

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591291B2 (en) 2011-04-11 2017-03-07 Sony Corporation Imaging processing apparatus, image processing method, and program
JP2012222641A (ja) * 2011-04-11 2012-11-12 Sony Corp 画像処理装置、画像処理方法、及びプログラム
US9179121B2 (en) 2011-04-11 2015-11-03 Sony Corporation Imaging processing apparatus, image processing method, and program
US9948921B2 (en) 2011-04-11 2018-04-17 Sony Corporation Imaging processing apparatus, image processing method, and program
JP2012239006A (ja) * 2011-05-11 2012-12-06 Canon Inc 画像処理装置及びその制御方法、並びにプログラム
WO2013001839A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 撮像装置
JP2013017096A (ja) * 2011-07-05 2013-01-24 Canon Inc 撮像装置及び画像生成装置、及びそれらの制御方法、プログラム、及び記録媒体
US9325975B2 (en) 2011-09-30 2016-04-26 Fujifilm Corporation Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus
JP2015213261A (ja) * 2014-05-02 2015-11-26 キヤノン株式会社 撮像装置、画像処理システム、ならびにそれらの制御方法
US10070068B2 (en) 2014-05-02 2018-09-04 Canon Kabushiki Kaisha Image capture apparatus, image processing system, and control method thereof
US10368012B2 (en) 2014-05-02 2019-07-30 Canon Kabushiki Kaisha Image capture apparatus, image processing system, and control method thereof
JP2018507570A (ja) * 2014-12-05 2018-03-15 マイクロソフト テクノロジー ライセンシング,エルエルシー 仮想焦点フィードバック
US10212353B2 (en) 2016-10-19 2019-02-19 Canon Kabushiki Kaisha Display control apparatus and method of controlling display control apparatus

Also Published As

Publication number Publication date
US20110074928A1 (en) 2011-03-31
JP5346266B2 (ja) 2013-11-20
US8599245B2 (en) 2013-12-03

Similar Documents

Publication Publication Date Title
JP5346266B2 (ja) 画像処理装置、カメラ及び画像処理方法
JP5449536B2 (ja) 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
CN102959969B (zh) 单眼立体摄像装置
EP2391119B1 (en) 3d-image capturing device
JP5368350B2 (ja) 立体撮像装置
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
JP5788518B2 (ja) 単眼立体撮影装置、撮影方法及びプログラム
JP2011028053A (ja) 立体撮像装置及び立体撮像方法
JP2011101240A (ja) 立体撮影装置および撮影制御方法
WO2013065543A1 (ja) 視差調節装置及び方法、撮影装置、再生表示装置
JP5550791B2 (ja) 画像処理装置、撮像装置及び視差量調整方法
JP5449551B2 (ja) 画像出力装置、方法およびプログラム
JP5449535B2 (ja) 立体撮像装置及びその制御方法
JP5160460B2 (ja) 立体撮像装置および立体撮像方法
JP2011035643A (ja) 多眼撮影方法および装置、並びにプログラム
CN103339948B (zh) 3d视频再现装置、3d成像装置和3d视频再现方法
US20120307016A1 (en) 3d camera
JPH0937302A (ja) 立体撮像装置
JP5580486B2 (ja) 画像出力装置、方法およびプログラム
JP5571257B2 (ja) 画像処理装置、方法およびプログラム
JP2006013609A (ja) 多視点立体画像撮影装置
JP2012015620A (ja) 立体撮像装置
JP2011030123A (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JPWO2012001958A1 (ja) 画像処理装置および方法並びにプログラム
JP2002214515A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130816

R150 Certificate of patent or registration of utility model

Ref document number: 5346266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees