JP5824364B2 - 距離推定装置、距離推定方法、集積回路、コンピュータプログラム - Google Patents

距離推定装置、距離推定方法、集積回路、コンピュータプログラム Download PDF

Info

Publication number
JP5824364B2
JP5824364B2 JP2011544735A JP2011544735A JP5824364B2 JP 5824364 B2 JP5824364 B2 JP 5824364B2 JP 2011544735 A JP2011544735 A JP 2011544735A JP 2011544735 A JP2011544735 A JP 2011544735A JP 5824364 B2 JP5824364 B2 JP 5824364B2
Authority
JP
Japan
Prior art keywords
image
depth
distance
focused
distance map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011544735A
Other languages
English (en)
Other versions
JPWO2011158515A1 (ja
Inventor
河村 岳
岳 河村
ラーサン ポンサック
ラーサン ポンサック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011544735A priority Critical patent/JP5824364B2/ja
Publication of JPWO2011158515A1 publication Critical patent/JPWO2011158515A1/ja
Application granted granted Critical
Publication of JP5824364B2 publication Critical patent/JP5824364B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、動画又は連続静止画の撮影時における、画像中の全ての被写体との距離を推定する装置及び方法に関するものである。
一般的に、センシングによる距離推定方式としては、主に、以下の2つに大別される。
一つは、アクティブセンシング型である。このアクティブセンシング型の方式としては、例えば、レーザや超音波を使ったタイムオブフライト法や、顕微鏡等でよく使われる共焦点法、複数の光源を用いる照度差ステレオ法などがある。
もう一つは、パッシブセンシング型である。このパッシブセンシング型での方式としては、ステレオ画像を撮影して、各撮影画像に写っている物***置の差から、距離を推定する方法と、同時に撮影する画像は1枚だが、レンズ焦点の違いを用いる焦点法とがある。
焦点法は、主に、カメラのオートフォーカス(以下「AF(Auto Focus)」という。)機能を実現するのに使われている技術である。焦点法での方法としては、コンパクトデジタルカメラのコントラストAF(Auto Focus)などで用いられるDFF法(Depth From Focus)、一眼レフカメラのAFなどで用いられる瞳分割位相差検出法、それにDFD法(Depth From Defocus)がある。
DFF法では、画像中の1点について、その1点でのコントラストを算出し、少しずつ、フォーカス変位をさせて、合焦状態に近いと判定されたときに、フォーカス変位を止め、距離を確定させる。
このDFF法では、合焦状態になるまで、逐次、フォーカス変位をさせる必要があるうえ、画像中の全画素で、この方法を実施することになる。このため、距離測定に、多大な時間を要する。すなわち、移動物体の計測には向かない。
また、AFでの場合のように、特定の物体の距離を測定する場合には、上記のような方法で実現できるが、画像中における全ての画素について、距離推定を行おうとすると、必然的に、合焦位置の異なる画像を多数撮影しなければならない。つまり、それらの、多数撮影された画像の中から、各画素で合焦する画像を選択し、距離推定しなければならないという欠点がある。
瞳分割位相差検出法では、位相差検出センサの結像間隔を測定することで、直接、距離を推定することができ、距離推定に時間を要しないが、位相差検出センサを、画像中の全ての画素に割り当てられるよう並べることは不可能である。このため、予め、画像中の限られたポイントでしか、距離の推定ができない。また、この機能を実現するための機構サイズは、他の方式と比べて、どうしても大きくなってしまう。
DFD法は、互いに異なる2つのフォーカス位置の2枚の画像を撮影し、それぞれの画像と、レンズのボケパラメータとから、合焦距離を直接求める方法である(例えば、非特許文献1及び2参照)。
ここで、ボケパラメータとは、輝度情報のボケを示す値であり、レンズのポイントスプレッドファンクション(PSF:Point Spread Function)の分散と相関のある値である。
ここで、PSFとは、理想的な点像が、光学系を通過した場合の、光線の広がりを表す関数である。デフォーカス特性とも称する。
DFD法では、上述の瞳分割位相差検出法と同じく、距離推定に時間を要しないうえ、撮影する枚数は、最小限の2枚でよいが、レンズのボケパラメータを事前に入手しておく必要がある。なお、実際のボケ画像には、レンズによるボケだけでなく、撮像素子の開口によるボケや、フィルム特性によるボケなどが存在する。このため、これらのボケも、予め取得して、考慮する必要がある。
DFD法の問題点として、互いに異なる2つのフォーカス位置の2枚の画像を撮影したときに、その2枚の間で、像倍率の変化がないようにしなければならないことがある。一方で、通常の光学系では、このような設計にはなっていないことが多い。すなわち、像側テレセントリック光学系を採用する必要がある(例えば、非特許文献3参照)。
また、これ以外にも、比較的小さなボケでしか、距離推定精度が保てないとの問題がある。
この問題の要因の1つ目としては、画像処理により、マッチングを取り、距離を推定するため、パワーの小さい場合、すなわち、ボケの大きい場合の距離推定精度が、相対的にで難くなることがある。
2つ目としては、これは、理想的なレンズモデル、例えば、ガウシアンモデルやピルボックスモデルでは起こらない問題だが、実レンズ(組みレンズ)のボケモデルでは、ボケが大きくなるほど、ボケの変化が小さくなる傾向があることによるものである。つまり、このため、ボケの変化量の小さな、ボケの大きい領域では、距離推定精度が低下してしまうとの問題がある。
このような問題に対し、通常の光学系では、ボケの性質を決定する瞳(開口)形状が円形で、ボケの変化が小さいために、距離推定精度が低いという考えがある。そして、この考えに基づく方法として、構造化瞳マスクを用いて、ボケの変化の大きいモデルを用いて、距離推定する方法が提案されている(例えば、非特許文献4参照)。
構造化瞳マスクを採用することで、円形開口の場合よりも、奥行き方向に対して、ボケの変化の区別が、より、つき易く、距離推定精度が向上する。
また、距離推定と同時に、All−in−focus画像(以下、「全焦点画像」という。)も生成することができる。
そして、この考え方を、さらに発展させたものとして、瞳形状をさらに工夫することで、画像の部分領域ごとに、より高精度な距離測定を行うCoded Aperture方式も提案されている(例えば、非特許文献5参照)。
これらの、瞳形状を工夫する手法の問題点としては、距離推定精度は向上するが、光量が減り、かつ、全焦点画像の画質もやや低下するという問題がある。
この問題については、これらのアプローチが、瞳形状の工夫により、光学系全体としての周波数伝達特性において、ゼロ点を生成し、距離推定精度を向上させるという考え方を採用している点に着目される。すなわち、このため、被写体によらずに、ロバストな距離推定ができる反面、全焦点画像の復元にあたって、ゼロ点により失われた情報(周波数領域でゼロとなる成分)がある。このため、その情報は、後段の信号処理でも復元できないという、根源的な問題を内包している。上述の問題が生じるのは、このことがあるからである。
この問題を解決するためのアプローチとして、次の手法がある。その手法とは、2枚の、互いに異なる絞り形状で撮影した2つの画像を、ペアとして用いることで、距離推定精度の向上と、全焦点画像の復元性能劣化防止を両立する手法である。この手法による、Coded Aperture Pairs方式も提案されている(例えば、非特許文献6参照)。これは、2枚の、互いに異なる絞り形状で、被写体を撮影することで、お互いのゼロ点を補い合う効果を期待したものである。
一方、いかなる光学系、いかなる距離においても、必ず、お互いに、ゼロ点を補い合える、瞳形状の組み合わせを設定するのは困難である。
また、特定の光学系という前提を置いても、やはり、いかなる距離においても、必ずお互いに、ゼロ点を補い合える瞳形状を設計することは困難である。
すなわち、通常の光学系よりも、復元後の全焦点画像が劣化することは避けられない。
一方、全焦点画像を最初に取得し、取得された全焦点画像と、その後の通常撮影による画像とを組み合わせて、焦点の違いから、物体との距離を推定するアプローチもある(例えば、非特許文献7及び特許文献1参照)。
Focal Stackと呼ばれる方式が古くから存在するが、これは、合焦位置の互いに異なる複数枚の画像を撮影し、それぞれ、合焦していると思われる領域を、それぞれの画像から抽出・合成し、EDOF(Extended Depth of Field (Focus))画像(被写界深度拡張画像)すなわち全焦点画像を得る方式である。
このようにして取得した全焦点画像と、さらにもう1枚、任意の距離、例えば、最も手前(近端)の距離に焦点を合わせたときの、実際の画像を用いて、距離を推定する。
近端に焦点を合わせたときの、各被写体距離におけるボケパラメータを、予め、測定等により取得しておく。全焦点画像に対して、各被写体距離別のボケを、前述のボケパラメータを用いてシミュレーションした複数画像の各々と、前述の近端実画像とを、画像の領域ごとに比較し、最も類似した画像により示される距離を、その被写体の距離として判定する。
このような方式を実現するのに必要な構成を、図8を用いて説明する。
図8は、全焦点画像と、特定の距離に焦点を合わせたときの、実際の画像とを用いて、距離を推定する距離推定装置9の構成を示したブロック図である。
距離推定装置9は、全焦点画像生成部91、特定深度合焦画像取得部9101、ボケパラメータ群取得部9102、ボケ画像群生成部9103、類似ボケ判定部9104、及び距離マップ生成部9105を備える。
全焦点画像生成部91は、全焦点画像(図8の画像91a)を生成する。
なお、全焦点画像生成部91の具体的な構成としては、被写界深度拡張(以下、「EDOF」という。)技術により、全焦点画像を得る方法での構成が知られている。全焦点画像生成部91では、例えば、この構成が採用されてもよい。
なお、一般的には、主に、以下の5つの方式がある。
1つ目は、Focal Stackと呼ばれる方式で、合焦位置の互いに異なる複数枚の画像を撮影し、それぞれ、合焦していると思われる領域を、それぞれの画像から抽出・合成する方式である。このことで、EDOF画像(被写界深度拡張画像)、すなわち、全焦点画像を得る。
2つ目は、位相板と呼ばれる光学素子を挿入することで、深度方向のボケを均一化し、予め、測定、又は、シミュレーションにより得られたボケパターンによって、画像復元処理を行い、EDOF画像、すなわち、全焦点画像を得る方式である。これは、Wavefront Codingと称されている(例えば、非特許文献8参照)。
3つ目は、露光時間中に、フォーカスレンズ、又は、撮像素子を動かすことで、深度方向に、一律に合焦した画像を畳み込み(つまり各深度でボケを均一化することと同義)、予め、測定又はシミュレーションにより得られたボケパターンによって、画像復元処理を行い、EDOF画像、すなわち、全焦点画像を得る方式である。これは、Flexible DOFと称されている(例えば、非特許文献9参照)。
4つ目は、Focal Stackに近いアプローチだが、複数枚の画像を撮像するのではなく、レンズの軸上色収差を利用して、1枚の色画像から、深度推定、又は、画像のシャープネス検知を行い、画像処理により、全体が鮮鋭な画像を、全焦点画像として得る方式(例えば、非特許文献10参照)である。
5つ目は、多重焦点レンズを使って、深度方向のボケを均一化し、予め、測定、又は、シミュレーションにより得られたボケパターンによって、画像復元処理を行い、全焦点画像を得る方式(例えば、非特許文献11参照)である。
上記に挙げた5つの方式のうち、どの方式でも、全焦点画像生成部91を実現可能である。
特定深度合焦画像取得部9101は、全焦点画像生成部91にて、全焦点画像を生成する際に使用した画像群の中から、任意の1枚を選択するか、あるいは、別途、新たな画像を撮影する。特定深度合焦画像取得部9101は、このことで、特定深度、すなわち、距離に合焦した画像(画像9101a)を取得する。
なお、このように、特定深度合焦画像取得部9101は、設定した特定深度に、カメラを合焦させ、その合焦深度に合焦された画像を取得する。
ボケパラメータ群取得部9102は、記録されたボケパラメータを読み出す。すなわち、特定深度合焦画像取得部9101にて設定した特定深度に、カメラを合焦させたとき、任意の深度(距離)別に、どのようなボケが発生するかを示すボケパラメータ(データ9102a)を、予め、数値的に記録しておく。この記録は、例えば、ボケパラメータ群取得部9102により行われる。そして、ボケパラメータ群取得部9102は、こうして記録されたボケパラメータを読み出す。又は、レンズのボケ方を定式化できる場合には、その式を用いて、ボケパラメータ(データ9102a)を算出する。
ボケ画像群生成部9103は、全焦点画像生成部91から、全焦点画像を受け取る。また、ボケパラメータ群取得部9102から、任意の深度別ボケパラメータを受け取る。そして、全焦点画像に対して、任意の深度別に、ボケパラメータを畳み込む。このようにして得られた、任意の深度別ボケ画像群は、全ての被写体が、その深度に存在することを仮定したときのシミュレーション画像群であるとの意味を有する。
類似ボケ判定部9104は、ボケ画像群生成部9103にて得られた、任意の深度別ボケ画像群の各々の画像(それぞれの深度(距離)での画像9103a)と、特定深度合焦画像取得部9101にて得られた、特定深度に合焦した実撮影画像(画像9101a)とを、それら2つの画像に含まれる領域単位で比較し、ボケの類似性を判定する。その結果、画像に含まれる領域単位で、どの深度(距離)の画像(画像9103a)と、実撮影画像(画像9101a)との間での類似が生じているかが判定される。具体的には、以下の(式1)を用いて、評価関数を計算する。
Figure 0005824364
なお、ここで、深度(距離)をd、全焦点画像の輝度値をA、特定深度に合焦した実撮影画像の輝度値をF1、任意の深度別ボケパラメータをK(d)、評価関数をFc(d)とする。また、式中の“*”は、畳み込み演算を表しているものとする。ここで、これらの変数のうち、AとF1とは、画像の縦×横×色の3次元行列である。Fc(d)は、画像の縦×横の2次元行列であり、また、ボケパラメータK(d)は、ボケの変化が十分に記述できる大きさの、縦×横の正方サイズと、色の3つの次元を有する3次元行列である。類似ボケ判定部9104は、このように算出した各画素単位の評価関数Fc(d)に対して、最も評価関数が小さくなるようなdを、画像に含まれる領域単位で算出する。
距離マップ生成部9105は、このようにして求めた、画像に含まれる領域単位でのdを、画像上にマッピングし、このマッピングで得られたマップを、距離マップとして出力する。
米国特許出願公開第2007/0019883号明細書
A.P.Pentland, "A New Sense for Depth of Field", IEEE Trans. PAMI, vol.9, no.4, pp.523-531 (1987) M.Subbarao and G.Surya, "Depth from Defocus: A spatial domain approach", International Journal of Computer Vision, vol.13, no.3, pp.271-294 (1994) M.Watanabe and S.K.Nayar, "Minimal operator set for passive depth from defocus", Proc. Of IEEE Conf. Computer Vision and Pattern Recognition, pp.431-438 (1996) 日浦慎作, 松山隆司, "構造化瞳をもつ多重フォーカス距離画像センサ", 電子情報通信学会論文誌, D-II vol.J82-D-II, no.11, pp.1912-1920 (1999) A.Levin, R.Fergus, F.Durand and W.T.Freeman, "Image and Depth from a Conventional Camera with a Coded Aperture", ACM Transactions on Graphics, Vol.26, No.3, Article 70, 70-1 - 70-9 (2007) C.Zhou, S.Lin and S.Nayar, "Coded Aperture Pairs for Depth from Defocus", IEEE International Conference on Computer Vision (ICCV) Sensing II (2009) E.Wong, "A New Method for Creating a Depth Map for Camera Auto Focus Using an All in Focus Picture and 2D Scale Space Matching", Acoustics, Speech and Signal Processing, ICASSP 2006 Proceedings, IEEE International Conference on Vol.3, III, pp.1184-1187 (2006) E.R.Dowski and W.T.Cathey, "Extended depth of field through wave-front coding", Applied Optics, Vol.34, No.11, P.1859-1866 (1995) H.Nagahara, S.Kuthirummal, C.Zhou and S.Nayar, "Flexible Depth of Field Photography", European Conference on Computer Vision (ECCV), Oct.16th, Morning Session 2: Computational Photography (2008) C.Tisse, H.P.Nguyen, R.Tesieres, M.Pyanet and F.Guichard, "Extended Depth-of-field (EDOF) using sharpness transport across colour channels", Optical Engineering + Applications, Part of SPIE Optics + Photonics, Session 1-- Imaging in the Optical Design Process: Depth of Field (2008) W.Chi and N.George, "Computational imaging with the logarithmic asphere: theory", Optical Society of America, Vol.20, No.12, December (2003)
このように、距離画像を生成することで、全焦点画像の画質劣化なく、画像中のすべての被写体との距離を算出することができる。
しかしながら、このような、従来のアプローチの場合、円形開口を前提とする。このため、距離推定の精度は、Coded Apertureや、Coded Aperture Pairsよりも、一般的には劣る。また、比較的小さなボケでしか、距離推定精度が保てない問題は、そのまま残る。
前記で挙げた例では、近端付近に合焦しているとすると、その付近での距離推定精度は高いが、遠端付近での距離推定精度は低くなってしまう。実使用上では、この距離推定精度の偏りの問題の方が大きい。
本発明は、前記従来の課題を解決するもので、距離推定精度の偏りのない距離推定装置及び距離推定方法を提供することを目的とする。
上記の課題を解決するために、本発明のある局面に係る距離推定装置は、第1の深度に対して合焦している第1の深度合焦画像を取得する第1の深度合焦画像取得部と、前記第1の深度とは異なる第2の深度に対して合焦している第2の深度合焦画像を取得する第2の深度合焦画像取得部と、前記第1の深度合焦画像の合焦範囲ないし前記第2の深度合焦画像の合焦範囲よりも広い範囲において合焦している全焦点画像を生成する全焦点画像生成部と、前記全焦点画像の深度範囲内で複数の深度を設定し、前記第1の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第1の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第1の距離マップを生成する第1の生成部と、前記第2の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第2の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第2の距離マップを生成する第2の生成部と、生成された前記第1の距離マップと前記第2の距離マップとから、距離マップを合成する距離マップ合成部とを備える距離推定装置である。
なお、こうして、ボケ画像が選定される。選定されるボケ画像は、そのボケ画像での深度が、画像領域における深度と推定されるボケ画像である。すなわち、そのボケ画像の全体(または、その画像領域の部分)が、上述された、最も類似した画像であるボケ画像が選定される。これにより、そのボケ画像での深度が、その画像領域での深度と推定される、上述されたような適切なボケ画像が選定されて、適切な動作がされる。なお、このように、全焦点画像は、第1の深度合焦画像の第1の合焦範囲よりも広く、かつ、第2の深度合焦画像の第2合焦範囲よりも広くて、第1の合焦範囲を包含すると共に、第2の合焦範囲も包含する第3の合焦範囲の画像である。
これにより、第1の生成部において、第1の深度合焦画像と全焦点画像とから、第1の深度の第1の被写体の距離が特定される。また、第2の生成部において、第2の深度合焦画像と全焦点画像とから、第2の深度の第2の被写体の距離が特定される。そして、合成後の距離マップが生成される。すなわち、生成された、合成後の距離マップにより示される、第1の被写体の距離の精度は、第1の深度合焦画像と全焦点画像とから特定される、当該第1の被写体の距離の精度よりも高い。また、同様に、合成後の距離マップにより示される、第2の被写体の距離の精度は、第2の深度合焦画像と全焦点画像とから特定される、当該第2の被写体の距離の精度よりも高い。これにより、示される、何れの被写体の距離の精度も高くされて、特定される距離の精度の偏りがなくせる。すなわち、特定される、何れの被写体の距離の精度も高くされ、確実に、特定の精度が高くできる。
つまり、例えば、生成される前記全焦点画像は、少なくとも、前記第1の深度と、前記第2の深度との間のすべての深度において合焦している画像であり、前記第1の生成部は、前記第1の深度で合焦している状態において、少なくとも、前記第1の深度と、前記第2の深度との間のそれぞれの深度におけるボケ度合いを示すボケパラメータの組である第1のボケパラメータ群を取得する第1のボケパラメータ群取得部と、生成された前記全焦点画像に対して、取得された前記第1のボケパラメータ群に含まれる、各深度における前記ボケパラメータを畳み込み、各深度における前記ボケ画像が含まれてなる第1のボケ画像群を生成する第1のボケ画像群生成部と、取得された前記第1の深度合焦画像と、生成された前記第1のボケ画像群に含まれる、それぞれの深度における前記ボケ画像とを、画像領域ごとに比較し、前記画像領域ごとに、前記最も類似した画像である前記ボケ画像を判定する第1の類似ボケ判定部と、前記画像領域ごとに、判定された前記ボケ画像の深度を、当該画像領域における距離として示す前記第1の距離マップを生成する第1の距離マップ生成部とを含み、前記第2の生成部は、前記第2の深度で合焦している状態において、少なくとも、前記第1の深度と、前記第2の深度との間のそれぞれの深度におけるボケ度合いを示すボケパラメータの組である第2のボケパラメータ群を取得する第2のボケパラメータ群取得部と、生成された前記全焦点画像に対して、取得された前記第2のボケパラメータ群に含まれる、各深度における前記ボケパラメータを畳み込み、各深度における前記ボケ画像が含まれてなる第2のボケ画像群を生成する第2のボケ画像群生成部と、取得された前記第2の深度合焦画像と、生成された前記第2のボケ画像群に含まれる、それぞれの深度における前記ボケ画像とを、画像領域ごとに比較し、前記画像領域ごとに、前記最も類似した画像である前記ボケ画像を判定する第2の類似ボケ判定部と、前記画像領域ごとに、判定された前記ボケ画像の深度を、当該画像領域における距離として示す前記第2の距離マップを生成する第2の距離マップ生成部とを含んでもよい。
本構成によって、従来の、1枚のボケ画像のみによる距離推定時の精度と比べて、距離推定精度の偏りが小さくなる。すなわち、どの深度においても、距離推定精度を、一定水準以上に保つことが可能になる。
しかも、単に、第1の生成部に、第1のボケパラメータ群取得部等を含むなどだけの構成にされた、構成が比較的簡単にできる。
好ましくは、例えば、取得された前記第1の深度合焦画像の第1の画像特徴を抽出する第1の画像特徴抽出部と、取得された前記第2の深度合焦画像の第2の画像特徴を抽出する第2の画像特徴抽出部とを備え、前記距離マップ合成部は、前記第1の画像特徴と、前記第2の画像特徴とに基づき、合成後の前記距離マップを合成んでもよい。
本構成によって、さらに、画像特徴に基づいて、合焦の度合いが推定できる。このことから、画像領域ごとに、より小さなボケを有する方を判定でき、最終的に得られる距離マップとして、より、距離推定精度の高い距離マップを選択し、合成することが可能になる。
さらに好ましくは、例えば、前記距離マップ合成部は、抽出された前記第1の画像特徴に基づき定められる第1の重み係数を、生成された、更新前の前記第1の距離マップにおける値に乗ずることにより、更新前の前記第1の距離マップを、更新後の前記第1の距離マップへと更新する第1のマップ重み付け部と、抽出された前記第2の画像特徴に基づき定められる第2の重み係数を、生成された、更新前の前記第2の距離マップにおける値に乗ずることにより、更新前の前記第2の距離マップを、更新後の前記第2の距離マップへと更新する第2のマップ重み付け部と、更新後の前記第1の距離マップにおける値と、更新後の前記第2の距離マップにおける値とを加算することにより、前記距離マップを合成する距離マップ加算部とを含んでもよい。
本構成によって、さらに、画像特徴に基づいて、合焦の度合いが推定できることから、画像領域ごとに、より小さなボケを有する方を、相対的に判定することができる。これにより、距離推定精度の高い距離マップの方に、より大きな値での重み付けを行うことが可能になり、最終的に得られる距離マップも、距離推定精度が、より高まる。
なお、本発明は、このような特徴的な処理部を備える距離推定装置として実現することができるだけでなく、距離推定装置に含まれる特徴的な処理部が実行する処理をステップとする距離推定方法として実現することができる。また、距離推定方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な不揮発性の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
本発明のように、距離マップ算出に際して、合焦位置の異なる複数枚の画像から距離マップを算出し合成することで、距離推定精度の偏りを防止することができる。
何れの領域(図2Bの画像2I等における、領域1RF、1RNなどを参照)でも、高い精度の距離が特定される。これにより、領域により、特定される距離の精度が不均一になり、領域により、特定の精度が偏ってしまうことが回避され、特定の精度が均一にできる。
何れの領域についても、高い精度の距離が特定されて、確実に、特定される距離の精度が高くできる。
図1は、本発明の実施の形態1に係る距離推定装置のブロック構成図である。 図2Aは、本発明の実施の形態1および2に係る全焦点画像の一例を示す図である。 図2Bは、本発明の実施の形態1および2に係る第1の特定深度合焦画像の一例を示す図である。 図2Cは、本発明の実施の形態1および2に係る第2の特定深度合焦画像の一例を示す図である。 図3Aは、本発明の実施の形態1に係る第1の距離マップの一例を示す図である。 図3Bは、本発明の実施の形態1に係る第2の距離マップの一例を示す図である。 図3Cは、本発明の実施の形態1に係る距離マップ合成部において合成された距離マップの一例を示す図である。 図4は、本発明の実施の形態2に係る距離推定装置のブロック構成図である。 図5Aは、本発明の実施の形態2に係る第1の特定深度合焦画像に対して、輝度分散にて輪郭の強さを抽出した一例を示す図である。 図5Bは、本発明の実施の形態2に係る第2の特定深度合焦画像に対して、輝度分散にて輪郭の強さを抽出した一例を示す図である。 図5Cは、本発明の実施の形態2に係る第1の特定深度合焦画像に対して、輝度勾配にて輪郭の強さを抽出した一例を示す図である。 図5Dは、本発明の実施の形態2に係る第2の特定深度合焦画像に対して、輝度勾配にて輪郭の強さを抽出した一例を示す図である。 図6は、本発明の実施の形態2に係る距離マップ合成部の詳細を示した距離推定装置のブロック構成図である。 図7は、本発明の実施の形態2に係る距離マップ合成部において合成された距離マップの一例を示す図である。 図8は、従来の距離推定装置のブロック構成図である。 図9は、本距離推定装置の処理の流れを示すフローチャートである。
以下、本発明の各実施の形態について、図面を参照しながら説明する。
実施形態の距離推定装置1xは、第1の深度(図2Bの画像2Iなどでの、3つのぬいぐるみのうちの、真ん中にある、領域1RFのぬいぐるみでの深度)に対して合焦している第1の画像2I(図2B、図1)を取得する第1の特定深度合焦画像取得部2を備える(図9のステップS1)。第1の深度とは異なる第2の深度(右側にある、領域1RNのぬいぐるみでの深度)に対して合焦している第2の画像3I(図2C、図1)を取得する第2の特定深度合焦画像取得部3を備える(S2)。また、第1の画像2Iの合焦範囲ないし第2の画像3Iの合焦範囲よりも広い範囲において合焦している全焦点画像(第1の画像2Iの合焦範囲を包含し、かつ、第2の画像3Iの合焦範囲も包含する合焦範囲の画像)である画像1I(図2A、図1)を生成する全焦点画像生成部1を備える(S3)。また、生成された画像1Iの深度範囲内(例えば、画像1Iにおける、上述の合焦範囲)における複数の深度がある。そして、第1の深度(領域1RFでの深度)に合焦しているときの、前記複数の深度における複数のボケ画像(複数の画像6I)を、画像1Iから生成し、第1の画像2Iに含まれるそれぞれの画像領域(例えば領域1RF)での画像に最も類似した画像であるボケ画像(画像6I)を、前記複数のボケ画像の中から選別(特定)し、選別した前記ボケ画像の深度(データ8Dを参照)を、当該画像領域(領域1RF)における距離として示す第1の距離マップ(データ10D(図1、図3Aなど)を参照)を生成する第1の生成部10wを備える(S4)。第2の深度(領域1RN)に合焦しているときの、前記複数の深度における複数のボケ画像(複数の画像7I)を、画像1Iから生成し、第2の画像3Iに含まれるそれぞれの画像領域(例えば領域1RN)での画像に最も類似した画像であるボケ画像を、複数のボケ画像の中から選別し、選別したボケ画像の深度(データ9Dを参照)を、当該画像領域(領域1RN)における距離として示す第2の距離マップ(データ11D(図1、図3Bなど)を参照)を生成する第2の生成部11wを備える(S5)。生成された第1の距離マップと第2の距離マップとから、距離マップ(合成後の距離マップ14D)を合成する距離マップ合成部14(S6)を備える。なお、こうして、ボケ画像が選定される。選定されるボケ画像は、そのボケ画像での深度が、画像領域における深度と推定されるボケ画像である。すなわち、そのボケ画像の全体(または、その画像領域の部分)が、上述された、最も類似した画像であるボケ画像が選定される。これにより、そのボケ画像での深度が、その画像領域での深度と推定される、上述されたような適切なボケ画像が選定されて、適切な動作がされる。
つまり、生成された、合成後の距離マップにより、それぞれの画像領域での距離が示される。示される距離は、その距離の画像領域について、第1の距離マップにより示される距離の精度と、その画像領域について、第2の距離マップにより示される距離の精度とのうちの、より低い方の精度よりも高い精度である。
すなわち、例えば、第2の画像3I(図2C、図1)は、第1の画像2I(図2B、図1)において合焦されてない被写体(右側にある、領域1RNのぬいぐるみ)に合焦された画像でもよい。
そして、第1の画像2Iと、全焦点画像である画像1Iとから特定される、その被写体(右側のぬいぐるみ)の距離である第1の距離(データ8Dにより特定される距離)の精度は、第2の精度よりも低い第1の精度でもよい。
そして、第2の画像3Iと、全焦点画像である画像1Iとから特定される、その被写体(右側のぬいぐるみ)の距離である第2の距離(データ9Dにより特定される距離)の精度は、上述された、比較的高い第2の精度でもよい。
そして、第1の生成部(10w)は、第1の距離(8D)を特定してもよい。
第2の生成部(11w)は、第2の距離(9D)を特定してもよい。
そして、合成後の距離マップ(14D)により特定される、上記の被写体(真ん中のぬいぐるみ)の距離の精度は、比較的高い第1の精度以下ではあるものの、比較的低い第2の精度よりも高くてもよい。
これにより、第1の画像2Iで合焦された被写体(真ん中にある、領域1RFのぬいぐるみ)の距離として、高い精度の距離が特定されるだけではなくなる。すなわち、第1の画像2Iで合焦されてない上述の被写体(右側のぬいぐるみ)についても、高い精度の距離が特定される。これにより、何れの被写体についても、高い精度の距離が特定され、確実に、特定される距離の精度が高くできる。
なお、換言すれば、何れの被写体の領域でも、高い精度の距離が特定されて、領域により、精度が不均一になり、特定される距離の精度が偏ってしまうことが回避され、精度が均一にできる。
ひいては、領域によって、距離の精度が不均一で、領域によって、精度が偏った距離マップが生成されてしまうことが回避され、精度が均一で、偏りのなり距離マップ(図1のデータ14Dの距離マップ)が生成できる。
すなわち、何れの領域について特定される距離の精度も高くされ、より確実に、距離の特定の精度が高くできる。
本距離推定装置1xは、これらの構成、作用、効果の点で、先行例とは相違する。
(実施の形態1)
本発明の実施の形態1における距離推定装置及び距離推定方法について、図1、図2A〜図2C、図3A〜図3Cを参照しながら説明する。以下、距離推定装置と距離推定方法は、基本的な構成要素は同じものとして、装置として説明していく。
図1は、本実施の形態1における距離推定装置(距離推定装置1x)を示したブロック構成図である。
距離推定装置は、全焦点画像生成部1、第1の特定深度合焦画像取得部2、第1のボケパラメータ群取得部4、第1のボケ画像群生成部6、第1の類似ボケ判定部8、第1の距離マップ生成部10、第2の特定深度合焦画像取得部3、第2のボケパラメータ群取得部5、第2のボケ画像群生成部7、第2の類似ボケ判定部9、第2の距離マップ生成部11、及び距離マップ合成部14を備える。
全焦点画像生成部1は、少なくとも、第1の特定深度と、第2の特定深度との間の全ての深度において合焦している画像(画像1I)を生成する。
なお、全焦点画像生成部1の構成は、図8に示した全焦点画像生成部1の構成に準じた構成などである。すなわち、例えば、全焦点画像生成部1の構成は、Focal Stack、Wavefront Coding、Flexible DOF、軸上色収差利用方式、多重焦点レンズ利用方式などの中から、どの方式を用いた構成でも良い。
第1の特定深度合焦画像取得部2は、第1の特定深度に対して合焦している画像である第1の特定深度合焦画像(画像2I)を取得する。
第2の特定深度合焦画像取得部3は、第2の特定深度に対して合焦している画像である第2の特定深度合焦画像(画像3I)を取得する。
これら、第1の特定深度合焦画像取得部2と、第2の特定深度合焦画像取得部3とのそれぞれの構成は、例えば、図8に示した特定深度合焦画像取得部9101の構成に準じた構成などである。
第1のボケパラメータ群取得部4は、第1の特定深度で合焦している状態において、少なくとも、第1の特定深度と、第2の特定深度との間の各特定深度におけるボケ度合いを示すボケパラメータ(データ4p)の組である第1のボケパラメータ群を取得する。
第2のボケパラメータ群取得部5は、第2の特定深度で合焦している状態において、少なくとも、第1の特定深度と第2の特定深度の間の各特定深度におけるボケ度合いを示すボケパラメータ(データ5p)の組である第2のボケパラメータ群を取得する。
第1のボケパラメータ群取得部4と、第2のボケパラメータ群取得部5との構成は、例えば、図8に示したボケパラメータ群取得部9102の構成に準じた構成などである。
第1のボケ画像群生成部6は、全焦点画像生成部1が生成した全焦点画像(画像1I)に対して、第1のボケパラメータ群取得部4が取得した第1ボケパラメータ群に含まれる、各特定深度におけるボケパラメータを畳み込み、各特定深度におけるボケ画像(画像6I)の組である第1のボケ画像群を生成する。
第2のボケ画像群生成部7は、全焦点画像生成部1が生成した全焦点画像(画像1I)に対して、第2のボケパラメータ群取得部5が取得した第2ボケパラメータ群に含まれる、各特定深度におけるボケパラメータを畳み込み、各特定深度におけるボケ画像(画像7I)の組である第2のボケ画像群を生成する。
第1のボケ画像群生成部6と、第2のボケ画像群生成部7とのそれぞれの構成は、例えば、図8に示したボケ画像群生成部9103の構成に準じた構成などである。
第1の類似ボケ判定部8は、第1の特定深度合焦画像取得部2が取得した第1の特定深度合焦画像(先述の画像2I)と、第1のボケ画像群生成部6が生成した第1のボケ画像群に含まれる、各特定深度におけるボケ画像(画像6I)とを、画像領域ごとに比較する。そして、画像領域ごとに、第1の特定深度合焦画像(先述の画像2I)に最も類似したボケ画像を判定する。
第2の類似ボケ判定部9は、第2の特定深度合焦画像取得部3が取得した第2の特定深度合焦画像(画像3I)と、第2のボケ画像群生成部7が生成した第2のボケ画像群に含まれる、各特定深度におけるボケ画像(画像7I)とを、画像領域ごとに比較し、画像領域ごとに、第2の特定深度合焦画像(画像3I)に最も類似したボケ画像を判定する。
なお、第1の類似ボケ判定部8と、第2の類似ボケ判定部9とのそれぞれの構成は、例えば、図8に示した類似ボケ判定部104の構成に準じた構成などである。
第1の距離マップ生成部10は、画像領域ごとに、第1の類似ボケ判定部8が判定した、最も類似したボケ画像の特定深度(データ8Dを参照)を、当該画像領域における距離として示す第1の距離マップ(データ10D)を生成する。
第2の距離マップ生成部11は、画像領域ごとに、第2の類似ボケ判定部9が判定した、最も類似したボケ画像の特定深度(データ9Dを参照)を、当該画像領域における距離として示す第2の距離マップ(データ11D)を生成する。
なお、第1の距離マップ生成部10と、第2の距離マップ生成部11とのそれぞれの構成は、図8に示した距離マップ生成部105の構成に準じた構成などである。
距離マップ合成部14は、第1の距離マップ生成部10から出力される距離マップ(データ10D)と、第2の距離マップ生成部11から出力される距離マップ(データ11D)を合成し、最終的な距離マップ(データ14D)を出力する。具体的には、2枚の距離マップの間での平均和を計算する。
図2Aは、全焦点画像生成部1が生成する全焦点画像(画像1I)の一例を示す図である。
図2Bは、第1の特定深度合焦画像取得部2が取得する第1の特定深度合焦画像(画像2I)の一例を示す図である。
図2Cは、第2の特定深度合焦画像取得部3が取得する第2の特定深度合焦画像(画像3I)の一例を示す図である。
ここで、第1の特定深度合焦画像(図2Bの画像2I)での、合焦された深度(距離)である第1の深度(第1の距離)がある。この第1の深度(第1の距離)の方が、他方の第2の特定深度合焦画像(図2Cの画像3I)での、合焦された深度(距離)である第2の深度(第2の距離)に比べて、より遠方での深度(距離)であるものとする。
上述の図2A〜図2Cに示した3つの画像(画像1I、2I、3I)に基づいて、距離マップを生成すると、図3A〜図3Bに示す2つの距離マップ(データ10Dの距離マップ、データ11Dの距離マップ)が得られる。
図3Aおよび図3Bは、それぞれ、第1の距離マップ(データ10Dの距離マップ)および第2の距離マップ(データ11Dの距離マップ)の一例を示す図である。
図3Cは、距離マップ合成部14において、生成された、これら2つの距離マップから合成された距離マップ(データ14Dの距離マップ)の一例を示す図である。
図3Aに示す第1距離マップでは、3体のぬいぐるみのうち、遠方に位置する、左から2番目の熊のぬいぐるみ付近(領域1RF)の距離推定精度が、比較的高い。
これに対して、図3Bに示す第2距離マップでは、近傍に位置する、一番右の子犬のぬいぐるみ付近(領域1RN)の距離推定精度が、比較的高い。
すなわち、先述された通りであり、比較的小さなボケ(図2Bにおける、領域1RFでのボケ、図2Cにおける、領域1RNでのボケ)でしか、距離推定精度が保てない。このため、例えば、近端付近に合焦しているとすると(図2Cにおける領域1RNを参照)、その付近での距離推定精度は高いが(図3Bの領域1RNを参照)、遠端付近での距離推定精度は低くなってしまう(図3Bの領域1RFを参照)。
図3Cに示す距離マップは、これら、図3Aにおける第1距離マップ、および、図3Bにおける第2距離マップの間での平均和を示す。この図3Cの距離マップにおいては、上述された、図3Aおよび図3Bの2つの距離マップのうちのそれぞれの距離マップでの欠点を、その距離マップとは別のもう1つの距離マップが補い、互いに欠点を補い合う形となる。これにより、平均和をとる前の距離マップ(図3A、図3Bの距離マップ)での推定精度と比較して、図3Cの距離マップでの推定精度は、より高い推定精度であり、推定精度が、向上している。
本実施の形態1の構成とすることで、2つの距離マップ(図3Aの距離マップ、図3Bの距離マップ)の間での平均化の効果による、距離推定エラーの低減が見込める。
また、図2Bおよび図2Cに示すように、第1の特定深度が遠端側(例えば領域1RFでの深度)で、第2の特定深度が近端側(例えば領域1RNでの深度)であったとする。
すると、図3Aおよび図3Bに示すように、第1の距離マップ生成部10で生成される距離マップ(図3A)においては、遠端側(領域1RF)での距離精度が高く、近端側(領域1RN)の距離精度は低い。
また第2の距離マップ生成部11で生成される距離マップ(図3B)においては、近端側(領域1RN)での距離精度が高く、遠端側(領域1RF)での距離精度は低い。これを平均化することで、それぞれの精度の低下を防止することができる。
(実施の形態2)
本発明の実施の形態2における距離推定装置及び距離推定方法について、図4、図5A〜図5D、図6、図7を参照しながら説明する。以下、距離推定装置と距離推定方法は、基本的な構成要素は同じものとして、装置として説明していく。
図4は、本実施の形態2における距離推定装置(距離推定装置1y)を示したものであり、この距離推定装置は、図1に示した実施の形態1における距離推定装置の構成に加えて、さらに、第1の画像特徴抽出部12、及び、第2の画像特徴抽出部13を備える。また、実施の形態2における距離推定装置は、距離マップ合成部14(図1)の代わりに、距離マップ合成部14B(図4)を備える。
各構成要素1〜11については、実施の形態1に準じる。
第1の画像特徴抽出部12は、第1の特定深度合焦画像取得部2で取得した第1の特定深度合焦画像(図1の画像2Iを参照)から、第1の画像特徴を抽出する。例えば、第1の画像特徴を示すデータ12D(図4)が生成される。
また第2の画像特徴抽出部13は、第2の特定深度合焦画像取得部3で取得した第2の特定深度合焦画像(図1の画像3Iを参照)から、第2の画像特徴を抽出する。例えば、第2の画像特徴を示すデータ13Dが生成される。
ここで、画像特徴とは、任意のカットオフ周波数を持つハイパスフィルタのような、画像の高周波成分(輪郭の強さ)を抽出する処理により抽出される特徴量である。
なお、これらの特徴量を算出する演算として、具体的には、1次微分(輝度勾配=Gradient)に分類されるものとして、単純差分、斜め差分のRoberts Operator、Sobel Operatorなどがある。また、2次微分に分類されるものとして、ラプラシアンフィルタなどがある。
また、輪郭を表す標準パターンを幾つか用意し、画像の一部分と比較して、最も似たものを選んでいくテンプレート・マッチング法も知られており、その一例として、Prewittの方法などがある。
なお、これ以外にも、所定の部分画像に対して、輝度値の分散値を算出する輝度分散法(=Variance)などもある。ここでは、多くの方法のうちで、適切などの手法を用いても良い。
図5Aおよび図5Bは、それぞれ、図2Bおよび図2Cに示した、第1の特定深度合焦画像、および、第2の特定深度合焦画像に対して、輝度分散にて、輪郭の強さをそれぞれ抽出した図である。
図5Cおよび図5Dは、それぞれ、図2Bおよび図2Cに示した、第1の特定深度合焦画像、および、第2の特定深度合焦画像に対して、輝度勾配にて、輪郭の強さをそれぞれ抽出した図である。
これら図5A〜図5Dで示されるように、特定深度が、遠端側(領域1RFを参照)であれば(図2B、図5A、図5C)、合焦距離である遠端側付近の輪郭が、より強く検出される。すなわち、遠端の距離付近に存在する物体の、画像上の位置情報を(適切に)取得できる。そして、特定深度が、近端側(領域1RNを参照)であれば(図2C、図5B、図5D)、合焦距離である近端側付近の輪郭が、より強く検出される。すなわち、近端の距離付近に存在する物体の、画像上の位置情報を(適切に)取得できる。
距離マップ合成部14Bは、第1の画像特徴と、第2の画像特徴とに基づき、第1の距離マップと、第2の距離マップとから、距離マップを合成する。
図6は、距離マップ合成部14Bの詳細を示した距離推定装置のブロック構成図である。
距離マップ合成部14Bは、第1のマップ重み付け部15と、第2のマップ重み付け部16と、距離マップ加算部17とを含む。
第1のマップ重み付け部15は、第1の画像特徴抽出部12が抽出した第1の画像特徴(データ12D)に基づき定められる重み係数を、第1の距離マップ生成部10が生成した第1の距離マップに乗ずることにより、第1の距離マップを更新する。例えば、第1の距離マップ生成部10により生成された、更新前の第1の距離マップのデータ10Dから、更新後の第1の距離マップのデータ10Dxが生成される。
第2のマップ重み付け部16は、第2の画像特徴抽出部13が抽出した第2の画像特徴(データ13D)に基づき定められる重み係数を、第2の距離マップ生成部11が生成した第2の距離マップに乗ずることにより、第2の距離マップを更新する。例えば、第2の距離マップ生成部11により生成された、更新前の第2の距離マップのデータ11Dから、更新後の第2の距離マップのデータ11Dxが生成される。
距離マップ加算部17は、第1のマップ重み付け部15が更新した後の第1の距離マップ(データ10Dx)と、第2のマップ重み付け部16が更新した後の第2の距離マップ(データ13Dx)とを加算することにより、距離マップを合成する(データ17Dを参照)。
実施の形態1の図3A〜図3Cの説明で述べたように、例えば、第1の特定深度が遠端側で、第2の特定深度が近端側であったとする。
すると、第1の距離マップ生成部10で生成される距離マップでは、遠端側の距離精度が高く、近端側の距離精度は低い。
また、第2の距離マップ生成部11で生成される距離マップでは、近端側の距離精度が高く、遠端側の距離精度は低いという性質がある。
したがって、第1のマップ重み付け部15、および、第2のマップ重み付け部16は、前記のようにして得られた、遠端側および近端側のうちのそれぞれでの、輪郭抽出画像での、輪郭の強さの比に基づいて定められる重み係数を算出する。
つまり、第1の画像特徴の大きさをaとし、第2の画像特徴の大きさをbとした場合に、第1のマップ重み付け部15は、重み係数を、a/(a+b)と算出し、第2のマップ重み付け部16は、重み係数を、b/(a+b)と算出する。
第1のマップ重み付け部15、および、第2のマップ重み付け部16は、算出した重み係数を、第1の距離マップ、および、第2の距離マップに、それぞれ乗算することにより、第1の距離マップおよび第2の距離マップを更新する。
距離マップ加算部17は、それぞれ更新された、第1の距離マップおよび第2の距離マップを加算することにより、最終的に、距離推定精度の比較的高い距離マップを合成することができる。
図7は、本実施の形態2の構成により得られた距離マップを示す図である。
図3Cに示した、実施の形態1の構成により得られた距離マップでの距離推定精度と比べて、図7では、より、近端側・遠端側の距離推定精度が向上していることがわかる。
なお、こうして、次の動作などが行われてもよい。
すなわち、画像(例えば、図2B、図1の画像2I)が取得されてもよい。
そして、取得された画像に写された被写体(例えば、図2Bの画像2I等での、3つのぬいぐるみのうちの真ん中のぬいぐるみ)の深度(図1のデータ8D)が特定されてもよい。
具体的には、何れの深度でも合焦した画像(全焦点画像)1I(図2A、図1)から、複数の深度のうちのそれぞれの深度でのボケ度合いのボケが生じたボケ画像(図1の画像6I)が取得されてもよい。
それら複数のボケ画像のうちから、何れの深度でも合焦したのではない、上述の画像(画像2I)における、被写体(真ん中のぬいぐるみ)の画像(領域1RFの画像)に最も類似する、その被写体(真ん中のぬいぐるみ)の画像が含まれるボケ画像での深度が、その被写体の深度と特定されてもよい。なお、こうして、ボケ画像の全体(または一部)が、上述された、最も類似する画像でもよい。そして、そのボケ画像の深度が、その被写体の深度と特定されてもよい。
しかしながら、被写体として、第1の被写体(例えば、真ん中のぬいぐるみ)と共に、第2の被写体(例えば、3つのぬいぐるみのうち、右のぬいぐるみ)もあってもよい。
つまり、第2の被写体の深度は、第1の被写体の第1の深度(比較的遠い距離の深度)とは異なる第2深度(比較的近い距離の深度)でもよい。
そして、上述のようにして、画像(画像2I)から特定される、第1の被写体(真ん中のぬいぐるみ)の深度の精度は、高い精度である一方で、第2の被写体(右側のぬいぐるみ)の深度の精度は、低い精度であることが考えられる。
そこで、上述された、何れの深度でも合焦したのではなく、ある深度のみで合焦された、通常の画像(画像2Iなど)として、第1の画像2I(図2B)が取得されるだけでなく(図1の第1の特定深度合焦画像取得部2などを参照)、第2の画像3I(図2C)も取得されてもよい(第2の特定深度合焦画像取得部3などを参照)。
つまり、取得される第1の画像2Iで合焦された深度(真ん中のぬいぐるみの深度)とは異なる深度(右のぬいぐるみの深度)に合焦された第2の画像3Iも取得されてもよい。
そして、第1の被写体(真ん中のぬいぐるみ)の深度が、第1の画像2I(及び画像1I)から特定される一方で、第2の被写体(右のぬいぐるみ)の深度が、第2の画像から特定されてもよい。
これにより、第2の被写体(右側のぬいぐるみ)の深度は、第1の画像2Iで合焦された深度でないにも関わらず、この第2の被写体の深度は、第2の画像3Iから特定される。これにより、この第2の被写体(右側のぬいぐるみ)の深度についても、高い精度の深度(図1のデータ9D)が特定される。これにより、何れの被写体でも、高い精度の距離が特定され、より確実に、特定される深度(距離)の精度が高くできる。
なお、換言すれば、何れの領域(領域1RN、1RF)でも、高い精度の距離が特定できる。
これにより、特定が行われる被写体(領域)により、精度が不均一になり、精度が偏ってしまうことが回避されて、被写体(領域)に関わらず、特定される深度の精度が均一にできる。
なお、上述のように、第1の被写体(真ん中のぬいぐるみ)の深度は、第1の画像2Iで合焦された深度(遠い距離の深度)と同じ深度(遠い距離の深度)である。
そして、第2の被写体(右のぬいぐるみ)の深度は、第2の画像3Iで合焦された深度(近い距離の深度)と同じ深度(近い深度)である。
そこで、深度が互いに異なる2つの被写体のうちから、第1の画像2Iで合焦された深度と同じ深度の一方の被写体(真ん中のぬいぐるみ)が、第1の被写体として特定されてもよい。
そして、それら2つの被写体のうちから、第2の画像3Iで合焦された深度と同じ深度の他方の被写体(右のぬいぐるみ)が、上述の第2の被写体として特定されてもよい。
そして、第1の被写体(真ん中のぬいぐるみ)の深度については、特定された第1の画像2Iから特定される深度と、他方の第2の画像3Iから特定される深度とのうちで、第1の画像2Iからの深度が、より優れた方(より精度が高い方)の深度と特定されてもよい。
すなわち、特定された第2の被写体(右のぬいぐるみ)の深度については、第2の画像3Iからの深度が、より優れた方の深度と特定されてもよい。
そして、重み係数(先述)として、比較的大きな値の重み係数を乗じる処理などの、より優れた方(精度が高い方)の深度にされるのが適切な処理が、特定された、より優れた方の深度に対して、行われてもよい。
これにより、例えば、先述された、重み係数を利用する処理がされて、特定される深度(データ17D等を参照)の精度が、図3Cで示される精度よりも更に高い、図7で示される精度にされるなどして、特定される深度の精度が、より十分に、高くできる。
しかも、距離推定装置1xにより、より優れた方の深度が特定され、ユーザが、より優れた方の深度を指定する面倒な操作などをしなくても足りて、操作が簡単にできる。
なお、このような、より優れた方の深度の特定の処理がされなくてもよい。
すなわち、例えば、先述のように、第1の画像2Iから特定された深度と、第2の画像3Iから特定された深度との間での平均の深度が特定されてもよい(図1の距離マップ合成部14などを参照)。
つまり、こうして、このような、平均の深度などの、これら第1、第2の画像2I、3Iからの2つの深度のうちで、より優れた方の深度ではない、優れない方の深度よりは優れ、(ある程度)優れた深度が特定されてもよい。
こうして特定された、(ある程度)優れた深度に対して、先述された、より優れた深度にされる方が適切な処理がされてもよい(先述された、実施の形態1などを参照)。
つまり、先述のように、合成部(距離マップ合成部14)により、合成後の画像(データ10D)が生成されてもよい。ここで、生成される、合成後の画像により、2以上の画像領域(領域1RF、1RN)のそれぞれでの画像領域での距離が示される。そして、示される何れの距離の精度も、第1の画像2Iから特定される、その画像領域の距離の精度と、第2の画像3Iから特定される、その画像領域の距離の精度とのうちの、低い方の精度よりも高い精度である。つまり、合成後の画像は、何れの領域での精度も高く、確実に、示される距離の精度が高い画像である。
なお、このように、2つの画像(第1、第2の画像2I、3I)のうちのそれぞれの画像(例えば第1の画像2I)について、その画像における、合焦がされた深度と同じ深度の被写体(ピントが合った被写体、第1の画像2Iでは真ん中のぬいぐるみ)が特定されてもよい。
この特定の処理は、例えば、単なる、従来例における処理が流用されただけの処理でもよい。
具体的には、先述のように、ピントが合った被写体の画像(例えば、図2Bの画像2Iでの、真ん中のぬいぐるみの画像)では、画質が、比較的鮮明な画質である。このため、その画像では、比較的多くの個数のエッジが表れたり、表れたエッジの勾配が、比較的急峻であったり、様々な輝度値の画素があって、輝度値の分散の値が、比較的大きな値であったりする。
すなわち、ピントが合った画像では、コントラストが、比較的高い。
そこで、先述のように、画像(画像2I)における、コントラストが比較的高い画像の被写体(真ん中のぬいぐるみ)が、その画像における、合焦がされた深度と同じ深度の被写体(ピントが合った被写体)として特定されてもよい。
そして、その画像(画像2I)から特定された、こうして特定された被写体(ピントが合った被写体)の深度が、先述された、より優れた方の深度として特定されてもよい。
なお、上述されたそれぞれの領域(領域1RF、1RN)は、例えば、2以上の画素が含まれてなる領域でもよいし、1つの画素のみが含まれてなる領域などでもよい。
なお、具体的には、第1の生成部10wと、第2の生成部11wとの両方を含んでなる1つの生成部が設けられてもよい。
つまり、この1つの生成部により、第1の画像2Iの処理と、第2の画像3Iの処理とのうちの何れの処理も行われてもよい。
なお、同様に、第1の特定深度合焦画像取得部2と、第2の特定深度合焦画像取得部3との両方を含んでなる1つの特定深度合焦画像取得部が設けられてもよいし、第1のボケ画像群生成部6と、第2のボケ画像群生成部7との両方を含んでなる1つのボケ画像群生成部が設けられるなどしてもよい。
以上、本発明の実施の形態に係る距離推定装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。
例えば、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。
また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。
さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な不揮発性の記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu-ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの不揮発性の記録媒体に記録されている上記デジタル信号であるとしても良い。
また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。
また、上記プログラムまたは上記デジタル信号を上記不揮発性の記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。
さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
本発明にかかる距離推定装置及び距離推定方法は、複数の合焦位置で撮像された画像を用いて複数の距離マップを用いて距離推定することで、従来の課題であった距離推定精度の偏りを防止することができる。
これらの構成は、例えば民生用又は業務用撮像装置(デジタルスチルカメラ)などの分野において有用である。
特定される距離の精度の偏りがなくせる。
1 全焦点画像生成部
1x 距離推定装置
2 第1の特定深度合焦画像取得部
3 第2の特定深度合焦画像取得部
4 第1のボケパラメータ群取得部
5 第2のボケパラメータ群取得部
6 第1のボケ画像群生成部
7 第2のボケ画像群生成部
8 第1の類似ボケ判定部
9 第2の類似ボケ判定部
10 第1の距離マップ生成部
10w 第1の生成部
11 第2の距離マップ生成部
11w 第2の生成部
12 第1の画像特徴抽出部
13 第2の画像特徴抽出部
14 距離マップ合成部
15 第1のマップ重み付け部
16 第2のマップ重み付け部
17 距離マップ加算部
91 全焦点画像生成部
9101 特定深度合焦画像取得部
9102 ボケパラメータ群取得部
9103 ボケ画像群生成部
9104 類似ボケ判定部
9105 距離マップ生成部

Claims (11)

  1. 第1の深度に対して合焦している第1の深度合焦画像を取得する第1の深度合焦画像取得部と、
    前記第1の深度とは異なる第2の深度に対して合焦している第2の深度合焦画像を取得する第2の深度合焦画像取得部と、
    前記第1の深度合焦画像の合焦範囲ないし前記第2の深度合焦画像の合焦範囲よりも広い範囲において合焦している全焦点画像を生成する全焦点画像生成部と、
    前記全焦点画像の深度範囲内で複数の深度を設定し、前記第1の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第1の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第1の距離マップを生成する第1の生成部と、
    前記第2の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第2の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第2の距離マップを生成する第2の生成部と、
    生成された前記第1の距離マップと前記第2の距離マップとから、距離マップを合成する距離マップ合成部と
    を備える距離推定装置。
  2. 生成される前記全焦点画像は、少なくとも、前記第1の深度と、前記第2の深度との間のすべての深度において合焦している画像であり、
    前記第1の生成部は、
    前記第1の深度で合焦している状態において、少なくとも、前記第1の深度と、前記第2の深度との間のそれぞれの深度におけるボケ度合いを示すボケパラメータの組である第1のボケパラメータ群を取得する第1のボケパラメータ群取得部と、
    生成された前記全焦点画像に対して、取得された前記第1のボケパラメータ群に含まれる、各深度における前記ボケパラメータを畳み込み、各深度における前記ボケ画像が含まれてなる第1のボケ画像群を生成する第1のボケ画像群生成部と、
    取得された前記第1の深度合焦画像と、生成された前記第1のボケ画像群に含まれる、それぞれの深度における前記ボケ画像とを、画像領域ごとに比較し、前記画像領域ごとに、前記最も類似した画像である前記ボケ画像を判定する第1の類似ボケ判定部と、
    前記画像領域ごとに、判定された前記ボケ画像の深度を、当該画像領域における距離として示す前記第1の距離マップを生成する第1の距離マップ生成部とを含み、
    前記第2の生成部は、
    前記第2の深度で合焦している状態において、少なくとも、前記第1の深度と、前記第2の深度との間のそれぞれの深度におけるボケ度合いを示すボケパラメータの組である第2のボケパラメータ群を取得する第2のボケパラメータ群取得部と、
    生成された前記全焦点画像に対して、取得された前記第2のボケパラメータ群に含まれる、各深度における前記ボケパラメータを畳み込み、各深度における前記ボケ画像が含まれてなる第2のボケ画像群を生成する第2のボケ画像群生成部と、
    取得された前記第2の深度合焦画像と、生成された前記第2のボケ画像群に含まれる、それぞれの深度における前記ボケ画像とを、画像領域ごとに比較し、前記画像領域ごとに、前記最も類似した画像である前記ボケ画像を判定する第2の類似ボケ判定部と、
    前記画像領域ごとに、判定された前記ボケ画像の深度を、当該画像領域における距離として示す前記第2の距離マップを生成する第2の距離マップ生成部とを含む
    請求項1記載の距離推定装置。
  3. さらに、
    取得された前記第1の深度合焦画像の第1の画像特徴を抽出する第1の画像特徴抽出部と、
    取得された前記第2の深度合焦画像の第2の画像特徴を抽出する第2の画像特徴抽出部とを備え、
    前記距離マップ合成部は、
    前記第1の画像特徴と、前記第2の画像特徴とに基づき、合成後の前記距離マップを合成する
    請求項1記載の距離推定装置。
  4. 前記距離マップ合成部は、
    抽出された前記第1の画像特徴に基づき定められる第1の重み係数を、生成された、更新前の前記第1の距離マップにおける値に乗ずることにより、更新前の前記第1の距離マップを、更新後の前記第1の距離マップへと更新する第1のマップ重み付け部と、
    抽出された前記第2の画像特徴に基づき定められる第2の重み係数を、生成された、更新前の前記第2の距離マップにおける値に乗ずることにより、更新前の前記第2の距離マップを、更新後の前記第2の距離マップへと更新する第2のマップ重み付け部と、
    更新後の前記第1の距離マップにおける値と、更新後の前記第2の距離マップにおける値とを加算することにより、合成後の前記距離マップを合成する距離マップ加算部とを含む
    請求項3記載の距離推定装置。
  5. それぞれの前記画像特徴は、前記第1の深度合焦画像と、前記第2の深度合焦画像とのうちで、その画像特徴がある方である、一方の合焦画像におけるコントラストである請求項3記載の距離推定装置。
  6. それぞれの前記画像特徴は、前記第1の深度合焦画像と、前記第2の深度合焦画像とのうちで、その画像特徴がある方である、一方の合焦画像における、輝度値の分散の値である請求項3記載の距離推定装置。
  7. 前記距離マップ合成部は、
    前記コントラストが、比較的高い第1のコントラストである場合には、当該コントラストである前記画像特徴がある前記一方の合焦画像から特定された前記距離の値に対して比較的大きな第1の値を乗じ、比較的低い第2のコントラストである場合には、比較的小さい第2の値を乗じることで、重み付けを行い、距離マップを合成する、
    請求項5記載の距離推定装置。
  8. 前記第2の深度合焦画像は、前記第1の深度合焦画像において合焦されてない被写体に合焦された画像であり、
    前記第1の深度合焦画像と、前記全焦点画像とから特定される、前記被写体の第1の前記距離の精度は、比較的低い精度であり、
    前記第2の深度合焦画像と、前記全焦点画像とから特定される、前記被写体の第2の前記距離の精度は、比較的高い精度であり、
    前記第1の生成部は、第1の前記距離を特定し、
    前記第2の生成部は、第2の前記距離を特定し、
    合成後の前記距離マップにより特定される、前記被写体の距離の精度は、前記比較的高い精度以下で、かつ、前記比較的低い精度よりも高い請求項1記載の距離推定装置。
  9. 第1の深度に対して合焦している第1の深度合焦画像を取得する第1の深度合焦画像取得ステップと、
    前記第1の深度とは異なる第2の深度に対して合焦している第2の深度合焦画像を取得する第2の深度合焦画像取得ステップと、
    前記第1の深度合焦画像の合焦範囲ないし前記第2の深度合焦画像の合焦範囲よりも広い範囲において合焦している全焦点画像を生成する全焦点画像生成ステップと、
    前記全焦点画像の深度範囲内で複数の深度を設定し、前記第1の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第1の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第1の距離マップを生成する第1の生成ステップと、
    前記第2の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第2の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第2の距離マップを生成する第2の生成ステップと、
    生成された前記第1の距離マップと前記第2の距離マップとから、距離マップを合成する距離マップ合成ステップと
    を含む距離推定方法。
  10. 第1の深度に対して合焦している第1の深度合焦画像を取得する第1の深度合焦画像取得部と、
    前記第1の深度とは異なる第2の深度に対して合焦している第2の深度合焦画像を取得する第2の深度合焦画像取得部と、
    前記第1の深度合焦画像の合焦範囲ないし前記第2の深度合焦画像の合焦範囲よりも広い範囲において合焦している全焦点画像を生成する全焦点画像生成部と、
    前記全焦点画像の深度範囲内で複数の深度を設定し、前記第1の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第1の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第1の距離マップを生成する第1の生成部と、
    前記第2の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第2の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第2の距離マップを生成する第2の生成部と、
    生成された前記第1の距離マップと前記第2の距離マップとから、距離マップを合成する距離マップ合成部と
    を備える集積回路。
  11. 第1の深度に対して合焦している第1の深度合焦画像を取得する第1の深度合焦画像取得ステップと、
    前記第1の深度とは異なる第2の深度に対して合焦している第2の深度合焦画像を取得する第2の深度合焦画像取得ステップと、
    前記第1の深度合焦画像の合焦範囲ないし前記第2の深度合焦画像の合焦範囲よりも広い範囲において合焦している全焦点画像を生成する全焦点画像生成ステップと、
    前記全焦点画像の深度範囲内で複数の深度を設定し、前記第1の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第1の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第1の距離マップを生成する第1の生成ステップと、
    前記第2の深度に合焦しているときの、前記複数の深度における複数のボケ画像を、前記全焦点画像から生成し、前記第2の深度合焦画像に含まれるそれぞれの画像領域での画像に最も類似した画像である前記ボケ画像を、前記複数の深度における前記複数のボケ画像の中から選別し、選別した前記ボケ画像の深度を、当該画像領域における距離として示す第2の距離マップを生成する第2の生成ステップと、
    生成された前記第1の距離マップと前記第2の距離マップとから、距離マップを合成する距離マップ合成ステップと
    をコンピュータに実行させるためのコンピュータプログラム。
JP2011544735A 2010-06-17 2011-06-17 距離推定装置、距離推定方法、集積回路、コンピュータプログラム Expired - Fee Related JP5824364B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011544735A JP5824364B2 (ja) 2010-06-17 2011-06-17 距離推定装置、距離推定方法、集積回路、コンピュータプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010138785 2010-06-17
JP2010138785 2010-06-17
PCT/JP2011/003478 WO2011158515A1 (ja) 2010-06-17 2011-06-17 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
JP2011544735A JP5824364B2 (ja) 2010-06-17 2011-06-17 距離推定装置、距離推定方法、集積回路、コンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2011158515A1 JPWO2011158515A1 (ja) 2013-08-19
JP5824364B2 true JP5824364B2 (ja) 2015-11-25

Family

ID=45347930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544735A Expired - Fee Related JP5824364B2 (ja) 2010-06-17 2011-06-17 距離推定装置、距離推定方法、集積回路、コンピュータプログラム

Country Status (4)

Country Link
US (1) US8705801B2 (ja)
JP (1) JP5824364B2 (ja)
CN (1) CN102472622B (ja)
WO (1) WO2011158515A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011158508A1 (ja) * 2010-06-17 2013-08-19 パナソニック株式会社 画像処理装置および画像処理方法
JP2015022716A (ja) * 2013-07-23 2015-02-02 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5868183B2 (ja) * 2010-06-15 2016-02-24 パナソニック株式会社 撮像装置及び撮像方法

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
CN102713512B (zh) * 2010-11-17 2015-06-03 松下电器产业株式会社 摄像装置以及距离测量方法
US8830378B2 (en) * 2011-03-29 2014-09-09 Olympus Corporation Image capturing system and image capturing method, involving image restoration processing
US8432434B2 (en) * 2011-07-08 2013-04-30 Mitsubishi Electric Research Laboratories, Inc. Camera and method for focus based depth reconstruction of dynamic scenes
CN103827920B (zh) * 2011-09-28 2018-08-14 皇家飞利浦有限公司 根据图像的对象距离确定
JP5587930B2 (ja) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法
US8890996B2 (en) * 2012-05-17 2014-11-18 Panasonic Corporation Imaging device, semiconductor integrated circuit and imaging method
JP5932476B2 (ja) * 2012-05-17 2016-06-08 キヤノン株式会社 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
JP6071257B2 (ja) * 2012-06-07 2017-02-01 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US8988520B2 (en) 2012-07-19 2015-03-24 Sony Corporation Method and apparatus for improving depth of field (DOF) in microscopy
JP6202927B2 (ja) * 2012-08-31 2017-09-27 キヤノン株式会社 距離検出装置、撮像装置、プログラム、記録媒体および距離検出方法
JP5664626B2 (ja) * 2012-10-12 2015-02-04 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9894269B2 (en) 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
JP6152772B2 (ja) * 2012-11-29 2017-06-28 パナソニックIpマネジメント株式会社 撮像装置、半導体集積回路および撮像方法
JP2014157425A (ja) * 2013-02-14 2014-08-28 Canon Inc 撮像装置及びその制御方法
JP6040422B2 (ja) * 2013-03-26 2016-12-07 パナソニックIpマネジメント株式会社 撮像装置
EP3005286B1 (en) * 2013-05-30 2019-09-04 Nokia Technologies Oy Image refocusing
JP6214233B2 (ja) 2013-06-21 2017-10-18 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム。
CN103703757B (zh) * 2013-08-01 2015-09-09 华为终端有限公司 一种拍照方法及装置
CN104376323B (zh) * 2013-08-12 2018-01-23 联想(北京)有限公司 一种确定目标距离的方法及装置
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
KR102066938B1 (ko) * 2013-08-20 2020-01-16 한화테크윈 주식회사 영상 처리 장치 및 방법
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9508173B2 (en) * 2013-10-30 2016-11-29 Morpho, Inc. Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium
JP6137316B2 (ja) * 2014-02-26 2017-05-31 パナソニックIpマネジメント株式会社 深さ位置検出装置、撮像素子、及び深さ位置検出方法
JP6317635B2 (ja) * 2014-06-30 2018-04-25 株式会社東芝 画像処理装置、画像処理方法及び画像処理プログラム
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
JP6516429B2 (ja) * 2014-09-16 2019-05-22 キヤノン株式会社 距離計測装置、撮像装置、および距離計測方法
JP5927265B2 (ja) * 2014-10-28 2016-06-01 シャープ株式会社 画像処理装置及びプログラム
JP2016111609A (ja) * 2014-12-09 2016-06-20 株式会社東芝 画像処理装置、撮像装置、画像処理方法およびプログラム
EP3035284A1 (en) * 2014-12-19 2016-06-22 Thomson Licensing Method and apparatus for generating an adapted slice image from a focal stack
WO2016114427A1 (ko) * 2015-01-16 2016-07-21 재단법인 다차원 스마트 아이티 융합시스템 연구단 이미지로부터 심도정보를 추정할 때의 연산 복잡도를 감소시키기 위한 방법 및 장치
EP3185209B1 (en) * 2015-12-23 2019-02-27 STMicroelectronics (Research & Development) Limited Depth maps generated from a single sensor
TWI585364B (zh) * 2016-01-21 2017-06-01 合盈光電科技股份有限公司 具距離辨識之影像處理系統及其方法
US11037320B1 (en) 2016-03-01 2021-06-15 AI Incorporated Method for estimating distance using point measurement and color depth
US10311590B1 (en) 2016-03-01 2019-06-04 Al Incorporated Method for estimating distance using point measurement and color depth
US10992917B2 (en) * 2016-06-17 2021-04-27 Sony Corporation Image processing device, image processing method, program, and image processing system that use parallax information
WO2018163572A1 (ja) * 2017-03-10 2018-09-13 富士フイルム株式会社 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム
CN110915193B (zh) * 2017-08-09 2022-06-24 富士胶片株式会社 图像处理***、服务器装置、图像处理方法及记录介质
FR3074385B1 (fr) 2017-11-28 2020-07-03 Stmicroelectronics (Crolles 2) Sas Commutateurs et reseau d'interconnexion photonique integre dans une puce optoelectronique
JP7211417B2 (ja) * 2018-04-17 2023-01-24 ソニーグループ株式会社 信号処理装置及び信号処理方法、並びに撮像装置
US10692515B2 (en) * 2018-04-17 2020-06-23 Fortemedia, Inc. Devices for acoustic echo cancellation and methods thereof
KR102472156B1 (ko) * 2018-04-19 2022-11-30 삼성전자주식회사 전자 장치 및 그 깊이 정보 생성 방법
US11115582B2 (en) 2018-11-28 2021-09-07 Jvckenwood Corporation Imaging control apparatus, imaging apparatus, and recording medium
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
JP7051740B2 (ja) * 2019-03-11 2022-04-11 株式会社東芝 画像処理装置、測距装置、方法及びプログラム
JP7170609B2 (ja) * 2019-09-12 2022-11-14 株式会社東芝 画像処理装置、測距装置、方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP2007139894A (ja) * 2005-11-15 2007-06-07 Olympus Corp 撮像装置
JP2010002233A (ja) * 2008-06-18 2010-01-07 Ricoh Co Ltd 複眼画像入力装置及びそれを用いた距離測定装置
JP2010039448A (ja) * 2008-08-08 2010-02-18 Canon Inc 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP2010066156A (ja) * 2008-09-11 2010-03-25 Nikon Corp 形状測定装置
JP2010121955A (ja) * 2008-11-17 2010-06-03 Olympus Corp 高さ情報取得装置、高さ情報取得方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2395261A (en) * 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
CN100539645C (zh) * 2005-02-07 2009-09-09 松下电器产业株式会社 成像装置
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070189750A1 (en) * 2006-02-16 2007-08-16 Sony Corporation Method of and apparatus for simultaneously capturing and generating multiple blurred images
TWI314832B (en) 2006-10-03 2009-09-11 Univ Nat Taiwan Single lens auto focus system for stereo image generation and method thereof
KR101488655B1 (ko) * 2007-09-14 2015-02-03 삼성전자 주식회사 자동 초점 조절 장치 및 방법
JP4524717B2 (ja) * 2008-06-13 2010-08-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP2007139894A (ja) * 2005-11-15 2007-06-07 Olympus Corp 撮像装置
JP2010002233A (ja) * 2008-06-18 2010-01-07 Ricoh Co Ltd 複眼画像入力装置及びそれを用いた距離測定装置
JP2010039448A (ja) * 2008-08-08 2010-02-18 Canon Inc 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP2010066156A (ja) * 2008-09-11 2010-03-25 Nikon Corp 形状測定装置
JP2010121955A (ja) * 2008-11-17 2010-06-03 Olympus Corp 高さ情報取得装置、高さ情報取得方法、及びプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5868183B2 (ja) * 2010-06-15 2016-02-24 パナソニック株式会社 撮像装置及び撮像方法
JPWO2011158508A1 (ja) * 2010-06-17 2013-08-19 パナソニック株式会社 画像処理装置および画像処理方法
JP5869883B2 (ja) * 2010-06-17 2016-02-24 パナソニック株式会社 画像処理装置
JP2015022716A (ja) * 2013-07-23 2015-02-02 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US10440251B2 (en) 2013-07-23 2019-10-08 Sony Corporation Image processing device, method of processing image, image processing program, and imaging device
US10771674B2 (en) 2013-07-23 2020-09-08 Sony Corporation Image processing device, method of processing image, image processing program, and imaging device
US11418714B2 (en) 2013-07-23 2022-08-16 Sony Group Corporation Image processing device, method of processing image, image processing program, and imaging device
US11722770B2 (en) 2013-07-23 2023-08-08 Sony Group Corporation Image processing device, method of processing image, image processing program, and imaging device

Also Published As

Publication number Publication date
US8705801B2 (en) 2014-04-22
US20120148109A1 (en) 2012-06-14
CN102472622A (zh) 2012-05-23
WO2011158515A1 (ja) 2011-12-22
CN102472622B (zh) 2015-12-02
JPWO2011158515A1 (ja) 2013-08-19

Similar Documents

Publication Publication Date Title
JP5824364B2 (ja) 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
JP5868183B2 (ja) 撮像装置及び撮像方法
JP5832424B2 (ja) 撮像装置及び距離計測方法
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP5869883B2 (ja) 画像処理装置
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
KR101412752B1 (ko) 디지털 자동 초점 영상 생성 장치 및 방법
CN109255810B (zh) 图像处理装置及图像处理方法
US20070172141A1 (en) Image conversion device, image conversion method, and recording medium
JP5615393B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2010117593A (ja) 距離情報取得装置、撮像装置、及びプログラム
US20240171855A1 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium that provide a notification based on an accuracy
JP2002247439A (ja) 画像入力装置、画像入力方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
KR100764414B1 (ko) Psf 선택 모듈, 디지털 자동 초점 조절 장치 및 psf선택 방법
JP5846895B2 (ja) 画像処理システム及びそれを備えた顕微鏡システム
JP2016201600A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
KR20150032764A (ko) 인위적으로 디포커스된 블러 이미지를 생성하는 방법 및 이미지 캡쳐링 디바이스
JP2015119428A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP2017126952A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6604737B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
Adams A fully automatic digital camera image refocusing algorithm
JP2018200722A (ja) 画像処理装置及びその制御方法、並びにプログラム及び記憶媒体
JP2017224906A (ja) 画像処理方法およびそれを用いた撮像装置、画像処理装置、画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151009

R151 Written notification of patent or utility model registration

Ref document number: 5824364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees