JP2014022806A - 撮像装置および撮像装置制御方法 - Google Patents
撮像装置および撮像装置制御方法 Download PDFInfo
- Publication number
- JP2014022806A JP2014022806A JP2012157315A JP2012157315A JP2014022806A JP 2014022806 A JP2014022806 A JP 2014022806A JP 2012157315 A JP2012157315 A JP 2012157315A JP 2012157315 A JP2012157315 A JP 2012157315A JP 2014022806 A JP2014022806 A JP 2014022806A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- parallax
- focus position
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
【課題】本発明は、簡易な構成で低いコストで実現できると同時に、短い撮影時間で画像を撮影する事で、明るく鮮明で被写界深度の深い画像を合成することを可能とした撮像装置および撮像装置制御方法を提供する。
【解決手段】本発明の撮像装置は、画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える。本発明の撮像装置は、被写***置の検出を行う被写***置検出部と、前記被写***置検出部により検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整部と、前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出部と、前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成部とを備える。
【選択図】図1
【解決手段】本発明の撮像装置は、画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える。本発明の撮像装置は、被写***置の検出を行う被写***置検出部と、前記被写***置検出部により検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整部と、前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出部と、前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成部とを備える。
【選択図】図1
Description
本発明は、複数のカメラで合焦位置を変えて被写体を撮影し、被写界深度の深い画像を合成する撮像装置、および撮像装置制御方法に関する。
イメージセンサは小型化が進み、多くの携帯電話やタブレット端末などをはじめとするモバイル性の高い機器に搭載されるようになった。それに伴い、人間は幅広いシーンでカメラを活用するようになったが、カメラの焦点ぼけによる不満も多くなった。例えば、景色と人物を同時に撮影する場合、近景の人物に合焦させると背景がぼけ、遠景に合焦させると人物がぼけてしまい、景色と人物が共に合焦した画像の撮影が困難であった。こういう理由から近景から遠景までの広い範囲において合焦した(ピントの合った)被写界深度の深い画像が求められるようになった。
しかしながら、一般的なカメラはレンズの特性から焦点が1点に決まると合焦位置から離れた領域ほどぼけが生じてしまうため、被写界深度の深い画像の取得が困難であった。そこで、従来より、合焦位置の異なる複数の画像を用いて、被写界深度の深い画像を合成する方法が多く提案されている。
特許文献1では、合焦位置が異なる複数の画像からぼけ関数を推定し、それぞれ推定されたぼけ関数に基づき決定される係数を使ったフィルタ処理を施した後に加算することで被写界深度の深い画像を合成する方法について提案されている。
また、特許文献2では、被写体からレンズ系を通った光をハーフミラーで複数の光に分割し、光軸に沿ってずらして配置された複数のCCD(Charge Coupled Device Image Sensor)撮像素子に入射させることで合焦位置の異なる複数の画像を記録し、その複数の画像から鮮鋭度が高い画素を抽出して高速に被写界深度の深い画像を合成する方法について提案されている。
しかしながら、特許文献1に記載の装置では、単眼カメラで複数の画像を撮影するため、撮影時間が長くなり、撮影中に被写体が動いてしまうと撮影した各画像間で被写体の位置がずれ、合成画像の画質が劣化すると言う課題があった。
また、特許文献2に記載の装置では、高速に合成画像を取得できるが、複数のCCDを持ち、ハーフミラー等を用いるカメラ構成が必要となるため、コストが高く、しかも、ハーフミラーを用いていることで光量が減少してしまうという課題もあった。
本発明は、斯かる事情に鑑みてなされたものであり、簡易な構成で低いコストで実現できると同時に、短い撮影時間で画像を撮影することで、明るく鮮明で被写界深度の深い画像を合成することを可能とした撮像装置および撮像装置制御方法を提供する。
本発明の一観点によれば、画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える撮像装置が提供される。本発明の撮像装置は、被写***置の検出を行う被写***置検出部と、前記被写***置検出部により検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整部と、前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出部と、前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成部とを備える。前記焦点調整部は、前記被写***置に基づいて、前記第一のカメラと前記第二のカメラの撮影合焦位置と撮影回数を決定することを特徴とする。
また、本発明の他の観点によれば、画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える撮像装置における撮像装置制御方法が提供される。本発明の撮像装置制御方法は、被写***置の検出を行う被写***置検出ステップと、前記被写***置検出ステップにより検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整ステップと、前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出ステップと、前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成ステップとを備え、前記焦点調整ステップにおいて、前記被写***置に基づいて、前記第一のカメラと前記第二のカメラの撮影合焦位置と撮影回数を決定することを特徴とする。
また、本発明は、上述の撮像装置制御方法を情報処理装置に実行させるためのプログラムであってもよいし、当該プログラムを記録するコンピュータ読み取り可能な記録媒体であってもよい。さらに、プログラムは、インターネットなどの伝送媒体によって取得されるものでもよい。
本発明によれば、2つのカメラを用いて合焦位置を変えて撮影することで被写界深度の深い画像を取得するのに必要な画像を短時間で撮影することができる。
以下、添付図面を参照して本発明の実施形態について説明する。なお、添付図面は本発明の原理に則った具体的な実施形態と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。
<第1実施形態>
以下、図面を参照して第1実施形態における撮像装置を具体的に説明する。図1は、本実施形態における撮像装置の構成例である。
以下、図面を参照して第1実施形態における撮像装置を具体的に説明する。図1は、本実施形態における撮像装置の構成例である。
撮像装置100は、第一カメラ101と、第二カメラ102と、被写***置検出部103と、パラメータ記憶部104と、焦点調整部105と、位置合わせ部106と、視差算出部107と、画像合成部108とを有する。
第一カメラ101および第二カメラ102は、それぞれ、レンズを含む撮像光学系と、レンズを通った光を撮像素子で受け、デジタル信号に変換するセンサ(図示せず)とを有する。また、各カメラ101,102は、光軸が略平行になるように配置されている他、レンズ位置を任意の距離にある被写体に合焦する位置に移動させることができ、個別に制御できる。
撮像装置100は、被写***置検出部103により、第二カメラ102から画像を取得し、カメラから最も近い被写体までの合焦位置を求める。そして、焦点調整部105は、被写***置検出部103で検出された合焦位置を基にパラメータ記憶部104からカメラの合焦位置制御に関するパラメータを読み込み、読み込まれたパラメータを用いて撮影合焦位置を算出する。この合焦位置制御に関するパラメータについては、後述する。
撮像装置100は、焦点調整部105において算出した合焦位置に従い、各カメラ101,102を撮影合焦位置に移動させ、撮影を行う。位置合わせ部106は、焦点調整部105の制御によって撮影された第一カメラ101と第二カメラ102の画像に対してパラメータ記憶部104から位置合わせ用のパラメータを読み込み、それぞれ位置合わせを行う。
視差算出部107は、位置合わせ部106による位置合わせ処理の後の第一カメラ101および第二カメラ102の画像から視差マップを算出する。そして、画像合成部108は、算出した視差マップを用いてマスクを作成し、被写界深度の深い画像の合成を行う。ここで、視差とは、視点の異なる各撮影画像間で同一の被写体が撮影されている位置のずれ量である。そして、視差マップとは、撮影画像の全て、あるいは一部の画素において算出した視差をまとめた情報である。
図2は、第1実施形態に係る撮像装置の制御法を示すフローチャートである。以下では、図2のフローチャートに従って撮像装置制御方法の詳細について説明する。
まず、ステップS10において、被写***置検出部103は、第二カメラ102によって近景被写***置を検出する。この際、第二カメラ102は、最短撮影距離から無限遠距離に向かって、合焦位置を探索する。無限遠とは、カメラの光学系においてその距離以降焦点調節が不要となる距離のことを指し、無限遠距離は、無限遠に合焦するレンズ位置に対応する距離のことを指す。また、最短撮影距離は、カメラのレンズの焦点が合う範囲のうち、最も手前に合焦するレンズ位置に対応するカメラからの距離のことである。以降、無限遠距離のことをINF、最短撮影距離をMODと呼ぶ。
図3に示すように、第二カメラ102では合焦位置の探索開始点をMODに設定し、MODからINF方向に合焦位置の探索を行う。本例では、合焦位置の探索にコントラスト検出法を用いる。コントラスト検出法は、レンズを移動させながら画像を取得し、各画像においてコントラスト値を計算していき、コントラスト値が高くなる画像を撮影したレンズ位置を合焦位置として決める方法である。最初にコントラストが高くなった時点、つまり第二カメラ102が被写体Aのある合焦位置DAにレンズを移動した時点で終了する。ここで、コントラストの検出範囲は、画像全体とし、画像全体を複数の領域に分けてそれぞれのコントラスト値を計算することで合焦位置を検出する。また、コントラストが高くなったかどうかの判断は、あらかじめ閾値を決めておき、コントラスト値が閾値以上になったかどうかで判定する等の方法で判断できる。例えば、複数の領域のうち1つでも閾値を超えた時点で判断する。合焦位置が検出された場合、被写***置検出部103は、第二カメラ102の合焦位置を近景被写***置として決定する。
本例では、コントラスト検出法による合焦位置検出を用いた場合を想定して説明したが、オートフォーカスで使用される位相差検出方式やコントラストと位相差を両方用いるハイブリッド方式等の焦点検出手段を用いてもよい。以上のように、予め被写***置を検出しておくことによって、画像撮影時に被写体が存在しない範囲で撮影しないようにすることができ、被写体の存在する範囲で被写界深度の深い画像を合成することが可能となる。
次に、図2に示すステップS11において、焦点調整部105は、被写***置検出部103により検出された被写***置に従って、パラメータ記憶部104からパラメータを読み込み、撮影合焦位置の算出および決定を行う。パラメータ記憶部104には、撮影合焦位置を求めるためのパラメータが記憶されている。ここで記憶されているパラメータは、例えば、レンズ位置と合焦位置の対応関係を示す情報、レンズの焦点距離、カメラのF値、レンズの許容錯乱円直径、ぼけの許容度(何画素ずれからボケとして扱うかの許容度)である。以下の説明では、レンズ位置と合焦位置の対応関係はパラメータ記憶部104に記憶されており、焦点調整部105は被写***置検出部103により被写***置が検出された際のレンズ位置を合焦位置に変換して制御を行う。また、焦点調節する場合は合焦位置からレンズ位置に変換を行った後、制御を行う。
図4は、被写界深度を説明するための模式図であり、横軸は第二カメラ102からの距離である。図4に示すように、L1を前方被写界深度、L2を後方被写界深度とすると、カメラの被写界深度Lfは(1)式のように示される。ここで、前方被写界深度とは、合焦位置より前方側で合焦したように見える範囲のことを指し、後方被写界深度とは合焦位置より後方側で合焦したように見える範囲のことを指す。
Lf= L1+L2 ・・・(1)
Lf= L1+L2 ・・・(1)
また、レンズの焦点距離をf、カメラのF値をF、レンズの許容錯乱円直径をδ、ぼけの許容度(何画素ずれからボケとして扱うかの許容度)をp、カメラからの距離をlとすると、式(2)および(3)の関係がそれぞれ成り立つ。したがって、式(1)、式(2)、式(3)により、式(4)を求めることができる。
L1=δpFl2/(f2+δpFl) ・・・(2)
L2=δpFl2/(f2−δpFl) ・・・(3)
Lf=δpFl2/(f2+δpFl) +δpFl2/(f2−δpFl) ・・・(4)
L1=δpFl2/(f2+δpFl) ・・・(2)
L2=δpFl2/(f2−δpFl) ・・・(3)
Lf=δpFl2/(f2+δpFl) +δpFl2/(f2−δpFl) ・・・(4)
図5は、撮影合焦位置の決定方法を模式的に示す説明図である。図5に示すように、被写***置検出部103で検出した近景被写***置DAが前方被写界深度に含まれる合焦位置fAを、上記の式を使って決定する。式(2)を用いて、まず、カメラからの距離lの初期値を近景被写***置DAとし、カメラからの距離lをINF方向に向かってを一定値毎に変えていき、各距離での前方被写界深度を算出していく。近景被写***置DAと前方被写界深度が最も近くなった距離を合焦位置fAと決定する。決定した合焦位置fAを第二カメラ102の撮影合焦位置とする。
次に、式(3)を用いて、決定した第二カメラ102の撮影合焦位置fAから後方被写界深度を求める。そして、式(2)を用いて、求めた撮影合焦位置fAの後方被写界深度を初期値とし、撮影合焦位置fAの後方被写界深度からINF位置に向かってカメラからの距離lを一定値毎に変えていき、各距離を合焦位置とした時の前方被写界深度を算出していく。撮影合焦位置fAの後方被写界深度とfBの前方被写界深度が最も近くなった合焦位置を合焦位置fBと決める。決定した合焦位置fBを第一カメラ101の撮影合焦位置とする。以上の方針で撮影合焦位置を決定することで、深い被写界深度を包含する2つの画像を得ることができる。本例では、撮影合焦位置fAの後方被写界深度とfBの前方被写界深度が最も近くなった合焦位置をfBと決定しているが、必ずしも最も近くなった合焦位置をfBと決定する必要はなく、撮影合焦位置fAの後方被写界深度にfBの前方被写界深度の少なくとも一部が含まれるならば、その合焦位置をfBと決定してもよい。最も近くする事で後述する合成画像の被写界深度が最も深くなるが、少なくとも一部が含まれれば、単眼の画像に比べて合成画像の被写界深度は深くなる為である。
次に、ステップS12において、焦点調整部105は、算出した2つの撮影合焦位置fA,fBに各カメラ101,102の合焦位置を移動させ、焦点を合わせて撮影を行う。すなわち、本実施例では、焦点調整部105は、算出した2つの撮影合焦位置fA,fBで撮影を行うため、撮影回数は2回となる。
次に、ステップS13において、位置合わせ部106は、パラメータ記憶部104から位置合わせ用のパラメータを読み込む。位置合わせ用のパラメータは、合焦位置が変化することによる画角の違い(画像の大きさ)を補正するパラメータである。合焦位置がINF側にいくほど画角が小さくなるため撮像される像は拡大され、この後のステップで行う視差の算出や、全焦点画像の合成が困難になる。本実施形態のように第一および第二カメラ101,102が平行に配置されており、画角の違い(画像の大きさ)のみを補正すればよい場合には、パラメータ記憶部104に合焦位置を変えて撮影した画像間の拡大率を保持しておき、それをパラメータとして位置合わせ部106が読み込む。
次に、ステップS14において、位置合わせ部106は、読み込んだパラメータを用いて各合焦位置fA,fBで撮影した画像に対して、画像の拡大縮小の処理を実行する。
次に、ステップS15において、視差算出部107は、位置合わせ部106で位置合わせを行った画像から視差マップを算出する。視差算出部107は、異なる合焦位置fA,fBで撮影した、第一カメラ101の画像を基準画像、第二カメラ102の画像を参照画像としてブロックマッチングを行い、両画素ブロックの相関度を求め、相関度に基づいて視差マップを算出する。なお、相関度は、例えばSAD(Sum of Absolute Difference)法による相関値演算により求めることができ、基準画像の各画素において参照画像上で相関度が最も高くなる位置を検出する事により、視差を算出できる。また、SAD以外にもSSD(Sum of Squared Difference)やZNCC(Zero−mean Normalized Cross−Correlation)等の別の相関度を用いて視差マップを求めてもよい。
次に、ステップS16において、画像合成部108は、視差算出部107で得た視差マップを用いて、第一カメラ101の合焦位置におけるマスクを作成し、それを基に画像の合成を行う。画像の合成は、視差マップを2つの視差範囲に分割することでマスクを作成し、第一カメラ101で撮影した画像に対しマスク範囲に対応した第二カメラ102の画像の一部を貼り合わせて合成を行う。視差範囲を分割するには、距離と視差の対応がとれていることが必要となるため、視差と距離の対応を求める。距離から視差値の変換は、視差値をd、カメラの焦点距離をf、カメラの基線長をB、δをレンズの許容錯乱円直径、距離をDとすると、式5の関係が成り立つ。
d=f・B/δ・D ・・・(5)
d=f・B/δ・D ・・・(5)
式(5)を用いて合焦位置と被写界深度に対応した視差値を求めることができる。視差範囲の分割は、式(5)を用い、例えば第一カメラ101の合焦位置の被写界深度に対応する視差値の範囲が25〜72であった場合、視差値が72以下の範囲と視差値が73以上の範囲に分け、視差値が73以上の範囲を第二カメラ102での合焦位置のマスクとする。
図6は、画像合成部における合成方法を模式的に示す説明図である。図6に示すように、画像の合成は、作成したマスクを用いて第二カメラ102で撮影した画像202から視差値分をキャンセルした後、マスク203を抜き出して、第一カメラ101で撮影した画像201の対応画素と置き換えて行う。これにより、被写界深度の深い画像204を合成することができる。
以上の処理によって、マスク生成から画像合成までの処理を行う。
以上の処理によって、マスク生成から画像合成までの処理を行う。
なお、本実施形態の構成では、2つのカメラ101,102で同時に撮影し被写界深度の深い画像を合成することができるため、動画にも対応できる。また、ハーフミラー等の特殊な装置を用いていないので光量を十分に確保できる上、一般的なカメラで構成できるのでコストも安い。
なお、本実施形態では、被写***置検出部103が第二カメラ102を用いて近景被写***置を検出したが、第二カメラ102を用いることを限定しているわけではなく、どちらのカメラを用いてもよい。
なお、ここでは2つのカメラを使用する例を示したが、3つ以上のカメラを用いても良い。また、1つのカメラを用いて異なる合焦位置で撮影する場合においても、被写***置を考慮すると共に、あらかじめぼけ量に基づいて算出した被写界深度が重複するように撮影合焦位置を決定する事で、少ない回数で効果的に全焦点画像を生成するための画像を取得する事ができる。
なお、本実施形態では、算出した2つの撮影合焦位置fA,fBで2つのカメラ101、102によって撮影する例を示したが、3つ以上のカメラによって、それぞれ異なる撮影合焦位置で撮影するようにしてもよく、撮影回数は、算出された撮影合焦位置に応じて決定される。
なお、ここでは2つのカメラを使用する例を示したが、3つ以上のカメラを用いても良い。また、1つのカメラを用いて異なる合焦位置で撮影する場合においても、被写***置を考慮すると共に、あらかじめぼけ量に基づいて算出した被写界深度が重複するように撮影合焦位置を決定する事で、少ない回数で効果的に全焦点画像を生成するための画像を取得する事ができる。
なお、本実施形態では、算出した2つの撮影合焦位置fA,fBで2つのカメラ101、102によって撮影する例を示したが、3つ以上のカメラによって、それぞれ異なる撮影合焦位置で撮影するようにしてもよく、撮影回数は、算出された撮影合焦位置に応じて決定される。
<第2実施形態>
以下、図面を参照して第2実施形態における撮像装置を具体的に説明する。図7は、本実施形態における撮像装置の構成例である。
以下、図面を参照して第2実施形態における撮像装置を具体的に説明する。図7は、本実施形態における撮像装置の構成例である。
撮像装置300は、第一カメラ301と、第二カメラ302と、被写***置検出部303と、パラメータ記憶部304と、焦点調整部305と、位置合わせ部306と、視差算出部307と、視差統合部308と、画像合成部309とを有する。
第一カメラ301および第二カメラ302は、それぞれ、レンズを含む撮像光学系と、レンズを通った光を撮像素子で受け、デジタル信号に変換するセンサ(図示せず)とを有する。また、各カメラ301,302は、光軸が平行になるように配置されている他、レンズ位置を任意の距離にある被写体に合焦する位置に移動させることができ、個別に制御できる。
撮像装置300は、被写***置検出部303により、第一カメラ301と第二カメラ302とから画像を取得し、各カメラ301,302から最も近い被写体までの合焦位置と最も遠い被写体との合焦位置を検出することにより、被写***置を決定する。
焦点調整部305は、被写***置検出部303で検出された被写***置を基にパラメータ記憶部304から合焦位置と被写界深度との関係に関するテーブル情報を参照し、撮影合焦位置と撮影回数などのパラメータを決定する。テーブル情報については後述する。
撮像装置300は、決定したパラメータに従って、各カメラ301,302を撮影合焦位置に移動させ、撮影を行う。位置合わせ部306は、焦点調整部305により撮影された画像に対してパラメータ記憶部304から位置合わせ用パラメータを読み込み、位置合わせを行う。
視差算出部307は、位置合わせ部306による位置合わせ処理の後の第一カメラ301および第二カメラ302の画像から、視差情報である視差マップを算出する。視差マップとは、全ての画素において視差を求めた画像のことを指す。
視差統合部308は、視差算出部307から与えられる複数の視差マップから後述する統合視差マップを合成する。画像合成部309は、統合視差マップを用いてマスクを作成し、全焦点画像を合成する。全焦点画像とは、ここでは被写体全てにピントの合った被写界深度の深い鮮明な画像である。ピントの合った鮮明な画像とは、あらかじめ設定したぼけの許容度より大きいぼけが無いことを意味する。
図8は、第2実施形態に係る撮像装置の制御法を示すフローチャートである。以下では、図8のフローチャートに従って撮像装置制御方法の詳細について説明する。
まず、ステップS20において、被写***置検出部303により被写***置を決定する。図9は、被写***置検出部303における動作を模式的に示す説明図である。図9における横軸は、各カメラ301,302のレンズ面からの距離である。
第一カメラ301はINFからMODに向かって、一方、第二カメラ302はMODからINFに向かって、合焦位置を探索する。
第一カメラ301はINFからMODに向かって、一方、第二カメラ302はMODからINFに向かって、合焦位置を探索する。
図9に示すように、第一カメラ301の合焦位置の探索開始点をINFに設定し、MOD方向に合焦位置の探索を行う。第二カメラ302では、合焦位置の探索開始点をMODに設定し、MODからINF方向に合焦位置の探索を行う。本例では、合焦位置の探索にコントラスト検出法を用いる。最初にコントラストが高くなった時点、つまり、第一カメラ301が、被写体BがあるDBの合焦位置にレンズを移動した時点、第二カメラ302が、被写体AがあるDAの合焦位置にレンズを移動した時点で終了する。ここで、コントラストの検出範囲は、第一カメラ301と第二カメラ302で異なる。MODから検出を行う第一カメラ301の場合は撮影画像中の中央領域をコントラストの検出範囲とし、INFから検出を行う第二カメラ302の場合は周辺領域をコントラストの検出範囲としている。これは、カメラを撮影する際に近景被写体は画像の中心になる傾向が強く、また遠景被写体は画像の周辺部となる傾向が強いからである。例えば、人物と景色を同時に撮影する場合、人物を画像の中心に、景色を背景面とするような構図で撮影することが多い。コントラストが高くなったかどうかの判断は、あらかじめ閾値を決めておき、コントラスト値が閾値以上になったかどうかで判定する等の方法で判断できる。それぞれ合焦位置が検出された場合、第一カメラ301の合焦位置DAを遠景被写***置、第二カメラ302の合焦位置DBを近景被写***置として決定する。
ここでは、第一カメラ301、第二カメラ302のコントラスト検出範囲をそれぞれ中央領域、周辺領域としているが、検出範囲をそれぞれ画像全体とするか、あるいはユーザーが検出範囲を設定できるようにするなど、ここで記載する範囲に限定するものではない。
ここでは、第一カメラ301、第二カメラ302のコントラスト検出範囲をそれぞれ中央領域、周辺領域としているが、検出範囲をそれぞれ画像全体とするか、あるいはユーザーが検出範囲を設定できるようにするなど、ここで記載する範囲に限定するものではない。
本例では、コントラスト検出法による合焦位置検出を用いた場合を想定して説明したが、オートフォーカスで使用される位相差検出方式やコントラストと位相差を両方用いるハイブリッド方式等の焦点検出手段を用いてもよい。また、二眼カメラのうち一方のカメラで近い側の合焦位置を検出し、もう一方のカメラで遠い側の合焦位置を検出するよう各カメラで分担することにより、すばやく被写***置を決定する事が可能となる。
以上のように、予め近景被写***置と遠景被写***置を検出しておくことによって、画像撮影時に被写体が存在しない範囲で撮影しないようにすることができ、少ない撮影回数で全焦点画像を合成することが可能となる。
以上のように、予め近景被写***置と遠景被写***置を検出しておくことによって、画像撮影時に被写体が存在しない範囲で撮影しないようにすることができ、少ない撮影回数で全焦点画像を合成することが可能となる。
次に、図8に示すステップS21において、焦点調整部305は、被写***置検出部303により決定された被写***置に従って、パラメータ記憶部304から撮影合焦位置と撮影回数を求めるためのテーブル情報を参照して撮影合焦位置と撮影回数を決定する。パラメータ記憶部304では、レンズ位置と合焦位置の関係を示す情報、被写***置に対応した撮影合焦位置、撮影回数を求めるためのテーブル情報と位置合わせ用のパラメータとが記憶されている。焦点調整部305は、このテーブル情報を参照し、撮影回数と撮影合焦位置との決定を行う。撮影回数は、第一カメラ301と第二カメラ302とで撮影する回数の合計を表し、撮影合焦位置は、被写***置に基づきテーブル情報から求めた実際に撮影する回数分の合焦位置を表す。撮影する各合焦位置の間隔は、MOD側ほど小さく、INF側ほど大きくなるように設定している。これは、MOD側ほど被写界深度が浅く、INF側ほど被写界深度が深くなるレンズの特性を考慮しているからである。以下の説明では、レンズ位置と合焦位置の対応関係はパラメータ記憶部304に記憶されており、焦点調整部305は、被写***置検出部303により被写***置が検出された際のレンズ位置を合焦位置に変換して制御を行う。また、焦点調節する場合は合焦位置からレンズ位置に変換を行った後、制御を行う。
テーブル情報は、第1実施形態で述べた式(4)に基づいて、被写界深度を考慮して作成される。レンズの焦点距離を4.50mm、F値を3.5、レンズの許容錯乱円直径を1.4μm、ぼけの許容度を2画素とした場合、図10に示すテーブル情報が得られる。ここで、各合焦位置は、MODを270mm、INFを5000mmとした場合、各合焦位置のMODからINFの範囲を全て包含するような合焦位置、300mm、350mm、450mm、600mm、1000mm、2066mmの6点を設定した。なお、ここでの包含とは、各合焦位置の被写界深度が重複するように設定され、MODからINFの範囲を全て含んでいることを示す。また、図10では、合焦位置を300mmに設定した場合、前方被写界深度の270mmから後方被写界深度の351mmの範囲(被写界深度)までが合焦していることを示している。この図10のテーブル情報が、あらかじめパラメータ記憶部304に記憶されており、このテーブル情報から撮影回数と撮影合焦位置を求める。
図9で示した近景被写***置DBを360mm、遠景被写***置DAを900mmとした場合、図10より近景被写***置の360mmは350mmの被写界深度である299mmから421mmに含まれ、被写界深度内に含む合焦位置の中で350mmは最小となるので撮影合焦位置は350mmに決定される。また、遠景被写***置の900mmは1000mmの被写界深度である674mmから1938mmに含まれ、被写界深度内に含む合焦位置の中で1000mmが最大となるので撮影合焦位置は1000mmに決定される。よって、合成後の全焦点画像において、360mmから900mmまでの距離を全て包含するような被写界深度を得るには、撮影合焦位置は350mm、450mm、600mm、1000mmの位置となり、撮影回数は4回となる。図10において複数の合焦位置の被写界深度に含まれる距離がありこの場合はどちらの合焦位置を選択してもよいが、近景被写***置ならば前方被写界深度内に含まれる合焦位置を選択し、遠景被写***置ならば後方被写界深度に含まれる合焦位置を選択する。このようにすることによって、より少ない撮影回数で全焦点画像を撮影することができる。
また、近景被写***置DBを460mm、遠景被写***置DAを900mmとした場合、図10より近景被写***置の460mmは450mmの被写界深度である370mmから575mmに含まれ、被写界深度内に含む合焦位置の中で450mmは最小となるので撮影合焦位置は450mmに決定される。また、遠景被写***置の900mmは1000mmの被写界深度である674mmから1938mmに含まれ、被写界深度内に含む合焦位置の中で1000mmが最大となるので撮影合焦位置は1000mmに決定される。よって、合成後の全焦点画像において、460mmから900mmまでの距離を全て包含するような被写界深度を得るには、撮影合焦位置は450mm、600mm、1000mmの位置となり、撮影回数は3回となる。
以上の処理に従って、テーブル情報を参照して撮影合焦位置と撮影回数を決定する。
以上の処理に従って、テーブル情報を参照して撮影合焦位置と撮影回数を決定する。
次に、ステップS22において、焦点調整部305は、決定された撮影合焦位置と撮影回数に従って各カメラ301,302の合焦位置を変化させ、撮影を行う。
以上のように、あらかじめ設定したぼけの許容度を考慮し、全ての距離において各合焦位置の被写界深度が包含するように合焦位置を設定し、撮影合焦位置と撮影回数を決定することで、可能な限り少ない撮影回数で全焦点画像を合成することができる。
以上のように、あらかじめ設定したぼけの許容度を考慮し、全ての距離において各合焦位置の被写界深度が包含するように合焦位置を設定し、撮影合焦位置と撮影回数を決定することで、可能な限り少ない撮影回数で全焦点画像を合成することができる。
図11は、撮影合焦位置と撮影回数の設定に関して具体的な例をあげて模式的に示した図である。被写***置検出部303で求めた近景被写***置を360mm、遠景被写***置を900mmとした場合、図10より必要な撮影回数は4回となり、撮影合焦位置は350mm、450mm、600mm、1000mmとなる。図11に示すように、まず、第二カメラ302で合焦位置を350mm、第一カメラ301で合焦位置450mmとして撮影する。次に、第二カメラ302を合焦位置600mm、第一カメラ301を合焦位置1000mmに移動させて撮影する。
また、図12は、撮影合焦位置と撮影回数の設定に関する別の例を示した図である。図12のように、第一カメラ301の近景被写***置を460mm、第二カメラ302の遠景被写***置を900mmとした場合、必要な撮影回数は3回となる。したがって、図12を示すように、まず、第二カメラ302で合焦位置を450mm、第一カメラ301で合焦位置600mmとして撮影する。次に、第二カメラ302のみを合焦位置1000mmに移動させて撮影する。
また、全焦点画像を撮影する場合、各カメラで近景被写体側と遠景被写体側に合焦位置を合わせて撮影する方法などもあるが、近景被写体側の合焦位置と遠景被写体側の合焦位置間の距離によって各合焦位置での被写界深度が大きく異なってしまうことがある。そのような場合、各撮影画像でのぼけ具合が大きく異なり、左右の画像間の対応点がとれなくなってしまうことで、視差の算出が困難になる。ここでは、第一カメラ301と第二カメラ302の合焦位置の移動を近景被写体側から遠景被写体側に向かい、被写界深度に合わせて交互に撮影している。このようにすることで後述する視差マップの精度を保ちつつ、合焦調節にかかる時間も短くすることができる。
次に、ステップS23において、位置合わせ部306は、パラメータ記憶部304から位置合わせ用のパラメータを読み込む。位置合わせ用のパラメータは、カメラの内部パラメータおよび外部パラメータからなり、第一カメラ301と第二カメラ302の光軸に合わせて、画像の平行化や大きさ合わせを行うレクティフィケーションと呼ばれる処理を行うためのものである。合焦位置がINF側にいくほど画角が小さくなるため撮像される像は拡大されてしまい、この後のステップで行う視差の算出や、全焦点画像の合成が困難になる。そのため、各合焦位置(本例では、合焦位置を300mm、350mm、450mm、600mm、1000mm、2066mmとして設定)でそれぞれカメラキャリブレーションを行うことでカメラパラメータを算出し、パラメータ記憶部304に記憶しておく。
次に、ステップS24において、位置合わせ部306は、各合焦位置で撮影した画像に対して、ステップS23で読み込んだパラメータを基にレクティフィケーション処理を行い、画像に映る被写体の大きさと位置を補正する位置あわせを行う。
なお、ここでは、カメラパラメータを用いてレクティフィケーション処理を行うとして説明しているが、カメラが平行に配置されており画角の違い(画像の大きさ)のみを補正すればよい場合には、パラメータ記憶部304に合焦位置を変えて撮影した画像間の拡大率を保持しておき、それをパラメータとして位置合わせ部306で画像の拡大縮小を行うようにしてもよい。
なお、ここでは、カメラパラメータを用いてレクティフィケーション処理を行うとして説明しているが、カメラが平行に配置されており画角の違い(画像の大きさ)のみを補正すればよい場合には、パラメータ記憶部304に合焦位置を変えて撮影した画像間の拡大率を保持しておき、それをパラメータとして位置合わせ部306で画像の拡大縮小を行うようにしてもよい。
次に、ステップS25において、視差算出部307は、位置合わせ部306で位置合わせを行った画像から視差マップを算出する。視差算出部307は、異なる合焦位置で撮影した第一カメラ301と第二カメラ302の画像の撮影回数が偶数であった場合、第一カメラ301の画像を基準画像、第二カメラ302の画像を参照画像としてブロックマッチングを行って両画素ブロックの相関度を求め、相関度に基づいて視差マップを算出する。例えば、図11で示したように、撮影合焦位置を350mm、450mm、600mm、1000mmとして4回撮影する場合、第二カメラ302で合焦位置を350mmとして撮影した画像と第一カメラ301で合焦位置を450mmとして撮影した画像間で視差マップを求め、次に、第二カメラ302で合焦位置を600mmとして撮影した画像と第一カメラ301で合焦位置を450mmとして撮影した画像間で視差マップを求める。そして、第二カメラ302で合焦位置を600mmとして撮影した画像と第一カメラ301で合焦位置を1000mmとして撮影した画像間で視差マップを求める。ここでは、計3枚の視差マップを求めることができる。
また、視差算出部307は、撮影回数が奇数であった場合、第二カメラ302の画像を基準画像、第一カメラ301の画像を参照画像としてブロックマッチングを行い両画素ブロックの相関度を求め、相関度に基づいて視差マップを算出する。
例えば図12に示したように、撮影合焦位置を450mm、600mm、1000mmとして3回撮影したと想定すると、第二カメラ302で合焦位置を450mmとして撮影した画像と第一カメラ301で合焦位置を600mmとして撮影した画像間で視差マップを求め、次に、第一カメラ301で合焦位置を600mmとして撮影した画像と第二カメラ302で合焦位置を1000mmとして撮影した画像間で視差マップを求める。ここでは、計2枚の視差マップを求めることができる。
ここで、基準画像は、視差マップを算出する際の2枚の画像のうち、遠景側の撮影合焦位置の画像を含むカメラで撮影された画像のことを指し、撮影回数が偶数、奇数によって基準画像が変わる。これは、後述する全焦点合成処理において合焦位置を遠景被写体側として撮影した画像を基に合成するためである。
例えば図12に示したように、撮影合焦位置を450mm、600mm、1000mmとして3回撮影したと想定すると、第二カメラ302で合焦位置を450mmとして撮影した画像と第一カメラ301で合焦位置を600mmとして撮影した画像間で視差マップを求め、次に、第一カメラ301で合焦位置を600mmとして撮影した画像と第二カメラ302で合焦位置を1000mmとして撮影した画像間で視差マップを求める。ここでは、計2枚の視差マップを求めることができる。
ここで、基準画像は、視差マップを算出する際の2枚の画像のうち、遠景側の撮影合焦位置の画像を含むカメラで撮影された画像のことを指し、撮影回数が偶数、奇数によって基準画像が変わる。これは、後述する全焦点合成処理において合焦位置を遠景被写体側として撮影した画像を基に合成するためである。
なお、相関度は、第1実施形態と同様に、SAD(Sum of Absolute Difference)法による相関値演算により求めることができ、基準画像の各画素において参照画像上で相関度が最も高くなる位置を検出する事により、視差を算出できる。また、SAD以外にもSSD(Sum of Squared Difference)やZNCC(Zero−mean Normalized Cross−Correlation)等の別の相関度を用いて視差マップを求めてもよい。
次に、ステップS26において、視差統合部308は、視差算出部307で求めた各合焦位置での視差マップを用いて、以下の方針に従って1つの統合した視差マップ(以後、統合視差マップと呼ぶ)を合成する。
統合視差マップは、各合焦位置での視差マップからヒストグラムをそれぞれ求め、注目した画素における視差値の数を比較することで、その画素において正しい視差値であるかを判定して得られたマップである。
図13は、3つの視差マップから統合視差マップを合成する場合の説明図である。前述のように、撮影合焦位置を350mm、450mm、600mm、1000mmとして4回撮影する場合、3枚の視差マップが得られる。それぞれ合焦位置を350mm、450mmとして撮影した画像間での視差マップの一部が視差マップ400である。また、合焦位置を450mm、600mmとして撮影した画像間での視差マップの一部が視差マップ401である。また、合焦位置を600mm、1000mmとして撮影した画像間での視差マップの一部が視差マップ402である。視差マップ400,401,402に対応するヒストグラムは、それぞれ、ヒストグラム404、ヒストグラム405、ヒストグラム406である。
これらの視差マップ400,401,402を用いて統合視差マップ403を合成する。各視差マップの一部400,401,402である3×3画素のブロックの中にそれぞれ視差値が求まっている。この3つの視差マップ400,401,402において同じ視差値となる場合は、ヒストグラム404,405,406に関係なく、この視差値を統合視差マップ403の視差値として採用する。次に3つの視差マップ400,401,402において異なる視差値である場合、ヒストグラム404,405,406に基づき視差値の数が多い方を信頼度が高いとみなし、統合視差マップ403の視差値として採用する。
ここでは、丸で囲んだ画素においてそれぞれ、視差値120、140、50が求まっているが、それぞれの視差に対応するヒストグラム404、ヒストグラム405、ヒストグラム406を比較すると、ヒストグラム404での視差値120の数が最も多いので、統合視差マップ403の視差値として採用する。また、二重丸で囲んだ画素においても同様の処理を行い、ヒストグラム406での視差値10の数が最も多いため、統合視差マップ403の視差値として採用する。
また、注目した画素において、全ての視差マップで視差値が求まっていない場合、統合視差マップ403における8近傍の視差値(求まっていない視差値は除く)の平均値を統合視差マップ403の視差値として採用する。
合焦位置の異なる位置で撮影した画像から求めた視差マップのヒストグラムは、合焦位置に近づけば近づくほど、その合焦位置に対応する視差値が増える傾向にある。一方で合焦位置から離れるほどぼけてしまうので他の視差値は減る。そのような理由から、ヒストグラムを用いて視差値を比較することで適切な視差値を選ぶことができる。
本例では、視差のヒストグラムから視差マップを合成しているが、図10より合焦位置が既知であることから合焦位置に対応する視差値を求め、統合視差マップを合成する際に各合焦位置での被写界深度を基に視差マップの合成範囲を分け、統合視差マップを求めてもよい。
本例では、視差のヒストグラムから視差マップを合成しているが、図10より合焦位置が既知であることから合焦位置に対応する視差値を求め、統合視差マップを合成する際に各合焦位置での被写界深度を基に視差マップの合成範囲を分け、統合視差マップを求めてもよい。
次に、ステップS27において、画像合成部309は、視差統合部308で得た統合視差マップ403を用いて、各合焦位置におけるマスクを作成し、それを基に全焦点画像を合成する。
全焦点画像の合成は、視差マップを撮影回数分の視差範囲に分割して各合焦位置で撮影した画像を貼り合わせて合成を行う。視差範囲を分割するには、距離と視差の対応がとれていることが必要となるため、第1実施形態で示した式(5)を用いて視差と距離の対応表を求める。前述のように、レンズの焦点距離を4.50mm、レンズの許容錯乱円直径を1.4μmとしているので、第一カメラ301と第二カメラ302の基線長が15mmであるとすると、図14に示すように、合焦位置と被写界深度の関係を視差値として表すことができる。
各合焦位置におけるマスクは、図14を用いて、視差値を基に統合視差マップ403から視差範囲を抜き出し作成する。なお、撮影回数が偶数か奇数かによって処理方法及びベース画像が異なる。ここで、ベース画像とは遠景被写***置側の撮影合焦位置で撮影した画像であり、この画像を基に全焦点画像を合成する。
全焦点画像の合成は、視差マップを撮影回数分の視差範囲に分割して各合焦位置で撮影した画像を貼り合わせて合成を行う。視差範囲を分割するには、距離と視差の対応がとれていることが必要となるため、第1実施形態で示した式(5)を用いて視差と距離の対応表を求める。前述のように、レンズの焦点距離を4.50mm、レンズの許容錯乱円直径を1.4μmとしているので、第一カメラ301と第二カメラ302の基線長が15mmであるとすると、図14に示すように、合焦位置と被写界深度の関係を視差値として表すことができる。
各合焦位置におけるマスクは、図14を用いて、視差値を基に統合視差マップ403から視差範囲を抜き出し作成する。なお、撮影回数が偶数か奇数かによって処理方法及びベース画像が異なる。ここで、ベース画像とは遠景被写***置側の撮影合焦位置で撮影した画像であり、この画像を基に全焦点画像を合成する。
撮影回数が偶数であった場合、遠景被写***置側の第一カメラ301の画像を全焦点画像のベース画像とする。視差範囲は、第一カメラ301で撮影された合焦位置と被写界深度を主にして図14を用いて分割する。図11で示したように、撮影合焦位置が350mm、450mm、600mm、1000mmであった場合、図14からその合焦位置での視差値はそれぞれ順に138、107、80、48となる。ベース画像は、第一カメラ301で合焦位置を1000mmとして撮影した画像になる。ここで、まず、ベース画像となる1000mm位置の視差範囲を図14を用いて72〜25と決定する。次に、ベース画像を撮影するカメラ画像である合焦位置450mm位置の視差範囲を130〜84と決定する。そして、残りの視差範囲を第二カメラ302で撮影された合焦位置350mm、600mmの視差範囲に割り当てていく。これにより、合焦位置300mmでの視差範囲は161〜131となり、合焦位置600mmでの視差範囲は83〜73となる。
上記の決定に従って、第一カメラ301で撮影した450mm位置の視差値が84から130の視差範囲を統合視差マップ403から抜き出し、合焦位置450mmでのマスクを作成する。また、第二カメラ302で撮影した350mm位置の視差値131から161の視差範囲、600mm位置の視差値73から83の視差範囲をそれぞれ統合視差マップから抜き出し、それぞれ合焦位置350mm、600mmでのマスクを作成する。
撮影回数が奇数であった場合、遠景被写***置側の第二カメラ302の画像を全焦点画像のベース画像とする。視差範囲は第二カメラで撮影された合焦位置と被写界深度を主にして図14を用いて分割する。図12に示すように撮影合焦位置を450mm、600mm、1000mmであった場合、図14からそのときの視差値はそれぞれ順に107、80、48となる。ベース画像は第二カメラ302で合焦位置1000mmとして撮影した画像になる。ここでも、上記と同様の流れで各合焦位置での視差範囲を決定する。この決定に従って、第一カメラ301で撮影した第600mm位置の視差値が73から83の視差範囲を統合視差マップから抜き出し、合焦位置600mmでのマスクを作成する。また、第二カメラ302で撮影した450mm位置の視差値84から130の視差範囲を統合視差マップから抜き出し、450mmの合焦位置でのマスクを作成する。
全焦点画像合成は、作成したマスクを用いて各合焦位置で撮影した画像からマスク範囲を抜き出して、ベース画像に貼り合わせることで行う。また、全焦点画像合成は、ベース画像と同じカメラで撮影された画像は視差が無いため視差をキャンセルする必要がなく、そのままベース画像の対応画素を置き換えればよいが、ベース画像と異なるカメラで撮影された画像は視差があるので視差値をキャンセルしてからベース画像の対応画素を置き換える必要がある。
以下では、撮影回数が偶数であった場合の、全焦点画像合成について具体的な例を挙げて説明する。図11のように撮影回数が4回であった場合、第一カメラ301で合焦位置1000mmとして撮影した画像をベース画像とし、合焦位置450mmのマスクに重なる領域に対して、ベース画像の画素値を、それぞれ合焦位置450mmとして撮影した画像の画素値に置きかえる。また、合焦位置350mm、600mmのマスクに重なる領域に対しては視差値分をキャンセルした後、合焦位置1000mmの画素値を、それぞれ合焦位置を350mm、600mmとして撮影した画像の画素値に置きかえる。以上の処理を行うことで全焦点画像を合成することができる。
以下では、撮影回数が奇数であった場合の、全焦点画像合成について具体的な例を挙げて説明する。図12のように撮影回数が3回であった場合、第二カメラ302で合焦位置1000mmとして撮影した画像をベース画像とし、合焦位置450mmのマスクに重なる領域に対して、ベース画像の画素値を、合焦位置450mmとして撮影した画像の画素値に置きかえる。また、合焦位置600mmのマスクに重なる領域に対しては視差値分をキャンセルした後、合焦位置1000mmの画素値を、合焦位置を600mmとして撮影した画像の画素値に置きかえる。以上の処理を行うことでマスク生成から全焦点画像合成までの処理を行う。
マスク生成において、各合焦位置での視差範囲は、ベース画像を撮影するカメラ画像を基準として被写界深度の視差値から範囲を決定し、残りの範囲を片方のカメラ画像から決定する。このようにする理由としては、ベース画像に対して視差のない同カメラで撮影された画像から広い範囲のマスクを作成したほうが、合成処理の際に視差の影響があるカメラ画像の画素値を置き換える量が減り、全体的に合成画像の破綻が少なくなるからである。また、ベース画像を遠景被写***置側の合焦位置として撮影画像とするのは、近景より遠景のほうが画像を占める割合が多くなる傾向にあるため、最も遠景側にある合焦位置での撮影画像を基にすることで画像合成の際に視差の影響があるカメラ画像の画素値を置き換える量が減り、合成画像の破綻が少なくすることができる。
なお、ステップS20において、第一カメラ301と第二カメラ302が同被写体面に合焦した(図3においてDA=DBとなる)場合は、第一カメラ301の合焦位置をDAとし、撮影画像を全焦点画像として出力すればよい。
また、本実施形態では、カメラの仕様である焦点距離や最短撮影距離MOD等を具体的な数値で示したが、これらはここで示した値に限定するものではなく、設計に応じて様々な値をとりうる。
また、ここでは被写***置検出部303により被写体のある位置に限定しているが、必ずしもこの処理を行わなくてもよい。前述のように、これにより撮影する合焦位置を限定する事で撮影回数を最適化できるが、例えば、被写体が広い範囲に分布している事があらかじめわかっている場合や、即座に撮影を開始したい場合などは、近景被写***置をMOD,遠景被写***置をINFに設定し、全ての範囲で撮影するようにしても良い。
また、ここでは被写***置検出部303により被写体のある位置に限定しているが、必ずしもこの処理を行わなくてもよい。前述のように、これにより撮影する合焦位置を限定する事で撮影回数を最適化できるが、例えば、被写体が広い範囲に分布している事があらかじめわかっている場合や、即座に撮影を開始したい場合などは、近景被写***置をMOD,遠景被写***置をINFに設定し、全ての範囲で撮影するようにしても良い。
また、本実施形態では、合焦撮影位置と撮影回数をテーブルを参照して決定する構成としたが、テーブルではなく式(4)に示す計算式をパラメータ記憶部304に保持しておき、検出した近景被写***置、遠景被写***置に応じて都度合焦撮影位置と撮影回数を決めるようにしても実現可能である。また、ぼけの許容度を2画素と設定して説明しているが、この値に限定するものではない。許容度は小さいほど視差の生成が確実となり、生成される全焦点画像も鮮明となるが、許容度を大きくすると合焦位置の間隔が広くなることで少ない撮影回数にする事が可能となる。被写体が動く場合などは、撮影に時間がかかると被写体の動きによるぼけ量が大きくなるため、許容度を大きくして撮影回数を減らす事で、より鮮明な全焦点画像を取得できる場合がある。そのため、状況に応じて適宜変更できるようにしてよい。
また、ここでは統合視差マップ403を作成し、マスクを作成して全焦点画像を合成するものとして説明したが、各合焦位置と対応がとれた複数の視差マップを用いて、距離毎に正確な視差が求まっている視差範囲について各合焦位置で撮影した画像から画素を抜き出し、ベース画像に貼り合わせて全焦点画像を合成してもよい。
以上のように、本実施形態によれば、予め近景被写***置と遠景被写***置を検出しておくことによって、画像撮影時に被写体が存在しない範囲で撮影しないようにすることができ、少ない撮影回数で全焦点画像を合成することが可能となる。また、合焦位置と被写界深度との関係が格納されたテーブルの情報を参照して撮影合焦位置と撮影回数を決定することで、可能な限り少ない撮影回数で全焦点画像を合成することができる。
なお、本発明は、上述した実施形態によって限定的に解釈されるものではなく、特許請求の範囲に記載した事項の範囲内で、種々の変更が可能であり本発明の技術的範囲に含まれる。
本発明の撮像装置は、デジタルカメラなどの撮像装置に限られず、撮像機能が組み込まれた情報処理装置に適用することができる。例えば、本発明は、第一のカメラおよび第二のカメラを少なくとも備える情報処理装置(例えば、コンピュータ、携帯端末、タブレット端末、スマートフォンなど)にも適用することができる。
また、本発明による撮像装置の各種機能を、ソフトウェアのプログラムコードで実現してもよい。プログラムコードは、その処理時に一時的に記憶媒体に蓄積され、必要に応じてCPUなどの演算装置が読み出し、実行するようにして本発明を実現してもよい。記憶媒体とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるメモリ、ハードディスク等の記憶装置のことをいう。
また、上述した実施形態における撮像装置の一部、または全部をハードウェア構成で実現してもよく、典型的には集積回路であるLSIとして実現してもよい。撮像装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
100 撮像装置
101 第一カメラ
102 第二カメラ
103 被写***置検出部
104 パラメータ記憶部
105 焦点調整部
106 位置合わせ部
107 視差算出部
108 画像合成部
300 撮像装置
301 第一カメラ
302 第二カメラ
303 被写***置検出部
304 パラメータ記憶部
305 焦点調整部
306 位置合わせ部
307 視差算出部
308 視差統合部
309 画像合成部
101 第一カメラ
102 第二カメラ
103 被写***置検出部
104 パラメータ記憶部
105 焦点調整部
106 位置合わせ部
107 視差算出部
108 画像合成部
300 撮像装置
301 第一カメラ
302 第二カメラ
303 被写***置検出部
304 パラメータ記憶部
305 焦点調整部
306 位置合わせ部
307 視差算出部
308 視差統合部
309 画像合成部
Claims (9)
- 画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える撮像装置であって、
被写***置の検出を行う被写***置検出部と、
前記被写***置検出部により検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整部と、
前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出部と、
前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成部とを備え、
前記焦点調整部は、前記被写***置に基づいて、前記第一のカメラと前記第二のカメラの撮影合焦位置と撮影回数を決定することを特徴とする撮像装置。 - 前記焦点調整部は、前記第一のカメラおよび前記第二のカメラの合焦撮影位置を、各カメラの被写界深度が重複するように決定すること
を特徴とする請求項1に記載の撮像装置。 - 前記被写***置検出部は、前記第一のカメラおよび第二のカメラのそれぞれによって近景被写***置および遠景被写***置を検出し、
前記焦点調整部は、前記近景被写***置から前記遠景被写***置までの距離が、前記第一のカメラ及び前記第二のカメラによって撮影される画像の少なくとも一つの被写界深度に包含されるように、前記第一のカメラおよび第二のカメラの撮影合焦位置と撮影回数を決定することを特徴とする請求項1または2に記載の撮像装置。 - 前記焦点調整部は、前記撮影回数が3以上の場合、前記第一のカメラの撮影合焦位置と前記第二のカメラの撮影合焦位置が交互になるように決定することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
- 前記視差算出部は、
前記撮影合焦位置と前記撮影回数に基づいて前記第一のカメラおよび前記第二のカメラによって撮影された複数の画像から、前記第一のカメラの画像と前記第二のカメラの画像の複数の組み合わせを選択し、
前記複数の組み合わせのそれぞれについて、前記視差情報を算出することを特徴とする請求項1から4のいずれか1項に記載の撮像装置。 - 前記画像合成部は、合成に使用するベース画像を遠景被写体側の合焦位置での画像とすることを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
- 前記視差算出部は、
視差を算出する際の基準画像を、前記ベース画像を撮影したカメラで撮影された画像とすることを特徴とする請求項6に記載の撮像装置。 - 前記視差算出部により算出した複数の視差情報から1つの視差情報を統合する視差統合部を更に備え、
前記視差統合部は、前記複数の視差情報から視差情報のヒストグラムをそれぞれ求め、ヒストグラムの分布に基づいて1つの視差情報を統合することを特徴とする請求項4から7のいずれか1項に記載の撮像装置。 - 画像を撮影する第一のカメラおよび第二のカメラを少なくとも備える撮像装置における撮像制御方法であって、
被写***置の検出を行う被写***置検出ステップと、
前記被写***置検出ステップにより検出した前記被写***置に応じて、前記第一のカメラの撮影合焦位置および前記第二のカメラの撮影合焦位置を決定する焦点調整ステップと、
前記第一のカメラの前記撮影合焦位置において撮影された画像と、前記第二のカメラの前記撮影合焦位置において撮影された画像とから視差情報を算出する視差算出ステップと、
前記視差情報に基づいて前記第一のカメラの画像及び前記第二のカメラの画像を合成する画像合成ステップとを備え、
前記焦点調整ステップにおいて、前記被写***置に基づいて、前記第一のカメラと前記第二のカメラの撮影合焦位置と撮影回数を決定することを特徴とする撮像制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012157315A JP2014022806A (ja) | 2012-07-13 | 2012-07-13 | 撮像装置および撮像装置制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012157315A JP2014022806A (ja) | 2012-07-13 | 2012-07-13 | 撮像装置および撮像装置制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014022806A true JP2014022806A (ja) | 2014-02-03 |
Family
ID=50197278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012157315A Pending JP2014022806A (ja) | 2012-07-13 | 2012-07-13 | 撮像装置および撮像装置制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014022806A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016035387A1 (ja) * | 2014-09-03 | 2016-03-10 | 三菱電機株式会社 | 画像処理装置、画像処理方法、画像読取装置、及びプログラム |
WO2018040444A1 (zh) * | 2016-08-31 | 2018-03-08 | 宇龙计算机通信科技(深圳)有限公司 | 一种双摄像头拍照控制方法、拍照控制装置及终端 |
WO2018179622A1 (ja) * | 2017-03-30 | 2018-10-04 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、撮像モジュールおよび撮像装置の制御方法 |
JP2019154734A (ja) * | 2018-03-12 | 2019-09-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用画像処理装置、医療用観察装置、および画像処理方法 |
JP2019165506A (ja) * | 2015-12-07 | 2019-09-26 | グーグル エルエルシー | マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 |
-
2012
- 2012-07-13 JP JP2012157315A patent/JP2014022806A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016035387A1 (ja) * | 2014-09-03 | 2016-03-10 | 三菱電機株式会社 | 画像処理装置、画像処理方法、画像読取装置、及びプログラム |
JP2019165506A (ja) * | 2015-12-07 | 2019-09-26 | グーグル エルエルシー | マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 |
WO2018040444A1 (zh) * | 2016-08-31 | 2018-03-08 | 宇龙计算机通信科技(深圳)有限公司 | 一种双摄像头拍照控制方法、拍照控制装置及终端 |
WO2018179622A1 (ja) * | 2017-03-30 | 2018-10-04 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、撮像モジュールおよび撮像装置の制御方法 |
KR20190129684A (ko) * | 2017-03-30 | 2019-11-20 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 촬상 장치, 촬상 모듈 및 촬상 장치의 제어 방법 |
US10848660B2 (en) | 2017-03-30 | 2020-11-24 | Sony Semiconductor Solutions Corporation | Imaging apparatus, imaging module, and control method of imaging apparatus |
KR102540722B1 (ko) | 2017-03-30 | 2023-06-07 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 촬상 장치, 촬상 모듈 및 촬상 장치의 제어 방법 |
JP2019154734A (ja) * | 2018-03-12 | 2019-09-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用画像処理装置、医療用観察装置、および画像処理方法 |
JP7143092B2 (ja) | 2018-03-12 | 2022-09-28 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用画像処理装置、医療用観察装置、および画像処理方法 |
US11699516B2 (en) | 2018-03-12 | 2023-07-11 | Sony Olympus Medical Solutions Inc. | Medical image processing apparatus, medical observation apparatus, and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9998650B2 (en) | Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map | |
TWI538512B (zh) | 調整對焦位置的方法及電子裝置 | |
US8810634B2 (en) | Method and apparatus for generating image with shallow depth of field | |
WO2011158498A1 (ja) | 撮像装置及び撮像方法 | |
US9619886B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP2011029905A (ja) | 撮像装置、方法およびプログラム | |
JP6316534B2 (ja) | 撮像装置および撮像装置制御方法 | |
JP2016129289A (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 | |
JP2012514886A (ja) | 映像データ獲得方法及び装置 | |
JP2013044844A (ja) | 画像処理装置および画像処理方法 | |
JP2018174502A (ja) | 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム | |
JP2014022806A (ja) | 撮像装置および撮像装置制御方法 | |
JP2020174331A (ja) | 撮像装置、画像処理装置、制御方法、及びプログラム | |
JP2013143712A (ja) | 画像処理装置、画像処理装置を有する撮像装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体 | |
JP2012195797A (ja) | パンフォーカス画像生成装置 | |
JP6645711B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP5889022B2 (ja) | 撮像装置、画像処理装置、画像処理方法及びプログラム | |
JP2011242652A (ja) | 焦点検出装置およびその制御方法 | |
JP6652294B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 | |
JP2016099322A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
JP6900228B2 (ja) | 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム | |
WO2016047220A1 (ja) | 撮像装置及び撮像方法 | |
JP6882016B2 (ja) | 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム | |
JP2022150651A (ja) | 撮像装置およびその制御方法、プログラム | |
JP2022173069A (ja) | 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体 |