JP2015073185A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2015073185A JP2015073185A JP2013207422A JP2013207422A JP2015073185A JP 2015073185 A JP2015073185 A JP 2015073185A JP 2013207422 A JP2013207422 A JP 2013207422A JP 2013207422 A JP2013207422 A JP 2013207422A JP 2015073185 A JP2015073185 A JP 2015073185A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- image processing
- distance map
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 ダイナミックレンジの広いシーンにおいて、精度の高い距離情報を得る。【解決手段】 画像処理装置が、第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において前記被写体を複数の異なる視点から撮像した第二の画像群とを取得する取得手段と、前記第一および第二の画像群から第一および第二の距離マップを生成する第一の生成手段と、前記第一および第二の距離マップから第三の距離マップを生成する第二の生成手段とを備える。【選択図】 図4
Description
本発明は、被写体の距離情報を得る技術に関する。
従来、複数の視点から撮影した画像(以下、多視点画像)を用いて、被写体までの距離を推定する技術が知られている。被写体までの距離を推定する方法としては、ブロックマッチング法を用いて多視点画像から同一の被写体に対応する対応点を探索し、三角測量によって被写体までの距離を求める方法がある。この方法を用いる場合に、ダイナミックレンジの広いシーンにおいて、白とびしたハイライト部や、黒くつぶれたシャドー部の距離情報が上手く求められないという課題があった。
特許文献1では、ステレオカメラにおいて、異なる露出時間で2回撮影を行い、2視点に対応する2枚のハイダイナミックレンジ合成画像生成し、そのハイダイナミックレンジ合成画像を用いて被写体までの距離を求める技術が記載されている。
また、特許文献2では、ステレオカメラにおいて、1回の撮像によって取得した、視点と露出時間の両方が異なる2枚の画像から距離を求める技術が記載されている。特許文献2に記載の技術では、撮像画像から、もう一方の撮像画像に明るさを合わせた仮想露出画像を2枚生成し、撮像画像と仮想露出画像でマッチングを行ったマッチング情報を統合し、統合したマッチング情報に基づいて被写体までの距離を求めている。
しかしながら、特許文献1に記載の方法では、露出の異なる2回撮影の画像同士でマッチングを行う必要があるため、2回の撮影でカメラの位置が異なる場合は、露出の同じ画像だけで距離を出す場合に比べて距離情報の精度が低下してしまうという課題がある。
また、特許文献2に記載の方法では、異なる露出時間で撮影された画像の明るさを合わせてマッチングを行うために、どちらか一方で白とびもしくは黒つぶれしている領域については、十分なマッチング精度が得られないという課題がある。
上記課題に鑑み、本発明は、ダイナミックレンジの広いシーンにおいても、精度の高い距離情報を得ることを目的としている。
第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において、前記同一の被写体を複数の異なる視点から撮像した第二の画像群とを取得する取得手段と、
前記第一の画像群から生成された第一の距離マップと、前記第二の画像群から生成された第二の距離マップとに基づいて、第三の距離マップを生成する生成手段とを備えることを特徴とする画像処理装置。
前記第一の画像群から生成された第一の距離マップと、前記第二の画像群から生成された第二の距離マップとに基づいて、第三の距離マップを生成する生成手段とを備えることを特徴とする画像処理装置。
本発明により、ダイナミックレンジの広いシーンにおいても、被写体までの距離を高精度に得ることができる。
[実施例1]
本実施例では、多視点画像を取得する撮像装置として、4個の撮像部を備えた多眼カメラが用いられる。この多眼カメラによって取得された画像から、被写体の距離情報を得る方法について説明する。
本実施例では、多視点画像を取得する撮像装置として、4個の撮像部を備えた多眼カメラが用いられる。この多眼カメラによって取得された画像から、被写体の距離情報を得る方法について説明する。
図1は、本実施例における多眼カメラ100(以下、カメラ100とする)を前面から見た図である。多眼カメラ100は、カラー画像を撮像により取得する4個の撮像部101〜104及び撮影ボタン105を備えている。全ての撮像部は筺体の同一平面上に配置され、その光軸は全て平行であり、配置された平面に垂直である。ユーザが撮影ボタン105を押下すると、撮像部101〜104が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換され、複数のカラー画像データ(デジタルデータ)が同時撮影される。
このような多眼方式の撮像装置により、同一の被写体を複数の視点位置から同時撮影したカラー画像群を得ることができる。なお、ここでは撮像部の数を4個としたが撮像部の数は4個に限定されず、撮像装置が複数の撮像部を有すればよい。
図2は、カメラ100の内部構成を示すブロック図である。CPU201は、以下に述べる各構成部を統括的に制御するプロセッサである。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。CPU201は、RAM202をワークメモリとしてROM203に格納されたプログラムを実行し、バス204を介して多眼カメラ100の各構成部を制御する。
バス204は、各種データの転送経路となる。例えば、撮像部101〜104によって取得された画像データは、このバス204を介して所定の構成部に送られる。
操作部205はボタンやモードダイヤルなどの操作ユニットであり、ユーザの指示を受取ってCPU201へと出力する。
表示部206は液晶ディスプレイであり、撮影画像や文字の表示を行う。表示部206はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部205の入力として扱うこともできる。
表示制御部207は、表示部206に表示される撮影画像や文字の表示制御を行う制御回路である。
撮像制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなど、CPU201からの指示に基づいて撮像部の制御を行う制御回路である。本実施例において、撮像制御部208は、撮像部101〜104のうち、撮像部101および102は第一の露出時間で撮像を行い、撮像部103および104は第一の露出時間よりも長い第二の露出時間で撮像を行うように、撮像部101〜104を制御する。
デジタル信号処理部209は、バス204を介して受け取った画像データに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う処理回路である。
エンコード部210は、バス204を介して受取った画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。
外部メモリ制御部211は、カメラ100を、メディア213(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)につなぐためのインタフェースである。
画像処理部212は、撮像部101〜104で取得された画像データ或いは、デジタル信号処理部209から出力される画像データに処理を行う処理回路である。本実施例では、複数の露出条件で撮影された画像データを用いて距離の算出を行うが、その詳細については後述する。
上記以外の構成要素については説明を省略するが、本発明の効果を奏する構成であれば、様々な構成を取ることができる。
図3は、撮像部101〜104の内部構成を示す図である。撮像部101〜104は、レンズ301〜303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310で構成される。レンズ301〜303はそれぞれ、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303である。センサ309は、例えばCMOSやCCDなどのセンサであり、上記の各レンズでフォーカスされた被写体の光量を検知する。検知された光量はアナログ値としてセンサ309から出力され、A/D変換部310によってデジタル値に変換されて、デジタル画像データとなってバス204に出力される。
(画像処理部)
図4は、画像処理部212の構成を示すブロック図である。以下、画像処理部212にて行われる処理を、図4に示すブロック図および図5に示すフローチャートを参照して説明する。画像処理部212においては、図5のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM203からRAM202上に読み込んだ後に、CPU201が該プログラムを実行することによって当該処理が実施される。なお、画像処理部212を処理回路としたが、画像処理部212の各機能ブロックの一部または全部を、プログラムを実行したCPU201による処理に置き換えた構成としても良い。
図4は、画像処理部212の構成を示すブロック図である。以下、画像処理部212にて行われる処理を、図4に示すブロック図および図5に示すフローチャートを参照して説明する。画像処理部212においては、図5のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM203からRAM202上に読み込んだ後に、CPU201が該プログラムを実行することによって当該処理が実施される。なお、画像処理部212を処理回路としたが、画像処理部212の各機能ブロックの一部または全部を、プログラムを実行したCPU201による処理に置き換えた構成としても良い。
まず、ステップS501では、画像取得部401が、撮像部101〜104又はデジタル信号処理部209から入力された画像データをバス204を介して取得する。
次に、ステップS502では、画像取得部401が取得した画像データの中から、同じ露出条件で撮像された2枚の画像に対応する画像データを選択し、距離マップ生成部410に出力する。各画像データの露出条件は撮影時にRAM202に記録してもよいし、Exif形式等を用いて画像データに付与してもよい。本実施例では、撮像部101と102で撮像された画像群と、撮像部103と104で撮像された画像群がそれぞれ同じ露出条件で撮像された画像として選択されている。
次に、ステップS503では、距離マップ生成部410が、画像取得部401から入力された画像データを用いて、その画像データが示す画像群に対応する距離マップを生成し、距離マップ合成部420に出力する。距離マップ生成処理の詳細は後述する。ここで距離マップとは、画像中の各画素位置における撮像装置から被写体までの距離を2次元情報で示すデータである。本実施例において、距離マップは256階調のモノクロ画像であり、撮像装置からの距離が近い画素を白(255)、距離が遠い画素を黒(0)で表わしている。なお、距離マップの形式はこの形式に限られず、各画素位置における被写体距離を格納したテーブルなどであってもよい。
次に、ステップS504では、距離マップ合成部420が、入力された画像データが示す全ての画像群に対応する距離マップが生成されたかどうかを判定する。全ての距離マップが生成されていると判断された場合にはステップS505に進む。全ての距離マップが生成されていないと判断された場合は、ステップS502に戻り、別の露出条件に対応する画像群を選択する。
最後に、ステップS505では、距離マップ合成部420が、距離マップ生成部410から入力された複数の距離マップを合成して、最終的な距離マップを生成する。距離マップ合成処理の詳細は後述する。
(距離マップ生成処理)
次に、図5に示すフローチャートのステップS503で行う距離マップ生成処理の詳細について説明する。距離マップ生成処理では、複数の異なる視点から撮像して得られた画像を基に、撮像したシーンの各画素位置における被写体の距離情報を推定することにより距離マップを生成する。この距離情報算出には公知の手法を用いることができる。例えば、ステレオ法やマルチベースラインステレオ法などが適用可能である。本実施例では、ステレオ法を用いて被写体の距離情報を推定する。以下、図6に示すフローチャートを用いて、距離マップ生成処理の詳細を説明する。
次に、図5に示すフローチャートのステップS503で行う距離マップ生成処理の詳細について説明する。距離マップ生成処理では、複数の異なる視点から撮像して得られた画像を基に、撮像したシーンの各画素位置における被写体の距離情報を推定することにより距離マップを生成する。この距離情報算出には公知の手法を用いることができる。例えば、ステレオ法やマルチベースラインステレオ法などが適用可能である。本実施例では、ステレオ法を用いて被写体の距離情報を推定する。以下、図6に示すフローチャートを用いて、距離マップ生成処理の詳細を説明する。
まず、ステップS601では、対応点探索部402が、同じ露出条件で撮像された画像群を示す画像データを取得する。ここで取得される画像データが示す画像群は、同じ露出条件で撮像された、撮像部101および102に対応する画像群である。以下、前者に対応する画像を基準画像、後者に対応する画像を対象画像と呼ぶ。
ステップS602では、対応点探索部402が、基準画像において、距離情報を算出する注目画素とその周囲の画素からなる領域を選択し、選択領域であるブロックを用いて対象画像とパターンマッチングを行う。なお、ここで、注目画素の選択は、RAM202に記憶された注目画素の座標を示す情報を読み出すことで行われる。このパターンマッチングにより、対応点探索部402は対象画像において、基準画像の注目画素に対応する画素(対応画素)を探索する。対応点探索部402は、得られた注目画素と対応画素の座標情報を距離算出部403に出力する。
ステップS603では、距離算出部403が、各撮像部の配置情報と、対応点探索部402から入力された、注目画素およびその対応画素の座標情報から、注目画素の画素位置における被写体の距離情報dを算出する。距離情報dは、三角法により、図7に示すパラメータα、β、sを用いて以下の式で表される。なお、各撮像部の配置情報はROM203に予め格納されている。
ここで、αは撮像部102の水平画角と、撮像部102の位置、および対象画素の座標から算出される。βは撮像部101の水平画角と撮像部101の位置、および注目画素の座標から算出される。sは撮像部101および102の間の水平距離であり、撮像部101および102の配置情報から算出される。距離算出部403は、ROM203に保存された各撮像部の配置情報および、対応点探索部402から入力された注目画素と対応画素の座標情報に基づいて上記式の各パラメータを算出し、算出された値を上記式に代入して、dを算出する。算出されたdはRAM202に、注目画素の座標情報と共に保存される。
ステップS604では、距離算出部403が、全ての画素位置について距離情報の算出が行われたかどうかを判定する。全ての画素位置について距離情報の算出が行われたと判定された場合、ステップS606に進む。全ての画素位置について距離情報の算出が行われていないと判定された場合、ステップS605に進む。
ステップS605では、距離算出部403が、RAM202に記憶された、注目画素の座標を示す情報を更新する。例えば、直前の処理で用いられた注目画素の隣の画素など、まだ距離の算出が行われていない画素の座標に書き換える。座標情報の更新が終了したら、ステップS602に戻り、対応点探索部402が、新たな注目画素についてパターンマッチングを行う。
ステップS606では、距離算出部403が、各画素位置におけるカメラ100から被写体までの距離を二次元に並べた距離マップを生成し、距離マップ合成部420に出力する。
また、本実施例では、ステップS501において、同じ露出条件の撮像部として撮像部101と撮像部102を選択したが、これに限るものではない。すなわち、例えば撮像部101と104を同じ露出条件で撮像する撮像部として選択しても構わない。
(距離マップ合成処理)
ここでは、図5に示すフローチャートのステップS505で行う距離マップ合成処理の詳細について説明する。距離マップ合成処理では、各画素位置での輝度値に応じて、ステップS503で生成した複数の距離マップを合成し、新たな距離マップを生成する。図8に、その概要を示す。
ここでは、図5に示すフローチャートのステップS505で行う距離マップ合成処理の詳細について説明する。距離マップ合成処理では、各画素位置での輝度値に応じて、ステップS503で生成した複数の距離マップを合成し、新たな距離マップを生成する。図8に、その概要を示す。
図8の画像801〜804は、それぞれ撮像部101〜104により撮像された画像である。本実施例では、撮像部101と102がそれぞれ短い露出時間で撮像を行うため、画像801と802では背景部が黒くつぶれてしまっている。一方、撮像部103と104がそれぞれ長い露出時間で撮像を行うため、画像803と804では前景部に白とびが発生している。黒つぶれした領域や白とびした領域ではパターンマッチングが正しく行われないため、距離情報が正確に算出されない。
そのため、画像801および802から生成された距離マップ805と、画像803および804から生成された距離マップ806では、それぞれ黒つぶれした領域と白とびした領域では距離が上手く推定されていない。そこで、本実施例においては、距離マップ805と806を輝度値に応じて合成することで、全ての領域で距離が正確に算出された距離マップを生成する。以下、図9に示すフローチャートを参照して、処理の詳細について説明する。
まず、ステップS901では、シフト画像生成部404が、距離算出部403から出力された複数の距離マップおよび、画像取得部401から出力された、その距離マップに対応する画像データ(以下、対応画像データと呼ぶ)を取得する。なお、ここで取得される対応画像データは、各距離マップ生成時に基準画像として用いられた画像を示す画像データである。
次に、ステップS902では、距離マップ生成部420の各構成部が、ステップS503で生成された距離マップの中から1つを選択する。
次に、ステップS903では、シフト量算出部404が、ステップS902で選択された距離マップを、基準視点に位置合わせするためのシフト量を算出する。ここで基準視点とは、最終的に合成距離マップが生成される視点であり、本実施例においては、撮像部101に対応する視点である。なお、この視点は撮像部101に対応する視点に限られるものではなく、他の撮像部に対応する視点や、全ての撮像部の中心に位置する仮想的な視点であってもよい。ここで、シフトされる距離マップの各画素の垂直シフト量Δxおよび水平シフト量Δyは、以下の式で算出できる。
ここで、W、Hは対応画像データの水平方向、垂直方向の画像サイズである。また、θx、θyは対応画像データを撮像した撮像部の水平視野角および垂直視野角であり、Sx、Syは選択された距離マップに対応する視点と基準視点の間の水平距離および垂直距離である。また、dはその画素におけるカメラ100から被写体までの距離である。
シフト量算出部は、ここで算出されたシフト量をもとに、距離マップと対応画像データをシフトし、シフト距離マップおよびシフト画像データを生成する。なお、対応画像データの画素と対応付かないシフト画像データの画素には、異常値を示す値を設定する。例えば、異常値として画素の最小値であるゼロを設定すれば、後述する重み係数がゼロとなるようにできる。シフト量算出部404は、生成したシフト距離マップおよびシフト画像データを重み算出部405に出力する。また、シフト量算出部404は、生成したシフト距離マップをシフト距離マップ合成部406に出力する。
次に、ステップS904では、重み算出部405が、距離マップの合成で用いる重み係数を算出する。ここで、重み算出部405は、シフト量算出部404から入力されたシフト距離マップの各画素における重み係数を、シフト画像データの画素の輝度値に応じて算出しRAM202に記憶する。各画素における重み係数wi(x,y)は、シフト画像データの輝度値に応じて、例えば以下式に基づいて決定される。
ここで、Ii(x,y)は各画素におけるシフト画像データの輝度値であり、Imaxはシフト画像データの最大輝度値である。また、αおよびβはシャドー部およびハイライト部を示す閾値である。輝度値がαより小さい画素はシャドー部として、輝度値がβよりも大きい画像はハイライト部として判定される。前述した通り、ハイライト部やシャドー部では、距離推定の精度が悪くなる。そのため、上記式において、ハイライト部やシャドー部の重み係数が小さくなるように設定されている。これにより、距離推定の精度が高い、適正露出の領域の重みを大きくして距離マップの合成を行うことができる。なお、αおよびβの値は撮像センサの特性に応じて予めROM203に記憶されていてもよいし、ユーザが操作部205を通じて設定してもよい。また、本実施例ではシャドー部とハイライト部の重み係数を線形としたが、非線形やテーブル参照型で表現しても構わないのは。また、シャドー部とハイライト部の重み係数をゼロとしてもよい。
ステップS905では、重み算出部405が、全ての画素において重みの算出が行われたかどうかを判定する。全ての画素において重みの算出が行われたと判定された場合、ステップS907に進む。全ての画素において重みの算出が行われていないと判定された場合、ステップS906に進む。
ステップS906では、重み算出部405が、RAM202に記憶された、注目画素の座標を示す情報を更新する。注目画素の座標を示す情報が更新されたら、ステップS904に戻る。
ステップS907では、シフト距離マップ合成部406が、全ての距離マップにおいてシフト量と重みの算出が行われているかを判定する。全ての距離マップにおいてシフト量と重みの算出が行われていると判定された場合は、ステップS908に進む。全ての距離マップにおいてシフト量と重みの算出が行われていないと判定された場合は、ステップS902に進む。
ステップS908では、シフト距離マップ合成部406が距離マップの合成を行う。本実施例では、合成距離マップの各画素における距離D(x,y)は、シフト距離マップの各画素における距離Di(x,y)と重み係数wi(x,y)の積によって求めることができる。合成後の距離マップの各画素における距離D(x,y)は以下の式を用いて算出することができる。
ここで、nは合成する距離マップの枚数である。シフト距離マップ合成部406は、シフト量算出部404から出力されたシフト距離マップの各画素における距離と、ステップS904で算出された重み値を上記式に代入し、合成後の距離マップを得る。
以上の処理により、ダイナミックレンジの広いシーンでも、高精度な距離マップを得ることができる。
なお、本実施例における重みづけ合成は、複数の距離マップの距離値から、1つの距離マップの距離値を選択する処理なども含まれる。つまり、選択される距離値以外の重みが0となっている場合が含まれる。
また、本実施例では撮像部の配置を二次元に均等に配置されているものとしたが、その限りではないのは。前述した通り、視点の異なる画像データがあれば距離の推定が可能であるため、任意の位置に配置しても構わない。また、本実施例では撮像部で撮像される画像がすべてカラー画像であることを前提に各部の構成や処理を説明した。しかし、撮像部で撮像される画像の一部あるいは全部をモノクロ画像に変更しても構わない。その場合には、図3のカラーフィルタ308は省略される。
また、本実施例において、重み値は各画素ごとに求められたが、画素位置ごとに重み値が異なっていれば異なる単位で重み値を決定してもよい。つまり、複数の画素による画像ブロックごとに重み値を決定しても良い。その場合は、各画像ブロックの境界が不自然となることがあるので、スムージングフィルタなどを適用してもよい。
また、本実施例において、露出時間の異なる2種類の画像群に対応する2枚の距離マップを合成して新たな距離マップの生成を行ったが、露出条件が異なり、お互いの黒つぶれ・白とびした箇所が保証できるような画像群の組み合わせであればよい。なお、一般に露出条件はシャッタースピードやF値、ISO感度を変更したり、NDフィルタを切り替えたりすることにより変更できる。
なお、本実施例において、画像取得部401は、第一の画像群と、第二の画像群とを取得する取得手段として機能した。ここで、第一の画像群は、第一の露出条件において同一の被写体を複数の異なる視点から撮像した画像を含み、第二の画像群は、前記第一の露出条件とは異なる第二の露出条件において、前記同一の被写体を複数の異なる視点から撮像した画像を含む。
また、距離マップ生成部410は、前記第一および第二の画像群から第一および第二の距離マップを生成する第一の生成手段として機能した。
また、距離マップ合成部420は、前記第一および第二の距離マップから第三の距離マップを生成する第二の生成手段として機能した。
また、撮像部101〜104は、前記第一および第二の画像群を撮像によって取得する撮像手段として機能した。
また、撮像部101〜104は、前記第一および第二の画像群を撮像によって取得する撮像手段として機能した。
[実施例2]
実施例1では、各画素の輝度値に基づいて重みづけ合成の重みを決定する方法について説明した。実施例2では、各被写体のピント状態に基づいて重みづけ合成を行う方法について説明する。
実施例1では、各画素の輝度値に基づいて重みづけ合成の重みを決定する方法について説明した。実施例2では、各被写体のピント状態に基づいて重みづけ合成を行う方法について説明する。
オートフォーカス機能を有するカメラで撮像を行った場合、適正露出の領域にピントが合うようにピント位置が制御される。つまり、各画素における輝度値を用いずとも、ピントが合っている領域の重みが大きくなるように合成を行えば、精度の高い距離マップの生成を行うことができる。また、この方法によれば、2つの露出条件における画像群の両方で適正露出となっていながらも、ピント位置の違いにより片方の画像群でぼけている被写体の重みを小さくすることができる。つまり、複数の異なる露出条件において適正露出となっていながらピント状態が異なる被写体が含まれていても、精度の高い距離マップの生成を行うことができる。
本実施例の構成および処理の内容は実施例1とほぼ同じである。本実施例においては、ステップS904における重みの算出処理の方法が異なる。
本実施例のステップS904における重み値の算出は、距離マップを数画素単位で分割した複数の画像ブロックごとに行われる。距離マップをN×Mのブロックに分割した場合、その中のブロック(s,t)(s=1,2,…N、t=1,2,…M)に対応する重み値をwbi(s,t)とする。その時、ブロック(s,t)に対応する撮像画像中の画像ブロックのコントラスト比をci(s,t)とすると、各ブロックの重み値は以下のように決定される。
Wbi(s,t)=ci(s,t)
これにより、各画像ブロックの重み値は、複数の露出条件におけるコントラスト比の比に応じて決定される。なお、重み値は、コントラスト比の比をそのまま用いるのではなく、コントラスト比の絶対値や相対値に応じて傾斜をつけるように設定されてもよい。
Wbi(s,t)=ci(s,t)
これにより、各画像ブロックの重み値は、複数の露出条件におけるコントラスト比の比に応じて決定される。なお、重み値は、コントラスト比の比をそのまま用いるのではなく、コントラスト比の絶対値や相対値に応じて傾斜をつけるように設定されてもよい。
上記式によって設定された重み値wbi(s,t)と、シフト距離マップの各画素における距離Di(x,y)を用いて、合成後の距離マップの各画素における距離D(x,y)は以下の式により算出される。
ここで、nは合成する距離マップの枚数である。上記式においてそれぞれのDi(x,y)には、画素の座標(x,y)に対応する画像ブロック(s,t)の重み値wbi(s,t)が乗算される。
以上の計算方法により距離マップ、ダイナミックレンジの広いシーンでも、高精度な距離マップを得ることができる。また、複数の異なる露出条件において適正露出となっていながらピント状態が異なる被写体が含まれていても、精度の高い距離マップの生成を行うことができる。
なお、各被写体のピント状態の判断は各画像ブロックのコントラスト比に基づくもののみに限定されるものではない。例えば、各画像ブロックをフーリエ変換した場合の高周波成分の大きさなどに基づいて重み値を決定しても良い。
[その他の実施形態]
本発明の実施形態は、上記の実施例に限られるものではない。例えば、上記の実施例を組み合わせたものであってもよい。すなわち、各画素の輝度値と各画像ブロックのピント状態の両方を考慮して重み値を決定してもよい。
本発明の実施形態は、上記の実施例に限られるものではない。例えば、上記の実施例を組み合わせたものであってもよい。すなわち、各画素の輝度値と各画像ブロックのピント状態の両方を考慮して重み値を決定してもよい。
なお、上記の実施例では、複数の撮像部を備えた多眼カメラによって撮像された画像をもとに距離マップの合成を行ったが、別の形態で撮像された画像を用いてもよい。例えば、それぞれが独立した複数のカメラによって撮像された画像を用いてもよい。また、1枚のセンサの出力から複数視点の画像を抽出できる、Plenoptic撮像系を備えた画像により撮像された画像を用いてもよい。その場合、Plenoptic撮像系を2つ以上備えたカメラにより撮像すると、露出条件の異なる複数の画像群を同時撮像により取得することができる。
また、各画像は同時に撮像されたものである必要はなく、同一の被写体が収まるように撮影されたものであればよい。つまり、多眼カメラを用いずとも、既存の単眼カメラによって異なる時点で撮像された画像を用いる場合や、複数のカメラによって撮像された画像を用いる場合も含まれる。
また、上記の実施例では、異なる露出条件で撮像された画像群から生成された複数の距離マップを重みづけ合成することで最終的な距離マップを得たが、同様の結果が得られるのであれば他の方法を用いて最終的な距離マップを得ても良い。例えば、複数の距離マップと、その距離マップに対応する撮像画像の輝度値に基づいて、あらかじめテーブルなどの形式で保持しておいた値を読み出して並べることで距離マップを生成してもよい。
また、実施例は撮像部と処理部を備えたカメラのみに限定されるものではなく、上記の実施例で行われる処理の一部が別のコンピュータによって行われる情報処理システムであってもよい。例えば、カメラが取得した画像データをコンピュータに出力し、入力された画像に基づいてコンピュータが距離マップの合成を行う情報処理システムであってもよい。
なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用してもよいし、一つの機器からなる装置に適用してもよい。
また、本発明はソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては例えば、ハードディスク、光ディスク、光磁気ディスクが挙げられる。また、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などであってもよい。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記憶媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
100 多眼カメラ
101〜104 撮像部
212 画像処理部
401 画像取得部
410 距離マップ生成部
420 距離マップ合成部
101〜104 撮像部
212 画像処理部
401 画像取得部
410 距離マップ生成部
420 距離マップ合成部
Claims (12)
- 第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において前記被写体を複数の異なる視点から撮像した第二の画像群とを取得する取得手段と、
前記第一および第二の画像群から第一および第二の距離マップを生成する第一の生成手段と、
前記第一および第二の距離マップから第三の距離マップを生成する第二の生成手段とを備えることを特徴とする画像処理装置。 - 前記第一の画像群はそれぞれが同時に撮像された画像による画像群であり、前記第二の画像群もまた、それぞれが同時に撮像された画像による画像群であることを特徴とする請求項1に記載の画像処理装置。
- 前記第一および第二の画像群は、同時に撮像されることを特徴とする請求項2に記載の画像処理装置。
- 前記第二の生成手段は、前記第一の距離マップと前記第二の距離マップとを、前記第一および第二の画像群に基づいて重みづけ合成することで、前記第三の距離マップを生成することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
- 前記第二の生成手段は、前記第一および第二の画像群に含まれる画像の輝度値に基づいて前記重みづけ合成における重みを決定することを特徴とする請求項4に記載の画像処理装置。
- 前記第二の生成手段は、前記第一および第二の画像群に含まれる画像のピント状態に基づいて前記重みづけ合成における重みを決定することを特徴とする請求項4又は5に記載の画像処理装置。
- 前記ピント状態は、前記第一および第二の画像群に含まれる画像における、画像ブロックごとのコントラスト比によって示されることを特徴とする請求項6に記載の画像処理装置。
- 前記重みづけ合成における重みは、前記第一および第二の距離マップにおける画素位置ごとに決定されることを特徴とする請求項4乃至7のいずれか一項に記載の画像処理装置。
- 前記第一および第二の画像群を撮像によって取得する撮像手段を更に備えることを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。
- 前記第一および第二の露出条件は、露出時間であることを特徴とする請求項2乃至9のいずれか一項に記載の画像処理装置。
- 第一の露出条件において同一の被写体を複数の異なる視点から撮像した第一の画像群と、前記第一の露出条件とは異なる第二の露出条件において前記被写体を複数の異なる視点から撮像した第二の画像群とを取得するステップと、
前記第一および第二の画像群から第一および第二の距離マップを生成するステップと、
前記第一および第二の距離マップから第三の距離マップを生成するステップとを備えることを特徴とする画像処理装置。 - コンピュータを、請求項1乃至10のいずれか一項に記載の画像処理装置の各手段として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013207422A JP2015073185A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013207422A JP2015073185A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015073185A true JP2015073185A (ja) | 2015-04-16 |
Family
ID=53015274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013207422A Pending JP2015073185A (ja) | 2013-10-02 | 2013-10-02 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015073185A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016185713A1 (en) * | 2015-05-19 | 2016-11-24 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
JP2017225067A (ja) * | 2016-06-17 | 2017-12-21 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US9864899B2 (en) | 2015-08-20 | 2018-01-09 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP2018101285A (ja) * | 2016-12-20 | 2018-06-28 | 富士通株式会社 | 生体画像処理装置、生体画像処理方法および生体画像処理プログラム |
JP2019134431A (ja) * | 2019-02-26 | 2019-08-08 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
CN110298793A (zh) * | 2018-03-22 | 2019-10-01 | 株式会社斯巴鲁 | 车外环境识别装置 |
JP2020535758A (ja) * | 2017-11-30 | 2020-12-03 | オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. | 画像処理方法、装置、及び、デバイス |
JP2021007231A (ja) * | 2017-04-14 | 2021-01-21 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および画像処理方法 |
CN113923353A (zh) * | 2021-09-29 | 2022-01-11 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
-
2013
- 2013-10-02 JP JP2013207422A patent/JP2015073185A/ja active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107615747B (zh) * | 2015-05-19 | 2020-03-06 | 佳能株式会社 | 图像处理设备、摄像设备、图像处理方法和存储介质 |
JP2016219987A (ja) * | 2015-05-19 | 2016-12-22 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
GB2556227B (en) * | 2015-05-19 | 2021-07-21 | Canon Kk | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
WO2016185713A1 (en) * | 2015-05-19 | 2016-11-24 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
CN107615747A (zh) * | 2015-05-19 | 2018-01-19 | 佳能株式会社 | 图像处理设备、摄像设备、图像处理方法和存储介质 |
GB2556227A (en) * | 2015-05-19 | 2018-05-23 | Canon Kk | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
CN111263064A (zh) * | 2015-05-19 | 2020-06-09 | 佳能株式会社 | 图像处理设备、摄像设备、图像处理方法和存储介质 |
GB2595371B (en) * | 2015-05-19 | 2022-03-02 | Canon Kk | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
US10393996B2 (en) | 2015-05-19 | 2019-08-27 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
GB2595371A (en) * | 2015-05-19 | 2021-11-24 | Canon Kk | Image processing apparatus, image pickup apparatus, image processing method, and storage medium |
CN111263064B (zh) * | 2015-05-19 | 2021-08-10 | 佳能株式会社 | 图像处理设备、摄像设备、图像处理方法和存储介质 |
US9864899B2 (en) | 2015-08-20 | 2018-01-09 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP2017225067A (ja) * | 2016-06-17 | 2017-12-21 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP2018101285A (ja) * | 2016-12-20 | 2018-06-28 | 富士通株式会社 | 生体画像処理装置、生体画像処理方法および生体画像処理プログラム |
JP2021007231A (ja) * | 2017-04-14 | 2021-01-21 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および画像処理方法 |
JP2020535758A (ja) * | 2017-11-30 | 2020-12-03 | オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. | 画像処理方法、装置、及び、デバイス |
JP7003238B2 (ja) | 2017-11-30 | 2022-01-20 | オッポ広東移動通信有限公司 | 画像処理方法、装置、及び、デバイス |
US10839236B2 (en) | 2018-03-22 | 2020-11-17 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
JP2019168821A (ja) * | 2018-03-22 | 2019-10-03 | 株式会社Subaru | 車外環境認識装置 |
CN110298793A (zh) * | 2018-03-22 | 2019-10-01 | 株式会社斯巴鲁 | 车外环境识别装置 |
JP2019134431A (ja) * | 2019-02-26 | 2019-08-08 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
CN113923353A (zh) * | 2021-09-29 | 2022-01-11 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015073185A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5390707B2 (ja) | 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム | |
JP5179398B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
JP5820257B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP5725953B2 (ja) | 撮像装置及びその制御方法、並びに情報処理装置 | |
JP5984493B2 (ja) | 画像処理装置、画像処理方法、撮像装置およびプログラム | |
JP2015197745A (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5882789B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2018107526A (ja) | 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム | |
JP2013061850A (ja) | ノイズ低減のための画像処理装置及び画像処理方法 | |
JP2013025649A (ja) | 画像処理装置及び画像処理方法、プログラム | |
US20140192163A1 (en) | Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system | |
JP4947576B2 (ja) | 撮像装置、ぶれ補正方法及び撮像方法 | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
JP2019101996A (ja) | 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法 | |
JP2019101997A (ja) | 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法 | |
JP6732440B2 (ja) | 画像処理装置、画像処理方法、及びそのプログラム | |
JP2017143504A5 (ja) | ||
JP2018006993A (ja) | 画像処理装置、撮像システムおよび撮像装置 | |
JP2013175821A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP7134601B2 (ja) | 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法 | |
JP2017028606A (ja) | 撮像装置 | |
JP2014049895A (ja) | 画像処理方法 | |
JP6292785B2 (ja) | 画像処理装置、画像処理方法およびプログラム |