JP6154781B2 - 画像処理方法及び画像処理システム - Google Patents

画像処理方法及び画像処理システム Download PDF

Info

Publication number
JP6154781B2
JP6154781B2 JP2014106295A JP2014106295A JP6154781B2 JP 6154781 B2 JP6154781 B2 JP 6154781B2 JP 2014106295 A JP2014106295 A JP 2014106295A JP 2014106295 A JP2014106295 A JP 2014106295A JP 6154781 B2 JP6154781 B2 JP 6154781B2
Authority
JP
Japan
Prior art keywords
image
camera
cameras
monochrome
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014106295A
Other languages
English (en)
Other versions
JP2015222200A (ja
Inventor
勝 土田
勝 土田
柏野 邦夫
邦夫 柏野
淳司 大和
淳司 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014106295A priority Critical patent/JP6154781B2/ja
Publication of JP2015222200A publication Critical patent/JP2015222200A/ja
Application granted granted Critical
Publication of JP6154781B2 publication Critical patent/JP6154781B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、画像処理方法及び画像処理システムに係り、特に、カメラで撮影した画像間で対応点の探索を行う画像処理方法及び画像処理システムに関する。
従来より、多眼ステレオカメラおよび多眼ステレオ式マルチバンドカメラでは、複数の視点から撮影された視差画像から得られた対応点を用いることで、被写体の形状を推定することができる。被写体の形状を精度良く推定するためには、被写体表面上の密な対応点を得ることが必要である。しかし用いるカメラが2台の場合、オクルージョンの影響で一方の画像における対応点が検出できない場合がある。この問題を解決する方法の一つとして、3台以上のカメラを用いる多眼ステレオ法が、対応点検出精度の向上に有効であることは広く知られている。また多眼ステレオ法において、被写体の形状・奥行き推定に使用する画像を撮影した視点(カメラ間の距離)が近い場合には、オクルージョンの影響が比較的少ない一方で、画像上での対応点の位置ずれ量が小さい。このことは、被写体の形状・奥行き推定精度低下の原因の一つとなる。そこで、カメラ間の距離が近い画像間で得られた対応点と、カメラ間の距離を離して撮影した画像間で得られた対応点を組み合わせることで、被写体の形状・奥行き推定精度を測る手法も提案されている(例えば、非特許文献1)。
非特許文献1などで述べられている多眼ステレオカメラで使用される各視点のカメラの分光感度特性は、一般には全て等しい(同じカメラが使用されている)。また、一般に普及しているRGBカメラ(カラーカメラ)を使用した場合でも、被写体表面のテクスチャの色が正確に記録・再現できない場合がある。この問題を解決するため、非特許文献2のような全てのカメラの分光感度特性が異なる単色カメラから構成される、また非特許文献3のような複数の単色カメラとカラーカメラから構成される、多眼ステレオ式マルチバンドカメラが提案されている。
佐藤、大田、「カメラマトリクスを用いた高精細ステレオ SEA における隠れ検出法の検討」、電子情報通信学会技術研究報告. IE, 画像工学 95(582), 67-74, 1996-03-15 M. Tsuchida, T. Kawanishi, K. Kashino, and J. Yamato, "A stereo nine-band camera for accurate color and spectrum reproduction", Proc. ACM SIGGRAPH2012 Poster, (Article No. 18), 2012 M. Tsuchida, K. Kashino, and J. Yamato, "An eleven-band stereoscopic camera system for accurate color and spectral reproduction", Proc. Color and Imaging Conference, pp. 14-19, 2013
しかしながら、多眼ステレオ式マルチバンドカメラでは、各視点のカメラの分光感度特性は全てが等しいとは限らない。多眼ステレオ式マルチバンドカメラで得られる各カラーチャンネル画像に関して、カメラ間の分光感度に重なりが少ない、もしくはカメラ間の分光感度の中心波長が離れている画像ペアほど、各カラーチャンネル画像の見えが大きく異なる。この事は、カメラの分光感度の半値幅が狭いほど顕著である。例えば、白黒カメラに狭帯域バンドパスフィルタを取り付けた場合に、画像の見えが大きく異なる。このことが、多眼ステレオ式マルチバンドカメラにおける、単色画像間での対応点検出精度が低下し、その結果、奥行き情報(被写体の形状情報)推定精度低下の原因の一つとなっている。
本発明は、上記の問題を解決するためになされたもので、従来手法より、精度良く対応点を探索することができる画像処理方法及び画像処理システムを提供することを目的とする。
上記目的を達成するために、本発明の画像処理方法は、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順又は降順に番号を割り当て、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、前記複数の単色カメラによって、画像を撮影し、画像処理装置によって、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、探索された対応点を出力する。
また、本発明の画像処理方法は、前記画像処理装置によって、多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像に変換することを更に含み、前記複数の単色カメラを配置することは、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、かつ、前記多色カメラを、前記単色カメラで挟み込むように、又は囲むように配置し、前記画像を撮影することは、前記複数の単色カメラ及び前記多色カメラによって、画像を撮影し、前記画像処理装置によって前記対応点を探索することは、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、かつ、前記単色カメラで撮影した画像と前記変換された画像との間で対応点を探索し、探索された対応点を出力するようにしてもよい。
本発明の画像処理システムは、各々分光感度特性が異なる複数の単色カメラを含み、前記複数の単色カメラに、分光感度の中心波長の昇順又は降順に番号を割り当て、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置した画像撮影装置と、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、探索された対応点を出力する画像処理装置と、を含んで構成されている。
また、本発明の画像処理システムの画像撮影装置は、多色カメラを更に含み、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、かつ、前記多色カメラを、前記単色カメラで挟み込むように、又は囲むように配置し、前記画像処理装置は、前記多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像に変換し、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、かつ、前記単色カメラで撮影した画像と前記変換された画像との間で対応点を探索し、探索された対応点を出力するようにしてもよい。
以上説明したように、本発明の画像処理方法及び画像処理システムによれば、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順又は降順に番号を割り当て、割り当てられた番号が連続しないように、前記複数の単色カメラを配置し、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索することにより、従来手法より、精度良く対応点を探索することができる、という効果が得られる。
第1の実施の形態に係る画像処理システムの構成を示す概略図である。 (A)画像撮影装置の一例を示す図、及び(B)各カメラの分光感度の一例を示す図である。 第1の実施の形態に係る画像処理システムの画像処理装置における画像処理ルーチンの内容を示すフローチャートである。 第2の実施の形態に係る画像処理システムの構成を示す概略図である。 (A)画像撮影装置の一例を示す図、及び(B)カメラ番号と配置の一例を示す図である。 各単色カメラの分光感度の一例を示す図である。 多色カメラの分光感度の一例を示す図である。 第2の実施の形態に係る画像処理システムの画像処理装置における画像処理ルーチンの内容を示すフローチャートである。 カメラ番号と配置の他の例を示す図である。 第3の実施の形態に係る画像処理システムの構成を示す概略図である。 第3の実施の形態に係る画像処理システムの画像処理装置における画像処理ルーチンの内容を示すフローチャートである。 第4の実施の形態に係る画像処理システムの構成を示す概略図である。 第4の実施の形態に係る画像処理システムの画像処理装置における画像処理ルーチンの内容を示すフローチャートである。 画像撮影装置の一例を示す図である。 各単色カメラの分光感度の一例を示す図である。 各多色カメラの分光感度の一例を示す図である。 画像撮影装置の一例を示す図である。 多色カメラの分光感度の一例を示す図である。 カラーフィルタの分光透過特性の一例を示す図である。 多色カメラの分光感度の一例を示す図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
[第1の実施の形態]
<システム構成>
第1の実施の形態に係る画像処理システムについて説明する。
図1に示すように、第1の実施の形態に係る画像処理システム10は、画像撮影装置20と、画像処理装置30とを備えている。
画像撮影装置20は、各々分光感度特性が異なる複数の単色カメラ211〜21Nを有している。複数の単色カメラ211〜21Nに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラ211〜21Nを、一方向(例えば、水平方向)に配置する。ただし、Nは3以上の整数である。
例えば、図2に示すように、4台の単色カメラが水平方向に配置されている。単色カメラの分光感度の中心波長(最大ピーク波長)の昇順に、カメラ1、2、3、4と番号を割り当てると、カメラの配置は左からカメラ3、1、4、2となる。
なお、割り当てられた番号が連続しないように、複数の単色カメラ211〜21Nを、垂直方向に配置してもよい。割り当てられた番号が連続しないように、複数の単色カメラ211〜21Nを、二方向(例えば、水平方向及び垂直方向)に配置してもよい。また、単色カメラは、カラーフィルタと白黒カメラの組み合わせで構成されていても良い。
また、画像撮影装置20では、複数の単色カメラ211〜21Nに同期信号が入力され、カメラ間で同期した状態で、複数の単色カメラ211〜21Nによって画像が撮影される。画像撮影装置20は、カメラの台数分のグレースケール画像を出力する。このように、各単色カメラは同期した状態で画像撮影が行われることにより、被写体もしくはカメラが動いている状態で動画像として記録する場合であっても、対応可能である。
画像処理装置30は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する画像処理ルーチンを実行するためのプログラムを記憶したROM(Read Only Memory)とを備えたコンピュータで構成されている。このコンピュータは、機能的には、図1に示すように、対応点探索部31、撮影条件記憶部32、奥行き情報推定部33、及びマルチバンド画像生成部34を含んだ構成で表すことができる。
画像処理装置30には、画像撮影装置20で撮影されて得られた複数のグレースケール画像、及びグレースケール画像と当該グレースケール画像を撮影したカメラとの対応関係が入力される。
画像処理装置30の対応点探索部31は、画像撮影装置20から入力された複数のグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、画像のペアの各々について、ペア間で対応点を探索する。
対応点探索部31は、対応点探索処理部311と対応点記憶部312とから構成される。
対応点探索処理部311は、画像撮影装置20から入力された複数のグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、各カメラの分光感度の中心波長の昇順に番号を割り当てて番号が連続しないように並べた配置における順番が連続した2台のカメラからの画像のペア間の各々について、当該ペア間で対応点の探索を行う。対応点の探索手法は、既存の手法を利用する。
例えば、上記図2の例では、カメラ1および2の画像ペア間、カメラ3および4の画像ペア間で対応点探索が行われる。更に、カメラ2および3の画像ペア間で対応点探索が行われてもよい。
対応点探索処理部311は、順番が連続した2台のカメラからの画像のペア間の各々について、探索された対応点の各画像上における座標、及び対応点探索に使用した画像のペアと、当該画像のペアの撮影に使用したカメラとの対応関係を出力する。
対応点記憶部312には、対応点探索で使用した画像ペアを撮影したカメラと、検出された対応点の画像上の座標とが関連付けされた状態で記録される。具体的には、対応点記憶部312には、検出された対応点の各画像上における座標、及び対応点探索に使用した画像ペアと、その画像ペアの撮影に使用したカメラとの対応関係が関連付けて記憶される。
撮影条件記憶部32には、予め計測された単色カメラ211〜21Nの各々の分光感度特性、および単色カメラ211〜21Nの各々の姿勢情報や焦点距離、画角などの光学系特性の情報が記憶されている。単色カメラ211〜21Nの各々の姿勢や位置情報や焦点距離、画角などの光学系特性の情報は、構造やテクスチャが既知である被写体の撮影画像から推定し、その結果を撮影条件記憶部32に記憶させても良い。また撮影時の照明光スペクトルや、被写体表面の色や分光反射率の特性に関する統計情報も、撮影条件記憶部32に記憶されていても良い。
奥行き情報推定部33は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、順番が連続した2台のカメラからの画像のペア間の各々について、当該画像のペア間で得られた対応点の情報および撮影条件から、検出された対応点に対応した、被写体表面の座標を推定し、奥行き情報として出力する。なお、奥行き情報の推定方法としては、既存手法を用いればよいため、詳細な説明を省略する。また、画像のペア間の各々について推定された奥行き情報を統合し、統合した結果を出力してもよい。
マルチバンド画像生成部34は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、順番が連続した2台のカメラからの画像のペア間の各々について、検出された対応点を用いて、基準とする視点の画像と参照画像間での変形パラメータを算出し、その結果に基づき参照画像の画像変形を行い、任意のカメラの視点におけるマルチバンド画像を生成し、出力する。画像変形は既存手法を利用する。
マルチバンド画像生成部34は、更に、マルチバンド画像から色再現に使用する、各カメラの分光感度特性、撮影時の照明光スペクトル、被写体表面の分光反射率に関する統計情報を出力する。例えば、教師データとして使用する分光反射率データ群の相関行列、共分散行列を出力する。分光反射率データ群から得られた主成分の相関行列等を出力しても良い。
生成されたマルチバンド画像は、推定された三次元形状などのテクスチャ画像として使用される。
<画像処理システムの作用>
次に、第1の実施の形態に係る画像処理システム10の作用について説明する。まず、複数の単色カメラ211〜21Nが同期して画像を撮影し、複数の単色カメラ211〜21Nによって撮影された複数のグレースケール画像が、画像処理装置30に入力されると、画像処理装置30によって、図3に示す画像処理ルーチンが実行される。
ステップS101において、複数の単色カメラ211〜21Nによって撮影された複数のグレースケール画像を取得する。
ステップS102において、上記ステップS101で取得した複数のグレースケール画像のうち、順番が連続した2台のカメラからの画像のペアについて、当該画像のペア間における対応点を探索する。
ステップS104では、上記ステップS102で対応点探索を行った画像のペアの各々に対し、当該ペアについて探索された対応点に基づいて、奥行き情報を推定する。次のステップS105では、上記ステップS104で推定された画像のペアの各々に対する奥行き情報を統合して出力する。
そして、ステップS106では、上記ステップS102で対応点探索を行った画像のペアの各々について探索された対応点に基づいて、基準画像を撮影したカメラの視点におけるマルチバンド画像を生成する。次のステップS107では、上記ステップS106で生成したマルチバンド画像を出力して、画像処理ルーチンを終了する。
以上説明したように、第1の実施の形態の画像処理システムによれば、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラを配置し、割り当てられた番号が連続する単色カメラのペアの各々について、当該ペアの単色カメラで撮影した画像間で対応点を探索することにより、従来手法より、精度良く対応点を探索することができる。
また、分光感度の中心波長が近いカラーチャンネルの画像間、すなわち、画像の見えが近い画像間で対応点探索を行うことで、単色カメラの画像間での対応点検出精度が向上する。また、得られた対応点の画像上での位置情報を用いて、被写体の形状、奥行き情報を推定するため、奥行き情報(被写体の形状情報)の推定結果が向上する。
また、対応点の検出精度と奥行き情報(被写体の形状情報)の推定精度が向上した結果、多眼式マルチバンドカメラによる被写体表面のテクスチャの色再現精度も更に向上する。
[第2の実施の形態]
<システム構成>
次に、第2の実施の形態について説明する。なお、第2の実施の形態の画像処理システムについて、第1の実施の形態の画像処理システム10と同様の構成については、同一符号を付して詳細な説明を省略する。
図4に示すように、第2の実施の形態の画像処理システム210の画像撮影装置220は、各々分光感度特性が異なる複数の単色カメラ211〜21Nと、多色カメラ221とを有している。多色カメラ221は、例えば、RGBカメラであり、分光感度特性が単色カメラ211〜21Nと異なっている。ただし、Nは2以上の整数である。
複数の単色カメラ211〜21Nに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラ211〜21Nを、二方向(例えば、水平方向及び垂直方向)に配置する。また、多色カメラ221は、単色カメラ211〜21Nに挟まれる、もしくは囲まれるように配置される。
例えば、図5(A)、(B)に示すように、中央に多色カメラであるカメラ9が配置され、カメラ9の周囲に、単色カメラである8台のカメラ1〜8が配置される。
このとき、図6に示す分光感度が、単色カメラである8台のカメラの各々の分光感度であり、カメラの分光感度の中心波長(最大ピーク波長)の昇順にカメラ1〜8と番号を割り当てる。図7に示す分光感度が、多色カメラであるカメラ9の分光感度である。カメラの配置は、上段の左からカメラ1、7、2、中段の左からカメラ3、9、4、下段の左からカメラ5、8、6とする。
第2の実施の形態の画像処理システム210の画像処理装置230を構成するコンピュータは、機能的には、上記図4に示すように、グレースケール画像生成部231、対応点探索部31、撮影条件記憶部32、奥行き情報推定部33、及びマルチバンド画像生成部34を含んだ構成で表すことができる。
グレースケール画像生成部231は、多色カメラ221で撮影された画像をグレースケール画像に変換して、出力する。例えば、グレースケール画像生成部231は、各画素において、多色カメラ221の各カラーチャンネルの画素値の平均値((R+G+B)/3)を算出し、各画像について算出された平均値からなる1枚のグレースケール画像を出力する。
対応点探索部31は、画像撮影装置220から入力された複数のグレースケール画像、グレースケール画像生成部231により出力されたグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、画像のペアの各々について、ペア間で対応点を探索する。
対応点探索処理部311は、画像撮影装置220から入力された複数のグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、各単色カメラの分光感度の中心波長の昇順に番号を割り当てて番号が連続しないように並べた配置における順番が連続した2台の単色カメラからの画像のペア間の各々について、当該ペア間で対応点の探索を行う。更に、グレースケール画像生成部231からの出力画像と、各単色カメラの画像間での対応点探索を行う。対応点の探索手法は、既存の手法を利用する。
例えば、上記図5の例では、カメラ1および2の画像ペア間、カメラ3および4の画像ペア間、カメラ5および6の画像ペア間、カメラ7および8の画像ペア間で対応点探索が行われる。更に、カメラ9から得られたグレースケール画像と、カメラ1〜8の各画像との画像ペア間でも対応点探索が行われる。また更に、カメラ2および3の画像ペア間、カメラ4および5の画像ペア間、カメラ6および7の画像ペア間、カメラ1およびカメラ6の画像ペア間、カメラ2およびカメラ5の画像ペア間で対応点探索を行っても良い。
対応点探索処理部311は、対応点探索が行われた画像ペア間の各々について、探索された対応点の各画像上における座標、及び対応点探索に使用した画像のペアと、当該画像のペアの撮影に使用したカメラとの対応関係を出力する。
撮影条件記憶部32には、予め計測された単色カメラ211〜21N、多色カメラ221の各々の分光感度特性、および単色カメラ211〜21N、多色カメラ221の各々の姿勢情報や焦点距離、画角などの光学系特性の情報が記憶されている。
奥行き情報推定部33は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像ペア間の各々について、当該画像のペア間で得られた対応点の情報および撮影条件から、検出された対応点に対応した、被写体表面の座標を推定し、奥行き情報として出力する。また、画像のペア間の各々について推定された奥行き情報を統合して、出力してもよい。
マルチバンド画像生成部34は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像ペア間の各々について、検出された対応点を用いて、基準とする視点の画像と参照画像間での変形パラメータを算出し、その結果に基づき参照画像の画像変形を行い、任意のカメラの視点におけるマルチバンド画像を生成し、出力する。
マルチバンド画像生成部34は、更に、マルチバンド画像から色再現に使用する、各カメラの分光感度特性、撮影時の照明光スペクトル、被写体表面の分光反射率に関する統計情報を出力する。
<画像処理システムの作用>
次に、図8を参照して、第2の実施の形態の画像処理システム210の画像処理装置230で実行される画像処理ルーチンについて説明する。なお、第1の実施の形態における画像処理ルーチンと同一の処理については、同一符号を付して詳細な説明を省略する。
ステップS201において、複数の単色カメラ211〜21Nによって撮影された複数のグレースケール画像、及び多色カメラ221によって撮影された画像を取得する。
ステップS202において、上記ステップS201で取得した、多色カメラ221によって撮影された画像を、グレースケール画像に変換する。
そして、ステップS203において、上記ステップS201で取得した複数のグレースケール画像のうち、順番が連続した2台の単色カメラからの画像のペアの各々について、当該画像のペア間における対応点を探索する。更に、上記ステップS202で得られたグレースケール画像と、上記ステップS201で取得した複数のグレースケール画像の各々との画像のペアの各々について、当該画像のペア間における対応点を探索する。
ステップS104では、上記ステップS203で対応点探索を行った画像のペアの各々に対し、当該ペアについて探索された対応点に基づいて、奥行き情報を推定する。次のステップS105では、上記ステップS104で推定された画像のペアの各々に対する奥行き情報を統合して出力する。
そして、ステップS106では、上記ステップS203で対応点探索を行った画像のペアの各々について探索された対応点に基づいて、基準画像を撮影したカメラの視点におけるマルチバンド画像を生成する。次のステップS107では、上記ステップS106で生成したマルチバンド画像を出力して、画像処理ルーチンを終了する。
以上説明したように、第2の実施の形態の画像処理システムによれば、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラを配置し、多色カメラを、単色カメラで挟み込むように、又は囲むように配置し、割り当てられた番号が連続する単色カメラのペアの各々について、当該ペアの単色カメラで撮影した画像間で対応点を探索し、単色カメラで撮影した画像と変換されたグレースケール画像との間で対応点を探索することにより、従来手法より、精度良く対応点を探索することができる。
また、分光感度の中心波長が近いカラーチャンネルの画像間及び分光感度に重なりがあるカラーチャンネルの画像間、すなわち、画像の見えが近い画像間で対応点探索を行うことで、単色カメラの画像間での対応点検出精度が向上する。その結果、奥行き情報(被写体の形状情報)の推定結果が向上する。
また、多色カメラを単色カメラで挟み込む、もしくは囲む様に配置することで、カメラ間の距離が近い画像間で得られた対応点と、カメラ間の距離を離して撮影した画像間から得られた対応点の両方が、奥行き情報(被写体の形状情報)の推定に利用でき、その推定精度が向上する。
なお、上記図5の例では、分光感度の中心波長が近いカメラを水平方向及び垂直方向に配置した場合を例に説明したが、これに限定されるものではなく、分光感度が近いカメラを対角方向に配置してもよい。例えば、図9に示すように、単色カメラの分光感度の中心波長(最大ピーク波長)の昇順にカメラ1〜8とし、RGBカメラはカメラ9とする。カメラの配置は、上段の左からカメラ1、7、3、中段の左からカメラ5、9、6、下段の左からカメラ4、8、2とする。
また、多色カメラが1台である場合を例に説明したが多色カメラを複数台配置してもよい。
[第3の実施の形態]
<システム構成>
次に、第3の実施の形態について説明する。なお、第3の実施の形態の画像処理システムについて、第1の実施の形態の画像処理システム10及び第2の実施の形態の画像処理システム210と同様の構成については、同一符号を付して詳細な説明を省略する。
図10に示すように、第3の実施の形態の画像処理システム310の画像撮影装置220は、各々分光感度特性が異なる複数の単色カメラ211〜21Nと、多色カメラ221とを有している。
第3の実施の形態の画像処理システム310の画像処理装置330を構成するコンピュータは、機能的には、上記図10に示すように、カラーチャンネル分解部331、対応点探索部31、撮影条件記憶部32、奥行き情報推定部33、及びマルチバンド画像生成部34を含んだ構成で表すことができる。
カラーチャンネル分解部331は、多色カメラ221で撮影された画像に基づいて、各カラーチャンネルに対応したグレースケール画像を生成して、出力する。例えば、カラーチャンネル分解部331は、多色カメラ221であるRGBカメラで撮影されたRGB画像(カラーチャンネル数:3)から、Rチャンネル、Gチャンネル、Bチャンネルの各画像に相当する、計3枚のグレースケール画像を生成して出力する。
対応点探索部31は、画像撮影装置220から入力された複数のグレースケール画像、カラーチャンネル分解部331により出力された各カラーチャンネルのグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、画像のペアの各々について、ペア間で対応点を探索する。
対応点探索処理部311は、画像撮影装置220から入力された複数のグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、各単色カメラの分光感度の中心波長の昇順に番号を割り当てて番号が連続しないように並べた配置における順番が連続した2台の単色カメラからの画像のペア間の各々について、当該ペア間で対応点の探索を行う。更に、各単色カメラの画像と、該当する単色カメラの分光感度に最も近い、カラーチャンネルについてカラーチャンネル分解部331から出力されたグレースケール画像との間での対応点探索を行う。対応点の探索手法は、既存の手法を利用する。
例えば、上記図5の例では、カメラ1および2の画像ペア間、カメラ3および4の画像ペア間、カメラ5および6の画像ペア間、カメラ7および8の画像ペア間で対応点探索が行われる。更に、カメラ1と2の各画像と、カメラ9のBチャンネルの画像との画像ペア間、カメラ3〜5の各画像とカメラ9のGチャンネルの画像との画像ペア間、カメラ6〜8の各画像とカメラ9のRチャンネルの画像との画像ペア間でも、対応点探索が行われる。また更に、カメラ1およびカメラ6の画像ペア間、カメラ2およびカメラ5の画像ペア間、カメラ2および3の画像ペア間、カメラ4および5の画像ペア間、カメラ6および7の画像ペア間で対応点探索を行っても良い。
対応点探索処理部311は、対応点探索が行われた画像ペア間の各々について、探索された対応点の各画像上における座標、及び対応点探索に使用した画像のペアと、当該画像のペアの撮影に使用したカメラとの対応関係を出力する。
奥行き情報推定部33は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像のペア間の各々について、当該画像のペア間で得られた対応点の情報および撮影条件から、検出された対応点に対応した、被写体表面の座標を推定し、奥行き情報として出力する。また、画像のペア間の各々について推定された奥行き情報を統合して、出力してもよい。
マルチバンド画像生成部34は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像のペア間の各々について、検出された対応点を用いて、基準とする視点の画像と参照画像間での変形パラメータを算出し、その結果に基づき参照画像の画像変形を行い、任意のカメラの視点におけるマルチバンド画像を生成し、出力する。
<画像処理システムの作用>
次に、図11を参照して、第3の実施の形態の画像処理システム310の画像処理装置330で実行される画像処理ルーチンについて説明する。なお、第1の実施の形態及び第2の実施の形態における画像処理ルーチンと同一の処理については、同一符号を付して詳細な説明を省略する。
ステップS201において、複数の単色カメラ211〜21Nによって撮影された複数のグレースケール画像、及び多色カメラ221によって撮影された画像を取得する。
ステップS301において、上記ステップS201で取得した、多色カメラ221によって撮影された画像から、各カラーチャンネルのグレースケール画像を生成する。
そして、ステップS302において、上記ステップS201で取得した複数のグレースケール画像のうち、順番が連続した2台の単色カメラからの画像のペアの各々について、当該画像のペア間における対応点を探索する。更に、上記ステップS201で取得した複数のグレースケール画像の各々と、上記ステップS301で得られたグレースケール画像のうち、該当する単色カメラの分光感度に最も近いカラーチャンネルについてのグレースケール画像との画像のペアの各々について、当該画像のペア間における対応点を探索する。
ステップS104では、上記ステップS302で対応点探索を行った画像のペアの各々に対し、当該ペアについて探索された対応点に基づいて、奥行き情報を推定する。次のステップS105では、上記ステップS104で推定された画像のペアの各々に対する奥行き情報を統合して出力する。
そして、ステップS106では、上記ステップS302で対応点探索を行った画像のペアの各々について探索された対応点に基づいて、基準画像を撮影したカメラの視点におけるマルチバンド画像を生成する。次のステップS107では、上記ステップS106で生成したマルチバンド画像を出力して、画像処理ルーチンを終了する。
以上説明したように、第3の実施の形態の画像処理システムによれば、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラを配置し、多色カメラを、単色カメラで挟み込むように、又は囲むように配置し、割り当てられた番号が連続する単色カメラのペアの各々について、当該ペアの単色カメラで撮影した画像間で対応点を探索し、単色カメラで撮影した画像と、多色カメラ221で撮影した画像に関する当該単色カメラの分光感度に最も近いカラーチャンネルについてのグレースケール画像との間で対応点を探索することにより、従来手法より、精度良く対応点を探索することができる。
また、多色カメラが1台である場合を例に説明したが多色カメラを複数台配置してもよい。
[第4の実施の形態]
<システム構成>
次に、第4の実施の形態について説明する。なお、第4の実施の形態の画像処理システムについて、第1の実施の形態の画像処理システム10及び第2の実施の形態の画像処理システム210と同様の構成については、同一符号を付して詳細な説明を省略する。
図12に示すように、第4の実施の形態の画像処理システム410の画像撮影装置220は、各々分光感度特性が異なる複数の単色カメラ211〜21Nと、多色カメラ221とを有している。
第4の実施の形態の画像処理システム410の画像処理装置430を構成するコンピュータは、機能的には、上記図12に示すように、単色画像生成部431、対応点探索部31、撮影条件記憶部32、奥行き情報推定部33、及びマルチバンド画像生成部34を含んだ構成で表すことができる。
単色画像生成部431は、多色カメラ221で撮影された画像に基づいて、ウィナー推定法等の既存技術を用いて、多色カメラ221で撮影された画像から分光反射率画像を生成し、さらに撮影時の照明光スペクトルと各単色カメラ211〜21Nの分光感度特性を用いた撮影シミュレーションにより、各単色カメラ211〜21Nと同じ分光感度特性のカメラで撮影した際に得られるものと同等の、単色画像を各々生成する。生成される単色画像の枚数は単色カメラ211〜21Nの台数に等しい。
単色画像生成部431は、分光反射率画像生成部4311及び複数単色画像生成部4312を備えている。
分光反射率画像生成部4311は、多色カメラ221で撮影された画像と、撮影条件記憶部32に記憶された、多色カメラ221の分光感度特性、撮影時の照明光スペクトル、及び被写体表面の分光反射率に関する統計情報に基づいて、ウィナー推定法等の従来手法を用いた、画像上の各画素に関する分光反射率の推定を行い、分光反射率画像を生成する。被写体表面の分光反射率に関する統計情報としては、例えば、教師データとして使用する分光反射率データ群の相関行列、共分散行列を用いればよい。分光反射率データ群から得られた主成分の相関行列等でも良い。
複数単色画像生成部4312は、分光反射率画像生成部4311によって生成された分光反射率画像と、撮影条件記憶部32に記憶された撮影時の照明光スペクトル、および各単色カメラの分光感度特性とに基づいて、分光反射率画像上の各画素値に対し、撮影時の照明光スペクトルおよび各単色カメラの分光感度特性を掛け合わせることにより、各単色カメラ211〜21Nと同じ分光感度特性のカメラで撮影したときに得られるものと同等の単色画像を各々生成する。
対応点探索部31は、画像撮影装置220から入力された複数のグレースケール画像、単色画像生成部431により出力された各単色カメラ211〜21Nに対応する単色画像、及びグレースケール画像とカメラとの対応関係に基づいて、画像のペアの各々について、ペア間で対応点を探索する。
対応点探索処理部311は、画像撮影装置220から入力された複数のグレースケール画像、及びグレースケール画像とカメラとの対応関係に基づいて、各単色カメラの分光感度の中心波長の昇順に番号を割り当てて番号が連続しないように並べた配置における順番が連続した2台の単色カメラからの画像のペア間の各々について、当該ペア間で対応点の探索を行う。更に、各単色カメラの画像と、単色画像生成部431で生成された該当する単色カメラと同じ分光感度特性を用いて生成された単色画像との間での対応点探索を行う。対応点の探索手法は、既存の手法を利用する。
例えば、上記図5の例では、カメラ1および2の画像ペア間、カメラ3および4の画像ペア間、カメラ5および6の画像ペア間、カメラ7および8の画像ペア間で対応点探索が行われる。更に、カメラ1の画像と、カメラ1に対応する単色画像との画像ペア間、カメラ2の画像と、カメラ2に対応する単色画像との画像ペア間、カメラ3の画像と、カメラ3に対応する単色画像との画像ペア間、カメラ4の画像と、カメラ4に対応する単色画像との画像ペア間、カメラ5の画像と、カメラ5に対応する単色画像との画像ペア間、カメラ6の画像と、カメラ6に対応する単色画像との画像ペア間、カメラ7の画像と、カメラ7に対応する単色画像との画像ペア間、及びカメラ8の画像と、カメラ8に対応する単色画像との画像ペア間でも、対応点探索が行われる。また更に、カメラ2および3の画像ペア間、カメラ4および5の画像ペア間、カメラ6および7の画像ペア間で対応点探索を行っても良い。
対応点探索処理部311は、対応点探索が行われた画像ペア間の各々について、探索された対応点の各画像上における座標、及び対応点探索に使用した画像のペアと、当該画像のペアの撮影に使用したカメラとの対応関係を出力する。
奥行き情報推定部33は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像ペア間の各々について、当該画像のペア間で得られた対応点の情報および撮影条件から、検出された対応点に対応した、被写体表面の座標を推定し、奥行き情報として出力する。また、画像のペア間の各々について推定された奥行き情報を統合して、出力してもよい。
マルチバンド画像生成部34は、検出された対応点の各画像上における座標、対応点探索で使用した画像ペアとその画像ペアの撮影に使用したカメラとの対応関係、及び撮影条件記憶部32に記憶されている各種情報に基づいて、対応点探索が行われた画像ペア間の各々について、検出された対応点を用いて、基準とする視点の画像と参照画像間での変形パラメータを算出し、その結果に基づき参照画像の画像変形を行い、任意のカメラの視点におけるマルチバンド画像を生成し、出力する。
<画像処理システムの作用>
次に、図13を参照して、第4の実施の形態の画像処理システム410の画像処理装置430で実行される画像処理ルーチンについて説明する。なお、第1の実施の形態及び第2の実施の形態における画像処理ルーチンと同一の処理については、同一符号を付して詳細な説明を省略する。
ステップS201において、複数の単色カメラ211〜21Nによって撮影された複数のグレースケール画像、及び多色カメラ221によって撮影された画像を取得する。
ステップS401において、上記ステップS201で取得した、多色カメラ221によって撮影された画像から、分光反射率画像を生成する。ステップS402では、上記ステップS401で生成された分光反射率画像から、複数の単色カメラ211〜21Nの各々に対応する単色画像を生成する。
そして、ステップS403において、上記ステップS201で取得した複数のグレースケール画像のうち、順番が連続した2台の単色カメラからの画像のペアの各々について、当該画像のペア間における対応点を探索する。更に、上記ステップS201で取得した複数のグレースケール画像の各々と、上記ステップS402で得られた単色画像のうち、該当する単色カメラと同じ分光感度特性のカメラで撮影した際に得られるものと同等の、単色画像との画像のペアの各々について、当該画像のペア間における対応点を探索する。
ステップS104では、上記ステップS403で対応点探索を行った画像のペアの各々に対し、当該ペアについて探索された対応点に基づいて、奥行き情報を推定する。次のステップS105では、上記ステップS104で推定された画像のペアの各々に対する奥行き情報を統合して出力する。
そして、ステップS106では、上記ステップS403で対応点探索を行った画像のペアの各々について探索された対応点に基づいて、基準画像を撮影したカメラの視点におけるマルチバンド画像を生成する。次のステップS107では、上記ステップS106で生成したマルチバンド画像を出力して、画像処理ルーチンを終了する。
以上説明したように、第4の実施の形態の画像処理システムによれば、各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順に番号を割り当て、割り当てられた番号が連続しないように、複数の単色カメラを配置し、多色カメラを、単色カメラで挟み込むように、又は囲むように配置し、割り当てられた番号が連続する単色カメラのペアの各々について、当該ペアの単色カメラで撮影した画像間で対応点を探索し、単色カメラで撮影した画像と、当該単色カメラと同じ分光感度特性を用いて生成された単色画像との間で対応点を探索することにより、従来手法より、精度良く対応点を探索することができる。
なお、上記の実施の形態では、多色カメラが1台である場合を例に説明したが多色カメラを複数台配置してもよい。
[第5の実施の形態]
<システム構成>
次に、第5の実施の形態について説明する。なお、第5の実施の形態の画像処理システムは、第3の実施の形態の画像処理システム310と同様の構成であるため、同一符号を付して詳細な説明を省略する。
第5の実施の形態では、画像撮影装置において、多色カメラを複数台用いている点が、第3の実施の形態と異なっている。
第5の実施の形態に係る画像処理システムの画像撮影装置220は、例えば、図14に示すように、分光感度特性が異なる3つの単色カメラ(図15参照)と、分光感度特性が等しい2つの多色カメラであるRGBカメラ(図16参照)とを備えている。図14では、カメラ4と5がRGBカメラで、それぞれ単色カメラであるカメラ1、2、3に挟まれている。また単色カメラであるカメラ1、2、3の分光感度はそれぞれ、RGBカメラの3つのカラーチャンネルのうちのいずれかと重なりを持っている。
カラーチャンネル分解部331は、カメラ4で撮影された画像を、各カラーチャンネルのグレースケール画像(R4、G4、B4)に分解し、カメラ5で撮影された画像を、各カラーチャンネルのグレースケール画像(R5、G5、B5)に分解する。
対応点探索部31では、以下の(1)、(2)に示す画像ペア間での対応点探索が行われる。なお、対応点探索を、(1)に示す画像ペア間のみ、また(1)及び(2)に示す画像ペア間に対して行っても良い。
(1)隣接しないカメラの画像ペアとして、カメラ1とカメラ2の画像ペア、カメラ2とカメラ3の画像ペア、カメラ1とカメラ5のB5の画像ペア、カメラ3とカメラ4のR4の画像ペア、カメラ4のR4とカメラ5のR5の画像ペア、カメラ4のG4とカメラ5のG5の画像ペア、及びカメラ4のB4とカメラ5のB5の画像ペアの各画像ペア間で、対応点探索が行われる。
(2)隣接するカメラの画像ペアとして、カメラ1とカメラ4のB4の画像ペア、カメラ4のG4とカメラ2の画像ペア、カメラ2とカメラ5のG5の画像ペア、及びカメラ5のR5とカメラ3の画像ペアの各画像ペア間で、対応点探索が行われる。
なお、第5の実施の形態に係る画像処理システムの他の構成及び作用については、第3の実施の形態と同様であるため、説明を省略する。
[第6の実施の形態]
<システム構成>
次に、第6の実施の形態について説明する。なお、第6の実施の形態の画像処理システムは、第3の実施の形態の画像処理システム10及び第5の実施の形態の画像処理システムと同様の構成であるため、同一符号を付して詳細な説明を省略する。
第6の実施の形態では、複数の多色カメラの分光感度特性が異なっている点が、第5の実施の形態と異なっている。
第6の実施の形態に係る画像処理システムの画像撮影装置220は、例えば、図17に示すように、分光感度特性が異なる3つの単色カメラ(上記図15参照)と、分光感度特性が異なる2つの多色カメラであるRGBカメラとを備えている。カメラ4は、図18に示すカメラ5と同じ分光感度を有するRGBカメラのカメラレンズの前に、図19に示す透過特性を有するカラーフィルタを取り付けることで構成され、実質的に、図20に示すように、カメラ5とは異なる分光感度を有する。
対応点探索部31では、第5の実施の形態と同様に、上記の(1)、(2)に示す画像ペア間での対応点探索が行われる。なお、対応点探索を、(1)に示す画像ペア間のみ、また(1)及び(2)に示す画像ペア間に対して行っても良い。
なお、第6の実施の形態に係る画像処理システムの他の構成及び作用については、第3の実施の形態と同様であるため、説明を省略する。
上記の第1〜第6の実施の形態では、複数の単色カメラ211〜21Nに、分光感度の中心波長の昇順に番号を割り当てる場合を例に説明したが、これに限定されるものではなく、複数の単色カメラ211〜21Nに、分光感度の中心波長の降順に番号を割り当てもよい。
また、上述の画像処理装置は、内部にコンピュータシステムを有しているが、コンピュータシステムは、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10、210、310、410画像処理システム
20、220 画像撮影装置
30、230、330、430画像処理装置
31 対応点探索部
32 撮影条件記憶部
33 奥行き情報推定部
34 マルチバンド画像生成部
211 単色カメラ
221 多色カメラ
231 グレースケール画像生成部
311 対応点探索処理部
312 対応点記憶部
331 カラーチャンネル分解部
431 単色画像生成部
4311 分光反射率画像生成部
4312 複数単色画像生成部

Claims (7)

  1. 各々分光感度特性が異なる複数の単色カメラに、分光感度の中心波長の昇順又は降順に番号を割り当て、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、
    前記複数の単色カメラによって、画像を撮影し、
    画像処理装置によって、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、探索された対応点を出力する
    画像処理方法。
  2. 前記画像処理装置によって、多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像に変換することを更に含み、
    前記複数の単色カメラを配置することは、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、かつ、前記多色カメラを、前記単色カメラで挟み込むように、又は囲むように配置し、
    前記画像を撮影することは、前記複数の単色カメラ及び前記多色カメラによって、画像を撮影し、
    前記画像処理装置によって前記対応点を探索することは、割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、かつ、前記単色カメラで撮影した画像と前記変換された画像との間で対応点を探索し、探索された対応点を出力する請求項1記載の画像処理方法。
  3. 前記画像処理装置によって前記多色カメラで撮影した画像を変換することは、グレースケール画像生成部によって、前記多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像として、グレースケール画像に変換する請求項2記載の画像処理方法。
  4. 前記画像処理装置によって前記多色カメラで撮影した画像を変換することは、カラーチャンネル分解部によって、前記多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像として、各カラーチャネル毎に前記画像を分解して得られた各カラーチャネル毎の画像のグレースケール画像に変換する請求項2記載の画像処理方法。
  5. 前記画像処理装置によって前記多色カメラで撮影した画像を変換することは、単色画像生成部によって、前記多色カメラで撮影した画像から、分光反射率画像を生成し、予め求められた撮影時の照明光スペクトルと前記複数の単色カメラの分光感度特性とを用いて、前記複数の単色カメラの各々に対し、前記分光反射率画像を、前記単色カメラで撮影した画像を推定して生成した単色画像に変換する請求項2記載の画像処理方法。
  6. 各々分光感度特性が異なる複数の単色カメラを含み、前記複数の単色カメラに、分光感度の中心波長の昇順又は降順に番号を割り当て、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置した画像撮影装置と、
    割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、探索された対応点を出力する画像処理装置と、
    を含む画像処理システム。
  7. 前記画像撮影装置は、多色カメラを更に含み、割り当てられた番号が連続しないように、前記複数の単色カメラを、一方向及び二方向の何れか一方に配置し、かつ、前記多色カメラを、前記単色カメラで挟み込むように、又は囲むように配置し、
    前記画像処理装置は、前記多色カメラで撮影した画像を、前記単色カメラで撮影した画像との間で対応点の探索が可能な画像に変換し、
    割り当てられた番号が連続する前記単色カメラのペアの各々について、前記ペアの単色カメラで撮影した画像間で対応点を探索し、かつ、前記単色カメラで撮影した画像と前記変換された画像との間で対応点を探索し、探索された対応点を出力する請求項6記載の画像処理システム。
JP2014106295A 2014-05-22 2014-05-22 画像処理方法及び画像処理システム Active JP6154781B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014106295A JP6154781B2 (ja) 2014-05-22 2014-05-22 画像処理方法及び画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014106295A JP6154781B2 (ja) 2014-05-22 2014-05-22 画像処理方法及び画像処理システム

Publications (2)

Publication Number Publication Date
JP2015222200A JP2015222200A (ja) 2015-12-10
JP6154781B2 true JP6154781B2 (ja) 2017-06-28

Family

ID=54785293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014106295A Active JP6154781B2 (ja) 2014-05-22 2014-05-22 画像処理方法及び画像処理システム

Country Status (1)

Country Link
JP (1) JP6154781B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3728160B2 (ja) * 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP2006214735A (ja) * 2005-02-01 2006-08-17 Viewplus Inc 複合ステレオビジョン装置
CN101385332B (zh) * 2006-03-22 2010-09-01 松下电器产业株式会社 摄像装置
JP2008128771A (ja) * 2006-11-20 2008-06-05 Toppan Printing Co Ltd 分光情報および形状情報同時取得装置及び情報取得方法
JP2010276469A (ja) * 2009-05-28 2010-12-09 Konica Minolta Holdings Inc 画像処理装置及び測距装置の画像処理方法
JP5704975B2 (ja) * 2011-03-08 2015-04-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2015222200A (ja) 2015-12-10

Similar Documents

Publication Publication Date Title
CN101680756B (zh) 复眼摄像装置、测距装置、视差算出方法以及测距方法
TWI525382B (zh) 包括至少一拜耳型攝影機的攝影機陣列系統及關聯的方法
US20190244379A1 (en) Systems and Methods for Depth Estimation Using Generative Models
US9798155B2 (en) Image processing apparatus, image processing method, and program for generating a three dimensional image to be stereoscopically viewed
JP5406151B2 (ja) 3次元撮像装置
JP6182396B2 (ja) 撮像装置
JP2014011526A (ja) 画像処理装置、撮像装置および画像処理方法
WO2015190616A1 (en) Image sensor for depth estimation
WO2014073670A1 (ja) 画像処理方法及び画像処理装置
JP2012186755A (ja) 画像処理装置、画像処理方法、およびプログラム
US20150124083A1 (en) Image Processing in a Multi-Channel Camera
JP5927570B2 (ja) 3次元撮像装置、光透過部、画像処理装置、およびプログラム
KR101641406B1 (ko) 스테레오 카메라
JP4193342B2 (ja) 3次元データ生成装置
CN105659054A (zh) 摄像装置和相位差检测方法
US10134136B2 (en) Image processing apparatus and image processing method
US10798364B2 (en) 3D image reconstruction based on lensless compressive image acquisition
JP4862004B2 (ja) 奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラム
JP5777031B2 (ja) 画像処理装置、方法、及びプログラム
JP6154781B2 (ja) 画像処理方法及び画像処理システム
JP7308913B2 (ja) 敵対的生成ネットワークアルゴリズムを活用した超分光高速カメラ映像生成方法
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
JP2005346393A (ja) ステレオ画像認識装置及びその方法
JP2018133064A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
KR101982650B1 (ko) 거리 측정 장치 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6154781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150