JP7023212B2 - 画像処理装置、撮像装置、移動体および画像処理方法 - Google Patents

画像処理装置、撮像装置、移動体および画像処理方法 Download PDF

Info

Publication number
JP7023212B2
JP7023212B2 JP2018203192A JP2018203192A JP7023212B2 JP 7023212 B2 JP7023212 B2 JP 7023212B2 JP 2018203192 A JP2018203192 A JP 2018203192A JP 2018203192 A JP2018203192 A JP 2018203192A JP 7023212 B2 JP7023212 B2 JP 7023212B2
Authority
JP
Japan
Prior art keywords
image
reference image
singular value
image pickup
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203192A
Other languages
English (en)
Other versions
JP2020071531A (ja
Inventor
顕嗣 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018203192A priority Critical patent/JP7023212B2/ja
Priority to EP19880425.4A priority patent/EP3876199A4/en
Priority to CN201980069371.6A priority patent/CN112912930A/zh
Priority to US17/288,829 priority patent/US11430147B2/en
Priority to PCT/JP2019/038805 priority patent/WO2020090329A1/ja
Publication of JP2020071531A publication Critical patent/JP2020071531A/ja
Application granted granted Critical
Publication of JP7023212B2 publication Critical patent/JP7023212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本開示は、画像処理装置、撮像装置、移動体および画像処理方法に関する。
特許文献1には、車両に搭載した撮像系で車外の対象を撮像した一対のステレオ画像を用いて、対象までの距離を検出する技術が開示されている。この技術では、一対のステレオ画像のうち、一方を基準画像とし、他方を比較画像として、ステレオマッチング処理により、基準画像と比較画像とで対応する部分の画像上の位置の差(視差)を算出し、算出した視差を用いて三角測量の原理により対象までの距離情報を取得する。
特開平7-152914号公報
ステレオマッチング処理による距離の検出においては、検出精度の低下を抑制しつつ、処理負荷を低減することが有益である。
本開示の目的は、上述した課題を解決し、ステレオマッチング処理による距離の検出精度の低下を抑制しつつ、処理負荷を低減することにある。
本開示の実施形態に係る画像処理装置は、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える。
本開示の実施形態に係る撮像装置は、第1の撮像光学系と、前記第1の撮像光学系を介して結像した像を撮像する第1の撮像素子とを備える第1の撮像部と、第2の撮像光学系と、前記第2の撮像光学系を介して結像した像を撮像する第2の撮像素子とを備え、前記第1の撮像部とは異なる視点から撮像する第2の撮像部と、前記第1の撮像部および前記第2の撮像部により撮像された、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える。
本開示の実施形態に係る移動体は、前記移動体の周辺を撮像する撮像装置を備え、前記撮像装置は、第1の撮像光学系と、前記第1の撮像光学系を介して結像した像を撮像する第2の撮像素子とを備える第1の撮像部と、第2の撮像光学系と、前記第2の撮像光学系を介して結像した像を撮像する第2の撮像素子とを備え、前記第1の撮像部とは異なる視点から撮像する第2の撮像部と、前記第1の撮像部および前記第2の撮像部により撮像された、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える。
本開示の実施形態に係る画像処理方法は、画像処理装置における画像処理方法であって、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するステップと、前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するステップと、を含む。
本開示によれば、ステレオマッチング処理による距離の検出精度の低下を抑制しつつ、処理負荷を低減することができる画像処理装置、撮像装置、移動体および画像処理方法を提供することができる。
本開示の一実施形態に係る画像処理装置の構成例を示す図である。 図1に示すプロセッサによる所望の特徴量の決定の一例について説明するための図である。 前方の車両との距離が5mである場合の、オリジナルの左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が5mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が5mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が5mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が20mである場合の、オリジナルの左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が20mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が20mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が20mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が30mである場合の、オリジナルの左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が30mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が30mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 前方の車両との距離が30mである場合の、特異値分解による低ランク近似後の左画像および右画像と、得られたディスパリティ・マップとを示す図である。 図1に示す画像処理装置における画像処理方法について説明するためのフローチャートである。
以下、本開示の実施の形態について図面を参照して例示説明する。各図中、同一符号は
、同一または同等の構成要素を示している。
図1は、本開示の一実施形態に係る画像処理装置10の構成例を示す図である。本実施形態に係る画像処理装置10は、基準画像と参照画像とを含む一対のステレオ画像を用いて、ステレオマッチング処理により、基準画像と比較画像とで対応する部分の画像上の位置の差(視差)を算出し、算出した視差を用いて、距離情報を取得する。画像処理装置10は、例えば、図1に示すように、移動体1に搭載される。画像処理装置10が移動体1に搭載される場合、画像処理装置10は、移動体1の周辺を撮像した一対のステレオ画像を用いて、その画像に含まれる人、他の移動体などの対象までの距離情報を取得する。以下では、画像処理装置10は、移動体1に搭載されるものとして説明する。
本開示における移動体1は、例えば、車両である。車両には、自動車および産業車両を含むが、これに限られず、鉄道車両、生活車両、および、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバスなどを含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
図1に示す画像処理装置10は、インターフェイス12と、プロセッサ13と、メモリ14とを備える。移動体1には、移動体1の周辺を撮像した画像を取得する第1の撮像部としての撮像部11aおよび第2の撮像部としての撮像部11bが搭載されている。画像処理装置10、撮像部11aおよび撮像部11bは、移動体1に搭載された撮像装置1Aを構成する。以下では、撮像部11aと撮像部11bとを区別しない場合には、撮像部11と称する。まず、撮像部11について説明する。
撮像部11は、移動体1に搭載された車載カメラである。撮像部11は、移動体1の周辺を撮像した画像を取得する。撮像部11は、少なくとも撮像光学系と、撮像素子とを備える。すなわち、撮像部11aは、第1の撮像光学系としての撮像光学系111aと、第1の撮像素子としての撮像素子112aとを備える。また、撮像部11bは、第2の撮像光学系としての撮像光学系111bと、第2の撮像素子としての撮像素子112bとを備える。以下では、撮像光学系111aと、撮像光学系111bとを区別しない場合には、撮像光学系111と称する。また、撮像素子112aと、撮像素子112bとを区別しない場合には、撮像素子112と称する。
撮像光学系111は、例えば、1個以上のレンズおよび絞りなどの光学部材を含む。撮像光学系111が備えるレンズは、例えば、魚眼レンズなどの画角の広いレンズであってもよい。撮像光学系111は、被写体像を撮像素子112の受光面に結像させる。撮像素子112は、例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含む。撮像素子112の受光面上には、複数の画素が配列されている。撮像素子112は、受光面上に結像された被写体像を撮像して撮像画像を生成する。撮像部11は、移動体1に搭載されたECU(Electronic Control Unit)、ディスプレイおよびナビゲーション装置などの外部装置に撮像した画像を出力してもよい。また、撮像部11は、撮像した画像に対して、ホワイトバランス調整処理、露出調整処理およびガンマ補正処理などの所定の画像処理を施す機能を有していてもよい。
撮像部11aおよび撮像部11bは、光軸が互いに平行になるようにして、例えば、移動体1の前方にやや下向きに向けて配置される。また、撮像部11aおよび撮像部11bは、移動体1の車幅方向に横並びに離間して配置される。したがって、撮像部11aおよび撮像部11bは、略同じ範囲を異なる視点から撮像する。撮像部11aおよび撮像部11bは、例えば、移動体1が自動車である場合、自動車のフロントガラスの内側に設置される。
以下では、撮像部11aが撮像した画像を「基準画像」と称し、撮像部11bが撮像した画像を「参照画像」と称する。上述したように、撮像部11aおよび撮像部11bは、略同じ範囲を異なる視点から撮像する。したがって、基準画像と参照画像とは、略同じ範囲を異なる視点から撮像したステレオ画像である。また、基準画像と参照画像とは、撮像部11aと撮像部11bとが同一または実質的に同一のタイミングにおいて撮像した画像である。「実質的に同一」とは、基準画像と参照画像とが撮像されたタイミングのずれが、後述するステレオマッチング処理による距離の検出に影響を及ぼさない程度のずれであることを意味する。
次に、画像処理装置10が備える構成について説明する。
インターフェイス12は、有線または無線を介して、移動体1が備える各種構成と通信を行う。例えば、インターフェイス12は、撮像部11aが撮像した基準画像を取得し、プロセッサ13に出力する。また、インターフェイス12は、撮像部11bが撮像した参照画像を取得し、プロセッサ13に出力する。以下では、インターフェイス12が取得した基準画像と参照画像とを併せて、「取得画像」と称することがある。
プロセッサ13は、例えば、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)およびFPGA(Field-Programmable Gate Array)などの専用のプロセッサ、または、CPU(Central Processing Unit)などの汎用プロセッサを含む。プロセッサ13は、画像処理装置10全体の動作を制御する。例えば、プロセッサ13は、インターフェイス12が取得した基準画像と参照画像とを用いて、ステレオマッチング処理を行うことで、視差を算出し、算出した視差を用いて距離情報を取得する。ステレオマッチング処理とは、異なる視点から撮像された基準画像と参照画像との間で対応する領域をマッチングすることにより視差を求め、求めた視差から撮像装置1Aと、画像に含まれる物体との距離情報を算出する処理である。ステレオマッチング処理は、公知の任意の方法を用いて行うことができる。例えば、ステレオマッチング処理は、画像処理ライブラリとして提供されているOpenCV3の一機能であるStereoBMを用いて行うことができる。基準画像と参照画像とを用いたステレオマッチング処理の詳細は後述する。
メモリ14は、例えば、一次記憶装置または二次記憶装置などを含む。メモリ14は、画像処理装置10の動作に必要な種々の情報およびプログラムを記憶する。
次に、プロセッサ13による基準画像と参照画像とを用いたステレオマッチング処理について説明する。
プロセッサ13は、インターフェイス12が取得した取得画像に対して、数学的な処理を行い、処理後の画像を用いてステレオマッチング処理を行う。具体的には、プロセッサ13は、取得画像に対して、特異値分解による低ランク近似を行い、低ランク近似後の画像を用いて、ステレオマッチング処理を行う。
プロセッサ13は、取得画像に対応する行列Mを生成する。取得画像に対応する行列Mとは、取得画像を行列で表現したものである。通常、画像は、行方向と列方向とに配列された複数の画素からなる。プロセッサ13は、例えば、取得画像の各画素の輝度値などを、各画素の位置に対応する要素とする行列Mを生成する。そして、プロセッサ13は、生成した行列Mの特異値分解を行う。特異値分解は、一般的な数学的処理であり、詳細な説明は省略するが、任意のm×nの行列Mを、以下の式(1)に示すように、3つの行列A,B,Cに分解する処理である。
M=ABC ・・・式(1)
式(1)において、Aは、m×mの直交行列である左特異値行列であり、Bは、m×nの対角行列であり、Cはn×nの直交行列である右特異値行列である。対角行列B(第1の対角行列)は、対角成分が正の値または0であり、非対角成分が0である行列である。対角行列Bの対角成分は、値の大きなものから降順に並ぶ。対角行列Bの対角成分のうち、ゼロでない成分の数をランクkと称する。
プロセッサ13は、上述した特異値分解を行った後、低ランク近似を行う。具体的には、プロセッサ13は、対角行列Bのランクをk-lに下げた対角行列B’(第2の対角行列)を生成する。ここで、プロセッサ13は、対角行列Bのゼロでないk個の対角成分のうち、値の小さな成分から順にl個の対角成分をゼロとすることで、対角行列B’を生成する。すなわち、プロセッサ13は、対角行列Bのランクを下げた対角行列B’を生成する。そして、プロセッサ13は、左特異値行列Aと、対角行列Bのランクを下げた対角行列B’と、右特異値行列Cとの内積により得られる行列M’に対応する画像を、低ランク近似後の画像として生成する。
プロセッサ13は、上述した行列M’を、基準画像および参照画像それぞれについて算出する。そして、基準画像について算出した行列M’に対応する画像、および、参照画像について算出した行列M’に対応する画像とを用いて、ステレオマッチング処理を行う。以下では、基準画像について算出された行列M’に対応する画像を、特異値分解による低ランク近似後の基準画像と称する。また、参照画像に対応する行列Mについて算出された行列M’に対応する画像を、特異値分解による低ランク近似後の参照画像と称する。プロセッサ13は、特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出する。
上述したように、行列M’は、左特異値行列Aと、対角行列Bのランクを下げた対角行列B’と、右特異値行列Cとの内積により得られる。対角行列B’は、対角行列Bよりも、値がゼロである対角成分の数が多い。このような対角行列B’のスパース性により、プロセッサ13は、ステレオマッチング処理の処理負荷を低減することができる。例えば、プロセッサ13は、任意の値x×0=0あるいは任意の値x+0=xといった計算結果が自明な計算を省略することで、処理負荷を低減することができる。
また、対角行列B’は、対角行列Bの対角成分のうち、値の小さな対角成分から順に所定の数の対角成分をゼロとすることで得られる。そのため、特異値分解による低ランク近似後の画像では、取得画像のうち特徴に乏しい部分が優先的に圧縮される。したがって、特異値分解による低ランク近似後の基準画像および参照画像においても、ステレオマッチング処理に必要な特徴的な部分は残るので、距離の検出精度の低下は抑制される。
一般に、ステレオマッチング処理による距離の検出精度を上げるためには、解像度の高い画像を用いることが考えられる。しかしながら、解像度の高い画像を用いると、処理負荷が増大し、ステレオマッチング処理に要する時間も長くなってしまう。また、ステレオマッチング処理の処理負荷を下げるには、画像の解像度を下げることが考えられる。しかしながら、画像の解像度を下げると、ステレオマッチング処理に必要な特徴的な部分の解像度も下がるため、距離の検出が低下してしまう。一方、本実施形態においては、特異値分解による低ランク近似を行うことで、ステレオマッチング処理による距離の検出精度の低下を抑制しつつ、処理負荷を低減することができる。
プロセッサ13は、ステレオマッチング処理に必要とされる画像の特徴量に応じて、対角行列B’のランクを決定する。すなわち、プロセッサ13は、特異値分解による低ランク近似後の基準画像および参照画像における所望の特徴量に応じて、対角行列B’のランクを決定する。例えば、プロセッサ13は、対角行列B’のランクを所定値ずつ変化させながら、各ランクにおける、特異値分解による低ランク近似後の画像の特徴量を求め、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係から、所望の特徴量に応じた対角行列B’のランクを決定する。プロセッサ13は、基準画像および参照画像の少なくとも一方について、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係を求め、その関係から、基準画像及び参照画像における所望の特徴量を決定し、対角行列B’のランクを決定する。
対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係は、画像ごとに異なる。そのため、画像ごとに、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係を求めるための演算を行う必要があるが、このような演算を行ったとしても、取得画像自体を用いてステレオマッチング処理を行うよりは、処理負荷を低減することができる。なお、特徴量とは、物体のエッジのような、ステレオマッチング処理に必要な特徴的な部分の量を意味し、例えば、空間周波数を用いて表すことができる。
また、プロセッサ13は、画像のエリアに応じて、所望の特徴量を決定してもよい。
例えば、移動体1の前方を撮像した画像では、画像の上部には、空などの移動体1の走行に影響の小さい物体が含まれることが多く、画像の中部には、他の移動体1あるいは歩行者などの、移動体1の走行に影響の大きい物体が含まれることが多い。すなわち、移動体1の前方を撮像した画像の上部には、精度の高い距離情報を取得する必要性が低い物体が含まれ、画像の中部には、精度の高い距離情報を取得する必要性が高い物体が含まれることが多い。また、移動体1の前方を撮像した画像の下部には、画像の中部に存在していた、距離情報を取得済みで移動体の走行に伴って相対的に移動体1に近づいてきた物体が含まれることが多い。このように、1つの画像の中でも、より正確な距離情報を取得すべきエリアが存在する。したがって、プロセッサ13は、取得画像のエリアに応じて、所望の特徴量を決定し、その決定した所望の特徴量に応じて、エリアごとに、対角行列B’のランクを決定してもよい。例えば、プロセッサ13は、図2に示すように、取得画像2の中部2bにおける所望の特徴量を高くし、取得画像2の上部2aにおける所望の特徴を低くし、取得画像2の下部2cにおける所望の特徴量を、上部2aの特徴量と中部2bの特徴量との間の値としてもよい。
また、プロセッサ13は、移動体1の挙動に応じて、所望の特徴量を決定してもよい。例えば、プロセッサ13は、移動体1が高速で移動している場合には、所望の特徴量を高くし、移動体1が低速で移動している場合には、所望の特徴量を低くしてもよい。
また、プロセッサ13は、撮像部11が撮像を行うフレームレートが可変である場合、移動体1の挙動に応じて、フレームレートと所望の特徴量とを決定してもよい。例えば、移動体1が高速で移動している場合、移動体1は高速道路を走行していると考えられる。
移動体1が高速道路を走行している場合、移動体1の単位時間当たりに移動量が大きいため、撮像部11の撮像間隔が長くなり過ぎないことが望ましい。また、移動体1の単位時間当たりに移動量が大きいため、ステレオマッチング処理に要する時間を短くすることが望ましい。したがって、プロセッサ13は、例えば、移動体1が高速道路を走行している場合、撮像部11のフレームレートを高くするとともに、所望の特徴量を低くする。
また、例えば、移動体1が低速で移動している場合、移動体1は市街地を走行していると考えられる。移動体1が市街地を走行している場合、移動体1の単位時間当たりの移動量は小さいが、歩行者の飛び出しなどが起きる可能性が高く、精度の高い距離情報が求められることが多い。したがって、プロセッサ13は、例えば、移動体1が低速で移動している場合、撮像部11のフレームレートを低くするとともに、所望の特徴量を高くする。こうすることで、プロセッサ13は、移動体1が移動する状況に適したマッチング処理を行うことができる。
次に、実際のステレオ画像、および、そのステレオ画像を用いたステレオマッチング処理により得られたディスパリティ・マップ(Disparity Map)を図3A-3D,4A-4D,5A-5Dに例示する。具体的には、左右に並んで配置された撮像部11aおよび撮像部11bそれぞれにより移動体1の前方を撮像した画像である左画像および右画像、および、これらの画像を用いたステレオマッチング処理により得られたディスパリティ・マップを例示する。ディスパリティ・マップとは、左画像および右画像の対応する部分ごとの視差をマッピングした画像である。図3A-図3D,図4A-図4D,図5A-図5Dにおいて、左画像および右画像それぞれの略中央分の矩形領域は、移動体1の前方に存在する車両の像に相当する領域である。
図3A-図3Dにおいては、前方の車両との距離が5mである場合の、左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す。
図3Aは、オリジナルの左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。オリジナルの画像のランク(オリジナルの画像に対応する行列の特異値分解により得られる対角行列のランク)は640である。
図3Bは、特異値分解による低ランク近似により特徴量を95%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは214である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約33(=214/640×100)%の成分が残り、他の成分は0となる。
図3Cは、特異値分解による低ランク近似により特徴量を90%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは127である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約19(=127/640×100)%の成分が残り、他の成分は0となる。
図3Dは、特異値分解による低ランク近似により特徴量を80%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは64である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約10(=64/640×100)%の成分が残り、他の成分は0となる。
図4A-図4Dにおいては、前方の車両との距離が20mである場合の、左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す。
図4Aは、オリジナルの左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。オリジナルの画像のランクは640である。
図4Bは、特異値分解による低ランク近似により特徴量を95%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは247である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約38(=247/640×100)%の成分が残り、他の成分は0となる。
図4Cは、特異値分解による低ランク近似により特徴量を90%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは147である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約22(=147/640×100)%の成分が残り、他の成分は0となる。
図4Dは、特異値分解による低ランク近似により特徴量を80%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは67である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約10(=67/640×100)%の成分が残り、他の成分は0となる。
図5A-図5Dにおいては、前方の車両との距離が30mである場合の、左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す。
図5Aは、オリジナルの左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップを示す図である。オリジナルの画像のランクは640である。
図5Bは、特異値分解による低ランク近似により特徴量を95%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは249である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約38(=249/640×100)%の成分が残り、他の成分は0となる。
図5Cは、特異値分解による低ランク近似により特徴量を90%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは149である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約23(=149/640×100)%の成分が残り、他の成分は0となる。
図5Dは、特異値分解による低ランク近似により特徴量を80%に圧縮した左画像および右画像と、これらの画像を用いて得られたディスパリティ・マップとを示す図である。特異値分解による低ランク近似後の画像のランクは66である。この場合、特異値分解による低ランク近似後の画像に対応する行列では、オリジナルの画像に対応する行列の成分のうち、約10(=66/640×100)%の成分が残り、他の成分は0となる。
図3A-図3Dに示すように、オリジナルの左画像および右画像を用いた場合にも、特異値分解による低ランク近似後の左画像および右画像を用いた場合にも、前方の車両までの距離(5m)を正確に検出することができた。また、図4A-図4Dおよび図5A-図5Dに示すように、前方の車両までの距離が離れても、オリジナルの左画像および右画像を用いた場合にも、特異値分解による低ランク近似後の左画像および右画像を用いた場合にも、前方の車両までの距離を正確に検出することができた。したがって、特異値分解による低ランク近似後の画像を用いても、距離の検出精度の低下は抑制されることが確認された。
また、上述したように、例えば、特異値分解による低ランク近似により、特徴量を80%に圧縮した場合、特異値分解による低ランク近似後の画像に対応する行列は、オリジナルの画像に対応する行列の成分のうち、約10%の成分が残り、他の成分は0である、疎な行列である。このような疎な行列に対応する画像を用いたステレオマッチング処理では、0をかける、あるいは、0を足すといった計算結果が明らかな計算を省略することができるので、ステレオマッチング処理の処理負荷を低減することができる。
次に、本実施形態に係る画像処理装置10における画像処理方法について、図6に示すフローチャートを参照して説明する。画像処理装置10は、図6に示すフローを、例えば、所定の時間間隔で繰り返す。
インターフェイス12は、撮像部11aが撮像した基準画像、および、撮像部11bが撮像した参照画像を取得する(ステップS11)。すなわち、インターフェイス12は、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得する。
プロセッサ13は、インターフェイス12により取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行う(ステップS12)。
次に、プロセッサ13は、特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出する(ステップS13)。
このように、本実施形態においては、画像処理装置10は、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイス12と、取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサ13と、を備える。
基準画像および参照画像に対応する行列の特異値分解により得られる対角行列のランクを下げる低ランク近似を行うことで、特異値分解による低ランク後の行列では、より多くの要素がゼロとなる。そのため、0をかけるあるいは0を足すといった結果が自明な計算を省略することができるので、ステレオマッチング処理の処理負荷を低減することができる。また、特異値分解による低ランク近似では、特徴の乏しい部分が優先的に圧縮され、特徴的な部分は残るので、ステレオマッチング処理による距離の検出精度の低下を抑制することができる。
本開示の一実施形態を諸図面および実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。従って、これらの変形および修正は本開示の範囲に含まれることに留意されたい。
1 移動体
1A 撮像装置
10 画像処理装置
11a,11b 撮像部
12 インターフェイス
13 プロセッサ
14 メモリ
111a,111b 撮像光学系
112a,112b 撮像素子

Claims (7)

  1. 異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、
    前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える画像処理装置。
  2. 前記プロセッサは、
    前記インターフェイスにより取得された基準画像および参照画像それぞれに対応する行列を、左特異値行列と、第1の対角行列と、右特異値行列とに分解し、前記左特異値行列と、前記第1の対角行列のランクを下げた第2の対角行列と、前記右特異値行列との内積により得られる行列それぞれに対応する画像を、前記特異値分解による低ランク近似後の基準画像と参照画像とし、
    前記特異値分解による低ランク近似後の基準画像および参照画像における所望の特徴量に応じて、前記第2の対角行列のランクを決定する、請求項1に記載の画像処理装置。
  3. 前記プロセッサは、前記基準画像および前記参照画像のエリアに応じて、前記所望の特徴量を異ならせる、請求項2に記載の画像処理装置。
  4. 前記基準画像及び前記参照画像は、移動体に搭載された撮像装置により撮像され、
    前記プロセッサは、前記移動体の挙動に応じて、前記所望の特徴量を異ならせる、請求項2または3に記載の画像処理装置。
  5. 第1の撮像光学系と、前記第1の撮像光学系を介して結像した像を撮像する第1の撮像素子とを備える第1の撮像部と、
    第2の撮像光学系と、前記第2の撮像光学系を介して結像した像を撮像する第2の撮像素子とを備え、前記第1の撮像部とは異なる視点から撮像する第2の撮像部と、
    前記第1の撮像部および前記第2の撮像部により撮像された、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、
    前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える撮像装置。
  6. 移動体であって、
    前記移動体の周辺を撮像する撮像装置を備え、
    前記撮像装置は、
    第1の撮像光学系と、前記第1の撮像光学系を介して結像した像を撮像する第1の撮像素子とを備える第1の撮像部と、
    第2の撮像光学系と、前記第2の撮像光学系を介して結像した像を撮像する第2の撮像素子とを備え、前記第1の撮像部とは異なる視点から撮像する第2の撮像部と、
    前記第1の撮像部および前記第2の撮像部により撮像された、異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するインターフェイスと、
    前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するプロセッサと、を備える移動体。
  7. 画像処理装置における画像処理方法であって、
    異なる視点から撮像された基準画像と参照画像とを含むステレオ画像を取得するステップと、
    前記取得された基準画像および参照画像に対して、特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の基準画像と参照画像との間でステレオマッチング処理を行うことにより視差を算出するステップと、を含む画像処理方法。
JP2018203192A 2018-10-29 2018-10-29 画像処理装置、撮像装置、移動体および画像処理方法 Active JP7023212B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018203192A JP7023212B2 (ja) 2018-10-29 2018-10-29 画像処理装置、撮像装置、移動体および画像処理方法
EP19880425.4A EP3876199A4 (en) 2018-10-29 2019-10-01 IMAGE PROCESSING APPARATUS, IMAGE CAPTURE APPARATUS, MOBILE OBJECT AND IMAGE PROCESSING METHOD
CN201980069371.6A CN112912930A (zh) 2018-10-29 2019-10-01 图像处理装置、拍摄装置、移动体以及图像处理方法
US17/288,829 US11430147B2 (en) 2018-10-29 2019-10-01 Image processing apparatus, imaging apparatus, mobile body, and image processing method
PCT/JP2019/038805 WO2020090329A1 (ja) 2018-10-29 2019-10-01 画像処理装置、撮像装置、移動体および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203192A JP7023212B2 (ja) 2018-10-29 2018-10-29 画像処理装置、撮像装置、移動体および画像処理方法

Publications (2)

Publication Number Publication Date
JP2020071531A JP2020071531A (ja) 2020-05-07
JP7023212B2 true JP7023212B2 (ja) 2022-02-21

Family

ID=70464062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203192A Active JP7023212B2 (ja) 2018-10-29 2018-10-29 画像処理装置、撮像装置、移動体および画像処理方法

Country Status (5)

Country Link
US (1) US11430147B2 (ja)
EP (1) EP3876199A4 (ja)
JP (1) JP7023212B2 (ja)
CN (1) CN112912930A (ja)
WO (1) WO2020090329A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206893A (ja) 2013-04-15 2014-10-30 ソニー株式会社 画像処理装置と画像処理方法およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3348939B2 (ja) * 1993-11-26 2002-11-20 富士重工業株式会社 車輌用距離検出装置
KR100918480B1 (ko) * 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
JP5368350B2 (ja) * 2010-03-18 2013-12-18 富士フイルム株式会社 立体撮像装置
JP5468482B2 (ja) * 2010-07-14 2014-04-09 シャープ株式会社 画像撮像装置
US9225962B2 (en) * 2012-07-16 2015-12-29 Cisco Technology, Inc. Stereo matching for 3D encoding and quality assessment
CN103517065B (zh) * 2013-09-09 2015-04-08 宁波大学 一种质降参考立体图像质量客观评价方法
JP2016045170A (ja) * 2014-08-26 2016-04-04 富士フイルム株式会社 測距装置、方法及びプログラム
US9466108B1 (en) * 2015-03-31 2016-10-11 Nokia Technologies Oy Method and apparatus for multiple image registration in the gradient domain
KR102415505B1 (ko) * 2015-12-14 2022-07-01 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
CN108068697A (zh) * 2016-11-11 2018-05-25 法乐第(北京)网络科技有限公司 基于汽车的摄像***、方法及汽车
US10757393B2 (en) * 2018-05-06 2020-08-25 American Advanced Technology, Llc Method and apparatus for measuring characteristics of a surface topology

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014206893A (ja) 2013-04-15 2014-10-30 ソニー株式会社 画像処理装置と画像処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森垣潤一 外1名,高次特異値分解の画像分類への応用,電子情報通信学会 第19回データ工学ワークショップ論文集,2008年04月07日,第1-6頁

Also Published As

Publication number Publication date
EP3876199A1 (en) 2021-09-08
WO2020090329A1 (ja) 2020-05-07
US11430147B2 (en) 2022-08-30
EP3876199A4 (en) 2022-08-10
CN112912930A (zh) 2021-06-04
US20210358159A1 (en) 2021-11-18
JP2020071531A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
CN106462996B (zh) 无失真显示车辆周边环境的方法和装置
US10558867B2 (en) Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
JP5267596B2 (ja) 移動体検出装置
JP6456499B2 (ja) 立体物検出装置、ステレオカメラ装置、車両及び立体物検出方法
WO2016063545A1 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP6907513B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
US10776649B2 (en) Method and apparatus for monitoring region around vehicle
Chen et al. Vision-based distance estimation for multiple vehicles using single optical camera
JP2020508501A (ja) 移動オブジェクトのレンジを推定する方法および装置
JPWO2019082628A1 (ja) 画像処理装置、撮像装置、運転支援装置、移動体、および画像処理方法
JP6674959B2 (ja) 視差算出装置、ステレオカメラ装置、車両および視差算出方法
JP7023212B2 (ja) 画像処理装置、撮像装置、移動体および画像処理方法
JP2017207881A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6959032B2 (ja) 位置推定装置、移動装置
JP7034050B2 (ja) 画像処理装置、カメラ、移動体および画像処理方法
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
JP7345601B2 (ja) 画像処理装置、カメラ、移動体および画像処理方法
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
EP3324336B1 (en) Information processing device, information processing method, and carrier means
JP2005267388A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220208

R150 Certificate of patent or registration of utility model

Ref document number: 7023212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150