JP2018147241A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP2018147241A JP2018147241A JP2017041838A JP2017041838A JP2018147241A JP 2018147241 A JP2018147241 A JP 2018147241A JP 2017041838 A JP2017041838 A JP 2017041838A JP 2017041838 A JP2017041838 A JP 2017041838A JP 2018147241 A JP2018147241 A JP 2018147241A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- image
- frame image
- vehicle
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】特徴量の検出及びマッチングに必要な演算量を、精度を確保しながら削減する。【解決手段】画像処理装置10において、特徴量マッチング部16は、第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする。特徴量位置予測部14は、車両の挙動を示す検出値をもとに、取得された動画像の2次元画像上における車両の移動量を推定し、推定した移動量と、第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における特徴量の位置を予測する。注目領域設定部15は、第(n+1)フレーム画像内における予測された特徴量の位置を含む注目領域を設定する。特徴量検出部12は、第(n+1)フレーム画像内に設定された注目領域を、特徴量の探索範囲とする。【選択図】図2
Description
本発明は、画像内から特徴量を検出し、検出した特徴量をフレーム間でマッチングする画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年、先進運転支援システム(ADAS)・自動運転の開発が進んでおり、車載カメラのニーズが増大している。車載カメラで撮像された画像内において特徴量を検出し、フレーム間の特徴量をマッチングさせることにより、オブジェクトの動きを追従したり、オブジェクトまでの距離を推定したりすることができる。
画像内で検出される特徴量として一般に、SIFT (Scale-invariant feature transform)、SURF (Speed-Upped Robust Feature) 、Harrisコーナ、KAZE、ORB(Oriented-BRIEF)などが使用されている。
特徴量の検出及びマッチングは、検出率の向上、マッチング率の向上及び誤マッチング率の削減の要請から、画像全域に対して総当たりで行われることが一般的である。しかしながら、画像全域での特徴量の検出及びマッチングには膨大な演算量が必要となり、処理時間が長くなる。
本発明はこうした状況に鑑みなされたものであり、その目的は、特徴量の検出及びマッチングに必要な演算量を、精度を確保しながら削減する技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像処理装置は、車両で用いられる撮像部により撮像される動画像を取得する画像入力部と、前記画像入力部により取得される動画像の第n(nは自然数)フレーム画像内から特徴量を検出する特徴量検出部と、第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする特徴量マッチング部と、前記車両の挙動を示す検出値を取得する車両情報入力部と、前記車両情報入力部により取得された検出値をもとに、前記画像入力部により取得された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する特徴量位置予測部と、前記特徴量位置予測部により予測された第(n+1)フレーム画像内における前記特徴量の位置を含む注目領域を設定する注目領域設定部と、を備える。前記特徴量検出部は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、特徴量の検出及びマッチングに必要な演算量を、精度を確保しながら削減することができる。
図1は、本発明の実施の形態に係る撮像システム1を説明するための図である。撮像システム1は車両に設置され、車両の前方を撮影するフロントカメラシステムである。なお、車両の後方を撮影するリアカメラシステム、車両の側方を撮影するサイドカメラシステムであってもよい。撮像システム1は撮像部20及び画像処理装置10を備える。撮像部20が実装される基板と、画像処理装置10が実装される基板は1つの筐体に一体的に収納されてもよいし、別々の筐体に分離されて収納されてもよい。後者の場合、撮像部20と画像処理装置10間は有線または無線で接続される。
撮像部20は、固体撮像素子及び信号処理回路を含む。固体撮像素子には例えば、CMOSイメージセンサ又はCCDイメージセンサを使用することができる。固体撮像素子は入射光を電気的な画像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を実行し、画像処理装置10に出力する。なお当該信号処理回路で、歪み補正、フレーム/画素の間引き等の所定の前処理を実行してもよい。
画像処理装置10は車載ネットワーク2に接続される。車載ネットワーク2には例えば、CAN(Controller Area Network)を使用することができる。車載ネットワーク2には、ECU(Electronic Control Unit)3が接続される。センサ4は、車両の挙動を示す物理量を検出するセンサの総称であり、例えば、車速センサ、舵角センサ、ジャイロセンサ、GPSセンサ等が含まれる。ECU3は、センサ4を制御するECUの総称である。
図2は、図1の画像処理装置10の構成を示すブロック図である。画像処理装置10は、画像入力部11、特徴量検出部12、車両情報入力部13、特徴量位置予測部14、注目領域設定部15、特徴量マッチング部16、及びアプリケーション処理部17を備える。これらの機能ブロックは、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてCPU、GPU、DSP、FPGA、ROM、RAM、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、ファームウェア、アプリケーション等のプログラムを利用できる。
画像入力部11は、撮像部20から10〜30fpsで動画像を取得する。特徴量検出部12は、画像入力部11により取得された動画像の各フレーム画像から特徴量を検出する。特徴量には、SIFT、SURF、Harrisコーナ、KAZE、ORB等の特徴点を用いてもよいし、HOL(Histograms of Oriented Lines)などの直線線分を用いてもよい。特徴量検出部12は、初期のフレーム画像では、画像全域を探索範囲として特徴量を検出する。特徴量検出部12は、検出した特徴量を特徴量マッチング部16に渡す。
車両情報入力部13は、車載ネットワーク2を介して車両の挙動を示すセンサ4の検出値を取得する。特徴量位置予測部14は、車載ネットワーク2から得られた検出値をもとに、3次元世界座標空間における単位フレーム間の車両の移動量(R,t)を算出する。例えば、舵角センサから得られる内輪舵角と外輪舵角、及び予め設定された車両のホイールベースとトレッドをもとにアッカーマンモデルに基づき車両の回転成分Rを算出し、車速センサから得られる車速をもとに平行移動成分tを算出する。なお、ジャイロセンサ及び/又はGPSセンサの検出値を用いた、さらに精緻なモデルに基づき車両の移動量(R,t)を算出してもよい。
特徴量位置予測部14は、算出した3次元世界座標空間における単位フレーム間の車両の移動量(R,t)を、撮像部20の内部パラメータ(焦点距離、固体撮像素子のサイズ及び画素数)に基づき2次元画像座標空間に投影する。投影モデルは一般的なものを使用することができる。
特徴量位置予測部14は、算出した2次元画像座標空間における単位フレーム間の車両の移動量(dx,dy)を、特徴量検出部12により第n(nは自然数)フレーム画像内から検出された特徴量の位置に加算して、第(n+1)フレーム画像内における当該特徴量の位置を予測する。注目領域設定部15は、特徴量位置予測部14により予測された特徴量の位置を含む注目領域(以下、ROI(Region of Interest)領域という)を設定する。
具体的には注目領域設定部15は、第(n+1)フレーム画像内において、(x±thr,y±thr)の範囲にROI領域を設定する。(x,y)は特徴量の予測位置、thrは閾値を示している。車両の移動量(dx,dy)を推定する過程での演算誤差、及び車載ネットワーク2に加わる外乱ノイズ等による同期ずれの影響を考慮し、特徴量の予測位置をパッチに拡張している。ROI領域のサイズ(即ち、閾値thrの大きさ)は、撮像部20の仕様、車載ネットワーク2の仕様、画像処理装置10の仕様、及びフレームレートに基づき予め設定される。各部材の仕様が高いほどROI領域のサイズを小さく設定できる。ROI領域のサイズを小さく設定するほど演算量を削減することができる。なお、フレームレートが高いほどROI領域のサイズを小さく設定してもよい。フレームレートが高いと2次元画像空間における車両の移動量(dx,dy)が小さくなり、移動量(dx,dy)が小さくなると誤差の影響も小さくなる。
なお、注目領域設定部15はROI領域のサイズを、車速に基づき適用的に変化させてもよい。車速が速いほどROI領域のサイズを拡大し、車速が遅いほどROI領域のサイズを縮小する。車速が速いほど2次元画像空間における車両の移動量(dx,dy)が大きくなり、誤差の影響が大きくなる。ROI領域のサイズを大きくすると誤差の影響を緩和することができる。
特徴量検出部12は、第(n+1)フレーム画像内において、注目領域設定部15により設定されたROI領域を探索範囲として特徴量を検出する。特徴量検出部12は、検出した特徴量を特徴量マッチング部16に渡す。特徴量マッチング部16は、第nフレーム画像内において検出された特徴量と、第(n+1)フレーム画像内のROI領域内において検出された特徴量とをマッチングし、一致または不一致を示す判定結果を出力する。特徴量マッチング部16は、一致した特徴量の値と位置を含む特徴量の検出情報をアプリケーション処理部17に提供する。
特徴量マッチング部16は上記マッチング処理を、フレーム画像内で検出された特徴量ごとに実行する。特徴量マッチング部16は、フレーム画像間で一致した特徴点の数と設定数を比較し、一致した特徴点の数が設定数に満たない場合、その不足数を特徴量検出部12に通知する。特徴量検出部12は当該通知を受けると、第(n+1)フレーム画像内のROI領域外において新たな特徴量を探索する。特徴量検出部12は第(n+1)フレーム画像の特徴点の数が上記設定数に到達するまで特徴点を検出し、検出した特徴点を第(n+1)フレーム画像の特徴点として追加する。
上記設定数の値は、アプリケーション処理部17の処理内容及び要求精度に基づき決定される。例えば、移動体を追従するアプリケーションの場合、フレーム画像間における移動体の同一性を担保するため比較的多くの特徴量が求められる。
アプリケーション処理部17は、特徴量マッチング部16から提供されるフレーム画像間で一致した特徴点の検出情報をもとに所定のアプリケーション処理を実行する。例えば、所定のアプリケーション処理としてSFM(Structure from Motion)、オブジェクトの追従などを実行する。SFMは、単眼カメラで撮像された時系列のフレーム画像から、オブジェクトの距離、高さ・幅の3次元情報の推定する技術である。
図3は、本発明の実施の形態に係る画像処理装置10の動作例を示すフローチャートである。画像入力部11は、撮像部20から第nフレーム画像(初期のフレーム画像)を取得する(S10)。特徴量検出部12は、取得された第nフレーム画像の全域から特徴量を検出する(S11)。
車両情報入力部13は、車載ネットワーク2を介して車両の舵角および車速を取得する(S12)。特徴量位置予測部14は、取得された車両の舵角および車速をもとに、単位フレーム間における車両の3次元空間上の移動量を算出する(S13)。特徴量位置予測部14は、車両の3次元空間上の移動量を、撮像部20の内部パラメータをもとに2次元画像空間上の移動量に投影する(S14)。特徴量位置予測部14は、第nフレーム画像内で検出された特徴量の位置と、算出された2次元画像空間上の車両の移動量をもとに第(n+1)フレーム画像内の当該特徴量の位置を予測する(S15)。
画像入力部11は、撮像部20から第(n+1)フレーム画像を取得する(S16)。注目領域設定部15は、取得された第(n+1)フレーム画像内に、ステップS15で予測された特徴量の位置を中心に含むROI領域を設定する(S17)。特徴量検出部12は、第(n+1)フレーム画像のROI領域内から特徴量を検出する(S18)。
特徴量マッチング部16は、第nフレーム画像で検出された複数の特徴量と、第(n+1)フレーム画像で検出された複数の特徴量とをマッチングする(S19)。特徴量マッチング部16は、マッチングがとれた特徴量の数(以下、検出数という)をカウントする(S20)。特徴量マッチング部16は、検出数と設定数を比較し(S21)、検出数が設定数未満の場合(S21のY)、特徴量検出部12は第(n+1)フレーム画像内のROI領域外から、設定数に到達するまで新たな特徴量を検出する(S22)。検出数が設定数以上の場合(S21のN)、ステップS22の処理はスキップされる。
アプリケーション処理部17は、マッチングがとれた特徴量の検出情報をもとにアプリケーション処理を実行する(S23)。nがインクリメントされ(S24)、撮像部20によるシーンの撮影が終了するまで(S25のY)、ステップS12に遷移して、ステップS12からステップS24までの処理が繰り返し実行される(S25のN)。
図4は、特徴量検出とROI領域設定の具体例を示す図である。図4において、A地点は撮像部20が第nフレーム画像を撮像したときの位置を示し、B地点は撮像部20が第(n+1)フレーム画像を撮像したときの位置を示している。即ち、単位フレーム期間(フレームレートが10Hzの場合、1/10秒)にA地点からB地点に、撮像部20を搭載した車両が移動した状態を示している。
A地点からもB地点からも3次元物体OB1は、撮像部20の画角の範囲内に位置する。A地点で撮像された第nフレーム画像内では、左側に3次元物体ob1が投影される。特徴量検出部12は、第nフレーム画像内に投影された3次元物体ob1の正面の左上頂点を第1特徴点P1(u1,v1)として検出し、右上頂点を第2特徴点P2(u2,v2)として検出する。
特徴量位置予測部14は、車載ネットワーク2から得られる舵角および車速をもとに、3次元世界座標空間(X,Y,Z)における車両の移動量(R,t)を算出する。特徴量位置予測部14は、3次元の移動量(R,t)を2次元画像座標空間(X,Z)に投影し、2次元画像座標空間(X,Z)における移動量(dx,dy)を算出する。特徴量位置予測部14は、第1特徴点P1(u1,v1)の座標及び第2特徴点P2(u2,v2)の座標を移動量(dx,dy)に従いそれぞれ移動させて、それぞれの予測位置座標を算出する。
注目領域設定部15は、第(n+1)フレーム画像において、移動された第1特徴点P1の予測位置を中心とする第1ROI領域R1を設定し、移動された第2特徴点P2の予測位置を中心とする第2ROI領域R2を設定する。特徴量検出部12は、第(n+1)フレーム画像の第1ROI領域R1内において第1特徴点を、第2ROI領域R2内において第2特徴点をそれぞれ探索する。図4に示す例では、第1ROI領域R1内において第1特徴点P1(u1’,v1’)が、第2ROI領域R2内において第2特徴点P2(u2’,v2’)がそれぞれ検出され、第nフレーム画像と第(n+1)フレーム画像間において、第1特徴点P1と第2特徴点P2が共にマッチングがとれた状態を示している。
図5は、ROI領域外から特徴量を追加で検出する場合の具体例を示す図である。図5は、図4の第(n+1)フレーム画像内から特徴点を追加で検出する例を示している。必要な特徴点の数が5個の場合、特徴点を追加で3個検出する必要がある。特徴量検出部12は、第(n+1)フレーム画像内の所定の探索範囲S1内から、3次元物体ob1の正面の左下頂点を第3特徴点P3として、正面の右下頂点を第4特徴点P4として、右側面の右下頂点を第5特徴点P5としてそれぞれ検出する。
所定の探索範囲S1は画像内の中央部に設定される。車両に搭載された撮像部20で撮像された画像内の上部領域Rtは通常、空が写るか又は無限遠となる領域である。従って上部領域Rtには有意な特徴点が存在する可能性が低い。撮像部20を車両の一般的な場所に設置した場合、撮像された画像の下部領域Rbは車両ボディが写り込む領域である。従って下部領域Rbにも有意な特徴点が存在する可能性が低い。撮像された画像の左端領域Rl及び右端領域Rrは、歪み補正誤差や補間誤差が発生しやすい領域である。特に魚眼レンズを搭載した広角カメラを使用している場合、歪み補正誤差や補間誤差が発生しやすい。
図6(a)、(b)は、魚眼レンズを搭載した広角カメラを、リアカメラとして使用した場合に撮像される画像の一例を示す図である。図6(a)を魚眼レンズを用いて撮像された画像I1を、図6(b)は図6(a)の画像I1を補正した後の画像I2をそれぞれ示している。魚眼レンズを用いて撮像された画像I1は、魚眼レンズの視野角に応じて設定された歪パラメータに基づき座標変換される。座標変換された後の図6(b)に示す画像I2では、上部領域にブランクが発生する。また下部領域には変換後も車両ボディが写り込んでいる。左端領域Rl及び右端領域Rrにはレンズブラーが発生し、特徴点が検出しにくくなっている。そこで画像の中央部を探索範囲S1に設定している。
以上説明したように本実施の形態によれば、第nフレーム画像で検出した特徴量に対応する特徴量を第(n+1)フレーム画像内で探索する際に、その探索範囲をROI範囲に限定することにより、演算量を大幅に削減することができる。またROI範囲を、車両の移動量に応じて移動させた領域に設定することにより、マッチング率の低下を抑えることができる。車載カメラの場合、フレーム画像間の移動量は高速に移動している場合を除き軽微であり、対応する特徴量を、次フレーム画像の全域に対して総当たりで探索するのは効率が悪い。現フレーム画像内で検出された特徴量の位置の近傍範囲を次フレーム画像で探索することも考えられるが、車両が高速に移動している場合、その近傍範囲から特徴量が外れる可能性が高くなる。これに対して本実施の形態によれば、車両の移動量に応じて探索範囲を移動させるため、次フレーム画像での対応する特徴量の検出率を高く維持することができる。
また特徴量を追加する場合、画像内において有効な特徴量を検出しやすい領域を探索範囲に設定することにより、画像全域を探索する場合より演算量を削減することができる。車載カメラの場合、画像内の構図はほぼ決まっており、有効な探索範囲を予め設定することが容易である。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素または各処理プロセスの組み合わせに、いろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば、上述の実施の形態ではROI領域を矩形の領域に設定する例を示したが、円形や五角形以上の多角形の領域に設定してもよい。また特徴量の予測位置をROI領域の中心に設定する例を設定したが、画像内の端部において、設定されるべきROI領域が画像領域からはみ出す場合、はみ出す領域が発生しないようにROI領域を中央の方向へスライドさせてもよい。その場合、特徴量の予測位置はROI領域の中心からずれた位置になる。
なお、実施の形態は、以下の項目によって特定されてもよい。
[項目1]
車両で用いられる撮像部(20)により撮像される動画像を取得する画像入力部(11)と、
前記画像入力部(11)により取得される動画像の第n(nは自然数)フレーム画像内から特徴量を検出する特徴量検出部(12)と、
第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする特徴量マッチング部(16)と、
前記車両の挙動を示す検出値を取得する車両情報入力部(13)と、
前記車両情報入力部(13)により取得された検出値をもとに、前記画像入力部(11)により取得された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する特徴量位置予測部(14)と、
前記特徴量位置予測部(14)により予測された第(n+1)フレーム画像内における前記特徴量の位置を含む注目領域を設定する注目領域設定部(15)と、を備え、
前記特徴量検出部(12)は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理装置(10)。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
[項目2]
前記特徴量位置予測部(14)は、前記車両内のネットワーク(2)を介して前記車両の検出値として舵角および車速を取得し、当該舵角および車速をもとに単位フレーム間における前記車両の3次元空間上の移動量を算出し、算出した前記車両の3次元空間上の移動量を前記撮像部(20)の内部パラメータをもとに前記2次元画像上の移動量に投影することを特徴とする項目1に記載の画像処理装置(10)。
これによれば、車両の2次元画像空間内における移動量を高精度に推定することができる。
[項目3]
前記注目領域設定部(15)は、前記特徴量位置予測部(14)により予測される第(n+1)フレーム画像内における前記特徴量の位置を中心に上下左右に所定の画素数を拡張した領域を、前記注目領域に設定することを特徴とする項目1または2に記載の画像処理装置(10)。
これによれば、適切な注目領域を設定することができる。
[項目4]
前記特徴量マッチング部(16)により第nフレーム画像と第(n+1)フレーム画像間でマッチングがとれた特徴量の数が設定数未満の場合、前記特徴量検出部(12)は、前記第(n+1)フレーム画像内において前記注目領域以外の領域で新たな特徴点を探索することを特徴とする項目1から3のいずれか1項に記載の画像処理装置(10)。
これによれば、特徴量の数を必要な数、確保することができる。
[項目5]
車両で用いられる撮像部(20)により撮像される動画像を取得するステップと、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出するステップと、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングするステップと、
前記車両の挙動を示す検出値を取得するステップと、
前記検出値をもとに、前記撮像部(20)により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測するステップと、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定するステップと、を有し、
前記特徴量を検出するステップは、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理方法。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
[項目6]
車両で用いられる撮像部(20)により撮像される動画像を取得する処理と、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出する処理と、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする処理と、
前記車両の挙動を示す検出値を取得する処理と、
前記検出値をもとに、前記撮像部(20)により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する処理と、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定する処理と、をコンピュータに実行させ、
前記特徴量を検出する処理は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理プログラム。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
車両で用いられる撮像部(20)により撮像される動画像を取得する画像入力部(11)と、
前記画像入力部(11)により取得される動画像の第n(nは自然数)フレーム画像内から特徴量を検出する特徴量検出部(12)と、
第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする特徴量マッチング部(16)と、
前記車両の挙動を示す検出値を取得する車両情報入力部(13)と、
前記車両情報入力部(13)により取得された検出値をもとに、前記画像入力部(11)により取得された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する特徴量位置予測部(14)と、
前記特徴量位置予測部(14)により予測された第(n+1)フレーム画像内における前記特徴量の位置を含む注目領域を設定する注目領域設定部(15)と、を備え、
前記特徴量検出部(12)は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理装置(10)。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
[項目2]
前記特徴量位置予測部(14)は、前記車両内のネットワーク(2)を介して前記車両の検出値として舵角および車速を取得し、当該舵角および車速をもとに単位フレーム間における前記車両の3次元空間上の移動量を算出し、算出した前記車両の3次元空間上の移動量を前記撮像部(20)の内部パラメータをもとに前記2次元画像上の移動量に投影することを特徴とする項目1に記載の画像処理装置(10)。
これによれば、車両の2次元画像空間内における移動量を高精度に推定することができる。
[項目3]
前記注目領域設定部(15)は、前記特徴量位置予測部(14)により予測される第(n+1)フレーム画像内における前記特徴量の位置を中心に上下左右に所定の画素数を拡張した領域を、前記注目領域に設定することを特徴とする項目1または2に記載の画像処理装置(10)。
これによれば、適切な注目領域を設定することができる。
[項目4]
前記特徴量マッチング部(16)により第nフレーム画像と第(n+1)フレーム画像間でマッチングがとれた特徴量の数が設定数未満の場合、前記特徴量検出部(12)は、前記第(n+1)フレーム画像内において前記注目領域以外の領域で新たな特徴点を探索することを特徴とする項目1から3のいずれか1項に記載の画像処理装置(10)。
これによれば、特徴量の数を必要な数、確保することができる。
[項目5]
車両で用いられる撮像部(20)により撮像される動画像を取得するステップと、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出するステップと、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングするステップと、
前記車両の挙動を示す検出値を取得するステップと、
前記検出値をもとに、前記撮像部(20)により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測するステップと、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定するステップと、を有し、
前記特徴量を検出するステップは、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理方法。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
[項目6]
車両で用いられる撮像部(20)により撮像される動画像を取得する処理と、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出する処理と、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする処理と、
前記車両の挙動を示す検出値を取得する処理と、
前記検出値をもとに、前記撮像部(20)により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する処理と、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定する処理と、をコンピュータに実行させ、
前記特徴量を検出する処理は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理プログラム。
これによれば、特徴量の探索範囲を、予測される位置を含む所定の探索範囲に絞り込むことができ、検出精度を確保しつつ演算量を削減することができる。
1 撮像システム、 2 車載ネットワーク、 3 ECU、 4 センサ、 10 画像処理装置、 11 画像入力部、 12 特徴量検出部、 13 車両情報入力部、 14 特徴量位置予測部、 15 注目領域設定部、 16 特徴量マッチング部、 17 アプリケーション処理部、 20 撮像部。
Claims (6)
- 車両で用いられる撮像部により撮像される動画像を取得する画像入力部と、
前記画像入力部により取得される動画像の第n(nは自然数)フレーム画像内から特徴量を検出する特徴量検出部と、
第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする特徴量マッチング部と、
前記車両の挙動を示す検出値を取得する車両情報入力部と、
前記車両情報入力部により取得された検出値をもとに、前記画像入力部により取得された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する特徴量位置予測部と、
前記特徴量位置予測部により予測された第(n+1)フレーム画像内における前記特徴量の位置を含む注目領域を設定する注目領域設定部と、を備え、
前記特徴量検出部は、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理装置。 - 前記特徴量位置予測部は、前記車両内のネットワークを介して前記車両の検出値として舵角および車速を取得し、当該舵角および車速をもとに単位フレーム間における前記車両の3次元空間上の移動量を算出し、算出した前記車両の3次元空間上の移動量を前記撮像部の内部パラメータをもとに前記2次元画像上の移動量に投影することを特徴とする請求項1に記載の画像処理装置。
- 前記注目領域設定部は、前記特徴量位置予測部により予測される第(n+1)フレーム画像内における前記特徴量の位置を中心に上下左右に所定の画素数を拡張した領域を、前記注目領域に設定することを特徴とする請求項1または2に記載の画像処理装置。
- 前記特徴量マッチング部により第nフレーム画像と第(n+1)フレーム画像間でマッチングがとれた特徴量の数が設定数未満の場合、前記特徴量検出部は、前記第(n+1)フレーム画像内において前記注目領域以外の領域で新たな特徴点を探索することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
- 車両で用いられる撮像部により撮像される動画像を取得するステップと、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出するステップと、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングするステップと、
前記車両の挙動を示す検出値を取得するステップと、
前記検出値をもとに、前記撮像部により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測するステップと、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定するステップと、を有し、
前記特徴量を検出するステップは、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理方法。 - 車両で用いられる撮像部により撮像される動画像を取得する処理と、
前記動画像の第n(nは自然数)フレーム画像内から特徴量を検出する処理と、
前記第nフレーム画像内で検出された特徴量と、第(n+1)フレーム画像内で検出された特徴量とをマッチングする処理と、
前記車両の挙動を示す検出値を取得する処理と、
前記検出値をもとに、前記撮像部により撮像された動画像の2次元画像上における前記車両の移動量を推定し、推定した移動量と、前記第nフレーム画像内で検出された特徴量の位置をもとに、第(n+1)フレーム画像内における前記特徴量の位置を予測する処理と、
前記第(n+1)フレーム画像内における予測された前記特徴量の位置を含む注目領域を設定する処理と、をコンピュータに実行させ、
前記特徴量を検出するステップは、第(n+1)フレーム画像内に設定された注目領域を、前記特徴量の探索範囲とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041838A JP2018147241A (ja) | 2017-03-06 | 2017-03-06 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041838A JP2018147241A (ja) | 2017-03-06 | 2017-03-06 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147241A true JP2018147241A (ja) | 2018-09-20 |
Family
ID=63592101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041838A Pending JP2018147241A (ja) | 2017-03-06 | 2017-03-06 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018147241A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022001991A (ja) * | 2020-06-19 | 2022-01-06 | 沖電気工業株式会社 | 画像処理装置、画像処理プログラム、及び画像処理方法 |
EP4375930A1 (en) | 2022-11-25 | 2024-05-29 | Fujitsu Limited | Position measuring program, information processing device, and position measuring method |
-
2017
- 2017-03-06 JP JP2017041838A patent/JP2018147241A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022001991A (ja) * | 2020-06-19 | 2022-01-06 | 沖電気工業株式会社 | 画像処理装置、画像処理プログラム、及び画像処理方法 |
EP4375930A1 (en) | 2022-11-25 | 2024-05-29 | Fujitsu Limited | Position measuring program, information processing device, and position measuring method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9854171B2 (en) | Image stabilizing apparatus and method based on a predicted movement position | |
JP6230751B1 (ja) | 物体検出装置および物体検出方法 | |
JP5284048B2 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP5267596B2 (ja) | 移動体検出装置 | |
US20120219183A1 (en) | 3D Object Detecting Apparatus and 3D Object Detecting Method | |
CN106780550B (zh) | 一种目标跟踪方法及电子设备 | |
JP2010257377A (ja) | 車両周辺監視装置 | |
JP2017058274A (ja) | 計測装置、方法及びプログラム | |
JP2016152027A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US10362231B2 (en) | Head down warning system | |
JP6617150B2 (ja) | 物体検出方法及び物体検出装置 | |
JP6065629B2 (ja) | 物体検知装置 | |
CN108369739B (zh) | 物体检测装置和物体检测方法 | |
US20140226908A1 (en) | Object detection apparatus, object detection method, storage medium, and integrated circuit | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム | |
JP2018147241A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2018074411A (ja) | 物体検出装置及び物体検出方法 | |
JP2005323021A (ja) | 車載撮像システム、および撮像方法 | |
JP2010003253A (ja) | 運動推定装置 | |
JP6184447B2 (ja) | 推定装置及び推定プログラム | |
JP4946897B2 (ja) | 距離計測装置 | |
US20180182078A1 (en) | Image processing apparatus and image processing method | |
JP6668740B2 (ja) | 道路面推定装置 | |
JP2015011665A (ja) | 走行路面標示検知装置および走行路面標示検知方法 | |
JP2007166442A (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180417 |