JP2010002985A - 動きベクトル算出装置、障害物検出装置および動きベクトル算出方法 - Google Patents

動きベクトル算出装置、障害物検出装置および動きベクトル算出方法 Download PDF

Info

Publication number
JP2010002985A
JP2010002985A JP2008159264A JP2008159264A JP2010002985A JP 2010002985 A JP2010002985 A JP 2010002985A JP 2008159264 A JP2008159264 A JP 2008159264A JP 2008159264 A JP2008159264 A JP 2008159264A JP 2010002985 A JP2010002985 A JP 2010002985A
Authority
JP
Japan
Prior art keywords
vehicle
tracking target
image
motion vector
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008159264A
Other languages
English (en)
Inventor
Kenya Takamido
賢哉 高見堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2008159264A priority Critical patent/JP2010002985A/ja
Publication of JP2010002985A publication Critical patent/JP2010002985A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】1台のカメラのみを用いて障害物を検出する場合、車両が低速走行しているときでも、車両の動きベクトルを正確に算出することを可能にする「動きベクトル算出装置、障害物検出装置および動きベクトル算出方法」を提供する。
【解決手段】車載カメラ140によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出するトラッキング対象画像抽出部340と、当該複数の車両周囲画像のそれぞれにおいて位置検出部360が検出したトラッキング対象画像の位置の変化に基づいて車両の動きベクトルを算出する動きベクトル算出部380とを備え、車速センサの検出結果を使用しなくても、画像処理によって車両の動きベクトルを算出することができるようにする。
【選択図】図1

Description

本発明は、動きベクトル算出装置、障害物検出装置および動きベクトル算出方法に関し、特に、所定時間における車両の画像上の動きベクトルを算出する技術および算出した動きベクトルから障害物を検出する技術に関する。
従来、駐車を行う場合の運転支援システムとして、車両の後方を監視する車載カメラによって撮像された画像を俯瞰画像に変換する機能を備え、異なる2地点において得られた俯瞰画像から障害物を検出し、検出した障害物をモニタに表示するシステムが開発されている。しかしながら、このシステムでは、障害物を検出するためには、車両が静止状態でないことが必要であるとともに、車速センサ、操舵角センサ等を用いて所定時間における車両の動きベクトル(移動量および移動方向)をリアルタイムに正確に計測することが必要となる。
また、ステレオカメラを用いて障害物を検出する技術も開発されている。しかしながら、ステレオカメラを用いて障害物を検出するには、2台のカメラが必要であるためコストがかかるとともに、2台のカメラで撮像された画像間のマッチング処理が必要となるため、計算量が莫大となる。そこで、1台のカメラのみを用いて障害物を検出する手法が提案されている(例えば、特許文献1を参照)。
特開2008−48094号公報
特許文献1に記載の技術では、時刻(t−Δt)にカメラで車両の後方を撮像した画像を2次元変換して第1の俯瞰画像を生成するとともに、時刻tにカメラで撮像された画像を2次元変換して第2の俯瞰画像を生成する。そして、第1の俯瞰画像を車両の移動量に基づいてシフトし、シフトした第1の俯瞰画像と、第2の俯瞰画像との差分を抽出して差分俯瞰画像を生成し、この差分俯瞰画像より障害物を検出している。
ところで、特許文献1に記載の技術では、車速信号に基づいて、所定時間(Δt)における車両の移動量を求めている。したがって、車速センサに検出誤差が生じる(すなわち、車両の移動量に誤差が生じる)と、障害物を検出するために生成する差分俯瞰画像の元となる第1の俯瞰画像にも誤差が生じ、実際には障害物でないものを障害物と誤って検出してしまう場合がある。特に駐車を行う場合等の低速走行時には、タイヤの回転数が少なくなり車速センサの検出精度が低下するため、車速センサの検出値に誤差が生じやすく、実際には障害物でないものを障害物と誤って検出しやすくなるという問題がある。
本発明は、このような問題を解決するために成されたものであり、1台のカメラのみを用いて障害物を検出する場合、車両が低速走行しているときでも、所定時間における車両の動きベクトル(移動量および移動方向)を正確に算出できるようにすることを目的とする。
上記した課題を解決するために、本発明では、車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出し、撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれから当該抽出したトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて、車両の動きベクトルを算出するようにしている。
上記のように構成した本発明によれば、撮像装置により逐次撮像された車両周囲画像に基づいて、所定時間における車両の動きベクトルが算出されるため、車速センサの検出結果を使用しなくても車両の動きベクトルを算出することができる。これにより、車速センサの検出精度が低下する車両の低速走行時でも、車両の動きベクトルを正確に算出することができる。よって、車両が低速走行している場合でも、正確に算出した動きベクトルに基づいて正確な差分画像を生成することができ、実際には障害物でないものを障害物と誤って検出することを確実に防止することができる。
以下、本発明の一実施形態について図面に基づいて説明する。図1は、本実施形態による障害物検出装置100の構成例を示すブロック図である。障害物検出装置100は、車両に搭載される。障害物検出装置100は、車載カメラ140(本願発明の撮像装置に対応)およびモニタ160と車載ネットワークを介して接続されている。障害物検出装置100は、図1に示すように、動きベクトル算出装置200、差分画像生成部220、障害物検出部240、表示画面生成部260、出力バッファ270および表示制御部280を備えて構成されている。なお、車載カメラ140は、所定の撮像時間間隔Δt(例えば、1/30秒)で車両の後方周辺を逐次撮像する。また、Δtの前の方のタイミングをt、後の方のタイミングを(t+Δt)で表すものとする。
動きベクトル算出装置200は、車載カメラ140により撮像された撮像画像(以下、「車両周囲画像」という)を用いて、撮像時間間隔Δtにおける車両周囲画像から車両の動きベクトルを算出する。動きベクトル算出装置200は、図1に示すように、撮像画像取得部300、歪補正部320、入力バッファ330、トラッキング対象画像抽出部340、位置検出部360および動きベクトル算出部380を備えて構成されている。
撮像画像取得部300は、車載カメラ140によって撮像された車両周囲画像を逐次取得し、歪補正部320に逐次出力する。歪補正部320は、撮像画像取得部300から取得した車両周囲画像について、各画素の値を補正して車載カメラ140のレンズ歪による影響を補正する。具体的には、歪補正部320は、車載カメラ140によって撮像された車両周囲画像のある画素が補正後の車両周囲画像のどの画素に対応するかを記載したマッピングテーブルを用いて、車両周囲画像における各画素の値を補正する。歪補正部320は、車両周囲画像に対して補正処理を行った後に、補正した車両周囲画像を入力バッファ330に逐次記憶させる。
トラッキング対象画像抽出部340は、入力バッファ330に記憶された車両周囲画像を読み出して、その読み出した車両周囲画像から予め定めた3つの位置の部分画像(例えば、16×16画素からなる部分画像)を3つのトラッキング対象画像として抽出する。トラッキング対象画像抽出部340は、入力バッファ330に最初に車両周囲画像が記憶されたとき、その記憶された車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として抽出する。また、トラッキング対象画像抽出部340は、後述する消失点算出部400が消失点を算出することができなかったとき、最新の車両周囲画像上から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として新たに抽出する。また、トラッキング対象画像抽出部340は、消失点算出部400が消失点を算出することができた場合でも、算出した消失点を通らない延長線が1つでも存在するときには、その消失点を通らない延長線を形成するトラッキング対象画像に替えて、最新の車両周囲画像から予め定めた1つの位置の部分画像をトラッキング対象画像として抽出する。トラッキング対象画像抽出部340は、抽出したトラッキング対象画像を位置検出部360および動きベクトル算出部380に出力する。なお、消失点や延長線の詳細は後述する。
位置検出部360は、入力バッファ330に記憶された車両周囲画像を逐次読み出して、読み出した車両周囲画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する。具体的には、位置検出部360は、入力バッファ330から読み出した車両周囲画像から、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像と同一の部分画像を探し出して、その部分画像の車両周囲画像上における位置座標をトラッキング対象画像の位置として検出する。ここで、トラッキング対象画像と同一か否かの判定は、例えば、色分布の特性や輝度の値などの画像の特徴量を用いた相関演算により行う。実際には、位置検出部360は、類似度が一定値以上の部分画像を同一であるとみなしてトラッキング対象画像の位置を検出する。位置検出部360は、入力バッファ330から読み出した車両周囲画像上における3つのトラッキング対象画像の位置を検出する度に、検出した3つのトラッキング対象画像の位置を動きベクトル算出部380に出力する。
動きベクトル算出部380は、撮像タイミングが連続する撮像時刻tおよび撮像時刻(t+Δt)で車載カメラ140によって撮像された車両周囲画像において位置検出部360により検出された3つのトラッキング対象画像の位置の変化に基づいて、撮像時間間隔Δtにおける車両の動きベクトルを算出する。撮像時刻tから撮像時刻(t+Δt)までの間に車両が移動していれば、撮像時刻tでのトラッキング対象画像の検出位置と、撮像時刻(t+Δt)でのトラッキング対象画像の検出位置とに差が生じる。動きベクトル算出部380は、その差を動きベクトルとして検出する。そのための具体的な構成として、動きベクトル算出部380は、消失点算出部400、俯瞰画像生成部420、第2の位置検出部440および算出部460を備えて構成されている。
消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された車両周囲画像のそれぞれにおいて位置検出部360により検出された3つのトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、撮像時刻(t+Δt)で撮像された車両周囲画像上においてその求めた延長線が交わる消失点の算出を試みる。消失点算出部400は、消失点を算出することができた場合(3つの延長線が1点で交わった場合)、その旨を俯瞰画像生成部420に通知する。また、消失点算出部400は、消失点を算出することができた場合(2つの延長線が1点で交わった場合)、その旨およびどのトラッキング対象画像の延長線が交わったかを俯瞰画像生成部420に通知する。
また、消失点算出部400は、消失点を算出することができなかった場合、その旨をトラッキング対象画像抽出部340に通知する。トラッキング対象画像抽出部340は、消失点算出部400から消失点を算出することができなかった旨の通知を受けて、入力バッファ330から撮像時刻(t+Δt)で撮像された車両周囲画像を読み出す。そして、トラッキング対象画像抽出部340は、その読み出した車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として新たに抽出して位置検出部360に出力する。位置検出部360は、それ以降入力バッファ330に記憶される車両周囲画像上において、トラッキング対象画像抽出部340から新たに出力された3つのトラッキング対象画像の位置を検出して動きベクトル算出部380に出力する。
消失点算出部400は、消失点を算出することができた場合でも、算出した消失点を通らない延長線が1つでも存在するとき(本実施形態では、3つの延長線のうち1つの延長線のみが消失点を通らないとき)には、その消失点を通らない延長線を形成するトラッキング対象画像を特定する情報(以下、「トラッキング対象画像特定情報」という)をトラッキング対象画像抽出部340に出力する。このトラッキング対象画像特定情報を取得したトラッキング対象画像抽出部340は、入力バッファ330から撮像時刻(t+Δt)で撮像された車両周囲画像を読み出す。そして、トラッキング対象画像抽出部340は、取得したトラッキング対象画像特定情報により示されるトラッキング対象画像に替えて、入力バッファ330から読み出した車両周囲画像から予め定めた1つの位置の部分画像を1つのトラッキング対象画像として新たに抽出して位置検出部360に出力する。位置検出部360は、それ以降入力バッファ330に記憶される車両周囲画像上において、新たに抽出された1つのトラッキング対象画像を含む3つのトラッキング対象画像の位置を検出して動きベクトル算出部380に出力する。
俯瞰画像生成部420は、消失点を算出することができた旨の通知を消失点算出部400から受けて、撮像時刻tおよび撮像時刻(t+Δt)の車両周囲画像を入力バッファ330から読み出す。俯瞰画像生成部420は、車載カメラ140により撮像された車両周囲画像の画素と車両の後方周辺を上方の仮想視点から見た車両周囲俯瞰画像の画素との対応関係を記載した視点変換情報を用いて、読み出した車両周囲画像を視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像をそれぞれ生成する。俯瞰画像生成部420は、その生成した車両周囲俯瞰画像を第2の位置検出部440および差分画像生成部220に出力する。
第2の位置検出部440は、俯瞰画像生成部420から出力された撮像時刻t、撮像時刻(t+Δt)の車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する。具体的には、第2の位置検出部440は、俯瞰画像生成部420から出力された車両周囲俯瞰画像から、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像を視点変換処理したものと同一の部分画像を探し出して、その部分画像の車両周囲俯瞰画像上における位置座標をトラッキング対象画像の位置として検出する。第2の位置検出部440は、検出した3つのトラッキング対象画像の位置を算出部460に出力する。
算出部460は、第2の位置検出部440から出力されたトラッキング対象画像の位置を取得する。そして、算出部460は、第2の位置検出部440から今回(撮像時刻t+Δt)取得した車両周囲俯瞰画像上におけるトラッキング対象画像の位置と前回(撮像時刻t)取得した車両周囲俯瞰画像上におけるトラッキング対象画像の位置とから、当該トラッキング対象画像の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。算出部460は、算出した撮像時間間隔Δtにおける車両の動きベクトルを差分画像生成部220に出力する。
次に、車載カメラ140により連続撮像された車両周囲画像から所定時間における車両の動きベクトルを算出する動作例について図2を参照しながら説明する。図2(a)は、車載カメラ140によりある撮像タイミング(撮像時刻t)で撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示す図である。図2(a)において、502、504および506は、車載カメラ140により撮像された車両周囲画像からトラッキング対象画像抽出部340が抽出した3つのトラッキング対象画像である。この3つのトラッキング対象画像の位置は、道路が写っている可能性が高く、消失点を求めることが可能な位置である。したがって、3つのトラッキング対象画像の位置は、車両周囲画像上において、水平線より下側、かつ、同じ水平ライン上で等間隔に位置することになる。なお、道路上の画像は見た目に大きな特徴はないが、隣接画素間の値に差があるので、特徴量として利用することができる。
図2(b)は、図2(a)の撮像タイミングより後の撮像タイミング(撮像時刻(t+Δt))で車載カメラ140により撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示している。図2(b)において、502(Δt)、504(Δt)および506(Δt)は、図2(a)の撮像タイミングよりΔt後の撮像タイミングで撮像された車両周囲画像から、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506と同一であると位置検出部360が判断した部分画像(以下、移動後のトラッキング対象画像という)である。なお、図2(b)には、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506を重ねて表示している。すなわち、撮像時刻tから撮像時刻(t+Δt)までの時間Δtの間に車両が後方に進むことにより、図2(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像502、504、506の位置が移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置まで移動していることがわかる。
図2(c)には、消失点算出部400により算出することができた消失点530を示している。具体的には、消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図2(a)、(b)の車両周囲画像のそれぞれにおいて位置検出部360により検出されたトラッキング対象画像502、504、506の位置であって、同じトラッキング対象画像502、504、506どうしの位置(すなわち、トラッキング対象画像502の位置と移動後のトラッキング対象画像502(Δt)の位置、トラッキング対象画像504と移動後のトラッキング対象画像504(Δt)の位置、トラッキング対象画像506の位置と移動後のトラッキング対象画像506(Δt)の位置)を結ぶ3本の延長線520、522、524をそれぞれ求め、その求めた延長線520、522、524が交わる点を消失点530として算出する。
この後の動きベクトル算出部380の動作として、俯瞰画像生成部420は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図2(a)、(b)の車両周囲画像をそれぞれ視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像をそれぞれ生成する。その後、第2の位置検出部440は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像502、504、506および移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置を検出する。最後に、算出部460は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて第2の位置検出部440により検出されたトラッキング対象画像502、504、506および移動後のトラッキング対象画像502(Δt)、504(Δt)、506(Δt)の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。
図2(d)には、算出部460により算出された撮像時間間隔Δtにおける車両の動きベクトル550、552、554(トラッキング対象画像502、504、506にそれぞれ対応)を示している。図2(c)に示すように、消失点算出部400により算出された消失点530を延長線520、522、524が全て通る場合には、その消失点530を通る延長線520、522、524を形成するトラッキング対象画像502、504、506の車両周囲俯瞰画像上における位置の変化に基づいて算出された車両の動きベクトル550、552、554は大きさ、方向ともに一致する。
次に、車載カメラ140により連続撮像された車両周囲画像から所定時間における車両の動きベクトルを算出する他の動作例について図3を参照しながら説明する。図3(a)は、車載カメラ140によりある撮像タイミング(撮像時刻t)で撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示す図である。図3(a)において、602、604および606は、車載カメラ140により撮像された車両周囲画像からトラッキング対象画像抽出部340が抽出した3つのトラッキング対象画像である。
図3(b)は、図3(a)の撮像タイミングより後の撮像タイミング(撮像時刻(t+Δt))で車載カメラ140により撮像された車両周囲画像(ここでは、歪補正部320による補正処理が既に行われたものとする)を示している。図3(b)において、602(Δt)、604(Δt)および606(Δt)は、図2(a)の撮像タイミングよりΔt後の撮像タイミングで撮像された車両周囲画像から、図3(a)においてトラッキング対象画像抽出部340に抽出された3つのトラッキング対象画像602、604、606と同一であると位置検出部360が判断した部分画像(移動後のトラッキング対象画像)である。なお、図3(b)には、図3(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像602、604、606を重ねて表示している。すなわち、撮像時刻tから撮像時刻(t+Δt)までの時間Δtの間に、車両が後方に進むことにより、図3(a)においてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像602、604、606の位置が移動後のトラッキング対象画像602(Δt)、604(Δt)、606(Δt)の位置まで移動していることがわかる。
ただし、トラッキング対象画像606の位置だけは、図2(b)に示す例とは異なり、図3(b)の車両周囲画像に新たに写りこんできた影610の影響を受けて影610を避ける位置に移動している。これは、トラッキング対象画像抽出部340から出力されたトラッキング対象画像に該当する道路の位置が影610の範囲に含まれ、影610の影響を受けてその道路位置の画素値が大きく変わってしまうため、同じ道路位置が相関演算で抽出されなくなってしまうからである。すなわち、車両周囲画像から影610を除いた範囲内でトラッキング対象画像と同一の部分画像が探し出され、その部分画像の車両周囲画像上における位置座標がトラッキング対象画像の位置として検出されてしまう。
図3(c)には、消失点算出部400により算出することができた消失点630を示している。具体的には、消失点算出部400は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図3(a)、(b)の車両周囲画像のそれぞれにおいて位置検出部360により検出されたトラッキング対象画像602、604、606の位置であって、同じトラッキング対象画像602、604、606どうしの位置(すなわち、トラッキング対象画像602の位置と移動後のトラッキング対象画像602(Δt)の位置、トラッキング対象画像604と移動後のトラッキング対象画像604(Δt)の位置、トラッキング対象画像606の位置と移動後のトラッキング対象画像606(Δt)の位置)を結ぶ3本の延長線620、622、624をそれぞれ求め、その求めた延長線620、622、624のうち2本の延長線620、622が交わる点を消失点630として算出する。ここで、トラッキング対象画像606、606(Δt)の位置から形成される延長線624だけは、図3(b)の車両周囲画像に写りこんできた影610の影響により消失点630を通らない。この場合、トラッキング対象画像抽出部340は、撮像時刻tで撮像された車両周囲画像から抽出されたトラッキング対象画像606に替えて、撮像時刻(t+Δt)で撮像された車両周囲画像上において同じ位置から新たなトラッキング対象画像を抽出する。
この後の動きベクトル算出部380の動作として、俯瞰画像生成部420は、車載カメラ140によって撮像時刻tおよび撮像時刻(t+Δt)で撮像された図3(a)、(b)の車両周囲画像をそれぞれ視点変換処理することによって、車両の上方の仮想視点から見た2つの車両周囲俯瞰画像をそれぞれ生成する。その後、第2の位置検出部440は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて、消失点630を通る延長線602、622を形成するトラッキング対象画像602、604および移動後のトラッキング対象画像602(Δt)、604(Δt)の位置を検出する。最後に、算出部460は、俯瞰画像生成部420により生成された2つの車両周囲俯瞰画像上のそれぞれにおいて第2の位置検出部440により検出されたトラッキング対象画像602、604および移動後のトラッキング対象画像602(Δt)、604(Δt)の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する。
図3(d)には、算出部460により算出された撮像時間間隔Δtにおける車両の動きベクトル650、652(トラッキング対象画像602、604にそれぞれ対応)を示している。図3(c)に示すように、消失点算出部400により算出された消失点630を延長線620、622が通る場合には、その消失点630を通る延長線620、622を形成するトラッキング対象画像602、604の車両周囲俯瞰画像上における位置の変化に基づいて算出された車両の動きベクトル650、652は大きさ、方向ともに一致する。ここで、図3(c)に示すように、消失点630を通らない延長線624を形成するトラッキング対象画像606,606(Δt)は、算出部460による車両の動きベクトルの算出に使用しないため、トラッキング対象画像606,606(Δt)に対応する動きベクトルは図3(d)には示していない。
差分画像生成部220は、算出部460から出力された撮像時間間隔Δtにおける車両の動きベクトルを取得する。また、差分画像生成部220は、俯瞰画像生成部420から出力された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲俯瞰画像を取得する。また、差分画像生成部220は、取得した撮像時間間隔Δtにおける車両の動きベクトルに基づいて、撮像時刻tの車両周囲俯瞰画像を動きベクトルの分だけ移動させる。そして、この移動させた車両周囲俯瞰画像と、撮像時刻(t+Δt)の車両周囲俯瞰画像との画素毎の差分を抽出して差分画像を生成する。差分画像生成部220は、生成した差分画像を障害物検出部240に出力する。
障害物検出部240は、差分画像生成部220から出力された差分画像を画像解析して、車両の後方に存在する障害物の検出を試みる。具体的には、障害物検出部240は、差分画像から予め設定しておいた閾値以上の画素値を持つ領域のみを抽出し、その抽出した領域を障害物として検出する。障害物検出部240は、障害物を検出した場合、その旨を表示画面生成部260に通知する。また、障害物検出部240は、検出した障害物の車両周囲画像上における位置を検出する。具体的には、障害物検出部240は、自身が有する視点変換情報を参照して、検出した障害物の差分画像(撮像時刻tおよび撮像時刻(t+Δt)で撮像された車両周囲画像に基づいて生成された車両周囲俯瞰画像の差分)上における位置から、撮像時刻(t+Δt)で撮像された車両周囲画像上における当該障害物の位置を算出し、表示画面生成部260に出力する。また、障害物検出部240は、障害物を検出しなかった場合、その旨を表示画面生成部260に通知する。
表示画面生成部260は、障害物を検出した旨の通知を障害物検出部240から受けた場合、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出す。また、表示画面生成部260は、撮像時刻(t+Δt)で撮像された車両周囲画像上における障害物の位置を障害物検出部240から取得する。そして、表示画面生成部260は、入力バッファ330から読み出した車両周囲画像と障害物検出部240から取得した障害物の位置とから、車両の後方に障害物が存在することを運転者に報知するための警告表示画面を生成する。表示画面生成部260により生成された警告表示画面では、障害物検出部240により検出された障害物の存在を強調するために、当該障害物が存在する位置を所定サイズの枠で囲むとともに、その所定サイズの枠を所定の時間間隔で点滅させるようになっている。また、表示画面生成部260は、生成した警告表示画面を出力バッファ270に記憶させる。
また、表示画面生成部260は、障害物検出部240から障害物を検出しなかった旨の通知を受けた場合には、入力バッファ330から読み出した車両周囲画像から車両後方の様子を表す通常表示画面を生成する。表示画面生成部260は、生成した通常表示画面を出力バッファ270に記憶させる。
表示制御部280は、出力バッファ270に記憶される警告表示画面を読み出して、読み出した警告表示画面をモニタ160に表示する。また、表示制御部280は、出力バッファ270に記憶される通常表示画面を読み出して、読み出した通常表示画面をモニタ160に表示する。運転者は、モニタ160に表示された警告表示画面を確認することによって、車両後方に存在する障害物を認識し、その後の適切な対処を行うことができる。
次に、本実施形態による障害物検出装置100の表示制御部280による表示動作について図4を用いて説明する。図4は、本実施形態による障害物検出装置100の表示制御部280によってモニタ160に表示される警告表示画面の例を示す図である。
図4(a)は、車載カメラ140によってある撮像タイミング(撮像時刻(t+Δt)で撮像された車両周囲画像を示している。図4(a)に示すように、車両後方には、駐車車両やコーン等の障害物700、702、704が存在している。上述したように、車両周囲画像上の障害物700、702、704は、障害物検出装置100の動作により検出される。
図4(b)は、図4(a)の車両周囲画像に基づいて生成された警告表示画面の例を示す図である。この警告表示画面では、車載カメラ140によって撮像された車両周囲画像の全体をカラー映像で表示するとともに、障害物検出部240により検出された障害物700、702、704の存在を強調するために、障害物700、702、704が存在する位置を所定サイズの枠708、710、712でそれぞれ囲むとともに、その所定サイズの枠708、710、712を所定の時間間隔(例えば、1秒)で点滅させる態様で付加的に表示するようになっている。
なお、警告表示画面において、障害物700、702、704の存在を強調する態様は、上述の例に限らない。例えば、障害物700、702、704に対応する部分のみをカラー映像として表示し、それ以外の部分をモノクロ画像として表示することにより障害物とその他の部分とを明瞭に認識できるように表示しても良い。
次に、本実施形態における障害物検出装置100の動作について詳しく説明する。図5は、本実施形態による障害物検出装置100の動作例を示すフローチャートである。図5におけるステップS100の処理は、例えば、車両のイグニッションキー(図示せず)がユーザによって操作されて障害物検出装置100に電源が投入されたことにより開始する。
まず、障害物検出装置100は、シフトレバーがR(後退)に入ったか否かについて判定する(ステップS100)。もし、シフトレバーがR(後退)に入っていないと障害物検出装置100にて判定した場合(ステップS100にてNO)、障害物検出装置100は、前回シフトレバーがR(後退)に入ってから所定時間が経過したか否かについて判定する(ステップS120)。もし、所定時間が経過したと障害物検出装置100にて判定した場合(ステップS120にてYES)、図5における処理を終了する。一方、所定時間が経過していないと障害物検出装置100にて判定した場合(ステップS120にてNO)、処理はステップS140に遷移する。
一方、シフトレバーがR(後退)に入ったと障害物検出装置100にて判定した場合(ステップS100にてYES)、動きベクトル算出装置200は撮像時間間隔Δtにおける車両の動きベクトルを算出する処理を行う(ステップS140)。図6は、本実施形態による動きベクトル算出装置200の動きベクトル算出処理の流れの例を示すフローチャートである。まず、撮像画像取得部300は、車載カメラ140によって撮像された車両周囲画像を取得する(ステップS300)。そして、撮像画像取得部300は、車載カメラ140から取得した車両周囲画像を歪補正部320に出力する。歪補正部320は、撮像画像取得部300から出力された車両周囲画像について、車載カメラ140のレンズ歪による影響を補正する(ステップS320)。そして、歪補正部320は、補正した車両周囲画像を入力バッファ330に記憶させる。
次に、トラッキング対象画像抽出部340は、車両周囲画像からトラッキング対象画像が既に抽出されている否かを判定する(ステップS340)。もし、まだ抽出されていない場合(ステップS340にてNO)、すなわちシフトレバーがR(後退)に入ってから動きベクトル算出装置200の最初の処理タイミング(最初の車両周囲画像を処理するタイミング)では、トラッキング対象画像抽出部340は、入力バッファ330に記憶された車両周囲画像を読み出して、車両周囲画像から予め定めた3つの位置の部分画像を3つのトラッキング対象画像として抽出する(ステップS360)。そして、トラッキング対象画像抽出部340は、抽出した3つのトラッキング対象画像を位置検出部360および動きベクトル算出部380に出力する。動きベクトル算出部380には、抽出した3つのトラッキング対象画像の位置も出力する。その後、処理はステップS300に遷移する。
一方、車両周囲画像からトラッキング対象画像が既に抽出されている場合(ステップS340にてYES)、すなわちシフトレバーがR(後退)に入ってから動きベクトル算出装置200の2回目以降の処理タイミング(2枚目以降の車両周囲画像を処理するタイミング)では、位置検出部360は、ステップS320の処理後に入力バッファ330に記憶された最新の車両周囲画像を読み出して、その読み出した車両周囲画像上において、ステップS360にてトラッキング対象画像抽出部340により抽出された3つのトラッキング対象画像の位置を検出する(ステップS380)。そして、位置検出部360は、検出した3つのトラッキング対象画像の位置を動きベクトル算出部380に出力する。
次に、消失点算出部400は、車載カメラ140によって連続する撮像タイミング(例えば、撮像時刻tおよび撮像時刻(t+Δt))で撮像された車両周囲画像のそれぞれにおいて位置検出部360により検出された3つのトラッキング対象画像の位置から消失点の算出を試みる(ステップS400)。
もし、消失点を算出することができなかった場合(ステップS420にてNO)、消失点算出部400は、その旨をトラッキング対象画像抽出部340に通知する。トラッキング対象画像抽出部340は、消失点算出部400から消失点を算出することができなかった旨の通知を受けて、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出して、読み出した車両周囲画像上の異なる位置から、前回抽出した3つのトラッキング対象画像に替えて、新たに3つのトラッキング対象画像を抽出する(ステップS440)。そして、トラッキング対象画像抽出部340は、新たに抽出した3つのトラッキング対象画像を位置検出部360に出力する。
一方、消失点を算出することができた場合(ステップS420にてYES)、消失点算出部400は、算出することができた消失点を通らない延長線が1つでも存在するか否かについて判定する(ステップS460)。もし、消失点を通らない延長線が存在すると消失点算出部400にて判定した場合(ステップS460にてYES)、消失点算出部400は、その消失点を通らない延長線を形成するトラッキング対象画像を特定するトラッキング対象画像特定情報をトラッキング対象画像抽出部340に出力する。
トラッキング対象画像特定情報を取得したトラッキング対象画像抽出部340は、撮像時刻(t+Δt)で撮像された車両周囲画像を入力バッファ330から読み出して、その読み出した車両周囲画像上から、当該トラッキング対象画像特定情報により示されるトラッキング対象画像に替えて、新たにトラッキング対象画像を抽出する(ステップS480)。そして、トラッキング対象画像抽出部340は、新たに抽出したトラッキング対象画像を位置検出部360に出力する。その後、処理はステップS560に遷移する。一方、消失点を通らない延長線は存在しない(すなわち、全ての延長線が消失点を通る)と消失点算出部400にて判定した場合(ステップS460にてNO)、処理はステップS500に遷移する。
ステップS500では、俯瞰画像生成部420は、消失点を算出することができた旨の通知を消失点算出部400から受けて、車載カメラ140によって撮像された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲画像を入力バッファ330から読み出して、その読み出した車両周囲画像を視点変換処理することによって、車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する。そして、俯瞰画像生成部420は、その生成した車両周囲俯瞰画像を第2の位置検出部440および差分画像生成部220に出力する。
次に、第2の位置検出部440は、俯瞰画像生成部420から出力された撮像時刻tおよび撮像時刻(t+Δt)の車両周囲俯瞰画像上のそれぞれにおいて、トラッキング対象画像抽出部340から出力された3つのトラッキング対象画像の位置を検出する(ステップS520)。そして、第2の位置検出部440は、検出した3つのトラッキング対象画像の位置を算出部460に出力する。次に、算出部460は、第2の位置検出部440から出力されたトラッキング対象画像の位置を取得して、撮像時刻tの車両周囲俯瞰画像上における3つのトラッキング対象画像の位置と撮像時刻(t+Δt)の車両周囲俯瞰画像上におけるトラッキング対象画像の位置とから、当該トラッキング対象画像の位置の変化を撮像時間間隔Δtにおける車両の動きベクトルとして算出する(ステップS540)。そして、算出部460は、算出した撮像時間間隔Δtにおける車両の動きベクトルを差分画像生成部220に出力する。その後、動きベクトル算出装置200は図6における処理を終了し、図5のステップS160に進む。
図5のステップS160では、差分画像生成部220は、算出部460から出力された撮像時間間隔Δtにおける車両の動きベクトルに基づいて、俯瞰画像生成部220から出力された撮像時刻tの車両周囲俯瞰画像を動きベクトルの分だけ移動させる。そして、この移動させた撮像時刻tの車両周囲俯瞰画像と、俯瞰画像生成部220から出力された撮像時刻(t+Δt)の車両周囲俯瞰画像との差分を抽出して差分画像を生成する。
次に、障害物検出部240は、差分画像生成部220から出力された差分画像を画像解析して、車両の後方に存在する障害物の検出を試みる(ステップS180)。もし、障害物検出部240が障害物を検出しなかった場合(ステップS200にてNO)、表示画面生成部260は、障害物検出部240から障害物を検出しなかった旨の通知を受けて、入力バッファ330から読み出した車両周囲画像から車両後方の様子を表す通常表示画面を生成する(ステップS220)。そして、表示画面生成部260は、生成した通常表示画面を出力バッファ270に記憶させる。最後に、表示制御部280は、出力バッファ270に記憶された通常表示画面を読み出して、読み出した通常表示画面をモニタ160に表示する(ステップS240)。
一方、障害物検出部240が障害物を検出した場合(ステップS200にてYES)、障害物検出部240は、検出した障害物の車両周囲画像上における位置を検出する。そして、障害物検出部240は、検出した車両周囲画像上における障害物の位置を表示画面生成部260に出力する。
次に、表示画面生成部260は、障害物検出部240から障害物を検出した旨の通知を受けて、入力バッファ330から読み出した車両周囲画像と障害物検出部240から取得した障害物の位置とから、車両の後方に障害物が存在することを運転者に報知するための警告表示画面を生成する(ステップS260)。そして、表示画面生成部260は、生成した警告表示画面を出力バッファ270に記憶させる。最後に、表示制御部280は、出力バッファ270に記憶された警告表示画面を読み出して、読み出した警告表示画面をモニタ160に表示する(ステップS280)。なお、ステップS240またはステップS280における表示処理が終了することにより、処理はステップS100に遷移する。
以上詳しく説明したように、本実施形態では、トラッキング対象画像抽出部340が、車載カメラ140によって撮像された車両周囲画像内の予め定めた3つの位置の部分画像をトラッキング対象画像として抽出し、車載カメラ140によって連続撮像された2つの車両周囲画像のそれぞれにおいて、位置検出部360がトラッキング対象画像の位置を検出する。そして、動きベクトル算出部380が、位置検出部360にて検出したトラッキング対象画像の位置の変化に基づいて、所定時間(撮像時間間隔Δt)における車両の動きベクトルを算出する。
これにより、車載カメラ140により連続撮像された車両周囲画像に基づいて車両の動きベクトルが算出されるため、車速センサの検出結果を使用しなくても車両の動きベクトルを算出することができる。すなわち、車速センサの検出精度が低下する車両の低速走行時でも、車載カメラ140により連続撮像された車両周囲画像上における車両の移動量(ピクセル)さえ分かれば、車両の動きベクトルを正確に算出することができる。よって、車両が低速走行している場合でも、正確に算出した動きベクトルに基づいて正確な差分画像を生成することができ、実際には障害物でないものを障害物と誤って検出することを確実に防止することができる。
また、本実施形態では、動きベクトル算出部380は、消失点を算出できた場合に限って、当該消失点を通る延長線を形成するトラッキング対象画像の位置の変化に基づいて、車両の動きベクトルを算出する。車両周囲画像上で消失点を求めることなく、車両周囲俯瞰画像上から動きベクトルを求めるようにしても良いが、消失点が求まるか否かを確認することにより、正確でない車両の動きベクトルが誤って算出されることを回避することができる。例えば、路面上に存在する影の影響を受けて、車両周囲画像上におけるトラッキング対象画像の位置を正しく検出できなくなると、消失点が算出できなくなるので、消失点を求めることは、正しい動きベクトルを算出できるか否かの判定として有効である。
また、本実施形態では、消失点を通らない延長線が存在した場合でも、その延長線を形成するトラッキング対象画像に替えて最新の車両周囲画像から新たなトラッキング対象画像を抽出する。新たにトラッキング対象画像を抽出しない態様でも良いが、それだと延長線が消失点を通らない状態が続いてしまう。これに対して、新たに抽出すれば、次回以降の撮像タイミングにおいて、新たにトラッキング対象画像を抽出したトラッキング対象画像の位置により形成される延長線が消失点を通る可能性を復活させることができる。
また、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像内の予め定めた位置からトラッキング対象画像を抽出する。これにより、位置検出部360による相関演算の前提として、車両周囲画像内からエッジ部分等の特徴点を探し出して抽出する画像処理が不要になる。したがって、車両の動きベクトル算出処理の負荷が低くなり、高速処理が可能になる。
なお、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像内の予め定めた位置からトラッキング対象画像を抽出する例について説明したが、これに限定されない。例えば、トラッキング対象画像抽出部340は、車両周囲画像について各画素のエッジ強度を算出し、当該算出したエッジ強度が第1の所定値以上であり、かつ、第1の所定値より高い第2の所定値未満である部分画像をトラッキング対象画像として抽出しても良い。このようにすれば、画像内の明るさが急激に変化する点(例えば人や車両など、自車とは独立に移動する可能性が高いために動きベクトルが自車の動きと無関係になりやすい点)、または画像内の明るさがほとんど変化しない点(すなわち、画像としての特徴がほとんどないために車両周囲画像上におけるトラッキング対象画像の位置検出の誤差が生じやすい点)がトラッキング対象画像として選択されなくなるため、車両周囲画像上におけるトラッキング対象画像の位置検出の誤差が生じることをなるべく防ぐことができる。なお、この例の場合、消失点は求まらない可能性がある。したがって、消失点が求まるか否かによるトラッキング対象画像の取り直しの処理は行わない方が良い。
また、本実施形態において、動きベクトル算出部380は、前回算出した動きベクトルにより示される方向と、今回算出した動きベクトルにより示される方向との成す角度を算出し、当該算出した角度が所定値未満である場合に限って、今回算出した動きベクトルを採用するようにしても良い。これにより、前回算出した動きベクトルにより示される方向と今回算出した動きベクトルにより示される方向との成す角度が大きくなる場合(例えば、路面上に存在する影の影響を受けて車両周囲画像上におけるトラッキング対象画像の位置が大きく変化した場合)、あえて今回算出した車両の動きベクトルを採用しないことにより、正確でない車両の動きベクトルを誤って採用することを回避することができる。
また、本実施形態では、車載カメラ140によって連続撮像された車両周辺画像のそれぞれにおいてトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて所定時間(撮像時間間隔Δt)における車両の動きベクトルを算出する例について説明したが、撮像タイミングが連続しない2つの車両周囲画像のそれぞれにおいてトラッキング対象画像の位置を検出し、その検出したトラッキング対象画像の位置の変化に基づいて、所定時間(各車両周辺画像の撮像時刻の間)における車両の動きベクトルを算出するようにしても良い。
また、本実施形態では、トラッキング対象画像抽出部340が車両周囲画像から3つのトラッキング対象画像を抽出する例について説明したが、当該車両周囲画像から2つのトラッキング対象画像を抽出するようにしても良い。ただし、本実施形態のように、車両周囲画像から3つのトラッキング対象画像を抽出する方が消失点を算出できる可能性が高くなる観点からは好ましい。なお、消失点を算出できる可能性をより高くする観点から、車両周囲画像から4つ以上のトラッキング対象画像を抽出するようにしても良い。
また、本実施形態では、俯瞰画像生成部420により生成された車両周囲俯瞰画像において、第2の位置検出部440がトラッキング対象画像の位置を検出する例について説明したが、第2の位置検出部440は、位置検出部360により検出された車両周囲画像上におけるトラッキング対象画像の位置と俯瞰画像生成部420自身が有する視点変換用のマッピングテーブルとから、当該車両周囲画像をそれぞれ視点変換処理することによって得られたであろう車両周囲俯瞰画像におけるトラッキング対象画像の位置を検出するようにしても良い。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
本実施形態による障害物検出装置の構成例を説明するブロック図である。 本実施形態による動きベクトル算出装置の動作の一例を説明する説明図である。 本実施形態による動きベクトル算出装置の動作の一例を説明する説明図である。 本実施形態によるモニタに表示される警告表示画面の例を示す図である。 本実施形態による障害物検出装置の動作例を示すフローチャートである。 本実施形態による動きベクトル算出装置の動作例を示すフローチャートである。
符号の説明
100 障害物検出装置
200 動きベクトル算出装置
220 差分画像生成部
240 障害物検出部
340 トラッキング対象画像抽出部
360 位置検出部
380 動きベクトル算出部
400 消失点算出部
420 俯瞰画像生成部
440 第2の位置検出部

Claims (9)

  1. 車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出するトラッキング対象画像抽出部と、
    前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する位置検出部と、
    前記位置検出部により前記複数の車両周囲画像において検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する動きベクトル算出部とを備えたことを特徴とする動きベクトル算出装置。
  2. 請求項1に記載の動きベクトル算出装置において、
    前記トラッキング対象画像抽出部は、前記車両周囲画像内の予め定めた複数の位置から複数の前記トラッキング対象画像を抽出し、
    前記位置検出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記複数のトラッキング対象画像の位置をそれぞれ検出し、
    前記動きベクトル算出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて前記位置検出部により検出された前記複数のトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、その求めた複数の延長線が交わる消失点を算出できるかどうかを判定し、前記消失点が算出できた場合に限って、前記複数のトラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
  3. 請求項2に記載の動きベクトル算出装置において、
    前記動きベクトル算出部は、前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて前記位置検出部により検出された前記複数のトラッキング対象画像の位置であって同じトラッキング対象画像どうしの位置を結ぶ線の延長線をそれぞれ求め、その求めた複数の延長線が交わる消失点を算出する消失点算出部と、
    前記消失点算出部により前記消失点が算出できた場合に限って、前記撮像装置によって逐次撮像された複数の車両周囲画像をそれぞれ視点変換処理することによって、前記車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する俯瞰画像生成部と、
    前記俯瞰画像生成部により前記複数の車両周囲画像から生成された複数の前記車両周囲俯瞰画像のそれぞれにおいて、前記複数のトラッキング対象画像の位置を検出する第2の位置検出部とを備え、
    前記第2の位置検出部により前記複数の車両周囲俯瞰画像において検出された前記トラッキング対象画像の位置の変化から、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
  4. 請求項3に記載の動きベクトル算出装置において、
    前記第2の位置検出部は、前記消失点算出部により算出できた前記消失点を通らない延長線が存在する場合、前記俯瞰画像生成部により前記複数の車両周囲画像から生成された複数の前記車両周囲俯瞰画像のそれぞれにおいて、前記複数のトラッキング対象画像のうち、前記消失点を通る延長線を形成するトラッキング対象画像のみの位置を検出し、
    前記動きベクトル算出部は、前記第2の位置検出部により前記複数の車両周囲俯瞰画像において検出された前記トラッキング対象画像の位置の変化から、前記車両の動きベクトルを算出することを特徴とする動きベクトル算出装置。
  5. 請求項4に記載の動きベクトル算出装置において、
    前記トラッキング対象画像抽出部は、前記消失点算出部により算出できた前記消失点を通らない延長線が存在する場合、前記複数のトラッキング対象画像のうち、前記消失点を通らない延長線を形成するトラッキング対象画像を新たに抽出し直すことを特徴とする動きベクトル算出装置。
  6. 請求項1に記載の動きベクトル算出装置において、
    前記トラッキング対象画像抽出部は、前記車両周囲画像内の予め定めた位置から前記トラッキング対象画像を抽出することに代えて、前記車両周囲画像について各画素のエッジ強度を算出し、当該算出したエッジ強度が第1の所定値以上であり、かつ、前記第1の所定値より大きい第2の所定値未満である部分画像を前記トラッキング対象画像として抽出することを特徴とする動きベクトル算出装置。
  7. 請求項1〜6のいずれか1項に記載の動きベクトル算出装置において、
    前記動きベクトル算出部は、前記撮像装置によって第1のタイミングで撮像された複数の車両周囲画像から前回算出した動きベクトルにより示される方向と、前記撮像装置によって前記第1のタイミングより遅い第2のタイミングで撮像された車両周囲画像を含む複数の車両周囲画像から今回算出した動きベクトルにより示される方向との成す角度を算出し、当該算出した角度が所定値未満である場合に限って、前記今回算出した動きベクトルを採用することを特徴とする動きベクトル算出装置。
  8. 車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出するトラッキング対象画像抽出部と、
    前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する位置検出部と、
    あるタイミングからそれより遅いタイミングまで前記撮像装置によって撮像された前記複数の車両周囲画像において前記位置検出部により検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する動きベクトル算出部と、
    前記撮像装置によって逐次撮像された複数の車両周囲画像をそれぞれ視点変換処理することによって、前記車両の上方の仮想視点から見た車両周囲俯瞰画像を生成する俯瞰画像生成部と、
    前記動きベクトル算出部によって算出された前記車両の動きベクトルに基づいて、前記撮像装置によってあるタイミングで撮像された車両周囲画像から前記俯瞰画像生成部により生成された前記車両周囲俯瞰画像を移動させ、この移動させた前記車両周囲俯瞰画像と、前記撮像装置によって前記遅いタイミングで撮像された車両周囲画像から生成された前記車両周囲俯瞰画像との差分を抽出して差分画像を生成する差分画像生成部と、
    前記差分画像生成部により生成された前記差分画像から障害物を検出する障害物検出部とを備えたことを特徴とする障害物検出装置。
  9. 車両に設置された撮像装置によって撮像された車両周囲画像内の予め定めた位置の部分画像をトラッキング対象画像として抽出する第1のステップと、
    前記撮像装置によって逐次撮像された複数の車両周囲画像のそれぞれにおいて、前記トラッキング対象画像の位置を検出する第2のステップと、
    前記第2のステップにより前記複数の車両周囲画像において検出された前記トラッキング対象画像の位置の変化に基づいて、前記車両の動きベクトルを算出する第3のステップとを備えたことを特徴とする動きベクトル算出方法。
JP2008159264A 2008-06-18 2008-06-18 動きベクトル算出装置、障害物検出装置および動きベクトル算出方法 Withdrawn JP2010002985A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008159264A JP2010002985A (ja) 2008-06-18 2008-06-18 動きベクトル算出装置、障害物検出装置および動きベクトル算出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008159264A JP2010002985A (ja) 2008-06-18 2008-06-18 動きベクトル算出装置、障害物検出装置および動きベクトル算出方法

Publications (1)

Publication Number Publication Date
JP2010002985A true JP2010002985A (ja) 2010-01-07

Family

ID=41584694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008159264A Withdrawn JP2010002985A (ja) 2008-06-18 2008-06-18 動きベクトル算出装置、障害物検出装置および動きベクトル算出方法

Country Status (1)

Country Link
JP (1) JP2010002985A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (ja) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp 自車移動推定方法および自車移動推定プログラム
CN105046637A (zh) * 2015-07-31 2015-11-11 深圳市哈工大交通电子技术有限公司 基于 OmapL138芯片的光流跟踪实现方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (ja) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp 自車移動推定方法および自車移動推定プログラム
CN105046637A (zh) * 2015-07-31 2015-11-11 深圳市哈工大交通电子技术有限公司 基于 OmapL138芯片的光流跟踪实现方法
CN105046637B (zh) * 2015-07-31 2018-08-10 深圳市哈工大交通电子技术有限公司 基于 OmapL138芯片的光流跟踪实现方法

Similar Documents

Publication Publication Date Title
JP4203512B2 (ja) 車両周辺監視装置
JP4367475B2 (ja) 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP4631096B2 (ja) 車両周辺監視装置
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
US20120327189A1 (en) Stereo Camera Apparatus
US20200148203A1 (en) In-vehicle monitoring camera device
JP5865547B2 (ja) 画像表示装置および画像表示方法
JP6171593B2 (ja) 視差図からの対象追跡方法及びシステム
JP2008102620A (ja) 画像処理装置
JP2008262333A (ja) 路面判別装置および路面判別方法
JPH11351862A (ja) 前方車両検出方法及び装置
JP6617150B2 (ja) 物体検出方法及び物体検出装置
JP2009157581A (ja) 歩行者検出装置
JPWO2011013813A1 (ja) 車載装置および画像処理プログラム
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP2018074411A (ja) 物体検出装置及び物体検出方法
JP2014106739A (ja) 車載画像処理装置
JP2015230703A (ja) 物体検出装置及び物体検出方法
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP5012522B2 (ja) 路側境界面検出装置
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP5931691B2 (ja) 白線検出装置および白線検出方法
JP2008286648A (ja) 距離計測装置、距離計測システム、距離計測方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906