JP3969984B2 - Recognition method for moving objects - Google Patents

Recognition method for moving objects Download PDF

Info

Publication number
JP3969984B2
JP3969984B2 JP2001290759A JP2001290759A JP3969984B2 JP 3969984 B2 JP3969984 B2 JP 3969984B2 JP 2001290759 A JP2001290759 A JP 2001290759A JP 2001290759 A JP2001290759 A JP 2001290759A JP 3969984 B2 JP3969984 B2 JP 3969984B2
Authority
JP
Japan
Prior art keywords
frame image
reference image
calculation
vehicle
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001290759A
Other languages
Japanese (ja)
Other versions
JP2003099784A (en
Inventor
仁臣 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2001290759A priority Critical patent/JP3969984B2/en
Publication of JP2003099784A publication Critical patent/JP2003099784A/en
Application granted granted Critical
Publication of JP3969984B2 publication Critical patent/JP3969984B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、自車に搭載した撮像手段により走行中に撮像して得られる所定時間相前後した2つのフレーム画像における同一点の移動をオプティカルフローとして検出し、自車周辺の移動物体を認識する移動物体の認識方法に関する。
【0002】
【従来の技術】
従来、自車の走行中に、自車に搭載した撮像手段により後側方を撮像して得られる画像を処理し、車両や路側構造物等の移動物体を認識する手法として勾配法や相関演算法があり、ハードウェア化が容易である点から後者の相関演算法がよく利用されている。
【0003】
この相関演算法は、テンプレートマッチング法とも呼ばれ、画像中に対象物の動きベクトル、つまりオプティカルフローを計算するのに利用される手法であり、例えば図10に示すように、所定時間相前後した2つのフレーム画像(時刻tと時刻t+1のフレーム画像)に対して、
D(u,v)=Σx,y∈R|I(x,y)−If+1(x+u,y+v)|で定義される各画素毎の輝度差の和、つまり残差D(u,v)が最小となるかどうかを探索し、最小となればそのときの移動ベクトル(u,v)をもって、その座標位置(x,y)での対象物の動き量とするものである。
【0004】
尚、上記した式において、fはフレーム、Rは参照画像領域、I(x,y)はフレームfでの画像上の座標(x,y)での輝度、If+1(x+u,y+v)はフレームf+1での画像上の座標(x+u,y+v)での輝度である。
【0005】
ところで、このような相関演算法の場合、上記したような2つのフレーム画像におけるある対象物について所定値以上のマッチング正解率を期待すると、参照画像領域を大きくする必要があり、その際探索方向を2次元にすると計算量が勢い増加してしまう。
【0006】
【発明が解決しようとする課題】
このような観点から、例えば図11に示すように、計算方向を1次元方向、つまり撮像方向を示す1点に対応する無限遠点からの放射状方向に限定し、計算量を低減することが従来行われている。
【0007】
また、車速と組み合わせることによって、車両運動から計算される移動量と、画像処理によって求めたオプティカルフローとの一致、不一致によってフロー精度を向上することも提案されている。例えば図12に示すように、自車速vと2次元−3次元投影式から、風景の無限遠点への画像上における移動量d_minusと、無限遠点から自車との相対速度で迫る追い越し車両等の移動物体の画像上での最大移動量d−plusとを計算することができる。
【0008】
しかしながら、これらの手法では、依然として計算量が多く、高速演算が可能なCPUが必要となるため、実用化において大きな支障となり、自車との相対速度の大きい移動物体を認識することが非常に困難であるという問題があった。
【0009】
そこで、本発明は、相関演算法におけるオプティカルフローの計算量を大幅に低減し、自車との相対速度の大きい移動物体の認識も可能にすることを目的とする。
【0010】
【課題を解決するための手段】
上記した目的を達成するために、本発明にかかる移動物体の認識方法は、走行中に自車に搭載した撮像手段により自車後側方を撮像し、所定時間相前後した2つのフレーム画像中にそれぞれ所定の大きさに設定される参照画像領域内における各画素毎の輝度差の累積和が最小となるかどうかを探索し、最小となれば前記両参照画像領域が同一物体を表わすべくマッチングしていると判断して前記両参照画像領域の移動をオプティカルフローとして導出し、導出した前記オプティカルフローの方向及び大きさから自車後側方の移動物体を認識する移動物体の認識方法において、前記フレーム画像について、走行中の自車から撮像方向を示す1点に対応する無限遠点から放射状の探索ライン上にそれぞれ複数の計算点を定め、現在より所定時間前の前フレーム画像中のある計算点に前記参照画像領域を設定すると共に、前記前フレーム画像から前記所定時間後の現在フレーム画像中に、前記探索ラインに沿って移動した位置に前記参照画像領域を設定し、前記前フレーム画像の前記参照画像領域、及び、前記現在フレーム画像の前記参照画像領域について、これら参照画像領域内における各画素毎の輝度差の累積和を演算してこの累積和の最小値を求めて保持しておき、ある時刻における前記フレーム画像中の前記計算点に設定される前記参照画像領域と、その所定時間後の次フレーム画像中の前記計算点に設定される前記参照画像領域との前記累積和を演算してマッチングを判断する際に、その演算途中で前記最小値を超えるときには超えた時点で演算を中止し、演算終了時に前記最小値を下回るときには前記最小値を更新するものであって、前記撮像手段と同じ方向を観測する距離検出手段を設け、前記距離検出手段により、前記累積和の最小値を与える前記計算点を定めるための基準となる反射点を特定することを特徴としている。
【0011】
このような構成によれば、ある時刻におけるフレーム画像と、その所定時間後の次フレーム画像について、参照画像領域内の各画素毎の輝度差の累積和を演算している途中で、その累積和が保持しておいた最小値を超えるときにはその時点でその演算を中止するため、従来に比べてオプティカルフローの計算量を大幅に低減することができ、自車との相対速度の大きい移動物体であっても容易にそのオプティカルフローを計算して認識することができる。このとき、距離検出手段により検出される距離変化から、ある対象物の相対速度がわかり、累積和の最小値を与える計算点を定める際に、そこが風景部分であるのかどうか簡単に判断することでき、累積和の最小値を与える計算点の設定を容易に行うことができる。
【0012】
このとき、演算終了時に累積和が保持しておいた最小値を超えなければ、今回の演算による累積和が新たな最小値をとして更新されるため、マッチングの精度が低下することはない。
【0013】
また、本発明にかかる移動物体の認識方法は、前記前フレーム画像に最初に前記参照画像領域を設定する際には、前記前フレーム画像中において自車速と同じ大きさの相対速度で移動する風景部分に設定して、前記前フレーム画像から前記所定時間後の前記現在フレーム画像中に、自車速に応じた量だけ所定の前記探索ラインを前記無限遠点に向かう方向に移動した位置に前記参照画像領域を設定することを特徴としている。
【0014】
このような構成によれば、風景部分は自車速と同じ大きさの相対速度で、自車と反対方向に移動するため、そのような風景部分に累積和の最小値を与える計算点を設定することで、輝度差の累積和の最小値を容易に求めることができる。
【0015】
また、本発明にかかる移動物体の認識方法は、前記前フレーム画像に最初に前記参照画像領域を設定する際には、前記前フレーム画像中において自車速に対してある相対速度で移動する移動部分に設定して、前記前フレーム画像から前記所定時間後の前記現在フレーム画像中に、自車速に対する相対速度に応じた量だけ所定の前記探索ラインに沿って移動した位置に前記参照画像領域を設定し、前記自車に対する相対速度が自車速よりも大きいかどうかにより、前記現在フレーム画像に設定すべき前記参照画像領域の位置を前記探索ラインに沿って前記無限遠点から離れる方向にするかその反対方向にするかを決定することを特徴としている。
【0016】
このような構成によれば、例えば自車を追い越す追い越し車両の場合には、相対速度は無限遠点から離れる方向であることから、現在フレーム画像中に無限遠点から離れる方向に相対速度に応じた量だけ移動した位置に参照画像領域を設定することにより、追い越し車両についてのマッチングの基準となる累積和を容易に得ることができる。
【0017】
また、本発明にかかる移動物体の認識方法は、前記無限遠点付近では前記計算点の数を密にし、前記撮像手段付近では前記計算点の数を粗にすることを特徴としている。このような構成によれば、例えば自車の後側方を撮像中に、追い越し車両が自車に接近しても、計算量に大きな影響を与える自車近辺の計算点の数が少ないことから、いたずらに計算量が増加することもなく、追い越し車両の認識を迅速に行うことができる。
【0018】
また、本発明にかかる移動物体の認識方法は、前記各計算点について、前記現在フレーム画像においてマッチングにより得られたオプティカルフローの方向を保持しておき、前記次フレーム画像では、その保持したオプティカルフローの方向から探索を開始することを特徴としている。
【0019】
このような構成によれば、前のフレームにおけるオプティカルフローの方向から探索を開始するため、オプティカルフローの計算における上記した輝度差の累積和が最小値を超えて計算が中止される確率が非常に高くなり、自車との相対速度の大きい移動物体のオプティカルフローを計算するときに、その計算量の低減に大きく寄与することができる。
【0022】
また、本発明にかかる移動物体の認識方法は、前記距離検出手段が、レーザ光をその照射方向と直交方向に走査しつつ照射し、反射光を観測するまでの時間を計測して反射点までの距離を検出するスキャンレーザレーダであり、前記スキャンレーザレーダの走査時間が前記所定時間に設定されていることを特徴としている。
【0023】
このような構成によれば、スキャンレーザレーダは、ある程度の水平視野をもって距離検出を行うことができるため、撮像手段による撮像範囲とほぼ同じ範囲内で距離検出を行い、累積和の最小値を与える計算点の設定をより容易に行うことができる。
【0024】
【発明の実施の形態】
(第1実施形態)
この発明の第1実施形態について図1ないし図5を参照して説明する。但し、図1はブロック図、図2ないし図5は動作説明図である。
【0025】
図1に示すように、自車に撮像手段としての単眼CCDカメラ1が搭載され、このCCDカメラ1により自車の後側方が撮像され、得られた各時刻毎のフレーム画像がCPU2によりRAM等から成るメモリ3に保存される。そして、CPU2は各フレーム画像を処理して画像中の対象物のオプティカルフローを計算してその移動量を求め、その対象物が車両かどうか認識する。
【0026】
即ち、CPU2により、各フレーム画像について、走行中の自車から撮像方向を示す1点に対応する無限遠点から放射状の探索ライン上にそれぞれ複数の計算点が定められ、図2に示すように、現在より所定時間であるΔt時間前の時刻Tにおける前フレーム画像中のある計算点に、所定の大きさの参照画像領域(図2中の矩形)が設定されると共に、前フレーム画像から所定時間であるΔt時間後の時刻T+1における現在フレーム画像に、探索ライン(図2中の直線)上を移動した位置に参照画像領域が設定され、前フレーム画像の参照画像領域、及び、現在フレーム画像の参照画像領域について、これら参照画像領域内における各画素毎の輝度差の累積和が演算されてこの累積和の最小値Corr_minが早い段階で求められてメモリ3に保持される。
【0027】
このとき、前フレーム画像に最初に参照画像領域を設定する際、その前フレーム画像中において自車速vと同じ大きさの相対速度で自車と反対方向に移動する風景部分に設定し、前フレーム画像からΔt時間後の現在フレーム画像中には、自車速に応じた量だけ探索ラインを無限遠点に向かう方向に移動した位置に参照画像領域を設定するとよい。
【0028】
その理由として、風景部分は自車速vと同じ大きさの相対速度で、自車と反対方向に移動するため、そのような風景部分に累積和の最小値Corr_minを与える計算点を設定することで、輝度差の累積和の最小値Corr_minをかなりの高確率で簡単に求めることができるからである。
【0029】
一方、前フレーム画像に最初に参照画像領域を設定する際、前フレーム画像中において自車速に対してある相対速度で移動する例えば追い越し車両部分に設定し、前フレーム画像からΔt時間後の現在フレーム画像中には、自車速vに対する相対速度に応じた量だけ探索ラインに沿って移動した位置に参照画像領域を設定し、そのとき追い越し車両は自車に対する相対速度が自車速よりも大きいことから、現在フレーム画像に設定すべき参照画像領域の位置を探索ラインに沿って無限遠点から離れる方向に設定すればよい。
【0030】
こうすると、かなりの高確率で追い越し車両部分に参照画像領域を設定して輝度差の累積和の最小値Corr_minを比較的簡単に求めることができる。
【0031】
また、無限遠点付近では前記計算点の数を密にし、前記撮像手段付近では前記計算点の数を粗にするのが望ましい。こうすれば、自車の後側方を撮像中に、追い越し車両が自車に接近しても、計算量に大きな影響を与える自車近辺の計算点の数が少ないことから、いたずらに計算量が増加することもなく、追い越し車両の認識を迅速に行うことができる。
【0032】
そして、CPU2により、ある時刻T+1におけるフレーム画像中の計算点に設定される参照画像領域と、その所定時間であるΔt時間後の時刻T+2における次フレーム画像において、探索ライン(図2中の直線)を無限遠点に向かう方向に移動した計算点に設定される参照画像領域との各画素毎の輝度差の累積和が演算され、その演算途中において、図3に示すように、演算中の累積和が予め求めておいた最小値Corr_minを超えるときには、その時点で演算が中止されるようになっている。
【0033】
尚、演算終了時の累積和が予め求めておいた最小値Corr_minを超えなければ、CPU2により、新たにそのときの累積和が最小値Corr_minとしてメモリ3に更新保持される。こうすれば、マッチング精度の低下を防止することができる。
【0034】
また、図4(a)に示すように、各計算点(図中の○印)について、時刻T+1の現在フレーム画像において、無限遠点からの探索ラインにおいてマッチングにより得られたオプティカルフローの方向が、例えば無限遠点から離れる方向にであれば、同図(a)中の“−(マイナス)”、無限遠点に向かう方向であれば、同図(a)中の“+(プラス)”というように、マッチング方向を保持しておき、Δ時間後の時刻T+2の次フレーム画像では、同図(b)に示すように、前回保持したオプティカルフローの方向から探索が開始されるようになっている。
【0035】
こうすると、次のフレーム画像について、前のフレームにおけるオプティカルフローの方向から探索を開始するため、オプティカルフローの計算における上記した輝度差の累積和が最小値を超えて計算が中止される確率が非常に高くなり、自車との相対速度の大きい移動物体のオプティカルフローを計算するときにもその計算量のいっそうの低減を図ることができる。
【0036】
更に、次のフレームでは、前のフレームにおいてマッチングしてオプティカルフローの方向が得られた位置を中心にして、図5中に付した番号“1”,“2”,…順に+、−の両方向に交互に探索を繰り返すようにしてもよい。こうすれば、ほとんどの場合、前回のマッチング位置の近傍で今回もマッチングが得られるため、より計算量の低減を図ることができる。
【0037】
従って、第1実施形態によれば、ある時刻Tにおけるフレーム画像と、その所定時間であるΔt時間後の時刻T+1における次フレーム画像について、参照画像領域内の各画素毎の輝度差の累積和を演算している途中で、その累積和が保持しておいた最小値を超えるときにはその時点でその演算を中止するため、従来に比べてオプティカルフローの計算量を大幅に低減することができ、自車との相対速度の大きい移動物体であっても容易にそのオプティカルフローを計算して認識することが可能になる。
【0038】
更に、演算終了時に累積和が保持しておいた最小値を超えなければ、今回の演算による累積和が新たな最小値として更新されるため、マッチングの精度が低下することを防止できる。
【0039】
(第2実施形態)
この発明の第2実施形態について図6ないし図9を参照して説明する。但し、図6はブロック図、図7ないし図9は動作説明図である。尚、本実施形態において、CPU2の基本的な機能は第1実施形態と略同じであるため、以下では、主として第1実施形態と異なる点について説明することとし、重複した説明は省略する。
【0040】
本実施形態では、図6に示すように、CCDカメラ1と同じ自車後側方を観測する距離検出手段として、レーザ光をその照射方向と直交する水平方向に走査しつつ照射し、反射光を観測するまでの時間を計測して反射点までの距離を検出するスキャンレーザレーダ4を設け、このスキャンレーザレーダ4により、自車速と同じ大きさの相対速度で自車と反対方向に移動する反射点を特定し、特定したその反射点を、累積和の最小値を与える計算点とするようにしている。
【0041】
但し、キャンレーザレーダ4の走査時間は、上記したマッチングを得るためのフレーム画像のサンプリング周期であるΔt(本発明における所定時間)に設定するのが望ましい。
【0042】
こうすると、図7に示すように、時刻t及び時刻t+1において、自車に対する障害物A,Bがどのように移動したかがスキャンレーザレーダ4の出力変化からわかり、障害物A,Bの自車に対する相対速度及び方向がわかる。
【0043】
ところで、スキャンレーザレーダ4による1サンプリング周期での反射点データの距離変化は、そのまま自車に対する障害物の相対速度を表わし、また図9に示す3次元空間と2次元画像平面の投影式より、図8に示すように、3次元空間中での移動ベクトルは2次元画像平面での移動ベクトルに変換することができる。
【0044】
つまり、図8に示す参照画像領域Iaの画像がどの部分に移動したかを探索する上記の輝度差計算を、参照画像領域Ibの近辺だけで行うことができるようになり、風景などの反射データがない部分に対しては、輝度差計算を一切行わなくても、スキャンレーザレーダ4による測定結果から、障害物が存在しないことをある程度裏付けることができるため、風景部分に対する計算量を第1実施形態の場合よりもかなり低減することができる。
【0045】
また、スキャンレーザレーダ4は、不検出を防止するために、通常高感度に設定されノイズを計測しやすいが、本発明の場合、例えばベクトルabが誤検出であったときには、参照画像領域IaとIbの相関演算値が一致しないため、スキャンレーザレーダ4のノイズであると判定することができ、移動物体の認識精度の向上に寄与することができる。
【0046】
従って、第2実施形態によれば、スキャンレーザレーダ4により検出される距離変化から、ある対象物の相対速度がわかり、上記した2つのフレーム画像中の参照画像領域内における各画素毎の輝度差の累積和の最小値を与える計算点を定める際に、そこが風景部分であるのか自車以外の車両であるのかを簡単に判断することできるため、累積和の最小値を与える計算点の設定を容易に行うことができる。
【0047】
さらに、スキャンレーザレーダ4は、ある程度の水平視野をもって距離検出を行うことができるため、CCDカメラによる撮像範囲とほぼ同じ範囲内で距離検出を行い、累積和の最小値を与える計算点の設定をより容易に行うことができる。
【0048】
なお、第2実施形態では、距離検出手段として、スキャンレーザレーダ4を用いた場合について説明したが、距離検出手段はスキャンレーザレーダに限定されるものでないのは勿論である。
【0049】
更に、上記した各実施形態では、撮像手段として単眼のCCDカメラ1を用いた場合について説明したが、撮像手段は上記したCCDカメラに限定されるものでないのはいうまでもない。
【0050】
また、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。
【0051】
【発明の効果】
以上のように、請求項1に記載の発明によれば、ある時刻におけるフレーム画像と、その所定時間後の次フレーム画像について、参照画像領域内の各画素毎の輝度差の累積和を演算している途中で、その累積和が保持しておいた最小値を超えるときにはその時点でその演算を中止するため、従来に比べてオプティカルフローの計算量を大幅に低減することができ、自車との相対速度の大きい移動物体であっても容易にそのオプティカルフローを計算して認識することが可能になる。このとき、距離検出手段により検出される距離変化から、ある対象物の相対速度がわかり、累積和の最小値を与える計算点を定める際に、そこが風景部分であるのかどうか簡単に判断することでき、累積和の最小値を与える計算点の設定を容易に行うことが可能になり、高度で快適な運転支援システムの提供に貢献することができる。
【0052】
更に、演算終了時に累積和が保持しておいた最小値を超えなければ、今回の演算による累積和が新たな最小値をとして更新されるため、マッチングの精度が低下することを防止できる。
【0053】
また、請求項2に記載の発明によれば、風景部分は自車速と同じ大きさの相対速度で、自車と反対方向に移動するため、そのような風景部分に累積和の最小値を与える計算点を設定することで、輝度差の累積和の最小値を容易に求めることが可能になる。
【0054】
また、請求項3に記載の発明によれば、例えば自車を追い越す追い越し車両の場合には、相対速度は無限遠点から離れる方向であることから、現在フレーム画像中に無限遠点から離れる方向に相対速度に応じた量だけ移動した位置に参照画像領域を設定することにより、追い越し車両についてのマッチングの基準となる累積和を容易に得ることが可能になる。
【0055】
また、請求項4に記載の発明によれば、例えば自車の後側方を撮像中に、追い越し車両が自車に接近しても、計算量に大きな影響を与える自車近辺の計算点の数が少ないことから、いたずらに計算量が増加することもなく、追い越し車両の認識を迅速に行うことが可能になる。
【0056】
また、請求項5に記載の発明によれば、前のフレームにおけるオプティカルフローの方向から探索を開始するため、オプティカルフローの計算における上記した輝度差の累積和が最小値を超えて計算が中止される確率が非常に高くなり、自車との相対速度の大きい移動物体のオプティカルフローを計算するときに、その計算量の低減に大きく寄与することが可能になる。
【0058】
また、請求項に記載の発明によれば、スキャンレーザレーダは、ある程度の水平視野をもって距離検出を行うことができるため、撮像手段による撮像範囲とほぼ同じ範囲内で距離検出を行い、累積和の最小値を与える計算点の設定をより容易に行うことが可能になる。
【図面の簡単な説明】
【図1】この発明の第1実施形態のブロック図である。
【図2】この発明の第1実施形態の動作説明図である。
【図3】この発明の第1実施形態の動作説明図である。
【図4】この発明の第1実施形態の動作説明図である。
【図5】この発明の第1実施形態の動作説明図である。
【図6】この発明の第2実施形態のブロック図である。
【図7】この発明の第2実施形態の動作説明図である。
【図8】この発明の第2実施形態の動作説明図である。
【図9】この発明の第2実施形態の動作説明図である。
【図10】従来例の動作説明図である。
【図11】従来例の動作説明図である。
【図12】従来例の動作説明図である。
【符号の説明】
1 CCDカメラ(撮像手段)
2 CPU
3 メモリ
4 スキャンレーザレーダ(距離検出手段)
[0001]
BACKGROUND OF THE INVENTION
According to the present invention, the movement of the same point in two frame images that are obtained before and after a predetermined time phase obtained by imaging by an imaging means mounted on the own vehicle is detected as an optical flow, and a moving object around the own vehicle is recognized. The present invention relates to a moving object recognition method.
[0002]
[Prior art]
Conventionally, the gradient method and correlation calculation are used as a method to recognize moving objects such as vehicles and roadside structures by processing the image obtained by imaging the rear side with the imaging means installed in the vehicle while the vehicle is running. The latter correlation calculation method is often used because there is a method and hardware is easy.
[0003]
This correlation calculation method is also called a template matching method, and is a method used to calculate a motion vector of an object in an image, that is, an optical flow. For example, as shown in FIG. For two frame images (frame images at time t and time t + 1),
D (u, v) = Σx, yεR | I f (x, y) −I f + 1 (x + u, y + v) | The sum of the luminance differences for each pixel, that is, the residual D (u, Whether or not v) is minimized is searched, and if it is minimized, the movement vector (u, v) at that time is used as the amount of movement of the object at the coordinate position (x, y).
[0004]
In the above equation, f is a frame, R is a reference image region, I f (x, y) is a luminance at coordinates (x, y) on the image in frame f, and I f + 1 (x + u, y + v) is It is the luminance at the coordinates (x + u, y + v) on the image in the frame f + 1.
[0005]
By the way, in the case of such a correlation calculation method, if a matching accuracy rate exceeding a predetermined value is expected for a certain object in the two frame images as described above, it is necessary to enlarge the reference image area. If it is two-dimensional, the amount of calculation will increase rapidly.
[0006]
[Problems to be solved by the invention]
From this point of view, for example, as shown in FIG. 11, the calculation direction is limited to a one-dimensional direction, that is, a radial direction from an infinite point corresponding to one point indicating the imaging direction, and the calculation amount is conventionally reduced. Has been done.
[0007]
It has also been proposed to improve flow accuracy by matching or mismatching the amount of movement calculated from vehicle motion and the optical flow obtained by image processing by combining with the vehicle speed. For example, as shown in FIG. 12, an overtaking vehicle that approaches the moving amount d_minus on the image from the own vehicle speed v and the two-dimensional and three-dimensional projection formula to the infinite point of the landscape and the relative speed from the infinite point to the own vehicle. The maximum moving amount d-plus on the image of the moving object such as can be calculated.
[0008]
However, these methods still require a large amount of calculation and a CPU capable of high-speed computation, which is a major obstacle in practical use and it is very difficult to recognize a moving object having a high relative speed with the own vehicle. There was a problem of being.
[0009]
Therefore, an object of the present invention is to greatly reduce the amount of calculation of optical flow in the correlation calculation method and to recognize a moving object having a large relative speed with respect to the own vehicle.
[0010]
[Means for Solving the Problems]
In order to achieve the above-described object, the moving object recognition method according to the present invention is based on two frame images obtained by capturing an image of the rear side of the host vehicle with an imaging unit mounted on the host vehicle while traveling and before and after a predetermined time phase. The reference image area set to a predetermined size is searched for whether or not the cumulative sum of the luminance differences for each pixel is minimized, and if it is minimized, the two reference image areas are matched to represent the same object. In the method for recognizing a moving object, the movement of both reference image regions is derived as an optical flow by determining that the moving object is recognized, and the moving object behind the vehicle is recognized from the direction and size of the derived optical flow. For the frame image, a plurality of calculation points are determined on a radial search line from an infinite point corresponding to one point indicating the imaging direction from the traveling vehicle, and a predetermined time before the present The reference image area is set at a certain calculation point in the previous frame image, and the reference image area is set at a position moved along the search line in the current frame image after the predetermined time from the previous frame image. Then, for the reference image area of the previous frame image and the reference image area of the current frame image, a cumulative sum of luminance differences for each pixel in the reference image area is calculated, and the minimum value of the cumulative sum is calculated. The reference image area set at the calculation point in the frame image at a certain time and the reference image area set at the calculation point in the next frame image after a predetermined time When calculating the cumulative sum of the two and determining the matching, if the minimum value is exceeded during the calculation, the calculation is stopped when the value exceeds the minimum value, and the calculation is completed when the calculation is completed. When below the value be one that updates the minimum value, the distance detection means for observing the same direction as the imaging means is provided, by the distance detecting means, for determining the calculated point which gives the minimum value of the cumulative sum It is characterized by specifying a reflection point as a reference for the above.
[0011]
According to such a configuration, during the calculation of the cumulative sum of the luminance differences for each pixel in the reference image area for the frame image at a certain time and the next frame image after the predetermined time, the cumulative sum is calculated. When the value exceeds the minimum value, the calculation is stopped at that time, so the amount of calculation of the optical flow can be greatly reduced compared to the conventional method. Even if it exists, the optical flow can be easily calculated and recognized. At this time, the relative speed of a certain object is known from the distance change detected by the distance detecting means, and when determining a calculation point that gives the minimum value of the cumulative sum, it is easy to determine whether it is a landscape part. The calculation point that gives the minimum value of the cumulative sum can be easily set.
[0012]
At this time, if the cumulative sum does not exceed the minimum value held at the end of the computation, the cumulative sum of the current computation is updated as a new minimum value, so matching accuracy does not decrease.
[0013]
In the moving object recognition method according to the present invention, when the reference image area is first set in the previous frame image, the scene moves at a relative speed that is the same as the vehicle speed in the previous frame image. The reference is set to a position where the predetermined search line is moved in the direction toward the infinity point by an amount corresponding to the vehicle speed in the current frame image after the predetermined time from the previous frame image. It is characterized by setting an image area .
[0014]
According to such a configuration, since the landscape portion moves in the opposite direction to the own vehicle at the same relative speed as the own vehicle speed, a calculation point that gives the minimum cumulative sum to such a landscape portion is set. Thus, the minimum value of the cumulative sum of luminance differences can be easily obtained.
[0015]
In the moving object recognition method according to the present invention, when the reference image area is first set in the previous frame image, the moving part moves at a relative speed with respect to the vehicle speed in the previous frame image. The reference image area is set at a position moved along the predetermined search line by an amount corresponding to the relative speed with respect to the own vehicle speed in the current frame image after the predetermined time from the previous frame image. The position of the reference image area to be set in the current frame image is set in a direction away from the infinity point along the search line depending on whether the relative speed with respect to the own vehicle is larger than the own vehicle speed. It is characterized by determining the opposite direction .
[0016]
According to such a configuration, for example, in the case of an overtaking vehicle that overtakes the host vehicle, the relative speed is a direction away from the infinity point, so that the current frame image corresponds to the relative speed in the direction away from the infinity point. By setting the reference image area at the position moved by the amount, it is possible to easily obtain a cumulative sum serving as a matching criterion for the overtaking vehicle .
[0017]
Further, the moving object recognition method according to the present invention is characterized in that the number of calculation points is made dense near the infinity point and the number of calculation points is made coarse near the imaging means. According to such a configuration, for example, even if the overtaking vehicle approaches the own vehicle while imaging the rear side of the own vehicle, the number of calculation points in the vicinity of the own vehicle that greatly affects the calculation amount is small. The overtaking vehicle can be quickly recognized without unnecessarily increasing the amount of calculation.
[0018]
In the moving object recognition method according to the present invention, the direction of the optical flow obtained by matching in the current frame image is retained for each calculation point, and the retained optical flow is retained in the next frame image. The search is started from the direction of.
[0019]
According to such a configuration, since the search is started from the direction of the optical flow in the previous frame, there is a very high probability that the cumulative sum of the luminance differences in the optical flow calculation exceeds the minimum value and the calculation is stopped. When the optical flow of a moving object having a high relative speed with respect to the own vehicle is calculated, it can greatly contribute to the reduction of the calculation amount.
[0022]
In the moving object recognition method according to the present invention, the distance detecting unit irradiates the laser beam while scanning it in a direction orthogonal to the irradiation direction, and measures the time until the reflected light is observed to the reflection point. The scanning laser radar detects the distance of the scanning laser radar, and the scanning time of the scanning laser radar is set to the predetermined time.
[0023]
According to such a configuration, the scan laser radar can perform distance detection with a certain horizontal field of view, and therefore performs distance detection within substantially the same range as the imaging range by the imaging means and gives the minimum value of the cumulative sum. Calculation points can be set more easily.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS. However, FIG. 1 is a block diagram, and FIGS.
[0025]
As shown in FIG. 1, a monocular CCD camera 1 as an imaging means is mounted on the own vehicle, the rear side of the own vehicle is imaged by the CCD camera 1, and the obtained frame images at each time are stored in the RAM by the CPU 2. Etc. are stored in the memory 3 composed of the like. And CPU2 processes each frame image, calculates the optical flow of the target object in an image, calculates | requires the movement amount, and recognizes whether the target object is a vehicle.
[0026]
That is, for each frame image, the CPU 2 determines a plurality of calculation points on the radial search line from the infinity point corresponding to one point indicating the imaging direction from the traveling vehicle, as shown in FIG. A reference image area (rectangular in FIG. 2) having a predetermined size is set at a certain calculation point in the previous frame image at time T, which is a predetermined time Δt before the current time, and is determined from the previous frame image. A reference image area is set at a position moved on the search line (straight line in FIG. 2) in the current frame image at time T + 1 after time Δt, and the reference image area of the previous frame image and the current frame image For the reference image areas, a cumulative sum of luminance differences for each pixel in the reference image areas is calculated, and a minimum value Corr_min of the cumulative sum is obtained at an early stage to obtain a memory. 3 is held.
[0027]
At this time, when the reference image area is set for the first time in the previous frame image, it is set to a landscape portion that moves in the opposite direction to the own vehicle at the same relative speed as the own vehicle speed v in the previous frame image. In the current frame image after Δt time from the image, the reference image region may be set at a position where the search line is moved in the direction toward the infinity point by an amount corresponding to the own vehicle speed.
[0028]
The reason is that the scenery portion moves in the opposite direction to the own vehicle at the same relative speed as the own vehicle speed v. Therefore, by setting a calculation point that gives the minimum cumulative value Corr_min to such a scenery portion. This is because the minimum value Corr_min of the cumulative sum of luminance differences can be easily obtained with a considerably high probability.
[0029]
On the other hand, when the reference image area is set for the first time in the previous frame image, the current frame is set to, for example, an overtaking vehicle portion that moves at a relative speed with respect to the vehicle speed in the previous frame image, and Δt time after the previous frame image. In the image, a reference image area is set at a position moved along the search line by an amount corresponding to the relative speed with respect to the own vehicle speed v. At that time, the passing vehicle has a relative speed higher than the own vehicle speed. The position of the reference image area to be set in the current frame image may be set in a direction away from the infinity point along the search line.
[0030]
In this way, it is possible to relatively easily determine the minimum value Corr_min of the cumulative sum of the luminance differences by setting the reference image area in the overtaking vehicle portion with a very high probability.
[0031]
In addition, it is desirable that the number of the calculation points is dense near the infinity point, and the number of the calculation points is coarse near the imaging means. In this way, the number of calculation points in the vicinity of the own vehicle that has a large effect on the calculation amount is small even if the overtaking vehicle approaches the own vehicle while imaging the rear side of the own vehicle. The passing vehicle can be quickly recognized without increasing.
[0032]
Then, the search line (straight line in FIG. 2) in the reference image area set at the calculation point in the frame image at a certain time T + 1 by the CPU 2 and the next frame image at the time T + 2 after the predetermined time Δt. The cumulative sum of the luminance difference for each pixel with the reference image area set in the calculation point moved in the direction toward the infinity point is calculated, and during the calculation, as shown in FIG. When the sum exceeds a predetermined minimum value Corr_min, the calculation is stopped at that time.
[0033]
If the cumulative sum at the end of the calculation does not exceed the minimum value Corr_min obtained in advance, the CPU 2 newly updates and holds the cumulative sum at that time as the minimum value Corr_min in the memory 3. In this way, it is possible to prevent a decrease in matching accuracy.
[0034]
Further, as shown in FIG. 4A, for each calculation point (circle mark in the figure), the direction of the optical flow obtained by matching in the search line from the infinity point in the current frame image at time T + 1 is For example, if the direction is away from the infinity point, “− (minus)” in FIG. 10A, and if the direction is toward the infinity point, “+ (plus)” in FIG. Thus, the matching direction is held, and in the next frame image at time T + 2 after Δ time, as shown in FIG. 5B, the search is started from the optical flow direction held last time. ing.
[0035]
In this way, since the search for the next frame image starts from the direction of the optical flow in the previous frame, the cumulative sum of the luminance differences in the optical flow calculation exceeds the minimum value, and there is a high probability that the calculation will be stopped. Even when calculating the optical flow of a moving object having a high relative speed with respect to the host vehicle, the amount of calculation can be further reduced.
[0036]
Further, in the next frame, the numbers “1”, “2”,..., Both in the order of + and − in the order shown in FIG. 5 centering on the position where the optical flow direction is obtained by matching in the previous frame. The search may be repeated alternately. In this case, in most cases, matching is obtained in the vicinity of the previous matching position, so that the amount of calculation can be further reduced.
[0037]
Therefore, according to the first embodiment, for the frame image at a certain time T and the next frame image at the time T + 1 after the predetermined time Δt, the cumulative sum of the luminance differences for each pixel in the reference image area is calculated. If the cumulative sum exceeds the retained minimum value during computation, the computation is stopped at that point, so the amount of optical flow calculation can be greatly reduced compared to the conventional method. Even a moving object having a large relative speed with respect to a vehicle can easily calculate and recognize the optical flow.
[0038]
Furthermore, if the cumulative sum does not exceed the minimum value held at the end of the computation, the cumulative sum of the current computation is updated as a new minimum value, so that it is possible to prevent the matching accuracy from being lowered.
[0039]
(Second Embodiment)
A second embodiment of the present invention will be described with reference to FIGS. However, FIG. 6 is a block diagram, and FIGS. In the present embodiment, the basic functions of the CPU 2 are substantially the same as those in the first embodiment. Therefore, hereinafter, differences from the first embodiment will be mainly described, and redundant description will be omitted.
[0040]
In the present embodiment, as shown in FIG. 6, as the distance detecting means for observing the same rear side of the host vehicle as the CCD camera 1, laser light is irradiated while scanning in the horizontal direction perpendicular to the irradiation direction, and reflected light. A scan laser radar 4 is provided for measuring the time to observe the distance to detect the distance to the reflection point, and the scan laser radar 4 moves in the opposite direction to the own vehicle at a relative speed equal to the own vehicle speed. A reflection point is specified, and the specified reflection point is set as a calculation point that gives the minimum value of the cumulative sum.
[0041]
However, the scanning time of the can laser radar 4 is preferably set to Δt (a predetermined time in the present invention) which is a sampling period of the frame image for obtaining the above-described matching.
[0042]
Then, as shown in FIG. 7, at time t and time t + 1, it can be seen from the change in the output of the scan laser radar 4 how the obstacles A and B move with respect to the own vehicle. Know the relative speed and direction of the car.
[0043]
By the way, the change in the distance of the reflection point data in one sampling period by the scan laser radar 4 directly represents the relative velocity of the obstacle with respect to the own vehicle, and from the projection formula of the three-dimensional space and the two-dimensional image plane shown in FIG. As shown in FIG. 8, a movement vector in a three-dimensional space can be converted into a movement vector on a two-dimensional image plane.
[0044]
That is, the above-described luminance difference calculation for searching to which part the image of the reference image area Ia shown in FIG. 8 has moved can be performed only in the vicinity of the reference image area Ib. For a portion having no error, it is possible to confirm that there is no obstacle from the measurement result by the scan laser radar 4 without performing any brightness difference calculation. It can be considerably reduced compared to the case of the form.
[0045]
The scan laser radar 4 is normally set to high sensitivity and is easy to measure noise in order to prevent non-detection. However, in the present invention, for example, when the vector ab is erroneously detected, Since the correlation calculation value of Ib does not match, it can be determined that it is noise of the scan laser radar 4, which can contribute to the improvement of the recognition accuracy of the moving object.
[0046]
Therefore, according to the second embodiment, the relative speed of a certain object can be determined from the distance change detected by the scan laser radar 4, and the luminance difference for each pixel in the reference image area in the two frame images described above. When determining the calculation point that gives the minimum value of the cumulative sum of, you can easily determine whether it is a landscape part or a vehicle other than your vehicle, so set the calculation point that gives the minimum value of the cumulative sum Can be easily performed.
[0047]
Furthermore, since the scan laser radar 4 can detect the distance with a certain horizontal field of view, it detects the distance within the same range as the imaging range by the CCD camera, and sets the calculation point that gives the minimum cumulative sum. It can be done more easily.
[0048]
In the second embodiment, the case where the scan laser radar 4 is used as the distance detection means has been described. However, the distance detection means is not limited to the scan laser radar.
[0049]
Further, in each of the above-described embodiments, the case where the monocular CCD camera 1 is used as the imaging unit has been described, but it goes without saying that the imaging unit is not limited to the above-described CCD camera.
[0050]
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.
[0051]
【The invention's effect】
As described above, according to the first aspect of the present invention, for the frame image at a certain time and the next frame image after the predetermined time, the cumulative sum of the luminance differences for each pixel in the reference image area is calculated. If the cumulative sum exceeds the retained minimum value, the calculation is stopped at that point, so the amount of calculation of the optical flow can be greatly reduced compared to the conventional method. even large moving object relative velocity easily it is possible to ing to recognize by calculating the optical flow. At this time, the relative speed of a certain object is known from the distance change detected by the distance detecting means, and when determining a calculation point that gives the minimum value of the cumulative sum, it is easy to determine whether it is a landscape part. This makes it possible to easily set the calculation point that gives the minimum value of the cumulative sum, thereby contributing to the provision of an advanced and comfortable driving support system.
[0052]
Furthermore, if the cumulative sum does not exceed the minimum value held at the end of the computation, the cumulative sum of the current computation is updated as a new minimum value, so that it is possible to prevent the matching accuracy from being lowered.
[0053]
According to the second aspect of the present invention, since the landscape portion moves in the opposite direction to the own vehicle at the same relative speed as the own vehicle speed, a minimum cumulative sum is given to such a landscape portion. By setting the calculation points, it is possible to easily obtain the minimum value of the cumulative sum of luminance differences .
[0054]
According to the invention described in claim 3, for example, in the case of an overtaking vehicle that overtakes the own vehicle, the relative speed is a direction away from the infinity point, and thus the direction away from the infinity point in the current frame image. By setting the reference image area at a position moved by an amount corresponding to the relative speed, it is possible to easily obtain a cumulative sum that serves as a matching criterion for the overtaking vehicle .
[0055]
According to the invention described in claim 4, for example, even when the overtaking vehicle approaches the own vehicle while imaging the rear side of the own vehicle, the calculation points in the vicinity of the own vehicle that greatly affect the calculation amount are obtained. Since the number is small, the amount of calculation does not increase unnecessarily, and the passing vehicle can be recognized quickly.
[0056]
According to the invention described in claim 5, since the search is started from the direction of the optical flow in the previous frame, the calculation is stopped when the cumulative sum of the luminance differences in the calculation of the optical flow exceeds the minimum value. This makes it possible to greatly contribute to the reduction of the amount of calculation when calculating the optical flow of a moving object having a high relative speed with the host vehicle.
[0058]
According to the sixth aspect of the present invention, since the scan laser radar can detect the distance with a certain horizontal visual field, the distance is detected within the same range as the imaging range by the imaging means, and the cumulative sum is obtained. It is possible to more easily set the calculation point that gives the minimum value of.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of the present invention.
FIG. 2 is an operation explanatory diagram of the first embodiment of the present invention.
FIG. 3 is an operation explanatory diagram of the first embodiment of the present invention.
FIG. 4 is an operation explanatory diagram of the first embodiment of the present invention.
FIG. 5 is an operation explanatory diagram of the first embodiment of the present invention.
FIG. 6 is a block diagram of a second embodiment of the present invention.
FIG. 7 is an operation explanatory diagram of a second embodiment of the present invention.
FIG. 8 is an operation explanatory diagram of a second embodiment of the present invention.
FIG. 9 is an operation explanatory diagram of the second embodiment of the present invention.
FIG. 10 is an operation explanatory diagram of a conventional example.
FIG. 11 is an operation explanatory diagram of a conventional example.
FIG. 12 is an operation explanatory diagram of a conventional example.
[Explanation of symbols]
1 CCD camera (imaging means)
2 CPU
3 Memory 4 Scan laser radar (distance detection means)

Claims (6)

走行中に自車に搭載した撮像手段により自車後側方を撮像し、所定時間相前後した2つのフレーム画像中にそれぞれ所定の大きさに設定される参照画像領域内における各画素毎の輝度差の累積和が最小となるかどうかを探索し、最小となれば前記両参照画像領域が同一物体を表わすべくマッチングしていると判断して前記両参照画像領域の移動をオプティカルフローとして導出し、導出した前記オプティカルフローの方向及び大きさから自車後側方の移動物体を認識する移動物体の認識方法において、
前記フレーム画像について、走行中の自車から撮像方向を示す1点に対応する無限遠点から放射状の探索ライン上にそれぞれ複数の計算点を定め、
現在より所定時間前の前フレーム画像中のある計算点に前記参照画像領域を設定すると共に、前記前フレーム画像から前記所定時間後の現在フレーム画像中に、前記探索ラインに沿って移動した位置に前記参照画像領域を設定し、
前記前フレーム画像の前記参照画像領域、及び、前記現在フレーム画像の前記参照画像領域について、これら参照画像領域内における各画素毎の輝度差の累積和を演算してこの累積和の最小値を求めて保持しておき、
ある時刻における前記フレーム画像中の前記計算点に設定される前記参照画像領域と、その所定時間後の次フレーム画像中の前記計算点に設定される前記参照画像領域との前記累積和を演算してマッチングを判断する際に、その演算途中で前記最小値を超えるときには超えた時点で演算を中止し、演算終了時に前記最小値を下回るときには前記最小値を更新するものであって、
前記撮像手段と同じ方向を観測する距離検出手段を設け、前記距離検出手段により、前記累積和の最小値を与える前記計算点を定めるための基準となる反射点を特定することを特徴とする移動物体の認識方法。
Luminance for each pixel in the reference image area that is set to a predetermined size in two frame images before and after a predetermined time phase by imaging the rear side of the vehicle by imaging means mounted on the host vehicle while traveling A search is made to determine whether the cumulative sum of differences is minimized, and if it is minimized, it is determined that the two reference image areas match to represent the same object, and the movement of both reference image areas is derived as an optical flow. In the moving object recognition method for recognizing a moving object behind the vehicle from the derived direction and size of the optical flow,
For the frame image, a plurality of calculation points are determined on the radial search line from the infinity point corresponding to one point indicating the imaging direction from the traveling vehicle,
The reference image area is set at a certain calculation point in the previous frame image a predetermined time before the current time, and is moved to the position moved along the search line in the current frame image after the predetermined time from the previous frame image. Set the reference image area,
For the reference image area of the previous frame image and the reference image area of the current frame image, a cumulative sum of luminance differences for each pixel in the reference image area is calculated to obtain a minimum value of the cumulative sum. Hold
The cumulative sum of the reference image area set at the calculation point in the frame image at a certain time and the reference image area set at the calculation point in the next frame image after a predetermined time is calculated. When determining the matching, the calculation is stopped when the minimum value is exceeded during the calculation, and the minimum value is updated when the calculation is completed ,
A distance detecting means for observing the same direction as the imaging means, and the distance detecting means specifies a reflection point serving as a reference for determining the calculation point that gives the minimum value of the cumulative sum; Object recognition method.
前記前フレーム画像に最初に前記参照画像領域を設定する際には、前記前フレーム画像中において自車速と同じ大きさの相対速度で移動する風景部分に設定して、前記前フレーム画像から前記所定時間後の前記現在フレーム画像中に、自車速に応じた量だけ所定の前記探索ラインを前記無限遠点に向かう方向に移動した位置に前記参照画像領域を設定する
ことを特徴とする請求項1に記載の移動物体の認識方法。
When the reference image area is first set in the previous frame image, the reference image area is set to a landscape portion that moves at a relative speed that is the same as the vehicle speed in the previous frame image, and the predetermined frame is determined from the previous frame image. The reference image area is set at a position where the predetermined search line is moved in the direction toward the infinity point by an amount corresponding to the vehicle speed in the current frame image after time. The method for recognizing a moving object according to claim 1.
前記前フレーム画像に最初に前記参照画像領域を設定する際には、前記前フレーム画像中において自車速に対してある相対速度で移動する移動部分に設定して、前記前フレーム画像から前記所定時間後の前記現在フレーム画像中に、自車速に対する相対速度に応じた量だけ所定の前記探索ラインに沿って移動した位置に前記参照画像領域を設定し、前記自車に対する相対速度が自車速よりも大きいかどうかにより、前記現在フレーム画像に設定すべき前記参照画像領域の位置を前記探索ラインに沿って前記無限遠点から離れる方向にするかその反対方向にするかを決定する
ことを特徴とする請求項1に記載の移動物体の認識方法。
When the reference image region is first set in the previous frame image, the reference image region is set to a moving part that moves at a relative speed with respect to the vehicle speed in the previous frame image, and the predetermined time from the previous frame image is set. In the subsequent current frame image, the reference image area is set at a position moved along the predetermined search line by an amount corresponding to the relative speed with respect to the own vehicle speed, and the relative speed with respect to the own vehicle is higher than the own vehicle speed. Determining whether the position of the reference image region to be set in the current frame image is in a direction away from the infinity point or in the opposite direction along the search line, depending on whether it is large or not. The method for recognizing a moving object according to claim 1 .
前記無限遠点付近では前記計算点の数を密にし、前記撮像手段付近では前記計算点の数を粗にすることを特徴とする請求項1ないし3のいずれかに記載の移動物体の認識方法。  4. The method for recognizing a moving object according to claim 1, wherein the number of calculation points is made dense near the infinity point, and the number of calculation points is made coarse near the imaging means. . 前記各計算点について、前記現在フレーム画像においてマッチングにより得られたオプティカルフローの方向を保持しておき、前記次フレーム画像では、その保持したオプティカルフローの方向から探索を開始することを特徴とする請求項1ないし4のいずれかに記載の移動物体の認識方法。  The direction of the optical flow obtained by matching in the current frame image is retained for each calculation point, and the search is started from the retained optical flow direction in the next frame image. Item 5. A moving object recognition method according to any one of Items 1 to 4. 前記距離検出手段が、レーザ光をその照射方向と直交方向に走査しつつ照射し、反射光を観測するまでの時間を計測して反射点までの距離を検出するスキャンレーザレーダであり、前記スキャンレーザレーダの走査時間が前記所定時間に設定されていることを特徴とする請求項1ないし5のいずれかに記載の移動物体の認識方法。The distance detecting means is a scan laser radar that detects a distance to a reflection point by irradiating a laser beam while scanning in a direction orthogonal to the irradiation direction and measuring a time until the reflected light is observed, recognition method of the moving object according to any one of claims 1 to 5 scanning time of the laser radar is characterized in that it is set to the predetermined time.
JP2001290759A 2001-09-25 2001-09-25 Recognition method for moving objects Expired - Fee Related JP3969984B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001290759A JP3969984B2 (en) 2001-09-25 2001-09-25 Recognition method for moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001290759A JP3969984B2 (en) 2001-09-25 2001-09-25 Recognition method for moving objects

Publications (2)

Publication Number Publication Date
JP2003099784A JP2003099784A (en) 2003-04-04
JP3969984B2 true JP3969984B2 (en) 2007-09-05

Family

ID=19113016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001290759A Expired - Fee Related JP3969984B2 (en) 2001-09-25 2001-09-25 Recognition method for moving objects

Country Status (1)

Country Link
JP (1) JP3969984B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233440A (en) * 2006-02-27 2007-09-13 Omron Corp On-vehicle image processor
DE102009055776A1 (en) * 2009-11-25 2011-05-26 Conti Temic Microelectronic Gmbh Method for estimating the roll angle in a moving vehicle
JP2012038031A (en) * 2010-08-05 2012-02-23 Kyushu Institute Of Technology Detection method of object jumping out in front of mobile and device therefor
JP6602286B2 (en) * 2016-12-07 2019-11-06 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2018138584A1 (en) 2017-01-26 2018-08-02 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information
CN109952857B (en) * 2019-04-22 2024-04-05 山东交通学院 Orchard mower capable of automatically completing mowing operation and method
CN113075716A (en) * 2021-03-19 2021-07-06 地平线(上海)人工智能技术有限公司 Image-based vehicle positioning method and device, storage medium and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452268B2 (en) * 1993-08-06 2003-09-29 矢崎総業株式会社 Rear side monitoring method for vehicles
JP2962266B2 (en) * 1996-05-31 1999-10-12 日本電気株式会社 Image alignment method
JP2000251199A (en) * 1999-03-01 2000-09-14 Yazaki Corp Rear side part monitoring device for vehicle

Also Published As

Publication number Publication date
JP2003099784A (en) 2003-04-04

Similar Documents

Publication Publication Date Title
US6956469B2 (en) Method and apparatus for pedestrian detection
JP5407898B2 (en) Object detection apparatus and program
JP3861781B2 (en) Forward vehicle tracking system and forward vehicle tracking method
JP3367170B2 (en) Obstacle detection device
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
US20040057599A1 (en) Image processing apparatus and method
JP2002352225A (en) Obstacle detector and its method
JP2004530144A (en) How to provide image information
US7321669B2 (en) Method and apparatus for refining target position and size estimates using image and depth data
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP2003084064A (en) Device and method for recognizing vehicle in front side
WO2005086079A1 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP3727400B2 (en) Crossing detection device
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
JP2009186260A (en) Object detecting device and distance measuring method
JP2003098424A (en) Range finder based on image processing
JP6547841B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2009098025A (en) Object detector
JP3969984B2 (en) Recognition method for moving objects
JP2007233440A (en) On-vehicle image processor
JP3319401B2 (en) Roadway recognition device
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device
JP2003172780A (en) Recognition device and recognition method of preceding vehicle
JP4106163B2 (en) Obstacle detection apparatus and method
JPH11259792A (en) Method and device for recognizing vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070605

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees