JP3735468B2 - Mobile object recognition device - Google Patents

Mobile object recognition device Download PDF

Info

Publication number
JP3735468B2
JP3735468B2 JP22736298A JP22736298A JP3735468B2 JP 3735468 B2 JP3735468 B2 JP 3735468B2 JP 22736298 A JP22736298 A JP 22736298A JP 22736298 A JP22736298 A JP 22736298A JP 3735468 B2 JP3735468 B2 JP 3735468B2
Authority
JP
Japan
Prior art keywords
luminance information
information
luminance
visual field
change rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22736298A
Other languages
Japanese (ja)
Other versions
JP2000056033A (en
Inventor
一郎 原田
直哉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP22736298A priority Critical patent/JP3735468B2/en
Priority to US09/430,746 priority patent/US6636257B1/en
Priority to DE19937928A priority patent/DE19937928B4/en
Publication of JP2000056033A publication Critical patent/JP2000056033A/en
Application granted granted Critical
Publication of JP3735468B2 publication Critical patent/JP3735468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、自動車などの車輌に設置した撮像装置等の画像センサによって、後方、側方より接近する他の車輌の情報を輝度情報として検出し、その情報に基づいて移動体の動きを算出する移動体認識装置に関する。
【0002】
【従来の技術】
近年、カーエレクトロニクスの発達はめざましく、自動車等、車輌の安全な運転を支援するためのコンピュータ制御技術が種々開発されており、道路標識や周囲の物体、他の車輌等の状況をCCDセンサにより撮像し、画像処理して他の車輌の動きをとらえる手法が提案されている。
【0003】
例えば、ドライバが比較的見逃しやすい後方からの車輌の接近を想定する。車輌の接近状態を考慮せずにドライバが右左折や車線変更を行おうとすると、後続車輌は危険を回避するために制動を余儀なくされ、これによって円滑な交通が妨げられることになる。そこで、自車輌に対して接近してくる車輌の存在を予め認識する機能を実現することは、円滑な車輌運行上の面から極めて有用である。
【0004】
このような移動体の移動状況を認識する技術は、自動車の運転のみならず、航空機や船舶など、移動体一般において広くその発展が望まれている分野であり、将来的にその適用範囲の拡大が予想される重要な技術分野である。
【0005】
自動車の運転において、自車輌に対して、後方より接近してくる車輌の存在を検出し予めドライバに対して認識させる手法を開示した従来例としては、例えば、特開平7−50769号公報に記載の技術が知られている。
【0006】
上記の公開公報に開示された手法は、車輌後部に設置したビデオカメラ、CCDカメラ等の撮像装置により自車輌の後側景画像情報を得て、後続の走行車輌や隣接車線の走行車輌の接近による危険度を判定し、ドライバに警告を発するものであり、撮像装置により撮像した一連の後側景画像の中から、時間的に相前後する2コマの画像中に写し出される対象物体上の同一点の移動を、オプティカルフローベクトルとして検出し、その大きさと方向から危険度を判断するものである。
【0007】
この手法において、オプティカルフローベクトルは、前画像の無限遠点FOE(Focus of Expansion)から放射状の方向に設定した窓を、後画像において同方向に移動し、その窓に重なる後画像と、該窓の前画像における設定位置とのそれぞれの中心点間を結ぶ矢印を、着目する1点のオプティカルフローベクトルと定め、この大きさと方向により、後続車輌の速度、方向を判断するものである。
【0008】
【発明が解決しようとする課題】
しかしながら、上記従来技術に示される車輌検出においては、撮像装置により得た画像情報から、画像認識(画像処理)を行い、後方に存在する車輌を識別した上で、時間的に相前後する2コマの画像情報中の該当車輌についてのオプティカルフローを算出する処理が必要である。
【0009】
一般に、撮像装置により得た画像情報から、特定の、例えば後方を走行する車輌を識別するためには、高度の画像処理が必要となり、そのための処理装置としては、大量の画像情報を短時間で演算処理できる性能が要求される。特に、自動車の運転時に、自車輌に対して、後方より接近してくる車輌の存在を予め認識し、ドライバに対して適切な警告を発する機能を実現するためには、瞬時に大量のデータの処理が可能な高速演算処理装置であることが要求される。また、画像処理ソフトも高度な処理アルゴリズムを実現するものが要求され、必然的に高価な処理装置を利用しなければならないという不都合が存在していた。
【0010】
従って、本発明は、移動体から得る情報量を目的を達成するのに必要最小限のものとし、且つ、当該必要最小限の情報を有効に利用して高精度に移動体の状況を判断することのできる移動体認識装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
前記の目的を達成するために、本発明は、物体の情報を、人間が認識するために十分な解像度を持った画像情報として捉え、その画像情報を処理して移動体を認識するのではなく、視野領域の中で物体の移動を輝度変化の情報として捉えるべく、隣り合う視野領域を部分的に重なり合わせることで移動の情報の欠落を抑え、その上で円形状の視野領域の輝度情報をガウシアン特性を有するフィルタを介して抽出することにより、移動体の動きの情報の信頼性を高めることができる。すなわち、物体の移動を確実に認識することが可能であるとともに、処理すべき情報量を少なくすることができる。
【0012】
また、空間微分演算手段により求めた輝度情報の空間的変化率の絶対値が設定基準値よりも小さい場合、移動体の動きの算出処理を中止することで、輝度変化が小さく、信頼性の低い状態での移動体認識を回避することができる。
【0013】
さらに、周辺部の透過率が中心部よりも低く設定された光学レンズと、前記光学レンズを透過した光を受光し、前記輝度情報としての電気信号に変換するフォトダイオードとからなる輝度情報抽出手段を前記各視野領域に対応させて設け、この輝度情報抽出手段によって輝度情報を抽出することにより、安価且つ高速度での移動体認識が可能となる。
【0014】
【発明の実施の形態】
本発明に係る移動体認識装置について、好適な実施形態を挙げ、添付の図面を参照しながら以下詳細に説明する。
【0015】
図1は、本実施形態の移動体認識装置の構成を示すブロック図である。図1において、移動体認識装置10は、輝度入力装置12と、記憶装置30、移動体の一次元フロー算出部32、移動体の動き検出部36、警報判断部40からなる演算処理装置14とから構成されている。
【0016】
輝度入力装置12において、CCDカメラ22は、例えば、車輌の後部トランクリッドの周辺に、所定の視野角で後方の物体を撮像するように設置されており、CCDカメラ22によって撮像された画像情報は、その撮像領域(画像領域)を、一部が重なり合って連続する複数の円形状の領域WX0〜WXnに分け、それぞれガウシアンフィルタ24X0〜24Xnを介して輝度検出回路26に入力される。
【0017】
ここで、前記複数の領域WX0〜WXnは、図2に示すように、所定の方向における無限遠点FOE(Focus of Expansion)を設定し、当該無限遠点FOEに向かう軸X方向に対して複数に分割した領域とし、または、図3に示すように、軸X方向に向かう複数の系列(系列1〜系列3)において分割した複数の領域と、軸X方向に交差する他の軸方向に向かう複数の系列(系列4〜系列6)において分割した複数の領域としてもよい。
【0018】
輝度入力装置12の機能は、自車輌の後方に存在する物体の情報を画像情報として捉え、その画像情報を処理して物体を認識するのではなく、一定の視野の中で、移動体である特定の物体、例えば、自車輌の後方から走行してくる他の車輌の情報を、周辺の物体、周辺の環境とは異なる輝度を持つ輝度情報として捉え、所定の視野の中を分割した複数の領域における輝度情報の移動を、移動体の一次元フローとして算出するために、演算処理装置14に入力するものである。
【0019】
ここで、自車輌の後方から走行してくる他の車輌の情報を、周辺の物体と異なる輝度を持つ輝度情報として認識するため、本実施形態においては、後続する車輌が路面に作る影の情報を利用し、影の部分の輝度情報を当該後続車輌の情報として得る。
【0020】
このことは、天気のよい昼間において道路を走行している場合、後続車輌が路面に作る影から得られる輝度情報は、後方道路上の周囲の輝度情報よりは一段と輝度の低い情報となるために輝度の検出が容易であり、CCDカメラ22で検出した輝度から、移動体、すなわち、後続車輌を表す情報として検出することができ、この輝度情報に基づいて移動体の一次元フローを算出することにより、複雑な画像処理を行うことなく、車輌情報を得ることができるという考察に基づくものである。
【0021】
なお、前記影の情報は昼間に道路を走行する場合には好適であるが、夜間の走行の場合は、車輌のヘッドライトやスモールランプから得られる輝度情報が、後方道路上の周囲の輝度情報より一段と輝度の高い情報となる。そこで、夜間においては、これらの高い輝度情報を後続車輌を表す情報として検出すると好適である。
【0022】
CCDカメラ22における各領域WX0〜WXnで検出される輝度情報は、ガウシアンフィルタ24X0〜24Xnを介して検知される。ガウシアンフィルタ24X0〜24Xnの特性は、図4に示すように、2次元平面をi軸、j軸とし、信号の透過率を縦軸にとった場合、ある領域に入力される情報のうち、その中心部の情報はそのままとし、周辺部の情報は遮断(あるいは減衰)して出力するものであり、入力情報のうち一部をカットして出力情報を得ることにより出力情報量を少なくすることができる。
【0023】
すなわち、本実施形態では、ガウシアンフィルタ24X0〜24Xnを用いることにより、有意な情報の存在する確率の高い各領域の中心部の情報に対して、有意な情報の存在する確率の低い各領域の周辺部の情報を取り除く(あるいは減衰させる)ことにより、更に処理すべき情報量を減少させている。このことにより、後段の演算処理量をさらに減少させることができる。
【0024】
ガウシアンフィルタ24X0〜24Xnは、光学的フィルタで構成することも、電気的フィルタとして構成することも可能である。光学的フィルタの場合、CCDカメラ22により得られる各領域WX0〜WXn毎の画像信号(輝度情報)に対して、各領域WX0〜WXnの周辺部に近づくにつれて、輝度情報の透過量が減衰するような光学レンズを配置すればよく、電気的フィルタの場合は、各領域WX0〜WXn毎の画像信号(輝度情報)を電気信号に変換した後、各領域WX0〜WXnの周辺部に近づくにつれて、出力を減衰させるようなフィルタ回路を配置すればよい。
【0025】
このようにして、所定の視野内を連続する複数の領域WX0〜WXnに分割して、一定時間毎にCCDカメラ22、ガウシアンフィルタ24X0〜24Xn、輝度検出回路26を介して領域WX0〜WXn毎に検出された移動体を表す輝度情報It(i, j)(i、jはCCDカメラ22の画素位置を表す。)は、その観測時刻t毎に記憶装置30に記憶される。
【0026】
記憶装置30に記憶された輝度情報It(i, j)は、一次元フロー算出部32によって読み出される。演算処理装置14は、例えば、通常のマイクロプロセサーにより構成され、以下に説明する如き演算、制御を行うプログラムをROMに蓄積し、当該演算、制御プログラムを実行するように構成されている。
【0027】
一次元フロー算出部32では、記憶装置30から読み出された各領域WX0〜WXnにおける輝度情報It(i, j)に基づいて、それぞれの領域WX0〜WXn毎に、図5の一次元フロー算出部32の処理手順を示すフローチャートに従って一次元フロー算出が行われる。
【0028】
図5のフローチャートのステップS01において、系列番号(図3参照)を初期化(系列番号=1)し、ステップS02において、系列1の領域番号を初期化(X=0)した後、ステップS03において、次の(1)式に従って積和を計算し、観測時刻tにおける領域Wx(領域WX0〜WXnの1つを表すものとする。)の信号S(t, x)を算出する。
【0029】
【数1】

Figure 0003735468
【0030】
なお、Wx(i, j)は、画素位置(i, j)が当該領域Wxに含まれる場合を1とし、含まれない場合を0とする係数である。
【0031】
次いで、(2)式、(3)式により、信号S(t, x)の空間微分値Sx(t, x)と、時間微分値St(t, x)を算出する。
【0032】
【数2】
Figure 0003735468
【0033】
【数3】
Figure 0003735468
【0034】
次に、ステップS04において、閾値をθ1 として、(2)式により算出した空間微分値Sx(t, x)の絶対値と比較する。
【0035】
この場合、空間微分値Sx(t, x)の絶対値が閾値θ1 以下という状態は、隣接する領域Wxにおいて閾値θ1 よりも輝度変化の大きい状態が検出されないことを表している。すなわち、算出された空間微分値Sx(t, x)に基づく一次元フローの信頼性が低く、これに基づく一次元フロー演算や移動体の動き検出が無意味であることを示している。
【0036】
一方、空間微分値Sx(t, x)の絶対値が閾値θ1 以上という状態は、隣接する領域Wxにおいて閾値θ1 よりも輝度変化の大きい状態が検出されたことを表している。すなわち、空間微分値Sx(t, x)に基づく一次元フローの信頼性が十分に確保できているため、これに基づく一次元フロー演算や移動体の動き検出の信頼性が高いことを示している。
【0037】
そこで、一次元フロー算出部32では、先ず、設定した閾値θ1 と空間微分値Sx(t, x)の絶対値とを比較し、後続の移動体の動きに変化があるか否かを検出し、変化が検出された場合に一次元フローを算出する。
【0038】
すなわち、|Sx(t, x)|≧θ1 の場合、動きに変化のある移動体が存在するものとして、次の(4)式によりその一次元フローV(t, x)を算出する(ステップS05)。
【0039】
【数4】
Figure 0003735468
【0040】
ステップS06において、輝度入力領域番号が最終でなければ、x=x+1とし(ステップS07)、ステップS03に戻り最後の領域番号まで前記の処理を繰り返し、ステップS08において、系列が最終でなければ、系列番号=系列番号+1とし(ステップS09)、ステップS02に戻り最後の系列まで前記の処理を繰り返す。
【0041】
このようにして移動体の一次元フローV(t, x)が算出された後、移動体の動き検出部36において移動体の動きが検出される。
【0042】
すなわち、図6のフローチャートのステップS11において、自車速度信号が入力され、入力された自車速度信号に基づいて、ステップS12において、静止物体、例えば、道路上の白線パターン(中央分離線や車線分離線)が生ずるであろう一次元フローVe(t, x)を推定値として算出する。
【0043】
次いで、ステップS13において、各領域Wxにおいて算出された移動体の一次元フローV(t, x)と、道路上のパターンが生ずるであろう一次元フローVe(t, x)との比較を行う。比較結果がV(t, x)≧Ve(t, x)である場合は、自車輌に「近づく移動体あり」、すなわち、後続車輌があると判断し(ステップS14)、V(t, x)≧Ve(t, x)でない場合は、自車輌から「遠ざかる移動体あり」、すなわち、後続車輌があると判断する(ステップS15)。
【0044】
ここで、比較結果がV(t, x)≧Ve(t, x)であり、自車輌に「近づく移動体あり」、すなわち、後続車輌がある場合、移動体の一次元フローV(t, x)の大きさが、相対速度の大きさ、すなわち、後続車輌と自車輌の相対速度の大きさを示すこととなり、一次元フローV(t, x)の値が大きい程、自車輌への接近速度が大となり、これに基づいて、危険度を判断し、警報判断部40において、ドライバに警報を発する。
【0045】
なお、上述した実施形態では、輝度入力装置12をCCDカメラ22によって構成したが、図7および図8に示すように、連続する複数の視野方向に向けて配列したガウシアン特性を有する複数の光学レンズ50およびフォトダイオード52を、球体の一部を構成するハウジング54に収納配置して構成することも可能である。この場合、光学レンズ50からなる光学的フィルタが加えられているので、CCDカメラ22を用いた場合よりも情報処理量を削減し、CCDカメラ22を用いた場合のような毎秒30フレーム程度の処理よりも遙かに高速な処理、例えば、毎秒1000フレーム以上の処理が可能となる。
【0046】
以上説明したように、本発明に係る移動体認識装置10は、複数の視野領域(WX0〜WXn)からの輝度情報(It(i, j))を抽出する輝度情報抽出手段(輝度入力装置12)と、隣り合う視野領域(WX0〜WXn)間での輝度情報(It(i, j))の空間的変化率(空間微分値Sx(t, x))を求める空間微分演算手段(一次元フロー算出部32)と、各視野領域(WX0〜WXn)での輝度情報(It(i, j))の時間的変化率(時間微分値St(t, x))を求める時間微分演算手段(一次元フロー算出部32)と、空間的変化率(空間微分値Sx(t, x))および時間的変化率(時間微分値St(t, x))から視野領域(WX0〜WXn)間での移動体の動きを算出する移動体算出手段(移動体の動き検出部36)とからなり、前記輝度情報抽出手段(輝度入力装置12)が、隣り合う領域が部分的に重なり合う円形状の視野領域(WX0〜WXn)からの輝度情報(It(i, j))を、ガウシアン特性を有するフィルタ(24X0〜24Xn)を介して抽出することを特徴とする。
【0047】
また、本発明に係る移動体認識装置10は、移動体算出手段(移動体の動き検出部36)が、空間微分演算手段(一次元フロー算出部32)により求めた空間的変化率(空間微分値Sx(t, x))の絶対値が設定基準値(閾値θ1 )よりも小さい場合、移動体の動きの算出処理を中止することを特徴とする。
【0048】
さらに、本発明に係る移動体認識装置10は、輝度情報抽出手段(輝度入力装置12)が、視野領域(WX0〜WXn)毎に設けられ、周辺部の透過率が中心部よりも低く設定されたフィルタを構成する光学レンズ(50)と、前記光学レンズ(50)を透過した光を受光し、前記輝度情報(It(i, j))としての電気信号に変換するフォトダイオード(52)とからなることを特徴とする。
【0049】
【発明の効果】
以上のように、本発明に係る移動体認識装置は、物体の情報を画像情報として捉え、その画像情報を処理して移動体を認識するのではなく、部分的に重なり合う複数の円形状の視野領域の中で、移動体を表す情報を、周辺の物体と異なる輝度を持つ輝度情報として捉え、各視野領域間の輝度情報の移動を一次元フローとして算出し、物体の移動の状態を判断するように構成したため、演算処理において処理すべき情報量を大幅に削減することができる。
【0050】
この場合、前記複数の視野領域は、所定の方向における無限遠点に向かう軸方向に対して分割された視野領域、さらには、前記軸方向に交差する方向に対して分割された視野領域として設定することで、情報量の削減並びに処理の高速化を達成することができる。なお、隣接する視野領域に所定の重なりを持たせることにより、より精度の高い一次元フローを得ることができる。
【0051】
また、ガウシアン特性を有するフィルタを用いることにより、有意な情報の存在する確率の高い各視野領域の中心部の情報に対して、有意な情報の存在する確率の低い各視野領域の周辺部の情報を取り除き、処理すべき情報量をさらに減少させることができる。
【0052】
この結果、演算能力の低い、安価な処理装置を用いて移動体認識装置を構成することが可能となる。
【図面の簡単な説明】
【図1】本発明に係る移動体認識装置の構成を示すブロック図である。
【図2】輝度入力装置において撮像する複数の領域を説明するための図である。
【図3】輝度入力装置において撮像する複数の領域を説明するための図である。
【図4】ガウシアンフィルタの特性を示す図である。
【図5】一次元フロー算出部の処理手順を示すフローチャートである。
【図6】移動体の動き検出部の処理手順を示すフローチャートである。
【図7】輝度入力装置の他の実施形態を示す概略斜視図である。
【図8】図7に示す輝度入力装置の断面構成図である。
【符号の説明】
10…移動体認識装置 12…輝度入力装置(輝度情報抽出手段)
14…演算処理装置 22…CCDカメラ
24X0〜24Xn…ガウシアンフィルタ
26…輝度検出回路 30…記憶装置
32…一次元フロー算出部 36…移動体の動き検出部
40…警報判断部 WX0〜WXn…領域[0001]
BACKGROUND OF THE INVENTION
The present invention detects, for example, information on other vehicles approaching from the rear and side as luminance information by an image sensor such as an imaging device installed in a vehicle such as an automobile, and the movement of the moving object is determined based on the information. The present invention relates to a mobile object recognition device to be calculated.
[0002]
[Prior art]
In recent years, the development of car electronics has been remarkable, and various computer control technologies have been developed to support safe driving of vehicles such as automobiles, and images of road signs, surrounding objects, other vehicles, etc. are captured by CCD sensors. However, a technique has been proposed in which the movement of another vehicle is captured by image processing.
[0003]
For example, it is assumed that the vehicle is approaching from behind, which is relatively easy for the driver to miss. If the driver tries to turn left or right or change lanes without considering the approaching state of the vehicle, the following vehicle will be forced to brake in order to avoid danger, thereby preventing smooth traffic. Therefore, realizing a function of recognizing the presence of a vehicle approaching the host vehicle in advance is extremely useful in terms of smooth vehicle operation.
[0004]
Such a technology for recognizing the moving state of a moving object is a field that is widely desired not only for driving a car but also for general moving objects such as airplanes and ships, and its application range will be expanded in the future. Is an important technical field to be expected.
[0005]
For example, Japanese Patent Application Laid-Open No. 7-50769 discloses a conventional example that discloses a method of detecting the presence of a vehicle approaching from the rear side of the vehicle and causing the driver to recognize it in advance. The technology is known.
[0006]
The technique disclosed in the above publication is based on the fact that the rear view image information of the own vehicle is obtained by an imaging device such as a video camera or a CCD camera installed at the rear of the vehicle, and the approach of the following traveling vehicle or a traveling vehicle in the adjacent lane is approached. Is used to determine the degree of risk and to give a warning to the driver. From the series of rear-side images captured by the imaging device, the same object on the target object that is projected in two frames that are temporally adjacent to each other is displayed. One point of movement is detected as an optical flow vector, and the degree of danger is judged from its magnitude and direction.
[0007]
In this method, the optical flow vector is obtained by moving a window set in a radial direction from an infinity point FOE (Focus of Expansion) of the previous image in the same direction in the subsequent image, and a rear image overlapping the window, the window The arrows connecting the respective center points with the set position in the previous image are determined as one optical flow vector of interest, and the speed and direction of the following vehicle are determined based on the magnitude and direction.
[0008]
[Problems to be solved by the invention]
However, in the vehicle detection shown in the above prior art, two frames that are temporally adjacent to each other are recognized after performing image recognition (image processing) from the image information obtained by the imaging device and identifying the vehicle existing behind. It is necessary to calculate the optical flow for the corresponding vehicle in the image information.
[0009]
In general, in order to identify a specific vehicle, for example, a vehicle traveling behind, from image information obtained by an imaging device, high-level image processing is required. As a processing device for that purpose, a large amount of image information can be obtained in a short time. Performance that can be processed is required. In particular, when driving a car, in order to realize the function of recognizing in advance the presence of a vehicle approaching from behind the vehicle and issuing an appropriate warning to the driver, A high-speed processing device capable of processing is required. Also, the image processing software is required to realize an advanced processing algorithm, and there is an inconvenience that an expensive processing apparatus must be used.
[0010]
Therefore, according to the present invention, the amount of information obtained from the moving body is minimized to achieve the object, and the state of the moving body is determined with high accuracy by effectively using the necessary minimum information. It is an object of the present invention to provide a mobile object recognition apparatus that can perform the above-described operation.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention does not recognize object information as image information having sufficient resolution for human recognition and process the image information to recognize a moving object. In order to capture the movement of an object in the field of view as brightness change information, overlapping adjacent field regions is used to suppress missing movement information, and then the luminance information of the circular field of view is obtained. By extracting through a filter having a Gaussian characteristic, it is possible to improve the reliability of the information on the movement of the moving object. That is, it is possible to reliably recognize the movement of the object and reduce the amount of information to be processed.
[0012]
In addition, when the absolute value of the spatial change rate of the luminance information obtained by the spatial differential calculation means is smaller than the set reference value, the luminance change is small and the reliability is low by stopping the movement calculation process of the moving body It is possible to avoid moving object recognition in the state.
[0013]
Further, luminance information extraction means comprising an optical lens in which the transmittance of the peripheral portion is set lower than that of the central portion, and a photodiode that receives light transmitted through the optical lens and converts it into an electrical signal as the luminance information. Is provided corresponding to each of the visual field regions, and the luminance information is extracted by the luminance information extracting means, so that the mobile object can be recognized at a low cost and at a high speed.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
A preferred embodiment of a mobile object recognition apparatus according to the present invention will be described below in detail with reference to the accompanying drawings.
[0015]
FIG. 1 is a block diagram showing the configuration of the mobile object recognition device of this embodiment. In FIG. 1, the moving body recognition device 10 includes a luminance input device 12, a storage device 30, a moving body one-dimensional flow calculation unit 32, a moving body motion detection unit 36, and an arithmetic processing unit 14 including an alarm determination unit 40. It is composed of
[0016]
In the luminance input device 12, the CCD camera 22 is installed, for example, around the rear trunk lid of the vehicle so as to image a rear object at a predetermined viewing angle, and image information captured by the CCD camera 22 is The imaging region (image region) is divided into a plurality of circular regions WX0 to WXn that are partially overlapped and continuous, and are input to the luminance detection circuit 26 via Gaussian filters 24X0 to 24Xn, respectively.
[0017]
Here, as shown in FIG. 2, the plurality of regions WX0 to WXn set an infinite point FOE (Focus of Expansion) in a predetermined direction, and a plurality of the regions WX0 to WXn are set in the direction of the axis X toward the infinite point FOE. As shown in FIG. 3, or as shown in FIG. 3, a plurality of areas divided in a plurality of series (series 1 to series 3) directed in the axis X direction and another axis direction intersecting the axis X direction It is good also as a several area | region divided | segmented in several series (series 4-series 6).
[0018]
The function of the luminance input device 12 is a moving object in a fixed field of view, instead of capturing information on an object existing behind the host vehicle as image information and processing the image information to recognize the object. Information on a specific object, for example, another vehicle traveling from behind the host vehicle, is regarded as luminance information having luminance different from that of the surrounding object and the surrounding environment, and a plurality of divisions within a predetermined field of view. In order to calculate the movement of the luminance information in the region as a one-dimensional flow of the moving object, the information is input to the arithmetic processing unit 14.
[0019]
Here, in order to recognize the information of other vehicles traveling from behind the own vehicle as luminance information having luminance different from that of the surrounding objects, in this embodiment, information on shadows that the subsequent vehicle creates on the road surface Is used to obtain the luminance information of the shadow portion as information of the succeeding vehicle.
[0020]
This is because, when driving on a road in the daytime when the weather is fine, the luminance information obtained from the shadow made by the following vehicle on the road surface is information that is much lower than the luminance information of the surroundings on the rear road. Luminance is easy to detect, and can be detected from the luminance detected by the CCD camera 22 as information representing a moving object, that is, a subsequent vehicle, and a one-dimensional flow of the moving object is calculated based on the luminance information. Thus, the vehicle information can be obtained without performing complicated image processing.
[0021]
The shadow information is suitable when driving on a road in the daytime, but when driving at night, the luminance information obtained from the headlights and small lamps of the vehicle is the luminance information of the surroundings on the rear road. The information is much brighter. Therefore, at night, it is preferable to detect such high luminance information as information representing the following vehicle.
[0022]
Luminance information detected in each of the areas WX0 to WXn in the CCD camera 22 is detected via the Gaussian filters 24X0 to 24Xn. As shown in FIG. 4, the characteristics of the Gaussian filters 24X0 to 24Xn include that of information input to a certain area when the two-dimensional plane is the i-axis and the j-axis and the signal transmittance is the vertical axis. The information in the central part is left as it is, the information in the peripheral part is cut off (or attenuated), and the output information amount can be reduced by cutting out a part of the input information to obtain the output information. it can.
[0023]
That is, in the present embodiment, by using the Gaussian filters 24X0 to 24Xn, the periphery of each region having a low probability of existence of significant information with respect to the information of the central portion of each region having a high probability of existence of significant information. By removing (or attenuating) part of the information, the amount of information to be further processed is reduced. As a result, it is possible to further reduce the calculation processing amount in the subsequent stage.
[0024]
The Gaussian filters 24X0 to 24Xn can be configured as optical filters or as electrical filters. In the case of an optical filter, with respect to the image signal (luminance information) for each of the areas WX0 to WXn obtained by the CCD camera 22, the transmission amount of the luminance information attenuates as it approaches the periphery of each area WX0 to WXn. In the case of an electrical filter, an image signal (luminance information) for each of the areas WX0 to WXn is converted into an electrical signal, and then output as it approaches the periphery of each of the areas WX0 to WXn. It suffices to arrange a filter circuit that attenuates.
[0025]
In this way, the predetermined field of view is divided into a plurality of continuous regions WX0 to WXn, and the regions WX0 to WXn are passed through the CCD camera 22, Gaussian filters 24X0 to 24Xn, and the luminance detection circuit 26 at regular intervals. Luminance information It (i, j) representing the detected moving body (i, j represents the pixel position of the CCD camera 22) is stored in the storage device 30 at each observation time t.
[0026]
The luminance information It (i, j) stored in the storage device 30 is read by the one-dimensional flow calculation unit 32. The arithmetic processing unit 14 is configured by, for example, a normal microprocessor, and is configured to store a program for performing calculation and control as described below in a ROM and execute the calculation and control program.
[0027]
The one-dimensional flow calculation unit 32 calculates the one-dimensional flow in FIG. 5 for each of the regions WX0 to WXn based on the luminance information It (i, j) in the regions WX0 to WXn read from the storage device 30. One-dimensional flow calculation is performed according to the flowchart showing the processing procedure of the unit 32.
[0028]
In step S01 of the flowchart of FIG. 5, the sequence number (see FIG. 3) is initialized (sequence number = 1). In step S02, the region number of sequence 1 is initialized (X = 0), and then in step S03. Then, the product sum is calculated according to the following equation (1), and the signal S (t, x) of the region Wx (representing one of the regions WX0 to WXn) at the observation time t is calculated.
[0029]
[Expression 1]
Figure 0003735468
[0030]
Note that Wx (i, j) is a coefficient that sets 1 when the pixel position (i, j) is included in the region Wx and sets 0 when it is not included.
[0031]
Next, a spatial differential value Sx (t, x) and a time differential value St (t, x) of the signal S (t, x) are calculated by the equations (2) and (3).
[0032]
[Expression 2]
Figure 0003735468
[0033]
[Equation 3]
Figure 0003735468
[0034]
Next, in step S04, the threshold is set as θ 1 and compared with the absolute value of the spatial differential value Sx (t, x) calculated by equation (2).
[0035]
In this case, a state where the absolute value of the spatial differential value Sx (t, x) is equal to or smaller than the threshold value θ 1 indicates that a state in which the luminance change is larger than the threshold value θ 1 is not detected in the adjacent region Wx. That is, it shows that the reliability of the one-dimensional flow based on the calculated spatial differential value Sx (t, x) is low, and the one-dimensional flow calculation based on this and the motion detection of the moving body are meaningless.
[0036]
On the other hand, the state where the absolute value of the spatial differential value Sx (t, x) is equal to or greater than the threshold value θ 1 indicates that a state in which the luminance change is larger than the threshold value θ 1 is detected in the adjacent region Wx. That is, since the reliability of the one-dimensional flow based on the spatial differential value Sx (t, x) is sufficiently ensured, the reliability of the one-dimensional flow calculation based on this and the motion detection of the moving body is high. Yes.
[0037]
Therefore, the one-dimensional flow calculation unit 32 first compares the set threshold value θ 1 with the absolute value of the spatial differential value Sx (t, x) to detect whether there is a change in the movement of the subsequent moving body. When a change is detected, a one-dimensional flow is calculated.
[0038]
That is, in the case of | Sx (t, x) | ≧ θ 1 , the one-dimensional flow V (t, x) is calculated by the following equation (4) on the assumption that there is a moving body with a change in motion ( Step S05).
[0039]
[Expression 4]
Figure 0003735468
[0040]
If the luminance input area number is not the last in step S06, x = x + 1 is set (step S07), the process returns to step S03 and the above processing is repeated until the last area number. If the series is not the last in step S08, the series Number = sequence number + 1 (step S09), the process returns to step S02 and the above processing is repeated until the last sequence.
[0041]
After calculating the one-dimensional flow V (t, x) of the moving body in this way, the movement of the moving body is detected by the movement detecting unit 36 of the moving body.
[0042]
That is, in step S11 of the flowchart of FIG. 6, the own vehicle speed signal is input, and based on the input own vehicle speed signal, in step S12, a white line pattern (center separation line or lane line on a stationary object, for example, a road). A one-dimensional flow Ve (t, x) that would cause a separation line) is calculated as an estimated value.
[0043]
Next, in step S13, a comparison is made between the one-dimensional flow V (t, x) of the moving object calculated in each region Wx and the one-dimensional flow Ve (t, x) on which a pattern on the road will occur. . If the comparison result is V (t, x) ≧ Ve (t, x), it is determined that there is a moving object approaching the host vehicle, that is, there is a following vehicle (step S14), and V (t, x If it is not ≧ Ve (t, x), it is determined that “there is a moving object that moves away” from the host vehicle, that is, there is a succeeding vehicle (step S15).
[0044]
Here, when the comparison result is V (t, x) ≧ Ve (t, x) and “the moving body is approaching” the vehicle, that is, when there is a following vehicle, the one-dimensional flow V (t, x) indicates the relative speed, that is, the relative speed between the following vehicle and the host vehicle, and the larger the value of the one-dimensional flow V (t, x), The approach speed increases, and based on this, the degree of danger is determined, and the alarm determination unit 40 issues an alarm to the driver.
[0045]
In the above-described embodiment, the luminance input device 12 is configured by the CCD camera 22. However, as shown in FIGS. 7 and 8, a plurality of optical lenses having Gaussian characteristics arranged in a plurality of continuous viewing directions. 50 and the photodiode 52 can be housed and arranged in a housing 54 constituting a part of a sphere. In this case, since an optical filter composed of the optical lens 50 is added, the amount of information processing is reduced as compared with the case where the CCD camera 22 is used, and processing of about 30 frames per second as in the case where the CCD camera 22 is used. A much faster processing, for example, processing of 1000 frames or more per second becomes possible.
[0046]
As described above, the mobile object recognition device 10 according to the present invention is a luminance information extraction unit (luminance input device 12) that extracts luminance information (It (i, j)) from a plurality of visual field regions (WX0 to WXn). ) And spatial differential calculation means (one-dimensional) for obtaining a spatial change rate (spatial differential value Sx (t, x)) of luminance information (It (i, j)) between adjacent visual field regions (WX0 to WXn) A flow calculation unit 32) and time differential calculation means for obtaining a temporal change rate (time differential value St (t, x)) of luminance information (It (i, j)) in each visual field region (WX0 to WXn). From the one-dimensional flow calculation unit 32), the spatial change rate (spatial differential value Sx (t, x)) and the temporal change rate (time differential value St (t, x)) between the visual field regions (WX0 to WXn). Moving body calculating means (moving body motion detecting unit 36) for calculating the movement of the moving body, and the luminance information The information extraction means (luminance input device 12) converts luminance information (It (i, j)) from the circular visual field area (WX0 to WXn) where adjacent areas partially overlap into a filter (24X0) having Gaussian characteristics. To 24Xn).
[0047]
Further, the mobile object recognition apparatus 10 according to the present invention has a spatial change rate (spatial differential) obtained by the mobile object calculation means (motion detection unit 36 of the mobile object) by the spatial differential calculation means (one-dimensional flow calculation part 32). When the absolute value of the value Sx (t, x)) is smaller than the set reference value (threshold value θ 1 ), the moving body motion calculation process is stopped.
[0048]
Furthermore, in the moving body recognition apparatus 10 according to the present invention, the luminance information extraction means (luminance input device 12) is provided for each visual field region (WX0 to WXn), and the transmittance of the peripheral portion is set lower than that of the central portion. An optical lens (50) constituting the filter, a photodiode (52) that receives light transmitted through the optical lens (50) and converts it into an electrical signal as the luminance information (It (i, j)); It is characterized by comprising.
[0049]
【The invention's effect】
As described above, the mobile object recognition apparatus according to the present invention does not recognize object information as image information and processes the image information to recognize the mobile object, but instead recognizes a plurality of circularly overlapping fields of view. In the area, information representing the moving object is regarded as luminance information having a luminance different from that of the surrounding object, and the movement of the luminance information between the visual field areas is calculated as a one-dimensional flow, and the movement state of the object is judged. With this configuration, the amount of information to be processed in the arithmetic processing can be greatly reduced.
[0050]
In this case, the plurality of field areas are set as a field area divided with respect to an axial direction toward an infinite point in a predetermined direction, and further, as a field area divided with respect to a direction intersecting the axis direction. By doing so, the amount of information can be reduced and the processing speed can be increased. It should be noted that a more accurate one-dimensional flow can be obtained by providing a predetermined overlap between adjacent visual field regions.
[0051]
In addition, by using a filter with Gaussian characteristics, information on the peripheral part of each visual field area with a low probability of existence of significant information with respect to information on the central part of each visual field area with a high probability of existence of significant information. The amount of information to be processed can be further reduced.
[0052]
As a result, it is possible to configure the mobile object recognition device using an inexpensive processing device having a low calculation capability.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a mobile object recognition device according to the present invention.
FIG. 2 is a diagram for explaining a plurality of areas to be imaged in a luminance input device.
FIG. 3 is a diagram for explaining a plurality of areas to be imaged in a luminance input device.
FIG. 4 is a diagram illustrating characteristics of a Gaussian filter.
FIG. 5 is a flowchart showing a processing procedure of a one-dimensional flow calculation unit.
FIG. 6 is a flowchart showing a processing procedure of a moving body motion detection unit;
FIG. 7 is a schematic perspective view showing another embodiment of a luminance input device.
8 is a cross-sectional configuration diagram of the luminance input device shown in FIG. 7;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Moving body recognition apparatus 12 ... Luminance input device (luminance information extraction means)
DESCRIPTION OF SYMBOLS 14 ... Arithmetic processing device 22 ... CCD camera 24X0-24Xn ... Gaussian filter 26 ... Luminance detection circuit 30 ... Memory | storage device 32 ... One-dimensional flow calculation part 36 ... Motion detection part 40 of moving body ... Alarm judgment part WX0-WXn ... Area

Claims (3)

複数の視野領域からの輝度情報を抽出する輝度情報抽出手段と、
隣り合う前記視野領域間での前記輝度情報の空間的変化率を求める空間微分演算手段と、
前記各視野領域での前記輝度情報の時間的変化率を求める時間微分演算手段と、
前記空間的変化率および前記時間的変化率から前記視野領域間での移動体の動きを算出する移動体算出手段とからなり、
前記輝度情報抽出手段は、隣り合う領域が部分的に重なり合う円形状の前記視野領域からの前記輝度情報を、ガウシアン特性を有するフィルタを介して抽出することを特徴とする移動体認識装置。
Luminance information extraction means for extracting luminance information from a plurality of visual field areas;
Spatial differential calculation means for obtaining a spatial change rate of the luminance information between the adjacent visual field regions;
A time differentiation calculating means for obtaining a temporal change rate of the luminance information in each field of view;
A moving body calculating means for calculating a movement of the moving body between the visual field regions from the spatial change rate and the temporal change rate;
The luminance information extracting unit extracts the luminance information from the circular visual field region in which adjacent regions partially overlap with each other through a filter having Gaussian characteristics.
請求項1記載の装置において、
前記移動体算出手段は、前記空間微分演算手段により求めた前記空間的変化率の絶対値が設定基準値よりも小さい場合、前記移動体の動きの算出処理を中止することを特徴とする移動体認識装置。
The apparatus of claim 1.
The mobile body calculating means stops the movement calculation process of the mobile body when the absolute value of the spatial change rate obtained by the spatial differential operation means is smaller than a set reference value. Recognition device.
請求項1または2記載の装置において、
前記輝度情報抽出手段は、前記視野領域毎に設けられ、周辺部の透過率が中心部よりも低く設定された前記フィルタを構成する光学レンズと、前記光学レンズを透過した光を受光し、前記輝度情報としての電気信号に変換するフォトダイオードとからなることを特徴とする移動体認識装置。
The apparatus according to claim 1 or 2,
The luminance information extraction means is provided for each of the visual field regions, and receives the light transmitted through the optical lens, and an optical lens constituting the filter in which the transmittance of the peripheral portion is set lower than that of the central portion, A moving body recognition apparatus comprising a photodiode that converts an electric signal as luminance information.
JP22736298A 1998-08-11 1998-08-11 Mobile object recognition device Expired - Fee Related JP3735468B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP22736298A JP3735468B2 (en) 1998-08-11 1998-08-11 Mobile object recognition device
US09/430,746 US6636257B1 (en) 1998-08-11 1999-08-06 Mobile body recognizing apparatus and motor vehicle monitoring apparatus
DE19937928A DE19937928B4 (en) 1998-08-11 1999-08-11 Device for detecting a movable body and device for monitoring a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22736298A JP3735468B2 (en) 1998-08-11 1998-08-11 Mobile object recognition device

Publications (2)

Publication Number Publication Date
JP2000056033A JP2000056033A (en) 2000-02-25
JP3735468B2 true JP3735468B2 (en) 2006-01-18

Family

ID=16859620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22736298A Expired - Fee Related JP3735468B2 (en) 1998-08-11 1998-08-11 Mobile object recognition device

Country Status (1)

Country Link
JP (1) JP3735468B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150941A (en) * 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd Recognizing device and recognizing method for moving object
JP4826355B2 (en) * 2006-06-20 2011-11-30 日産自動車株式会社 Vehicle surrounding display device
JP5767816B2 (en) * 2011-01-20 2015-08-19 ルネサスエレクトロニクス株式会社 Semiconductor integrated circuit mountable in recording apparatus and operation method thereof

Also Published As

Publication number Publication date
JP2000056033A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
JP3463858B2 (en) Perimeter monitoring device and method
WO2019026785A1 (en) Attached object detection device, and vehicle system provided with same
WO2011068593A2 (en) Cross traffic collision alert system
EP1671216A2 (en) Moving object detection using low illumination depth capable computer vision
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
JP2005309797A (en) Warning device for pedestrian
EP3282392A1 (en) Vision system and method for a motor vehicle
CN208789584U (en) Drive assistance device
US6636257B1 (en) Mobile body recognizing apparatus and motor vehicle monitoring apparatus
JP4798576B2 (en) Attachment detection device
JP4887537B2 (en) Vehicle periphery monitoring device
JPH06314340A (en) Vehicle periphery monitoring device
US20210049382A1 (en) Non-line of sight obstacle detection
JP6847709B2 (en) Camera devices, detectors, detection systems and mobiles
Wu et al. Overtaking Vehicle Detection Techniques based on Optical Flow and Convolutional Neural Network.
JP3942289B2 (en) Vehicle monitoring device
JP3735468B2 (en) Mobile object recognition device
JPH07302325A (en) On-vehicle image recognizing device
JP6789151B2 (en) Camera devices, detectors, detection systems and mobiles
JP3226699B2 (en) Perimeter monitoring device for vehicles
JPH02190978A (en) Visual sense recognizing device for vehicle
JP2005309660A (en) Device supporting vehicle in turning right or left
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP3961269B2 (en) Obstacle alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051024

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081028

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091028

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101028

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111028

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121028

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131028

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees