JP2004362334A - Device for detecting area of traveling object - Google Patents
Device for detecting area of traveling object Download PDFInfo
- Publication number
- JP2004362334A JP2004362334A JP2003160919A JP2003160919A JP2004362334A JP 2004362334 A JP2004362334 A JP 2004362334A JP 2003160919 A JP2003160919 A JP 2003160919A JP 2003160919 A JP2003160919 A JP 2003160919A JP 2004362334 A JP2004362334 A JP 2004362334A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- vehicle
- traceable
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像手段により撮像した画像内において、移動体が撮像されている領域を検出する移動体領域検出装置に関する。
【0002】
【従来の技術】
車両に搭載したカメラにより撮像された画像に基づいて、移動体を検出する装置が知られている(特許文献1参照)。この従来の検出装置では、撮像画像中の水平エッジ成分および垂直エッジ成分を抽出し、抽出したエッジ成分に基づいて、車両の両側端部を表す垂直エッジ成分を検出している。
【0003】
【特許文献1】
特開平2000−113201号公報
【0004】
【発明が解決しようとする課題】
しかしながら、従来の検出装置は、画像中の垂直エッジ成分の中から車両を表す条件(車幅および車高に係わる基準条件)に基づいて車両の両側端部を表す垂直エッジ成分を検出しているので、車両の種類や車両との位置関係が変わると車両を表す条件も変わってしまうために、車両の両側端部を表すエッジ成分を検出することができないという問題があった。
【0005】
本発明は、移動体の種類や移動体の位置関係に関わらずに、移動体が撮像されている領域を検出する移動体領域検出装置を提供する。
【0006】
【課題を解決するための手段】
本発明による移動体領域検出装置は、まず、撮像された画像を複数の領域に区分し、区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する。そして、所定時間の間隔で撮像された2枚の画像に基づいて検出される追跡可能領域の画像上の移動量と、所定時間における車両移動量とに基づいて、追跡可能領域内の追跡対象の実空間上の位置を算出し、算出した追跡対象の位置と車両移動量とに基づいて、追跡可能領域が静止物領域か移動体領域かを判定することを特徴とする。
【0007】
【発明の効果】
本発明による移動体領域検出装置によれば、移動体の種類や移動体の位置関係に関わらずに、撮像画像内において移動体が写っている領域を検出することができる。
【0008】
【発明の実施の形態】
−第1の実施の形態−
図1は、本発明による移動体領域検出装置の第1の実施の形態の構成を示す図である。第1の実施の形態における移動体領域検出装置は、撮像部10と、画像記憶部20と、追跡可能領域検出部30と、画像移動量検出部40と、自車両移動量計測部50と、対象位置算出部60と、領域分類部70と、追跡領域情報記憶部80とを備える。
【0009】
撮像部10は、例えば、ビデオカメラであり、車両前方を一定時間間隔にて撮像する。カメラの左右方向の光軸は、車両の直進方向と一致させ、上下方向の光軸は、水平となるようにカメラを設置する。撮像部10により撮像された画像は、画像記憶部20に記憶される。
【0010】
追跡可能領域検出部30は、撮像部10により撮像され、画像記憶部20に記憶されている画像に基づいて、移動体の追跡が可能な領域を検出する。画像上において、道路上の白線のように一様な濃淡変化を持つ領域では、その濃淡の方向と垂直な方向に対象(移動体)が移動しても、対象の移動量を検出することはできない。従って、対象を追跡可能な領域は、複数の方向に濃淡変化を有する領域となる。このような領域の検出方法について説明する。
【0011】
追跡可能領域検出部30は、画像記憶部20に記憶されている画像を読み出し、縦方向および横方向のエッジを検出するためのフィルタをかけ、エッジの縦、横の成分の大きさ(dI/dx,dI/dy:Iは画素値)をそれぞれ求める。次に、検出されたエッジに含まれるノイズ成分を除去するために、求めた縦、横のエッジ成分の大きさの2乗和がしきい値th1以上の画素を抽出し、抽出した画素について、エッジの縦方向成分と横方向成分の大きさの比を求めることにより、濃度勾配方向を求める。
【0012】
次に、ノイズが除去された後のエッジが示されている画像を縦方向および横方向に等間隔に格子状に分割する。図2は、上述した方法により、撮像画像からエッジを検出した画像に対して、縦方向および横方向に格子状に分割した領域を示す図である。この分割された各領域ごとに、エッジの縦方向成分と横方向成分の大きさの比の分散値を求める。この場合、分割された矩形領域内のエッジ勾配方向が一方向しかなければ、分散値は小さくなり、複数方向のエッジ勾配を持つ場合には、分散値は大きくなる。従って、求めた分散値が所定のしきい値th2より小さければ、エッジ勾配方向は一方向である可能性が高く、濃度勾配と垂直な方向に移動する物体を検出することは難しいと判断する。一方、求めた分散値が所定のしきい値th2以上であれば、複数方向のエッジ勾配を有しており、移動体がいずれの方向に移動しても追跡可能と判断できる。追跡可能領域検出部30は、求めた分散値が所定のしきい値th2以上の領域を追跡可能領域と判断する。図2の撮像画像に基づいて、追跡可能領域と判断された矩形領域を図3に示す。
【0013】
追跡可能領域検出部30により、追跡可能領域と判断された領域は、その領域の始点位置(右上隅)、画像サイズ、および、原画像の画像パターンを、各矩形領域ごとに割り振られている識別番号に対応させて追跡領域情報記憶部80に記憶される。以下では、追跡領域情報記憶部80に記憶された画像パターンを基準パターンと呼ぶ。
【0014】
画像移動量検出部40は、撮像部10により撮像された新たな画像が画像記憶部20に入力されると、追跡可能領域検出部30により検出された追跡可能領域の画像上の移動量を検出する。移動量の検出方法について説明する。
【0015】
追跡可能領域の周囲に、移動量を検出するための探索領域を設け、その探索領域内で基準パターン位置を1画素ずつずらしながら、新規画像との相関値を演算する。この場合、演算した相関値がしきい値th3以上であり、かつ、最大となる領域が追跡可能領域の移動先として検出される。基準パターン位置は、1画素単位で移動させる(ずらす)ので、相関値も1画素単位でしか得られないが、複数の相関値を用いて補間演算を行うことにより、相関値が最大となる位置(移動先)を1画素以下の精度で求めることができる。求めた移動先に基づいて算出される追跡可能領域の移動量は、水平方向x、垂直方向yの各方向成分として表される。図4は、各追跡可能領域の移動成分を矢印で表した図である。
【0016】
画像移動量検出部40により求められた移動先の位置および移動量は、追跡領域情報記憶部80に記憶される。ただし、新規画像との相関値がしきい値th3未満の場合には、画像中の同一の部位が移動したと判断することはできないので、対象となっている追跡可能領域に関する情報を初期化する。また、追跡可能領域の始点座標が水平方向x、垂直方向yの一定範囲から外れた場合にも、その追跡可能領域に関する情報を初期化する。これは、画像上における静止物や自車両の移動方向と異なる方向に移動する移動体は、自車両の移動に伴って消失点から周辺方向に移動していくので、時間の経過とともに撮像範囲の外に出るからである。初期化された追跡可能領域に関しては、移動体領域であるか否かの判断は行われない。
【0017】
追跡可能領域検出部30は、撮像部10によって時間Δtの間隔にて撮像される画像に基づいて、新たな追跡可能領域を検出する。新たに検出された追跡可能領域が、画像移動量検出部40で追跡している領域と異なる領域であれば、上述したように、始点位置、画像サイズ、画像パターンを追跡領域情報記憶部80に記憶する。新たに検出された追跡可能領域が画像移動量検出部40で追跡している領域と異なる領域であるか否かの判定は、追跡領域情報記憶部80に記憶されている追跡可能領域の始点位置およびサイズに基づいて行う。
【0018】
自車移動量計測部50は、以下の方法により、撮像間隔Δtの間の自車両の移動量を計測する。すなわち、撮像間隔Δtの間の車輪の回転数を計測し、この回転数とタイヤの外周長との積を演算する。なお、車輪の回転数を計測するセンサへのトリガ位置を車輪の1周に等角度に複数設定しておけば、1回転以下の分解能により回転数を計測することができる。
【0019】
対象位置算出部60は、追跡可能領域に写っている追跡対象の位置を算出する。具体的には、撮像間隔Δtの間に自車両が移動した後の撮像部10のレンズの中心から、追跡可能領域に写っている追跡対象までの距離Lを算出する。図5は、追跡対象までの距離Lを算出する方法について説明するための図であり、追跡対象および撮像部10を横から見た図である。図5に示すように、撮像間隔Δtの間に自車両はΔLだけ移動したものとする。ここで、撮像部10のレンズの焦点距離をf、自車両が移動する前の追跡対象の画像上のy座標をy1、自車両が移動した後の追跡対象のy座標をy2、追跡対象の画像上のy方向の移動量をΔy(=y2−y1)とすると、距離Lは次式(1)にて表される。
L=f+ΔL×y1/Δy …(1)
【0020】
図6は、追跡対象および撮像部10を上方から見た図である。図6のように、x方向(水平方向)においても、y方向と同じ関係が成り立つので、距離Lは、追跡対象の画像上のx方向の移動量Δxを用いて、次式(2)のように表すことができる。
L=f+ΔL×x1/Δx …(2)
ただし、x1は自車両が移動する前の追跡対象の画像上のx座標であり、自車両が移動した後の追跡対象のx座標をx2とすると、Δx=x2−x1となる。
【0021】
ここで、追跡対象の移動量が小さい時には、上式(1)または(2)を用いて算出される距離Lの誤差が大きくなる。従って、対象位置算出部60は、追跡領域の移動量成分(Δx,Δy)のうち、Δyの方が大きければ式(1)を用い、Δxの方が大きければ式(2)を用いて、距離Lを算出する。
【0022】
領域分類部70は、追跡している領域が静止物が写っている静止物領域か、移動体が写っている移動体領域かの判定を行う。図7は、時間と共に変化する、式(1)または式(2)により算出される距離Lの大きさを示す図である。図7には、追跡領域が静止物領域a(図3参照)である場合の距離Lの変化と、追跡対象が移動体領域b(図3参照)である場合の距離Lの変化をそれぞれ示している。図7に示すように、追跡対象が静止物の場合には、自車両が移動することにより、自車両と追跡対象との間の距離Lは短くなっていく。
【0023】
図8は、距離Lの一定時間ごとの変化量と、一定時間ごとの自車両の移動量を示す図である。上述したように、追跡対象が静止物の場合には、追跡対象までの距離Lは、徐々に小さくなっていくので、一定時間ごとの移動量は負の値となる。この一定時間ごとの移動量は、図8に示すように、一定時間ごとの自車両の移動量の大きさと符号は反対であるが、その絶対値はほぼ等しくなる。従って、両者の和は、図9に示すように0に近い値となる。
【0024】
一方、追跡対象が移動体の場合には、一定時間ごとの追跡対象の移動量と、自車両の移動量との関係に相関関係はなく、図9に示すように、両者の和は0に近い値とはならない。
【0025】
図10は、一定時間ごとの追跡対象の移動変化量(距離Lの変化量)と、一定時間ごとの自車両の移動量との和(図9参照)の一定時間ごとの分散値を表した図である。上述したように、追跡対象が静止物の場合の移動量の和は0に近い値となるので、分散値の大きさも0に近い値となる。一方、追跡対象が移動体の場合には、静止物の場合に比べて、分散値は大きくなる。
【0026】
領域分類部70は、一定時間ごとの追跡対象の移動変化量と、一定時間ごとの自車両の移動量との和の分散値が所定のしきい値th4以下であれば、追跡対象が静止物であると判定し、しきい値th4より大きくなることがあれば、移動体であると判定する。この判定は、追跡領域情報記憶部80に記憶されている全ての追跡可能領域に対して行われる。各追跡可能領域に対して、移動体領域であるか、静止物領域であるかの判定が行われた結果を図11に示す。図11において、ハッチングされた領域が移動体領域であり、ハッチングされていない領域が静止物領域である。
【0027】
追跡領域情報記憶部80には、上述した始点位置、画像サイズなどの情報の他に、追跡を開始してからの情報更新回数、静止物領域か移動体領域かの判定結果などが記憶される。なお、初期状態では、識別番号以外の情報はクリア(0)の状態であり、追跡可能領域検出部30によって追跡可能領域が検出されると、識別番号順に各種情報が記憶されていく。
【0028】
図12は、第1の実施の形態における移動体領域検出装置によって行われる処理手順を示すフローチャートである。ステップS10から始まる処理は、図示しないイグニッションスイッチがオンされることにより始まる。ステップS10では、追跡領域情報記憶部80に記憶されている追跡領域情報を初期化して、ステップS20に進む。ステップS20では、撮像部10により撮像された画像を画像記憶部20に記憶して、ステップS30に進む。
【0029】
ステップS30では、追跡可能領域検出部30によって、画像記憶部20に記憶されている画像に基づいて、追跡可能領域を検出する。追跡可能領域の検出方法は上述したので、詳しい説明は省略する。追跡可能領域を検出するとステップS40に進む。ステップS40では、画像移動量検出部40によって、追跡可能領域が撮像間隔Δtの間に移動する画像上の移動量を検出する。移動量の検出方法は上述したので、詳しい説明は省略する。追跡可能領域の移動量を検出すると、ステップS50に進む。
【0030】
ステップS50では、対象位置算出部60により、時間Δtの間に自車両が移動した後の撮像部10のレンズの中心から追跡対象までの距離Lを算出する。距離Lの算出方法は上述したので、詳しい説明は省略する。ステップS50に続くステップS60では、領域分類部70により、追跡対象となっている追跡可能領域が静止物領域であるか、移動体領域であるかを判定する。この判定方法についても上述したので、詳しい説明は省略する。ステップS70において、追跡対象となっている追跡可能領域が静止物領域であるか、移動体領域であるかの判定を行うと、ステップS20に戻る。以後、撮像間隔Δtの周期で、ステップS20以降の処理が繰り返し行われる。
【0031】
第1の実施の形態における移動体領域検出装置による移動体領域の検出方法についてまとめておく。追跡可能領域検出部30は、撮像部10により撮像された画像を複数の領域に区分し、各領域ごとに、移動体を追跡可能な追跡可能領域を検出する。画像移動量検出部40は、Δtの撮像間隔で撮像部10により撮像された少なくとも2枚の画像に基づいて、追跡可能領域の画像上の移動量を検出する。対象位置算出部60は、画像移動量検出部40により検出された追跡可能領域の移動量と、自車移動量計測部50により計測された自車移動量とに基づいて、追跡可能領域内の追跡対象までの車両移動方向における距離Lを算出する(式(1),(2)参照)。領域分類部70は、追跡対象までの距離Lの一定時間ごとの変化量と、自車両の一定時間ごとの移動量との和を複数算出し、算出した複数の和の分散値が所定のしきい値th4以下であれば、追跡可能領域が静止物領域であると判定する。一方、算出した分散値がしきい値th4より大きくなることがあれば、追跡可能領域が移動体領域であると判定する。
【0032】
第1の実施の形態における移動体領域検出装置によれば、移動体の種類や、移動体と撮像部10との位置関係に関わらず、移動体領域を検出することができる。画像中のエッジ成分の特徴に基づいて移動体を検出する従来の装置では、移動体を構成するエッジと類似するエッジを有する建物などが画像中に存在する場合には、その建物を移動体として誤検出する可能性がある。しかし、第1の実施の形態における移動体領域検出装置では、画像中に建物などが存在する場合でも、移動体が写っている領域を確実に移動体領域として検出することができる。
【0033】
−第2の実施の形態−
第1の実施の形態における移動体領域検出装置では、撮像間隔Δtの間に自車両が移動した後の撮像部10のレンズの中心から、自車両の移動方向における追跡対象までの距離Lを算出することにより、移動体領域と静止物領域とを分類した。第2の実施の形態における移動体領域検出装置では、撮像部10の光軸から、追跡対象までの横方向距離W(図6参照)を算出することにより、移動体領域を検出する。なお、ここでの横方向とは、自車両が直進する方向と垂直な方向を意味している。
【0034】
なお、第2の実施の形態における移動体領域検出装置の構成は、図1に示す第1の実施の形態における移動体領域検出装置の構成と同じである。ただし、対象位置算出部および領域分類部で行われる処理内容は、後述するように、第1の実施の形態における対象位置算出部60および領域分類部70で行われる処理内容と異なる。従って、第2の実施の形態における対象位置算出部および領域分類部を、便宜上それぞれ、対象位置算出部60a、領域分類部70aと呼ぶことにする。
【0035】
撮像部10の光軸から、追跡対象までの横方向距離Wは、自車両が移動する前の追跡対象の画像上のx座標をx1、時間Δtの間に自車両が移動した後の追跡対象のx座標をx2、画像上のx方向の移動量をΔx(=x2−x1)とすると、次式(3)にて表される。この横方向距離Wは、対象位置算出部60aにより算出される。
W=ΔL×x1×x2/Δx …(3)
【0036】
また、上述した式(1),(2)の関係と同様に、追跡対象の画像上のy方向の移動量Δyを用いると、次式(4)のように表すことができる。
W=ΔL×y1×x2/Δy …(4)
この場合も、対象位置算出部60aは、追跡対象までの距離Lを算出した時と同様の理由により、追跡領域の移動量成分(Δx,Δy)のうち、Δxの方が大きければ式(3)を用い、Δyの方が大きければ式(4)を用いて、横方向距離Wを算出する。
【0037】
追跡対象が静止物の場合には、式(3)または式(4)により算出される横方向距離Wはほぼ一定である。しかし、追跡対象が移動体の場合には、追跡対象が移動することにより、図5または図6に示すような、撮像部10と追跡対象との幾何学的関係が保たれないので、横方向距離Wは一定値にはならず変動する。従って、所定時間Δtごとの横方向距離Wの分散値を算出すると、追跡対象が静止物の場合には、分散値の値は0に近い値となり、追跡対象が移動体の場合の分散値の値は、静止物の場合と比べると大きい値となる。
【0038】
従って、第2の実施の形態における移動体領域検出装置の領域分類部70aは、所定時間Δtごとの横方向距離Wの分散値と所定のしきい値th5とを比較することにより、追跡領域が静止物領域か移動体領域かを判定することができる。すなわち、横方向距離Wの分散値がしきい値th5以下であれば、追跡領域は静止物領域であると判定し、しきい値th5より大きくなることがあれば、移動体領域であると判定する。
【0039】
第2の実施の形態における移動体領域検出装置においても、第1の実施の形態における移動体領域検出装置と同様に、移動体の種類や、移動体と撮像部10との位置関係に関わらず、移動体領域を検出することができる。
【0040】
−第3の実施の形態−
第1および第2の実施の形態における移動体領域検出装置は、移動体領域を検出するために、撮像部10のレンズの中心から、自車両の移動方向における追跡対象までの距離L、および、撮像部10の光軸から追跡対象までの横方向距離Wをそれぞれ算出した。第3の実施の形態における移動体領域検出装置は、路面から追跡対象までの高さHを算出することにより、移動体領域を検出する。
【0041】
なお、第3の実施の形態における移動体領域検出装置の構成は、図1に示す第1の実施の形態における移動体領域検出装置の構成と同じである。ただし、対象位置算出部および領域分類部で行われる処理内容は、後述するように、第1の実施の形態における対象位置算出部60および領域分類部70で行われる処理内容と異なる。従って、第3の実施の形態における対象位置算出部および領域分類部を、便宜上それぞれ、対象位置算出部60b、領域分類部70bと呼ぶことにする。
【0042】
図13は、追跡対象までの高さHを算出する方法について説明するための図であり、追跡対象および撮像部10を横から見た図である。路面から撮像部10の光軸までの高さをh1、自車両が移動する前の追跡対象の画像上のy座標をy1、時間Δtが経過する間に自車両が移動した後の追跡対象のy座標をy2、画像上のy方向の移動量をΔy(=y2−y1)とすると、高さHは次式(5)により表される。この追跡対象までの高さHは、対象位置算出部60bにより算出される。
H=h1−h2
=h1−(L/f−1)×y2 …(5a)
=h1−ΔL×y1×y2/Δy …(5)
【0043】
図14は、追跡対象および撮像部10を上方から見た図である。図14のように、x方向においても、y方向と同じ関係が成り立つので、式(5a)中の距離Lは、追跡対象の画像上のx方向の移動量Δxを用いて表すことができる。従って、高さHは、次式(6)のように表すことができる。
H=h1−ΔL×x1×y2/Δx …(6)
【0044】
対象位置算出部60bは、追跡対象までの距離Lを算出した時と同様の理由により、追跡領域の移動量成分(Δx,Δy)のうち、Δyの方が大きければ式(5)を用い、Δxの方が大きければ式(6)を用いて、高さHを算出する。
【0045】
追跡対象が静止物の場合には、式(5)または式(6)により算出される高さHはほぼ一定である。しかし、追跡対象が移動体の場合には、追跡対象が移動することにより、図13または図14に示すような、撮像部10と追跡対象との幾何学的関係が保たれないので、高さHは一定値にはならず変動する。追跡対象が静止物である領域aの高さHの時系列変化と、追跡対象が移動体である領域bの高さHの時系列変化とを図15に示す。
【0046】
従って、所定時間Δtごとの高さHの分散値を算出すると、追跡対象が静止物の場合には、分散値の値は0に近い値となり、追跡対象が移動体の場合の分散値の値は、静止物の場合と比べると大きい値となる。追跡対象が静止物である領域aの高さHの分散値と、追跡対象が移動体である領域bの高さHの分散値とをそれぞれ図16に示す。
【0047】
第3の実施の形態における移動体領域検出装置の領域分類部70bは、所定時間Δtごとの高さHの分散値と所定のしきい値th6とを比較することにより、追跡領域が静止物領域か移動体領域かを判定することができる。すなわち、高さHの分散値がしきい値th6以下であれば、追跡領域は静止物領域であると判定し、しきい値th6より大きくなることがあれば、移動体領域であると判定する。具体的には、所定時間Δtごとに算出した分散値としきい値th6とを比較し、分散値がしきい値th6を超えた時に、その追跡領域は移動体領域であると判定する。図16に示す例では、時刻t1において、追跡領域bが移動体領域であると判定される。
【0048】
第3の実施の形態における移動体領域検出装置によれば、第1および第2の実施の形態における移動体領域検出装置と同様に、移動体の種類や、移動体と撮像部10との位置関係に関わらず、移動体領域を検出することができる。
【0049】
本発明は、上述した各実施の形態に限定されることはない。例えば、上述した実施の形態では、撮像部10を用いて車両の前方を撮像し、車両前方に存在する移動体を検出する例について説明した。しかし、車両後方を撮像して、車両後方に存在する移動体を検出することもできる。
【0050】
なお、上述した各実施の形態では、撮像画像において、移動体が写っている領域と、静止物が写っている領域とを分類するものとして説明したが、換言すれば、移動体を検出していると言える。従って、第1〜第3の実施の形態における移動体領域検出装置は、撮像された画像に基づいて、移動体を検出することができる。
【0051】
特許請求の範囲の構成要素と第1〜第3の実施の形態の構成要素との対応関係は次の通りである。すなわち、撮像部10が撮像手段を、追跡可能領域検出部30が領域区分手段および追跡可能領域検出手段を、画像移動量検出部40が画像移動量検出手段を、自車移動量計測部50が車両移動量検出手段を、対象位置算出部60が対象位置算出手段を、領域分類部70が領域判定手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
【図面の簡単な説明】
【図1】本発明による移動体領域検出装置の第1の実施の形態の構成を示す図
【図2】撮像画像からエッジを検出した画像に対して、縦方向および横方向に格子状に分割した様子を示す図
【図3】図2の撮像画像に基づいて、追跡可能領域と判断された矩形領域を示す図
【図4】各追跡可能領域の移動成分を矢印で表した図
【図5】追跡対象までの距離Lを算出する方法について説明するための図であり、追跡対象および撮像部を横から見た図
【図6】追跡対象までの距離Lを算出する方法について説明するための図であり、追跡対象および撮像部を上方から見た図
【図7】時間と共に変化する距離Lの大きさを示す図
【図8】追跡対象までの距離Lの一定時間ごとの移動量を示す図
【図9】一定時間ごとの追跡対象の移動量と、一定時間ごとの自車両の移動量との和を示す図
【図10】一定時間ごとの追跡対象の移動量と、一定時間ごとの自車両の移動量との和の分散値を示す図
【図11】各追跡可能領域に対して、移動体領域であるか、静止物領域であるかの判定が行われた結果を示す図
【図12】第1の実施の形態における移動体領域検出装置によって行われる処理手順を示すフローチャート
【図13】追跡対象までの高さHを算出する方法について説明するための図であり、追跡対象および撮像部を横から見た図
【図14】追跡対象および撮像部を上方から見た図
【図15】追跡対象が静止物である領域aの高さHの変動と、追跡対象が移動体である領域bの高さHの変動とを示す図
【図16】追跡対象が静止物である領域aの高さHの分散値と、追跡対象が移動体である領域bの高さHの分散値とを示す図
【符号の説明】
10…撮像部、20…画像記憶部、30…追跡可能領域検出部、40…画像移動量検出部、50…自車移動量計測部、60…対象位置算出部、70…領域分類部、80…追跡領域情報記憶部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving body region detection device that detects a region where a moving body is imaged in an image captured by an imaging unit.
[0002]
[Prior art]
2. Description of the Related Art A device that detects a moving object based on an image captured by a camera mounted on a vehicle is known (see Patent Document 1). In this conventional detection device, a horizontal edge component and a vertical edge component in a captured image are extracted, and a vertical edge component representing both ends of the vehicle is detected based on the extracted edge components.
[0003]
[Patent Document 1]
JP-A-2000-113201
[0004]
[Problems to be solved by the invention]
However, the conventional detection device detects vertical edge components representing both end portions of the vehicle from the vertical edge components in the image based on conditions representing the vehicle (reference conditions relating to the vehicle width and the vehicle height). Therefore, if the type of the vehicle or the positional relationship with the vehicle changes, the condition for representing the vehicle also changes, so that there has been a problem that the edge components representing both end portions of the vehicle cannot be detected.
[0005]
The present invention provides a moving body region detection device that detects a region where a moving body is imaged, regardless of the type of the moving body and the positional relationship of the moving body.
[0006]
[Means for Solving the Problems]
The moving object region detection device according to the present invention first divides a captured image into a plurality of regions, and detects a traceable region in which the moving object can be tracked among the divided regions. Then, based on the amount of movement of the trackable area on the image detected based on the two images captured at the predetermined time interval and the amount of vehicle movement in the predetermined time, the tracking target in the trackable area is determined. A position in a real space is calculated, and it is determined whether the trackable area is a stationary object area or a moving object area based on the calculated position of the tracking target and the vehicle movement amount.
[0007]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to the moving body area | region detection apparatus by this invention, the area | region where the moving body is shown in a picked-up image can be detected regardless of the kind of a moving body, or the positional relationship of a moving body.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
-1st Embodiment-
FIG. 1 is a diagram showing a configuration of a first embodiment of a moving object area detection device according to the present invention. The moving body region detection device according to the first embodiment includes an
[0009]
The
[0010]
The trackable
[0011]
The traceable
[0012]
Next, the image showing the edges after the noise has been removed is divided into grids at equal intervals in the vertical and horizontal directions. FIG. 2 is a diagram showing regions obtained by dividing an image in which edges have been detected from a captured image by the above-described method into a grid shape in the vertical direction and the horizontal direction. For each of the divided areas, a variance of the ratio of the magnitude of the vertical component to the horizontal component of the edge is obtained. In this case, if there is only one direction of the edge gradient in the divided rectangular area, the variance value is small, and if there is an edge gradient in a plurality of directions, the variance value is large. Therefore, if the obtained variance value is smaller than the predetermined threshold value th2, the edge gradient direction is likely to be in one direction, and it is determined that it is difficult to detect an object moving in a direction perpendicular to the density gradient. On the other hand, if the obtained variance is equal to or larger than the predetermined threshold th2, it has edge gradients in a plurality of directions, and it can be determined that tracking is possible even if the moving body moves in any direction. The trackable
[0013]
The area determined to be a trackable area by the trackable
[0014]
When a new image captured by the
[0015]
A search area for detecting a movement amount is provided around the traceable area, and a correlation value with a new image is calculated while shifting the reference pattern position by one pixel within the search area. In this case, a region where the calculated correlation value is equal to or larger than the threshold value th3 and has a maximum is detected as a destination of the traceable region. Since the reference pattern position is moved (shifted) in units of one pixel, a correlation value can be obtained only in units of one pixel. However, by performing an interpolation operation using a plurality of correlation values, the position where the correlation value becomes maximum is obtained. (Destination) can be obtained with an accuracy of one pixel or less. The movement amount of the traceable area calculated based on the obtained movement destination is expressed as a horizontal direction x and a vertical direction y. FIG. 4 is a diagram in which moving components of each traceable area are represented by arrows.
[0016]
The position and the movement amount of the movement destination obtained by the image movement
[0017]
The trackable
[0018]
The own-vehicle movement
[0019]
The
L = f + ΔL × y1 / Δy (1)
[0020]
FIG. 6 is a diagram of the tracking target and the
L = f + ΔL × x1 / Δx (2)
Here, x1 is the x coordinate on the image of the tracking target before the own vehicle moves, and when the x coordinate of the tracking target after the own vehicle moves is x2, Δx = x2−x1.
[0021]
Here, when the movement amount of the tracking target is small, the error of the distance L calculated using the above equation (1) or (2) becomes large. Therefore, the target
[0022]
The
[0023]
FIG. 8 is a diagram illustrating a change amount of the distance L for each fixed time and a movement amount of the own vehicle for each fixed time. As described above, when the tracking target is a stationary object, the distance L to the tracking target gradually decreases, and therefore, the movement amount for each fixed time becomes a negative value. As shown in FIG. 8, the amount of movement for each fixed time is opposite in magnitude and sign to the amount of movement of the host vehicle for each fixed time, but its absolute value is substantially equal. Therefore, the sum of the two becomes a value close to 0 as shown in FIG.
[0024]
On the other hand, when the tracked object is a moving object, there is no correlation between the movement amount of the tracked object at regular time intervals and the movement amount of the own vehicle, and as shown in FIG. It will not be close.
[0025]
FIG. 10 shows the variance value of the sum of the movement change amount (the change amount of the distance L) of the tracking target every fixed time and the movement amount of the own vehicle every certain time period (see FIG. 9) at every certain time period. FIG. As described above, since the sum of the movement amounts when the tracking target is a stationary object is a value close to 0, the magnitude of the variance value is also a value close to 0. On the other hand, when the tracking target is a moving object, the variance value is larger than when the tracking target is a stationary object.
[0026]
If the variance of the sum of the change amount of the movement of the tracking target every fixed time and the movement amount of the own vehicle every certain time is equal to or smaller than the predetermined threshold th4, the
[0027]
In the tracking area
[0028]
FIG. 12 is a flowchart illustrating a processing procedure performed by the moving object region detection device according to the first embodiment. The process starting from step S10 starts when an ignition switch (not shown) is turned on. In step S10, the tracking area information stored in the tracking area
[0029]
In step S30, the trackable
[0030]
In step S50, the target
[0031]
A method of detecting a moving object region by the moving object region detecting device according to the first embodiment will be summarized. The trackable
[0032]
According to the moving object region detection device in the first embodiment, the moving object region can be detected regardless of the type of the moving object and the positional relationship between the moving object and the
[0033]
-2nd Embodiment-
In the moving object region detection device according to the first embodiment, the distance L from the center of the lens of the
[0034]
Note that the configuration of the moving object region detection device according to the second embodiment is the same as the configuration of the moving object region detection device according to the first embodiment shown in FIG. However, the processing content performed by the target position calculation unit and the area classification unit is different from the processing content performed by the target
[0035]
The lateral distance W from the optical axis of the
W = ΔL × x1 × x2 / Δx (3)
[0036]
In addition, similarly to the relationship between the expressions (1) and (2) described above, when the movement amount Δy in the y direction on the image of the tracking target is used, it can be expressed as the following expression (4).
W = ΔL × y1 × x2 / Δy (4)
Also in this case, for the same reason as when the distance L to the tracking target is calculated, the target position calculation unit 60a determines that the expression (3) is greater than the moving amount component (Δx, Δy) of the tracking area if Δx is larger. ), And if Δy is larger, the lateral distance W is calculated using Expression (4).
[0037]
When the tracking target is a stationary object, the lateral distance W calculated by the equation (3) or (4) is substantially constant. However, when the tracking target is a moving object, the tracking target moves, so that the geometric relationship between the
[0038]
Therefore, the area classifying unit 70a of the moving object area detection device according to the second embodiment compares the variance value of the lateral distance W for each predetermined time Δt with the predetermined threshold th5, so that the tracking area can be determined. It can be determined whether the area is a stationary object area or a moving object area. That is, if the variance of the lateral distance W is equal to or smaller than the threshold th5, the tracking area is determined to be a stationary object area, and if it is larger than the threshold th5, the tracking area is determined to be a moving object area. I do.
[0039]
Also in the moving object region detecting device according to the second embodiment, as in the moving object region detecting device according to the first embodiment, regardless of the type of the moving object and the positional relationship between the moving object and the
[0040]
-Third embodiment-
In order to detect the moving object region, the moving object region detecting device according to the first and second embodiments has a distance L from the center of the lens of the
[0041]
Note that the configuration of the moving object region detection device according to the third embodiment is the same as the configuration of the moving object region detection device according to the first embodiment shown in FIG. However, the processing content performed by the target position calculation unit and the area classification unit is different from the processing content performed by the target
[0042]
FIG. 13 is a diagram for explaining a method of calculating the height H to the tracking target, and is a diagram of the tracking target and the
H = h1-h2
= H1- (L / f-1) * y2 (5a)
= H1-ΔL × y1 × y2 / Δy (5)
[0043]
FIG. 14 is a diagram in which the tracking target and the
H = h1−ΔL × x1 × y2 / Δx (6)
[0044]
For the same reason as when the distance L to the tracking target is calculated, the target position calculation unit 60b uses Expression (5) if Δy is larger than the moving amount component (Δx, Δy) of the tracking area, If Δx is larger, the height H is calculated using equation (6).
[0045]
When the tracking target is a stationary object, the height H calculated by Expression (5) or Expression (6) is substantially constant. However, when the tracking target is a moving object, the geometrical relationship between the
[0046]
Therefore, when the variance value of the height H at each predetermined time Δt is calculated, the variance value is close to 0 when the tracking target is a stationary object, and the variance value when the tracking target is a moving object. Is larger than that of a stationary object. FIG. 16 shows the variance value of the height H of the area a where the tracking target is a stationary object and the variance value of the height H of the area b where the tracking target is a moving object.
[0047]
The region classifying unit 70b of the moving object region detecting device according to the third embodiment compares the variance value of the height H for each predetermined time Δt with a predetermined threshold th6, so that the tracking region is a stationary object region. Or the moving object area. That is, if the variance of the height H is equal to or smaller than the threshold th6, the tracking area is determined to be a stationary object area, and if it is larger than the threshold th6, it is determined to be a moving object area. . Specifically, the variance value calculated for each predetermined time Δt is compared with a threshold value th6, and when the variance value exceeds the threshold value th6, it is determined that the tracking area is a moving body area. In the example shown in FIG. 16, at time t1, it is determined that the tracking area b is the moving body area.
[0048]
According to the moving object region detecting device according to the third embodiment, similar to the moving object region detecting devices according to the first and second embodiments, the type of the moving object and the position between the moving object and the
[0049]
The present invention is not limited to the above embodiments. For example, in the above-described embodiment, an example has been described in which an image of the front of the vehicle is captured using the
[0050]
In each of the above-described embodiments, in the captured image, the region where the moving object is captured and the region where the stationary object is captured are described as being classified. In other words, the moving object is detected and detected. It can be said that there is. Therefore, the moving object region detection devices according to the first to third embodiments can detect the moving object based on the captured image.
[0051]
The correspondence between the components of the claims and the components of the first to third embodiments is as follows. That is, the
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a first embodiment of a moving object region detection device according to the present invention.
FIG. 2 is a diagram illustrating a state where an image in which edges are detected from a captured image is divided into a grid in the vertical and horizontal directions.
FIG. 3 is a view showing a rectangular area determined as a trackable area based on the captured image of FIG. 2;
FIG. 4 is a diagram in which a moving component of each trackable area is represented by an arrow.
FIG. 5 is a diagram for explaining a method of calculating a distance L to a tracking target, and is a diagram of the tracking target and the imaging unit viewed from the side.
FIG. 6 is a diagram for explaining a method of calculating a distance L to a tracking target, and is a diagram of the tracking target and the imaging unit viewed from above.
FIG. 7 is a diagram showing the magnitude of a distance L that changes with time.
FIG. 8 is a diagram showing a movement amount of a distance L to a tracking target at predetermined time intervals;
FIG. 9 is a diagram showing the sum of the amount of movement of the tracking target every fixed time and the amount of movement of the own vehicle every fixed time;
FIG. 10 is a diagram illustrating a variance value of a sum of a movement amount of a tracking target every fixed time and a movement amount of the own vehicle every fixed time
FIG. 11 is a diagram illustrating a result of determining whether each of the trackable areas is a moving object area or a stationary object area;
FIG. 12 is a flowchart illustrating a processing procedure performed by the moving object region detection device according to the first embodiment;
FIG. 13 is a diagram for explaining a method of calculating the height H to the tracking target, and is a diagram of the tracking target and the imaging unit viewed from the side.
FIG. 14 is a view of the tracking target and the imaging unit as viewed from above.
FIG. 15 is a diagram showing a change in height H of an area a in which the tracking target is a stationary object and a change in height H of an area b in which the tracking target is a moving object;
FIG. 16 is a diagram illustrating a variance value of a height H of an area a in which a tracking target is a stationary object and a variance value of a height H of an area b in which the tracking target is a moving object;
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
前記撮像手段により撮像された画像を複数の領域に区分する領域区分手段と、前記領域区分手段により区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する追跡可能領域検出手段と、
前記撮像手段が所定時間の間隔で撮像した2枚の画像に基づいて、前記追跡可能領域検出手段により検出された追跡可能領域が前記所定時間の間に画像上を移動した量を検出する画像移動量検出手段と、
前記撮像手段を搭載した車両が前記所定時間に移動した距離を検出する車両移動量検出手段と、
前記画像移動量検出手段により検出された画像移動量と、前記車両移動量検出手段により検出された車両移動量とに基づいて、前記追跡可能領域内の追跡対象の実空間上の位置を算出する対象位置算出手段と、
前記対象位置算出手段により算出された追跡対象の位置と、前記車両移動量検出手段により検出された車両移動量とに基づいて、前記追跡可能領域が静止物が写っている静止物領域か、移動体が写っている移動体領域かを判定する領域判定手段とを備えることを特徴とする移動体領域検出装置。Imaging means installed on the vehicle to image the periphery of the vehicle;
Area dividing means for dividing an image taken by the image pickup means into a plurality of areas, and a traceable area detecting means for detecting a traceable area capable of tracking a moving object among the areas divided by the area dividing means When,
Image movement detecting an amount by which the traceable area detected by the traceable area detection means has moved on the image during the predetermined time, based on two images taken by the imaging means at predetermined time intervals. Quantity detection means;
Vehicle movement amount detection means for detecting the distance that the vehicle equipped with the imaging means has moved during the predetermined time;
Calculating a position in the real space of the tracking target in the trackable area based on the image moving amount detected by the image moving amount detecting unit and the vehicle moving amount detected by the vehicle moving amount detecting unit; Target position calculating means;
Based on the position of the tracking target calculated by the target position calculation means and the vehicle movement detected by the vehicle movement detection means, the trackable area is a stationary object area where a stationary object is captured, A moving body region detecting device, comprising: a region determining unit that determines whether the body is a moving body region.
前記対象位置算出手段は、前記撮像手段から前記追跡可能領域内の追跡対象までの車両直進方向における距離を算出し、
前記領域判定手段は、前記対象位置算出手段により算出された前記追跡対象までの距離の一定時間ごとの変化量と、前記車両移動量の一定時間ごとの変化量との和を複数算出し、算出した複数の和の分散値が所定のしきい値以下であれば、前記追跡可能領域が静止物領域であると判定し、前記分散値が所定のしきい値より大きければ移動体領域であると判定することを特徴とする移動体領域検出装置。The moving object area detection device according to claim 1,
The target position calculation unit calculates a distance in a vehicle straight traveling direction from the imaging unit to a tracking target in the trackable area,
The area determination unit calculates a plurality of sums of a change amount of the distance to the tracking object calculated by the target position calculation unit for each fixed time and a change amount of the vehicle movement amount for each fixed time. If the variance value of the plurality of sums is equal to or less than a predetermined threshold value, it is determined that the trackable area is a stationary object area. A moving object region detection device, characterized by making a determination.
前記対象位置算出手段は、前記撮像手段から前記追跡可能領域内の追跡対象までの車両直進方向と垂直な方向における距離(以下、横方向距離と呼ぶ)を所定時間ごとに算出し、
前記領域判定手段は、前記対象位置算出手段により所定時間ごとに算出された横方向距離の分散値が所定のしきい値以下であれば、前記追跡可能領域が静止物領域であると判定し、前記分散値が所定のしきい値より大きければ移動体領域であると判定することを特徴とする移動体領域検出装置。The moving object area detection device according to claim 1,
The target position calculating means calculates a distance (hereinafter, referred to as a lateral distance) in a direction perpendicular to a vehicle straight traveling direction from the imaging means to a tracking target in the trackable area at predetermined time intervals,
The area determination means determines that the trackable area is a stationary object area if the variance of the lateral distance calculated by the target position calculation means at predetermined time intervals is equal to or less than a predetermined threshold value, If the variance value is larger than a predetermined threshold value, it is determined that the object is a moving object area.
前記対象位置算出手段は、路面から前記追跡可能領域内の追跡対象までの高さを所定時間ごとに算出し、
前記領域判定手段は、前記対象位置算出手段により所定時間ごとに算出された追跡対象までの高さの分散値が所定のしきい値以下であれば、前記追跡可能領域が静止物領域であると判定し、前記分散値が所定のしきい値より大きければ移動体領域であると判定することを特徴とする移動体領域検出装置。The moving object area detection device according to claim 1,
The target position calculating means calculates a height from a road surface to a tracking target in the trackable area at predetermined time intervals,
The area determination means, if the variance value of the height to the tracking target calculated every predetermined time by the target position calculation means is equal to or less than a predetermined threshold, the trackable area is a stationary object area A moving body area detection device that determines a moving body area when the variance value is larger than a predetermined threshold value.
前記画像移動量検出手段は、前記追跡可能領域の水平方向の移動量と垂直方向の移動量とを検出し、
前記対象位置算出手段は、前記画像移動量検出手段により検出された水平方向および垂直方向の移動量のうち、移動量が大きい方の移動量を用いて前記追跡可能領域内の追跡対象の実空間上の位置を算出することを特徴とする移動体領域検出装置。The moving object region detection device according to any one of claims 1 to 4,
The image movement amount detection means detects a horizontal movement amount and a vertical movement amount of the traceable area,
The target position calculation means uses the larger movement amount of the horizontal and vertical movement amounts detected by the image movement amount detection means to calculate the real space of the tracking target in the trackable area. A moving object area detection device, which calculates an upper position.
前記追跡可能領域検出手段は、複数の方向に濃淡変化を有する領域を前記追跡可能領域として検出することを特徴とする移動体領域検出装置。The moving object region detection device according to any one of claims 1 to 5,
The moving body region detecting device, wherein the traceable region detecting means detects a region having a change in shading in a plurality of directions as the traceable region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003160919A JP2004362334A (en) | 2003-06-05 | 2003-06-05 | Device for detecting area of traveling object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003160919A JP2004362334A (en) | 2003-06-05 | 2003-06-05 | Device for detecting area of traveling object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004362334A true JP2004362334A (en) | 2004-12-24 |
Family
ID=34053554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003160919A Pending JP2004362334A (en) | 2003-06-05 | 2003-06-05 | Device for detecting area of traveling object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004362334A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008535041A (en) * | 2005-02-04 | 2008-08-28 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Identification of spurious areas in video frames |
JP2009210424A (en) * | 2008-03-04 | 2009-09-17 | Nissan Motor Co Ltd | Object detection device for vehicle and moving object determination method for vehicle |
JP2017083232A (en) * | 2015-10-26 | 2017-05-18 | 富士通テン株式会社 | Vehicle state determination device, display processing device, and vehicle state determination method |
JP2019020167A (en) * | 2017-07-12 | 2019-02-07 | 株式会社デンソーテン | Radar device and method for processing signal |
JP2020087074A (en) * | 2018-11-28 | 2020-06-04 | 株式会社メルカリ | Mobile object, program, and control method |
CN113538917A (en) * | 2021-07-29 | 2021-10-22 | 北京万集科技股份有限公司 | Collision early warning method and collision early warning device |
CN116583889A (en) * | 2020-11-27 | 2023-08-11 | 日产自动车株式会社 | Vehicle support method and vehicle support device |
-
2003
- 2003-06-05 JP JP2003160919A patent/JP2004362334A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008535041A (en) * | 2005-02-04 | 2008-08-28 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Identification of spurious areas in video frames |
JP2009210424A (en) * | 2008-03-04 | 2009-09-17 | Nissan Motor Co Ltd | Object detection device for vehicle and moving object determination method for vehicle |
JP2017083232A (en) * | 2015-10-26 | 2017-05-18 | 富士通テン株式会社 | Vehicle state determination device, display processing device, and vehicle state determination method |
JP2019020167A (en) * | 2017-07-12 | 2019-02-07 | 株式会社デンソーテン | Radar device and method for processing signal |
JP7127969B2 (en) | 2017-07-12 | 2022-08-30 | 株式会社デンソーテン | Radar device and signal processing method |
JP2020087074A (en) * | 2018-11-28 | 2020-06-04 | 株式会社メルカリ | Mobile object, program, and control method |
CN116583889A (en) * | 2020-11-27 | 2023-08-11 | 日产自动车株式会社 | Vehicle support method and vehicle support device |
CN113538917A (en) * | 2021-07-29 | 2021-10-22 | 北京万集科技股份有限公司 | Collision early warning method and collision early warning device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7792327B2 (en) | Apparatus and method for detecting a road boundary | |
JP3759429B2 (en) | Obstacle detection apparatus and method | |
JP3868876B2 (en) | Obstacle detection apparatus and method | |
JP5754470B2 (en) | Road surface shape estimation device | |
JP2007334859A (en) | Object detector | |
JP2013148356A (en) | Vehicle position calculation device | |
JP2012159469A (en) | Vehicle image recognition device | |
JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
JP5548212B2 (en) | Crosswalk sign detection method and crosswalk sign detection device | |
JP2020107290A (en) | Adhering matter detection device and adhering matter detection method | |
JP2007249257A (en) | Apparatus and method for detecting movable element | |
JP3988758B2 (en) | Moving body detection device | |
JP4256992B2 (en) | Obstacle detection device | |
US20200193184A1 (en) | Image processing device and image processing method | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP2004362334A (en) | Device for detecting area of traveling object | |
JP2005170290A (en) | Obstacle detecting device | |
JP5981284B2 (en) | Object detection device and object detection method | |
JP2008160635A (en) | Camera state detection method | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP5891802B2 (en) | Vehicle position calculation device | |
JP4978938B2 (en) | Distance measuring apparatus and method, and computer program | |
JP2020109595A (en) | Attachment detection device and attachment detection method | |
JP4107273B2 (en) | Moving body detection device | |
JP4013872B2 (en) | Obstacle detection device |