JP6985089B2 - 立体物接地判定装置 - Google Patents

立体物接地判定装置 Download PDF

Info

Publication number
JP6985089B2
JP6985089B2 JP2017191579A JP2017191579A JP6985089B2 JP 6985089 B2 JP6985089 B2 JP 6985089B2 JP 2017191579 A JP2017191579 A JP 2017191579A JP 2017191579 A JP2017191579 A JP 2017191579A JP 6985089 B2 JP6985089 B2 JP 6985089B2
Authority
JP
Japan
Prior art keywords
dimensional object
dimensional
floating
ecu
calculation timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017191579A
Other languages
English (en)
Other versions
JP2019067116A (ja
Inventor
尚秀 内田
文男 菅谷
健 田邊
裕丈 石神
正樹 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2017191579A priority Critical patent/JP6985089B2/ja
Priority to DE102018124033.3A priority patent/DE102018124033B4/de
Priority to US16/145,361 priority patent/US10740592B2/en
Publication of JP2019067116A publication Critical patent/JP2019067116A/ja
Application granted granted Critical
Publication of JP6985089B2 publication Critical patent/JP6985089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、車両前方に存在する立体物が路面に接地している接地物であるか路面から浮遊している浮遊物であるかを判定する立体物接地判定装置に関する。
従来から、運転支援の一態様として、車両前方に存在する立体物に車両が衝突することを回避したり、衝突による衝撃を軽減したりするための衝突回避制御が行われている。衝突回避制御を適切に実行するためには立体物を精度よく検出することが重要であり、近年、立体物を検出するための様々な装置が開発されている。例えば、特許文献1には、ステレオカメラにより撮像された画像に基づいて立体物を検出する装置が開示されている。
特開2013−161434号公報
ところで、立体物は、路面に接地している接地物(典型的には、他車両、歩行者、建造物及び街路樹等)と、路面から浮遊している浮遊物(典型的には、ビニル袋及び風船等)に大別される。一般に、浮遊物は軽量であり、車両と衝突しても車両への衝撃は殆どないため、浮遊物についてまで衝突回避制御が実行されると、運転者は当該制御を煩わしく感じる。そこで、立体物が接地物であるか浮遊物であるかを精度良く判定できる技術(立体物接地判定装置)の開発が望まれている。
そこで、発明者は、路面から立体物の下端までの高さ(以下、「下端高さ」とも称する。)が所定の高さ閾値以下の場合、立体物は接地物であると判定し、当該高さが高さ閾値を超えている場合、立体物は浮遊物であると判定する、装置を検討している。
このような装置を用いて車両に搭載されたステレオカメラにより取得された撮像画像に基づいて立体物を検出する場合、以下に述べる理由により、立体物を浮遊物と誤判定してしまう可能性がある。即ち、自車両前方には、図6に示したように、これらのカメラの撮像範囲には含まれない領域(即ち、オクルージョン領域R)が存在する。この領域は、例えば、カメラの画角制限及び/又はカメラの撮像範囲が自車両のフード(ボンネット)に遮られることにより必然的に生じる領域である。
そして、路面に接地している立体物Aがオクルージョン領域Rに存在している場合、立体物Aのうちオクルージョン領域R内に含まれている部分は撮像範囲に含まれない。このため、立体物Aの下端位置(Pa1)が、オクルージョン領域Rの上端部(Pa2)であるとして認識されてしまう。この結果、立体物Aが接地物であっても、その下端高さが高さ閾値を超えることがあり、その場合、立体物Aが浮遊物であると誤判定されてしまう。
本発明は、上述した問題に対処するためになされたものである。即ち、本発明の目的の一つは、立体物が接地物であるか浮遊物であるかの判定をより精度よく行うことができる立体物接地判定装置を提供することにある。
本発明による立体物接地判定装置(以下、「本発明装置」と称する。)は、
車両に搭載されており、
ステレオカメラを用いて車両前方の領域を撮像する撮像手段(11、ステップ1002)と、
前記撮像手段(11)によって撮像された撮像画像に基づいて当該撮像画像を構成する各画素の視差を含む視差情報を算出する視差情報算出手段(ステップ1006)と、
前記視差情報に基づいて前記撮像画像中の立体物を検出する立体物検出手段(ステップ1012)と、
前記視差情報に基づいて、路面から、前記検出された立体物の下端まで、の高さである下端高さ(h)を算出し、前記下端高さ(h)が所定の閾値以下の場合、前記立体物は前記路面に接地している接地物であると暫定的に判定し、前記下端高さ(h)が前記所定の閾値を超えている場合、前記立体物は前記路面から浮遊している浮遊物であると暫定的に判定する暫定判定を所定の演算時間が経過する毎に実行する暫定判定手段と(ステップ1018、1032)、
前記立体物が接地物であるか浮遊物であるかを最終的に判定する最終判定を前記所定の演算時間が経過する毎に実行する最終判定手段(ステップ1022、1026、1038、1048)と、を備え、
前記最終判定手段は、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の少なくとも一方において前記立体物が接地物であると判定された場合、前記立体物は現在の演算タイミングにおいて接地物であると最終的に判定し(ステップ1038)、
現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の双方において前記立体物が浮遊物であると判定された場合、前記立体物は現在の演算タイミングにおいて浮遊物であると最終的に判定する(ステップ1048)、
ように構成されている。
実際には接地物である立体物がオクルージョン領域Rに進入することに起因して浮遊物であると暫定判定された場合であっても、その立体物はオクル―ジョン領域Rに進入する前に接地物と最終判定されている可能性が極めて高い。そこで、本発明装置は、立体物が接地物であるか浮遊物であるかを、現在の演算タイミングにおける暫定判定(即ち、当該立体物の下端高さに基づいた判定)の結果だけではなく、直前の演算タイミングにおける最終判定の結果にも基づいて判定する。即ち、現在の演算タイミングにおける暫定判定と、直前の演算タイミングにおける最終判定と、の少なくとも一方において立体物が接地物であると判定された場合、立体物は現在の演算タイミングにおいて接地物であると最終的に判定される。従って、本発明装置によれば、その立体物が浮遊物であると誤って最終判定される可能性を大幅に低減できる。結果として、立体物が接地物であるか浮遊物であるかの判定をより精度よく行うことができる。
ところで、上記構成によれば、ある立体物について暫定判定及び最終判定が開始されてから、ある演算タイミングにおいて当該立体物が一度でも接地物であると暫定判定されると、その演算タイミングにおいて当該立体物は接地物であると最終判定される。この場合、その後、当該立体物が浮遊物であるとの暫定判定結果が継続しても、当該立体物は接地物であるとの最終判定結果が継続する。例えば、実際には浮遊物である立体物が何らかの要因(例えば、風や自重等)により一時的に路面に落下して接地物であると暫定判定されると、その後、当該立体物が浮遊物であるとの暫定判定結果が継続しても、当該立体物は接地物であるとの最終判定結果が継続する。このため、実際には浮遊物である立体物が何らかの要因により接地物であると最終判定された場合、当該立体物の最終判定結果を浮遊物にリセットできることが好ましい。
そこで、本発明装置の一側面では、
前記最終判定手段は、
直前の演算タイミングにおいて接地物であると最終判定された前記立体物が、現在の演算タイミングにおいて浮遊物であると暫定判定された場合(ステップ1042:Yes)において、浮遊物であるとの暫定判定結果が前記演算時間よりも長い所定のリセット時間だけ継続していたときは(ステップ1046:Yes)、前記立体物の最終判定結果を接地物から浮遊物に変更する(ステップ1048)、
ように構成されている。
この構成によれば、実際には浮遊物である立体物が一時的に路面に落下することに起因して接地物であると誤判定されても、当該立体物が浮遊物であるとの暫定判定結果が所定のリセット時間だけ継続すれば、当該立体物の最終判定結果が接地物から浮遊物に変更される。このため、実際には浮遊物である立体物が接地物であると誤判定され続ける可能性を大幅に低減できる。結果として、立体物が接地物であるか浮遊物であるかの判定をより精度よく行うことができる。
尚、上記説明においては、発明の理解を助けるために、実施形態に対応する発明の構成に対して、実施形態で用いた符号を括弧書きで添えているが、発明の各構成要件は前記符号によって規定される実施形態に限定されるものではない。
本発明の実施形態に係る立体物接地判定装置(以下、「実施装置」と称する。)及び実施装置に接続されている衝突回避制御装置の概略構成図である。 視差投票マップの平面図である。 視差投票マップの斜視図である。 各ブロックに属性が設定された視差投票マップを示す図である。 立体物ブロックが結合された視差投票マップを示す図である。 車両の位置を基準としたときの路面視差点の奥行き方向(z方向)の距離と高さ方向(y方向)の距離との関係を規定したグラフであり、グラフ上の点群を二次関数で近似した路面勾配式を示す図である。 左右カメラの撮像範囲が車両のフードに遮られることにより生じるオクルージョン領域、及び、接地物である立体物がオクルージョン領域に存在している場合における当該立体物の実際の下端位置と実施装置により算出される下端位置との違いを示す図である。 立体物ブロックのトラッキング方法について説明するために用いる図である。 車両に対して+z方向に位置している立体物(接地物)に向かって車両が接近しているときのn−1周期目及びn周期目における立体物と車両との位置関係を示す図である。 車両に対して+z方向に位置している立体物(浮遊物)に向かって車両が接近しているときの1〜10周期目における立体物と車両との位置関係を示す図である。 実施装置の接地判定ECUのCPU(以下、「実施装置のCPU」と称する。)が実行するルーチンを示すフローチャート(その1)である。 実施装置のCPUが実行するルーチンを示すフローチャート(その2)である。
図1は、本発明の実施形態に係る立体物接地判定装置(以下、「実施装置」とも称する。)及び実施装置に接続されている衝突回避制御装置の概略システム構成図である。実施装置及び衝突回避制御装置は車両に搭載されている。以下では、実施装置が搭載されている車両を「自車両」と称して他車両と区別する。実施装置は、自車両前方に存在する立体物が路面に接地している接地物であるのか、路面から浮遊している浮遊物であるのかを判定する。接地物は、典型的には、他車両、歩行者、建造物及び街路樹等であり、見かけ上その下端が路面と連続している物体である。浮遊物は、典型的には、ビニル袋及び風船等であり、見かけ上その下端が路面上にない物体である。
実施装置は、接地判定ECU10と、接地判定ECU10に接続されたカメラセンサ11及び車両状態センサ12を備える。衝突回避制御装置は、衝突回避ECU20と、衝突回避ECU20に接続された衝突回避装置21を備える。接地判定ECU10は、衝突回避ECU20と、通信・センサ系CAN(Controller Area Network)を介してデータ交換可能(通信可能)に接続されている。なお、ECUは、「Electirc Control Unit」の略であり、マイクロコンピュータを主要部として備える。マイクロコンピュータは、CPUとROM及びRAM等の記憶装置とを含む。CPUはROMに格納されたインストラクション(プログラム、ルーチン)を実行することによって、各種機能を実現する。以下、接地判定ECU10は、単に「ECU10」と称し、衝突回避ECU20は、単に「ECU20」と称する。
カメラセンサ11は、自車両の前方領域を撮像する車載ステレオカメラ装置(図示省略)を備える。車載ステレオカメラ装置は、自車両のルーフ前端部の車幅方向中央付近に設けられ、車両前後軸より左側に配置される左カメラと、車両前後軸より右側に配置される右カメラと、を有する。左カメラは所定時間が経過する毎に主として自車両の前方左側の領域を撮像し、撮像した左画像を表す左画像信号をECU10に出力する。同様に、右カメラは所定時間が経過する毎に主として自車両の前方右側の領域を撮像し、撮像した右画像を表す右画像信号をECU10に出力する。
車両状態センサ12は、自車両の走行状態に関する車両状態情報を取得するセンサである。車両状態センサ12は、自車両の速度(即ち、車速)を検出する車速センサを含む。車両状態センサ12は、所定時間が経過する毎に車両状態情報(車速)をECU10に出力する。
ECU10は、カメラセンサ11から出力された左画像信号及び右画像信号に基づいて視差画像を生成する。ECU10は、その視差画像に基いて自車両前方に存在する立体物を検出する。更に、ECU10は、その視差画像に基いて、自車両前方に存在する路面の勾配を表す路面勾配式を算出する。ECU10は、所定時間が経過する毎に(即ち、所定の演算周期毎に)、検出された立体物が接地物であるか浮遊物であるかを、検出された立体物の下端位置と、路面勾配式と、後述する接地フラグの値と、に基づいて判定する。ECU10は、その判定結果をECU20に送信する。なお、ECU10は、立体物と自車両との距離及び立体物の自車両に対する方位(即ち、立体物の位置情報)、並びに、自車両に対する立体物の相対速度等をふくむ物標情報を周知の方法により演算し、演算結果を立体物を特定するIDとともにECU20に送信する。即ち、ECU10は物標情報取得ECUと言うこともできる。
ECU20は、ECU10から送信される判定結果に基づいて、衝突回避制御を実行するか否かを判定する。ここで、衝突回避制御は、自車両の前方に当該車両と衝突する可能性がある立体物(厳密には接地物)が存在する場合、運転者に警報を発生する警報制御、自車両に自動的に制動力を付与する自動制動制御、及び/又は、自車両の操舵輪の転舵角を自動的に変更する自動操舵制御を実行する制御である。ECU20は、ECU10から立体物が接地物であるという最終判定結果を取得した場合、当該立体物までの衝突予測時間(自車両が当該立体物に衝突するまでに要すると予測される時間)を物標情報及び自車両の車速等から算出する。そして、ECU20は、当該衝突予測時間が所定の時間閾値以下のときは、自車両が当該立体物に衝突する可能性があると判定して、後述する種々の衝突回避要求信号を衝突回避装置21に送信する。一方、ECU20は、ECU10から立体物が接地物であるという判定結果を取得しても、当該立体物までの衝突予測時間が時間閾値を超えている場合、自車両が当該立体物に衝突する可能性はないと判定して衝突回避要求信号の衝突回避装置21への送信は行わない。加えて、ECU20は、ECU10から立体物が浮遊物であるという判定結果を取得した場合、当該立体物は衝突回避制御の対象ではないと判定して衝突回避要求信号の衝突回避装置21への送信は行わない。
衝突回避装置21は、警報装置と、ブレーキ装置と、モータドライバ及びモータドライバに接続された転舵用モータと、を有する。衝突回避要求信号は、警報要求信号と、自動制動要求信号と、自動操舵要求信号と、を含む。衝突回避装置21は、ECU20から警報要求信号が送信された場合、警報装置を作動させて運転者に警報を発生する(警報制御を行う。)。加えて、衝突回避装置21は、ECU20から自動制動要求信号が送信された場合、ブレーキ装置を駆動して自車両の加速度を調整する(自動制動制御を行う。)。更に、衝突回避装置21は、ECU20から自動操舵要求信号が送信された場合、モータドライバを駆動して転舵用モータにトルクを発生させることにより自車両の操舵輪を転舵する(自動操舵制御を行う。)。
この構成によれば、立体物が浮遊物と判定された場合は衝突回避制御が実行されないため、不要な運転支援制御が実行される頻度が減少し、より適切な運転支援制御を行うことができる。
(作動の詳細)
次に、実施装置の作動の詳細について説明する。
<視差画像の生成>
実施装置のECU10は、自車両の図示しないエンジンスイッチ(イグニッション・キー・スイッチ)がオン状態へと変更されてからオフ状態へと変更されるまでの期間(以下、「エンジンオン期間」とも称する。)、所定時間(演算周期)が経過する毎に、カメラセンサ11から出力された左画像信号及び右画像信号に基づいて、公知の手法(例えば、Semi-Global Matching)を用いて視差画像を生成する。視差画像を構成する各画素には、当該画素の視差を含む視差情報が対応付けられている。以下では、視差画像を構成する各画素を「視差点」と称する。
<視差投票マップ内のブロックへの属性設定>
図2Aは、視差投票マップ30の平面図を示し、図2Bは視差投票マップ30の斜視図を示す。視差投票マップ30は、ECU10のRAM内に設けられている。図2A及び図2Bに示すように、視差投票マップ30は、横方向の辺が視差画像の横方向(車幅方向)の位置に対応し、縦方向の辺が視差画像の縦方向の位置に対応し、奥行き方向の辺が視差の大きさに対応するように配列された複数の直方体形状のブロック32を備える。周知なように、視差の大きさが小さいほど、奥行き方向(車両前後軸方向)の距離が大きくなる。ECU10は、エンジンオン期間中、所定時間が経過する毎に、視差画像に基づいて、視差投票マップ30の各ブロック32の属性を立体物、路面及び不明の何れかに設定する(図3参照)。属性の設定方法は周知であるため、以下ではその一例を一例を簡単に説明する。なお、詳細については、特開2016−206776号公報(米国特許出願公開第2016305785号明細書)を参照されたい。
ECU10は、視差画像中の各視差点を、視差点の位置(横方向の位置及び縦方向の位置)と視差の大きさと基づいて、視差投票マップ30の対応するブロック32に投票(分類)する。そして、ECU10は、視差投票マップ30の各ブロック32について、視差の平均値、視差の偏差、視差画像の縦方向における視差点の座標の平均値及び視差画像の縦方向における視差点の座標の偏差を算出する。
ECU10は、視差投票マップ30のブロック32内に、同程度の視差(距離)を有する視差点が、視差画像の縦方向において広い範囲に分布している場合、当該視差点の集合は立体物を示していると判定する。この場合、ECU10は、当該ブロック32の属性を立体物に設定する(図3参照)。以下では、立体物の属性に設定されたブロック32を「立体物ブロック32a」とも称する。
一方、ECU10は、視差投票マップ30のブロック32内に、同程度の視差(距離)を有する視差点が、視差画像の縦方向における狭い範囲に分布し、視差が減少するにつれて(自車両からの距離が増大するにつれて)視差画像の縦方向における視差点の位置が滑らかに上昇している場合、当該視差点の集合は路面を示していると判定する。この場合、ECU10は、当該ブロック32の属性を路面に設定する(図3参照)。以下では、路面の属性に設定されたブロック32を「路面ブロック32b」とも称する。他方、ECU10は、立体物及び路面の何れの属性にも設定されなかったブロック32に不明の属性を設定する(図3参照)。ECU10は、上記3種類の何れかの属性が設定された視差投票マップ30をECU10のRAMに格納する。RAMに格納された視差投票マップ30は、所定時間が経過する毎に更新される。
<3次元座標への変換>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、立体物ブロック32aに分類された視差点(以下、「立体物視差点」とも称する。)と、路面ブロック32bに分類された視差点(以下、「路面視差点」とも称する。)と、を以下の式(1)乃至式(3)に則って3次元座標(z,x,y)に変換する。ここで、z、x、yは、それぞれ奥行き方向(車両前後軸方向)の成分、横方向(車幅方向)の成分、高さ方向の成分を表す。なお、この高さ方向は、視差画像及び視差投票マップ30の縦方向に対応する。加えて、式中のBはカメラセンサ11の左カメラと右カメラとの距離を表し、fは両カメラの焦点距離を表し、dは視差点に対応付けられた視差情報に含まれる視差を表し、u及びvは視差画像中の視差点の座標の横方向及び縦方向の成分をそれぞれ表す。

z=B・f/d…(1)
x=u・f/z…(2)
y=v・f/z…(3)
ECU10は、視差点のうち立体物視差点の3次元座標群を立体物ブロック32a毎にグルーピングして(まとめて)RAMに格納する。RAMに格納された各視差点の3次元座標は、所定時間が経過する毎に(演算タイミングが到来する毎に)更新される。但し、前回の演算タイミングにおいて更新された立体物視差点の3次元座標は、後述する立体物のトラッキング処理で使用されるため、現在の演算タイミングにおける各種の処理が終了するまで、ECU10のRAMに別途格納される。
<立体物ブロックの結合>
ECU10は、視差投票マップ30内において複数の立体物ブロック32aが隣接している場合、これらの立体物が1つの連続した立体物であるか、個別の立体物であるかを判定する。この判定は、エンジンオン期間中、所定時間が経過する毎に行われる。具体的には、図3に示すように、ある立体物ブロック32aに隣接している8つのブロック32の中に立体物ブロック32aが存在する場合、ECU10は、一方の立体物ブロック32aに分類された立体物視差点と、他方の立体物ブロック32aに分類された立体物視差点と、のz−x平面上の距離を算出する。そして、ECU10は、当該距離の最小値が所定の結合距離閾値以下であるか否かを判定する。当該最小値が結合距離閾値以下の場合、ECU10は、一方の立体物ブロック32aに対応する立体物と、他方の立体物ブロック32aに対応する立体物は、1つの連続した立体物であると判定し、これら2つの立体物ブロック32aを結合する。一方、当該最小値が結合距離閾値を超えている場合、ECU10は、一方の立体物ブロック32aに対応する立体物と、他方の立体物ブロック32aに対応する立体物は、個別の立体物であると判定し、これら2つの立体物ブロック32aを結合しない。
ECU10は、上記の処理を、全ての立体物ブロック32aについて実行する。以下では、結合された複数の立体物ブロック32aを、「結合立体物ブロック32a」と総称する。図4に、図3に示す全ての立体物ブロック32aについて立体物の結合処理を実行した例を示す。この例では、視差投票マップ30内の左側において隣接している複数の立体物ブロック32aが結合されて、1つの結合立体物ブロック32a1となっている。加えて、視差投票マップ30内の右側において隣接している複数の立体物ブロック32aが結合されて、1つの結合立体物ブロック32a2となっている。ECU10は、複数の立体物ブロック32aが結合された場合、立体物ブロック32a毎にグルーピングされていた立体物視差点の3次元座標群を、結合立体物ブロック32a毎にグルーピングしてECU10のRAMに格納する。別言すれば、ECU10は、立体物視差点の3次元座標群を、立体物ブロック32a毎のグルーピングから、結合立体物ブロック32a毎のグルーピングに拡張する。グルーピングされた3次元座標群が1つの立体物を構成する。これにより、自車両前方に存在する立体物が検出される。
<路面勾配式の算出>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、自車両前方に存在する路面の勾配を表す路面勾配式を公知の手法を用いて算出する。具体的には、ECU10は、図5に示すように、自車両の位置を基準としたときの路面視差点の奥行き方向(z方向)の距離と高さ方向(y方向)の距離との関係を規定したグラフを作成する。このグラフは、横軸がz方向を表し、縦軸がy方向を表しており、視差投票マップ30内の全ての路面視差点の座標のz成分及びy成分をプロットすることにより作成される。ECU10は、路面視差点をグラフにプロットすると、最小二乗法のM推定を用いてグラフ上の点群を二次関数(y=a・z+b・z+c。a、b、cはM推定によって算出される定数。)で近似し、この近似式を路面勾配式として算出する。なお、上記の説明から明らかなように、路面勾配式は路面視差点の座標のz成分(奥行き方向の成分)とy成分(高さ方向の成分)に基づいて決定される式であり、x成分(横方向の成分)は考慮されない。即ち、路面勾配式は、「奥行き方向の距離が同一の地点における路面の高さは横方向に亘って略一定である」という前提の下で作成される。このため、路面視差点については、3次元座標への変換を行う際にx成分を算出しない構成であってもよい。なお、グラフ上の点群を近似する手法はM推定に限られず、例えばL推定やR推定が用いられてもよいし、最小二乗法以外の手法が用いられてもよい。ECU10は、算出された路面勾配式をRAMに格納する。
<現在の演算タイミングにおける立体物が接地物であるか否かの暫定判定>
ECU10は、エンジンオン期間中、所定時間が経過する毎に、立体物が「現在の演算タイミングにおいて」接地物であるか浮遊物であるかを暫定的に判定する。以下、この暫定的な判定を「暫定判定」とも称する。具体的には、まず、ECU10は、立体物の下端位置の座標(zL,xL,yL)を次に述べるように算出する。即ち、立体物ブロック32aが何れのブロック32とも結合されていない場合、ECU10は、当該立体物ブロック32aに分類された立体物視差点のうち、y座標が最小である立体物視差点の座標(z,x,y)を立体物の下端位置の座標(zL,xL,yL)として算出する。一方、立体物ブロック32aが隣接する他の立体物ブロック32aと結合されている場合、ECU10は、結合されている複数の立体物ブロック32aに分類されている全ての立体物視差点のうち、y座標が最小である立体物視差点の座標(z,x,y)を立体物の下端位置の座標(zL,xL,yL)として算出する。なお、下端位置の高さyLが同一の立体物視差点が複数存在する場合、ECU10は、これら複数の立体物視差点から1つを選択し、選択された立体物視差点の座標を立体物の下端位置の座標として算出する。本実施形態では、ECU10は、下端位置の高さyLが同一の複数の立体物視差点のうち、下端位置の奥行きzLが最小である立体物視差点を選択する。ECU10は、算出された立体物の下端位置の座標をRAMに格納する。
次に、ECU10は、立体物の下端位置の路面からの高さh(以下、「下端高さh」とも称する。)を算出する。下端高さhは、以下の式(4)に則って算出される。

h=yL−(a・zL+b・zL+c)…(4)
即ち、下端高さhは、立体物の下端位置の高さyLから、下端位置の奥行きzLにおける路面の高さ(即ち、路面勾配式y=a・z+b・z+cに立体物の下端位置の奥行きzLを代入した値)を減算することにより算出される。続いて、ECU10は、現在の演算タイミングにおいて検出された全ての立体物のそれぞれについて、その下端高さhが所定の高さ閾値以下であるか否かを判定する。ECU10は、下端高さhが高さ閾値以下の場合、立体物は「現在の演算タイミングにおいて」接地物であると暫定判定する。ECU10は、下端高さhが高さ閾値を超えている場合、立体物は「現在の演算タイミングにおいて」浮遊物であると暫定判定する。ECU10は、暫定判定の結果である暫定判定結果を、ECU10のRAMに格納する。
なお、立体物が実際には路面に接触していても、下端位置の誤差又は路面勾配式の誤差等により下端高さhが0より大きい値になる場合がある。このため、高さ閾値は、実験やシミュレーション等に基づいて、0より僅かに大きい値に設定される。
更に、結合立体物ブロック32aの下端位置の座標は、以下のように算出してもよい。即ち、結合立体物ブロック32aを構成する各立体物ブロック32aの下端位置の座標を上述したようにして算出し、これらのうち最小のyLを有する立体物視差点の座標を結合立体物ブロック32aの下端位置の座標として算出してもよい。
<接地フラグの設定及び立体物のトラッキング>
ECU10は、左右カメラにより撮像された左右画像信号に基づいて自車両前方に存在する立体物を検出するように構成されているが、自車両前方には、左右カメラの撮像範囲に含まれない領域が存在する。この領域は、例えば、左右カメラの画角制限及び/又は左右カメラの撮像範囲が自車両のフード(ボンネット)により遮られることにより必然的に生じる領域であり、以下では、「オクルージョン領域R」と称する。図6は、左右カメラの撮像範囲が自車両のフード13に遮られることにより生じているオクルージョン領域Rを側方から見た図を示す。このオクルージョン領域Rは、カメラセンサ11の設置位置とフード13の角部とを結ぶ直線L1と、路面14と、自車両の前端部を通り路面14に垂直な直線L2と、によって囲まれる領域である。路面に接地している立体物Aがオクルージョン領域Rに存在している場合、立体物Aのうちオクルージョン領域R内に位置している部分は撮像範囲に含まれない。このため、ECU10は、立体物Aの実際の下端位置Pa1ではなく、「立体物Aのうちオクルージョン領域Rよりも上方に位置している部分」の下端位置Pa2を立体物Aの下端位置として算出する。この結果、下端高さhが実際よりも大きい値として算出されることになり、当該下端高さhが高さ閾値を超えている場合、ECU10は、立体物Aは実際には接地物であるにも関わらず、浮遊物であると暫定判定してしまう。
そこで、ECU10は、立体物が接地物であるか浮遊物であるかの最終的な判定を、現在の演算タイミングにおける暫定的な判定結果のみならず、直前の演算タイミングにおける最終的な判定結果にも基いて行う。例えば、ECU10は、現在の演算タイミングにおいて立体物が浮遊物であると暫定的に判定した場合であっても、直前の演算タイミングにおいて当該立体物が接地物であると最終的に判定されていたときには、現在の演算タイミングにおいて当該立体物は接地物であると最終的に判定する。
具体的には、ECU10は、ある演算タイミングにおいて、立体物が接地物であると最終的に判定した場合、当該立体物に対する接地フラグの値を「1」に設定する。これに対し、ECU10は、ある演算タイミングにおいて、立体物が浮遊物であると最終的に判定した場合、当該立体物に対する接地フラグの値を「0」に設定する。そして、ECU10は、次の演算タイミングにおいて、その接地フラグの値を参照して、その立体物が接地物であるか浮遊物であるかの最終的な判定を行う。このように接地フラグの値を参照するために、ECU10は、現在の演算タイミングにおいて検出された立体物が直前の演算タイミングにおいて検出された立体物の何れに相当するかを特定する。即ち、ECU10は、立体物のトラッキングを行う。ECU10は、この立体物のトラッキングを、直前の演算タイミングにおいて検出された全ての立体物の下端位置と、現在の演算タイミングにおいて上記の判定を行う対象である立体物の下端位置と、自車両の車速と、に基づいて行う。なお、立体物のトラッキングは、視差投票マップ30を用いて行われるため、厳密には、ECU10は、立体物ブロックのトラッキングを行う。
図7を参照して立体物ブロック32aのトラッキング方法について説明する。図7は、現在の演算タイミングをn回目(n≧2)と規定したときの当該n回目の演算タイミングにて作成された視差投票マップ30から、立体物ブロック32aだけを抽出して示した図である。以下では、n回目の演算タイミングにおいて立体物Xに対応する立体物ブロック32aを立体物ブロック32aX(n)と表記する。本例では、立体物B、C及びDにそれぞれ対応する3つの立体物ブロック32aB(n)、72aC(n)及び72aD(n)が存在する。ECU10は、n−1回目の演算タイミング(即ち、直前の演算タイミング)における立体物ブロック32aB(n−1)の下端位置の座標を記憶している。図7では、説明の都合上、この立体物ブロック32aB(n−1)も重畳的に示している。
n−1回目の演算タイミングからn回目の演算タイミングまでの時間(演算周期)をTと規定する。この場合、自車両が前方(+z方向。図7では紙面上方向。)に車速Vで進行していると、自車両は、n−1回目の演算タイミングからn回目の演算タイミングまでの期間(直近1周期)に+z方向に距離V・Tだけ進む。従って、各立体物ブロック32aの下端位置は、n−1回目の演算タイミングからn回目の演算タイミングまでの間に、各立体物ブロック32aに対応する立体物が静止していたとしても、自車両の移動距離V・Tに相当する長さだけ−z方向(図7では紙面下方向)に相対的に移動する。従って、ECU10は、n−1回目の演算タイミングにおける各立体物ブロック32aの下端位置を−z方向に距離V・Tだけ水平移動した位置を、各立体物ブロック32aが直近1周期において静止していたと仮定した場合のn回目の演算タイミングにおける位置として予測する。そして、ECU10は、その予測した位置に「各立体物ブロック32aに対応するn回目の演算タイミングにおける仮想立体物ブロック32av」を設定する。
図7の例では、n−1回目の演算タイミングにおける立体物ブロック32aB(n−1)の下端位置が−z方向に距離V・Tだけ水平移動され、立体物ブロック32aB(n−1)に対応する「n回目の演算タイミングにおける仮想立体物ブロック32aBv(n)」が設定されている。
ここで、演算周期Tは微小時間であるため、立体物が0ではない速度を有していたとしても、その移動距離は極めて小さい。このため、ある立体物Xの立体物ブロック32aX(n)は、他の立体物Yの立体物ブロック32aY(n)よりも、仮想立体物ブロック32avX(n)の近くに位置していると考えられる。そこで、ECU10は、仮想立体物ブロック32avX(n)と、n回目の演算タイミングにおける全ての立体物ブロックのそれぞれと、の下端位置同士の水平面における距離(即ち、z−x平面上の距離)を算出し、その中で最小の距離を有する立体物ブロックを「n回目の演算タイミングにおける立体物ブロック32aX(n)」であると決定する。
図7の例では、ECU10は、仮想立体物ブロック32aBv(n)の下端位置と、n周期目の立体物ブロック32aB(n)、32aC(n)及び32aD(n)の各下端位置と、の水平面における距離を算出する。図7から明らかなように、これらの距離の中では、仮想立体物ブロック32aBv(n)の下端位置と立体物ブロック32aB(n)の下端位置との距離が最小である。従って、ECU10は、立体物ブロック32aB(n)を立体物ブロック32aB(n−1)と関連付ける。
このようにして、ECU10は、n回目の演算タイミングにおいて検出された立体物が、n−1回目の演算タイミングにおいて検出された立体物の何れに相当するかを特定(トラッキング)する。ECU10は、結合立体物ブロック32aについても同様の方法でトラッキングする。立体物をトラッキングすることにより、ECU10は、トラッキングされた立体物に対する接地フラグの値を取得(参照)することが可能となる。即ち、ECU10は、n回目の演算タイミングにおいて「着目する立体物」が、n−1回目の演算タイミングにおいて接地物及び浮遊物の何れであると最終的に判定されていたかを認識することができる。
<現在の演算タイミングにおける立体物が接地物であるか否かの最終判定>
ECU10は、上述したように、現在の演算タイミングにおいて「ある立体物」が接地物であると暫定的に判定した場合、当該立体物の接地フラグの値(即ち、直前の演算タイミングにおける最終的な判定結果)に関わらず、当該立体物を「接地物」と最終判定し、当該立体物の接地フラグの値を「1」に設定する。
これに対し、ECU10は、現在の演算タイミングにおいて「ある立体物」が浮遊物であると暫定的に判定した場合、当該立体物の接地フラグの値が「1」であるとき(即ち、前回の演算タイミングにおける最終的な判定結果が「接地物」であるとき)、当該立体物を「接地物」と最終判定し、当該立体物の接地フラグの値を「1」に設定する。
更に、ECU10は、現在の演算タイミングにおいて「ある立体物」が浮遊物であると暫定的に判定した場合、当該立体物の接地フラグの値が「0」であるとき(即ち、前回の演算タイミングにおける最終的な判定結果が「浮遊物」であるとき)、当該立体物を「浮遊物」と最終判定し、当該立体物の接地フラグの値を「0」に設定する。
この結果、接地物が浮遊物であると誤判定する可能性が低減される。この点について図8を参照して説明する。図8は、自車両に対して+z方向に位置している立体物Eに向かって自車両が車速Vで接近しているときのn−1回目及びn回目の演算タイミングにおける立体物Eと自車両との位置関係を示す。立体物Eは、路面に接地しており、静止している。以下では、n回目の演算タイミングにおける立体物EをE(n)と表記する。n−1回目の演算タイミングにおいて立体物E(n−1)はオクルージョン領域Rの外部に位置しているが、n回目の演算タイミングにおける立体物E(n)は距離V・Tだけ自車両に相対的に接近することにより、オクルージョン領域Rの内部に位置している。「立体物E(n)のうちオクルージョン領域Rよりも上方に位置している部分」の下端高さhは、高さ閾値を超えていると仮定する。
この場合、n−1回目の演算タイミングにおいて、ECU10は、立体物Eを「接地物」と暫定判定するため、立体物Eの接地フラグの値(即ち、立体物Eのn−2回目の演算タイミングにおける最終的な判定結果)に関わらず、立体物Eを「接地物」と最終判定する。よって、ECU10は接地フラグの値を「1」に設定する。そして、n回目の演算タイミングにおいて、ECU10は、立体物Eを「浮遊物」と暫定判定するものの、n−1回目の演算タイミングでの接地フラグの値が「1」に設定されているため、n回目の演算タイミングにおいて立体物Eを「接地物」と最終的に判定する。そして、ECU10は、立体物Eの接地フラグの値を「1」に設定する。この結果、接地物がオクルージョン領域R内に進入しても、当該接地物が浮遊物であると誤判定される可能性が大幅に低減する。
<最終判定結果(接地フラグ)のリセット>
上述した方法によると、ある立体物についてのn回目の演算タイミングにおける暫定的な判定結果と、その立体物についてのn−1回目の演算タイミングにおける最終的な判定結果と、の少なくとも一方が「接地物」である場合、ECU10は、当該立体物はn回目の演算タイミングにおいて接地物であると最終的に判定する。このため、ある演算タイミングにおいて立体物が接地物と暫定的に判定されると、その後の演算タイミングにおいて当該立体物が浮遊物であると暫定的に判定され続けたとしても、当該立体物は接地物であるとの最終的な判定が継続する。従って、浮遊物が接地物であるとの暫定的な判定が誤ってなされると、本来的には衝突回避制御が不要な浮遊物に対して衝突回避制御が実行される可能性がある。
このような状況が発生する場合について、図9及び以下の表1を参照して具体的に説明する。図9は、自車両に対して+z方向に位置している立体物Fに向かって自車両が車速Vで接近しているときの1乃至10回目の演算タイミングにおける立体物Fと自車両との位置関係を示す。表1は、1乃至10回目の演算タイミングのそれぞれにおける立体物Fの暫定判定結果及び最終判定結果を示す。表1における「浮遊」及び「接地」は「浮遊物」及び「接地物」をそれぞれ意味する。以下では、n回目の演算タイミングでの立体物Fの位置をF(n)と表記する。この例において、立体物Fは浮遊物であり、位置F(n)は位置F(3)を除き「下端高さhが高さ閾値より大きい地点」で静止している。但し、立体物Fは、3回目の演算タイミングにおいて何らかの要因(例えば、風や自重等)で一時的に路面に落下している。位置F(n+1)(n:1〜9)は、位置F(n)に対して、距離V・Tだけ相対的に自車両に移動している。

Figure 0006985089
立体物Fは浮遊物であるため、何れの周期においても最終判定において「浮遊物」と判定されることが望ましい。しかしながら、表1に示すように、3回目の演算タイミングにおいて立体物Fが一時的に路面に落下したことにより接地物であると暫定的に判定されるので、立体物Fは、3回目の演算タイミングにおいて接地物であると判定される。この結果、4回目以降の演算タイミングにおいて立体物Fは浮遊物であると暫定的に判定され続けても、立体物Fは接地物であると最終的に判定され続ける。
そこで、接地物であると最終的に判定された立体物が、その後の演算タイミングにおいて浮遊物であると暫定的に判定された場合、ECU10は、浮遊物であると暫定的に判定され続ける時間(浮遊物判定継続時間)を計測する。そして、ECU10は、浮遊物判定継続時間が所定のリセット時間に到達したとき、当該立体物は実際には浮遊物であると判定し、リセット時間が経過した時点において当該立体物が浮遊物であると最終的に判定する。なお、リセット時間は実験又はシミュレーションにより算出され得る。
例えば、図9の例において、リセット時間が、演算周期の5倍の長さ(5・T)に設定されていると仮定する。この場合、立体物Fが接地物と最終的に判定された3回目の演算タイミングに続く4回目の演算タイミングから9回目の演算タイミングまでの間(即ち、浮遊物判定継続時間が5周期(5・T)分の時間に到達する間)立体物Fが浮遊物であると暫定的に判定され続ける。よって、表2に示したように、9回目の演算タイミングにおいて立体物Fは浮遊物であると最終的に判定される。これにより、浮遊物が接地物であると誤判定し続ける可能性を低減することができ、不要な衝突回避制御が発生する可能性を低減できる。

Figure 0006985089
なお、実施装置によりある立体物が接地物であると判定され、衝突回避制御装置により当該立体物までの衝突予測時間が所定の時間閾値以下であると判定された場合、衝突回避制御装置は、当該立体物に対する衝突回避制御を開始する。この場合、実施装置は、その後、当該立体物の浮遊物判定継続時間がリセット時間に到達したとしても、当該立体物の最終判定結果を浮遊物に変更せず、接地物であるとの最終判定結果を維持する。これにより、衝突回避制御の開始後に立体物の浮遊物判定継続時間がリセット時間に到達したとしても、当該立体物に対する衝突回避制御が適切に実行される。
(実際の作動)
次に、ECU10の実際の作動について説明する。ECU10のCPUは、エンジンオン期間中、図10及び図11にフローチャートにより示したルーチンを所定時間(演算周期)が経過する毎に実行するようになっている。
CPUは、エンジンスイッチがオン状態へと変更されると、図10のステップ1000から処理を開始して以下のステップ1002乃至1016の処理を順に行う。
ステップ1002:CPUは、カメラセンサ11から左画像信号及び右画像信号を受信する。即ち、左画像及び右画像を含む撮像画像を取得する。
ステップ1004:CPUは、車両状態センサ12から車速を取得する。
ステップ1006:CPUは、撮像画像から視差画像を生成する。
ステップ1008:CPUは、視差画像に含まれる視差情報に基づいて視差投票マップ30の各ブロック32に、3種類の属性(立体物、路面及び不明)の何れかを書き込む。
ステップ1010:CPUは、各ブロック32の属性に基づいて、立体物ブロック32aに分類された視差点である立体物視差点と、路面ブロック32bに分類された視差点である路面視差点と、を3次元座標(z,x,y)に変換する。
ステップ1012:CPUは、ステップ1010にて3次元座標に変換された立体物視差点の座標に基づいて、隣接している立体物ブロック32aが1つの連続した立体物であるか、個別の立体物であるかを判定する。CPUは、隣接している立体物ブロック32aが1つの連続した立体物であると判定した場合、これらの立体物ブロック32aを結合して結合立体物ブロック32aを生成し、当該結合立体物ブロック32aに含まれる立体物視差点の3次元座標群をグルーピングする。一方、CPUは、隣接している立体物ブロック32aが個別の立体物であると判定した場合、これらの立体物ブロック32aを結合せず、各立体物ブロック32aに含まれる立体物視差点の3次元座標群をグルーピングする。これにより、自車両前方に存在する立体物が検出される。
ステップ1014:CPUは、ステップ1010にて3次元座標に変換された路面視差点の座標に基づいて、自車両前方に存在する路面の路面勾配式を算出する。
ステップ1015:CPUは、ステップ1010にて3次元座標に変換された立体物視差点の座標に基づいて、ステップ1012にて検出された立体物のうち1つの立体物(以下、「対象立体物」とも称する。)について、当該立体物の下端位置の座標(zL,xL,yL)を求める。
ステップ1016:CPUは、対象立体物が、前回の演算タイミングにおいて検出された立体物の何れに相当するかをトラッキングして、トラッキングされた立体物に設定されている接地フラグの値(前回の演算タイミングにおける最終判定結果)を取得する。
次いで、CPUは、ステップ1017に進み、ステップ1016において対象立体物のトラッキングができたか否か(即ち、前回の演算タイミングにおいて対象立体物に対応する立体物が検出されていたか否か)を判定する。対象立体物のトラッキングができなかったと判定した場合、CPUは、ステップ1017にて「No」と判定し(即ち、対象立体物は今回の演算タイミングにおいて初めて検出されたと判定し)、以下のステップ1018に進む。
ステップ1018では、CPUは、ステップ1014で算出された路面勾配式及びステップ1015で算出された対象立体物の下端位置座標に基づいて対象立体物の下端高さhを算出し(式(4)参照)、当該下端高さhが所定の高さ閾値以下であるか否かを判定する暫定判定を行う。下端高さhが高さ閾値以下であると判定した場合、CPUは、ステップ1018にて「Yes」と判定し、以下のステップ1020及びステップ1022の処理を順に行う。
ステップ1020:CPUは、対象立体物は「接地物」であると暫定判定する。
ステップ1022:CPUは、対象立体物は「接地物」であると最終判定し、当該対象立体物の接地フラグの値を「1」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該対象立体物に関連付けてECU10のRAMに格納する。即ち、ある立体物が初めて検出された演算タイミングにおいては、CPUは、最終判定において暫定判定と同一の判定を行う(後述するステップ1026においても同様である。)。
一方、ステップ1018にて下端高さhが高さ閾値を超えていると判定した場合、CPUは、ステップ1018にて「No」と判定し、以下のステップ1024及びステップ1026の処理を順に行う。
ステップ1024:CPUは、対象立体物は「浮遊物」であると暫定判定する。
ステップ1026:CPUは、対象立体物は「浮遊物」であると最終判定し、当該対象立体物の接地フラグの値を「0」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該立体物に関連付けてECU10のRAMに格納する。
CPUは、ステップ1022又はステップ1026の処理を終了すると、後述するステップ1028に進む。
これに対し、ステップ1017において対象立体物のトラッキングができたと判定した場合、CPUは、ステップ1017にて「Yes」と判定し(即ち、対象立体物に対応する立体物が前回の演算タイミングにおいて検出されていると判定し)、図11のステップ1032に進む。
ステップ1032では、CPUは、図10のステップ1018と同一の処理を行う。対象立体物の下端高さhが高さ閾値以下であると判定した場合、CPUは、ステップ1032にて「Yes」と判定し、以下のステップ1034乃至ステップ1038の処理を順に行う。
ステップ1034:CPUは、対象立体物は「接地物」であると暫定判定する。
ステップ1036:CPUは、浮遊物判定継続時間を計測するためのタイマである計時タイマtを初期化する。これにより、浮遊物判定継続時間が初期化される。
ステップ1038:CPUは、対象立体物は「接地物」であると最終判定し、当該立体物の接地フラグの値を「1」に設定する。CPUは、この接地フラグの値(最終判定結果)を当該立体物に関連付けてECU10のRAMに格納する。
これに対し、ステップ1032にて対象立体物の下端高さhが高さ閾値を超えていると判定した場合、CPUは、ステップ1032にて「No」と判定し、ステップ1040にて対象立体物は「浮遊物」であると暫定判定する。
次いで、CPUは、ステップ1042に進み、ステップ1016で取得された接地フラグの値が「1」であるか否かを判定する。接地フラグの値が「1」であると判定した場合、CPUは、ステップ1042にて「Yes」と判定し、ステップ1044にて計時タイマtの値を1だけ増加させる(別言すれば、浮遊物判定継続時間を計測する。)。
次いで、CPUは、ステップ1046に進み、ステップ1044で増加させた計時タイマtの値が、所定のリセット時間に到達したか否かを判定する。計時タイマtの値がリセット時間に到達したと判定した場合、CPUは、ステップ1046にて「Yes」と判定し(即ち、「前回の演算タイミングにおける最終判定結果は『接地物』であるが(ステップ1042:Yes)、『浮遊物』との暫定判定結果がリセット時間に亘って継続したため、立体物は実際には浮遊物である」と判定し)、以下のステップ1048の処理を行う。
ステップ1048:CPUは、対象立体物は「浮遊物」であると最終判定し、当該対象立体物の接地フラグの値を「0」に設定する。特に、ステップ1046にて「Yes」と判定した後に本ステップの処理を行う場合、CPUは、「当該対象立体物の接地フラグの値を『1』から『0』にリセットする」と言うこともできる。CPUは、この接地フラグの値を当該立体物に関連付けてECU10のRAMに格納する。
一方、ステップ1046にて計時タイマtの値がリセット時間に到達していないと判定した場合、CPUは、ステップ1046にて「No」と判定し(即ち、「前回の演算タイミングにおける最終判定結果が『接地物』である対象立体物について、『浮遊物』との暫定判定結果が継続しているものの、浮遊物判定継続時間がリセット時間に到達していないため、当該対象立体物が実際に浮遊物であるとは断定できない」と判定し)、上記ステップ1038の処理を行う。
他方、ステップ1042にて接地フラグの値が「0」であると判定した場合、CPUは、ステップ1042にて「No」と判定し、上記ステップ1048の処理を行う。即ち、前回の演算タイミングにおける最終判定結果が「浮遊物」であり(ステップ1042:No)、今回の演算タイミングにおける暫定判定結果も「浮遊物」である(ステップ1032:No、ステップ1040)場合、CPUは、対象立体物は今回の演算タイミングにおいても浮遊物であると最終判定する。
CPUは、ステップ1038又はステップ1048の処理を終了した場合、又は、図10のステップ1022又はステップ1026の処理を終了した場合、図10のステップ1028に進む。ステップ1028では、CPUは、ステップ1015以降の処理が、ステップ1012で検出された全ての立体物について実施されたか否かを判定する。上記処理が全ての立体物についてはまだ実施されていないと判定した場合、CPUは、ステップ1028にて「No」と判定してステップ1015に戻り、残りの立体物に対してステップ1015以降の処理を繰り返す。一方、上記処理が全ての立体物について実施されたと判定した場合、CPUは、ステップ1028にて「Yes」と判定し、ステップ1030に進み、本ルーチンを一旦終了する。
実施装置の作用効果について説明する。実施装置によれば、立体物が接地物であるか浮遊物であるかを、現在の演算タイミングにおける当該立体物の下端高さhのみに基づいて判定するのではなく、直前の演算タイミングにおける最終判定結果にも基づいて判定する。このため、実際には接地物である立体物がオクルージョン領域Rに進入することに起因して浮遊物であると誤判定されてしまう可能性を大幅に低減できる。結果として、立体物が接地物であるか浮遊物であるかの判定をより精度よく行うことができる。
加えて、実施装置は、直前の演算タイミングにおいて「接地物」と最終判定された立体物が、現在の演算タイミングにおいて「浮遊物」と暫定判定された場合、浮遊物判定継続時間を計測する。浮遊物判定継続時間がリセット時間に到達したと判定した場合、実施装置は、立体物は実際には浮遊物であると判定して、現在の演算タイミングにおける最終判定結果を「接地物」から「浮遊物」に変更(リセット)する。このため、実際には浮遊物である立体物が接地物であると誤判定され続ける可能性を大幅に低減できる。結果として、立体物が接地物であるか浮遊物であるかの判定をより精度よく行うことができる。
以上、本発明の実施形態に係る車両制御装置について説明したが、本発明はこれらに限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
例えば、トラッキングする際は、実施装置は、直前の演算タイミングにおいて検出された全ての立体物の輝度情報を各立体物に関連付けて記憶してもよい。そして、実施装置は、各立体物の輝度情報と、現在の演算タイミングにおける立体物の輝度情報と、のBlock Matchingを行い、相違度が所定の相違度閾値であり、且つ、最小である輝度情報を有する立体物を、現在の演算タイミングにおける立体物に対応する立体物であると特定(トラッキング)してもよい。
10:接地判定ECU、11:カメラセンサ、12:車両状態センサ、13:フード、14:路面、20:衝突回避ECU、21:衝突回避装置、30:視差投票マップ、32:ブロック、32a:立体物ブロック、32b:路面ブロック


Claims (3)

  1. 車両に搭載されている立体物接地判定装置であって、
    ステレオカメラを用いて車両前方の領域を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像に基づいて当該撮像画像を構成する各画素の視差を含む視差情報を算出する視差情報算出手段と、
    前記視差情報に基づいて前記撮像画像中の立体物を検出する立体物検出手段と、
    前記視差情報に基づいて、路面から、前記検出された立体物の下端まで、の高さである下端高さを算出し、前記下端高さが所定の閾値以下の場合、前記立体物は前記路面に接地している接地物であると暫定的に判定し、前記下端高さが前記所定の閾値を超えている場合、前記立体物は前記路面から浮遊している浮遊物であると暫定的に判定する暫定判定を所定の演算時間が経過する毎に実行する暫定判定手段と、
    前記立体物が接地物であるか浮遊物であるかを最終的に判定する最終判定を前記所定の演算時間が経過する毎に実行する最終判定手段と、を備え、
    前記最終判定手段は、
    現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の少なくとも一方において前記立体物が接地物であると判定された場合、前記立体物は現在の演算タイミングにおいて接地物であると最終的に判定し、
    現在の演算タイミングにおける前記暫定判定と、直前の演算タイミングにおける前記最終判定と、の双方において前記立体物が浮遊物であると判定された場合、前記立体物は現在の演算タイミングにおいて浮遊物であると最終的に判定する、
    ように構成された、
    立体物接地判定装置。
  2. 請求項1に記載の立体物接地判定装置であって、
    前記最終判定手段は、
    直前の演算タイミングにおいて接地物であると最終判定された前記立体物が、現在の演算タイミングにおいて浮遊物であると暫定判定された場合において、浮遊物であるとの暫定判定結果が前記演算時間よりも長い所定のリセット時間だけ継続していたときは、前記立体物の最終判定結果を接地物から浮遊物に変更する、
    ように構成された、
    立体物接地判定装置。
  3. 請求項1又は請求項2に記載の立体物接地判定装置であって、
    前記暫定判定手段は、
    前記視差情報に基づいて、前記車両前方に存在する路面の勾配を表す路面勾配式を算出し、
    前記下端高さを、前記検出された立体物の下端位置と、前記路面勾配式と、に基づいて算出する、
    ように構成された、
    立体物接地判定装置。
JP2017191579A 2017-09-29 2017-09-29 立体物接地判定装置 Active JP6985089B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017191579A JP6985089B2 (ja) 2017-09-29 2017-09-29 立体物接地判定装置
DE102018124033.3A DE102018124033B4 (de) 2017-09-29 2018-09-28 Bodenkontaktbestimmungsvorrichtung für ein dreidimensionales Objekt
US16/145,361 US10740592B2 (en) 2017-09-29 2018-09-28 Three-dimensional object ground-contact determining apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017191579A JP6985089B2 (ja) 2017-09-29 2017-09-29 立体物接地判定装置

Publications (2)

Publication Number Publication Date
JP2019067116A JP2019067116A (ja) 2019-04-25
JP6985089B2 true JP6985089B2 (ja) 2021-12-22

Family

ID=65727766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017191579A Active JP6985089B2 (ja) 2017-09-29 2017-09-29 立体物接地判定装置

Country Status (3)

Country Link
US (1) US10740592B2 (ja)
JP (1) JP6985089B2 (ja)
DE (1) DE102018124033B4 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6810009B2 (ja) * 2017-09-29 2021-01-06 トヨタ自動車株式会社 視差算出装置
US10026209B1 (en) * 2017-12-21 2018-07-17 Capital One Services, Llc Ground plane detection for placement of augmented reality objects
GB2578914B (en) * 2018-11-14 2021-05-12 Jaguar Land Rover Ltd Vehicle control system and method
DE102021107904A1 (de) * 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz
US20230032998A1 (en) * 2021-07-30 2023-02-02 Magna Electronics Inc. Vehicular object detection and door opening warning system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
US9826200B2 (en) * 2007-04-30 2017-11-21 Mobileye Vision Technologies Ltd. Rear obstruction detection
JP2009009332A (ja) * 2007-06-27 2009-01-15 Sharp Corp 利用者認証システムおよびそれを備えた画像処理システム
JP5003395B2 (ja) 2007-10-05 2012-08-15 日産自動車株式会社 車両周辺画像処理装置及び車両周辺状況提示方法
JP5570715B2 (ja) * 2008-10-10 2014-08-13 オムロンオートモーティブエレクトロニクス株式会社 物体検出装置
JP5251800B2 (ja) * 2009-09-16 2013-07-31 株式会社豊田中央研究所 対象物追跡装置及びプログラム
JP2012243049A (ja) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd 環境認識装置および環境認識方法
JP2013161434A (ja) 2012-02-08 2013-08-19 Toyota Motor Corp 車両の周辺監視装置
JP2014092434A (ja) * 2012-11-02 2014-05-19 Denso Corp 物標検出装置、及び、当該装置を用いた接触回避システム
JP6542539B2 (ja) * 2015-02-10 2019-07-10 クラリオン株式会社 車両用進入可否判定装置
JP6350374B2 (ja) 2015-04-17 2018-07-04 トヨタ自動車株式会社 路面検出装置
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置

Also Published As

Publication number Publication date
US20190102602A1 (en) 2019-04-04
DE102018124033A1 (de) 2019-04-04
US10740592B2 (en) 2020-08-11
DE102018124033B4 (de) 2023-08-10
JP2019067116A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6985089B2 (ja) 立体物接地判定装置
US11809194B2 (en) Target abnormality determination device
EP3306429B1 (en) Position estimation device and position estimation method
JP6344275B2 (ja) 車両制御装置
CN110121449B (zh) 车辆控制装置、车辆控制方法及存储介质
JP5389002B2 (ja) 走行環境認識装置
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
US20160327948A1 (en) Misrecognition determination device
JP2018167699A (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
US10421394B2 (en) Driving assistance device, and storage medium
JP2010003254A (ja) 画像処理装置
JP6627127B2 (ja) 車両制御装置、車両制御方法、およびプログラム
WO2017187592A1 (ja) 駐車支援方法および装置
US10940860B2 (en) Vehicle control device, vehicle control method, and storage medium
US20200290624A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6936098B2 (ja) 対象物推定装置
CN109987082B (zh) 车辆控制装置、车辆控制方法和存储介质
JP2020189560A (ja) 車両制御装置
JP2020050108A (ja) 車両制御装置、車両制御方法、及びプログラム
CN111942379A (zh) 车辆控制装置及车辆控制方法
US20220126824A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2016168932A (ja) 車両挙動制御装置、車両挙動制御プログラム、及び車両
JP6849569B2 (ja) 路面検出装置
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R151 Written notification of patent or utility model registration

Ref document number: 6985089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151