JP6983309B2 - 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 - Google Patents

障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 Download PDF

Info

Publication number
JP6983309B2
JP6983309B2 JP2020514798A JP2020514798A JP6983309B2 JP 6983309 B2 JP6983309 B2 JP 6983309B2 JP 2020514798 A JP2020514798 A JP 2020514798A JP 2020514798 A JP2020514798 A JP 2020514798A JP 6983309 B2 JP6983309 B2 JP 6983309B2
Authority
JP
Japan
Prior art keywords
obstacle
image
vehicle
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020514798A
Other languages
English (en)
Other versions
JPWO2019202627A1 (ja
Inventor
考平 森
宏樹 藤好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019202627A1 publication Critical patent/JPWO2019202627A1/ja
Application granted granted Critical
Publication of JP6983309B2 publication Critical patent/JP6983309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18109Braking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本願は、障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、障害物検出方法を利用した自動ブレーキ方法に関するものである。
従来の障害物検出装置としては、カメラを用いて路面を検出し、障害物候補を抽出する技術が知られている(例えば、特許文献1参照)。
特開2017−33506号公報
従来の障害物検出装置では、特許文献1記載の通り、路面の輝度範囲と白線の輝度範囲とを推定し、それらを除外した場所を、障害物の領域とする手法を行っている。そのため、路面に模様がないアスファルト路面などにおいて路上の障害物の検出精度は高い。しかし、この手法では、あらかじめ路面の輝度範囲が設定されてしまうため、アスファルト路面であっても、路面に白線以外の色で描かれた線、文字及び記号、さらには路面に設置されたマンホール又は地下式消火栓などは、車両が進入可能な路面ではない障害物として誤検出されてしまう課題があった。また、アスファルト路面以外の例えば石畳路、芝生路などでは、路面上の模様を障害物として誤検知してしまう課題があった。
本願は上記の課題を解決するためになされたものであり、障害物検出装置において、障害物検出の精度を従来のものと比べて、更に向上させることを目的とする
本願に開示される障害物検出装置は、
車両に設けられ、車両の周囲の障害物と車両との障害物距離を検出する障害物距離検出部と、
車両に設けられ、車両の周囲の路面画像を撮像し、出力する撮像部と、
路面画像の座標を変換し、座標変換画像として出力する画像変換部と、
座標変換画像内の障害物距離に至らない所定領域をヒストグラム生成領域画像として抽出するヒストグラム生成領域画像抽出部と、
ヒストグラム生成領域画像のヒストグラムを算出するヒストグラム演算部と、
座標変換画像とヒストグラムに基づいて、座標変換画像内の、車両が走行可能な第1の走行可能領域を検出する第1の走行可能領域検出部と、
第1の走行可能領域に基づいて、座標変換画像内の障害物領域を抽出する障害物領域抽出部と、
障害物領域に基づき、車両に対する障害物位置を検出し、障害物位置情報として出力する障害物位置検出部を備えたことを特徴とする。
本願に開示される障害物検出装置は、従来に比べ、障害物の検出精度を更に向上させることができる。
実施の形態1に係る障害物検出装置の概略構成図である。 実施の形態1に係る障害物検出装置のハードウエア構成図である。 実施の形態1に係る障害物検出装置の機能ブロック図である。 実施の形態1に係る障害物検出装置の動作を示すフローチャートである。 実施の形態1に係る障害物検出装置の前方カメラ3と路面画像の範囲、座標変換画像を撮影する場合の架空のカメラ3aの関係を示した図である。 実施の形態1に係る障害物検出装置のカメラ3から取得した路面画像を示した図である。 実施の形態1に係る障害物検出装置のカメラ3aから取得した理想的な座標変換画像を示した図である。 実施の形態1に係る障害物検出装置のカメラ3から取得した路面画像を変換して得られる実際の座標変換画像を示した図である。 実施の形態1に係る障害物検出装置の座標変換画像における障害物と障害物検出距離の関係を示した図である。 実施の形態1に係る障害物検出装置の座標変換画像における障害物検出距離とヒストグラム生成領域の関係を示した図である。 実施の形態1に係る障害物検出装置の2つ以上の障害物検出距離が得られた場合の座標変換画像における二円交点とヒストグラム生成領域の関係を示した図である。 実施の形態1に係る障害物検出装置のヒストグラム生成領域画像のヒストグラムを示した図である。 実施の形態1に係る障害物検出装置の座標変換画像全領域のヒストグラムを示した図である。 実施の形態1に係る障害物検出装置の走行可能路面の輝度値を255に、障害物領域の輝度値を0にした画像を示した図である。 実施の形態1に係る障害物検出装置の走行可能路面の輝度値を0に、障害物領域の輝度値を255にした画像を示した図である。 実施の形態1に係る障害物検出装置の座標変換画像における障害物検出距離と障害物検知ゾーンの関係を示した図である。 実施の形態1に係る障害物検出装置の障害物検知ゾーンの輝度値を255に、障害物検知ゾーン以外の輝度値を0にした画像を示した図である。 実施の形態1に係る路面検出装置の差分画像障害物領域の輝度値を255に、差分画像障害物領域以外の輝度値を0にした画像を示した図である。 実施の形態1に係る障害物検出装置の障害物領域と障害物検知ゾーンと差分画像障害物領域の重なり部を輝度値255にした画像を示した図である。 実施の形態2に係る自動ブレーキ装置の概略構成図である。 実施の形態2に係る自動ブレーキ装置の機能ブロック図である。 実施の形態2に係る自動ブレーキ装置の動作を示すフローチャートである。 実施の形態2に係る自動ブレーキ装置の第2の走行可能路面の輝度値を255に、第2の障害物領域の輝度値を0にした画像を示した図である。 実施の形態2に係る自動ブレーキ装置の第2の障害物領域の輝度値を255に、第2の走行可能領域の輝度値を0にした画像を示した図である。 実施の形態2に係る自動ブレーキ装置の障害物画像を示した図である。 実施の形態2に係る自動ブレーキ装置の直進時における走行経路を示した図である。 実施の形態2に係る自動ブレーキ装置の旋回時における走行経路を示した図である。 実施の形態2に係る自動ブレーキ装置の走行経路と衝突障害物を示した図である。 一般的な自動ブレーキ装置の最短衝突時間と目標減速度を示した図である。 実施の形態2に係る自動ブレーキ装置の最短衝突時間と目標減速度を示した図である。
以下、本願の実施の形態について図を用いて説明を行う。なお、各図において同一、又は相当する部材、部位については同一符号を付して説明する。
実施の形態1.
実施の形態1の障害物検出装置について、図1を用いて説明する。図1は係る障害物検出装置の構成図である。
図1Aにおいて、車両1は、ソナーセンサー2、カメラ3、路面検出装置14を有している。ソナーセンサー2は車両前方、後方及び左右に複数設置され、それらはソナーセンサー配線8を介してソナーコントローラー9に接続されている。なお、図1Aでは前後4つずつ、更に左右に1つずつソナーセンサー2を配しているが、本願では、カメラ3にて取得する路面画像の方向に最低1つ以上のソナーセンサー2があれば問題ない。カメラ3は車両前後及び左右に複数設置され、カメラ配線7を介して周辺監視カメラコントローラー10に接続されている。なお、図1Aでは前後左右に1つずつカメラ3を配しているが、路面検出装置の対象とする方向に限定して最低1つ以上配置すればよい。例えば本願で後述する自動ブレーキ装置では、前方の障害物を対象として自動ブレーキを行うのであれば、車両1の前方に少なくとも1つ以上のカメラ3が有ればよいし、後方の障害物を対象として自動ブレーキ装置を行うのであれば、車両1の後方に少なくとも1つ以上のカメラ3が有ればよい。また、車両1の左右に取り付けられたカメラ3は、車両1が旋回する際の障害物巻き込み防止警報又は障害物巻き込み防止のための自動ブレーキ装置に利用できる。なお、取付け位置については、図1Aでは左右のカメラについては、現在一般的なドアミラー下部に設置し、前後のカメラについてはそれぞれバンパー中央に設置するよう図示しているが、必ずしも図1Aのように設置する必要はなく、本願の目的を満たすことが可能であれば設置位置は限定しない。路面検出装置14には、ソナーコントローラー9、周辺監視カメラコントローラー10以外に、その他のセンサー11、路面検出装置の演算装置12が含まれており、これらはそれぞれ通信線5、例えばCAN(Control Area Network)等を用いて接続されている。
演算装置12は、図1Bに示すように、プロセッサ1000と記憶装置2000から構成され、図示していないが、記憶装置はランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ1000は、記憶装置2000から入力されたプログラムを実行し、図2で説明する機能ブロックに関する構成および図3で説明するフローチャートの動作の一部又は全部を遂行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ1000にプログラムが入力される。また、プロセッサ1000は、入出力される信号、演算の中間値、および演算結果等のデータを記憶装置2000の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。また、プロセッサ1000及び記憶装置2000に加え、ロジック回路、アナログ回路を併用してもよい。また、演算装置12は、後述する実施の形態2で説明する機能ブロック及びフローチャートの動作の一部又は全部を遂行する。
次に本実施の形態1の障害物検出装置の機能構成について図2の機能ブロック図を、更に機能構成の動作について図3のフローチャートを用いて説明する。
本実施の形態1の路面検出装置14は、図2に示す、障害物距離検出部101と撮像部102と、第1の画像変換部103と、ヒストグラム生成領域画像抽出部104と、ヒストグラム演算部105と、走行可能領域検出部106と、障害物領域抽出部107と、障害物位置検出部108と、障害物検知ゾーン演算部109と、車両状態検出部110と、画像記録部111と、差分画像障害物領域抽出部112とにより構成される。特に障害物位置検出部108には、障害物領域抽出部107、障害物検知ゾーン演算部109、及び差分画像障害物領域抽出部112の3つの出力が入力され、これら入力に基づき障害物検出が行われる。これら機能は図3に示すフローチャートに従い周期的に繰り返し動作する。
まず、障害物領域の抽出までの動作を説明する。
図3中、ステップS101において、図2に示す障害物距離検出部101は障害物距離を計測し出力する。障害物距離検出部101は、本実施の形態1では、ソナーセンサー2とソナーコントローラー9、及びそれを繋ぐソナーセンサー配線8によって構成される。障害物距離検出部101は、ソナーセンサー2からソナーセンサー2に最も接近している障害物までの距離を障害物距離として出力する。なお、障害物距離が計測可能なセンサーとして、ソナーセンサー以外にミリ波センサー又は赤外線センサー、レーザーセンサー等があり、これらを用いても本願の効果には影響しない。
次に図3中、ステップS102にて、図2に示す撮像部102は、カメラ3が撮像した映像を路面画像として出力する。撮像部102は、図1に示すように、カメラ3、周辺監視カメラコントローラー10、及びそれらをつなぐカメラ配線7によって構成される。なお、本実施の形態1では、前述した通り、障害物距離検出部101におけるソナーセンサー2と撮像部102におけるカメラ3は、路面検出装置が目的とする路面の方向に最低1つずつ有れば問題ないが、他の目的に本願を使用する場合は、目的に応じた路面が取得できるようカメラ3を設置し、カメラ3に応じて必要な数のソナーセンサー2を設置する必要がある。例えば前後方向の障害物を回避する場合はそれぞれ前後の方向にカメラ3を配置し、ソナーセンサー2は少なくとも前後いずれかの方向に1つ以上配置すればよい。また、車両1の全周囲で障害物を検出する場合は、車両1の全周囲が撮像できる数のカメラ3と、少なくともいずれかのカメラ3の方向にソナーセンサー2が1つ以上あればよい。
図3中、ステップS103にて、図2に示す第1の画像変換部103は、撮像部102が出力する路面画像を座標変換画像に座標変換する。
第1の画像変換部103が行う路面画像の座標変換について図4から図7を用いて説明する。図4は、車両1前方にカメラ3を取り付けた場合の車両1と、車両1に実際に設置されたカメラ3とカメラ3の位置CPから撮影される路面画像の範囲、更に路面画像から射影変換により得られる座標変換画像の範囲と座標変換画像を撮影する場合に必要な架空のカメラ3aとの位置CP’の関係を示した図である。車両前方にカメラ3を路面が写るように取り付けると、カメラ3は図5のような路面画像を取得することができる。図5の路面画像には、アスファルト路面上に描画された白線15、アスファルト路面上の障害物であるパイロン16が表示されている。図5において、点線範囲170について天頂方向からカメラ3aで撮影すると、図6のような映像が得られる(図6の下部が車両1の方向となる。)。しかし、この天頂方向のカメラ3aは実際には存在しない。そのため、天頂方向から見える映像は、カメラ3にて得られる路面画像(図5)から座標変換を行うことにより得る。
この、カメラ3の位置CPで得られた画像を別のカメラ3aの位置CP’で得られる画像に変換する方法は、一般的に射影変換と呼ばれており、路面に対する位置CPと位置CP’との関係で、幾何学的に変換することが可能である。ただし、この射影変換を用いて得られる画像は実際には図6ではなく図7のような画像となる。これはカメラ3で得られる図5の路面画像を射影変換する際に、カメラ3単体では、写った障害物の高さがわからないからである。そのため路面画像を射影変換する際は、路面画像内の高さのある障害物(例えばパイロン16)についても、高さのない路面上の模様(例えばアスファルト路面上の白線15)のように扱うため、図7のパイロン16は車両1から奥行き方向に伸びた形で変換される。本実施の形態1では、図5の路面画像に対し、図7の画像を座標変換画像と称している。このように、図3中、ステップS103では、図2で示す第1の画像変換部103にて路面画像を座標変換画像に座標変換し、出力する。
図3中、ステップS104にて、図2に示すヒストグラム生成領域画像抽出部104は、ヒストグラム生成領域画像を抽出する。ヒストグラム生成領域画像抽出部104について図8から図10を用いて説明する。
ヒストグラム生成領域画像抽出部104は、座標変換画像と障害物検出距離よりヒストグラム生成領域画像を抽出する。図8は座標変換画像と障害物検出距離の関係を示した図である。例えば、座標変換画像内に障害物としてパイロン16がある場合、障害物検出距離17は図8のように示される。障害物検出距離17の図8下部側は、ソナーセンサー2の位置を示す。ソナーセンサー2により検出される障害物は、ソナーセンサー2の位置から障害物検出距離17だけ離れた円弧状のどこかに存在することになる。図8の場合では、パイロン16がソナーセンサー2で検出された障害物に該当する。なお、このときソナーセンサー2により検出される障害物は、高さのある障害物のみであり、パイロン16のように高さのある障害物は検出されるが、アスファルト路面上の白線15は検出されない。
ヒストグラム生成領域画像抽出部104では、この障害物検出距離17からヒストグラム生成領域を求める。ヒストグラム生成領域は図9において、二点鎖線18で示されるエリアであり、車両1から障害物であるパイロン16の間に設定する。ヒストグラム生成領域画像抽出部104では、この座標変換画像内のヒストグラム生成領域の画像をヒストグラム生成領域画像として出力する。
ヒストグラム生成領域の設定方法について一例を示すと、座標変換画像である図9の下端中心から、上方向に対しては障害物検出距離17の0.8倍の長さを、左右方向に対しては車両1の車幅の半分以上の長さを確保したエリアを設定すると良い。これは、本実施の形態1に係るカメラ3の取付け位置が、図1A及び図4に示すように、車両1前方中心であるためであり、このようなヒストグラム生成領域を設定することで車両1前方の障害物までの路面を、障害物であるパイロン16を含まず、かつ車両両脇の白線15を含めた路面をヒストグラム生成領域画像として出力できるためである。
なお、上述した、障害物検出距離17の0.8倍という数値は、障害物検出を行う障害物距離検出部の特性で決められる。本実施の形態1のソナーセンサー2においては、約±30度のビーム角度を想定しており、ソナーセンサー2正面から±30度の位置にある障害物までは距離計測が可能であるとしている。仮に、ソナーセンサー2正面から30度ずれた位置に障害物があるような場合、車両1と障害物との直線距離は、障害物検出距離と30度の余弦値により、障害物検出距離の0.86倍、車両1から垂直方向に離れた位置(水平方向の位置は不明)に障害物が存在することになる。よって、検出ズレ等のマージンをとって、この0.86倍を下回る0.8倍と設定することで、ソナーセンサー2正面から30度ずれた位置に障害物があった場合でも、ヒストグラム生成領域に障害物が写り込まないように設定することができる。なお、もしソナーセンサー以外の、指向性の高いセンサーを用いるのであればこの数値は1.0に近づき、ソナーセンサーであっても指向性の低いセンサーを用いるのであればビーム角度が広がるため0.8より更に小さな値となる。
図8及び図9のように、座標変換画像内に対応する障害物検出距離17が1つしかない場合、つまりソナーセンサー2が車両1前方に1つしか設置されていない場合、若しくは、複数のソナーセンサー2が車両1前方にあっても、1つのソナーセンサー2でしか障害物が検出されなかった場合は、上述のように検出された障害物検出距離の0.8倍の長さをヒストグラム生成領域の縦の長さとする。しかし、2つ以上の障害物検出距離17が検出される場合は、それら内で最も短い障害物検出距離を採用して、この最も短い障害物検出距離の0.8倍の長さをヒストグラム生成領域の縦の長さとするとよい。また、複数の障害物検出距離17が取得できた場合は、図10のようにそれらから得られる障害物位置の円弧の交点を求め、この交点と車両1前端の距離をヒストグラム生成領域の縦の長さとしても良い。
また、障害物検出距離17があらかじめ設定した最大値以上である、若しくは図2で示す障害物距離検出部101にて障害物が検出されない場合は、例えば図8の座標変換画像の下端中心から上方向(進行方向)に対して障害物検出距離17があらかじめ設定した最大値(いわゆるセンサーの最大検出距離)の0.8倍の大きさをもったヒストグラム生成領域を設定し、このヒストグラム生成領域の画像をヒストグラム生成領域画像として出力すればよい。一方、障害物検出距離17があらかじめ設定した最小値以下である場合は、障害物が車両1に近接又は接触していると判断し、障害物検出距離17があらかじめ設定した最小値を下回る前に抽出した過去のヒストグラム生成領域画像をヒストグラム生成領域画像として出力するとよい。このように過去のヒストグラム生成領域画像を出力することで、現時点では障害物の接近によりヒストグラム生成領域の設定が不可能であっても、過去情報から障害物が存在しないヒストグラム生成領域画像を出力することが可能となる。
また、本実施の形態1ではソナーセンサー2を用いているためセンサーに近接した障害物を検出することは比較的容易であるが、例えばレーザー又はミリ波などでは近接領域よりある程度遠方の領域の障害物を検出しやすい。そのため、近接領域では障害物の検出抜けが発生する可能性が高く、そのような場合は遠方で計測した障害物の位置を、車両運動を用いてトラッキングし、前記トラッキング結果によりヒストグラム生成領域を求めるようにしても良い。このようにトラッキング結果を用いてヒストグラム生成領域を求めても、本願の効果には影響しない。
次に、図3中、ステップS105において、図2に示すヒストグラム演算部105はヒストグラムを演算する。ヒストグラム演算部105は、ヒストグラム生成領域画像抽出部104が抽出するヒストグラム生成領域画像よりヒストグラムを演算する。ヒストグラム生成領域画像のヒストグラムを求めると図11のようにヒストグラム生成領域画像内の要素を反映したヒストグラムが得られる。なお、本実施の形態1の説明では、簡略化のためにヒストグラム生成領域画像をグレイスケール化した後の輝度ヒストグラムにて説明しているが、実際にはヒストグラム生成領域画像はカラー画像であり赤・緑・青(RGB)の3要素を持った3つのヒストグラムが算出される。また、カラー画像を用いる場合は前記RGBの3要素を持った3つのヒストグラムの場合以外にも、カラー画像の色要素を変換し、色相・彩度・明度といった要素に変換してヒストグラムを使用しても良い。図11のヒストグラムはグレイスケール化した後の輝度ヒストグラムであるため、横軸は輝度、縦軸はその輝度の出現割合(例えば画素数)を示す。
図3中、ステップS106において、図2に示す走行可能領域検出部106で走行可能領域を演算する。走行可能領域検出部106では、ヒストグラムと座標変換画像よりヒストグラムの逆投影法を用いて座標変換画像内の走行可能領域を求める。
ヒストグラムの逆投影法について図11と図12、及び図13を用いて説明する。ヒストグラムを用いてその出現割合を反映していくことをヒストグラムの逆投影法と呼ぶ。図11は、ヒストグラム生成領域画像のヒストグラムを示す。図12の座標変換画像全領域のヒストグラムと比べると図12の座標変換画像全領域のヒストグラムには路面上の障害物であるパイロンに起因する要素が含まれるが、図11のヒストグラム生成領域画像のヒストグラムではヒストグラム生成領域設定時にあらかじめ障害物距離検出部101により障害物が有るエリアの画像は取得されないようになっているため、障害物の輝度値は含まれない。座標変換画像全領域の全画素に対し、図11のヒストグラム生成領域画像のヒストグラムを用いて、個々の画素における輝度値の出現割合を見ていくと、アスファルト路面と白線についてはヒストグラムに含まれるため出現割合は大きな値となるが、パイロンについては出現割合が低くなるため小さな値となる。この値を一定のしきい値以上の場合は輝度値を255、一定のしきい値未満の場合は輝度値を0として、各画素に対して処理を行うと、図13に示すような画像が得られる(図13の白い部分が輝度値255、ハッチングの部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のためにハッチングとしている。)。
図2に示す走行可能領域検出部106では、図13を座標変換画像内の走行可能領域として出力する。なお、図13において、白い部分は走行可能路面19を示し、アスファルト路面及び白線を含み、ハッチング部分は、障害物領域20を示し、パイロンを含む。
図3中、ステップS107にて、図2に示す障害物領域抽出部107では、走行可能路面の輝度値を反転し、図14のように、走行可能路面の輝度値を0に、障害物領域の輝度値を255にして出力する。(図14の白い部分が輝度値255、ハッチングの部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のために図13同様、ハッチングとしている。)
次に図3中、ステップS108にて示す障害物検知ゾーンについて説明する。
障害物検知ゾーンは、障害物距離検出部101で計算された障害物検出距離17から、障害物検知ゾーン演算部109により演算し出力する。図8及び図9を用いてソナーセンサー2により検出される障害物は、ソナーセンサー2の位置から障害物検出距離17だけ離れた円弧状のどこかに存在することを説明した。図15に示すように、障害物検知ゾーン22はこの障害物検出距離17の円弧を利用し、円弧の前後方向(図15では上下方向)にあらかじめ決めた障害物検知幅21を設定し、この円弧から障害物検知幅分、加減算したエリアを障害物検知ゾーン22とする。障害物検知幅21はソナーセンサー2の障害物検知誤差等を考慮した値で、一例として本実施の形態1では約±30cmのエリアを確保する。この障害物検知ゾーン22は、図16のように表され、障害物検知ゾーンの領域はすべて輝度値255、それ以外は輝度値0として出力する。(図16の白い部分が輝度値255、ハッチング部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のために図13、図14同様、ハッチングとしている。)
次に差分画像障害物領域について説明する。
図3中、ステップS109にて、図2に示す車両状態検出部110は、その他のセンサー11により、車両1の走行車速を取得する。
図3中、ステップS110にて、図2に示す画像記録部111が過去画像を記憶する。画像記録部111は、入力された画像を複数フレーム分記録できるメモリ(図示せず)を有しており、メモリ内の任意の記憶された映像を出力することができる。本実施の形態1では、第1の画像変換部103が出力する座標変換画像を変換処理毎に記憶し、ある指定時間過去の座標変換画像を出力する。なお、画像記録部111に記憶できる画像枚数は有限であり、記憶枚数が記憶可能な枚数に達した場合は、最も古い座標変換画像を消去して新しく入力された座標変換画像を記憶する。出力する過去の座標変換画像の指定時間は例えば200ms前の座標変換画像等で良いが、この指定時間が固定でなくても良い。車両1の車速に応じて指定時間を変えるようにして、例えば車速が低いときは指定時間を長く、車速が高いときは指定時間を短く設定すると良い。
図3中、ステップS111にて、図2に示す差分画像障害物領域抽出部112は、入力される座標変換画像と、画像記録部111が出力する過去の座標変換画像より差分画像障害物領域を求め出力する。この座標変換画像と過去の座標変換画像の偏差は一般的に時間差分、若しくはフレーム間差分と言われており、画像内の変化があった場所を抽出することが可能である。車両1が移動している場合、座標変換画像上で障害物の位置が変化するため、図17のように差分画像障害物領域23が検出され、差分画像障害物領域23は、すべて輝度値255、それ以外は輝度値0として出力する。(図17の白い部分が輝度値255、ハッチングの部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のために図13、図14、図16同様、ハッチングとしている。)ただし、車両1が移動していない場合、障害物自身が移動していないと、差分画像障害物領域は検出されない。そこで、本実施の形態1では移動車速を用いて車両1の移動を検出し、車両1が停車中の場合は、差分画像障害物領域検出不可としてフラグを出力するか、若しくは座標変換画像のすべての領域を輝度値255として出力する。
図3中、ステップS112にて、図2に示す障害物位置検出部108は、最終的に図14の障害物領域20、図16の障害物検知ゾーン22、図17の差分画像障害物領域23が重なる領域を、図18に示すように、座標変換画像内の障害物領域24として検出する。障害物位置検出部108は、更に座標変換画像内の障害物領域24の位置情報を求める。座標変換画像内の障害物領域24の位置情報は座標変換画像内の障害物領域24の位置を、車両1を基準とした位置に変換する。この変換については図4にて説明したカメラ3aの位置CP’と、カメラ3aの画角及び焦点距離、さらには座標変換画像のサイズから幾何学的に求めることができる。また、座標変換画像内の障害物領域24の位置情報は、差分画像障害物領域23において、最も車両1に近接した位置(カメラ3と差分画像障害物領域23を直線距離で結んだ際に、この直線距離が最短となる差分画像障害物領域23上の位置)の値を使用する。これは第1の画像変換部103の説明において、図6と図7を用いて説明したように、障害物の高さ方向の情報が無いため、本来は図6のような関係であっても、図7のような画像変換がなされるためで、この影響を受けないように考慮するには、車両1のカメラ3に近接した位置が正確な位置を表すためである。
このようにして、本実施の形態1の障害物検出装置は、カメラにより車両周囲の路面画像を取得し、更に座標変換画像に変換し、ソナーにより車両と車両周囲の障害物との障害物距離を計測し、前記障害物距離に基づき前記座標変換画像内の障害物のない領域でヒストグラム生成領域画像を抽出し、前記ヒストグラム生成領域画像のヒストグラムと前記座標変換画像より走行可能領域と障害物領域を求め、前記障害物領域と前記障害物距離より求める障害物検知ゾーンと、前記座標変換画像の差分より求める差分画像障害物領域との重なり抽出を行い、座標変換画像内に障害物領域を求め、さらに障害物位置を求めることで、従来に比べ精度の高い障害物検出を提供することができる。
実施の形態2.
実施の形態2における自動ブレーキ装置は、実施の形態1の障害物検出装置の障害物位置を用いて車両1が障害物へ接触することを避けるようにしたものである。
実施の形態2の自動ブレーキ装置の構成を図19を用いて説明する。図19において、実施の形態1の障害物検出装置と共通の要素については同一の番号を付与している。
本実施の形態2の自動ブレーキ装置は、本実施の形態1の障害物検出装置に対し、ブレーキ制御装置13、油圧配管6、及びブレーキ4が新たに追加されており、ブレーキ4とブレーキ制御装置13は、油圧配管6により接続され、ブレーキ制御装置13は通信線5により路面検出装置14の演算装置12と接続される。演算装置12により演算された目標減速度は通信線5によりブレーキ制御装置13に伝えられ、ブレーキ制御装置13の指令によりブレーキ4は車両1に制動をかけることができるようになっている。なお、自動ブレーキ装置は、必ずしもこのような構成に限定されるものではなく、例えばモーターによって走行するEV車両又はエンジンとモーターによって走行するHEV・PHEV車両では、前記モーターの減速回生を制動に使用しても良い。
次に、図20の機能ブロック図と図21のフローチャートを用いて、本実施の形態2の自動ブレーキ装置の機能と動作を説明する。なお、図20及び図21において、実施の形態1の障害物検出装置と同一の要素については、図2の機能ブロック図及び図3のフローチャートに同一の番号を付与し、説明を省略する。
本実施の形態2の自動ブレーキ装置は、実施の形態1の障害物検出装置に対し、さらに、第2の走行可能領域検出部213、第2の障害物領域抽出部214、障害物画像抽出部215、障害物認識部216、障害物情報関連づけ部217、走行経路内障害物検出部218、衝突時間演算部219、目標減速度演算部220、制動装置221が追加されて構成される。これらの機能は図21に示すフローチャートに従い周期的に繰り返し動作する。なお、図20中、走行経路内障害物検出部218から制動装置221、及び図21中、ステップS218からステップS221については、一般的な自動ブレーキ装置の動作を述べているものであり、必ずしも記載されている機能及び動作に限定するものではない。
図21のフローチャートにおけるステップS101からステップS112の動作については、実施の形態1と同一であるため省略する。
図21中、ステップS213において、図20に示す第2の走行可能領域検出部213は、路面画像とヒストグラムより第2の走行可能領域を演算する。この演算と、ステップS106における走行可能領域検出部106の演算は、同じヒストグラムの逆投影法を用いており、異なる点は、ステップS106では対象とする画像が座標変換画像であったのに対し、ステップS213では路面画像を用いる点である。これにより、ステップS213で求める第2の走行可能領域は、図22に示すような路面画像内の走行可能領域が求められる(図22の白い部分が輝度値255、ハッチングの部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のためにハッチングとしている。)。図22において、第2の走行可能領域26は、アスファルト路面及び白線を含み、第2の障害物領域25はパイロンを含む。
図21中、ステップS214にて、図20に示す第2の障害物領域抽出部214では、第2の走行可能領域26の輝度値を反転し、図23のように第2の走行可能領域26の輝度値を0に、第2の障害物領域25の輝度値を255にして出力する(図23の白い部分が輝度値255、ハッチングの部分が0となる。本来輝度値0は黒であるが、図枠及び番号図示のために図22同様、ハッチングとしている。)
図21中、ステップS215にて、図20に示す障害物画像抽出部215では、路面画像と第2の障害物領域25より、図24のようなハッチングの背景に障害物のみが抽出された障害物画像を演算し出力する。この障害物画像は、路面画像と第2の障害物領域25を画素単位で乗算すると求めることができる。これは第2の障害物領域25の画像がいわゆるマスク画像となっており、前記第2の障害物領域で輝度値255となっている領域のみ透過されるためである。なお、図24では、障害物としてパイロン16のみ抽出されているが、これは路面画像内に障害物が1つしかないためであり、障害物が複数ある場合は図24の障害物画像内に複数の障害物が描画される。また、図23の画像をマスクとすると、地平線以上の部分も抽出されてしまうがこれは誤検出となるため抽出されないように排除している。どの位置が地平線となるかは、カメラ3の位置CPより求めることが可能である。
図21中、ステップS216にて、図20に示す障害物認識部216では、図24の障害物画像の各要素について、写っている障害物が何であるかを識別し、認識する。障害物の認識方法については、本願の特徴でないためどのような方法を用いてもよい、例えば、あらかじめ複数の障害物画像を保有してそれらとの類似度を演算するようなパターン認識を用いてもよいし、近年ではあらかじめ複数の障害物画像を用いてニューラルネットワークで学習を行い、その学習結果により障害物画像に写る画像の種類、構造、外観、機能から障害物が何であるか識別するようにしてもよい。なお、本実施の形態2で図24のような路面画像から抽出した障害物画像を用いる点は、障害物認識部216の精度を高めるためである。これは、前述したパターン認識で使用するあらかじめ用意した複数の障害物画像、又はニューラルネットワークの学習に使用した複数の障害物画像には、カメラ3の位置CPから撮影した図5に写るパイロン16のような画像を使用し、図7の座標変換画像のパイロン16のような画像ではないためである。これにより、障害物の認識率が高くなる。これは、本実施の形態2の自動ブレーキ装置の特徴の1つである。
図21中、ステップS217にて、図20に示す障害物情報関連づけ部217は、ステップS112にて障害物位置検出部108が算出した障害物領域の位置情報と、ステップS216にて障害物認識部216で認識した障害物結果を関連づけて、新たな障害物情報として出力する。
図21中、ステップS218からステップS221の動作については、主に自動ブレーキ装置の制動に関する。ステップS218にて、図20に示す走行経路内障害物検出部218は、車両1の走行経路内に存在する障害物を、障害物情報から抽出する。車両1の走行経路については、車両状態検出部110にて取得するハンドル角、車速、シフト状態と、あらかじめ走行経路内障害物検出部218内に記憶されている車両1の大きさ情報(車幅、全長、ホイールベース、ステアリングのラックアンドピニオンギア比、等)を用いて計算する。なお、本実施の形態2では、現在のハンドル角及び車速を保ったまま進んだ場合に、車両1が通過する領域と通過しない領域の境界線を、自車の走行経路としている。
直進状態では(具体的にはハンドル角が±約10度以下の場合)、車両はほぼ進行方向に対してまっすぐ進む。このとき前後どちらの方向に進むかは、シフト状態によって異なり、シフト状態がDレンジの場合、車両は前方に、シフト状態がRレンジの場合、車両は後方に進む。この場合、図25に示すように、車両はまっすぐ進むので、車両1が通過する領域と通過しない領域の境界線は、車両の左右位置がそのまま境界線となる。図25に示すように、車両1の右側の境界線をYr、車両1の左側の境界線をYl、車両1の横幅の半分をαとし、座標原点である後輪車軸中心を基準に考えると、式(1)で表すことができる。
Figure 0006983309
旋回状態では(具体的には上記直進状態以外の場合)、車両1が通過する領域と通過しない領域の境界線は、図26に示すような関係となる。図26は車両が左旋回を行う場合の関係図である。左旋回の場合、車両1で最も内側を走行する部分は図26に示すPiの地点になる。この地点Piが連続して通過する経路が車両1の左側の境界線となる。車両1で最も外側を走行する部分は図26に示すPoの地点になる。この地点Poが連続して通過する経路が車両1の右側の境界線となる。図26では車両は点Cを基準に旋回を行う。この場合の旋回半径ρは下記式(2)となる。
Figure 0006983309

式(2)のρは旋回半径、lは車両1のホイールベース、δは前輪のタイヤ角を示し、更にタイヤ角δとハンドル角θは式(3)に示すようにステアリングのラックアンドピニオンギア比Grpにて減速される。
Figure 0006983309

なお、式(2)の導出については以下の文献1に記載されており、特に本実施の形態では緊急ブレーキ制御の動作範囲を低車速時に限定するため、式(2)は車両に遠心力が発生せず横滑りが発生しない定常円旋回の場合の、ハンドル角と旋回半径ρの関係式を用いる。
文献1:株式会社山海堂:安部正人著、「自動車の運動と制御」、
第3章:車両運動の基礎、3.3節:車両の定常円旋回
旋回半径ρに対し、車両1の左側の境界線の半径を示す内旋回半径ρiと、右側の境界線の半径を示す外旋回半径ρoは、図26のαとβを用いて式(4)及び式(5)のように表される。なお、図26のαは車両1の横幅の半分の長さを、βは車両1のホイールベースlとフロントオーバーハングを加算した値である。
Figure 0006983309

Figure 0006983309
これら、旋回半径ρ、内旋回半径ρi、外旋回半径ρoを基に、車両1の左側の境界線を示す式と右側の境界線を示す式を求めると、それぞれ式(6)と式(7)となる。
Figure 0006983309

Figure 0006983309

ただし、式(6)及び式(7)は、車両1が左旋回を行う場合の車両1の左側の境界線と右側の境界線を示す式であり、車両1が右旋回を行う場合は、車両1の左側の境界線は式(8)に、右側の境界線を示す式は式(9)になる。
Figure 0006983309

Figure 0006983309

図21中、ステップS218ではこのように、式(1)から式(9)を求めて、自車の走行経路を演算する。
ステップS218ではさらに、式(1)から式(9)を用いて求めた走行経路と障害物位置情報を用いて、障害物のうち自車と接触する障害物情報のみを抽出する。障害物が自車経路上に存在するかしないかを区別する具体的な判別方法を示すと、図27で模式的に示すように、車両1が直進状態、左旋回、右旋回のいずれかであるかを判断し、直進状態の場合は障害物位置情報が式(1)の範囲内に収まるか、左旋回の場合は障害物位置情報が式(6)と式(7)の間に収まるか、また右旋回の場合は障害物情報が式(8)と式(9)の間に収まるか、により障害物位置が走行経路内に存在しているかを判定し、前記走行経路内の障害物情報のみを抽出する。
図21中、ステップS219では、図20に示す衝突時間演算部219にて、衝突障害物であると判定された複数の障害物位置情報に対し、車両1が現在の車速のまま走行した場合にそれぞれの障害物に接触するまでの予想時間である衝突時間を算出する。衝突時間の算出方法としては、単純な方法であれば障害物と車両1の直線距離を車速で除算するだけでも良いし、より精度を高める複雑な方法であれば、障害物が車両1に接触する位置を算出し、障害物の位置と障害物が車両に接触する位置までの実距離、例えば直進時であれば直線距離を、旋回時であれば旋回に応じた円弧距離を、それぞれ求めて車速で除算しても良い。単純な方法と複雑な方法、どちらの方法を用いても本願の効果に影響はない。
最終的にステップS219では、これら衝突障害物であると判定された複数の障害物位置情報に対し、個別に算出された衝突時間で最も短い値を、つまり最も早く車両1に接触する可能性が高い障害物の衝突時間を最短衝突時間として出力する。なお、車両1が停車している場合、衝突時間の算出に用いる車速は0になるため、そのまま除算を行うと演算装置12がエラーを起こしてしまう。しかし、停車時は障害物が車両に衝突することはないので、その場合のみ、全ての障害物位置情報の衝突時間を、衝突時間に設定される最大値に設定し、最短衝突時間も衝突時間に設定される最大値にする。衝突時間に設定される最大値は、後段のステップS220にて目標減速度が0になるような大きな値を設定すると良い。
図21中、ステップS220では、図20に示す目標減速度演算部220にて、最短衝突時間を基に目標減速度を求める。目標減速度の演算方法は様々な方法が考えられているが、一例を示すと、図28に示す表のように、最短衝突時間の値により3種類の目標減速度を選択することが一般的である。本実施の形態2では、障害物の認識が可能であり、最短衝突時間に該当する障害物の種類により図29に示す表のような目標減速度を設定する。図29に示す目標減速度は、衝突の可能性がある障害物の種類により目標減速度を変更しており、認識した障害物が、障害物種類で、人・二輪車などに該当する場合は減速度を大きく、認識した障害物が、その他障害物(例えば、路上のパイロン又は建物の壁面など)に該当する場合は減速度を小さく設定している。これは、路上のパイロン又は建物の壁面などといったその他の障害物を基準に、衝突した場合に、より相手方に被害が大きく発生する可能性が高い障害物に対しては、通常に対し更に大きな減速度を持って安全に衝突を回避することを目的としている。本実施の形態2の自動ブレーキ装置の特徴のもう1つはこの点にある。
最終的に、図21中、ステップS221にて制動装置221は目標減速度演算部220の演算する目標減速度に、車両1の実減速度が追従するよう油圧をコントロールしてブレーキ4を動作させ、車両1の減速を行う。
このようにして、本実施の形態2の自動ブレーキ装置は、本実施の形態1の路面検出装置に対し、前記路面画像と前記ヒストグラムに基づいて、前記路面画像内にて、前記車両が走行可能な第2の走行可能領域を抽出する第2の走行可能領域検出部と、前記第2の走行可能領域に基づいて、前記路面画像内の第2の障害物領域を抽出する第2の障害物領域抽出部と、前記第2の障害物領域と前記路面画像に基づき、前記路面画像内の障害物画像を抽出する障害物画像抽出部と、前記障害物画像より前記障害物画像に映る物体が何であるか障害物を認識し、前記認識結果を障害物認識情報として出力する障害物認識部と、前記障害物位置情報と前記障害物認識情報を関連づける障害物情報関連づけ部を備え、前記自動ブレーキ装置は前記障害物情報関連づけ部が関連づけた前記障害物位置情報と前記障害物認識情報により自動ブレーキの目標減速度を変更することで、障害物の認識精度の高く、かつ障害物の認識結果に基づき減速度を変更することで、障害物への衝突被害程度に応じた減速を行うことができる。
なお本実施の形態2では、障害物回避のため車両1の制動を行ったが、制動を行う前に別途備えたスピーカー等(図示せず)により、制動を行う直前にドライバーに対し警告を行うようにしても良い。そのような構成であっても本願の効果を損なうものではない。また、本実施の形態2では、車両の周囲の障害物に対して制動する自動ブレーキ装置について記載したが、車両1の後側方の監視に用いることでブラインドスポットワーキング装置などに応用することができる。その場合においても、本実施の形態2同様、左右のカメラ3の路面画像より障害物画像をそれぞれ用いることで、後側方より接近する動体が何であるか、例えば車両・二輪車・歩行者等の判別を行うことも可能になり、これにより接近動体に応じた警告時間及び表示方式を変更することが可能となる。
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1:車両、2:ソナーセンサー、3:カメラ、4:ブレーキ、5:通信線、6:油圧配管、7:カメラ配線、8:ソナーセンサー配線、9:ソナーコントローラー、10:周辺監視カメラコントローラー、11:その他のセンサー、12:演算装置、13:ブレーキ制御装置、14:路面検出装置、101:障害物距離検出部、102:撮像部、103:第1の画像変換部、104:ヒストグラム生成領域画像抽出部、105:ヒストグラム演算部、106:走行可能領域検出部、107:障害物領域抽出部、108:障害物位置検出部、109:障害物検知ゾーン演算部、110:車両状態検出部、111:画像記録部、112:差分画像障害物領域抽出部、213:第2の走行可能領域検出部、214:第2の障害物領域抽出部、215:障害物画像抽出部、216:障害物認識部、217:障害物情報関連づけ部、218:走行経路内障害物検出部、219:衝突時間演算部、220:目標減速度演算部、221:制動装置

Claims (10)

  1. 車両に設けられ、前記車両の周囲の障害物と前記車両との障害物距離を検出する障害物距離検出部と、
    前記車両に設けられ、前記車両の周囲の路面画像を撮像し、出力する撮像部と、
    前記路面画像の座標を変換し、座標変換画像として出力する画像変換部と、
    前記座標変換画像内の前記障害物距離に至らない所定領域の画像をヒストグラム生成領域画像として抽出するヒストグラム生成領域画像抽出部と、
    前記ヒストグラム生成領域画像のヒストグラムを算出するヒストグラム演算部と、
    前記座標変換画像と前記ヒストグラムに基づいて、前記座標変換画像内の前記車両が走行可能な第1の走行可能領域を検出する第1の走行可能領域検出部と、
    前記第1の走行可能領域に基づいて、前記座標変換画像内の障害物領域を抽出する障害物領域抽出部と、
    前記障害物領域に基づき、前記車両に対する障害物位置を検出し、障害物位置情報として出力する障害物位置検出部を備えたことを特徴とする障害物検出装置。
  2. 前記障害物距離検出部で検出された障害物距離を径とする円弧を、径方向及び周方向に一定の幅を有するように広げた領域を障害物検知ゾーンとして設定する障害物検知ゾーン演算部を備え、
    前記障害物位置検出部は、前記障害物検知ゾーンと前記障害物領域の重なる部分を、前記車両に対する障害物位置と検出することを特徴とする請求項1に記載の障害物検出装置。
  3. 前記車両の車両状態を検出する車両状態検出部と、
    前記座標変換画像を数フレーム分記録するとともに、あらかじめ指定されたフレーム数分前の座標変換画像を、過去の座標変換画像として蓄積する画像記録部と、
    前記車両状態と記録された座標変換画像と蓄積されている過去の座標変換画像より座標変換画像の差分を演算し、偏差の生じた領域を、差分障害物領域として出力する差分画像障害物領域抽出部を備え、
    前記障害物位置検出部は、前記障害物検知ゾーンと前記障害物領域と前記差分障害物領域の内、少なくとも2つ以上が重なる部分を、前記車両に対する障害物位置として検出することを特徴とする請求項2に記載の障害物検出装置。
  4. 請求項1から3のいずれか一項に記載の障害物検出装置の前記障害物位置情報に基づき車両のブレーキを制御することを特徴とする障害物検出装置を利用した自動ブレーキ装置。
  5. 前記路面画像と前記ヒストグラムに基づいて、前記路面画像内にて、前記車両が走行可能な第2の走行可能領域を検出する第2の走行可能領域検出部と、
    前記第2の走行可能領域に基づいて、前記路面画像内の第2の障害物領域を抽出する第2の障害物領域抽出部と、
    前記第2の障害物領域と前記路面画像に基づき、前記路面画像内の障害物画像を抽出する障害物画像抽出部と、
    抽出された前記障害物画像を識別し、識別結果を障害物認識情報として出力する障害物認識部と、
    前記障害物位置情報と前記障害物認識情報とを関連づける障害物情報関連づけ部とを備え、
    前記障害物情報関連づけ部の出力に応じて目標減速度を変更することを特徴とする請求項4に記載の障害物検出装置を利用した自動ブレーキ装置。
  6. 車両の周囲の障害物と前記車両との障害物との距離を検出する第1のステップと、
    前記車両の周辺の路面画像を取得する第2のステップと、
    前記路面画像の座標を変換し、座標変換画像を出力する第3のステップと、
    前記座標変換画像の内、障害物距離に至らない所定領域の画像内のヒストグラムを演算する第4のステップと、
    前記座標変換画像と前記ヒストグラムに基づいて、前記座標変換画像内にて、前記車両が走行可能な走行可能領域を抽出する第5のステップと、
    前記車両の前記走行可能領域に基づいて、障害物領域を抽出する第6のステップと、
    前記障害物領域に基づき、前記車両に対する障害物位置を検出する第7のステップを備えたことを特徴とする障害物検出方法。
  7. 前記第7のステップは、前記障害物距離離れた位置に障害物距離を径とする円弧を、径方向及び周方向に一定の幅を有するように広げた障害物検知ゾーンと前記障害物領域との重なる部分を、前記車両に対する障害物位置と検出することを特徴とする請求項6に記載の障害物検出方法。
  8. 前記第7のステップは、過去の座標変換画像と現在の座標変換画像との差分の偏差の生じた領域と前記障害物検知ゾーンと前記障害物領域の少なくとも2つ以上が重なる部分を、前記車両に対する障害物位置と検出することを特徴とする請求項7に記載の障害物検出方法。
  9. 請求項6から8のいずれか一項に記載の障害物検出方法で検出された障害物位置に基づき車両のブレーキを制御することを特徴とする障害物検出方法を利用した自動ブレーキ方法。
  10. 前記路面画像と前記ヒストグラムに基づいて、前記路面画像内の障害物画像を抽出するステップと、抽出された障害物画像を識別するステップとを更に有し、識別された障害物画像と検出された障害物位置に基づいて自動ブレーキの目標減速度を変更することを特徴とする請求項9に記載の障害物検出方法を利用した自動ブレーキ方法。
JP2020514798A 2018-04-16 2018-04-16 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法 Active JP6983309B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015662 WO2019202627A1 (ja) 2018-04-16 2018-04-16 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Publications (2)

Publication Number Publication Date
JPWO2019202627A1 JPWO2019202627A1 (ja) 2021-02-25
JP6983309B2 true JP6983309B2 (ja) 2021-12-17

Family

ID=68239495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514798A Active JP6983309B2 (ja) 2018-04-16 2018-04-16 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法

Country Status (5)

Country Link
US (1) US11565698B2 (ja)
JP (1) JP6983309B2 (ja)
CN (1) CN111937002A (ja)
DE (1) DE112018007484T5 (ja)
WO (1) WO2019202627A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019224162A1 (en) * 2018-05-22 2019-11-28 Starship Technologies Oü Method and system for analyzing robot surroundings
CN112068569B (zh) * 2020-09-18 2024-05-28 财团法人车辆研究测试中心 结合图资的障碍物追踪***及方法
JP7034231B1 (ja) 2020-10-20 2022-03-11 三菱電機株式会社 車両位置検出装置および車両位置検出方法
JP7113935B1 (ja) * 2021-04-05 2022-08-05 三菱電機株式会社 路面検出装置および路面検出方法
CN113378628B (zh) * 2021-04-27 2023-04-14 阿里云计算有限公司 一种道路障碍物区域检测方法
US11790665B2 (en) * 2021-04-29 2023-10-17 Hitachi Astemo, Ltd. Data driven dynamically reconfigured disparity map
CN113844451B (zh) * 2021-09-30 2023-12-19 上海商汤临港智能科技有限公司 行驶设备控制方法、装置、电子设备及存储介质
KR102657142B1 (ko) * 2021-11-11 2024-04-15 한국전력 국제원자력대학원대학교 산학협력단 드론의 장애물 충돌회피를 위한 2d 히스토그램 생성방법
CN114694115A (zh) * 2022-03-24 2022-07-01 商汤集团有限公司 一种道路障碍物检测方法、装置、设备及存储介质
WO2024052949A1 (ja) * 2022-09-05 2024-03-14 三菱電機株式会社 領域設定装置、領域設定方法及び領域設定プログラム
CN116681879B (zh) * 2023-08-03 2023-10-31 中国空气动力研究与发展中心高速空气动力研究所 一种光学图像边界层转捩位置的智能判读方法
CN118115975A (zh) * 2024-04-23 2024-05-31 名商科技有限公司 一种基于障碍物检测的低速无人驾驶控制方法和***

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JPH1165660A (ja) * 1997-08-22 1999-03-09 Komatsu Ltd 物体探知器付き自走車両
JP2003178290A (ja) * 2001-12-12 2003-06-27 Nissan Motor Co Ltd 車両周囲監視装置
JP2006140636A (ja) * 2004-11-10 2006-06-01 Toyota Motor Corp 障害物検出装置および方法
RU2544775C1 (ru) * 2011-09-12 2015-03-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов
JP5983729B2 (ja) * 2012-03-05 2016-09-06 日産自動車株式会社 白線検出装置、白線検出フィルタ装置及び白線検出方法
CN104685866B (zh) * 2012-07-27 2018-12-14 歌乐株式会社 三维物体检测装置以及三维物体检测方法
KR101402089B1 (ko) * 2012-11-14 2014-06-02 재단법인대구경북과학기술원 장애물 검출 장치 및 방법
CN103386975B (zh) * 2013-08-02 2015-11-25 重庆市科学技术研究院 一种基于机器视觉的车辆避障方法及***
KR101491305B1 (ko) * 2013-08-27 2015-02-06 현대자동차주식회사 장애물 검출 장치 및 방법
CN109388150B (zh) * 2014-09-05 2022-04-29 深圳市大疆创新科技有限公司 多传感器环境地图构建
JP6454554B2 (ja) * 2015-01-20 2019-01-16 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置
JP6542539B2 (ja) * 2015-02-10 2019-07-10 クラリオン株式会社 車両用進入可否判定装置
KR101569411B1 (ko) * 2015-04-01 2015-11-27 주식회사 피엘케이 테크놀로지 보행자 인식 장치 및 그 방법
JP2017033506A (ja) 2015-08-06 2017-02-09 Kyb株式会社 路面検出装置及び路面検出方法
EP3416132B1 (en) * 2016-02-08 2021-06-16 Ricoh Company, Ltd. Image processing device, object recognition device, device control system, and image processing method and program
JP2017191382A (ja) * 2016-04-11 2017-10-19 株式会社デンソー 車両制御装置、及び車両制御方法
US11059481B2 (en) * 2017-03-31 2021-07-13 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
JP6589926B2 (ja) * 2017-04-07 2019-10-16 トヨタ自動車株式会社 物体検出装置
WO2018207303A1 (ja) * 2017-05-11 2018-11-15 三菱電機株式会社 車載用監視カメラ装置
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
DE102017217056B4 (de) * 2017-09-26 2023-10-12 Audi Ag Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
JP6815963B2 (ja) * 2017-09-29 2021-01-20 クラリオン株式会社 車両用外界認識装置
JP6828827B2 (ja) * 2017-10-05 2021-02-10 日産自動車株式会社 駐車制御方法及び駐車制御装置
CN111448596A (zh) * 2017-10-10 2020-07-24 日产自动车株式会社 驾驶控制方法以及驾驶控制装置
WO2019073920A1 (ja) * 2017-10-12 2019-04-18 ソニー株式会社 情報処理装置、移動装置、および方法、並びにプログラム
JP6753383B2 (ja) * 2017-10-23 2020-09-09 株式会社Soken 物体検知装置
JP7025912B2 (ja) * 2017-12-13 2022-02-25 日立Astemo株式会社 車載環境認識装置
JP6881290B2 (ja) * 2017-12-28 2021-06-02 株式会社デンソー 運転支援装置
GB201804539D0 (en) * 2018-03-21 2018-05-02 Headlight Ai Ltd Object detection system and method
JP6917330B2 (ja) * 2018-03-28 2021-08-11 日立Astemo株式会社 駐車支援装置
US11860640B2 (en) * 2018-03-29 2024-01-02 Sony Corporation Signal processing device and signal processing method, program, and mobile body
WO2019187107A1 (ja) * 2018-03-30 2019-10-03 日本電気株式会社 情報処理装置、制御方法、及びプログラム
CN111971682B (zh) * 2018-04-16 2024-07-05 三菱电机株式会社 路面检测装置、图像显示装置、障碍物检测装置、路面检测方法、图像显示方法以及障碍物检测方法
JP7111586B2 (ja) * 2018-11-09 2022-08-02 株式会社Soken 物体検出装置
JP7286445B2 (ja) * 2019-06-28 2023-06-05 キヤノン株式会社 撮像装置および機器
US11571813B2 (en) * 2020-02-28 2023-02-07 Irobot Corporation Systems and methods for managing a semantic map in a mobile robot
US20220019810A1 (en) * 2020-07-14 2022-01-20 The Chamberlain Group, Inc. Object Monitoring System and Methods

Also Published As

Publication number Publication date
JPWO2019202627A1 (ja) 2021-02-25
US11565698B2 (en) 2023-01-31
DE112018007484T5 (de) 2021-02-25
CN111937002A (zh) 2020-11-13
WO2019202627A1 (ja) 2019-10-24
US20200391745A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
JP6983309B2 (ja) 障害物検出装置、障害物検出装置を利用した自動ブレーキ装置、障害物検出方法、および障害物検出方法を利用した自動ブレーキ方法
JP6611353B2 (ja) 画像処理装置、外界認識装置
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
JP5711721B2 (ja) 車両の運転支援制御装置
US20170106859A1 (en) Driver assistance apparatus and method for operating the same
JP2021192303A (ja) ライダー支援システム及び方法
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
KR20190039648A (ko) 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터
US20180158334A1 (en) Vehicle collision avoidance
US20160107643A1 (en) Object recognition apparatus
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
CN106845332B (zh) 利用轮胎旁溅的基于视觉的潮湿路面状况检测
WO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP6479130B1 (ja) 車両用走行支援装置
US20150092989A1 (en) Vehicle external environment recognition device
JP2005309797A (ja) 歩行者警報装置
JP2000285245A (ja) 移動体の衝突防止装置、衝突防止方法、および記録媒体
KR20120086577A (ko) 카메라를 이용한 측면차량 검출 장치 및 방법
CN113650607B (zh) 一种低速场景自动驾驶方法、***及汽车
KR101519261B1 (ko) 차량의 모니터링 방법 및 자동 제동 장치
JP2019079470A (ja) 車両用白線認識装置
US20150091714A1 (en) Filtering device and environment recognition system
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP4768499B2 (ja) 車載周辺他車検出装置
CN112542060B (zh) 车用后侧方警报装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R151 Written notification of patent or utility model registration

Ref document number: 6983309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151