JP7395913B2 - 物体検知装置 - Google Patents

物体検知装置 Download PDF

Info

Publication number
JP7395913B2
JP7395913B2 JP2019178544A JP2019178544A JP7395913B2 JP 7395913 B2 JP7395913 B2 JP 7395913B2 JP 2019178544 A JP2019178544 A JP 2019178544A JP 2019178544 A JP2019178544 A JP 2019178544A JP 7395913 B2 JP7395913 B2 JP 7395913B2
Authority
JP
Japan
Prior art keywords
vehicle
boundary line
interest
point
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019178544A
Other languages
English (en)
Other versions
JP2021056717A (ja
Inventor
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019178544A priority Critical patent/JP7395913B2/ja
Publication of JP2021056717A publication Critical patent/JP2021056717A/ja
Application granted granted Critical
Publication of JP7395913B2 publication Critical patent/JP7395913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施形態は、物体検知装置に関する。
従来、車両に設置された撮像部(カメラ)により撮像された撮像画像に対して、例えば、矩形のバウンディングボックスを設定し、物体(例えば、歩行者や他車両等の障害物)を検出する技術が実用化されている。例えば、予め定めた物体に対応する映像を撮像画像の中から抽出し、その映像全体を囲むようなバウンディングボックスを設定することで物体の認識を行うものがある。
特開2018-142309号公報
ところで、上述したようなバウンディングボックスを用いた従来の物体認識の場合、例えば、物体までの距離を測距センサ等を用いずに推定しようとする場合、バウンディングボックスの下端中央部分の座標を物体の位置として、例えば二次元座標から三次元座標に変換することにより物体までの距離を推定する場合がある。しかしながら、上述したように、バウンディングボックスは、予め定めた物体に対応する映像を抽出し、その映像全体を囲むように設定する。そして、バウンディングボックスの例えば底辺の中央位置を物体の位置として推定することがある。そのため、実際の物体の位置とは異なる位置に基づいて距離推定を行ってしまう場合があった。その結果、物体までの距離誤差が大きくなってしまう場合があり、例えば、走行支援等により車両を走行させる場合、物体と接触してしまうリスクが高くなってしまう場合があるという問題があった。したがって、バウンディングボックスを用いた物体検知において、物体の位置をより高い精度で推定できる物体検知装置が提供できれば、より信頼性が高く、安全性の高い物体回避制御を実現させることができて有意義である。
本発明の実施形態にかかる物体検知装置は、例えば、車両が存在する路面を含む周囲状況を撮像可能な撮像部で撮像された撮像画像を取得する取得部と、上記撮像画像に含まれる上記路面上で立体物が存在する領域として認識される物体領域と上記路面との境界を示す立体物境界線と、上記物体領域に含まれる上記立体物のうち予め定められた対象物体を選択するための矩形のバウンディングボックスと、を設定する設定部と、上記立体物境界線のうち上記バウンディングボックスに含まれる部分境界線を抽出するとともに、当該部分境界線上で上記車両と上記対象物体との接触を回避するために注目する注目点を推定して出力する制御部と、を備え、前記制御部は、前記注目点に基づき、三次元空間における前記車両から前記対象物体までの距離を算出する。この構成によれば、例えば、バウンディングボックスにより対象物体を抽出した上で、さらに物体と路面との境界、つまり、物体の足元の位置が特定できるため、対象物体の位置検出精度を向上できる。つまり、対象物体との接触を回避するための、より精度の高い注目点に位置が推定され、三次元空間における車両から対象物体までの距離が算出される。その結果、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。
本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記部分境界線のうち上記バウンディングボックスの縦軸方向の最下位置を上記注目点としてもよい。この構成によれば、例えば、物体の位置を示す部分境界線のうち、車両(自車)に最も近い位置、すなわち、接触する可能性の高い位置を注目点として容易に決定することができる。その結果、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。
本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記部分境界線において、上記部分境界線の傾きの正負が切り替わる切替り位置が存在する場合、上記切替り位置を上記注目点としてもよい。この構成によれば、例えば、対象物体のコーナー部分(例えば、角部分)を注目点として抽出可能となり、より信頼性が高くかつ安全性の高い物体回避制御を実現させることができる。
本発明の実施形態にかかる物体検知装置の上記制御部は、例えば、上記車両の舵角に基づく進行方向を示す走行予想線で定まる走行予想領域と上記バウンディングボックスとに基づき、上記部分境界線を定めて、上記注目点の位置を推定するようにしてもよい。この構成によれば、例えば、車両が進行(走行)する可能性のある領域について部分境界線の抽出が可能となり、より信頼性が高いかつ安全性の高い物体回避制御を実現させることができる。
図1は、実施形態にかかる物体検知装置を搭載可能な車両の一例を示す模式的な平面図である。 図2は、実施形態にかかる物体検知装置を含む制御システムの構成の例示的なブロック図である。 図3は、実施形態にかかる物体検知装置(物体検知部)をCPUで実現する場合の構成を例示的に示すブロック図である。 図4は、実施形態にかかる物体検知装置において、立体物境界線とバウンディングボックスの設定を示す例示的かつ模式的な説明図である。 図5は、実施形態にかかる物体検知装置において、部分境界線の設定を示す例示的かつ模式的な説明図である。 図6は、実施形態にかかる物体検知装置において、バウンディングボックスの縦軸方向の最下位置を注目点とすることを説明する例示的かつ模式的な図である。 図7は、実施形態にかかる物体検知装置において、バウンディングボックスの縦軸方向の最下位置を注目点とする他の例を説明する例示的かつ模式的な図である。 図8は、実施形態にかかる物体検知装置において、走行予想領域とバウンディングボックスとに基づき、部分境界線を設定することを示す模式的な説明図である。 図9は、実施形態にかかる物体検知装置の注目点の推定処理の流れの一例を示すフローチャートである。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
本実施形態の物体検知装置は、例えば、撮像画像に含まれる路面上で立体物が存在する領域として認識される物体領域と路面との境界を示す立体物境界線と、物体領域に含まれる対象物体を選択(抽出)するためのバウンディングボックスと、を用いて、対象物体が路面と接触している部分境界線の位置を抽出する。そして、部分境界線上で車両と対象物体との接触を回避するために注目すべき注目点を推定して出力する。
図1は、本実施形態の物体検知装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。
図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a~14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、例えば、車両10の外周部に配置される撮像部14(14a~14d)の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14(14a~14d)は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す駐車枠、車線分離線等)や物体(障害物として、例えば、歩行者、他車両等)を含む車両10の外部の周辺状況を逐次撮影し、撮像画像データとして出力する。
撮像部14aは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10aやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10a)を含む前方画像を撮像可能である。また、撮像部14bは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10bの上方位置に設けられて、車両10の後端部(例えばリヤバンパ10b)を含む後方領域を撮像可能である。また、撮像部14cは、例えば、車両10の右側の端部、例えば右側のドアミラー10cに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14dは、例えば、車両10の左側の端部、例えば左側のドアミラー10dに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。
例えば、撮像部14a~14dで得られた各撮像画像データは、それぞれ演算処理や画像処理を実行することで、車両10の周囲それぞれの方向における画像を表示したり周辺監視を実行したりすることができる。また、各撮像画像データに基づいて、演算処理や画像処理を実行することで、より広い視野角の画像を生成したり、車両10を上方や前方、側方等から見た仮想的な画像(俯瞰画像(平面画像)や側方視画像、正面視画像等)を生成して表示したり、周辺監視を実行したりすることができる。
各撮像部14で撮像された撮像画像データは、上述したように、車両10の周囲の状況を運転者等の利用者に提供するために、車室内の表示装置に表示される。また、撮像画像データは、物体(例えば、他車両や歩行者等の障害物)の検出や、位置特定、距離測定等各種検出や検知を行う処理装置(処理部)に提供され、車両10を制御するために利用することができる。
図2は、車両10に搭載される物体検知装置を含む制御システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。使用者(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、利用者は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の例えば中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
また、図2に例示されるように、制御システム100(物体検知装置を含む)は、撮像部14(14a~14d)やモニタ装置22に加え、ECU24(electronic control unit)、車輪速センサ26、舵角センサ28、シフトセンサ30、走行支援部32等が含まれる。制御システム100において、ECU24やモニタ装置22、車輪速センサ26、舵角センサ28、シフトセンサ30、走行支援部32等は、電気通信回線としての車内ネットワーク34を介して電気的に接続されている。車内ネットワーク34は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク34を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク34を介して、操作入力部20や各種スイッチの操作信号等、車輪速センサ26、舵角センサ28、シフトセンサ30等の各種センサの検出信号等を受け取ることができる。なお、車内ネットワーク34には、車両10を走行させるための種々のシステム(操舵システム、ブレーキシステム、駆動システム等)や種々のセンサが接続されているが、図2において、本実施形態の物体検知装置と関連性の低い構成は図示を省略するとともに、その説明を省略する。
ECU24は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両10の制御全般を司る。具体的には、ECU24は、CPU(Central Processing Unit)24a、ROM(Read Only Memory)24b、RAM(Random Access Memory)24c、表示制御部24d、音声制御部24e、およびSSD(Solid State Drive)24fを備える。
CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。CPU24aは、例えば、撮像部14が撮像した撮像画像に対して画像処理を施し、物体認識を実行して、物体の存在する位置、物体までの距離等の推定を行うことができる。また、認識した物体との接触を回避するための注目点の位置を推定することができる。さらに、その注目点に基づき、物体に接触することなく車両10を走行させるための走行支援処理等を実行させることができる。例えば、操舵システム、ブレーキシステム、駆動システム等の制御や操作に必要な情報の提供を行うことができる。
ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ等を記憶する。RAM24cは、CPU24aが物体検知処理を実行する際のワークエリアとして使用されるとともに、CPU24aでの演算で用いられる各種のデータ(撮像部14で逐次(時系列的に)撮像される撮像画像データ等)の一時的な格納エリアとして利用される。表示制御部24dは、ECU24での演算処理のうち、主として、撮像部14から取得してCPU24aへ出力する画像データに対する画像処理、CPU24aから取得した画像データを表示装置16に表示させる表示用の画像データへの変換等を実行する。音声制御部24eは、ECU24での演算処理のうち、主として、CPU24aから取得して音声出力装置18に出力させる音声の処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもCPU24aから取得したデータを記憶し続ける。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。
車輪速センサ26は、車輪12の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ26は、各車輪12に配置され、各車輪12で検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ26は、例えば、ホール素子などを用いて構成されうる。CPU24aは、車輪速センサ26から取得した検出値に基づいて車両10の車速や加速度等を演算し、各種制御を実行する。
舵角センサ28は、例えば、ステアリングホイール等の操舵部の操舵量を検出するセンサである。舵角センサ28は、例えば、ホール素子などを用いて構成される。CPU24aは、運転者による操舵部の操舵量や、例えば駐車支援を実行する際の自動操舵時の前輪12Fの操舵量等を、舵角センサ28から取得して各種制御を実行する。
シフトセンサ30は、変速操作部の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、変速機の動作状態、変速段の状態や車両10の走行可能方向(Dレンジ:前進方向、Rレンジ:後退方向)等を示す情報を検出する。
走行支援部32は、制御システム100によって算出された移動経路または外部から提供された移動経路に基づいて、車両10を移動させる走行支援を実現するために、操舵システム、ブレーキシステム、駆動システム等に制御情報を提供する。走行支援部32は、例えば、操舵システム、ブレーキシステム、駆動システム等を全て自動制御する完全自動制御を実行させたり、操舵システム、ブレーキシステム、駆動システム等の一部の制御を自動制御する半自動制御を実行させたりする。また、走行支援部32は、移動経路に沿って車両10が移動できるように、操舵システム、ブレーキシステム、駆動システム等の操作案内を運転者に提供して、運転者に運転操作を実行させる手動制御を実行させてもよい。この場合、走行支援部32は、表示装置16や音声出力装置18に対して操作情報を提供するようにしてもよい。また、走行支援部32は、半自動制御を実行する場合も、運転者に操作させる、例えばアクセル操作等に関する情報を表示装置16や音声出力装置18を介して提供することができる。
図3は、実施形態にかかる物体検知装置(物体検知部40)をCPU24aで実現する場合の構成を例示的かつ模式的に示すブロック図である。CPU24aは、ROM24bから読み出した物体検知プログラムを実行することにより、図3に示すように、画像取得部42、設定部44、制御部46等のモジュールを含む物体検知部40を実現する。また、設定部44は、立体物境界線設定部44a、バウンディングボックス設定部44b、走行予想領域設定部44c等の詳細モジュールを含む。また、制御部46は、部分境界線抽出部46a、注目点推定部46b、出力部46c等の詳細モジュールを含む。なお、画像取得部42、設定部44、制御部46の一部または全部を回路等のハードウェアによって構成してもよい。また、図3では、図示を省略しているが、CPU24aは、車両10の走行に必要な各種モジュールを実現することもできる。また、図2では、主として物体検知処理を実行するCPU24aを示しているが、車両10の走行に必要な各種モジュールを実現するためのCPUを備えてもよいし、ECU24とは別のECUを備えてもよい。
画像取得部42は、撮像部14により撮像された、車両10が存在する路面を含む車両10の周囲状況を示す撮像画像(周辺画像)を取得し、設定部44および制御部46に提供する。なお、画像取得部42は、各撮像部14(14a~14d)が撮像する撮像画像を逐次取得して設定部44および制御部46に提供するようにしてもよい。また、別の例では、画像取得部42は、シフトセンサ30から取得できる車両10の進行可能方向(前進方向または後退方向)に関する情報に基づいて進行可能方向の物体検知が実行できるように、進行可能方向の撮像画像を選択的に取得して設定部44および制御部46に提供するようにしてもよい。
設定部44は、画像取得部42から提供される撮像画像に画像処理等を施すことにより、各種境界線や領域の設定を行う。図4、図5は、各種境界線や領域の設定を説明する例示的かつ模式的な図である。なお、図4、図5は、車両10が後退可能な状態(シフトセンサ30の検出結果がRレンジの場合)で、後方画像について、各種境界線や領域が設定されている例である。
立体物境界線設定部44aは、図4に示されるように、撮像画像50(例えば、後方画像)に含まれる路面52上で立体物(他車両54やフェンス56等)が存在する領域として認識される物体領域BRと路面52との境界を示す立体物境界線58を設定する。立体物境界線58は、周知の画像処理技術、例えば、エッジ検出や直線近似や、機械学習等の手法を用いて設定することができる。立体物境界線58は、路面52上に存在する立体物の足元の位置(路面52と接触する位置や路面52から浮いた立体物が路面52に投影された位置を結んだ線と見なすことができる。なお、図4の場合、作図の都合上、立体物境界線58は平滑な線として表現されているが、実際は、立体物の形状や位置、撮像画像の解像度や認識精度、ノイズ等により非平滑な線になる場合がある。そのような場合は、周知の平滑化処置(スムージング処理)を実行してもよい。
バウンディングボックス設定部44bは、物体領域BRに含まれる立体物(他車両54やフェンス56等)のうち予め定められた対象物体(例えば、他車両54に相当する物体)を選択するための矩形のバウンディングボックス60を設定する。対象物体は、車両10を走行させる場合に、路面52上に存在し得る接触を避けるべき障害物であり、例えば、他車両54やフェンス56に相当する物体の他、自転車、歩行者、電柱、街路樹、花壇等に相当する物体であり、予め、例えば機械学習等により学習させたモデルにより抽出することができる物体である。バウンディングボックス設定部44bは、周知に技術に従い学習させたモデルを撮像画像50に適用し、例えば、対象物体の特徴点と撮像画像50に含まれる画像の特徴点との一致度を求めて、撮像画像50上のどこに既知の対象物体が存在するかを検出する。そして、検出した物体、すなわち、図4に示すように、対象物体と見なせる物体(例えば、他車両54)を囲むように、バウンディングボックス60を設定する。なお、図4、図5および後述する図8では、車両10との接触を回避する物体を検知する例として、車両10に最も近い位置で抽出された物体についてバウンディングボックス60を設定した例を示している。
走行予想領域設定部44cは、車両10が走行した場合に通過が予想される領域を設定する。例えば、車両10の現在の舵角に基づき、車両10が走行する方向と車両10が通過する領域が推定できる。したがって、車両10の通過領域によって、対象物体(例えば他車両54)との接触を回避する必要がある領域を限定することが可能となり、接触回避位置の推定精度を向上することができるとともに、回避のための処理負荷を軽減することができる。なお、走行予想領域設定部44cを用いた制御の詳細は後述する。
制御部46は、車両10と対象物体との接触を回避するための限界線となる部分境界線62を抽出するとともに、部分境界線62上に車両10との接触を回避するために注目するべき注目点Tを推定して出力する。なお、注目点Tは、対象物体との接触を回避する場合の代表的に点(位置)であり、注目点Tとの接触を回避できれば、車両10との接触が回避できるものとする。
部分境界線抽出部46aは、図4、図5に示すように、撮像画像50に対して立体物境界線設定部44aが設定した立体物境界線58のうちバウンディングボックス設定部44bが同じ撮像画像50に設定したバウンディングボックス60に含まれる部分を抽出して部分境界線62として設定する。つまり、バウンディングボックス60によって、立体物境界線58の一部が部分境界線62として選択され、図5に示すように、対象物体と見なされた例えば他車両54の足元の位置(他車両54の車輪と路面52の接触位置や他車両54のボディの投影位置)を示す線分となる。つまり、車両10が(例えば、他車両54)に接近していく場合に、部分境界線抽出部46aによって抽出された部分境界線62は、対象物体(例えば他車両54)との接触を回避するための限界線と見なすことができる。なお、バウンディングボックス60が設定される場合、対象物体が存在する。そして、対象物体(立体物)が存在する場合、立体物境界線58で設定されていることになる。したがって、バウンディングボックス60が設定可能な場合(対象物体が存在する場合)は、部分境界線62を抽出することができる。
注目点推定部46bは、図5に示すように、部分境界線62上で、車両1と対象物体との接触を回避するために注目する注目点Tを推定する。上述したように、車両10が対象物体に接近する場合に、部分境界線62を超えなければ、接触する可能性は小さい。そこで、注目点推定部46bは、立体物境界線設定部44aで設定された対象物体の足元を示す部分境界線62上に注目点Tを設定(推定)する。注目点推定部46bは、予め定めた規則に従い注目点Tの設定を行う。例えば、図5に示すように、注目点推定部46bは、撮像画像50の二次元座標(X-Y座標)において、部分境界線62の両端のX座標をXおよびXとした場合に、その中点の位置を注目点TのX座標Xとする。したがって、注目点Tの二次元座標は、(X,Y)と推定することができる。
出力部46cは、注目点Tの情報として二次元座標の情報を走行支援部32に出力してもよいし、周知の演算処理によって、二次元座標を三次元座標に変化して、注目点Tの三次元座標を走行支援部32に出力してもよい。また、出力部46cは、三次元空間にける車両10から対象物体までの距離(端部参照位置Pから注目点Tまでの距離)を算出して走行支援部32に出力してもよい。
このように、立体物境界線58とバウンディングボックス60とを組み合わせて、部分境界線62を抽出することにより、対象物体(例えば他車両54)の足元の位を認識することができる。そして、部分境界線62上で推定した注目点Tを用いて、走行支援を実行させることにより、車両10と対象物体との位置関係をより正確に認識した上で、対象物体に対する接触回避をより精度よく実現できる。特に、車両10が対象物体に接近した際の位置関係(相対距離)が正確に検知できるので、より正確な制御を実行させることができる。
なお、注目点推定部46bは、別の実施形態として、例えば、図5に示すように、部分境界線62において、当該部分境界線62の傾きの正負が切り替わる切替り位置が存在する場合、その切替り位置を注目点Tとして推定してもよい。部分境界線62の傾きの正負が切り替わる位置(座標(X,Y)は、図5に示されるように、対象物体(例えば他車両54)の車両前面に対応する部分境界線62のうち分割線62aと、車両側面に対応する分割線62bとの接触位置に対応する。すなわち、部分境界線62の傾きの切り替わり位置が、対象物体のコーナー位置(例えば、他車両54の右前コーナーの位置)を示す。つまり、車両10が対象物体(他車両54)に接近するように走行する場合、傾きの切り替わり位置に対応する対象物体のコーナー位置が、車両10のリヤバンパ10bから最も近い位置となる可能性が高い。この位置を注目点Tとして、接触を回避するように走行制御を行わせることによって、対象物体との接触回避をより確実に行うことができる。
部分境界線62の傾きの正負が切り替わる位置の推定は、例えば、部分境界線62における変曲点を算出することにより推定してもよいし、部分境界線62上の任意の二点間の傾きを順次算出して、傾きの正負変化を検知することによって推定してもよい。
また、注目点Tを推定する場合の別の実施形態として、例えば、図5に示すように、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとしてもよい。図5に示されるように、バウンディングボックス60において、y軸方向の下方は、より車両10に近い。つまり、バウンディングボックス60に含まれる部分境界線62のうち最下位置は、対象物体(他車両54)の足元を示す位置で最も車両10に近い位置となる。したがって、注目点Tを回避するように走行制御を行わせることによって、対象物体との接触回避をより確実に行うことができる。
図6は、バウンディングボックス60の縦軸方向の最下位置を注目点Tとすることを説明する別の例示的かつ模式的な図である。図6は、バウンディングボックス60によって対象物体としてフェンス64が抽出された場合である。フェンス64のように奥行きない、または少ない物体の場合、部分境界線62の傾きの正負が切り替わる位置が存在しない、または検出できない場合がある。このような場合は、上述した別の実施形態と同様に、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとすることが可能である。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(フェンス64)との接触回避をより確実に行うことができる。
また、図7は、対象物体として歩行者66が抽出された場合である。歩行者66の場合、歩行動作に基づく部分境界線62(立体物境界線58)が短い場合がある。この場合でも、歩行者66に対して設定された部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとすることが可能である。つまり、注目点Tを歩行者66の足元を示す最も車両10に近い位置と見なすことができる。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(歩行者66)との接触回避をより確実に行うことができる。なお、歩行者66等の動体の挙動によっては、動作に基づく部分境界線62(立体物境界線58)が十分に抽出可能な場合があり、部分境界線62の傾きの正負が切り替わる位置が存在する場合がある。このような場合は、変曲点の位置を用いた注目点Tの推定が可能となる。したがって、注目点Tとの接触を回避するように走行制御を行わせることによって、対象物体(動体)との接触回避を同様に実施することができる。
図8は、注目点Tをさらに効率的に推定することができる変形例を示す例示的かつ模式的な説明図である。
設定部44の走行予想領域設定部44cは、前述したように、車両10が走行した場合に通過が予想される領域を設定する。例えば、舵角センサ28から提供される車両10の現在の舵角に基づき、車両10が走行する方向(車輪12の通過する位置、方向)を推定できる。例えば、図8に示すように、走行予想領域設定部44cは、右後輪の進む走行予想線68aと左後輪の進む走行予想線66bとに基づき、走行予想線66a,66bとで囲まれた走行予想領域68を設定することができる。つまり、車両10が走行する場合(例えば後退する場合)、車両10は走行予想領域68以外の領域は通過しない。したがって、部分境界線抽出部46aは、走行予想領域68とバウンディングボックス60とが重なる領域に含まれる立体物境界線58に基づき、部分境界線62cを定めることができる。その結果、注目点推定部46bは、車両10の通過が予想されるより限定された領域で、部分境界線62cを抽出して注目点Tの推定が可能になる。その結果、注目点Tの推定精度を向上させることができるとともに、注目点Tを推定するための処理負荷が軽減可能となる。走行予想領域68を用いて部分境界線62cを抽出した場合も、上述した例と同様に、部分境界線62cのX座標上中点を算出してり、部分境界線62cの変曲点を算出したり、最下位置を算出したりすることによって、注目点Tの位置を推定することができる。
以上のように構成される物体検知装置(物体検知部40)による注目点Tの推定処理の流れの一例を図9のフローチャートを用いて説明する。
まず、物体検知部40は、現在の車両10の進行可能方向の確認を行う。例えば、シフトセンサ30から取得できる変速操作部のシフト位置に基づき、車両10が後退走行可能な状態か否か確認する(S100)。後退走行可能な状態の場合(S100のYes)、すなわち、変速操作部においてRレンジが選択されている場合、画像取得部42は、撮像部14bが撮像した後方画像を物体検知対象の画像として取得する(S102)。一方、S100において、後退走行可能な状態でない場合(S100のNo)、例えば、変速操作部において、前進走行可能なDレンジが選択されている場合や、Pレンジ、Nレンジ等Rレンジ以外が選択されている場合、画像取得部42は、撮像部14aが撮像した前方画像を物体検知対象の画像として取得する(S104)。
物体検知対象の画像が取得されると、立体物境界線設定部44aは、画像取得部42が取得した撮像画像に対して立体物境界線58の設定を行うとともに(S106)、バウンディングボックス設定部44bは、バウンディングボックス60の設定を行う(S108)。また、走行予想領域設定部44cは、舵角センサ28から取得される車両10の現在の舵角に基づき、走行予想線68aおよび走行予想線68bを設定し、その走行予想線68a,68bに基づき走行予想領域68を設定する(S110)。
制御部46は、走行予想領域68と重なるバウンディングボックス60が存在するか否か確認する(S112)。重なる領域が存在する場合(S112のYes)、車両10が走行する可能性のある領域に物体検知の対象となる対象物体が存在することになる。この場合、部分境界線抽出部46aは、バウンディングボックス60に含まれる立体物境界線58で定まる部分境界線62をさらに走行予想領域68で限定することで、車両10と接触する可能性のある対象物体の場所(部分)を特定し、その場所に対する部分境界線62cを設定する(S114)。
そして、注目点推定部46bは、部分境界線抽出部46aが抽出した部分境界線62cに基づき、注目点Tを推定する(S116)。注目点Tの推定は、前述したように、部分境界線62(62c)の両端のX座標をXおよびXとした場合に、例えば、その中点の位置として、Tの座標(X,Y)を推定してもよい。また、部分境界線62(62c)の傾きの正負が切り替わる位置をTの座標として推定してもよい。また、部分境界線62のうちバウンディングボックス60における縦軸方向(y軸方向)の最下位置を注目点Tとしてもよい。
注目点Tが推定されると、出力部46cは、二次元座標上で推定された注目点Tの座標情報を三次元座標上の座標情報に変換して、三次元空間にける車両10から対象物体までの距離(端部参照位置Pから注目点Tまでの距離)を算出して走行支援部32に出力して(S118)、一連の物体検知処理を一旦終了する。また、別の例では、出力部46cは、二次元座標の注目点Tの情報や三次元座標の注目点Tの情報を走行支援部32に出力して、走行支援部32側で座標変換処理や距離算出を行うようにしてもよい。走行支援部32では、取得した注目点Tに基づく情報に基づき、対象物体との接触を回避するような、操舵システム、ブレーキシステム、駆動システム等の制御または運転者への操作案内等を実行する。
S112において、バウンディングボックス60と走行予想領域68とで重なる領域が存在しない場合(S112のNo)、現在の車両10の舵角に基づく走行において、接触する可能性のある対象物体は存在しないと見なし、S116に移行し、注目点Tが存在しないことを示す情報を出力部46cを介して、走行支援部32に出力して一連の物体検知処理を一旦終了する。
このように、実施形態の物体検知装置によれば、バウンディングボックス60により認識される対象物体の足元の位置、すなわち、対象物体に、より接近した位置の検出が可能となる。したがって、対象物体の位置を示す注目点Tの検知精度を、バウンディングボックス60のみを用いて対象物体の位置を検知していた場合より向上することができる。その結果、車両10に対する対象物体の位置、距離をより正確に把握可能になり、対象物体との接触回避をより確実に実施することができる。特に、車両10が対象物体に接近した場合の位置関係や距離の認識を、より正確に行うことが可能になり、信頼性および安全性が向上した制御を実現させることができる。
なお、上述した実施形態において、推定した注目点Tの情報を、操舵システム、ブレーキシステム、駆動システム等の制御や運転者への操作案内を実施するために利用する例をしましたが、他の制御、例えば、画像表示や警報出力等処理に利用してもよい。この場合も、注目点Tの検知精度の向上により、画像表示の精度や警報精度の向上に寄与できる。
図4、図5、図8に示す撮像画像50は、物体認識の流れを説明するための画像であり、表示装置16に表示する必要はないが、表示装置16に表示することにより、物体検知状況を運転者に提示可能となり、物体検知処理への信頼感、安心感を向上させることに寄与できる。また、本実施形態で説明した高精度の物体検知は、特に車両10が駐車支援や出庫支援等において、10が低速で走行して対象物体に接近する場合に有効である。したがって、例えば、車輪速センサ26から提供される車速に従い、所定速度以下(例えば、12km/h以下)の場合に本実施形態の物体検知処理を実行するようにしてもよい。逆に、所定速度を超える走行中の場合には、例えば、バウンディングボックス60のみを用いた簡易的な物体検知処理を行うようにしてもよい。
また、上述した実施形態では、前方画像または後方画像を用いて物体検知を行う例を示したが、右側方画像や左側方画像についても、同様の物体検知処理が可能であり、同様の効果を得ることができる。
本実施形態の物体検知部40(CPU24a)で実行される物体検知処理のための物体検知プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、物体検知プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される物体検知プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…車両、14,14a,14b,14c,14d…撮像部、24…ECU、24a…CPU、26…車輪速センサ、28…舵角センサ、30…シフトセンサ、32…走行支援部、40…物体検知部、42…画像取得部、44…設定部、44a…立体物境界線設定部、44b…バウンディングボックス設定部、44c…走行予想領域設定部、46…制御部、46a…部分境界線抽出部、46b…注目点推定部、46c…出力部、50…撮像画像、52…路面、58…立体物境界線、60…バウンディングボックス、62…部分境界線、100…制御システム、T…注目点。

Claims (4)

  1. 車両が存在する路面を含む周囲状況を撮像可能な撮像部で撮像された撮像画像を取得する取得部と、
    前記撮像画像に含まれる前記路面上で立体物が存在する領域として認識される物体領域と前記路面との境界を示す立体物境界線と、前記物体領域に含まれる前記立体物のうち予め定められた対象物体を選択するための矩形のバウンディングボックスと、を設定する設定部と、
    前記立体物境界線のうち前記バウンディングボックスに含まれる部分境界線を抽出するとともに、当該部分境界線上で前記車両と前記対象物体との接触を回避するために注目する注目点を推定して出力する制御部と、
    を備え
    前記制御部は、前記注目点に基づき、三次元空間における前記車両から前記対象物体までの距離を算出する、物体検知装置。
  2. 前記制御部は、前記部分境界線のうち前記バウンディングボックスの縦軸方向の最下位置を前記注目点とする、請求項1に記載の物体検知装置。
  3. 前記制御部は、前記部分境界線において、前記部分境界線の傾きの正負が切り替わる切替り位置が存在する場合、前記切替り位置を前記注目点とする、請求項1に記載の物体検知装置。
  4. 前記制御部は、前記車両の舵角に基づく進行方向を示す走行予想線で定まる走行予想領域と前記バウンディングボックスとに基づき、前記部分境界線を定めて、前記注目点の位置を推定する、請求項1から請求項3のいずれか1項に記載の物体検知装置。
JP2019178544A 2019-09-30 2019-09-30 物体検知装置 Active JP7395913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019178544A JP7395913B2 (ja) 2019-09-30 2019-09-30 物体検知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019178544A JP7395913B2 (ja) 2019-09-30 2019-09-30 物体検知装置

Publications (2)

Publication Number Publication Date
JP2021056717A JP2021056717A (ja) 2021-04-08
JP7395913B2 true JP7395913B2 (ja) 2023-12-12

Family

ID=75272716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178544A Active JP7395913B2 (ja) 2019-09-30 2019-09-30 物体検知装置

Country Status (1)

Country Link
JP (1) JP7395913B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023074948A (ja) * 2021-11-18 2023-05-30 オムロン株式会社 作業認識装置、作業認識方法、及び作業認識プログラム
CN114220291B (zh) * 2021-12-01 2023-08-01 阿维塔科技(重庆)有限公司 车库停车/取车定位方法、***、汽车及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260449A (ja) 2003-02-25 2004-09-16 Denso Corp 車両用後方確認支援装置
JP2007214806A (ja) 2006-02-08 2007-08-23 Sumitomo Electric Ind Ltd 障害物検出システム、及び障害物検出方法
JP2014211855A (ja) 2012-06-01 2014-11-13 株式会社リコー 対象物認識装置、対象物認識方法及び対象物認識用プログラム
JP2018142309A (ja) 2017-02-28 2018-09-13 三星電子株式会社Samsung Electronics Co.,Ltd. 仮想車路生成装置及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5083443B2 (ja) * 2001-03-28 2012-11-28 パナソニック株式会社 運転支援装置および方法、ならびに演算装置
JP4765213B2 (ja) * 2001-07-19 2011-09-07 日産自動車株式会社 車両用駐車支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260449A (ja) 2003-02-25 2004-09-16 Denso Corp 車両用後方確認支援装置
JP2007214806A (ja) 2006-02-08 2007-08-23 Sumitomo Electric Ind Ltd 障害物検出システム、及び障害物検出方法
JP2014211855A (ja) 2012-06-01 2014-11-13 株式会社リコー 対象物認識装置、対象物認識方法及び対象物認識用プログラム
JP2018142309A (ja) 2017-02-28 2018-09-13 三星電子株式会社Samsung Electronics Co.,Ltd. 仮想車路生成装置及び方法

Also Published As

Publication number Publication date
JP2021056717A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
JP6724425B2 (ja) 駐車支援装置
US10031227B2 (en) Parking assist system
US10179608B2 (en) Parking assist device
JP6281289B2 (ja) 周辺監視装置、及びプログラム
JP7351172B2 (ja) 駐車支援装置
JP2016084094A (ja) 駐車支援装置
JP6852534B2 (ja) 障害物検知報知装置、方法及びプログラム
JP6554866B2 (ja) 画像表示制御装置
JP7395913B2 (ja) 物体検知装置
US11301701B2 (en) Specific area detection device
JP2022023870A (ja) 表示制御装置
JP7003755B2 (ja) 駐車支援装置
JP7009785B2 (ja) 周辺監視装置
JP7427907B2 (ja) 駐車支援装置
JP2021062738A (ja) 駐車支援装置、駐車支援方法およびプログラム
JP6977318B2 (ja) 周辺表示装置
JP7400338B2 (ja) 駐車支援装置
JP7329409B2 (ja) 駐車支援装置、駐車支援方法、およびプログラム
JP2022055774A (ja) 駐車支援システム、駐車支援装置、駐車支援方法、及びプログラム
JP7114919B2 (ja) 走行支援装置
JP7380058B2 (ja) 駐車支援装置
JP7383973B2 (ja) 駐車支援装置
JP7454177B2 (ja) 周辺監視装置、およびプログラム
JP2019022110A (ja) 表示制御装置
JP6730885B2 (ja) 出庫支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7395913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150