JP7027279B2 - 車両制御装置、車両制御方法、およびプログラム - Google Patents

車両制御装置、車両制御方法、およびプログラム Download PDF

Info

Publication number
JP7027279B2
JP7027279B2 JP2018148551A JP2018148551A JP7027279B2 JP 7027279 B2 JP7027279 B2 JP 7027279B2 JP 2018148551 A JP2018148551 A JP 2018148551A JP 2018148551 A JP2018148551 A JP 2018148551A JP 7027279 B2 JP7027279 B2 JP 7027279B2
Authority
JP
Japan
Prior art keywords
output
recognition result
vehicle
object information
integrated recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018148551A
Other languages
English (en)
Other versions
JP2020024562A (ja
Inventor
真里奈 齊京
弘 三浦
賢人 ▲高▼岡
相和 三井
涼 樫本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018148551A priority Critical patent/JP7027279B2/ja
Priority to CN201910715385.2A priority patent/CN110816524B/zh
Publication of JP2020024562A publication Critical patent/JP2020024562A/ja
Application granted granted Critical
Publication of JP7027279B2 publication Critical patent/JP7027279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識装置、車両制御装置、物体認識方法、およびプログラムに関する。
従来、複数のデバイスによる出力を統合して物体を認識する技術について開示がなされている(例えば、特許文献1参照)。このような技術は、センサフュージョンと称されている。一般に、センサフュージョンによって物体が認識された場合、デバイス単体の出力に基づいて物体が認識された場合に比して、認識の信頼度が高いと言える。このため、特許文献1に記載の技術では、デバイス単体で物体が認識された場合、センサフュージョンにより物体が認識された場合に比して、車両制御の度合いを低くしている。
特開2005-239114号公報
センサフュージョンにより物体を認識する場合、信頼度が高いことの反面、デバイス単体の出力に基づいて物体を認識する場合に比して、処理の完了が遅くなることが想定される。このため、例えば、車両から遠距離にある物体に対して予備的な制御をしようとしても、センサフュージョンによる処理が確定しないため、これを行うことができない場合があった。このように、従来のセンサフュージョンの技術では、物体の認識が遅れる場合があった。
本発明は、このような事情を考慮してなされたものであり、より迅速に速報的なセンサフュージョン結果を得ることができる物体認識装置、車両制御装置、物体認識方法、およびプログラムを提供することを目的の一つとする。
この発明に係る物体認識装置、車両制御装置、物体認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る物体認識装置は、車両に搭載される物体認識装置であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、を備える物体認識装置である。
(2):上記(1)の態様において、前記処理Aは、前記処理Bに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であるものである。
(3):上記(2)の態様において、前記第1デバイスはカメラであり、前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含むものである。
(4):上記(1)の態様において、前記処理Aは、前記処理Bに比して、少ない処理手順で実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理であるものである。
(5):上記(4)の態様において、前記第2デバイスはLIDARであり、前記処理Cは、基準位置と物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含むものである。
(6):上記(5)の態様において、前記処理Dは、前記距離および物体のサイズを特定し、特定した距離およびサイズを前記物体情報に含めて出力する処理を含むものである。
(7):本発明の他の態様は、上記(1)から(6)のうちいずれかの態様の物体認識装置と、車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、車両制御装置である。
(8):上記(7)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、制御程度を小さくするものである。
(9):上記(7)または(8)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、前記物体との位置関係に対する相対的な制御程度を小さくするものである。
(10):本発明の他の態様は、車両に搭載される物体認識装置により実行される物体認識方法であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識することと、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識することと、を備える物体認識方法である。
(11):本発明の他の態様は、車両に搭載される物体認識装置のプロセッサにより実行されるプログラムであって、前記プロセッサに、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識させ、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識させる、プログラムである。
(1)~(11)によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。
物体認識装置300を利用した第1実施形態の車両システム1の構成図である。 物体認識装置300の構成図である。 車両システム1が実行する処理によって生じる自車両Mの走行場面を例示した図である。 第1処理部310により実行される処理の流れの一例を示すフローチャートである。 第2処理部320により実行される処理の流れの一例を示すフローチャートである。 第1統合認識部330により実行される処理の流れの一例を示すフローチャートである。 第2統合認識部340により実行される処理の流れの一例を示すフローチャートである。 距離と検知精度との関係の一例を示す図である。 距離と検知精度との関係の一例を示す図である。 実施形態による距離と検知精度との関係の一例を示す図である。 物体認識装置300を利用した第2実施形態の車両システム2の構成図である。
以下、図面を参照し、本発明の物体認識装置、車両制御装置、物体認識方法、およびプログラムの実施形態について説明する。
<第1実施形態>
[車両の全体構成]
図1は、物体認識装置300を利用した第1実施形態の車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置300と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ10とファインダ14は、それぞれ第1デバイス、第2デバイスの一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。ファインダ14は、例えば、水平方向に角度をずらしながら光を照射して散乱光を測定する。そして、ファインダ14は、散乱光を発した反射点の情報を、その時点の照射角度と対応付けて物体認識装置300に出力する。
物体認識装置300は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置300は、認識結果を自動運転制御装置100に出力する。また、物体認識装置300は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。物体認識装置300の詳細については後述する。
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。物体認識装置300と自動運転制御装置100を合わせたものは、車両制御装置の一例である。なお、物体認識装置300が自動運転制御装置100の一機能であってもよい。
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、走行軌跡予測部140と、行動計画生成部150とを備える。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置300を介して入力される情報に基づいて、自車両Mの周辺状況を認識する。認識部により認識される周辺状況には、種々の物体が含まれる。物体の位置は、例えば、まず自車両Mの代表点(センサ位置や重心、駆動軸中心など)を原点とした絶対座標上の位置として認識され、必要に応じて道路に沿った道路座標上の位置に変換されて制御に使用される。本実施形態において、認識部130は、物体に関する情報(物体情報)を専ら物体認識装置300から取得するものとする。
認識部130により認識される周辺状況は、道路構造や他車両の他、自車両Mと走行車線との相対位置や姿勢、自転車や歩行者の状態、一時停止線、障害物、赤信号、料金所などの道路事象、その他の情報を含んでよい。認識部130による認識結果は、走行軌跡予測部140と行動計画生成部150とに出力される。
行動計画生成部150は、原則的には推奨車線決定部61により決定された推奨車線を走行し、その上で、物体認識装置300または認識部130により認識された物体に接触しないように、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、複数の軌道点と、速度要素とを含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
第2制御部160は、行動計画生成部150によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、行動計画生成部150により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させ、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。また、第2制御部160は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。このように、行動計画生成部150が、速度要素が付随した目標軌道を決定することで、自車両Mの加減速と操舵の双方が制御されることになる。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
[物体認識装置、およびこれと関連する制御]
図2は、物体認識装置300の構成図である。物体認識装置300は、例えば、第1処理部310と、第2処理部320と、第1統合認識部330と、第2統合認識部340とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。
第1処理部310は、例えば、カメラ10により撮像された画像を解析し、物体情報を生成して出力する。すなわち、第1処理部310は、いわゆる画像解析部として機能する。第1処理部310は、画像内で輪郭を抽出してパターンマッチングを行うことで物体情報を生成してもよいし、ディープラーニング等で学習された分類器を用いて物体情報を生成してもよい。第1処理部310が行う処理には、少なくとも、処理Aと、処理Aよりも工数が多い処理Bとが含まれる。
処理Aは、例えば、kフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出し(取得し)、導出した内容を物体情報として出力する処理である。例えば、kは1である。
処理Bは、例えば、nフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出する(取得する)処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。例えば、nは2以上の自然数である。k<nの関係が成立するのであれば、kとnは任意の自然数であってよい。オブジェクト化とは、複数フレームに基づく処理によって導出される物体の距離や速度に基づいて、物体の種別(四輪車両、二輪車、自転車、歩行者、落下物など)を推定し、推定結果を物体の距離、高さ、およびサイズ等に対応付ける処理である。物体の速度に関しては、相対速度から自車両Mの速度を差し引いて求める必要があるが、物体認識装置300は、例えば自動運転制御装置100から自車両Mの速度を取得し、取得した情報を演算に用いる。処理Bは、カルマンフィルタなどによる近似処理を含んでもよい。
第2処理部320は、例えば、ファインダ14により出力された検出結果を加工し、加工した情報に基づいて物体情報を生成して出力する。第2処理部320が行う処理には、少なくとも、処理Cと、処理Cよりも工数が多い処理Dとが含まれる。
処理Cは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)を取得し、物体情報として出力する処理である。
処理Dは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)とサイズを取得する処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。前述したように、ファインダ14は光の照射方向を変えながら動作するように制御されているため、例えば、同程度の距離にある反射点が照射角度θ1~θ2の間に並んでいる場合、その距離に角度差の絶対値|θ2-θ1|を乗算することで、近似的に物体の横方向のサイズを得ることができる。処理Dは、そのような処理を含む。処理Dは、カルマンフィルタなどによる近似処理を含んでもよい。オブジェクト化については処理Bと同様である。
処理Aの結果である物体情報(以下、物体情報A)と、処理Cの結果である物体情報(以下、物体情報C)は、第1統合認識部330に出力される。「出力」とは便宜的な表現であり、出力元から出力先への物理的な「送信」を伴う動作を指すものであってもよいし、出力先がアクセス可能なメモリの領域に書き込む動作を指すものであってもよい。
第1統合認識部330は、物体情報Aと物体情報Cとに基づいて、物体を認識する。第1統合認識部330による認識結果(第1統合認識結果)は、速報的な情報として自動運転制御装置100に出力される。第1統合認識部330は、物体情報Aに含まれる物体との距離と、物体情報Cに含まれる物体との距離の差が所定範囲内である場合に、それらの距離に物体が存在すると認識する。すなわち、第1処理部310によって、カメラ10からの1フレーム分の画像における所定距離X1の位置に何らかの物体が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X1に近い位置に物体が存在することを示唆している場合、第1統合認識部330は、所定距離X1の位置に物体が存在することを示す第1統合認識結果を生成して自動運転制御装置100に出力する。
処理Bの結果である物体情報(以下、物体情報B)と、処理Dの結果である物体情報(以下、物体情報D)は、第2統合認識部340に出力される。
第2統合認識部340は、物体情報Bと物体情報Dとに基づいて、物体を認識する。第2統合認識部340による認識結果(第2統合認識結果)は、第1統合認識部330の認識結果よりも信頼度の高い情報として自動運転制御装置100に出力される。第2統合認識部340は、物体Bと物体Dの双方に含まれるオブジェクト化された情報が許容範囲内で合致し、且つ物体の種別が一致する場合に、物体Bと物体Dの一致部分によって示される位置に、推定された種別の物体が存在すると認識し、認識結果を自動運転制御部100に出力する。例えば、第1処理部310によって、カメラ10からの複数フレーム分の画像における所定距離X2の位置に「車両」が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X2に近い位置に「車両」が存在することを示唆している場合(例えば、物体情報に含まれる物体のサイズが、車両の横方向のサイズに合致し、且つその物体が徒歩では困難な速度で移動している場合)、第2統合認識部340は、所定距離X2の位置に「車両」が存在することを示す第2統合認識結果を生成して自動運転制御装置100に出力する。
自動運転制御装置100では、例えば、行動計画生成部150が、第1統合認識結果と第2統合認識結果とのそれぞれに基づいて、各認識結果が示す物体に接触しないように、自車両Mが将来走行する目標軌道を生成して車両制御を行う(物体との位置関係を調節する)。
このとき、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第1統合認識結果を用いて物体との位置関係を調節する制御を行い、第2統合認識結果が得られた後は、第2統合認識結果の比率を第1統合認識結果よりも高くして物体との位置関係を調節する制御を行う。「比率を高くする」とは、第2統合認識結果の比率を100%、第1統合認識結果の比率を0%にすることを含む。
行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。「制御程度を小さくする」とは、走行駆動力出力装置200、ブレーキ装置210、またはステアリング装置220に与える制御の度合いを小さくすることである。行動計画生成部150は、制御の度合いを小さくする場合、ブレーキトルクや加速トルク、ステアリング操舵角の変化量などの制御量が小さくなるように目標軌道を生成してもよいし、制御の結果として現れる加速度や減速度、旋回角などの車両挙動が小さくなるように目標軌道を生成してもよい。
上記の制御程度を小さくすることは、物体との位置関係に依存しない絶対的な指針であってもよいし、物体との位置関係に依存する相対的な指針であってもよい。前者の場合、例えば、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクの上限を、第2統合認識結果が得られた後のブレーキトルクの上限よりも小さくすることで、制御程度を小さくすることが実現される。後者の場合、例えば物体と自車両MとのTTC(Time To Collision)に逆比例する傾向でブレーキトルクを決定する際に、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクを計算するためのゲインを、第2統合認識結果が得られた後に比して小さくしてもよい。また、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。
図3は、車両システム1が実行する処理によって生じる自車両Mの走行場面を例示した図である。図中、矢印Dは自車両Mの進行方向を表す。自車両Mの進行方向に関する前方には、障害物OBが存在する。デバイスの性能等によって実際の距離が変動するため、数値はあくまで一例であるが、例えば、障害物OBまで200[m]の地点で第1統合認識結果のみが得られ始める。これに応じて行動計画生成部150は、前述した予備制動などの制御を行う。また、例えば、障害物OBまで150[m]の地点で第2統合認識結果が得られ始める。これに応じて行動計画生成部150は、自車両Mと障害物OBとのTTCに応じた制動制御を行い、必要に応じて(例えば操舵による回避が不可であれば)自車両Mを停止させる。
[処理フロー]
図4は、第1処理部310により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、カメラ10から1フレーム分の画像が入力される度に1ルーチンが実行される。
まず、第1処理部310は、カメラ10から入力された画像において処理対象とする対象領域を抽出する処理を行う(ステップS100)。対象領域は、画像の左右端部や上部を除いた領域であり、自車両Mの前方を撮像した領域である。
次に、第1処理部310は、対象領域において物体抽出処理を行う(ステップS102)。本ステップの処理の詳細は前述した通りである。そして、第1処理部310は、画像において物体を検知した(抽出した)か否かを判定する(ステップS104)。なお、ここでの物体は、例えば「画像において何ピクセル以上を占める」といった条件を満たすものに絞り込まれてよい。物体を検知しなかった場合、本フローチャートの1ルーチンの処理が終了する。
物体を検知した場合、第1処理部310は、前述した物体情報Aを生成して第1統合認識部330に出力する(ステップS106)。また、第1処理部310は、過去の直近のフレームと比較して、ステップS104で検知したと判定した物体と、過去に検知された物体との同定処理を行う(ステップS108)。この際に、第1処理部310は、物体の絶対速度やサイズを考慮して同定処理を行う。
次に、第1処理部310は、ステップS108の処理結果を参照し、本フローチャートの処理が繰り返し実行される中で、同一の(と推定される)物体をm回連続で検知したか否かを判定する(ステップS110)。同一の物体をm回連続で検知したと判定した場合、第1処理部310は、物体情報Bを生成して第2統合認識部340に出力する(ステップS112)。
図5は、第2処理部320により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、ファインダ14から反射点の情報が入力される度に1ルーチンが実行される。
まず、第2処理部320は、ファインダ14から入力された情報に対して領域限定処理を行う(ステップS200)。領域限定処理とは、路面上の領域以外で測定された反射点を除く処理である。
次に、第2処理部320は、路上に反射点があったか否かを判定する(ステップS202)。路上に反射点があったと判定した場合、第2処理部320は、物体情報Cを生成して第1統合認識部330に出力する(ステップS204)。
また、第2処理部320は、略同一の距離にある反射点を端から端まで検知したか否かを判定する(ステップS206)。略同一の距離にある反射点を端から端まで検知した場合、第2処理部320は、物体情報Dを生成して第2統合認識部340に出力する(ステップS208)。
図6は、第1統合認識部330により実行される処理の流れの一例を示すフローチャートである。まず、第1統合認識部330は、物体情報Aと物体情報Cが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS300)。物体情報Aと物体情報Cが同期して入力された場合、第1統合認識部330は、両者が合致するか否かを判定する(ステップS302)。合致するとは、例えば、両者の項目のうち所定数以上が、許容範囲内の差異に収まっていることをいう、両者が合致する場合、第1統合認識部330は、第1統合認識情報を生成し(ステップS304)、自動運転制御装置100に出力する。
図7は、第2統合認識部340により実行される処理の流れの一例を示すフローチャートである。まず、第2統合認識部340は、物体情報Bと物体情報Dが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS400)。物体情報Bと物体情報Dが同期して入力された場合、第2統合認識部340は、両者が合致するか否かを判定する(ステップS402)。両者が合致する場合、第2統合認識部340は、第2統合認識情報を生成し(ステップS404)、自動運転制御装置100に出力する。
[まとめ]
以上説明した第1実施形態の物体認識装置300によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。図8~10は、距離と検知精度との関係の一例を示す図である。これらの図は、道路上に10cm立方の障害物と、15cm立法の障害物とを置いた前提で、自車両Mと障害物との距離に応じた検知率を想定したものである。
図8は、カメラ10の出力に基づいて、第1処理部310がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Bを生成した」ことをいう。また、図9は、ファインダ14の出力に基づいて、第2処理部320がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Dを生成した」ことをいう。図8に示すように、特に10cm立方の障害物に関しては、距離が160m程度まで近づかないと、検知率が80%以上とならないことが想定される。また、図9に示すように、特に10cm立方の障害物に関しては、距離が180m程度まで近づかないと、そもそも物体情報Dが生成されないことが想定される。
そして、物体情報Bと物体情報Dのアンドを求めることで生成される第2統合認識情報は、図8または図9に示す検知率の立ち上がりよりも更に遅れて立ち上がることになる。この結果、特に障害物との距離が150m以上の場合に、十分な情報を自動運転制御装置100に与えることができないことが予想される。
これに対し、図10は、実施形態による期待性能を示している。図10は、図8または図9よりも早いタイミングで生成開始される物体情報Aおよび物体情報Cに基づいて、第1統合認識部330により第1統合認識情報が生成される確率(生成率)の推移を示している。図示するように、本実施形態による第1統合認識情報の生成率は、距離が190m程度まで近づくと十分に100%に近づくことが期待される。このため、障害物との接近場面において、より早いタイミングで速報的なフュージョン結果を取得し、自動運転制御装置100に提供することができる。
なお、第1デバイス、第2デバイスの一例としてカメラ10とファインダ14を例示したが、これらのうち一方または双方は、レーダ装置12或いは他の物体認識デバイスであってもよい。
<第2実施形態>
以下、第2実施形態について説明する。図11は、物体認識装置300を利用した第2実施形態の車両システム2の構成図である。第1実施形態と共通する構成要素については、第1実施形態と共通する符号を付し、詳細な説明を省略する。第2実施形態において、物体認識装置300は、自動運転制御装置100に代えて、運転支援装置400に認識結果(第1統合認識結果、および第2統合認識結果)を出力する。
運転支援装置400は、運転者による手動運転がなされている場合に、加減速や操舵の介入制御や、運転操作子80への反力出力などの、各種の運転支援制御を行う装置である。以下の説明では、運転支援装置400は、対障害物制動制御を行うものとする。運転支援装置400は、例えば、衝突可能性判定部402と、ブレーキ操作量導出部404と、ブレーキ量決定部406とを備える。これらの機能部は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。
衝突可能性判定部402は、物体認識装置300の認識結果を参照し、自車両と物体との衝突可能性を判定する。例えば、衝突可能性判定部402は、自車両と物体との間のTTCを計算し、TTCが衝突判定閾値Tcolよりも小さい場合に、自車両と物体との衝突可能性があると判定する。
ブレーキ操作量導出部404は、運転操作子80に含まれるブレーキ踏量センサの検出結果を参照し、自車両の乗員によりなされたブレーキ操作量(或いはその結果として出力されるブレーキ量)を導出する。
ブレーキ量決定部406は、まず、衝突可能性判定部402による判定結果、およびその処理の過程に基づいて、物体の存在に基づくブレーキ量(対物体ブレーキ量)を決定し、ブレーキ装置210に出力する。対物体ブレーキ量は、例えば、自車両と物体との間のTTCが小さい程大きくなるように決定される。なお、対物体ブレーキ量をブレーキ操作量導出部404により導出されたブレーキ操作量に基づくブレーキ量が上回る場合、ブレーキ量決定部406は、後者のブレーキ量をブレーキ装置220に出力してもよい。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。
以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏することができる。
上記実施形態は、以下のように表現することができる。
車両に搭載される物体認識装置であって、
プログラムを記憶した記憶装置と、
前記プログラムを実行可能なハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力し、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力し、
前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識し、
前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する、
ように構成されている物体認識装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
10 カメラ
12 レーダ装置
14 ファインダ
80 運転操作子
100 自動運転制御装置
300 物体認識装置
310 第1処理部
320 第2処理部
330 第1統合認識部
340 第2統合認識部
400 運転支援装置

Claims (10)

  1. 車両に搭載される車両制御装置であって、
    物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、
    物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、
    前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、
    前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、
    車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、
    前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、
    車両制御装置
  2. 前記処理Aは、前記処理Bに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であり、
    且つ/または、
    前記処理Cは、前記処理Dに比して、前記第2デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理である、
    請求項1記載の車両制御装置
  3. 前記第1デバイスはカメラであり、
    前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含む、
    請求項2記載の車両制御装置
  4. 前記処理Aは、前記処理Bに比して、少ない処理手順で実行される処理であり、
    且つ/または、
    前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理である、
    請求項1記載の車両制御装置
  5. 前記第2デバイスはLIDARであり、
    前記処理Cは、前記LIDARと物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含む、
    請求項4記載の車両制御装置
  6. 前記処理Dは、前記距離および物体のサイズを特定し、特定した距離およびサイズを前記物体情報に含めて出力する処理を含む、
    請求項5記載の車両制御装置
  7. 前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、制御程度を小さくする、
    請求項1から6のうちいずれか1項記載の車両制御装置。
  8. 前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、前記物体との位置関係に対する相対的な制御程度を小さくする、
    請求項1から7のうちいずれか1項記載の車両制御装置。
  9. 車両に搭載される車両制御装置により実行される車両制御方法であって、
    物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、
    物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、
    前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力することと、
    前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力することと、
    車両の速度と操舵角とのうち一方または双方を制御することと、を備え、
    前記制御することは、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行うことを含む、
    車両制御方法
  10. 車両に搭載される車両制御装置のプロセッサにより実行されるプログラムであって、
    前記プロセッサに、
    物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、
    物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、
    前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力させ、
    前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力させ、
    車両の速度と操舵角とのうち一方または双方を制御させ、
    前記制御させることは、前記プロセッサに、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行わせ、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行わせることを含む、
    プログラム。
JP2018148551A 2018-08-07 2018-08-07 車両制御装置、車両制御方法、およびプログラム Active JP7027279B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018148551A JP7027279B2 (ja) 2018-08-07 2018-08-07 車両制御装置、車両制御方法、およびプログラム
CN201910715385.2A CN110816524B (zh) 2018-08-07 2019-08-02 车辆控制装置、车辆控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018148551A JP7027279B2 (ja) 2018-08-07 2018-08-07 車両制御装置、車両制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020024562A JP2020024562A (ja) 2020-02-13
JP7027279B2 true JP7027279B2 (ja) 2022-03-01

Family

ID=69547726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148551A Active JP7027279B2 (ja) 2018-08-07 2018-08-07 車両制御装置、車両制御方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP7027279B2 (ja)
CN (1) CN110816524B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112512887B (zh) * 2020-07-21 2021-11-30 华为技术有限公司 一种行驶决策选择方法以及装置
JP7385774B2 (ja) 2020-12-28 2023-11-22 日立Astemo株式会社 車両制御システム、外界認識装置、および、車両制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008308024A (ja) 2007-06-14 2008-12-25 Toyota Motor Corp 衝突軽減装置
JP2013114606A (ja) 2011-11-30 2013-06-10 Hitachi Automotive Systems Ltd 物体検知装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5870908B2 (ja) * 2012-12-11 2016-03-01 株式会社デンソー 車両の衝突判定装置
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
JP6761967B2 (ja) * 2015-04-21 2020-09-30 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
US10160448B2 (en) * 2016-11-08 2018-12-25 Ford Global Technologies, Llc Object tracking using sensor fusion within a probabilistic framework

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008308024A (ja) 2007-06-14 2008-12-25 Toyota Motor Corp 衝突軽減装置
JP2013114606A (ja) 2011-11-30 2013-06-10 Hitachi Automotive Systems Ltd 物体検知装置

Also Published As

Publication number Publication date
JP2020024562A (ja) 2020-02-13
CN110816524A (zh) 2020-02-21
CN110816524B (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
CN108688681B (zh) 车辆控制***、车辆控制方法及存储车辆控制程序的介质
CN111771234B (zh) 车辆控制***、车辆控制方法及存储介质
CN111201170B (zh) 车辆控制装置及车辆控制方法
JPWO2018216194A1 (ja) 車両制御システムおよび車両制御方法
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
CN111511621B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7071250B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7112374B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20200156645A1 (en) Vehicle control device, vehicle control method, and storage medium
CN109987082B (zh) 车辆控制装置、车辆控制方法和存储介质
CN112462751A (zh) 车辆控制装置、车辆控制方法及存储介质
US20220234599A1 (en) Vehicle control apparatus
JP7027279B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US20220080967A1 (en) Vehicle control device, vehicle control method, and non-transitory computer readable storage medium
JP7225185B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6994982B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP6796047B2 (ja) 車両制御装置、車両制御方法、及びプログラム
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
CN116513194A (zh) 移动体控制装置、移动体控制方法及存储介质
JP7028838B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
JP7012693B2 (ja) 情報処理装置、車両システム、情報処理方法、およびプログラム
CN113479204A (zh) 车辆控制装置、车辆控制方法及存储介质
JP2022088857A (ja) 車両制御装置、車両制御方法、およびプログラム
CN113511220B (zh) 车辆控制装置、车辆控制方法及存储介质
CN111717201B (zh) 车辆***、车辆***的控制方法及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150