JP2021160530A - 車両制御装置、車両制御方法、及びプログラム - Google Patents

車両制御装置、車両制御方法、及びプログラム Download PDF

Info

Publication number
JP2021160530A
JP2021160530A JP2020063501A JP2020063501A JP2021160530A JP 2021160530 A JP2021160530 A JP 2021160530A JP 2020063501 A JP2020063501 A JP 2020063501A JP 2020063501 A JP2020063501 A JP 2020063501A JP 2021160530 A JP2021160530 A JP 2021160530A
Authority
JP
Japan
Prior art keywords
vehicle
model
region
risk
target trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020063501A
Other languages
English (en)
Other versions
JP7440324B2 (ja
Inventor
裕司 安井
Yuji Yasui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020063501A priority Critical patent/JP7440324B2/ja
Priority to US17/211,878 priority patent/US20210300348A1/en
Priority to CN202110337193.XA priority patent/CN113460081B/zh
Publication of JP2021160530A publication Critical patent/JP2021160530A/ja
Application granted granted Critical
Publication of JP7440324B2 publication Critical patent/JP7440324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0095Automatic control mode change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】周囲の状況に適合した目標軌道を生成することにより、車両の運転をスムーズに制御すること。
【解決手段】実施形態の車両制御装置は、車両の周辺に存在する物体を認識する認識部と、前記物体の周囲に分布するリスクの領域を算出する算出部と、前記領域に基づいて、前記車両が走行すべき目標軌道を生成する生成部と、前記目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を自動的に制御する運転制御部と、を備え、前記生成部は、前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出部によって算出された前記領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、前記算出部は、前記生成部によって選択されたモデルの種類に応じて、前記領域の範囲を変更する。
【選択図】図2

Description

本発明は、車両制御装置、車両制御方法、及びプログラムに関する。
車両が将来走行すべき目標軌道を生成する技術が知られている(例えば、特許文献1参照)。
特開2019−108124号公報
しかしながら、従来の技術では、車両がスタックしてしまうような周辺の状況に適合しない目標軌道が生成される場合があった。この結果、車両の運転をスムーズに制御できない場合があった。
本発明の一態様は、このような事情を考慮してなされたものであり、周辺の状況に適合した目標軌道を生成することにより、車両の運転をスムーズに制御することができる車両制御装置、車両制御方法、及びプログラムを提供することを目的の一つとする。
本発明に係る車両制御装置、車両制御方法、及びプログラムは以下の構成を採用した。
本発明の第1の態様は、車両の周辺に存在する物体を認識する認識部と、前記認識部によって認識された前記物体の周囲に分布するリスクの領域を算出する算出部と、前記算出部によって算出された前記領域に基づいて、前記車両が走行すべき目標軌道を生成する生成部と、前記生成部によって生成された前記目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を自動的に制御する運転制御部と、を備え、前記生成部が、前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出部によって算出された前記領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、前記算出部が、前記生成部によって選択されたモデルの種類に応じて、前記領域の範囲を変更する車両制御装置である。
第2の態様は、第1の態様において、前記複数のモデルには、ルールベース又はモデルベースである少なくとも一つの第1モデルと、機械学習ベースである少なくとも一つの第2モデルとが含まれるものである。
第3の態様は、第2の態様において、前記算出部が、前記生成部によって選択されたモデルが前記第1モデルである場合、前記生成部によって選択されたモデルが前記第2モデルである場合と比べて、前記領域の範囲を広くするものである。
第4の態様は、第3の態様において、前記生成部が、前記車両が走行する道路の種類に応じて、前記複数のモデルの中からいずれか一つのモデルを選択するものである。
第5の態様は、第4の態様において、前記生成部が、前記車両が高速道路を走行する場合、前記第1モデルを選択し、前記車両が高速道路よりも周囲の状況が複雑な他の道路を走行する場合、前記第2モデルを選択するものである。
第6の態様は、第3の態様又は第4の態様において、前記生成部が、前記運転制御部によって前記車両の速度又は操舵のうち少なくとも一方が自動的に制御される際の自動化のレベルに応じて、前記複数のモデルの中からいずれか一つのモデルを選択するものである。
第7の態様は、第6の態様において、前記生成部が、前記レベルが基準値以上である場合、前記第1モデルを選択し、前記レベルが基準値未満である場合、前記第2モデルを選択するものである。
第8の態様は、第1の態様から第7の態様のいずれかにおいて、前記生成部が、前記複数のモデルの其々に前記領域を入力し、前記領域を入力した前記複数のモデルの其々の出力結果に基づいて複数の目標軌道を生成し、前記生成した複数の目標軌道の中から、人間が前記車両又は他車両を運転したときの軌道に最も近い前記目標軌道を選択し、前記運転制御部が、前記生成部によって選択された前記目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御するものである。
第9の態様は、第1の態様から第8の態様のいずれかにおいて、前記領域は、複数のメッシュによって区画された領域であり、前記複数のメッシュの其々には、前記車両又は前記物体の少なくとも一方の状態を基に算出された前記リスクのポテンシャルが対応付けられており、前記複数のメッシュの其々に対応付けられた前記ポテンシャルは、前記領域に含まれる全てのメッシュのポテンシャルに基づいて正規化されており、前記生成部が、前記正規化されたポテンシャルが閾値よりも低い前記メッシュを通る軌道を、前記目標軌道として生成するものである。
第10の態様は、車両に搭載されたコンピュータが、前記車両の周辺に存在する物体を認識し、前記認識した物体の周囲に分布するリスクの領域を算出し、前記算出した領域に基づいて、前記車両が走行すべき目標軌道を生成し、前記生成した目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御し、前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出した領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、前記選択したモデルの種類に応じて、前記領域の範囲を変更する車両制御方法である。
第11の態様は、車両に搭載されたコンピュータに、前記車両の周辺に存在する物体を認識すること、前記認識した物体の周囲に分布するリスクの領域を算出すること、前記算出した領域に基づいて、前記車両が走行すべき目標軌道を生成すること、前記生成した目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御すること、前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出した領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成すること、前記選択したモデルの種類に応じて、前記領域の範囲を変更すること、を実行させるためのプログラムである。
上記のいずれかの態様によれば、周辺の状況に適合した目標軌道を生成することにより、車両の運転をスムーズに制御することができる。
第1実施形態に係る車両制御装置を利用した車両システムの構成図である。 第1実施形態に係る第1制御部、第2制御部、第3制御部、及び記憶部の機能構成図である。 リスク領域を説明するための図である。 ある座標x1におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標x2におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標x3におけるY方向のリスクポテンシャルの変化を表す図である。 ある座標y4におけるX方向のリスクポテンシャルの変化を表す図である。 リスクポテンシャルが決定されたリスク領域を表す図である。 目標軌道の生成方法を模式的に表す図である。 モデルが出力した目標軌道の一例を表す図である。 第1実施形態に係る自動運転制御装置による一連の処理の流れの一例を示すフローチャートである。 交通状況が複雑な場面の一例を表す図である。 図12における座標x4のリスクポテンシャルの変化を表す図である。 図12に例示する場面においてモデルが出力する目標軌道の一例を表す図である。 交通状況が複雑な場面の他の例を表す図である。 図15における座標x4のリスクポテンシャルの変化を表す図である。 図15に例示する場面においてモデルが出力する目標軌道の一例を表す図である。 第2実施形態に係る自動運転制御装置による一連の処理の流れの一例を示すフローチャートである。 実施形態の自動運転制御装置のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御装置、車両制御方法、及びプログラムの実施形態について説明する。実施形態の車両制御装置は、例えば、自動運転車両に適用される。自動運転とは、例えば、車両の速度または操舵のうち、一方または双方を制御して車両の運転を制御することである。上述した車両の運転制御には、例えば、ACC(Adaptive Cruise Control System)やTJP(Traffic Jam Pilot)、ALC(Auto Lane Changing)、CMBS(Collision Mitigation Brake System)、LKAS(Lane Keeping Assistance System)といった種々の運転制御が含まれる。自動運転車両は、乗員(運転者)の手動運転によって運転が制御されてもよい。
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、車内カメラ90と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。自動運転制御装置100は、「車両制御装置」の一例である。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、自車両Mの任意の箇所に取り付けられる。例えば、自車両Mの前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。また、自車両Mの後方を撮像する場合、カメラ10は、リアウィンドシールド上部等に取り付けられる。また、自車両Mの右側方または左側方を撮像する場合、カメラ10は、車体やドアミラーの右側面または左側面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
LIDAR14は、自車両Mの周辺に光を照射し、その照射した光の散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザ光であってよい。LIDAR14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。この場合、車両システム1から物体認識装置16が省略されてもよい。
通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信したり、或いは無線基地局を介して各種サーバ装置と通信したりする。
HMI30は、自車両Mの乗員(運転者を含む)に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、例えば、ディスプレイ、スピーカ、ブザー、タッチパネル、マイクロフォン、スイッチ、キー等を備えてもよい。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。
GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。
ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。例えば、乗員は、HMI30に対して、自車両Mの目的地を入力することに代えて、或いは加えて、ナビHMI52に対して、自車両Mの目的地を入力してもよい。
経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、HM30やナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。
第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。
ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
例えば、ステアリングホイールに取り付けられたセンサ(以下、ステアリングセンサ)は、ステアリングホイールに乗員が触れることで発生した微弱な電流を検出する。また、ステアリングセンサは、ステアリングホイールの回転軸(シャフト)回りに生じた操舵トルクを検出してもよい。ステアリングセンサは、電流や操舵トルクを検出すると、その検出結果を示す信号を自動運転制御装置100に出力する。
車内カメラ90は、自車両Mの車室内を撮像するカメラである。車内カメラ90は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車内カメラ90は、自車両Mの車室内を撮像すると、画像データを自動運転制御装置100に出力する。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、第3制御部170と、記憶部180とを備える。第1制御部120、第2制御部160、及び第3制御部170のそれぞれは、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
記憶部180は、上記の各種記憶装置により実現される。記憶部180は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部180には、例えば、プロセッサによって読み出されて実行されるプログラムに加えて、ルールベースモデルデータ182やDNN(Deep Neural Network(s))モデルデータ184などが格納される。ルールベースモデルデータ182やDNNモデルデータ184の詳細については後述する。
図2は、第1実施形態に係る第1制御部120、第2制御部160、第3制御部170、及び記憶部180の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。
第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、自車両Mの周辺の状況或いは環境を認識する。例えば、認識部130は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺に存在する物体を認識する。認識部130により認識される物体は、例えば、自転車、オートバイク、四輪自動車、歩行者、道路標識、道路標示、区画線、電柱、ガードレール、落下物などを含む。また、認識部130は、物体の位置や、速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした相対座標上の位置(すなわち自車両Mに対する相対位置)として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」には、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)が含まれてもよい。
また、認識部130は、例えば、自車両Mが走行している車線(以下、自車線)や、その自車線に隣接した隣接車線などを認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、自車線や隣接車線などを認識する。
また、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレール等を含む走路境界(道路境界)を認識することで、自車線や隣接車線といった車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識してよい。
認識部130は、自車線を認識する際に、自車線に対する自車両Mの相対位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、自車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、自車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、自車線に対する自車両Mの相対位置として認識してもよい。
行動計画生成部140は、例えば、イベント決定部142と、リスク領域算出部144と、目標軌道生成部146とを備える。
イベント決定部142は、推奨車線が決定された経路において自車両Mが自動運転下にある場合、その自動運転の走行態様を決定する。以下、自動運転の走行態様を規定した情報をイベントと称して説明する。
イベントには、例えば、定速走行イベント、追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどが含まれる。定速走行イベントは、自車両Mを一定の速度で同じ車線を走行させる走行態様である。追従走行イベントは、自車線上において自車両Mの前方の所定距離以内(例えば100[m]以内)に存在し、自車両Mに最も近い他車両(以下、先行車両と称する)に自車両Mを追従させる走行態様である。
「追従する」とは、例えば、自車両Mと先行車両との車間距離(相対距離)を一定に維持させる走行態様であってもよいし、自車両Mと先行車両との車間距離を一定に維持させることに加えて、自車両Mを自車線の中央で走行させる走行態様であってもよい。
車線変更イベントは、自車両Mを自車線から隣接車線へと車線変更させる走行態様である。分岐イベントは、道路の分岐地点で自車両Mを目的地側の車線に分岐させる走行態様である。合流イベントは、合流地点で自車両Mを本線に合流させる走行態様である。テイクオーバーイベントは、自動運転を終了して手動運転に切り替える走行態様である。
また、イベントには、例えば、追い越しイベントや、回避イベントなどが含まれてもよい。追い越しイベントは、自車両Mを一旦隣接車線に車線変更させて先行車両を隣接車線において追い越してから再び元の車線へと車線変更させる走行態様である。回避イベントは、自車両Mの前方に存在する障害物を回避するために自車両Mに制動および操舵の少なくとも一方を行わせる走行態様である。
また、イベント決定部142は、例えば、自車両Mの走行時に認識部130により認識された周辺の状況に応じて、現在の区間に対して既に決定したイベントを他のイベントに変更したり、現在の区間に対して新たなイベントを決定したりしてよい。
リスク領域算出部144は、認識部130によって認識された物体の周囲に潜在的に分布する、或いは潜在的に存在するリスクの領域(以下、リスク領域RAと称する)を算出する。リスクは、例えば、物体が自車両Mに対して及ぼすリスクである。より具体的には、リスクは、先行車両が急減速したり、隣接車線から他車両が自車両Mの前方に割り込んだりしたために、自車両Mに急な制動を強いるようなリスクであってもよいし、歩行者や自転車が車道に進入したために、自車両Mに急な転舵を強いるようなリスクであってもよい。また、リスクは、自車両Mが物体に及ぼすリスクであってもよい。以下、このようなリスクの高さを定量的な指標値として扱うものとし、その指標値を「リスクポテンシャルp」と称して説明する。
図3は、リスク領域RAを説明するための図である。図中LN1は、自車線を区画する一方の区画線を表し、LN2は、自車線を区画する他方の区画線であり、且つ隣接車線を区画する一方の区画線を表している。LN3は、隣接車線を区画する他方の区画線を表している。これら複数の区画線のうち、LN1及びLN3は車道外側線であり、LN2は追い越しのために車両がはみ出すことが許容された中央線である。また、図示の例では、自車線上の自車両Mの前方に先行車両m1が存在している。図中Xは車両の進行方向を表し、Yは車両の幅方向を表し、Zは鉛直方向を表している。
図示の状況の場合、リスク領域算出部144は、リスク領域RAの中で、車道外側線LN1及びLN3に近い領域ほどリスクポテンシャルpを高くし、車道外側線LN1及びLN3から遠い領域ほどリスクポテンシャルpを低くする。
また、リスク領域算出部144は、リスク領域RAの中で、中央線LN2に近い領域ほどリスクポテンシャルpを高くし、中央線LN2から遠い領域ほどリスクポテンシャルpを低くする。中央線LN2は、車道外側線LN1及びLN3と異なり、車両がはみ出すことが許容されているため、リスク領域算出部144は、中央線LN2に対するリスクポテンシャルpを、車道外側線LN1及びLN3に対するリスクポテンシャルpよりも低くする。
また、リスク領域算出部144は、リスク領域RAの中で、物体の一種である先行車両m1に近い領域ほどリスクポテンシャルpを高くし、先行車両m1から遠い領域ほどリスクポテンシャルpを低くする。すなわち、リスク領域算出部144は、リスク領域RAの中で、自車両Mと先行車両m1との相対距離が短いほどリスクポテンシャルpを高くし、自車両Mと先行車両m1との相対距離が長いほどリスクポテンシャルpを低くしてよい。この際、リスク領域算出部144は、先行車両m1の絶対速度や絶対加速度が大きいほどリスクポテンシャルpを高くしてよい。また、リスクポテンシャルpは、先行車両m1の絶対速度や絶対加速度に代えて、或いは加えて、自車両Mと先行車両m1との相対速度や相対加速度、TTC(Time to Collision)等に応じて適宜決定されてもよい。
図4は、ある座標x1におけるY方向のリスクポテンシャルpの変化を表す図である。図中y1は、Y方向に関する車道外側線LN1の位置(座標)を表し、y2は、Y方向に関する中央線LN2の位置(座標)を表し、y3は、Y方向に関する車道外側線LN3の位置(座標)を表している。
図示のように、車道外側線LN1が存在する座標(x1,y1)の付近や、車道外側線LN3が存在する座標(x1,y3)の付近では、リスクポテンシャルpが最も高くなり、中央線LN2が存在する座標(x1,y2)の付近では、リスクポテンシャルpが座標(x1,y1)や(x1,y3)の次に高くなる。後述するように、リスクポテンシャルpが、予め決められた閾値Thと同じかそれ以上の領域では、その領域に車両が進入することを防ぐため、目標軌道TRが生成されない。
図5は、ある座標x2におけるY方向のリスクポテンシャルpの変化を表す図である。座標x2は、座標x1よりも先行車両m1に近い。そのため、車道外側線LN1が存在する座標(x2,y1)と、中央線LN2が存在する座標(x2,y2)との間の領域には先行車両m1が存在していないものの、先行車両m1が急減速するなどのリスクが考慮される。その結果、(x2,y1)と(x2,y2)との間の領域のリスクポテンシャルpは、(x1,y1)と(x1,y2)との間の領域のリスクポテンシャルpよりも高くなりやすく、例えば閾値Th以上となる。
図6は、ある座標x3におけるY方向のリスクポテンシャルpの変化を表す図である。座標x3には、先行車両m1が存在している。そのため、車道外側線LN1が存在する座標(x3,y1)と、中央線LN2が存在する座標(x3,y2)との間の領域のリスクポテンシャルpは、(x2,y1)と(x2,y2)との間の領域のリスクポテンシャルpよりも高く、且つ閾値Th以上となる。。
図7は、ある座標y4におけるX方向のリスクポテンシャルpの変化を表す図である。座標y4はy1とy2との中間座標であり、その座標y4には先行車両m1が存在している。そのため、座標(x3,y4)におけるリスクポテンシャルpは最も高くなり、座標(x3,y4)よりも先行車両m1から遠い座標(x2,y4)におけるリスクポテンシャルpは、座標(x3,y4)におけるリスクポテンシャルpよりも低くなり、座標(x2,y4)よりも更に先行車両m1から遠い座標(x1,y4)におけるリスクポテンシャルpは、座標(x2,y4)におけるリスクポテンシャルpよりも低くなる。
図8は、リスクポテンシャルpが決定されたリスク領域RAを表す図である。図示のように、リスク領域算出部144は、リスク領域RAを複数のメッシュ(グリッドともいう)で区画し、それら複数のメッシュのそれぞれに対してリスクポテンシャルpを対応付ける。例えば、メッシュ(x,y)には、リスクポテンシャルpijが対応付けられる。すなわち、リスク領域RAは、ベクトルやテンソルといったデータ構造で表される。
リスク領域算出部144は、複数のメッシュに対してリスクポテンシャルpを対応付けると、各メッシュのリスクポテンシャルpを正規化する。
例えば、リスク領域算出部144は、リスクポテンシャルpの最大値が1となり最小値が0となるようにリスクポテンシャルpを正規化してよい。具体的には、リスク領域算出部144は、リスク領域RAに含まれる全メッシュのリスクポテンシャルpの中から、最大値をとるリスクポテンシャルpmaxと、最小値をとるリスクポテンシャルpminとを選択する。リスク領域算出部144は、リスク領域RAに含まれる全メッシュの中から、ある着目する一つのメッシュ(x,y)を選び出し、そのメッシュ(x,y)に対応付けられたリスクポテンシャルpijから最小のリスクポテンシャルpminを減算するとともに、最大のリスクポテンシャルpmaxから最小のリスクポテンシャルpminを減算し、(pij−pmin)を(pmax−pmin)で除算する。リスク領域算出部144は、着目するメッシュを変えながら、上記処理を繰り返す。これによって、リスク領域RAは、リスクポテンシャルpの最大値が1となり最小値が0となるように正規化される。
また、リスク領域算出部144は、リスク領域RAに含まれる全メッシュのリスクポテンシャルpの平均値μと標準偏差σとを算出し、メッシュ(x,y)に対応付けられたリスクポテンシャルpijから平均値μを減算し、(pij−μ)を標準偏差σで除算してもよい。これによって、リスク領域RAは、リスクポテンシャルpの最大値が1となり最小値が0となるように正規化される。
また、リスク領域算出部144は、リスクポテンシャルpの最大値が任意のMとなり最小値が任意のmとなるようにリスクポテンシャルpを正規化してよい。具体的には、リスク領域算出部144は、(pij−pmin)/(pmax−pmin)をAとした場合、そのAに対して(M−m)を乗算し、A(M−m)にmを加算する。これによって、リスク領域RAは、リスクポテンシャルpの最大値がMとなり最小値がmとなるように正規化される。
図2の説明に戻る。目標軌道生成部146は、原則的には推奨車線決定部61により決定された推奨車線を自車両Mが走行し、更に、自車両Mが推奨車線を走行する際に周辺の状況に対応するため、イベントにより規定された走行態様で自車両Mを自動的に(運転者の操作に依らずに)走行させる将来の目標軌道TRを生成する。目標軌道TRには、例えば、将来の自車両Mの位置を定めた位置要素と、将来の自車両Mの速度等を定めた速度要素とが含まれる。
例えば、目標軌道生成部146は、自車両Mが順に到達すべき複数の地点(軌道点)を、目標軌道TRの位置要素として決定する。軌道点は、所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点である。所定の走行距離は、例えば、経路に沿って進んだときの道なり距離によって計算されてよい。
また、目標軌道生成部146は、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度νおよび目標加速度αを、目標軌道TRの速度要素として決定する。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度νや目標加速度αは、サンプリング時間および軌道点の間隔によって決定される。
例えば、目標軌道生成部146は、記憶部180からルールベースモデルデータ182やDNNモデルデータ184などを読み出し、読み出したデータによって定義されたモデルを用いて目標軌道TRを生成する。
ルールベースモデルデータ182は、一つ又は複数のルールベースモデルMDL1を定義した情報(プログラムまたはデータ構造)である。ルールベースモデルMDL1は、専門家などによって予め決められたルール群に基づいて、リスク領域RAから目標軌道TRを導き出すモデルである。このようなルールベースモデルMDL1は、専門家などがルール群を決めるため、エキスパートシステムとも呼ばれる。ルールベースモデルMDL1は、「第1モデル」の一例である。
例えば、ルール群の中には、ある条件Xに対して目標軌道TRxが一意に対応付けられたルールが存在し得る。条件Xは、例えば、ルールベースモデルMDL1に入力されるリスク領域RAが、自車両Mが片側一車線の道路を走行しており、自車両Mの前方の所定距離以内に時速XX[km/h]の先行車両が存在する際に生成され得るリスク領域RAと同じことである。目標軌道TRxは、例えば、目標速度がνであり、目標加速度がαであり、ステアリングの変位量がuであり、軌道の曲率がκである目標軌道TRである。このようなルールに従った場合、ルールベースモデルMDL1は、条件Xを満たすようなリスク領域RAが入力されると、目標軌道TRxを出力することになる。
専門家などがルール群を決めているものの、ありとあらゆるルールが網羅的に決められていることは稀である。そのため、自車両Mがルール群に存在しない状況(専門家が想定していない状況)に陥ることも想定され、ルールベースモデルMDL1には、ルール群に該当しないリスク領域RAが入力される場合がある。この場合、ルールベースモデルMDL1は、目標軌道TRを出力しないことになる。これに代えて、ルールベースモデルMDL1は、ルール群に該当しないリスク領域RAが入力された場合、予め決められた速度で現在の車線を走行する、といったような現状のリスク領域RAに依存しない予め決められた目標軌道TRを出力してもよい。すなわち、ルール群の中に、事前に想定していないリスク領域RAが入力された場合、現状のリスク領域RAに依存しない予め決められた目標軌道TRを出力する、というイレギュラーな状況に対応するための汎用的なルールが含まれていてもよい。
DNNモデルデータ184は、一つ又は複数のDNNモデルMDL2を定義した情報(プログラムまたはデータ構造)である。DNNモデルMDL2は、リスク領域RAが入力されると、目標軌道TRを出力するように学習された深層学習モデルである。具体的には、DNNモデルMDL2は、CNN(Convolutional Neural Network)や、RNN(Reccurent Neural Network)、或いはこれらの組合せであってよい。DNNモデルデータ184には、例えば、ニューラルネットワークを構成する複数の層のそれぞれに含まれるユニットが互いにどのように結合されるのかという結合情報や、結合されたユニット間で入出力されるデータに付与される結合係数などの各種情報が含まれる。DNNモデルMDL2は、「第2モデル」の一例である。
結合情報とは、例えば、各層に含まれるユニット数や、各ユニットの結合先のユニットの種類を指定する情報、各ユニットの活性化関数、隠れ層のユニット間に設けられたゲートなどの情報を含む。活性化関数は、例えば、正規化線形関数(ReLU関数)であってもよいし、シグモイド関数や、ステップ関数、その他の関数などであってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ユニット間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、例えば、ニューラルネットワークの隠れ層において、ある層のユニットから、より深い層のユニットにデータが出力される際に、出力データに対して付与される重み係数を含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。
DNNモデルMDL2は、例えば、教師データに基づいて十分に学習される。教師データは、例えば、リスク領域RAに対して、DNNモデルMDL2が出力すべき正解の目標軌道TRが教師ラベル(ターゲットともいう)として対応付けられたデータセットである。すなわち、教師データは、入力データであるリスク領域RAと、出力データである目標軌道TRとを組み合わせたデータセットである。正解の目標軌道TRは、例えば、リスク領域RAに含まれる複数のメッシュの中で、リスクポテンシャルpが閾値Th未満であり、且つ最もリスクポテンシャルpが低いメッシュを通過する目標軌道であってよい。また、正解の目標軌道TRは、例えば、あるリスク領域RA下において、実際に運転者が運転した車両の軌道であってよい。
目標軌道生成部146は、自車両Mが走行する道路の種類や、自車両Mの運転モードの種類(自動化レベル)に応じて、一つ又は複数のルールベースモデルMDL1と、一つ又は複数のDNNモデルMDL2とを含むモデル集合の中からいずれか一つのモデルMDLを選択する。そして、目標軌道生成部146は、選択したモデルMDLに対して、リスク領域算出部144によって算出されたリスク領域RAを入力し、そのリスク領域RAを入力したモデルMDLの出力結果に基づいて、目標軌道TRを生成する。
図9は、目標軌道TRの生成方法を模式的に表す図である。例えば、目標軌道生成部146は、あるDNNモデルMDL2を選択した場合、そのDNNモデルMDL2に対して、リスク領域RAを表すベクトル或いはテンソルを入力する。リスク領域RAを表すベクトル或いはテンソルの要素数(次元数)は、選択されたモデルMDLの種類に応じて変動する。図示の例では、リスク領域RAがm行n列の2階のテンソルとして表されており、この場合、選択されたモデルMDLの種類に応じて、行数m及び列数nが変動する。リスク領域RAを表すベクトル或いはテンソルが入力されたモデルMDLは、目標軌道TRを出力する。この目標軌道TRは、例えば、目標速度νや、目標加速度α、ステアリングの変位量u、軌道の曲率κ、といった複数の要素を含むベクトル或いはテンソルによって表される。
図10は、モデルMDLが出力した目標軌道TRの一例を表す図である。図示の例のように、先行車両m1の周辺のリスクポテンシャルpは高くなるため、これを避けるように目標軌道TRが生成される。この結果、自車両Mは、区画線LN2及びLN3によって区画された隣接車線に車線変更して先行車両m1を追い越すことになる。
図2の説明に戻る。第2制御部160は、目標軌道生成部146によって生成された目標軌道TRを、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、第1取得部162と、速度制御部164と、操舵制御部166とを備える。第2制御部160は、「運転制御部」の一例である。
第1取得部162は、目標軌道生成部146から目標軌道TRを取得し、記憶部180のメモリに記憶させる。
速度制御部164は、メモリに記憶された目標軌道TRに含まれる速度要素(例えば目標速度νや目標加速度α等)に基づいて、走行駆動力出力装置200およびブレーキ装置210の一方または双方を制御する。
操舵制御部166は、メモリに記憶された目標軌道に含まれる位置要素(例えば目標軌道の曲率κや、軌道点の位置に応じたステアリングの変位量u等)に応じて、ステアリング装置220を制御する。
速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道TRからの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECU(Electronic Control Unit)とを備える。パワーECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
第3制御部170は、第2取得部172と、モード制御部174と、第1判定部176と、第2判定部178とを備える。第2取得部172は、例えば、認識部130の認識結果を取得したり、HMI30に対して乗員が入力した情報を取得したりする。第2取得部172は、取得した各種情報を、モード制御部174、第1判定部176、及び第2判定部178に提供する。
モード制御部174は、自車両Mの運転モードを制御する。自車両Mの運転モードには、例えば、手動運転モードと、自動運転モードとが含まれる。手動運転モードとは、乗員の運転操作に応じて、自車両Mの速度および操舵が制御されるモードである。
自動運転モードとは、乗員の運転操作に依らずに、自車両Mの速度又は操舵のいずれか一方、または自車両Mの速度及び操舵の双方が自動的に制御されるモードである。自動運転モードには、第1自動運転モード、第2自動運転モード、第3自動運転モード、第4自動運転モード、第5自動運転モード、といった複数の自動運転モードが含まれる。これらの自動運転モードは、制御の自動化のレベルが異なる。更に、これらの複数の自動運転モードのうち一部の自動運転モード下では、自車両Mの乗員に対して、制御の自動化のレベルに応じた義務(タスクともいう)が課される。
第1自動運転モードは、自動化のレベルが最も低い自動運転モードである。第1自動運転モード下では、例えば、ACCやLKASといった運転支援制御が行われる。第1自動運転モード下において、ACCが行われている間、LKASが制限され、LKASが行われている間、ACCが制限される。すなわち、第1自動運転モード下では、操舵制御および速度制御が逐次的に処理される。第1自動運転モード下では、自車両Mの乗員に対して第1の義務と第2の義務が課される。第1の義務は、自車両Mの周辺(特に前方)を監視する義務であり、第2の義務は、ステアリングホイールを操作する義務である。「操作する」とは、手で掴む、或いは手を触れることであってよい。
第2自動運転モードは、第1自動運転モードよりも自動化のレベルが高い自動運転モードである。第2自動運転モード下では、例えば、ACCやLKAS、ALCといった複数の運転支援制御が連動して行われる。第2自動運転モード下では、乗員に対して要求される義務の程度が第1自動運転モードと同じかそれよりも低い。例えば、第2自動運転モード下では、乗員に対して第1の義務が課され、原則第2の義務が課されない。第2自動運転モード下では、ALCのような一部の運転支援制御が行われる直前などのタイミングにおいて、更に乗員に第2の義務が課されてもよい。
第3自動運転モードは、第2自動運転モードよりも自動化のレベルが高い自動運転モードである。第3自動運転モード下では、特定条件を満たす場合に、自車両Mの速度及び操舵の双方が自動的に制御される。特定条件とは、例えば、障害物が少なく、自車両Mが自車線を認識したり、その自車線に対する自車両Mの相対的な位置を認識したりすることが可能な道路を走行していることである。このような道路は、例えば高速道路である。第3自動運転モード下では、乗員に対して要求される義務の程度が第2自動運転モードよりも低い。例えば、第3自動運転モード下では、第1の義務および第2の義務のいずれの義務も乗員に課されない。なお、第3自動運転モード下では、緊急時などに乗員の運転操作が要求される場合がある。
第4自動運転モードは、第3自動運転モードと自動化のレベルが同じかそれよりも高い自動運転モードである。第4自動運転モード下では、特定条件を満たす場合に、自車両Mの速度及び操舵の双方が自動的に制御される。第4自動運転モード下では、第3自動運転モードと同様に、乗員に対して要求される義務の程度が第2自動運転モードよりも低い。例えば、第4自動運転モード下では、第1の義務および第2の義務のいずれの義務も乗員に課されない。第4自動運転モード下では、緊急時などであっても自車両Mの速度及び操舵の双方が乗員の運転操作に依らずに自動的に制御される。
第5自動運転モードは、第4自動運転モードと自動化のレベルが同じかそれよりも高い自動運転モードである。第5自動運転モード下では、特定条件に関わらず、自車両Mの速度及び操舵の双方が自動的に制御される。第5自動運転モード下では、第3自動運転モードや第4自動運転モードと同様に、乗員に対して要求される義務の程度が第2自動運転モードよりも低い。例えば、第5自動運転モード下では、第1の義務および第2の義務のいずれの義務も乗員に課されない。
例えば、モード制御部174は、第2自動運転モード下にある自車両Mが特定条件を満たす場合、運転モードを、第2自動運転モードよりも自動化レベルの高い自動運転モード(例えば第3自動運転モード)に切り替えてよい。
また、例えば、モード制御部174は、第3自動運転モードや第4自動運転モード下にある自車両Mが特定条件を満たさなくなった場合、運転モードを第2自動運転モードや第1自動運転モードに切り替えてよい。「特定条件を満たさない」とは、例えば、高速道路よりも障害物が多く周囲の状況が複雑な道路や、車線などを認識できない道路を走行することである。このような道路は、例えば、一般道である。
また、モード制御部174は、後述する第1判定部176および第2判定部178の判定結果に基づいて、自車両Mの運転モードを制御してよい。
また、モード制御部174は、運転操作子80から入力される検出信号に基づいて、運転モードを制御してもよい。例えば、自動運転モード下において、乗員がステアリングホイールや、アクセルペダル、ブレーキペダルを閾値を超える操作量で操作した場合、モード制御部174は、運転モードを手動運転モードに切り替えてよい。
また、モード制御部174は、HMI30に対する入力操作に基づいて、自車両Mの運転モードを制御してもよい。
第1判定部176は、第1の義務が課される自動運転モード下において、車内カメラ90によって生成された画像を解析して、運転席の乗員の視線の向きや顔の向きを検出する。第1判定部176は、検出した視線または顔の向きに基づいて、運転席の乗員が自車両Mの周辺を監視しているか否かを判定する。すなわち、第1判定部176は、乗員が第1の義務を果たしているのか否かを判定する。例えば、乗員がフロントウィンドウシールド越しに車外を見ている場合、第1判定部176は、乗員が自車両Mの周辺を監視していると判定する。すなわち、第1判定部176は、乗員が第1の義務を果たしていると判定する。
第2判定部178は、第2の義務が課される自動運転モード下において、ステアリングセンサの検出結果に基づいて、乗員がステアリングホイールを手で掴んでいる、或いはステアリングホイールに手を触れているのか否かを判定する。すなわち、第2判定部178は、乗員が第2の義務を果たしているのか否かを判定する。例えば、第2判定部178は、ステアリングセンサによって検出された電流値や操舵トルクが閾値以上である場合、乗員がステアリングホイールを手で掴んでいる、或いはステアリングホイールに手を触れていると判定する。すなわち、第2判定部178は、乗員が第2の義務を果たしていると判定する。
[処理フロー]
以下、第1実施形態に係る自動運転制御装置100による一連の処理の流れを、フローチャートを用いて説明する。図11は、第1実施形態に係る自動運転制御装置100による一連の処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、運転モードが「自動運転モード」である場合に、所定の周期で繰り返し実行されてよい。
まず、認識部130は、自車両Mが走行している道路に存在する物体を認識する(ステップS100)。
次に、モード制御部174は、特定条件を満たすか否かを判定する(ステップS102)。例えば、自車両Mが一般道を走行している場合、モード制御部174は、特定条件を満たさないと判定し、運転モードを第2自動運転モードに切り替えたり、自動化レベルが第2自動運転モードよりも低い第1自動運転モードに切り替えたりする(ステップS104)。
目標軌道生成部146は、運転モードが第2自動運転モードか、或いは第2自動運転モードよりも自動化レベルが低い第1自動運転モードである場合、一つ又は複数のルールベースモデルMDL1と、一つ又は複数のDNNモデルMDL2とが含まれるモデル集合の中から、ある一つのDNNモデルMDL2を選択する(ステップS106)。言い換えれば、目標軌道生成部146は、自動運転モードの自動化レベルが、第3自動運転モードの自動化レベル未満である場合、DNNモデルMDL2を選択する。第3自動運転モードの自動化レベルは「基準値」の一例である。
リスク領域算出部144は、目標軌道生成部146によってDNNモデルMDL2が選択された場合、リスク領域RAの範囲を、後述する第1範囲よりも狭い第2範囲に設定する(ステップS108)。例えば、リスク領域算出部144は、モデル集合の中に、複数のDNNモデルMDL2が含まれている場合、いずれのDNNモデルMDL2を選択した場合であっても、同じ広さの第2範囲を設定してもよいし、少なくとも第1範囲よりも狭いという制約下で、互いに異なる広さの第2範囲を設定してもよい。
一方、モード制御部174は、自車両Mが一般道ではなく高速道路を走行している場合、特定条件を満たすと判定し、運転モードを第3自動運転モードに切り替えたり、第3自動運転モードよりも自動化レベルが高い第4自動運転モードや第5自動運転モードに切り替えたりする(ステップS110)。
目標軌道生成部146は、運転モードが第3自動運転モードか、或いは第3自動運転モードよりも自動化レベルが高い他の自動運転モードである場合、モデル集合の中から、ある一つのルールベースモデルMDL1を選択する(ステップS112)。言い換えれば、目標軌道生成部146は、自動運転モードの自動化レベルが、第3自動運転モードの自動化レベル以上である場合、ルールベースモデルMDL1を選択する。
リスク領域算出部144は、目標軌道生成部146によってルールベースモデルMDL1が選択された場合、リスク領域RAの範囲を、上述した第2範囲よりも広い第1範囲に設定する(ステップS114)。例えば、リスク領域算出部144は、モデル集合の中に、複数のルールベースモデルMDL1が含まれている場合、いずれのルールベースモデルMDL1を選択した場合であっても、同じ広さの第1範囲を設定してもよいし、少なくとも第2範囲よりも広いという制約下で、互いに異なる広さの第1範囲を設定してもよい。
次に、リスク領域算出部144は、設定したリスク領域RAの範囲内で、リスクポテンシャルpを算出する(ステップS116)。例えば、リスク領域算出部144は、設定したリスク領域RAの範囲を複数のメッシュに区切り、その複数のメッシュの其々に対してリスクポテンシャルpを対応付けたデータをベクトルやテンソルとして算出してよい。
次に、リスク領域算出部144は、算出したリスクポテンシャルpを正規化する(ステップS118)。
次に、目標軌道生成部146は、選択したモデルMDLに対して、リスク領域算出部144によってリスクポテンシャルpが正規化されたリスク領域RAを入力する(ステップS120)。具体的には、目標軌道生成部146は、リスク領域RAを表すベクトル又はテンソルをモデルMDLに入力する。
次に、目標軌道生成部146は、リスク領域RAを入力したモデルMDLから目標軌道TRを取得し(ステップS122)、この目標軌道TRを第2制御部160に出力する。
次に、第2制御部160は、目標軌道生成部146によって出力された目標軌道TRに基づいて、自車両Mの速度及び操舵の少なくとも一方を制御する(ステップS124)。これによって本フローチャートの処理が終了する。
上述したように、予め決められたルール群に一致さえすれば高い精度で目標軌道TRを生成し得るルールベースモデルMDL1が選択された場合、そのルールベースモデルMDL1に入力されるリスク領域RAの範囲は、第2範囲よりも広い第1範囲に設定される。これによって、リスク領域RAの全領域においてリスクポテンシャルpが閾値Th以上となってしまい、目標軌道TRが生成されず、自車両Mがスタックしてしまうような状況を回避することができる。また、ルールベースモデルMDL1よりも目標軌道TRの精度が低下する可能性はあるものの、あらゆる場面で汎用的に利用可能なDNNモデルMDL2が選択された場合、そのDNNモデルMDL2に入力されるリスク領域RAの範囲は、第1範囲よりも狭い第2範囲に設定される。これによって、DNNモデルMDL2に入力するベクトル或いはテンソルの次元数を減らすことができ、目標軌道TRの精度を向上させることができる。
図12は、交通状況が複雑な場面の一例を表す図である。図示の例では、自車両Mは、三車線のうち真中の第2車線(区画線LN2及びLN3で区画された車線)を走行している。第1車線(区画線LN1及びLN2で区画された車線)には、他車両m2が存在しており、第3車線(区画線LN3及びLN4で区画された車線)には、他車両m3が存在している。更に、第2車線には、自車両Mの前方に他車両m4が存在している。これら他車両m2、m3、m4はあくまでも一例であり、道路上の落下物や工事用の看板、歩行者といったその他の物体と置き換えてもよい。
図12に例示する場面において、ルールベースモデルMDL1に入力されるリスク領域RAの範囲が、第1範囲ではなく第2範囲(図中R2の範囲)に設定されたとする。この場合、他車両m2、m3、m4が自車両Mに近いため、自車両Mの進行先の領域のリスクポテンシャルpが閾値Th以上となり得る。
図13は、図12における座標x4のリスクポテンシャルpの変化を表す図である。区画線LN1が存在する座標(x4,y1)と、区画線LN2が存在する座標(x4,y2)との間のリスクポテンシャルpは、第1車線上のリスクポテンシャルpを表している。区画線LN2が存在する座標(x4,y2)と、区画線LN3が存在する座標(x4,y3)との間のリスクポテンシャルpは、第2車線上のリスクポテンシャルpを表している。区画線LN3が存在する座標(x4,y3)と、区画線LN4が存在する座標(x4,y4)との間のリスクポテンシャルpは、第3車線上のリスクポテンシャルpを表している。
第1走行車線上において座標x4は他車両m2の直前となるため、その座標x4におけるリスクポテンシャルpは、他車両m2の加減速などが考慮されて閾値Th以上となっている。また、第2走行車線上において座標x4は他車両m4の後方となるため、その座標x4におけるリスクポテンシャルpは、第1走行車線よりも低いものの閾値Thよりも大きくなっている。第3走行車線上において座標x4は他車両m3が存在する位置であるため、その座標x4におけるリスクポテンシャルpは、閾値Th以上且つ最も高くなっている。
図14は、図12に例示する場面においてモデルMDLが出力する目標軌道TRの一例を表す図である。上述したように、座標x4において、第1走行車線、第2走行車線、及び第3走行車線のいずれの車線についてもリスクポテンシャルpが閾値Th以上となっているため、目標軌道TRは、少なくとも座標x4から先に延びなくなる。この場合、自車両Mは、他車両m1、m2、m3に囲まれ、その場から身動きが取れなくなりスタックする。
図15は、交通状況が複雑な場面の他の例を表す図である。図15に例示する場面では、ルールベースモデルMDL1に入力されるリスク領域RAの範囲が、第2範囲ではなく第1範囲(図中R1の範囲)に設定されている。この場合、図12の場面よりも広い範囲でリスクポテンシャルpが算出される。これによって、リスク領域RA2全体のリスクポテンシャルpが正規化された場合、図12の場面よりもリスクポテンシャルpが低下することが期待できる。
図16は、図15における座標x4のリスクポテンシャルpの変化を表す図である。リスク領域RAの範囲を第2範囲よりも広い第1範囲としたため、図示のように、座標x4におけるリスクポテンシャルpは、第2範囲のときよりも低下している。特に、第1走行車線及び第2走行車線上では、リスクポテンシャルpが閾値Thよりも低くなっている。
図17は、図15に例示する場面においてモデルMDLが出力する目標軌道TRの一例を表す図である。上述したように、座標x4において、第1走行車線及び第2走行車線についてもリスクポテンシャルpが閾値Th未満となっているため、図示のように、例えば、他車両m2の前方において、第2走行車線から第1走行車線へと自車両Mを車線変更させるような目標軌道TRが生成される。この結果、自車両Mが、他車両m1、m2、m3に囲まれた状況であっても、スタックせずにスムーズに自車両Mを走行させることができる。
以上説明した第1実施形態によれば、自動運転制御装置100が、複数のモデル集合の中からいずれか一つのモデルMDLを選択する。自動運転制御装置100は、選択したモデルMDLがルールベースモデルMDL1である場合、リスク領域RAの範囲を第1範囲に設定する。一方、自動運転制御装置100は、選択したモデルMDLがDNNモデルMDL2である場合、リスク領域RAの範囲を第2範囲に設定する。自動運転制御装置100は、自車両Mの周辺に存在する物体を認識し、設定した範囲内で、物体の周囲に分布するリスク領域RAを算出する。自動運転制御装置100は、選択したモデルMDLに対して、算出したリスク領域RAを入力し、リスク領域RAが入力されたモデルMDLの出力結果に基づいて目標軌道TRを生成する。そして、自動運転制御装置100は、目標軌道TRに基づいて、自車両Mの速度及び操舵の少なくとも一方を制御する。このように、目標軌道TRを生成するモデルMDLの種類に応じてリスク領域RAの範囲を適切に設定するため、自車両Mの周辺の状況に適合した目標軌道TRが生成することができ、その結果、自車両Mの運転をスムーズに制御することができる。
<第2実施形態>
以下、第2実施形態について説明する。上述した第1実施形態では、複数のモデル集合の中からいずれか一つのモデルMDLを選択し、その上で、選択したモデルMDLにリスク領域RAを入力するものとして説明した。これに対して、第2実施形態では、複数のモデル集合の中からいずれか一つのモデルMDLを選択するのではなく、全てのモデルMDLに対してリスク領域RAを入力する点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
図18は、第2実施形態に係る自動運転制御装置100による一連の処理の流れの一例を示すフローチャートである。本フローチャートの処理は、例えば、運転モードが「自動運転モード」である場合に、所定の周期で繰り返し実行されてよい。
まず、認識部130は、自車両Mが走行している道路に存在する物体を認識する(ステップS200)。
次に、リスク領域算出部144は、第1範囲内で、リスクポテンシャルpを算出する(ステップS202)。
次に、リスク領域算出部144は、第1範囲内で算出したリスクポテンシャルpを正規化する(ステップS204)。
次に、目標軌道生成部146は、リスクポテンシャルpが正規化された第1範囲のリスク領域RAを、ルールベースモデルMDL1に入力する(ステップS206)。
また、リスク領域算出部144は、第2範囲内で、リスクポテンシャルpを算出する(ステップS208)。
次に、リスク領域算出部144は、第2範囲内で算出したリスクポテンシャルpを正規化する(ステップS210)。
次に、目標軌道生成部146は、リスクポテンシャルpが正規化された第2範囲のリスク領域RAを、DNNモデルMDL2に入力する(ステップS212)。
次に、目標軌道生成部146は、ルールベースモデルMDL1とDNNモデルMDL2の双方から目標軌道TRを取得する(ステップS214)。
次に、目標軌道生成部146は、複数の目標軌道TRの中から最適な目標軌道TRを選択する(ステップS216)。例えば、目標軌道生成部146は、人間らしい軌道TRhに最も近い目標軌道を、最適な目標軌道TRとして選択する。「人間らしい軌道TRh」とは、例えば、実際にテストドライバーなどに自車両Mやその他車両を運転させたときの軌道である。そのため、目標軌道生成部146は、複数のモデルMDLの其々が出力した目標軌道TRに含まれる速度要素(速度νや加速度αなど)及び位置要素(ステアリングの変位量uや軌道の曲率κなど)と、人間らしい軌道TRhに含まれる速度要素及び位置要素とを比較し、複数の目標軌道TRの中で、人間らしい軌道TRhの位置要素及び位置要素に最も近い目標軌道TRを、最適な目標軌道TRとして選択する。そして、目標軌道生成部146は、最適な目標軌道TRを第2制御部160に出力する。
次に、第2制御部160は、目標軌道生成部146によって出力された目標軌道TRに基づいて、自車両Mの速度及び操舵の少なくとも一方を制御する(ステップS218)。これによって本フローチャートの処理が終了する。
以上説明した第2実施形態によれば、自動運転制御装置100が、第1範囲及び第2範囲の双方でリスク領域RAを算出する。自動運転制御装置100は、ルールベースモデルMDL1に対して第1範囲のリスク領域RAを入力し、DNNモデルMDL2に対して第2範囲のリスク領域RAを入力する。自動運転制御装置100は、ルールベースモデルMDL1及びDNNモデルMDL2の其々によって出力された目標軌道TRの中から最適な目標軌道TRを選択する。そして、自動運転制御装置100は、選択した目標軌道TRに基づいて、自車両Mの速度及び操舵の少なくとも一方を制御する。この結果、第1実施形態と同様に、自車両Mの運転をスムーズに制御することができる。
<その他の実施形態(変形例)>
以下、その他の実施形態(変形例)について説明する。上述した第1実施形態或いは第2実施形態において、目標軌道生成部146が選択可能な複数のモデルの中には、一つ以上のルールベースモデルMDL1と、一つ以上のDNNモデルMDL2とが含まれているものとして説明したがこれに限られない。例えば、複数のモデルの中には、モデルベース或いはモデルベースデザインと呼ばれる手法を基に作られたモデル(以下、モデルベースモデルと称する)が含まれていてもよい。モデルベースモデルは、モデル予測制御(Model Predictive Control;MPC)などの最適化手法を利用することで、リスク領域RAに応じて目標軌道TRを決定(或いは出力)するモデルである。モデルベースモデルは、「第1モデル」の他の例である。
また、複数のモデルの中には、バイナリーツリー型のモデルや、ゲームツリー型のモデル、低層ニューラルネットワークをボルツマンマシンのように相互結合させたモデル、強化学習モデル、深層強化学習モデル、といった機械学習によって実装可能なさまざまなモデルが含まれていてもよい。バイナリーツリー型のモデルや、ゲームツリー型のモデル、低層ニューラルネットワークをボルツマンマシンのように相互結合させたモデル、強化学習モデル、深層強化学習モデルなどは、「第2モデル」の他の例である。
例えば、目標軌道生成部146は、運転モードが第2自動運転モードか、或いは第2自動運転モードよりも自動化レベルが低い第1自動運転モードである場合、複数のモデルの中から、モデルベースモデルを選択してよい。また、目標軌道生成部146は、運転モードが第3自動運転モードか、或いは第3自動運転モードよりも自動化レベルが高い他の自動運転モードである場合、バイナリーツリー型のモデルやゲームツリー型のモデルといった機械学習モデルを選択してよい。リスク領域算出部144は、目標軌道生成部146によってモデルベースモデルが選択された場合、ルールベースモデルMDL1が選択された時と同様に、リスク領域RAの範囲を、第2範囲よりも広い第1範囲に設定してよい。また、リスク領域算出部144は、目標軌道生成部146によってバイナリーツリー型のモデルやゲームツリー型のモデルなどが選択された場合、DNNモデルMDL2が選択された時と同様に、リスク領域RAの範囲を、第1範囲よりも狭い第2範囲に設定してよい。
[ハードウェア構成]
図19は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM100−3、ブートプログラム等を格納するROM100−4、フラッシュメモリやHDD等の記憶装置100−5、ドライブ装置100−6等が、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)等によってRAM100−3に展開されて、CPU100−2によって実行される。これによって、第1制御部、第2制御部160、及び第3制御部170のうち一部または全部が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを格納した少なくとも一つ以上のメモリと、
少なくとも一つ以上のプロセッサと、を備え、
前記プロセッサが前記プログラムを実行することにより、
車両の周辺に存在する物体を認識し、
前記認識した物体の周囲に分布するリスクの領域を算出し、
前記算出した領域に基づいて、前記車両が走行すべき目標軌道を生成し、
前記生成した目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御し、
前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、
前記選択したモデルに前記算出した領域を入力し、
前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、
前記選択したモデルの種類に応じて、前記領域の範囲を変更する、、
ように構成されている、車両制御装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、90…車内カメラ、100…自動運転制御装置、120…第1制御部、130…認識部、140…行動計画生成部、142…イベント決定部、144…リスク領域算出部、146…目標軌道生成部、160…第2制御部、162…第1取得部、164…速度制御部、166…操舵制御部、170…第3制御部、172…第2取得部、174…モード制御部、176…第1判定部、178…第2判定部、180…記憶部、182…ルールベースモデルデータ、184…DNNモデルデータ、MDL1…ルールベースモデル、MDL2…DNNモデル、M…自車両

Claims (11)

  1. 車両の周辺に存在する物体を認識する認識部と、
    前記認識部によって認識された前記物体の周囲に分布するリスクの領域を算出する算出部と、
    前記算出部によって算出された前記領域に基づいて、前記車両が走行すべき目標軌道を生成する生成部と、
    前記生成部によって生成された前記目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を自動的に制御する運転制御部と、を備え、
    前記生成部は、前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出部によって算出された前記領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、
    前記算出部は、前記生成部によって選択されたモデルの種類に応じて、前記領域の範囲を変更する、
    車両制御装置。
  2. 前記複数のモデルには、ルールベース又はモデルベースである少なくとも一つの第1モデルと、機械学習ベースである少なくとも一つの第2モデルとが含まれる、
    請求項1に記載の車両制御装置。
  3. 前記算出部は、前記生成部によって選択されたモデルが前記第1モデルである場合、前記生成部によって選択されたモデルが前記第2モデルである場合と比べて、前記領域の範囲を広くする、
    請求項2に記載の車両制御装置。
  4. 前記生成部は、前記車両が走行する道路の種類に応じて、前記複数のモデルの中からいずれか一つのモデルを選択する、
    請求項3に記載の車両制御装置。
  5. 前記生成部は、前記車両が高速道路を走行する場合、前記第1モデルを選択し、前記車両が高速道路よりも周囲の状況が複雑な他の道路を走行する場合、前記第2モデルを選択する、
    請求項4に記載の車両制御装置。
  6. 前記生成部は、前記運転制御部によって前記車両の速度又は操舵のうち少なくとも一方が自動的に制御される際の自動化のレベルに応じて、前記複数のモデルの中からいずれか一つのモデルを選択する、
    請求項3又は4に記載の車両制御装置。
  7. 前記生成部は、前記レベルが基準値以上である場合、前記第1モデルを選択し、前記レベルが基準値未満である場合、前記第2モデルを選択する、
    請求項6に記載の車両制御装置。
  8. 前記生成部は、前記複数のモデルの其々に前記領域を入力し、前記領域を入力した前記複数のモデルの其々の出力結果に基づいて複数の目標軌道を生成し、前記生成した複数の目標軌道の中から、人間が前記車両又は他車両を運転したときの軌道に最も近い前記目標軌道を選択し、
    前記運転制御部は、前記生成部によって選択された前記目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御する、
    請求項1から7のうちいずれか一項に記載の車両制御装置。
  9. 前記領域は、複数のメッシュによって区画された領域であり、
    前記複数のメッシュの其々には、前記車両又は前記物体の少なくとも一方の状態を基に算出された前記リスクのポテンシャルが対応付けられており、
    前記複数のメッシュの其々に対応付けられた前記ポテンシャルは、前記領域に含まれる全てのメッシュのポテンシャルに基づいて正規化されており、
    前記生成部は、前記正規化されたポテンシャルが閾値よりも低い前記メッシュを通る軌道を、前記目標軌道として生成する、
    請求項1から8のうちいずれか一項に記載の車両制御装置。
  10. 車両に搭載されたコンピュータが、
    前記車両の周辺に存在する物体を認識し、
    前記認識した物体の周囲に分布するリスクの領域を算出し、
    前記算出した領域に基づいて、前記車両が走行すべき目標軌道を生成し、
    前記生成した目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御し、
    前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出した領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成し、
    前記選択したモデルの種類に応じて、前記領域の範囲を変更する、
    車両制御方法。
  11. 車両に搭載されたコンピュータに、
    前記車両の周辺に存在する物体を認識すること、
    前記認識した物体の周囲に分布するリスクの領域を算出すること、
    前記算出した領域に基づいて、前記車両が走行すべき目標軌道を生成すること、
    前記生成した目標軌道に基づいて、前記車両の速度又は操舵のうち少なくとも一方を制御すること、
    前記領域が入力されると前記目標軌道を出力する複数のモデルの中から、いずれか一つ又は複数のモデルを選択し、前記選択したモデルに前記算出した領域を入力し、前記領域を入力した前記モデルの出力結果に基づいて前記目標軌道を生成すること、
    前記選択したモデルの種類に応じて、前記領域の範囲を変更すること、
    を実行させるためのプログラム。
JP2020063501A 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム Active JP7440324B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020063501A JP7440324B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム
US17/211,878 US20210300348A1 (en) 2020-03-31 2021-03-25 Vehicle control device, vehicle control method, and storage medium
CN202110337193.XA CN113460081B (zh) 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020063501A JP7440324B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021160530A true JP2021160530A (ja) 2021-10-11
JP7440324B2 JP7440324B2 (ja) 2024-02-28

Family

ID=77855348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020063501A Active JP7440324B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210300348A1 (ja)
JP (1) JP7440324B2 (ja)
CN (1) CN113460081B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400913B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置
JP7400914B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112334377B (zh) * 2018-07-03 2023-02-14 三菱电机株式会社 车辆控制装置
DE102018216364B4 (de) * 2018-09-25 2020-07-09 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen eines Spurwechselvorgangs für ein Fahrzeug
US11550325B2 (en) 2020-06-10 2023-01-10 Nvidia Corp. Adversarial scenarios for safety testing of autonomous vehicles
US11390301B2 (en) * 2020-06-10 2022-07-19 Nvidia Corp. Tensor-based driving scenario characterization
US11661082B2 (en) * 2020-10-28 2023-05-30 GM Global Technology Operations LLC Forward modeling for behavior control of autonomous vehicles
JP2022138790A (ja) * 2021-03-11 2022-09-26 本田技研工業株式会社 移動体の制御装置、移動体の制御方法、およびプログラム
US20230121913A1 (en) * 2021-10-19 2023-04-20 Volvo Car Corporation Intelligent messaging framework for vehicle ecosystem communication
GB2621317A (en) * 2022-07-26 2024-02-14 Jaguar Land Rover Ltd Determination of autonomous manoeuvring control configurations
GB2625577A (en) * 2022-12-21 2024-06-26 Oxa Autonomy Ltd Generating a trajectory for an autonomous vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192954A (ja) * 2017-05-18 2018-12-06 トヨタ自動車株式会社 運転支援装置
JP2018203034A (ja) * 2017-06-02 2018-12-27 本田技研工業株式会社 走行軌道決定装置及び自動運転装置
US20190113927A1 (en) * 2017-10-18 2019-04-18 Luminar Technologies, Inc. Controlling an Autonomous Vehicle Using Cost Maps
US20200019175A1 (en) * 2017-11-14 2020-01-16 Uber Technologies, Inc. Autonomous vehicle routing using annotated maps
JP2021160494A (ja) * 2020-03-31 2021-10-11 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6477927B2 (ja) * 2013-10-30 2019-03-06 株式会社デンソー 走行制御装置、及びサーバ
JP6664813B2 (ja) * 2016-06-15 2020-03-13 国立大学法人東京農工大学 運転支援装置及び運転支援方法
CN110291477B (zh) * 2016-12-02 2022-08-16 嘉蒂克人工智能公司 车辆控制***及使用方法
WO2018131090A1 (ja) * 2017-01-11 2018-07-19 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
JP7084124B2 (ja) * 2017-11-06 2022-06-14 トヨタ自動車株式会社 運転支援制御システム
US10473788B2 (en) * 2017-12-13 2019-11-12 Luminar Technologies, Inc. Adjusting area of focus of vehicle sensors by controlling spatial distributions of scan lines
US10950130B2 (en) * 2018-03-19 2021-03-16 Derq Inc. Early warning and collision avoidance
US11610165B2 (en) * 2018-05-09 2023-03-21 Volvo Car Corporation Method and system for orchestrating multi-party services using semi-cooperative nash equilibrium based on artificial intelligence, neural network models,reinforcement learning and finite-state automata

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192954A (ja) * 2017-05-18 2018-12-06 トヨタ自動車株式会社 運転支援装置
JP2018203034A (ja) * 2017-06-02 2018-12-27 本田技研工業株式会社 走行軌道決定装置及び自動運転装置
US20190113927A1 (en) * 2017-10-18 2019-04-18 Luminar Technologies, Inc. Controlling an Autonomous Vehicle Using Cost Maps
US20200019175A1 (en) * 2017-11-14 2020-01-16 Uber Technologies, Inc. Autonomous vehicle routing using annotated maps
JP2021160494A (ja) * 2020-03-31 2021-10-11 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7400913B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置
JP7400914B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置

Also Published As

Publication number Publication date
CN113460081B (zh) 2024-05-07
JP7440324B2 (ja) 2024-02-28
US20210300348A1 (en) 2021-09-30
CN113460081A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
JP7440324B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP6710710B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7085371B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7313298B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6913716B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2019185112A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020147139A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019147486A (ja) 車両制御システム、車両制御方法、およびプログラム
JP2020163903A (ja) 表示制御装置、表示制御方法、及びプログラム
US20210300414A1 (en) Vehicle control method, vehicle control device, and storage medium
US20210300350A1 (en) Vehicle control device, vehicle control method, and storing medium
JP2021160399A (ja) 車両制御装置、車両制御方法、およびプログラム
CN110341703B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7465705B2 (ja) 車両制御装置、車両制御方法、及びプログラム
CN113525413B (zh) 车辆控制装置、车辆控制方法及存储介质
JP2019147437A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7503921B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7473370B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7166988B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7433205B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP2021026392A (ja) 車両制御装置、車両制御方法、及びプログラム
JP2021024356A (ja) 車両制御装置、車両制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R150 Certificate of patent or registration of utility model

Ref document number: 7440324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150