JP7067067B2 - 信号機認識装置、及び自動運転システム - Google Patents

信号機認識装置、及び自動運転システム Download PDF

Info

Publication number
JP7067067B2
JP7067067B2 JP2018002520A JP2018002520A JP7067067B2 JP 7067067 B2 JP7067067 B2 JP 7067067B2 JP 2018002520 A JP2018002520 A JP 2018002520A JP 2018002520 A JP2018002520 A JP 2018002520A JP 7067067 B2 JP7067067 B2 JP 7067067B2
Authority
JP
Japan
Prior art keywords
vehicle
traffic light
recognition
unit
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018002520A
Other languages
English (en)
Other versions
JP2019121307A (ja
Inventor
勇介 林
展秀 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018002520A priority Critical patent/JP7067067B2/ja
Priority to DE102018129197.3A priority patent/DE102018129197B4/de
Priority to US16/223,214 priority patent/US11010624B2/en
Priority to CN201910015623.9A priority patent/CN110033629B/zh
Publication of JP2019121307A publication Critical patent/JP2019121307A/ja
Application granted granted Critical
Publication of JP7067067B2 publication Critical patent/JP7067067B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、信号機認識装置、及び信号機認識装置を備える自動運転システムに関する。
例えば、特許文献1に記載されているように、自車両の前方の信号機を認識する信号機認識装置がある。この信号機認識装置は、自車両の位置と、地図情報に含まれる信号機の設置位置と、撮像部の撮像結果とに基づいて信号機を認識している。
特開2016-042226号公報
例えば、信号機付近に存在する樹木によって信号機が覆われている場合等、自車両から信号機を認識することが困難な場合がある。このような場合に信号機認識装置が信号機の認識処理を行っても、信号機の認識ができない。このため、本技術分野では、信号機の認識処理を効率良く実行することが望まれている。
本発明の一側面は、自車両の前方の信号機を認識する信号機認識装置であって、信号機の設置位置と、走行車線上から見て信号機の視認が困難となる困難ゾーンの位置情報とを含む地図情報を記憶する地図記憶部と、走行車線上において信号機の手前の位置に信号機の認識処理を実行すべき認識ゾーンを設定する認識ゾーン設定部と、自車両の地図上の位置を認識する車両位置認識部と、自車両の前方を撮像する撮像部と、車両位置認識部で認識された自車両の位置が認識ゾーン内である場合に、撮像部の撮像結果に基づいて信号機の認識処理を実行する信号機認識部と、自車両周囲の周辺車両の大きさ及び自車両に対する位置を認識する周辺車両認識部と、認識ゾーンのうち困難ゾーン以外のゾーン内が、当該ゾーン内を自車両が走行するときに撮像部から信号機への視線が周辺車両によって遮られる信号機遮蔽環境であるか否かを判定する遮蔽環境判定部と、を備え、遮蔽環境判定部は、認識ゾーンのうち困難ゾーン以外のゾーン内を自車両が走行するときの自車両の予測される走行位置、及び信号機の設置位置に基づいて、自車両が予測される走行位置を走行しているときに撮像部から見たときの信号機の画像を空画像に投影するとともに、自車両の予測される走行位置、並びに周辺車両認識部で認識された周辺車両の大きさ及び位置に基づいて、自車両が予測される走行位置を走行しているときに撮像部から見たときの周辺車両の画像を空画像に投影し、信号機の発光部の画像に対して周辺車両の画像が重複しているか否かに基づいて、認識ゾーンのうち困難ゾーン以外のゾーン内を自車両が走行するときに撮像部から信号機への視線を周辺車両が遮るか否かを予測し、予測結果に基づいて信号機遮蔽環境であるか否かを判定し、信号機認識部は、認識ゾーンのうち困難ゾーン内では信号機の認識処理を実行せず、遮蔽環境判定部おいて信号機遮蔽環境であると判定されている場合、認識ゾーンのうち困難ゾーン以外のゾーン内において信号機の認識処理を実行しない。
この信号機認識装置において、信号機認識部は、地図情報に含まれる困難ゾーンを用いて、認識ゾーンのうち困難ゾーンを除いたゾーン内で信号機の認識処理を実行する。このため、信号機認識装置は、地図情報に含まれる困難ゾーンに基づいて、そもそも信号機の認識が困難なゾーンを除いたゾーン内で信号機の認識処理を実行できる。また、信号機認識部は、認識ゾーンのうち困難ゾーンを除いたゾーン内で信号機の認識処理を実行する際に、周辺車両によって遮られるために信号機を認識できない信号機遮蔽環境であると判定されている場合、当該ゾーン内で信号機の認識処理を実行しない。これにより、信号機認識装置は、認識ゾーン内において、信号機の認識処理を効率良く実行することができる。
本発明の他の一側面は、自車両の自動運転制御を実行する自動運転システムであって、上記の信号機認識装置と、自動運転制御における走行計画を生成する走行計画生成部と、走行計画に基づいて自車両の自動運転制御を実行する車両制御部と、を備え、遮蔽環境判定部は、認識ゾーンのうち困難ゾーン以外のゾーン内を走行計画に基づいて自車両が走行した場合に、撮像部から信号機への視線を周辺車両が遮るか否かを予測し、走行計画生成部は、遮蔽環境判定部において信号機遮蔽環境であると判定された場合、遮蔽環境判定部において信号機遮蔽環境であると判定されない新たな走行計画を生成する。
この自動運転システムは、上記の信号機認識装置を備えていることにより、信号機の認識処理を効率良く実行することができる。また、自動運転システムは、信号機遮蔽環境であると判定された場合に新たな走行計画を生成することで、撮像部が信号機を視認できる可能性を高めることができる。
自動運転システムは、走行計画生成部によって前記新たな走行計画の生成が開始される場合に報知する報知部をさらに備えていてもよい。この場合、自車両の乗員は、走行計画が変更される可能性があることを認識できる。
本発明の種々の側面によれば、信号機の認識処理を効率良く実行することができる。
実施形態に係る自動運転システムの概略構成を示す図である。 図2(a)は、自車両の前方の周辺車両をカメラで撮像した撮像画像を示す図である。図2(b)は、自車両の前方の周辺車両をカメラで撮像した撮像画像を示す図である。 図3(a)は、自車両の斜め前方を周辺車両が走行している様子を示す図である。図3(b)は、自車両の斜め後方を周辺車両が走行している様子を示す図である。図3(c)は、自車両の側方を周辺車両が走行している様子を示す図である。 信号機の手前に設定される認識ゾーンを示す図である。 信号機と周辺車両とを投影した投影画像を示す図である。 周辺車両によって信号機が遮られるか否かに基づいて自動運転システムが走行計画を変更する処理の流れを示すフローチャートである。 外部状況認識部によって行われる周辺車両の大きさを認識する処理の流れの一例を示すフローチャートである。 遮蔽環境判定部において行われる信号機遮蔽環境であるか否かを判定する処理の流れの一例を示すフローチャートである。 走行計画生成部によって行われる新たな走行計画を生成する処理の流れの一例を示すフローチャートである。
以下、本発明の実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1に示される自動運転システム100は、乗用車などの自車両Vに搭載され、自車両Vの自動運転制御を実行する。自動運転システム100は、乗員による自動運転制御の開始操作(自動運転の開始ボタンを押す操作等)が行われた場合に、自車両Vの自動運転制御を開始する。
自動運転制御とは、予め設定された目的地に向かって自動で自車両Vを走行させる車両制御である。自動運転制御では、運転者が運転操作を行う必要が無く、自車両Vが自動で走行する。
図1に示されるように、自動運転システム100は、装置を統括的に管理するECU[ElectronicControl Unit]10を備えている。ECU10は、CPU[Central ProcessingUnit]、ROM[Read Only Memory]、RAM[RandomAccess Memory]などを有する電子制御ユニットである。ECU10では、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECU10は、複数の電子ユニットから構成されていてもよい。
ECU10には、GPS受信部1、外部センサ2、内部センサ3、地図データベース(地図記憶部)4、ナビゲーションシステム5、アクチュエータ6、及びHMI[Human Machine Interface]7が接続されている。
GPS受信部1は、3個以上のGPS衛星から信号を受信することにより、自車両Vの位置(例えば自車両Vの緯度及び経度)を測定する。GPS受信部1は、測定した自車両Vの位置情報をECU10へ送信する。
外部センサ2は、自車両Vの周辺の状況を検出する検出機器である。外部センサ2は、信号機を認識するためのカメラ(撮像部)2aを含む。外部センサ2は、カメラ2aに加え、レーダセンサ等の他のセンサを含んでいてもよい。カメラ2aは、自車両Vの前方の信号機に加え、自車両Vの周囲を撮像する撮像機器である。カメラ2aは、自車両Vの周囲の撮像情報(撮像画像の情報)をECU10へ送信する。カメラ2aは、単眼カメラであってもよく、ステレオカメラであってもよい。ステレオカメラは、両眼視差を再現するように配置された二つの撮像部を有している。ステレオカメラの撮像情報には、奥行き方向の情報も含まれている。
レーダセンサは、電波(例えばミリ波)又は光を利用して自車両Vの周辺の障害物を検出する検出機器である。レーダセンサには、例えば、ミリ波レーダ又はライダー[LIDAR:Light Detection and Ranging]が含まれる。レーダセンサは、電波又は光を自車両Vの周辺に送信し、障害物で反射された電波又は光を受信することで障害物を検出する。レーダセンサは、検出した障害物情報をECU10へ送信する。
内部センサ3は、自車両Vの走行状態を検出する検出機器である。内部センサ3は、車速センサ、加速度センサ、及びヨーレートセンサを含む。車速センサは、自車両Vの車速を検出する検出器である。車速センサとしては、例えば、自車両Vの車輪又は車輪と一体に回転するドライブシャフト等に対して設けられ、車輪の回転速度を検出する車輪速センサが用いられる。車速センサは、検出した車速情報(車輪速情報)をECU10に送信する。
加速度センサは、自車両Vの加速度を検出する検出器である。加速度センサは、例えば、自車両Vの前後方向の加速度を検出する前後加速度センサと、自車両Vの横加速度を検出する横加速度センサとを含んでいる。加速度センサは、例えば、自車両Vの加速度情報をECU10に送信する。ヨーレートセンサは、自車両Vの重心の鉛直軸周りのヨーレート(回転角速度)を検出する検出器である。ヨーレートセンサとしては、例えばジャイロセンサを用いることができる。ヨーレートセンサは、検出した自車両Vのヨーレート情報をECU10へ送信する。
地図データベース4は、地図情報を記憶するデータベースである。地図データベースは、車両に搭載されたHDD[Hard Disk Drive]内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えばカーブ、直線部の種別、カーブの曲率等)、交差点及び分岐点の位置情報、道路に設定された制限車速、及び建物の位置情報等が含まれる。なお、地図データベースは、車両と通信可能な情報処理センター等の施設のコンピュータに記憶されていてもよい。
地図情報には、信号機の設置位置の位置情報が含まれている。この信号機の設置位置の位置情報には、信号機の発光部(バルブ等の発光体が設けられた部位)の高さ位置が含まれている。地図情報には、信号機の手前側に設置された停止線の位置情報が含まれている。
地図情報には、走行車線上から見て信号機(発光部)の視認が困難となる困難ゾーンの位置情報がさらに含まれている。例えば、困難ゾーンとは、信号機の付近に存在する樹木の枝葉、看板、標識、又は道路構造物等によって遮蔽されることにより、信号機の発光部の視認が困難となる領域であってもよい。例えば、困難ゾーンとは、逆光によってカメラ2aの撮像画像が白飛びし、カメラ2aの撮像画像から信号機の発光部を認識することが困難となる領域であってもよい。例えば、困難ゾーンとは、道路勾配によって信号機の発光部が視認できない領域であってもよい。例えば、困難ゾーンとは、順光によってカメラ2aの撮像画像中の信号機の発光部の全ての発光体が発色し、どの発光体が発光しているかを認識することが困難となる領域であってもよい。この逆光及び順光となることによって信号機の発光部の認識が困難となる困難ゾーンの位置情報には、逆光又は順光となる時間帯の情報が対応付けられていてもよい。例えば、困難ゾーンとは、周囲に高い建物が建っている等のために太陽光が遮られて暗くなり、信号機の発光部の視認が困難となる領域であってもよい。また、信号機の発光部に視覚制限装置が取り付けられている場合、特定の位置からしか信号機の発光部の発光を視認することができない。このような信号機が設置されている場合、例えば、信号機の付近において、信号機の発光部を視認可能な特定の位置以外の領域が困難ゾーンとして設定されていてもよい。
ナビゲーションシステム5は、予め設定された目的地まで自車両Vの運転者の案内を行うシステムである。ナビゲーションシステム5は、GPS受信部1の測定した自車両Vの位置と地図データベース4の地図情報とに基づいて、自車両Vの現在の位置から目的地までの経路を生成する。ナビゲーションシステム5は、後述するHMI7の画像表示及び音声出力により運転者に対して当該経路の案内を行う。ナビゲーションシステム5は、自車両Vの目的地及び自車両Vの経路に関する情報をECU10に送信する。なお、自動運転システム100は必ずしもナビゲーションシステム5を備える必要はない。自車両Vの経路の生成は、ECU10によって行なわれてもよい。目的地は、乗員により設定されてもよく、ナビゲーションシステム5等により周知の手法で自動的に設定されてもよい。
アクチュエータ6は、自車両Vの制御に用いられる機器である。アクチュエータ6は、駆動アクチュエータ、ブレーキアクチュエータ、及び操舵アクチュエータを少なくとも含む。駆動アクチュエータは、ECU10からの制御信号に応じてエンジンに対する空気の供給量(スロットル開度)を制御し、自車両Vの駆動力を制御する。なお、自車両Vがハイブリッド車である場合には、エンジンに対する空気の供給量の他に、動力源としてのモータにECU10からの制御信号が入力されて当該駆動力が制御される。自車両Vが電気自動車である場合には、動力源としてのモータにECU10からの制御信号が入力されて当該駆動力が制御される。これらの場合における動力源としてのモータは、アクチュエータ6を構成する。
ブレーキアクチュエータは、ECU10からの制御信号に応じてブレーキシステムを制御し、自車両Vの車輪へ付与する制動力を制御する。ブレーキシステムとしては、例えば、液圧ブレーキシステムを用いることができる。操舵アクチュエータは、電動パワーステアリングシステムのうち操舵トルクを制御するアシストモータの駆動を、ECU10からの制御信号に応じて制御する。これにより、操舵アクチュエータは、自車両Vの操舵トルクを制御する。
HMI7は、自動運転システム100と自車両Vの乗員との間で情報の入出力を行うためのインターフェイスである。HMI7は、例えば、ディスプレイ、スピーカ等を備えている。HMI7は、ECU10からの制御信号に応じて、ディスプレイの画像出力及びスピーカからの音声出力を行う。また、HMI7は、乗員が入力操作を行うための入力ボタンやタッチパネル、音声入力装置などの入力部を備えている。
次に、ECU10の機能的構成について説明する。ECU10は、車両位置認識部11、外部状況認識部(周辺車両認識部)12、走行状態認識部13、走行計画生成部14、認識ゾーン設定部15、遮蔽環境判定部16、信号機認識部17、報知部18、及び車両制御部19を有する。ECU10の機能の一部は、自車両Vと通信可能なサーバーにおいて実行されてもよい。
なお、カメラ2a、地図データベース4、車両位置認識部11、外部状況認識部12、認識ゾーン設定部15、遮蔽環境判定部16、及び信号機認識部17によって、自車両Vの前方の信号機を認識する信号機認識装置が構成される。すなわち、自動運転システム100は、自車両Vの前方の信号機を認識する信号機認識装置を備えている。
車両位置認識部11は、GPS受信部1の位置情報及び地図データベース4の地図情報に基づいて、自車両Vの地図上の位置を認識する。また、車両位置認識部11は、地図データベース4の地図情報に含まれた電柱などの固定障害物の位置情報及び外部センサ2の検出結果を利用して、SLAM[Simultaneous Localization and Mapping]技術により自車両Vの位置を認識する。車両位置認識部11は、その他、周知の手法により車両の地図上の位置を認識してもよい。
外部状況認識部12は、自車両Vの周囲の道路状況を認識する。外部状況認識部12は、例えば、外部センサ2の検出結果に基づいて、自車両Vに対する障害物の位置(自車両Vに対する障害物の方向、及び、自車両Vと障害物との相対距離)、自車両Vと障害物との相対速度を認識する。外部状況認識部12は、例えば、外部センサ2のカメラ2aの撮像情報に基づいて、自車両Vの走行車線及び隣接車線の白線(車線境界線)を認識する。外部状況認識部12は、カメラ2aの撮像情報に基づいて、白線の線種(連続線、破線等)を認識してもよい。外部状況認識部12は、例えば、白線の認識結果に基づいて、自車両Vの走行する走行車線を認識する。外部状況認識部12が認識する障害物には、自車両Vの周囲を移動する歩行者、自転車、及び周辺車両等の移動障害物が含まれる。また、障害物には、ガードレール、建物等の固定障害物が含まれる。
また、外部状況認識部12は、自車両Vに対する周辺車両の位置に加え、周辺車両の大きさを認識する。外部状況認識部12は、外部センサ2の検出結果に基づいて、周知の手法により、周辺車両の大きさを認識する。ここでは、外部状況認識部12は、周辺車両の大きさとして、周辺車両の幅(横幅)、高さ、及び全長を認識する。
まず、外部状況認識部12が、カメラ2aの撮像画像から自車両Vの前方を走行する周辺車両V1の大きさを認識する場合について説明する。カメラ2aの撮像画像には、図2(a)に示されるように、周辺車両V1の後部が写っている。例えば、外部状況認識部12は、自車両Vの前方を走行する周辺車両V1の大きさを認識する場合、撮像画像に基づいて周辺車両V1の幅W及び高さHを認識する。外部状況認識部12は、周辺車両V1の全長Lについては、撮像画像から直接認識することは困難である。このため、外部状況認識部12は、認識した周辺車両V1の幅W及び高さHに基づいて、周辺車両V1の種別(乗用車、大型トラック等の種別)を推定する。なお、外部状況認識部12は、撮像画像に含まれる周辺車両V1の形状等の特徴から、周辺車両V1の種別を推定してもよい。ここで、外部状況認識部12は、車両の種別毎に、予め車両の全長Lの代表値を記憶している。一例として、外部状況認識部12は、乗用車であれば、全長Lの代表値として4mを記憶している。一例として、外部状況認識部12は、大型トラックであれば、全長Lの代表値として12mを記憶している。外部状況認識部12は、予め記憶する車両の種別毎の全長Lの代表値から、認識した周辺車両V1の種別に対応する全長Lの代表値を選択する。外部状況認識部12は、選択した全長Lの代表値を、自車両Vの前方を走行する周辺車両V1の全長Lとして採用する。
次に、外部状況認識部12が、カメラ2aの撮像画像から自車両Vの側方を走行する周辺車両V1の大きさを認識する場合について説明する。カメラ2aの撮像画像には、図2(b)に示されるように、周辺車両V1の側部が写っている。例えば、外部状況認識部12は、自車両Vの側方を走行する周辺車両V1の大きさを認識する場合、撮像画像に基づいて周辺車両V1の全長L及び高さHを認識する。外部状況認識部12は、周辺車両V1の幅Wについては、撮像画像から直接認識することは困難である。このため、外部状況認識部12は、上述したように、周辺車両V1の種別を推定する。ここで、外部状況認識部12は、車両の種別毎に、予め車両の幅Wの代表値を記憶している。外部状況認識部12は、予め記憶する車両の種別毎の幅Wの代表値から、認識した周辺車両V1の種別に対応する幅Wの代表値を選択する。外部状況認識部12は、選択した幅Wの代表値を、自車両Vの側方を走行する周辺車両V1の幅Wとして採用する。
また、外部状況認識部12は、互いに異なるタイミングで撮像された複数の撮像画像から周辺車両の幅、高さ、及び全長の少なくともいずれかをそれぞれ認識し、認識した結果を組み合わせて周辺車両の大きさ(幅、高さ、全長)を認識してもよい。例えば、外部状況認識部12は、図3(a)又は図3(b)に示されるように周辺車両V1が自車両Vの斜め前方又は斜め後方を走行している場合、カメラ2aの撮像画像に基づいて、周辺車両V1の幅W及び高さHを認識する。そして、外部状況認識部12は、図3(c)に示されるように、周辺車両V1が周辺車両V1の側方を走行する状態となったときに撮像されたカメラ2aの撮像画像に基づいて、周辺車両V1の全長Lを認識する。外部状況認識部12は、これらの認識結果を組み合わせて、周辺車両V1の大きさ(幅、高さ、全長)を認識してもよい。
また、例えば、図3(c)に示されるように周辺車両V1が自車両Vの側方を走行している場合、カメラ2aの撮像画像に基づいて、周辺車両V1の高さH及び全長Lを認識する。そして、外部状況認識部12は、図3(a)又は図3(b)に示されるように、周辺車両V1が自車両Vの斜め前方又は斜め後方を走行する状態となったときに撮像されたカメラ2aの撮像画像に基づいて、周辺車両V1の幅Wを認識する。外部状況認識部12は、これらの認識結果を組み合わせて、周辺車両V1の大きさ(幅、高さ、全長)を認識してもよい。
なお、外部状況認識部12は、カメラ2aの撮像画像以外にも、外部センサ2のレーダセンサで検出された障害物情報に基づいて、周辺車両の大きさを認識してもよい。例えば、外部状況認識部12は、ライダーの検出結果である点群情報に基づいて、周知の手法により、周辺車両の大きさを認識してもよい。なお、外部状況認識部12は、ライダーの点群情報を用いる場合もカメラ2aの撮像情報を用いた場合と同様に、車両の種別毎に記憶する全長L又は幅Wを用いて周辺車両の大きさを認識してもよい。また、外部状況認識部12は、ライダーの点群情報を用いる場合もカメラ2aの撮像情報を用いた場合と同様に、互いに異なるタイミングで検出された点群情報から周辺車両の幅、高さ、及び全長の少なくともいずれかをそれぞれ認識し、認識した結果を組み合わせて周辺車両の大きさ(幅、高さ、全長)を認識してもよい。
走行状態認識部13は、内部センサ3の検出結果に基づいて、自車両Vの走行状態を認識する。走行状態には、自車両Vの車速、自車両Vの加速度、自車両Vのヨーレートが含まれる。具体的には、走行状態認識部13は、車速センサの車速情報に基づいて、自車両Vの車速を認識する。走行状態認識部13は、加速度センサの車速情報に基づいて、自車両Vの加速度を認識する。走行状態認識部13は、ヨーレートセンサのヨーレート情報に基づいて、自車両Vの向きを認識する。
走行計画生成部14は、ナビゲーションシステム5により設定された目標ルート、地図データベース4の地図情報、外部状況認識部12により認識された自車両Vの周囲の道路状況、走行状態認識部13により認識された自車両Vの走行状態、及び信号機認識部17における信号機の認識結果に基づいて、自車両Vの自動運転制御を実行する際に用いられる走行計画を生成する。走行計画生成部14は、運転者が自動運転制御の開始操作を行った場合に、走行計画の生成を開始する。走行計画生成部14は、所定時間毎に繰り返し走行計画を生成する。この走行計画は、自車両Vの現在の位置から予め設定された目的地に自車両Vが至るまでの走行計画となる。
走行計画には、自車両Vの目標ルート上の位置に応じた自車両Vの制御目標値が含まれている。目標ルート上の位置とは、地図上で目標ルートの延在方向における位置である。目標ルート上の位置は、目標ルートの延在方向において所定間隔(例えば1m)毎に設定された設定縦位置を意味する。制御目標値とは、走行計画において車両の制御目標となる値である。制御目標値には、目標車速と目標軌跡とが含まれる。目標車速は、通常用走行計画において自車両Vの車速の制御目標となる値である。目標軌跡は、自車両Vの走行する軌跡の制御目標となる値である。目標軌跡から自車両Vの操舵角の制御目標である目標操舵角が演算される。
目標車速は、自動運転制御により自車両Vが走行する経路上の位置に応じて設定されている。自動運転制御により車両が走行する経路とは、予め設定された目的地と現在の自車両Vの地図上の位置とを結ぶ自動運転制御の目標ルートである。経路上の位置とは、地図上で経路の延在方向における位置である。具体的に、経路上の位置は、経路の延在方向において所定間隔(例えば1m)毎に設定された設定縦位置とすることができる。設定縦位置の設定方法は前述の方法に限られない。通常用走行計画では、設定縦位置毎に目標車速が設定されている。
なお、目標車速に代えて、目標加速度又は目標ジャークを用いてもよい。また、目標軌跡に加えて、目標操舵角、目標操舵角速度、目標操舵トルク又は目標横位置(自車両Vの目標となる道路の幅方向における位置)を設定縦位置毎に設定してもよい。なお、制御目標値には、車両制御に関する周知のパラメータを加えてもよい。
例えば、走行計画を生成する際の条件として、自車両Vの周囲を走行する周辺車両と自車両Vとの車間距離の条件である車間距離条件が予め定められている。走行計画生成部14は、自車両Vの周囲を走行する周辺車両の位置を予測し、予め定められた車間距離条件を満たすように自車両Vの走行位置を調整した走行計画を生成する。
走行計画生成部14は、詳しくは後述する遮蔽環境判定部16において信号機遮蔽環境であると判定された場合、遮蔽環境判定部16において信号機遮蔽環境であると判定されない新たな走行計画を生成する。例えば、走行計画生成部14は、周辺車両と自車両Vとの車間距離を前回生成した走行計画に対して変更した変更後の走行計画を生成する。また、走行計画生成部14は、前回生成した走行計画に対して車線変更を加えた変更後の走行計画を生成する。なお、ここでの車線変更を加えた変更後の走行計画とは、車線変更を行っても、再び目的地に向かう車線に戻る(車線変更する)ことができる走行計画である。
走行計画生成部14は、遮蔽環境判定部16が変更後の走行計画を用いて信号機遮蔽環境であるか否かの判定を行ったときに信号機遮蔽環境であると判定されなくなるまで、車間距離を変更した又は車線変更を加えた変更後の走行計画を生成する。走行計画生成部14は、信号機遮蔽環境であると判定されなくなった変更後の走行計画を、遮蔽環境判定部16において信号機遮蔽環境であると判定されない新たな走行計画として採用(生成)する。走行計画を変更しても遮蔽環境判定部16において信号機遮蔽環境であると判定される場合(新たな走行計画が生成できない場合)、走行計画生成部14は、自車両Vの運転状態を自動運転から運転者による手動運転に切り替えるハンドオーバーが必要であると判定する。
例えば、信号機遮蔽環境であると判定された場合、走行計画生成部14は、予め定められた車間距離条件内で前方の周辺車両との車間距離を変更した変更後の走行計画を生成する。例えば、走行計画生成部14は、車間距離を変更した変更後の走行計画として、前回生成した走行計画における車間距離に対して所定の増加分を加えた走行計画を生成する。変更後の走行計画に基づいて再び遮蔽環境判定部16において信号機遮蔽環境であると判定された場合、走行計画生成部14は、予め定められた車間距離条件内で再度車間距離を変更した変更後の走行計画を生成する。
予め定められた車間距離条件内で車間距離を変更しても信号機遮蔽環境であると判定される場合、走行計画生成部14は、前回生成した走行計画に対して車線変更を加えた走行計画を変更後の走行計画として生成する。なお、走行計画生成部14は、前回生成した走行計画に対して車線変更を加える際に、予め設定された基準に基づいて、車線変更の可否を判定する。例えば、車線変更における予め定められた基準としては、例えば、車線変更先の空き領域の大きさの閾値等がある。車線変更を加えても遮蔽環境判定部16において信号機遮蔽環境であると判定される場合、走行計画生成部14は、ハンドオーバーが必要であると判定する。
なお、信号機(発光部)の視認が困難となる困難ゾーン内を自車両Vが走行している場合、信号機認識部17は信号機の認識が困難となる。この場合、例えば、走行計画生成部14は、周辺車両の動きに基づいて信号機が示す指示内容を推定し、推定結果に基づいて走行計画を生成してもよい。また、走行計画生成部14は、困難ゾーン内を自車両Vが走行している場合、ハンドオーバーが必要であると判定してもよい。
認識ゾーン設定部15は、図4に示されるように、自車両Vの走行車線R上において、信号機Aの手前の位置に信号機Aの認識処理を実行すべき認識ゾーンSを設定する。例えば、認識ゾーン設定部15は、車両位置認識部11によって認識された自車両Vの位置情報、及び地図データベース4に記憶された地図情報に基づいて、信号機Aに向かって走行する自車両Vと信号機Aとの距離が所定距離以内となった場合に、認識ゾーンSを設定する。認識ゾーン設定部15は、走行車線R上に認識開始位置P2と認識終了位置P1とを設定する。認識開始位置P2と認識終了位置P1との間の領域が、認識ゾーンSとなる。
まず、認識ゾーン設定部15が認識終了位置P1を設定する手順の一例について説明する。例えば、認識ゾーン設定部15は、認識終了位置P1を設定する際に、走行車線Rの設定車速、自車両Vの制動能力、及び制動時に許容される許容制動加速度を用いる。認識ゾーン設定部15は、走行車線Rの設定車速を、地図データベース4が記憶する地図情報から取得する。自車両Vの制動能力、及び許容制動加速度は、予め設定されている。認識ゾーン設定部15は、上記の設定車速等に基づいて、自車両Vが設定車速で走行しているときに許容制動加速度を超えない範囲で停止線Tに停止可能な最後の位置(最も停止線Tに近い位置)を、認識終了位置P1として設定する。
次に、認識ゾーン設定部15が認識開始位置P2を設定する手順の一例について説明する。例えば、認識ゾーン設定部15は、認識開始位置P2を設定する際に、走行車線Rの設定車速、及び信号機Aの表示が「走行可」から「停止」を意味する表示に遷移するまでに要する時間である表示遷移時間を用いる。この表示遷移時間とは、例えば、信号機Aが青信号から赤信号に遷移するのに要する時間である。この表示遷移時間は、予め設定された一定の時間であってもよく、信号機毎に異なる場合には地図情報に含まれていてもよい。認識ゾーン設定部15は、停止線Tよりも、自車両Vが設定車速で表示遷移時間走行したときの走行距離手前の位置を認識開始位置P2として設定する。
なお、認識ゾーン設定部15は、認識終了位置P1及び認識開始位置P2を他の方法に基づいて設定してもよい。例えば、認識ゾーン設定部15は、停止線Tから予め定められた距離手前側の位置を認識終了位置P1として設定してもよい。また、認識ゾーン設定部15は、停止線T又は認識終了位置P1から、予め定められた距離手前側の位置を認識開始位置P2として設定してもよい。
遮蔽環境判定部16は、認識ゾーンSのうち困難ゾーンN以外のゾーンを設定する。以下、認識ゾーンSのうち困難ゾーンN以外のゾーンを、「残存認識ゾーンS1」と称する。例えば、遮蔽環境判定部16は、図4に示されるように、認識ゾーンSから困難ゾーンNを除外して、残りの領域を残存認識ゾーンS1として設定する。遮蔽環境判定部16は、逆光、又は順光によって信号機の認識が困難となる困難ゾーンについては、現在の時間を考慮して認識ゾーンSから困難ゾーンNを除外する。
また、遮蔽環境判定部16は、残存認識ゾーンS1内が、当該ゾーン内を自車両Vが走行するときにカメラ2aから信号機Aの発光部A1への視線が周辺車両によって遮られる信号機遮蔽環境であるか否かを判定する。すなわち、遮蔽環境判定部16は、信号機遮蔽環境であるか否かを判定する処理を、残存認識ゾーンS1に対して実行し、困難ゾーンNに対しては実行しない。遮蔽環境判定部16は、この判定を、自車両Vが認識開始位置P2に到達する前に行う。但し、信号機遮蔽環境であるか否かを判定する処理は、自車両が認識開始位置P2に到達した後、残存認識ゾーンS1内を走行中に行われてもよい。
具体的には、遮蔽環境判定部16は、信号機Aの設置位置(発光部A1の設置位置及び高さ)、並びに外部状況認識部12で認識された周辺車両の大きさ及び位置に基づいて、残存認識ゾーンS1内を自車両Vが走行するときに、カメラ2aから信号機Aへの視線を周辺車両が遮るか否かを予測する。遮蔽環境判定部16は、信号機Aの設置位置を、地図データベース4が記憶する地図情報から取得する。遮蔽環境判定部16は、カメラ2aから信号機Aへの視線を周辺車両が遮ると予測した場合、残存認識ゾーンS1が信号機遮蔽環境であると判定する。
また、遮蔽環境判定部16は、自車両Vが残存認識ゾーンS1内を走行するときの自車両Vの位置として、走行計画生成部14で生成された走行計画に基づいて自車両Vが走行した場合の位置を用いる。遮蔽環境判定部16は、自車両Vが走行計画に基づいて走行した場合に、周辺車両によって信号機Aの発光部A1への視線が遮られるか否かを予測する。
さらに、遮蔽環境判定部16は、周辺車両が残存認識ゾーンS1内を走行するときの位置として、外部状況認識部12で認識された周辺車両の位置等に基づいて予測した位置を用いる。例えば、遮蔽環境判定部16は、周辺車両の進行方向の車速及び加速度から、残存認識ゾーンS1内を周辺車両が走行するときに自車両Vの前方を走行するか又は後方を走行するか等を予測してもよい。例えば、遮蔽環境判定部16は、周辺車両の横方向(車幅方向)の加速度に基づいて周辺車両が車線変更を行うか否かを予測し、自車両Vの側方を走行していた周辺車両が残存認識ゾーンS1内では自車両Vの前方に位置するか等を予測してもよい。なお、遮蔽環境判定部16は、走行計画生成部14で予測された周辺車両の位置を用いてもよい。
遮蔽環境判定部16は、自車両Vが走行計画に基づいて認識開始位置P2から認識終了位置P1に向かって走行したときの残存認識ゾーンS1内の各走行位置において、信号機Aへの視線を周辺車両が遮るか否かを予測する。ここでの自車両Vが残存認識ゾーンS1内を走行するときの各走行位置とは、走行車線に沿った所定距離毎の位置であってもよい。また、遮蔽環境判定部16は、周辺車両の位置として、自車両Vが残存認識ゾーンS1の各走行位置を走行しているときに周辺車両が走行していると予測される位置を用いる。
次に、遮蔽環境判定部16によって行われる信号機遮蔽環境であるか否かを判定する処理の一例について説明する。まず、自車両Vが残存認識ゾーンS1内の所定の走行位置を走行しているときに、信号機Aの発光部A1の画像に対して周辺車両の画像が重複しているか否かを判定する処理について説明する。まず、図5に示されるように、遮蔽環境判定部16は、カメラ2aと同じ解像度の空画像B(例えば0で埋められた画像)を生成する。遮蔽環境判定部16は、残存認識ゾーンS1内を自車両Vが走行するときの所定の走行位置と信号機Aの設置位置とに基づいて、空画像Bに信号機Aの画像を投影する。空画像Bに投影される信号機Aの画像の位置は、自車両Vが残存認識ゾーンS1内の所定の走行位置を走行しているときにカメラ2aによって撮像される位置である。自車両Vが所定の走行位置を走行しているときの自車両Vの車幅方向の位置は、走行計画に基づいて得られる。なお、遮蔽環境判定部16には、自車両Vにおけるカメラ2aの撮像範囲等の情報が予め設定されている。
次に、遮蔽環境判定部16は、外部状況認識部12で認識された周辺車両V1の大きさ及び自車両Vに対する位置に基づいて、空画像Bに周辺車両V1の画像を投影する。ここでの周辺車両V1の位置とは、自車両Vが所定の走行位置を走行しているときに周辺車両V1が走行していると予測される位置である。遮蔽環境判定部16は、空画像Bに対して信号機A及び周辺車両V1の画像を投影した投影画像B1に基づいて、信号機Aの発光部A1の画像に対して周辺車両V1の画像が重複しているか否かを判定する。遮蔽環境判定部16は、空画像Bに信号機A及び周辺車両V1の画像を投影して投影画像B1を生成する処理を、自車両Vが走行計画に基づいて認識開始位置P2から認識終了位置P1に向かって走行したときの残存認識ゾーンS1内の各走行位置において行う。
遮蔽環境判定部16は、信号機Aの発光部A1の画像に対して周辺車両V1の画像が重複しているか否かに基づいて、残存認識ゾーンS1内が信号機遮蔽環境であるか否かを判定する。例えば、遮蔽環境判定部16は、自車両Vが残存認識ゾーンS1内を走行したときの各走行位置に対して投影画像B1を生成し、発光部A1と周辺車両V1とが重複していない時間、すなわち信号機Aを視認可能な時間を推定する。遮蔽環境判定部16は、視認可能な時間が予め定められた閾値を超える場合に、残存認識ゾーンS1内が信号機遮蔽環境でないと判定する。また、遮蔽環境判定部16は、視認可能な時間が予め定められた閾値以下である場合に、残存認識ゾーンS1内が信号機遮蔽環境であると判定する。
これに限定されず、例えば、遮蔽環境判定部16は、投影画像B1を生成したときに、1回でも発光部A1と周辺車両V1とが重複する場合に、残存認識ゾーンS1内が信号機遮蔽環境であると判定してもよい。例えば、遮蔽環境判定部16は、投影画像B1を複数生成したときに、発光部A1と周辺車両V1とが重複していると判定された割合又は回数が予め定められた閾値を超える場合に、残存認識ゾーンS1内が信号機遮蔽環境であると判定してもよい。なお、この判定に用いられる閾値のそれぞれは、例えば、自車両Vの車速、認識ゾーンSの長さ等に基づいて変更されてもよい。投影画像B1に基づいて得られる発光部A1と周辺車両V1とが重複しているか否かの判定結果に基づいて、遮蔽環境判定部16は、種々の方法を用いて、残存認識ゾーンS1内が信号機遮蔽環境であると判定することができる。
また、遮蔽環境判定部16は、自車両Vが走行計画に基づいて認識開始位置P2から認識終了位置P1に向かって残存認識ゾーンS1内を走行するときの各走行位置に対して投影画像B1を生成することに限定されない。例えば、遮蔽環境判定部16は、自車両Vが残存認識ゾーンS1内を走行するときの一つの走行位置について1回だけ投影画像B1を生成し、生成した投影画像B1に基づいて信号機遮蔽環境であるか否かを判定してもよい。
なお、遮蔽環境判定部16は、走行計画生成部14において変更後の走行計画が生成された場合、変更後の走行計画に基づいて、残存認識ゾーンS1内が信号機遮蔽環境であるか否かを再度判定する。
信号機認識部17は、車両位置認識部11で認識された自車両Vの位置が認識ゾーンS内である場合に、カメラ2aの撮像結果(撮像画像)に基づいて信号機Aの認識処理を実行する。ここでは、信号機認識部17は、信号機Aの認識処理として、カメラ2aの撮像画像に基づいて周知の技術によって発光部A1が示す指示内容を認識する。
なお、信号機認識部17は、認識ゾーンSのうち困難ゾーンN内では信号機Aの認識処理を実行しない。このように、信号機認識部17は、樹木の枝葉等によって信号機Aの発光部A1の認識が困難な場合、信号機Aの認識処理を実行しない。さらに、信号機認識部17は、遮蔽環境判定部16において信号機遮蔽環境であると判定されている場合、認識ゾーンSのうち残存認識ゾーンS1内において信号機の認識処理を実行しない。このように、信号機認識部17は、周辺車両V1によってカメラ2aから信号機Aの発光部A1への視線が遮られる場合、信号機Aの認識処理を実行しない。
報知部18は、走行計画生成部14によって新たに走行計画の生成が開始される場合に、自車両Vの乗員に対して報知する。なお、上述したように、走行計画生成部14によって新たに走行計画の生成が開始される場合とは、遮蔽環境判定部16において残存認識ゾーンS1内が信号機遮蔽環境であると判定された場合である。すなわち、この場合とは、走行計画が変更される場合である。報知部18は、例えば、HMI7を用いて、音又は光等によって走行計画が変更される可能性がある旨を報知する。また、報知部18は、自車両Vの乗員が着座するシート等に設けられた振動源を振動させることによって、報知してもよい。
また、報知部18は、上述したように新たな走行計画が生成できないために走行計画生成部14においてハンドオーバーが必要であると判定された場合、HMI7を通じて自車両Vの運転者に対してハンドーバーを行う旨を報知する。
車両制御部19は、走行計画生成部14の生成した走行計画に基づいて、自車両Vの自動運転制御を実行する。車両制御部19は、アクチュエータ6に制御信号を送信することで車両の自動運転制御を実行する。すなわち、車両制御部19は、走行計画に基づいて自車両Vを自動で走行させる。
次に、周辺車両によって信号機が遮られるか否かに基づいて自動運転システム100が走行計画を変更する処理の流れについて図6のフローチャートを用いて説明する。なお、図6に示される処理は、走行計画に基づいて自車両Vの自動運転制御が実行されている状態で、信号機Aに向かって走行する自車両Vと信号機Aとの距離が所定距離以内となった場合に開始される。図6に示される処理は、所定時間毎に繰り返し実行される。
図6に示されるように、自車両Vと信号機Aとの距離が所定距離以内となると、認識ゾーン設定部15は、信号機Aの認識処理を実行すべき認識ゾーンSを設定する(S101)。次に、遮蔽環境判定部16は、認識ゾーンSから困難ゾーンNを除外し、信号機遮蔽環境であるか否かを判定するための残存認識ゾーンS1を設定する(S102)。
外部状況認識部12は、外部センサ2の検出結果に基づいて、自車両Vの周囲の周辺車両の大きさ及び位置を認識する(S103)。遮蔽環境判定部16は、残存認識ゾーンS1内が、カメラ2aから信号機Aの発光部A1への視線が周辺車両によって遮られる信号機遮蔽環境であるか否かを判定する(S104)。残存認識ゾーンS1内が信号機遮蔽環境ではない、すなわち信号機Aを視認可能である場合(S105:YES)、自動運転システム100は、信号機Aが遮蔽されるか否かに基づく走行計画の変更を行わない。車両制御部19は、走行計画生成部14において元々生成されていた走行計画に基づいて自車両Vの走行を制御する。その後、自動運転システム100は、再びS101の処理を実行する。
残存認識ゾーンS1内が信号機遮蔽環境である、すなわち信号機Aが視認可能でない場合(S105:NO)、報知部18は、走行計画が変更される可能性がある旨を報知する(S106)。走行計画生成部14は、遮蔽環境判定部16において信号機遮蔽環境であると判定されない新たな走行計画を生成する処理を実行する(S107)。走行計画生成部14において新たな走行計画が生成された場合(S108:YES)、車両制御部19は、自動運転制御を実行する際に用いる走行計画を新たな走行計画に変更し、新たな走行計画に基づいて自車両Vの走行を制御する(S109)。
一方、走行計画生成部14において新たな走行計画が生成できない場合、すなわち走行計画生成部14においてハンドオーバーが必要であると判定された場合(S108:NO)、報知部18は、HMI7を通じて自車両Vの運転者に対してハンドーバーを行う旨を報知する(S110)。その後、車両制御部19は、自車両Vの自動運転制御を停止し、自車両Vの走行状態を運転者による手動運転に切り替える(S111)。
次に、図6のS103において外部状況認識部12よって行われる周辺車両の大きさを認識する処理の流れの一例を説明する。なお、図7に示される処理は、自車両Vの周囲を走行する全ての周辺車両に対して実行される。
図7に示されるように、外部状況認識部12は、自車両Vの周囲を走行する車両のうち、大きさの認識対象の周辺車両が自車両Vの前方又は後方を走行しているか否かを判定する(S201)。認識対象の周辺車両が自車両Vの前方又は後方を走行している場合(S201:YES)、外部状況認識部12は、カメラ2aの撮像画像から認識対象の周辺車両の幅及び高さを認識する(S202)。外部状況認識部12は、認識対象の周辺車両が過去に自車両Vの側方を通過したか否かを判定する(S203)。外部状況認識部12は、この判定を、例えば過去に認識された周辺車両の位置に基づいて行うことができる。認識対象の周辺車両が過去に自車両Vの側方を通過していた場合(S203:YES)、外部状況認識部12は、認識対象の周辺車両の全長として、認識対象の周辺車両が過去に自車両Vの側方を通過したときに検出された全長を使用する(S204)。外部状況認識部12は、これらの認識結果を組み合わせて、自車両Vの前方又は後方を走行する認識対象の周辺車両の大きさ(幅、高さ、全長)を認識する。
なお、外部状況認識部12は、周辺車両が自車両Vの側方を通過したときに、カメラ2aの撮像画像に基づいて周辺車両の全長を認識し、認識した全長を認識の対象とした周辺車両と対応付けて記憶している。同様に、外部状況認識部12は、周辺車両が自車両Vの前方又は後方を走行しているときに、カメラ2aの撮像画像に基づいて周辺車両の幅及び高さを認識し、認識した幅及び高さを認識の対象とした周辺車両と対応付けて記憶している。外部状況認識部12は、記憶している周辺車両の全長、又は、幅及び高さを過去の認識結果として用いることができる。
認識対象の周辺車両が過去に自車両Vの側方を通過していない場合(S203:NO)、外部状況認識部12は、カメラ2aの撮像画像に基づいて認識対象の周辺車両の種別を推定する(S205)。外部状況認識部12は、予め記憶する車両の種別毎の全長の代表値から、認識した周辺車両の種別に対応する全長の代表値を選択する。外部状況認識部12は、選択した全長の代表値を、認識対象の周辺車両の全長として使用する(S206)。外部状況認識部12は、これらの認識結果を組み合わせて、自車両Vの前方又は後方を走行する認識対象の周辺車両の大きさ(幅、高さ、全長)を認識する。
一方、認識対象の周辺車両が自車両Vの前方又は後方を走行していない場合(S201:YES)、すなわち周辺車両が自車両Vの側方を走行している場合、外部状況認識部12は、カメラ2aの撮像画像から認識対象の周辺車両の高さ及び全長を認識する(S207)。外部状況認識部12は、認識対象の周辺車両が過去に自車両Vの前方又は後方を走行していたか否かを判定する(S208)。外部状況認識部12は、この判定を、例えば過去に認識された周辺車両の位置に基づいて行うことができる。認識対象の周辺車両が過去に自車両Vの前方又は後方を走行していた場合(S208:YES)、外部状況認識部12は、認識対象の周辺車両の幅として、認識対象の周辺車両が過去に自車両Vの前方又は後方を走行していたときに検出された幅を使用する(S209)。外部状況認識部12は、これらの認識結果を組み合わせて、自車両Vの側方を走行する認識対象の周辺車両の大きさ(幅、高さ、全長)を認識する。
認識対象の周辺車両が過去に自車両Vの前方又は後方を走行していない場合(S208:NO)、外部状況認識部12は、カメラ2aの撮像画像に基づいて認識対象の周辺車両の種別を推定する(S210)。外部状況認識部12は、予め記憶する車両の種別毎の幅の代表値から、認識した周辺車両の種別に対応する幅の代表値を選択する。外部状況認識部12は、選択した幅の代表値を、認識対象の周辺車両の幅として使用する(S211)。外部状況認識部12は、これらの認識結果を組み合わせて、自車両Vの側方を走行する認識対象の周辺車両の大きさ(幅、高さ、全長)を認識する。
次に、遮蔽環境判定部16において行われる信号機遮蔽環境であるか否かを判定する処理の流れの一例を説明する。なお、本処理は、図6のS104において実行される。また、本処理は、走行計画生成部14において変更後の走行計画が生成された後(図9のS403及びS407)に実行される。
図8に示されるように、遮蔽環境判定部16は、走行計画生成部14で生成された走行計画を取得する(S301)。なお、遮蔽環境判定部16は、走行計画生成部14において変更後の走行計画が生成された場合には、変更後の走行計画を取得する。遮蔽環境判定部16は、信号機Aの設置位置を取得する(S302)。以下、遮蔽環境判定部16は、S303~S308の処理を、自車両Vが走行計画に基づいて認識開始位置P2から認識終了位置P1に向かって走行したときの残存認識ゾーンS1内の各走行位置の全てに対してそれぞれ実行する。
具体的には、遮蔽環境判定部16は、図5に示される空画像Bを生成する(S303)。遮蔽環境判定部16は、残存認識ゾーンS1内を自車両Vが走行するときの所定の走行位置と信号機Aの設置位置とに基づいて、空画像Bに信号機Aの画像を投影する(S304)。遮蔽環境判定部16は、自車両Vが所定の走行位置を走行しているときの周辺車両V1の大きさ及び位置に基づいて、空画像Bに周辺車両V1の画像を投影する(S305)。遮蔽環境判定部16は、信号機Aの発光部A1の画像に対して周辺車両V1の画像が重複しているか否かを判定する(S306)。画像が重複していない場合(S306:NO)、遮蔽環境判定部16は、信号機Aを視認可能な時間を増加させる(S307)。
画像が重複している場合(S306:YES)又はS307の処理の後、遮蔽環境判定部16は、残存認識ゾーンS1内の各走行位置の全てに対して信号機A及び周辺車両V1の投影が終了したか否かを判定する(S308)。各走行位置の全てに対して投影が終了していない場合(S308:NO)、遮蔽環境判定部16は、投影が終了していない走行位置に対して上述したS303~S307の処理を実行する。
各走行位置の全てに対して投影が終了した場合(S308:YES)、遮蔽環境判定部16は、信号機Aを視認可能な時間が予め定められた閾値を超えているか否かを判定する(S309)。視認可能な時間が閾値を超えている場合(S309:YES)、遮蔽環境判定部16は、残存認識ゾーンS1内が信号機遮蔽環境ではないと判定する(S310)。視認可能な時間が閾値を超えていない場合(S309:NO)、遮蔽環境判定部16は、残存認識ゾーンS1内が信号機遮蔽環境であると判定する(S311)。
次に、図6のS107において走行計画生成部14によって行われる新たな走行計画を生成する処理の流れの一例を説明する。図9に示されるように、走行計画生成部14は、前回生成した走行計画に対して予め定められた車間距離条件内で前方の周辺車両との車間距離を所定距離増加させることが可能であるか否かを判定する(S401)。車間距離を所定距離増加させると車間距離条件を満たさない場合(S401:NO)、走行計画生成部14は、S405の処理を実行する。
予め定められた車間距離条件内で車間距離を所定距離増加させることが可能である場合(S401:YES)、走行計画生成部14は、前回生成した走行計画に対して前方の周辺車両との車間距離を所定距離増加させた変更後の走行計画を生成する(S402)。遮蔽環境判定部16は、S402で生成された変更後の走行計画に基づいて、上述したように残存認識ゾーンS1内が信号機遮蔽環境であるか否かの判定を行う(S403)。残存認識ゾーンS1内が信号機遮蔽環境でない場合(S403:NO)、走行計画生成部14は、S402で生成された変更後の走行計画を新たな走行計画として採用する(S408)。
残存認識ゾーンS1内が信号機遮蔽環境である場合(S403:YES)、走行計画生成部14は、前回生成した走行計画に対して予め定められた車間距離条件内で前方の周辺車両との車間距離をさらに所定距離増加させることが可能であるか否かを判定する(S404)。車間距離をさらに増加可能である場合(S404:YES)、走行計画生成部14は、前回生成した変更後の走行計画に対して前方の周辺車両との車間距離をさらに所定距離増加させた変更後の走行計画を生成する(S402)。そして、車間距離がさらに変更された変更後の走行計画に基づいて、遮蔽環境判定部16は、信号機遮蔽環境であるか否かの判定を行う(S403)。
予め定められた車間距離条件内で前方の周辺車両との車間距離をさらに所定距離増加させることができない場合(S404:NO)、走行計画生成部14は、前回生成した走行計画に対して車線変更を加えた走行計画が生成可能であるか否かを判定する(S405)。車線変更を加えた走行計画が生成可能である場合(S405:YES)、走行計画生成部14は、前回生成した走行計画に対して車線変更を加えた変更後の走行計画を生成する(S406)。遮蔽環境判定部16は、S406で生成された変更後の走行計画に基づいて、上述したように残存認識ゾーンS1内が信号機遮蔽環境であるか否かの判定を行う(S407)。残存認識ゾーンS1内が信号機遮蔽環境でない場合(S407:NO)、走行計画生成部14は、S406で生成された変更後の走行計画を新たな走行計画として採用する(S408)。
S405において車線変更を加えた走行計画が生成可能でないと判定された場合(S405:NO)、又はS407において残存認識ゾーンS1内が信号機遮蔽環境であると判定された場合(S407:YES)、走行計画生成部14は、自車両Vの運転状態を自動運転から運転者による手動運転に切り替えるハンドオーバーが必要であると判定する(S409)。
以上のように、この自動運転システム100において信号機認識部17は、地図情報に含まれる困難ゾーンNを用いて、認識ゾーンSのうち困難ゾーンNを除いた残存認識ゾーンS1内で信号機Aの認識処理を実行する。このため、自動運転システム100は、地図情報に含まれる困難ゾーンNに基づいて、そもそも信号機Aの認識が困難なゾーンを除いた残存認識ゾーンS1内で信号機Aの認識処理を実行できる。また、信号機認識部17は、認識ゾーンSのうち困難ゾーンNを除いた残存認識ゾーンS1内で信号機Aの認識処理を実行する際に、周辺車両によって遮られるために信号機Aを認識できない信号機遮蔽環境であると判定されている場合、当該残存認識ゾーンS1内で信号機Aの認識処理を実行しない。これにより、自動運転システム100は、認識ゾーンS内において、信号機Aの認識処理を効率良く実行することができる。
また、自動運転システム100は、残存認識ゾーンS1内が信号機遮蔽環境であると判定された場合に新たな走行計画を生成することで、カメラ2aが信号機Aを視認できる可能性を高めることができる。
報知部18は、走行計画生成部14によって新たな走行計画の生成が開始される場合に報知する。この場合、自車両Vの乗員は、走行計画が変更される可能性があることを認識できる。
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、信号機認識装置は、自車両Vの自動運転制御を実行する自動運転システム100に組み込まれていたが、例えば自車両Vの運転を支援する運転支援装置等の他の制御装置に組み込まれていてもよい。信号機認識装置が自動運転システム100以外の装置に組み込まれており走行計画が生成されていない場合、遮蔽環境判定部16は、例えば、自車両Vの現在の車速等に基づいて自車両Vの走行状態を予測する。そして遮蔽環境判定部16は、予測した自車両Vの走行状態に基づいて、残存認識ゾーンS1内を自車両Vが走行するときにカメラ2aから信号機Aへの視線が周辺車両によって遮られるか否かを判定してもよい。また、信号機認識装置は、自動運転システム100等に組み込まれていることに限定されず、信号機Aを認識する装置として単体で用いられてもよい。
自動運転システム100は、走行計画生成部14によって新たな走行計画の生成が開始される場合に報知する報知部18を備えていなくてもよい。自動運転システム100は、報知部18による報知を行わずに、新たな走行計画を生成してもよい。
2a…カメラ(撮像部、信号機認識装置)、4…地図データベース(地図記憶部、信号機認識装置)、11…車両位置認識部(信号機認識装置)、12…外部状況認識部(周辺車両認識部、信号機認識装置)、14…走行計画生成部、15…認識ゾーン設定部(信号機認識装置)、16…遮蔽環境判定部(信号機認識装置)、17…信号機認識部(信号機認識装置)、18…報知部、19…車両制御部、100…自動運転システム、A…信号機、N…困難ゾーン、R…走行車線、S…認識ゾーン、S1…残存認識ゾーン(認識ゾーンのうち困難ゾーン以外のゾーン)、V…自車両、V1…周辺車両。

Claims (3)

  1. 自車両の前方の信号機を認識する信号機認識装置であって、
    前記信号機の設置位置と、走行車線上から見て前記信号機の視認が困難となる困難ゾーンの位置情報とを含む地図情報を記憶する地図記憶部と、
    前記走行車線上において前記信号機の手前の位置に前記信号機の認識処理を実行すべき認識ゾーンを設定する認識ゾーン設定部と、
    前記自車両の地図上の位置を認識する車両位置認識部と、
    前記自車両の前方を撮像する撮像部と、
    前記車両位置認識部で認識された前記自車両の位置が前記認識ゾーン内である場合に、前記撮像部の撮像結果に基づいて前記信号機の認識処理を実行する信号機認識部と、
    前記自車両周囲の周辺車両の大きさ及び前記自車両に対する位置を認識する周辺車両認識部と、
    前記認識ゾーンのうち前記困難ゾーン以外のゾーン内が、当該ゾーン内を前記自車両が走行するときに前記撮像部から前記信号機への視線が前記周辺車両によって遮られる信号機遮蔽環境であるか否かを判定する遮蔽環境判定部と、
    を備え、
    前記遮蔽環境判定部は、
    前記認識ゾーンのうち前記困難ゾーン以外のゾーン内を前記自車両が走行するときの前記自車両の予測される走行位置、及び前記信号機の設置位置に基づいて、前記自車両が前記予測される走行位置を走行しているときに前記撮像部から見たときの前記信号機の画像を空画像に投影するとともに、
    前記自車両の前記予測される走行位置、並びに前記周辺車両認識部で認識された前記周辺車両の大きさ及び位置に基づいて、前記自車両が前記予測される走行位置を走行しているときに前記撮像部から見たときの前記周辺車両の画像を前記空画像に投影し、
    前記信号機の発光部の画像に対して前記周辺車両の画像が重複しているか否かに基づいて、前記認識ゾーンのうち前記困難ゾーン以外のゾーン内を前記自車両が走行するときに前記撮像部から前記信号機への視線を前記周辺車両が遮るか否かを予測し、予測結果に基づいて前記信号機遮蔽環境であるか否かを判定し、
    前記信号機認識部は、
    前記認識ゾーンのうち前記困難ゾーン内では前記信号機の認識処理を実行せず、
    前記遮蔽環境判定部おいて前記信号機遮蔽環境であると判定されている場合、前記認識ゾーンのうち前記困難ゾーン以外のゾーン内において前記信号機の認識処理を実行しない、信号機認識装置。
  2. 自車両の自動運転制御を実行する自動運転システムであって、
    請求項1に記載の信号機認識装置と、
    前記自動運転制御における走行計画を生成する走行計画生成部と、
    前記走行計画に基づいて前記自車両の自動運転制御を実行する車両制御部と、
    を備え、
    前記遮蔽環境判定部は、前記認識ゾーンのうち前記困難ゾーン以外のゾーン内を前記走行計画に基づいて前記自車両が走行した場合に、前記撮像部から前記信号機への視線を前記周辺車両が遮るか否かを予測し、
    前記走行計画生成部は、前記遮蔽環境判定部において前記信号機遮蔽環境であると判定された場合、前記遮蔽環境判定部において前記信号機遮蔽環境であると判定されない新たな前記走行計画を生成する、自動運転システム。
  3. 前記走行計画生成部によって前記新たな走行計画の生成が開始される場合に報知する報知部をさらに備える、請求項2に記載の自動運転システム。
JP2018002520A 2018-01-11 2018-01-11 信号機認識装置、及び自動運転システム Active JP7067067B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018002520A JP7067067B2 (ja) 2018-01-11 2018-01-11 信号機認識装置、及び自動運転システム
DE102018129197.3A DE102018129197B4 (de) 2018-01-11 2018-11-20 Verkehrssignalerkennungsvorrichtung und System zum autonomen Fahren
US16/223,214 US11010624B2 (en) 2018-01-11 2018-12-18 Traffic signal recognition device and autonomous driving system
CN201910015623.9A CN110033629B (zh) 2018-01-11 2019-01-08 信号灯识别装置以及自动驾驶***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018002520A JP7067067B2 (ja) 2018-01-11 2018-01-11 信号機認識装置、及び自動運転システム

Publications (2)

Publication Number Publication Date
JP2019121307A JP2019121307A (ja) 2019-07-22
JP7067067B2 true JP7067067B2 (ja) 2022-05-16

Family

ID=66995317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018002520A Active JP7067067B2 (ja) 2018-01-11 2018-01-11 信号機認識装置、及び自動運転システム

Country Status (4)

Country Link
US (1) US11010624B2 (ja)
JP (1) JP7067067B2 (ja)
CN (1) CN110033629B (ja)
DE (1) DE102018129197B4 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020104738A (ja) 2018-12-27 2020-07-09 トヨタ自動車株式会社 報知装置
CN110390829A (zh) * 2019-07-30 2019-10-29 北京百度网讯科技有限公司 交通信号灯识别的方法及装置
CN110517484A (zh) * 2019-08-06 2019-11-29 南通大学 菱形立交区域平面交叉标志遮挡预测模型构建方法
CN110598563A (zh) * 2019-08-15 2019-12-20 北京致行慕远科技有限公司 可移动设备行进的处理方法、装置及存储介质
CN110956835A (zh) * 2019-10-22 2020-04-03 深圳市元征科技股份有限公司 一种车辆通行辅助方法、装置及车载设备
DE102019216671A1 (de) * 2019-10-29 2021-04-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Kartierungsverfahrens
MX2022005541A (es) * 2019-11-12 2022-11-28 Nissan Motor Metodo de reconocimiento de semaforo y dispositivo de reconocimiento de semaforo.
CN112802354A (zh) * 2019-11-14 2021-05-14 奥迪股份公司 临时交通信号的信息发布***和方法
US20230109372A1 (en) * 2020-01-29 2023-04-06 Hitachi Astemo, Ltd. Vehicle control device, vehicle control method, and program
CN114802245B (zh) * 2021-01-11 2024-04-05 广东科学技术职业学院 根据交通灯进行并道的方法
CN112799412A (zh) * 2021-04-12 2021-05-14 北京三快在线科技有限公司 一种无人驾驶设备的控制方法及控制装置
CN112859884B (zh) * 2021-04-25 2021-07-30 北京三快在线科技有限公司 一种控制无人驾驶设备的方法及装置
CN114373321B (zh) * 2021-12-01 2023-08-25 北京天兵科技有限公司 一种用于个人单次出行的路径优化方法和***及设备和介质
CN116142092B (zh) * 2023-01-31 2023-08-29 江苏天一航空工业股份有限公司 无人驾驶交通信号灯识别方法及散装货物车蓄能装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045856A (ja) 2014-08-26 2016-04-04 株式会社ゼンリン 自動運転システム、データ構造
JP2016049933A (ja) 2014-09-02 2016-04-11 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
WO2016063385A1 (ja) 2014-10-22 2016-04-28 日産自動車株式会社 走行経路演算装置
JP2016112984A (ja) 2014-12-12 2016-06-23 日本精機株式会社 車両用虚像表示システム、ヘッドアップディスプレイ
JP2016207063A (ja) 2015-04-27 2016-12-08 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7696903B2 (en) * 2003-03-20 2010-04-13 Gentex Corporation Imaging system for detecting vehicle and human movement
US8589014B2 (en) 2011-06-01 2013-11-19 Google Inc. Sensor field selection
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
JP5590747B2 (ja) * 2012-11-29 2014-09-17 株式会社ホンダアクセス 運転者危険運転報知装置
JP6152673B2 (ja) 2013-03-21 2017-06-28 トヨタ自動車株式会社 車線変更支援装置
CN106463051B (zh) * 2014-05-20 2020-03-03 日产自动车株式会社 信号机识别装置以及信号机识别方法
MX354764B (es) 2014-07-08 2018-03-21 Nissan Motor Dispositivo de deteccion de semaforo y metodo de deteccion de semaforo.
US9707960B2 (en) * 2014-07-31 2017-07-18 Waymo Llc Traffic signal response for autonomous vehicles
JP6365103B2 (ja) 2014-08-14 2018-08-01 日産自動車株式会社 信号機検出装置及び信号機検出方法
JP2017045272A (ja) 2015-08-26 2017-03-02 トヨタ自動車株式会社 信号通過支援装置
DE102015015676A1 (de) 2015-12-03 2016-07-21 Daimler Ag Verfahren zum automatischen Aufschalten eines Umgebungsbildes auf eine Anzeigeeinheit eines Fahrzeuges
JP2017182297A (ja) 2016-03-29 2017-10-05 パナソニックIpマネジメント株式会社 車両制御装置および車両制御方法
JP6812147B2 (ja) 2016-06-30 2021-01-13 Hoya株式会社 光学ガラス、光学素子ブランク、および光学素子
CN106205170B (zh) * 2016-08-30 2020-06-12 上海交通大学 一种用于自动驾驶的路口精确停车装置与方法
US10248874B2 (en) 2016-11-22 2019-04-02 Ford Global Technologies, Llc Brake light detection
DE102017203654A1 (de) 2017-03-07 2018-09-13 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug auf einer Straße und Fahrerassistenzsystem
DE102017205534A1 (de) 2017-03-31 2018-10-04 Continental Automotive Gmbh Verfahren und Einrichtung zum Aufzeichnen von Verkehrszeichen
DE102017206847B4 (de) 2017-04-24 2020-08-13 Robert Bosch Gmbh Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045856A (ja) 2014-08-26 2016-04-04 株式会社ゼンリン 自動運転システム、データ構造
JP2016049933A (ja) 2014-09-02 2016-04-11 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援方法及びコンピュータプログラム
WO2016063385A1 (ja) 2014-10-22 2016-04-28 日産自動車株式会社 走行経路演算装置
JP2016112984A (ja) 2014-12-12 2016-06-23 日本精機株式会社 車両用虚像表示システム、ヘッドアップディスプレイ
JP2016207063A (ja) 2015-04-27 2016-12-08 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム

Also Published As

Publication number Publication date
DE102018129197B4 (de) 2023-06-01
US11010624B2 (en) 2021-05-18
DE102018129197A1 (de) 2019-07-11
CN110033629A (zh) 2019-07-19
CN110033629B (zh) 2021-12-31
JP2019121307A (ja) 2019-07-22
US20200026935A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7067067B2 (ja) 信号機認識装置、及び自動運転システム
US10328948B2 (en) Vehicle control system, vehicle control method and vehicle control program
US10293748B2 (en) Information presentation system
US20160304126A1 (en) Vehicle control device
US20190071075A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US20190139415A1 (en) Autonomous driving device
US20160214612A1 (en) Autonomous driving device
US9896098B2 (en) Vehicle travel control device
US11713054B2 (en) Autonomous driving device and autonomous driving control method that displays the following road traveling route
US10173680B2 (en) Vehicle speed control device
JP2020163908A (ja) 車両制御装置、車両制御方法、及びプログラム
JP2019182305A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7163729B2 (ja) 車両制御装置
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
US11332128B2 (en) Driving assistance apparatus
CN111830859A (zh) 车辆远程指示***
JP2020157830A (ja) 走行制御装置、走行制御方法、およびプログラム
JP6819056B2 (ja) 自動運転車両
JP2020163903A (ja) 表示制御装置、表示制御方法、及びプログラム
US11073833B2 (en) Vehicle control apparatus
US11610488B2 (en) Notification device and vehicle control device
JP2017073059A (ja) 車線変更支援装置
JP7339332B2 (ja) 遠隔操作装置、遠隔操作方法及びプログラム
JP2021149319A (ja) 表示制御装置、表示制御方法およびプログラム
JP6897432B2 (ja) 自動運転システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R151 Written notification of patent or utility model registration

Ref document number: 7067067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151