JP7238670B2 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP7238670B2
JP7238670B2 JP2019135626A JP2019135626A JP7238670B2 JP 7238670 B2 JP7238670 B2 JP 7238670B2 JP 2019135626 A JP2019135626 A JP 2019135626A JP 2019135626 A JP2019135626 A JP 2019135626A JP 7238670 B2 JP7238670 B2 JP 7238670B2
Authority
JP
Japan
Prior art keywords
vehicle
time
delay
unit
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019135626A
Other languages
English (en)
Other versions
JP2021018744A (ja
Inventor
好政 鄭
博充 浦野
翔 大瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019135626A priority Critical patent/JP7238670B2/ja
Priority to CN202010699852.XA priority patent/CN112309157B/zh
Priority to US16/933,152 priority patent/US11636762B2/en
Publication of JP2021018744A publication Critical patent/JP2021018744A/ja
Priority to JP2023014192A priority patent/JP7509250B2/ja
Application granted granted Critical
Publication of JP7238670B2 publication Critical patent/JP7238670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像表示装置に関する。
特許文献1は、遠隔指示可能な自動運転車両から受信したカメラ画像データに基づいてカメラ画像を遠隔オペレータに表示する装置を開示する。この装置は、車両の走行と関連する情報を重畳させたカメラ画像を表示部に表示させる。
特開2018-180771号公報
遠隔オペレータは、表示部に表示されたカメラ画像を確認し、自動運転車両を遠隔指示する。特許文献1記載の装置は、遠隔オペレータに判断材料としてさらに適切な情報を報知するという観点から改善の余地がある。本開示は、遠隔オペレータに適切な情報を報知することができる画像表示装置を提供する。
本開示の一側面に係る画像表示装置は、車両を遠隔指示する遠隔オペレータに情報を表示する表示部に接続される。この画像表示装置は、車両の外部環境の情報を取得する外部センサにより第1時刻に検出された外部センサデータを、車両から通信を介して取得する外部センサデータ取得部と、車両の走行状況を取得する内部センサにより第1時刻に検出された内部センサデータを、車両から通信を介して取得する内部センサデータ取得部と、第1時刻の内部センサデータに基づいて、第1時刻から所定時間経過した将来の時刻である第2時刻の車両の位置を決定する決定部と、第1時刻の外部センサデータに基づいて、車両の周辺を示す監視画像を表示部に表示させる表示制御部と、を備え、表示制御部は、決定部により決定された第2時刻の車両の位置に対応する監視画像上の位置に、第2時刻の車両の位置を示すオブジェクトを重畳させる。
本開示の一側面に係る画像表示装置においては、車両の内部センサにより検出された第1時刻の内部センサデータに基づいて、第2時刻の車両の位置が算出される。算出された第2時刻の車両の位置は、第1時刻の外部センサデータに基づいて表示された監視画像にオブジェクトとして重畳表示されて遠隔オペレータに提供される。このため、この画像表示装置は、第1時刻における車両状態を第2時刻まで維持するかどうかを判断可能な情報を遠隔オペレータに報知することができる。
一実施形態においては、画像表示装置は、車両との通信の遅延時間を算出する算出部を備え、決定部は、遅延時間に基づいて第2時刻の車両の位置の取り得る範囲を決定し、表示制御部は、範囲に対応する監視画像上の位置に範囲を示すオブジェクトを重畳させてもよい。この場合、この画像表示装置は、通信の遅延が生じていることと、その遅延が第2時刻の車両の位置に与える影響を遠隔オペレータに報知することができる。
一実施形態においては、表示制御部は、遅延時間の絶対値及び所定時間内の分散値の少なくとも一方に基づいて定義された、値が大きくなるほど遅延が大きいことを示す遅延度が閾値以上である場合に、範囲に対応する監視画像上の位置に範囲を示すオブジェクトを重畳させてもよい。この場合、この画像表示装置は、遅延の程度が小さい場合には遠隔オペレータに報知せず、遅延の程度が大きい場合には遠隔オペレータに報知することができる。
一実施形態においては、第2時刻の車両の位置を示すオブジェクトは、ガイド線のオブジェクトであり、範囲を示すオブジェクトは、ガイド線のオブジェクトの線幅方向に延びるオブジェクトであり、表示制御部は、遅延度が大きいほど範囲を示すオブジェクトの線幅方向の長さを長く変更してもよい。この場合、この画像表示装置は、ガイド線のオブジェクトとその線幅方向に延びるオブジェクトとを用いて遅延の程度を遠隔オペレータに報知することができる。
一実施形態においては、決定部は、第1時刻の外部センサデータに基づいて、車両の周辺に存在する他車両を検出するとともに、第2時刻の他車両の位置を決定し、表示制御部は、決定部により決定された第2時刻の他車両の位置に対応する監視画像上の位置に、第2時刻の他車両の位置を示すオブジェクトを重畳させてもよい。この場合、この画像表示装置は、第2時刻の他車両の位置を遠隔オペレータに報知することができる。
本開示によれば、遠隔オペレータに適切な情報を報知することができる画像表示装置が提供される。
一実施形態に係る画像表示装置を含む車両遠隔指示システムの概要を示す図である。 遠隔指示装置のハードウェア構成の一例を示す図である。 画像表示装置の機能を示すブロック図である。 (A)はガイド線のオブジェクトが重畳された監視画像の一例である。(B)は、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の一例である。 (A)はガイド線のオブジェクトが重畳された監視画像の他の例である。(B)は、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の他の例である。 画像表示装置の表示処理の一例を示すフローチャートである。 画像表示装置の表示処理の他の例を示すフローチャートである。 (A)は、他車両に関して、ガイド線のオブジェクトが重畳された監視画像の一例である。(B)は、特定の他車両に関して、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の一例である。 画像表示装置の決定処理の一例を示すフローチャートである。 (A)はガイド線のオブジェクトが重畳された監視画像の他の例である。(B)は、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の他の例である。
以下、図面を参照して、実施形態について説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明は繰り返さない。
図1は、一実施形態に係る画像表示装置を含む車両遠隔指示システムの概要を示す図である。図1に示される画像表示装置1は、車両遠隔指示システム100に含まれる。車両遠隔指示システム100は、遠隔オペレータRによる遠隔指示に基づいて車両2を動作させるシステムである。遠隔指示とは、車両2の行動に関する遠隔オペレータRの指示である。車両2は、特に限定されないが、一例として自動運転で走行する車両である。以下では、車両2が自動運転機能を有する車両であるとして説明する。遠隔指示には、交差点の右折開始の指示、信号機付き交差点の進入開始の指示、見通しの悪い交差点の進入開始の指示、車線変更の開始の指示、前方の障害物に対するオフセット回避の開始の指示、緊急退避のうち少なくとも一つが含まれてもよい。その他、遠隔指示には、駐車状態であった車両2の発進に対する指示が含まれてもよい。遠隔指示には、停車状態であった車両2の周囲に歩行者等が検出された場合における車両2の発進に対する指示が含まれていてもよい。遠隔指示には、車両2に対する乗員の乗り降りに関する指示(例えばドアの自動開閉の指示、降車の音声案内開始の指示)が含まれてもよい。
[車両遠隔指示システムの構成]
図1に示されるように、車両遠隔指示システム100は、遠隔指示装置10を備える。遠隔指示装置10は、画像表示装置1を備え、オペレータインターフェース3に接続される。オペレータインターフェース3は、画像表示装置1の制御により、遠隔オペレータRに情報を表示する。オペレータインターフェース3は、遠隔オペレータRから遠隔指示を受け付けて、遠隔指示装置10へ出力する。遠隔指示装置10は、ネットワークNを介して車両2と通信可能に接続される。ネットワークNは無線通信ネットワークである。遠隔指示装置10は、車両2から種々の情報を受信する。なお、遠隔指示装置10は、ネットワークNを介して他車両と通信可能に接続されてもよい。
車両遠隔指示システム100においては、例えば車両2からの遠隔指示要求に応じて、遠隔オペレータRに遠隔指示の入力が要求される。遠隔オペレータRは、オペレータインターフェース3に遠隔指示を入力する。遠隔指示装置10は、ネットワークNを通じて車両2に遠隔指示を送信する。車両2は、遠隔指示に従って自動で走行する。
車両遠隔指示システム100においては、遠隔オペレータRの人数は限定されず、一人であってもよく、二人以上であってもよい。車両遠隔指示システム100と通信可能な車両2の台数も特に限定されない。複数人の遠隔オペレータRが交替して一台の車両2に対する遠隔指示を行う態様であってもよく、一人の遠隔オペレータRが二台以上の車両2に対して遠隔指示を行う態様であってもよい。
車両2は、一例として、自動運転ECU(Electronic Control Unit)20を有する。自動運転ECU20は、CPU(Central Processing Unit)、ROM(Read OnlyMemory)、RAM(Random Access Memory)などを有する電子制御ユニットである。自動運転ECU20においては、例えば、ROMに記録されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより種々の機能を実現する。自動運転ECU20は、複数の電子ユニットから構成されてもよい。自動運転ECU20は、GPS(Global Positioning System)受信部21、外部センサ22、内部センサ23、地図データベース24、車両通信部25、及び、アクチュエータ26に通信可能に接続される。
GPS受信部21は、3個以上のGPS衛星から信号を受信する機器である。GPS受信部21は、受信された信号に基づいて車両2の位置(例えば車両2の緯度及び経度)を測定する。GPS受信部21は、測定した位置に関する情報を出力する。GPS受信部21は、GPSの時刻体系で計測されたGPS時刻も出力する。
外部センサ22は、車両2の外部環境の情報を検出するセンサである。外部センサ22は、検出結果を外部センサデータとして出力する。外部センサ22は、カメラを含む。カメラは、車両2の外部環境を撮像する撮像機器である。カメラは、車両2の外部環境に関する画像データを出力する。画像データとは、画像を描画可能な情報である。カメラは、例えば車両2のフロントガラスの裏側に設けられ、車両前方を撮像する。カメラは、単眼カメラであってもよく、ステレオカメラであってもよい。カメラは、複数台設けられてもよく、車両2の前方の他、左右の側方及び後方を撮像してもよい。
外部センサ22は、レーダセンサを含んでもよい。レーダセンサは、電波(例えばミリ波)又は光を利用して車両2の周辺の物体を検出する検出機器である。レーダセンサには、例えば、ミリ波レーダ又はライダー(LIDAR:Light Detection and Ranging)が含まれる。レーダセンサは、電波又は光を車両2の周辺に送信し、物体で反射した電波又は光を受信することで物体を検出し、結果を出力する。物体には、ガードレール、建物などの固定物体の他、歩行者、自転車、他車両などの移動物体が含まれる。レーダセンサの検出結果は、3次元の画像データとして取り扱うことができる。
内部センサ23は、車両2の走行状態を検出するセンサである。内部センサ23は、検出結果を内部センサデータとして出力する。内部センサ23は、車速センサ、加速度センサ、及びヨーレートセンサを含む。車速センサは、車両2の速度を検出する検出器である。車速センサとしては、車両2の車輪又は車輪と一体に回転するドライブシャフトなどに対して設けられた、各車輪の回転速度を検出する車輪速センサを用いることができる。
加速度センサは、車両2の加速度を検出する検出器である。加速度センサは、例えば、車両2の前後方向の加速度を検出する前後加速度センサを含む。加速度センサは、車両2の横加速度を検出する横加速度センサを含んでいてもよい。ヨーレートセンサは、車両2の重心の鉛直軸周りのヨーレート(回転角速度)を検出する検出器である。ヨーレートセンサとしては、例えばジャイロセンサを用いることができる。
地図データベース24は、地図情報を記録するデータベースである。地図データベース24は、例えば、車両2に搭載されたHDD(Hard Disk Drive)などの記録装置内に形成されている。地図情報には、道路の位置情報、道路形状の情報(例えば曲率情報)、交差点及び分岐点の位置情報などが含まれる。地図情報には、位置情報と関連付けられた法定速度などの交通規制情報が含まれてもよい。地図情報には、車両2の位置情報の取得に用いられる物標情報が含まれてもよい。物標としては、道路標識、路面標示、信号機、電柱などを用いることができる。地図データベース24は、車両2と通信可能なサーバに構成されてもよい。
車両通信部25は、車両2の外部との無線通信を制御する通信デバイスである。車両通信部25は、ネットワークNを介して遠隔指示装置10と各種情報の送信及び受信を行う。車両通信部25は、画像表示装置1の制御のために、外部センサデータ、内部センサデータ及びGPS時刻を遠隔指示装置10へ送信する。
アクチュエータ26は、車両2の制御に用いられる機器である。アクチュエータ26は、駆動アクチュエータ、ブレーキアクチュエータ、及び操舵アクチュエータを含む。駆動アクチュエータは、自動運転ECU20からの制御信号に応じてエンジンに対する空気の供給量(スロットル開度)を制御し、車両2の駆動力を制御する。なお、車両2がハイブリッド車である場合には、エンジンに対する空気の供給量の他に、動力源としてのモータに自動運転ECU20からの制御信号が入力されて当該駆動力が制御される。車両2が電気自動車である場合には、動力源としてのモータに自動運転ECU20からの制御信号が入力されて当該駆動力が制御される。これらの場合における動力源としてのモータは、アクチュエータ26を構成する。
ブレーキアクチュエータは、自動運転ECU20からの制御信号に応じてブレーキシステムを制御し、車両2の車輪へ付与する制動力を制御する。ブレーキシステムとしては、例えば、液圧ブレーキシステムを用いることができる。操舵アクチュエータは、電動パワーステアリングシステムのうち操舵トルクを制御するアシストモータの駆動を自動運転ECU20からの制御信号に応じて制御する。これにより、操舵アクチュエータは、車両2の操舵トルクを制御する。
自動運転ECU20は、上述した機器の出力結果又は機器が有する情報に基づいて、種々の機能を発揮する。自動運転ECU20は、車両位置取得部200、外部環境認識部201、走行状態認識部202、遠隔指示要求判定部203、進路生成部204、自動運転制御部205、及び緊急ブレーキ判定部206を有する。
車両位置取得部200は、GPS受信部21の位置情報及び地図データベース24の地図情報に基づいて、車両2の位置情報を取得する。また、車両位置取得部200は、地図データベース24の地図情報に含まれた物標情報及び外部センサ22の検出結果を利用して、SLAM(Simultaneous Localization and Mapping)技術により車両2の位置情報を取得してもよい。車両位置取得部200は、車線の区画線と車両2の位置関係から、車線に対する車両2の横位置(車線幅方向における車両2の位置)を認識して位置情報に含めてもよい。車両位置取得部200は、その他、周知の手法により車両2の位置情報を取得してもよい。
外部環境認識部201は、外部センサ22の検出結果に基づいて、車両2の外部環境を認識する。外部環境には、車両2に対する周囲の物体の相対位置が含まれる。外部環境には、車両2に対する周囲の物体の相対速度及び移動方向が含まれてもよい。外部環境には、他車両、歩行者、自転車などの物体の種類が含まれてもよい。物体の種類は、パターンマッチングなどの周知の手法により識別することができる。外部環境には、車両2の周囲の区画線認識(白線認識)の結果が含まれてもよい。外部環境には、信号機の点灯状態の認識結果が含まれてもよい。外部環境認識部201は、例えば、外部センサ22のカメラ画像に基づいて、車両2の前方の信号機の点灯状態を認識できる。
走行状態認識部202は、内部センサ23の検出結果に基づいて、車両2の走行状態を認識する。走行状態には、車両2の車速、車両2の加速度、車両2のヨーレートが含まれる。具体的に、走行状態認識部202は、車速センサの車速情報に基づいて、車両2の車速を認識する。走行状態認識部202は、加速度センサの車速情報に基づいて、車両2の加速度を認識する。走行状態認識部202は、ヨーレートセンサのヨーレート情報に基づいて、車両2の向きを認識する。
遠隔指示要求判定部203は、遠隔オペレータRに遠隔指示を要求すべきか否かを判定する。遠隔指示要求判定部203は、車両位置取得部200により取得された車両2の位置情報及び地図データベース24の地図情報と、外部環境認識部201により認識された外部環境と、後述する進路生成部204の生成した進路とのうち少なくとも一つに基づいて、遠隔指示を要求すべきか否かを判定する。
遠隔指示要求判定部203は、車両2が予め設定された遠隔指示を要求すべき状況になった場合に、遠隔指示を要求すべきと判定する。遠隔指示要求判定部203は、例えば、車両2が交差点を右折する状況になった場合、遠隔指示を要求すべきと判定する。遠隔指示要求判定部203は、車両2が信号機付き交差点又は見通しの悪い交差点に進入する状況になった場合に、遠隔指示を要求すべきと判定してもよい。遠隔指示要求判定部203は、車両2が目的地に至るために車線変更を開始する状況になった場合に、遠隔指示を要求すべきと判定してもよい。遠隔指示要求判定部203は、車両2の前方にオフセット回避すべき障害物が存在する場合に、遠隔指示を要求すべきと判定してもよい。
遠隔指示要求判定部203は、例えば、車両2の位置情報、地図情報、及び進路から、車両2が交差点を右折する状況になったこと、車両2が信号機付き交差点に進入する状況になったこと、又は車両2が車線変更を開始する状況になったことを認識できる。また、遠隔指示要求判定部203は、車両2の外部環境に基づいて、車両2の前方にオフセット回避すべき障害物が存在することを認識できる。
遠隔指示要求判定部203は、遠隔指示を要求すべきと判定した場合、遠隔指示装置10に対して遠隔オペレータRによる遠隔指示を要求する。遠隔指示の要求には、例えば車両2の識別情報が含まれる。なお、遠隔指示要求判定部203は、予め余裕をもって遠隔指示を要求してもよい。遠隔指示要求判定部203は、遠隔指示の対象となる交差点等と車両2との距離が一定距離以下になった場合に、遠隔指示を要求すべきと判定してもよい。距離ではなく到達残り時間を用いてもよい。
遠隔指示要求判定部203は、遠隔指示を要求すべきと判定した場合、車両2の走行状況情報を遠隔指示装置10に送信する。車両2の走行状況情報には、遠隔オペレータRが車両2の状況を認識するための情報が含まれる。
車両2の走行状況情報には、車両2の位置情報、外部センサ22により検出された外部センサデータ、及び、内部センサ23により検出された内部センサデータが含まれる。外部センサデータは、カメラ画像、レーザレーダの検出結果などが含まれる。内部センサデータは、車両2の車速、車両2のヨーレート、車両2の操舵角などが含まれる。車両2の走行状況情報には、乗員に関する情報(乗員の有無、乗員の人数)が含まれてもよい。車両2の走行状況情報には、遠隔オペレータRの選択可能な遠隔指示に応じた進路の情報が含まれてもよい。
自動運転ECU20は、遠隔指示を要求すべきか否かの判定結果にかかわらず、予め設定されたタイミングで車両2の走行状況情報を遠隔指示装置10に送信してもよい。予め設定されたタイミングは、一定時間毎であってもよく、地図上の道路のノード毎であってもよく、横断歩道接近時、交差点接近時などのイベント毎であってもよい。
進路生成部204は、車両2の自動運転に利用される進路(trajectory)を生成する。進路生成部204は、予め設定された走行ルート、地図情報、車両2の位置情報、車両2の外部環境、及び車両2の走行状態に基づいて、自動運転の進路を生成する。
走行ルートとは、自動運転において車両2が走行するルートである。進路生成部204は、例えば目的地、地図情報、及び車両2の位置情報に基づいて、自動運転の走行ルートを求める。走行ルートは、周知のナビゲーションシステムによって設定されてもよい。目的地は車両2の乗員によって設定されてもよく、自動運転ECU20又はナビゲーションシステム等が自動的に提案してもよい。
進路には、自動運転で車両が走行する経路(path)と自動運転における車速プロファイルとが含まれる。経路は、走行ルート上において自動運転中の車両が走行する予定の軌跡である。経路は、例えば走行ルート上の位置に応じた車両2の操舵角変化のデータ(操舵角プロファイル)とすることができる。走行ルート上の位置とは、例えば走行ルートの進行方向において所定間隔(例えば1m)毎に設定された設定縦位置である。操舵角プロファイルとは、設定縦位置毎に目標操舵角が関連付けられたデータとなる。
進路生成部204は、例えば走行ルート、地図情報、車両2の外部環境、及び車両2の走行状態に基づいて、車両2が走行する経路を生成する。進路生成部204は、例えば車両2が走行ルートに含まれる車線の中央(車線幅方向における中央)を通るように経路を生成する。
車速プロファイルは、例えば設定縦位置毎に目標車速が関連付けられたデータである。設定縦位置は、距離ではなく車両2の走行時間を基準として設定されてもよい。設定縦位置は、車両の1秒後の到達位置、車両の2秒後の到達位置として設定されてもよい。
進路生成部204は、例えば経路と地図情報に含まれる法定速度等の交通規制情報に基づいて車速プロファイルを生成する。法定速度に代えて、地図上の位置又は区間に対して予め設定された設定速度を用いてもよい。進路生成部204は、経路及び車速プロファイルから自動運転の進路を生成する。なお、進路生成部204における進路の生成方法は上述した内容に限定されず、自動運転に関する周知の手法を採用することができる。進路の内容についても同様である。
進路生成部204は、遠隔指示要求判定部203により遠隔指示装置10に対して遠隔指示が要求された場合、遠隔指示に応じた進路を予め生成する。車両2の状況に応じて、遠隔指示の内容は予め決定されている。例えば交差点の右折時における遠隔指示の内容には、右折開始(進行開始)の遠隔指示及び待機の遠隔指示が含まれる。交差点の右折時における遠隔指示の内容には、右折をやめて直進の遠隔指示が含まれてもよく、緊急退避の遠隔指示が含まれてもよい。
進路生成部204は、例えば、車両2が交差点を右折する状況において、右折開始の遠隔指示に対応するように、車両2が交差点を右折する進路を生成する。進路生成部204は、遠隔指示を受信するまでの間、外部環境の変化に応じて進路を更新してもよい。また、進路生成部204は、交差点の右折から交差点の直進に切り換える遠隔指示が存在する場合には、交差点を直進する進路を予め生成してもよい。
進路生成部204は、緊急退避の遠隔指示が存在する場合には、緊急退避用の進路を予め生成してもよい。緊急退避用の進路は、地図上に予め設定された退避スペースの何れかに、車両2を停車させるように生成される。進路生成部204は、例えば外部環境に基づいて各退避スペース上の障害物の有無を認識し、空いている退避スペースに停車するように緊急退避用の進路を生成する。なお、進路生成部204は、必ずしも進路を予め生成する必要はなく、遠隔指示を受信してから遠隔指示に対応する進路を生成してもよい。
自動運転制御部205は、車両2の自動運転を実行する。自動運転制御部205は、例えば車両2の外部環境、車両2の走行状態、及び進路生成部204の生成した進路に基づいて、車両2の自動運転を実行する。自動運転制御部205は、アクチュエータ26に制御信号を送信することで、車両2の自動運転を行う。
自動運転制御部205は、遠隔指示要求判定部203により遠隔指示装置10に対して遠隔指示が要求された場合、遠隔指示装置10からの遠隔指示の受信を待つ。自動運転制御部205は、車両2が停車してから遠隔指示を要求した場合、遠隔指示を受信するまで停車状態を維持する。
自動運転制御部205は、運転免許を有する乗員が乗車している場合において、予め設定された待機時間が経過しても遠隔指示を受信しないときには、当該乗員による判断又は手動運転を求めてもよい。自動運転制御部205は、待機時間が経過しても遠隔指示を受信せず、乗員による判断又は手動運転も不能な場合には、自動で緊急退避を行ってもよい。
緊急ブレーキ判定部206は、車両2の外部環境又は外部センサ22の検出結果(カメラの画像及び/又はレーダセンサの物体情報)に基づいて、緊急ブレーキの要否を判定する。緊急ブレーキ判定部206は、例えば車両2の前方の障害物と車両2との衝突余裕時間(TTC : Time To Collision)がTTC閾値未満となった場合に、緊急ブレーキが必要と判定する。TTC閾値は予め設定された値の閾値である。なお、衝突余裕時間に代えて車間時間(THW : Time Headway)を用いてもよく、車両2と障害物との距離を用いてもよい。
緊急ブレーキ判定部206は、緊急ブレーキが必要と判定した場合、ブレーキアクチュエータに制御信号を送信して緊急ブレーキを実行する。緊急ブレーキの判定は、自動運転機能とは独立して実行される。緊急ブレーキ判定部206は、自動運転ECU20とは異なる電子ユニットに形成されてもよい。緊急ブレーキは、いわゆるPCS(Pre-Crash Safety)システムにおいて実行されてもよい。
[遠隔指示装置の構成]
図2は、遠隔指示装置のハードウェア構成の一例を示す図である。図2に示されるように、遠隔指示装置10は、プロセッサ10a、記録部10b、通信部10c及びユーザインターフェース10dを備えた一般的なコンピュータとして構成されている。
プロセッサ10aは、各種オペレーティングシステムを動作させて遠隔指示装置10を制御する。プロセッサ10aは、制御装置、演算装置、レジスタなどを含むCPUなどの演算器である。プロセッサ10aは、記録部10b、通信部10c及びユーザインターフェース10dを統括する。記録部10bは、メモリ及びストレージのうち少なくとも一方を含む。メモリは、ROM、RAMなどの記録媒体である。ストレージは、HDDなどの記録媒体である。
通信部10cは、ネットワークNを介した通信を行うための通信機器である。通信部10cには、ネットワークデバイス、ネットワークコントローラ、ネットワークカードなどを用いることができる。ユーザインターフェース10dは、管理者などのユーザのための入出力部である。ユーザインターフェース10dは、ディスプレイ、スピーカなどの出力器、及び、タッチパネルなどの入力器を含む。遠隔指示装置10は、必ずしも施設に設けられている必要はなく、車両などの移動体に搭載されてもよい。
[画像表示装置の構成及び機能]
画像表示装置1は、遠隔指示装置10に備わるため、そのハードウェアは遠隔指示装置10と同一である。画像表示装置1のハードウェアは、遠隔指示装置10と同一又は共通な場合に限定されず、遠隔指示装置10とは別体で図2の構成を備えてもよい。図3は、画像表示装置の機能を示すブロック図である。図3に示されるように、画像表示装置1は、通信機能として通信部11を備える。通信部11の機能は、プロセッサ10a及び通信部10cにより実現される。
通信部11は、車両2の車両通信部25とネットワークNを介して接続される。車両2の車両通信部25は、外部センサデータ、内部センサデータ及びGPS時刻を送信するために、外部センサデータ送信部250、内部センサデータ送信部251、及び、時間送信部252を有する。通信部11は、外部センサデータ、内部センサデータ及びGPS時刻を受信するために、外部センサデータ受信部110(外部センサデータ取得部の一例)、内部センサデータ受信部111(内部センサデータ取得部の一例)、及び、時間受信部112を有する。外部センサデータ受信部110は、車両2の外部センサ22により第1時刻に検出された外部センサデータを、車両2の外部センサデータ送信部250からネットワークNを介して取得する。内部センサデータ受信部111は、車両2の内部センサ23により第1時刻に検出された内部センサデータを、車両2の内部センサデータ送信部251からネットワークNを介して取得する。第1時刻とは、外部センサ22及び内部センサ23の検出時刻である。時間受信部112は、GPS時刻を車両2の時間送信部252からネットワークNを介して取得する。
画像表示装置1は、通信部11の他に、遅延時間算出部12(算出部の一例)、アシスト情報生成部13(決定部の一例)、及び、表示制御部14を備える。
遅延時間算出部12は、車両2との通信の遅延時間を算出する。遅延時間算出部12は、時間受信部112により取得されたGPS時刻と、画像表示装置1の図示しないGPS受信部により取得されたGPS時刻とを比較して、通信の遅延時間を算出する。
アシスト情報生成部13は、遠隔オペレータRの判断を補助する情報であるアシスト情報を生成する。アシスト情報生成部13は、第1時刻から所定時間経過した将来の時刻である第2時刻の車両2の位置を決定する。将来の時刻とは、現時刻よりも先の時刻のことである。画像表示装置1の処理時を基準とした場合、第1時刻は現時刻にほぼ近い過去の時刻であり、第2時刻は現時刻よりも先の将来の時刻となる。第2時刻は、複数設定されてもよい。アシスト情報生成部13は、内部センサデータ受信部111により取得された第1時刻のセンサデータに基づいて、第2時刻の車両2の位置を決定する。一例として、アシスト情報生成部13は、第1時刻から第2時刻まで遠隔オペレータRによる遠隔指示に変化がないと仮定し、第1時刻のセンサデータに基づいて第2時刻の車両2の位置を決定する。例えば、アシスト情報生成部13は、第1時刻の車速が60km/hである場合には、第2時刻まで車速60km/hが維持されると仮定する。例えば、アシスト情報生成部13は、第1時刻において減速中である場合には、第2時刻まで同一加速度で減速すると仮定する。このように、アシスト情報生成部13は、車両2の走行状態に変化がない場合の将来の車両2の位置を決定する。
アシスト情報生成部13は、遅延時間算出部12により算出された遅延時間に基づいて第2時刻の車両2の位置の取り得る範囲を決定してもよい。例えば、車速が60km/hで遅延時間が0.1秒である場合、1.7m程度の誤差が生じる。アシスト情報生成部13は、例えば、第1時刻のセンサデータに基づいて決定された第2時刻の車両2の位置から誤差分の距離を減算した最大遅延位置を決定する。アシスト情報生成部13は、最大遅延位置から第2時刻の車両2の位置までの範囲を、取り得る範囲として決定してもよい。アシスト情報生成部13は、第2時刻の車両2の位置と、誤差の距離と、正規分布とを利用して、取り得る範囲を決定してもよい。
表示制御部14は、外部センサデータ受信部110により取得された第1時刻の外部センサデータに基づいて、車両2の周辺を示す監視画像をオペレータインターフェース3に表示させる。オペレータインターフェース3は、ディスプレイ装置30(表示部の一例)を備える。表示制御部14は、ディスプレイ装置30に接続される。監視画像は、ディスプレイ装置30の画面に表示される画像であり、車両2の周囲を示す画像であれば何でもよい。例えば監視画像は、車両2を真上から俯瞰した図又は車両2を斜めから俯瞰した鳥瞰図であってもよいし、外部センサ22により取得されたカメラ画像又はレーダセンサの画像そのものであってもよい。なお、オペレータインターフェース3は、ディスプレイ装置30の他に、遠隔オペレータRの操作用の指示受付部31を備えてもよい。
表示制御部14は、アシスト情報生成部13により決定された第2時刻の車両2の位置に対応する監視画像上の位置に、第2時刻の車両2の位置を示すオブジェクトを重畳させる。第2時刻の車両2の位置を示すオブジェクトは、一例としてガイド線のオブジェクトである。例えば、ガイド線のオブジェクトは、実線、破線、点線などのオブジェクトであり、種々の色を付与することができる。第2時刻の車両2の位置を示すオブジェクトは、これらに限定されない。例えば、第2時刻の車両2の位置を示すオブジェクトは、円形や矩形であってもよい。
図4の(A)はガイド線のオブジェクトが重畳された監視画像の一例である。図4の(A)の監視画像G1は、車両2を示す車両オブジェクトOV1が画面中央に位置した俯瞰図である。アシスト情報生成部13は、一例として、現時刻から1秒後、2秒後、及び3秒後の3つの第2時刻の車両2の位置を生成する。表示制御部14は、アシスト情報生成部13により決定された3つの第2時刻の車両2の位置に基づいて、それぞれのガイド線のオブジェクトを監視画像G1上に重畳表示させる。例えば、表示制御部14は、1秒後の車両2の位置を示す車両2の周囲を囲む線オブジェクトOL1を監視画像G1上に重畳表示させる。表示制御部14は、線オブジェクトOL1と対応する画面位置に、第2時刻に関連する情報(例えば現時刻からの経過時間)を示すオブジェクトM1を重畳表示させることができる。同様に、表示制御部14は、2秒後の車両2の位置を示す線オブジェクトOL2及び対応する第2時刻に関連するオブジェクトM2を重畳表示させる。表示制御部14は、3秒後の車両2の位置を示す線オブジェクトOL3及び対応する第2時刻に関連するオブジェクトM3を重畳表示させる。
表示制御部14は、遅延時間に関するオブジェクトを監視画像に重畳表示してもよい。例えば、表示制御部14は、アシスト情報生成部13により決定された取り得る範囲をオブジェクトとして監視画像に重畳表示させてもよい。取り得る範囲を示すオブジェクトは、透明度の高い図形であってもよいし、種々の色が付されてもよい。図4の(B)は、ガイド線のオブジェクトと、遅延を示すオブジェクトとが重畳された監視画像の一例である。図4の(B)の監視画像G2は、車両2を示す車両オブジェクトOV1が画面中央に位置した俯瞰図である。以下では、図4の(A)の監視画像に遅延を示すオブジェクトが追加表示された場合を例に説明する。アシスト情報生成部13は、一例として、現時刻から1秒後、2秒後、及び3秒後の3つの第2時刻ごとに、取り得る範囲を決定する。表示制御部14は、アシスト情報生成部13から3つの第2時刻に対応する取り得る範囲に基づいて、それぞれのオブジェクトを監視画像G2上に重畳表示させる。例えば、表示制御部14は、1秒後の車両2の取り得る範囲を示すように、線オブジェクトOL1の線幅方向に延びるオブジェクトB1を重畳表示させる。同様に、表示制御部14は、2秒後の車両2の取り得る範囲を示すように、線オブジェクトOL2の線幅方向に延びるオブジェクトB2を重畳表示させる。表示制御部14は、3秒後の車両2の取り得る範囲を示すように、線オブジェクトOL3の線幅方向に延びるオブジェクトB3を重畳表示させる。
表示制御部14は、オブジェクトB1~B3の線幅方向の長さで遅延の大きさを示してもよい。例えば、表示制御部14は、アシスト情報生成部13により算出された遅延時間を用いて遅延度を決定する。遅延度は、遅延時間が大きいほど遅延が大きいことを示す値である。遅延度は、遅延時間の絶対値であってもよい。表示制御部14は、アシスト情報生成部13により算出された遅延時間の所定期間内の分散値を用いて遅延度を決定してもよい。この場合、遅延度は、分散値が大きいほど遅延が大きいことを示す値となる。遅延度は、分散値そのものであってもよい。あるいは、遅延度は、遅延時間の遅延度と分散値の遅延度との重み付け和や加重平均であってもよい。あるいは、遅延度は、遅延時間の絶対値と分散値との関係に基づいて決定されてもよい。具体的には、遅延度は、遅延時間の絶対値が所定閾値より小さい場合には、遅延時間の分散値に関わらず(遅延時間の分散値が大きくても)遅延度が小さく決定され、一方、遅延時間の絶対値が所定閾値以上の場合には、遅延時間の分散値が大きいほど遅延度が大きく決定され、遅延時間の分散値が小さいほど遅延度が小さくされてもよい。このように、遅延度は、遅延時間の絶対値及び所定時間内の分散値の少なくとも一方に基づいて定義される。表示制御部14は、遅延度が大きいほどオブジェクトB1~B3の線幅方向の長さを長く変更することで、遅延の大きさを表現することができる。
表示制御部14は、条件に応じて図4の(A)の監視画像G1と図4の(B)の監視画像G2とを切り換えてもよい。例えば、表示制御部14は、遅延度が閾値未満である場合に図4の(A)の監視画像G1をディスプレイ装置30に表示させ、遅延度が閾値以上である場合に図4の(B)の監視画像G2をディスプレイ装置30に表示させる。閾値は、遅延度の判定のために予め設定された値である。例えば、閾値は、監視画像に表示されるガイド線の間隔と設定比率によって決定されてもよい。例えば、遅延時間が遅延度である場合を例にすると、ガイド線の間隔か1秒であり、設定比率が0.5の場合には、閾値は0.5秒に設定される。この場合、表示制御部14は、遅延時間が0.5秒未満である場合に監視画像G1を表示し、遅延時間が0.5秒以上である場合に監視画像G2を表示する。
図5の(A)はガイド線のオブジェクトが重畳された監視画像の他の例である。上述したとおり、ガイド線のオブジェクトは種々の形態で表現され得る。図5の(A)の監視画像G3では、車両2を示す車両オブジェクトOV1と、その予定経路PAとが示される。このような表示のために、画像表示装置1は、通信部11を介して車両2から予定経路を予め取得する。表示制御部14は、アシスト情報生成部13により決定された5つの第2時刻の車両2の位置に基づいて、それぞれのガイド線のオブジェクトを監視画像G1の予定経路PA上に重畳表示させる。例えば、表示制御部14は、1秒後の車両2の位置を示す線オブジェクトOL1を監視画像G1上に重畳表示させる。表示制御部14は、線オブジェクトOL1と対応する画面位置に、第2時刻に関連する情報(例えば現時刻からの経過時間)を示すオブジェクトM1を重畳表示させることができる。このとき、表示制御部14は、オブジェクトの形状のために地図情報を参照してもよい。同様に、表示制御部14は、2秒後の車両2の位置を示す線オブジェクトOL2及び対応する第2時刻に関連するオブジェクトM2を重畳表示させる。表示制御部14は、3秒後の車両2の位置を示す線オブジェクトOL3及び対応する第2時刻に関連するオブジェクトM3を重畳表示させる。表示制御部14は、4秒後の車両2の位置を示す線オブジェクトOL4及び対応する第2時刻に関連するオブジェクトM4を重畳表示させる。表示制御部14は、5秒後の車両2の位置を示す線オブジェクトOL5及び対応する第2時刻に関連するオブジェクトM5を重畳表示させる。
図5の(B)は、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の他の例である。図5の(B)では、図4の(B)で説明したとおり、図5の(A)の監視画像G3に対して、遅延を示すオブジェクトB1~B5が追加表示された画面である。オブジェクトB1~B5の設定方法や、監視画像の切り換え方法などは上述した内容と同一である。
[画像表示装置の動作]
図6は、画像表示装置の表示処理の一例を示すフローチャートである。図6に示されるフローチャートは、画像表示装置1の表示機能の開始指示がなされたタイミングで開始される。
最初に、データ取得処理(S10)として、外部センサデータ受信部110は、第1時刻に検出された外部センサデータを車両2から取得する。内部センサデータ受信部111は、第1時刻の内部センサデータを車両2から取得する。
次に、アシスト情報生成処理(S12)として、アシスト情報生成部13は、第1時刻から第2時刻まで遠隔オペレータRによる遠隔指示に変化がないと仮定して、第2時刻の車両2の位置を決定する。
次に、表示処理(S14)として、表示制御部14は、第1時刻の外部センサデータに基づいて車両2の周辺を示す監視画像をディスプレイ装置30に表示させるとともに、アシスト情報生成部13により決定された第2時刻の車両2の位置に対応する監視画像上の位置に、第2時刻の車両2の位置を示すオブジェクトを重畳させる。
表示処理(S14)が終了すると、図6に示されるフローチャートが終了する。図6に示されるフローチャートが実行されることにより、画像表示装置1は、遠隔オペレータRに将来の車両2の位置を適切に報知することができる。フローチャート終了後、画像表示装置1は、表示機能の終了指示がなされるまで、フローチャートを最初から開始する。
図7は、画像表示装置の表示処理の他の例を示すフローチャートである。図7に示されるフローチャートでは、画像表示装置1は、条件に応じて遅延時間を遠隔オペレータRに報知する。図7に示されるフローチャートは、画像表示装置1の表示機能の開始指示がなされたタイミングで開始される。
最初に、データ取得処理(S20)として、外部センサデータ受信部110は、第1時刻に検出された外部センサデータを車両2から取得する。内部センサデータ受信部111は、第1時刻の内部センサデータを車両2から取得する。
次に、GPS時刻取得処理(S22)として、時間受信部112は、GPS時刻を車両2から取得する。また、遅延時間算出部12は、画像表示装置1の図示しないGPS受信部から自身のGPS時刻を取得する。
次に、遅延度算出処理(S24)として、遅延時間算出部12は、車両2のGPS時刻と自身のGPS時刻とを比較して遅延度を算出する。一例として、遅延時間算出部12は、車両2のGPS時刻と自身のGPS時刻との差分である遅延時間を遅延度として用いる。遅延時間算出部12は、所定時間の間、車両2のGPS時刻と自身のGPS時刻との差分を算出し、その差の分散値を遅延度として用いてもよい。
次に、判定処理(S26)として、アシスト情報生成部13は、遅延度が閾値以上であるか否かを判定する。遅延度が閾値以上でない場合、アシスト情報生成部13は、アシスト情報生成処理(S28)として、第1時刻から第2時刻まで遠隔オペレータRによる遠隔指示に変化がないと仮定して、第2時刻の車両2の位置を決定する。遅延度が閾値以上である場合、アシスト情報生成部13は、アシスト情報生成処理(S30)として、第1時刻から第2時刻まで遠隔オペレータRによる遠隔指示に変化がないと仮定して、第2時刻の車両2の位置を決定するとともに、遅延時間に基づいて車両2の取り得る範囲を決定する。
アシスト情報生成処理(S28又はS30)が終了すると、表示処理(S32)として、表示制御部14は、第1時刻の外部センサデータに基づいて車両2の周辺を示す監視画像をディスプレイ装置30に表示させるとともに、アシスト情報生成部13により決定された第2時刻の車両2の位置に対応する監視画像上の位置に、第2時刻の車両2の位置を示すオブジェクトを重畳させる。アシスト情報生成部13により車両2の取り得る範囲が決定されている場合、表示制御部14は、さらに、車両2の取り得る範囲を示すオブジェクトを監視画像上に重畳表示させる。
表示処理(S32)が終了すると、図7に示されるフローチャートが終了する。図7に示されるフローチャートが実行されることにより、画像表示装置1は、条件に応じて遅延時間を遠隔オペレータRに報知することができる。フローチャート終了後、画像表示装置1は、表示機能の終了指示がなされるまで、フローチャートを最初から開始する。
[実施形態のまとめ]
一実施形態に係る画像表示装置1においては、車両2の内部センサ23により検出された第1時刻の内部センサデータに基づいて、第1時刻から第2時刻まで遠隔オペレータRによる遠隔指示に変化がない場合における第2時刻の車両2の位置が算出される。算出された第2時刻の車両2の位置は、第1時刻の外部センサデータに基づいて表示された監視画像にオブジェクトとして重畳表示されて遠隔オペレータRに提供される。このため、この画像表示装置1は、第1時刻における車両状態を第2時刻まで維持するかどうかを判断可能な情報を遠隔オペレータRに報知することができる。
画像表示装置1は、通信の遅延が生じていることと、その遅延が第2時刻の車両の位置に与える影響を遠隔オペレータRに報知することができる。画像表示装置1は、遅延の程度が小さい場合には遠隔オペレータRに報知せず、遅延の程度が大きい場合には遠隔オペレータに報知することができる。画像表示装置1は、ガイド線のオブジェクトとその線幅方向に延びるオブジェクトとを用いて遅延の程度を遠隔オペレータRに報知することができる。
以上、本開示の実施形態について説明したが、本開示は上述した実施形態に限定されるものではない。本開示は、上述した実施形態を始めとして、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。
[変形例]
[他車両の表示]
画像表示装置1は、車両2の周辺に存在する他車両に関する情報をディスプレイ装置30に表示してもよい。画像表示装置1は、外部センサ22により検出された外部センサデータに基づいて他車両を認識し、他車両に対して車両2で表示されたアシスト情報の表示を行う。
図8の(A)は、他車両に関して、ガイド線のオブジェクトが重畳された監視画像の一例である。図8の(A)の監視画像G5は、車両2を示す車両オブジェクトOV1の他に車両2の周辺の他車両を示す車両オブジェクトOV2,OV3を含む俯瞰図である。アシスト情報生成部13は、一例として、現時刻から1秒後、2秒後、及び3秒後の3つの第2時刻の他車両の位置を生成する。表示制御部14は、アシスト情報生成部13により決定された3つの第2時刻の他車両の位置に基づいて、それぞれのガイド線のオブジェクトを監視画像G5上に重畳表示させる。例えば、表示制御部14は、1秒後の他車両の位置を示すように、他車両の周囲を囲む線オブジェクトを監視画像G5上に重畳表示させる。表示制御部14は、線オブジェクトと対応する画面位置に、第2時刻に関連する情報(例えば現時刻からの経過時間)を示すオブジェクトを重畳表示させることができる。同様に、表示制御部14は、2秒後の他車両の位置を示す線オブジェクト及び対応する第2時刻に関連するオブジェクトを重畳表示させる。表示制御部14は、3秒後の他車両の位置を示す線オブジェクト及び対応する第2時刻に関連するオブジェクトを重畳表示させる。
図8の(A)においては、車両2の周辺に存在する全ての他車両についてアシスト情報の表示を行ったが、特定の他車両についてのみアシスト情報の表示を行ってもよい。また、図8の(A)において、線オブジェクトの線幅方向に延びるオブジェクトを表示して、遅延時間を考慮した表示を行ってもよい。
図8の(B)は、特定の他車両に関して、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の一例である。図8の(B)の監視画像G6では、車両オブジェクトOV2が表示対象の車両として選択され、車両オブジェクトOV2のみ、アシスト情報が表示される。画像表示装置1は、以下の図9のフローチャートを実行することにより、表示対象の車両を選択する。
図9は、画像表示装置の決定処理の一例を示すフローチャートである。図9に示されるフローチャートは、画像表示装置1の表示機能の開始指示がなされたタイミングで開始される。
最初に、データ取得処理(S40)として、外部センサデータ受信部110は、外部センサ22により第1時刻に検出された外部センサデータを車両2から取得する。
次に、評価値算出処理(S42)として、画像表示装置1は、外部センサデータに基づいて他車両の位置を認識する。そして、画像表示装置1は、認識された他車両ごとに評価値を算出する。評価値は、安全性を示す指標であり、一例として車両2の行動に与える影響が大きいか否かを示す値である。評価値は、その値が大きいほど車両2の行動に与える影響が大きいことを示す。つまり、評価値が大きいほど安全性は低くなる。例えば、画像表示装置1は、車両2と対象の他車両との相対速度、相対ヨー角、相対距離などを重み付け和することにより、評価値を算出する。重み付け和は、対象の他車両の車種に応じた項を含んでもよい。
次に、表示対象決定処理(S44)として、画像表示装置1は、他車両ごとに算出された評価値に基づいて表示対象となる他車両を決定する。画像表示装置1は、最も評価値の高い他車両を選択する。
表示対象決定処理(S44)が終了すると、図9に示されるフローチャートが終了する。図9に示されるフローチャートが終了後、表示対象となる他車両についてアシスト情報を生成し、表示する。アシスト情報の生成及び表示については、図6及び図7のフローチャートと同一である。図9に示されるフローチャートが実行されることにより、画像表示装置1は、複数の他車両から安全性が低い他車両を選択してアシスト情報を表示することができる。フローチャート終了後、画像表示装置1は、表示機能の終了指示がなされるまで、フローチャートを最初から開始する。
[表示の変形例]
実施形態においては、表示制御部14は、ディスプレイ装置30に俯瞰画像を表示させていたが、カメラ画像そのものを表示させてもよい。図10の(A)はガイド線のオブジェクトが重畳された監視画像の他の例である。図10の(A)に示されるように、監視画像G7は、カメラ画像であり、将来の車両2の位置を示す線オブジェクトOL1~OL4及び対応する時刻に関連するオブジェクトM1~M4が重畳表示される。図10の(B)は、ガイド線のオブジェクトと遅延を示すオブジェクトとが重畳された監視画像の他の例である。図10の(B)に示されるように、監視画像G8は、カメラ画像であり、将来の車両2の位置を示す線オブジェクトOL1~OL4、対応する時刻に関連するオブジェクトM1~M4、及び、線オブジェクトOL1~OLの線幅方向に遅延時間に応じて延びるオブジェクトB1~B4が重畳表示される。このように、画像表示装置1は、カメラ画像にアシスト情報を重畳させてもよい。
他車両の表示に係る変形例においては、表示制御部14は、将来の他車両の位置を示す線オブジェクトを表示させていたが、これに限定されない。例えば、表示制御部14は、車両2と対象の他車両とのTTCを示す線オブジェクトを表示させてもよい。
[構成の変形例]
車両2は、遠隔指示が可能な車両であればよく、自動運転車両に限定されない。車両2は、地図データベースを備えなくてもよい。画像表示装置1は、遅延時間に関する表示を省略する場合には、時間受信部112及び遅延時間算出部12を備えていなくてもよい。また、画像表示装置1は、GPS時刻に替えてNTP(Network Time Protocol)サーバから取得された時刻を用いてもよい。
1…画像表示装置、2…車両、14…表示制御部、22…外部センサ、23…内部センサ、R…遠隔オペレータ。

Claims (3)

  1. 車両を遠隔指示する遠隔オペレータに情報を表示する表示部に接続される画像表示装置であって、
    前記車両の外部環境の情報を検出する外部センサにより第1時刻に検出された外部センサデータを、前記車両から通信を介して取得する外部センサデータ取得部と、
    前記車両の走行状況を検出する内部センサにより前記第1時刻に検出された内部センサデータを、前記車両から通信を介して取得する内部センサデータ取得部と、
    前記第1時刻の前記外部センサデータに基づいて、前記第1時刻から所定時間経過した将来の時刻である第2時刻に前記車両の周辺物標のうちの少なくとも1つが取り得る位置に関する情報を決定する決定部と、
    前記車両との通信の遅延時間を算出する算出部と、
    前記第1時刻の前記外部センサデータに基づいて、前記車両の周辺を示す監視画像を前記表示部に表示させる表示制御部と、
    を備え、
    前記表示制御部は、前記決定部により決定された前記第2時刻の前記周辺物標のうちの少なくとも1つの位置に対応する前記監視画像上の位置に、前記第2時刻の前記周辺物標のうちの少なくとも1つの位置を示すオブジェクトを重畳させ、
    前記決定部は、前記遅延時間に基づいて前記第2時刻の前記周辺物標のうちの少なくとも1つの位置の取り得る範囲を決定し、
    前記表示制御部は、前記遅延時間の絶対値及び所定時間内の分散値の少なくとも一方に基づいて定義された、値が大きくなるほど遅延が大きいことを示す遅延度が閾値以上である場合に、前記範囲に対応する前記監視画像上の位置に前記範囲を示すオブジェクトを重畳させる、
    画像表示装置。
  2. 前記第2時刻の前記周辺物標のうちの少なくとも1つの位置を示すオブジェクトは、ガイド線のオブジェクトであり、
    前記範囲を示すオブジェクトは、前記ガイド線のオブジェクトの線幅方向に延びるオブジェクトであり、
    前記表示制御部は、前記遅延度が大きいほど前記範囲を示すオブジェクトの線幅方向の長さを長く変更する、
    請求項に記載の画像表示装置。
  3. 前記決定部は、前記第1時刻の前記外部センサデータに基づいて、前記車両の周辺に存在する他車両を検出するとともに、前記第2時刻の前記他車両の位置を決定し、
    前記表示制御部は、前記決定部により決定された前記第2時刻の前記他車両の位置に対応する前記監視画像上の位置に、前記第2時刻の前記他車両の位置を示すオブジェクトを重畳させる、
    請求項1又は2に記載の画像表示装置。
JP2019135626A 2019-07-23 2019-07-23 画像表示装置 Active JP7238670B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019135626A JP7238670B2 (ja) 2019-07-23 2019-07-23 画像表示装置
CN202010699852.XA CN112309157B (zh) 2019-07-23 2020-07-20 图像显示装置
US16/933,152 US11636762B2 (en) 2019-07-23 2020-07-20 Image display device
JP2023014192A JP7509250B2 (ja) 2023-02-01 画像表示装置、画像表示方法、及び、画像表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019135626A JP7238670B2 (ja) 2019-07-23 2019-07-23 画像表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023014192A Division JP7509250B2 (ja) 2023-02-01 画像表示装置、画像表示方法、及び、画像表示プログラム

Publications (2)

Publication Number Publication Date
JP2021018744A JP2021018744A (ja) 2021-02-15
JP7238670B2 true JP7238670B2 (ja) 2023-03-14

Family

ID=74187558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019135626A Active JP7238670B2 (ja) 2019-07-23 2019-07-23 画像表示装置

Country Status (3)

Country Link
US (1) US11636762B2 (ja)
JP (1) JP7238670B2 (ja)
CN (1) CN112309157B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021124516A1 (ja) * 2019-12-19 2021-06-24 株式会社ガク・アソシエイツ 境界線可視化システム、境界線可視化方法、境界線可視化プログラムおよびデジタルフォトアルバム作成システム
US11796997B1 (en) * 2020-03-25 2023-10-24 Gm Cruise Holdings Llc Emergency vehicle interactions using external triggers
JP7400754B2 (ja) * 2021-02-24 2023-12-19 トヨタ自動車株式会社 遠隔支援システム及び遠隔支援方法
JP7459821B2 (ja) 2021-02-25 2024-04-02 株式会社デンソー 遠隔支援システム、遠隔支援方法、及び遠隔支援プログラム
DE102022107187A1 (de) 2022-03-28 2023-09-28 Valeo Schalter Und Sensoren Gmbh Führen eines Fahrzeugs in einem vorgegebenen befahrbaren Bereich

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134499A (ja) 2008-12-02 2010-06-17 Mitsubishi Electric Corp 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム
JP2018106676A (ja) 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、***作車両、情報処理方法及びプログラム
JP2020167551A (ja) 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049138A (ja) * 2003-07-30 2005-02-24 Pioneer Electronic Corp 交通状況報知装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2005134429A (ja) * 2003-10-28 2005-05-26 Pioneer Electronic Corp 交通状況報知装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP5696444B2 (ja) * 2009-12-24 2015-04-08 日産自動車株式会社 走行制御装置
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
JP5556740B2 (ja) * 2010-10-28 2014-07-23 Smk株式会社 情報提供装置、情報提供サーバおよび車両支援システム
KR20120059109A (ko) * 2010-11-30 2012-06-08 한국전자통신연구원 레이저 스캐너 센서를 이용한 다중 차량 감지 장치 및 그 방법
KR101409747B1 (ko) * 2012-12-28 2014-07-02 현대모비스 주식회사 횡방향 제어 장치 및 그 제어 방법
KR20150055271A (ko) * 2013-11-13 2015-05-21 현대모비스 주식회사 타겟의 운동 특성 판단 장치 및 이를 구비하는 주행 경로 제어 장치
JP6635428B2 (ja) * 2015-05-20 2020-01-22 修一 田山 自動車周辺情報表示システム
CN104933293A (zh) * 2015-05-22 2015-09-23 小米科技有限责任公司 一种道路信息处理方法及装置
JP6409680B2 (ja) * 2015-05-29 2018-10-24 株式会社デンソー 運転支援装置、運転支援方法
CA2987558A1 (en) * 2015-05-29 2016-12-08 Nissan Motor Co., Ltd. Information presentation system
WO2017199751A1 (ja) * 2016-05-16 2017-11-23 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018020724A (ja) * 2016-08-05 2018-02-08 アイシン精機株式会社 周辺監視装置
US10233021B1 (en) * 2016-11-02 2019-03-19 Amazon Technologies, Inc. Autonomous vehicles for delivery and safety
MX2019006183A (es) * 2016-11-30 2019-09-11 Nissan North America Inc Interfaz de mapeo de soporte remoto de vehiculos autonomos.
EP3339999B1 (en) * 2016-12-22 2021-10-27 Panasonic Intellectual Property Corporation of America Information processing apparatus, information processing method, and recording medium storing programm
CN106926779B (zh) * 2017-03-09 2019-10-29 吉利汽车研究院(宁波)有限公司 一种车辆变道辅助***
US11230284B2 (en) * 2017-03-17 2022-01-25 Hitachi Astemo, Ltd. Driving assistance apparatus and driving assistance method
JP2018180771A (ja) 2017-04-07 2018-11-15 トヨタ自動車株式会社 遠隔操作装置
JP6812894B2 (ja) * 2017-04-24 2021-01-13 トヨタ自動車株式会社 周辺監視装置
JP6897340B2 (ja) * 2017-06-02 2021-06-30 株式会社アイシン 周辺監視装置
US11493348B2 (en) * 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
CA3069730C (en) * 2017-07-11 2022-06-28 Waymo Llc Methods and systems for providing remote assistance to a vehicle
KR102102651B1 (ko) * 2017-10-12 2020-05-29 엘지전자 주식회사 자율주행차량 및 이의 제어방법
JP6881219B2 (ja) * 2017-10-18 2021-06-02 トヨタ自動車株式会社 衝突前制御装置及び衝突前制御方法
US11249474B2 (en) * 2017-12-07 2022-02-15 Phantom Auto Inc. Safety of autonomous vehicles using a virtual augmented support environment
JP7063652B2 (ja) * 2018-02-19 2022-05-09 株式会社デンソーテン 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
US10481606B1 (en) * 2018-11-01 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US11320277B2 (en) * 2019-01-25 2022-05-03 Uber Technologies, Inc. Pick-up/drop-off zone handoff between autonomous vehicles
WO2020202379A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 表示制御装置、表示制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134499A (ja) 2008-12-02 2010-06-17 Mitsubishi Electric Corp 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム
JP2018106676A (ja) 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、***作車両、情報処理方法及びプログラム
JP2020167551A (ja) 2019-03-29 2020-10-08 本田技研工業株式会社 制御装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US20210027625A1 (en) 2021-01-28
CN112309157A (zh) 2021-02-02
US11636762B2 (en) 2023-04-25
JP2021018744A (ja) 2021-02-15
CN112309157B (zh) 2022-11-29
JP2023065374A (ja) 2023-05-12

Similar Documents

Publication Publication Date Title
JP6729220B2 (ja) 車両用運転支援装置
JP7238670B2 (ja) 画像表示装置
US10331139B2 (en) Navigation device for autonomously driving vehicle
JP6555067B2 (ja) 車線変更支援装置
US11716160B2 (en) Vehicle remote instruction system
JP7276023B2 (ja) 車両遠隔指示システム、及び自動運転車両
JP7140037B2 (ja) 車両遠隔指示システム
JP7163729B2 (ja) 車両制御装置
JP7243524B2 (ja) 自動運転システム
JP7115184B2 (ja) 自動運転システム
US11332128B2 (en) Driving assistance apparatus
CN109017769B (zh) 车外报告装置
JP7152339B2 (ja) 走行制御装置、走行制御方法、およびプログラム
JP2017076232A (ja) 車両用報知装置
JP2008230467A (ja) 走行支援装置
JP2020157830A (ja) 走行制御装置、走行制御方法、およびプログラム
CN113548043B (zh) 用于自主车辆的安全操作员的碰撞告警***和方法
US12017681B2 (en) Obstacle prediction system for autonomous driving vehicles
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
JP2021018636A (ja) 車両遠隔指示システム
JP7425975B2 (ja) 遠隔機能選択装置
JP7509250B2 (ja) 画像表示装置、画像表示方法、及び、画像表示プログラム
JP2021018743A (ja) 画像表示装置
JP2022174921A (ja) 車両遠隔指示システム
JP2023060523A (ja) 車両制御方法及び車両制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R151 Written notification of patent or utility model registration

Ref document number: 7238670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151