JP6989418B2 - 車載システム - Google Patents

車載システム Download PDF

Info

Publication number
JP6989418B2
JP6989418B2 JP2018043903A JP2018043903A JP6989418B2 JP 6989418 B2 JP6989418 B2 JP 6989418B2 JP 2018043903 A JP2018043903 A JP 2018043903A JP 2018043903 A JP2018043903 A JP 2018043903A JP 6989418 B2 JP6989418 B2 JP 6989418B2
Authority
JP
Japan
Prior art keywords
vehicle
passerby
information
processing unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043903A
Other languages
English (en)
Other versions
JP2019156087A (ja
Inventor
進一 岡本
賢太郎 大友
篤 石橋
悠 河原
正樹 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2018043903A priority Critical patent/JP6989418B2/ja
Priority to CN201980012914.0A priority patent/CN111712865B/zh
Priority to PCT/JP2019/002101 priority patent/WO2019176310A1/ja
Priority to DE112019001268.1T priority patent/DE112019001268T5/de
Publication of JP2019156087A publication Critical patent/JP2019156087A/ja
Priority to US16/988,803 priority patent/US20200372266A1/en
Application granted granted Critical
Publication of JP6989418B2 publication Critical patent/JP6989418B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/503Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text
    • B60Q1/5035Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/545Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other traffic conditions, e.g. fog, heavy traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4047Attentiveness, e.g. distracted by mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本発明は、車載システムに関する。
従来の車両は、車両の周囲の歩行者に対して各種の報知を実行することにより、歩行者に対して与える不安感の軽減を図っている。例えば、特許文献1には、センサによって車両と人との位置関係を検知し、当該検知結果に基づき、車両周囲の人に向けて可動デバイスを回動させる車載装置が開示されている。
特開2015−174541号公報
従来の車両は、歩行者に対して与える不安感の軽減を図っているが、歩行者から車両側に意思を伝えるという点で改善の余地がある。
本発明は、上記の事情に鑑みてなされたものであって、車両と通行人との意思疎通を改善することができる車載システムを提供することを目的とする。
上記目的を達成するために、本発明に係る車載システムは、車両の前方を撮像した画像に基づいて通行人の視線情報を検出する検出部と、前記検出部が検出した前記通行人の視線情報に基づいて、前記車両の動作を決定する決定部と、前記決定部が決定した前記車両の動作に応じた処理を行う動作部と、を備え、前記決定部は、前記通行人の視線情報が前記車両に向かっている場合、前記通行人に道を譲る前記車両の動作を決定し、前記動作部は、前記通行人に道を譲ることを示す第1情報を前記通行人に対して出力する処理を行うものであり、前記通行人を撮像した画像に基づいて、前記動作部が出力させた前記第1情報を前記通行人が理解しているか否かを判定する第1判定部をさらに備え、前記決定部は、前記第1判定部によって前記通行人が前記第1情報を理解していると判定された場合、前記車両を停止させる動作を決定し、前記動作部は、前記車両を停止させる動作に応じた処理を行うことを特徴とする。
また、上記車載システムでは、前記通行人は、前記車両の前方を横断する可能性がある人物であるものとすることができる。
また、上記車載システムでは、前記通行人の視線が前記車両に向かっていない場合、前記通行人を撮像した画像に基づいて、前記通行人が道を譲る行動を行っているか否かを判定する第2判定部をさらに備え、前記決定部は、前記第2判定部によって前記通行人が道を譲る行動を行っていると判定された場合、前記車両を走行させる動作を決定し、前記動作部は、前記車両を走行させる動作に応じた処理を行うものとすることができる。
また、上記車載システムでは、前記決定部は、前記第2判定部によって前記通行人が道を譲る行動を行っていないと判定された場合、前記車両を停止または徐行する動作を決定し、前記動作部は、前記車両を停止または徐行する動作に応じた処理を行うものとすることができる。
本発明に係る車載システムは、通行人の視線情報に基づいて車両の動作を決定することができる。この結果、車載システムは、通行人の視線情報に基づいて、車両と通行人との意思疎通を改善することができる、という効果を奏する。
図1は、実施形態に係る車載システムの概略構成を表すブロック図である。 図2は、実施形態に係る車載システムが検出する通行人の一例を表す図である。 図3は、実施形態に係る車載システムの制御装置の制御の一例を表すフローチャート図である。 図4は、図3に示す第1処理の一例を表すフローチャート図である。 図5は、図3に示す第2処理の一例を表すフローチャート図である。 図6は、図3に示す第3処理の一例を表すフローチャート図である。
以下に、本発明に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[実施形態]
図1に示す本実施形態の車載システム1は、車両Vに適用されたシステムである。車載システム1が適用される車両Vは、電気車両(EV(Electric Vehicle))、ハイブリッド車両(HEV(Hybrid Electric Vehicle))、プラグインハイブリッド車両(PHEV(Plug−in Hybrid Electric Vehicle))、ガソリン車両、ディーゼル車両など、駆動源としてモータ又はエンジンを用いるいずれの車両であってもよい。また、当該車両Vの運転は、運転者による手動運転、半自動運転、完全自動運転等、いずれであってもよい。また、当該車両Vは、いわゆる個人が所有する自家用車、レンタカー、シェアリングカー、バス、タクシー、ライドシェアカーのいずれであってもよい。
以下の説明では、一例として、車両Vは、自動運転(半自動運転、完全自動運転)可能な車両であるものとして説明する。車載システム1は、車両Vにおいていわゆる自動運転を実現した上で、他車両の合図の意図を推測するものである。車載システム1は、図1に示す構成要素を車両Vに搭載することで実現される。以下、図1を参照して車載システム1の各構成について詳細に説明する。以下の説明において、車両Vを「自車両」と表記する場合がある。
なお、図1に図示する車載システム1において、電力供給、制御信号、各種情報等の授受のための各構成要素間の接続方式は、特に断りのない限り、電線や光ファイバ等の配索材を介した有線による接続(例えば、光ファイバを介した光通信等も含む)、無線通信、非接触給電等の無線による接続のいずれであってもよい。
以下の説明では、車載システム1は、自動運転システムである場合の一例について説明する。
車載システム1は、車両Vにおいて自動運転を実現するシステムである。車載システム1は、図1に示す構成要素を車両Vに搭載することで実現される。具体的には、車載システム1は、走行系アクチュエータ11と、検出装置12と、表示装置13と、外部表示装置14と、制御装置15とを備える。
走行系アクチュエータ11は、車両Vを走行させるための種々の機器である。走行系アクチュエータ11は、典型的には、走行用パワートレーン、操舵装置、制動装置等を含んで構成される。走行用パワートレーンは、車両Vを走行させる駆動装置である。操舵装置は、車両Vの操舵を行う装置である。制動装置は、車両Vの制動を行う装置である。
検出装置12は、種々の情報を検出するものである。検出装置12は、例えば、車両状態情報、周辺状況情報等を検出する。車両状態情報は、車両Vの走行状態を表す情報である。周辺状況情報は、車両Vの周辺状況を表す情報である。車両状態情報は、例えば、車両Vの車速情報、加速度(車両前後方向加速度、車両幅方向加速度、車両ロール方向加速度等)情報、操舵角情報、アクセルペダルの操作量(アクセル踏み込み量)情報、ブレーキペダルの操作量(ブレーキ踏み込み量)情報、シフトポジション情報、各部の電流値/電圧値情報、蓄電装置の蓄電量情報等を含んでいてもよい。周辺状況情報は、例えば、車両Vの周辺環境や車両Vの周辺の人物、他車両、障害物等の外部物体を撮像した周辺画像情報、外部物体の有無や当該外部物体との相対距離、相対速度、TTC(Time−To−Collision:接触余裕時間)等を表す外部物体情報、車両Vが走行する車線の白線情報、車両Vが走行する走行路の交通情報、車両Vの現在位置情報(GPS情報)等を含んでいてもよい。
図1に示す検出装置12は、一例として、車両状態検出部12a、通信モジュール12b、GPS受信器12c、外部カメラ12d、外部レーダ/ソナー12eを含んで構成されるものとして図示している。
車両状態検出部12aは、車速情報、加速度情報、操舵角情報、アクセルペダルの操作量情報、ブレーキペダルの操作量情報、シフトポジション情報、電流値/電圧値情報、蓄電量情報等を含む車両状態情報を検出する。車両状態検出部12aは、例えば、車速センサ、加速度センサ、操舵角センサ、アクセルセンサ、ブレーキセンサ、シフトポジションセンサ、電流/電圧計等の種々の検出器、センサによって構成される。車両状態検出部12aは、車両Vにおいて各部を制御するECU(Electronic Control Unit)等の処理部自体を含んでいてもよい。
通信モジュール12bは、他車両、路上機、クラウド機器、車両Vの外部の人物が所持する電子機器等、車両Vの外部機器との間で無線通信により相互に情報を送受信するものである。これにより、通信モジュール12bは、例えば、周辺画像情報、外部物体情報、交通情報等を含む周辺状況情報を検出する。通信モジュール12bは、例えば、広域無線、狭域無線等、種々の方式の無線通信により外部機器と通信する。ここで、広域無線の方式は、例えば、ラジオ(AM、FM)、TV(UHF、4K、8K)、TEL、GPS、WiMAX(登録商標)等である。また、狭域無線の方式は、例えば、ETC/DSRC、VICS(登録商標)、無線LAN、ミリ波通信等である。
GPS受信器12cは、周辺状況情報として、車両Vの現在位置を表す現在位置情報を検出する。GPS受信器12cは、GPS衛星から送信される電波を受信することで、現在位置情報として、車両VのGPS情報(緯度経度座標)を取得する。
外部カメラ12dは、周辺状況情報として、周辺画像情報を構成する車両Vの周辺の画像や白線情報を構成する車両Vの走行路面の画像を撮像する。画像は、例えば、動画、静止画等を含む。外部カメラ12dは、車両Vの前方の画像を撮像する。周辺状況情報は、例えば、車両Vが走行している車線及び対向車線を走行する前方の他車両を撮像可能な前方の画像を含む。周辺状況情報は、例えば、車両Vの前方の車線と当該車線に沿った歩道との画像を含む。周辺状況情報は、例えば、通行人の顔の位置、表情、視線、行動等を判別可能な画像を含む。通行人は、例えば、歩行者、自転車に乗る人、立ち止まっている人等を含む。
外部レーダ/ソナー12eは、周辺状況情報として、赤外線、ミリ波、超音波等を用いて外部物体情報を検出する。外部物体情報は、例えば、歩道、道路等の通行人の情報を含む。
表示装置13は、車両Vに設けられ、当該車両Vの運転者、搭乗者等から目視可能なものである。表示装置13は、例えば、液晶ディスプレイ(Liquid Crystal Display)、有機ELディスプレイ(Organic Electro−Luminescence Display)等の表示デバイスを含む。表示装置13は、例えば、車両Vのコンビネーションメータ、ヘッドアップディスプレイ、テレビジョン等として用いられる。表示装置13は、公知のナビゲーション装置であってもよい。
外部表示装置14は、車両Vに設けられ、当該車両Vの外部の人物に対して各種情報を表示可能なものである。外部表示装置14は、車両Vの外部の人物が目視可能なものである。外部表示装置14は、例えば、外部の人物が目視可能に車両Vに設けられた上記の表示デバイスを含む。外部表示装置14は、例えば、車両Vのウインドシールド、サイドドア等に各種情報を表示する表示装置を含む。本実施形態では、外部表示装置14は、通行人に対して、例えば、画像、メッセージ等の情報を表示する。
制御装置15は、車載システム1の各部を統括的に制御するものである。制御装置15は、車両Vの全体を統括的に制御する電子制御ユニットによって兼用されてもよい。制御装置15は、車両Vの走行を実現するための種々の演算処理を実行する。制御装置15は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御装置15は、走行系アクチュエータ11、検出装置12、表示装置13、及び、外部表示装置14が電気的に接続される。制御装置15は、車両Vにおいて各部を制御するECU(例えばボディECU等)を介して走行系アクチュエータ11、検出装置12、表示装置13、及び、外部表示装置14が電気的に接続されてもよい。制御装置15は、各種の検出信号や各部を駆動させるための駆動信号等の各種の電気信号を各部との間で相互に授受することができる。
具体的には、制御装置15は、機能概念的に、インターフェース部15A、記憶部15B、及び、処理部15Cを含んで構成される。インターフェース部15A、記憶部15B、及び、処理部15Cは、電気的に接続されている各種機器との間で種々の情報を相互に授受することができる。
インターフェース部15Aは、走行系アクチュエータ11、検出装置12等の車載システム1の各部と種々の情報を送受信するためのインターフェースである。また、インターフェース部15Aは、表示装置13及び外部表示装置14と電気的に接続可能に構成される。インターフェース部15Aは、各部との間で電線等を介して情報を有線通信する機能、各部との間で無線通信ユニット等を介して情報を無線通信する機能等を有している。
記憶部15Bは、自動運転系の記憶装置である。記憶部15Bは、例えば、ハードディスク、SSD(Solid State Drive)、光ディスクなどの比較的に大容量の記憶装置、あるいは、RAM、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。記憶部15Bは、制御装置15での各種処理に必要な条件や情報、制御装置15で実行する各種プログラムやアプリケーション、制御データ等が格納されている。記憶部15Bは、例えば、GPS受信器12cによって検出された現在位置情報に基づいて車両Vの現在位置を特定する際に参照する地図を表す地図情報、後述する通行人の行動を判定するために用いられる行動情報150等をデータベース化して記憶する。また、記憶部15Bは、例えば、検出装置12で検出された各種情報や後述する取得部15C1によって取得された各種情報を一時的に記憶することもできる。記憶部15Bは、処理部15C等によってこれらの情報が必要に応じて読み出される。
処理部15Cは、各種入力信号等に基づいて、記憶部15Bに記憶されている各種プログラムを実行し、当該プログラムが動作することにより各部に出力信号を出力し各種機能を実現するための種々の処理を実行する部分である。
より詳細には、処理部15Cは、機能概念的に、取得部15C1、第1検出部15C2、第2検出部15C3、決定部15C4、走行制御部15C5、出力制御部15C6、第1判定部15C7、及び、第2判定部15C8を含んで構成される。
取得部15C1は、車載システム1における各種処理に用いる種々の情報を取得する処理を実行可能な機能を有する部分である。取得部15C1は、検出装置12によって検出された車両状態情報、周辺状況情報等を取得する。例えば、取得部15C1は、車両Vの前方の画像を含む周辺状況情報を取得する。取得部15C1は、取得した各種情報を記憶部15Bに格納することもできる。
第1検出部15C2は、車両Vの前方を撮像した映像(画像)に基づいて、通行人を検出する処理を実行可能な機能を有する部分である。第1検出部15C2は、車両Vの前方を横断する可能性がある通行人を検出する。車両Vの前方を横断する可能性がある通行人は、例えば、車両Vが走行している道路に向かって移動している人物、当該道路の路側で立ち止まっている人物等を含む。なお、第1検出部15C2は、外部レーダ/ソナー12eによって車両Vの前方の物体を検出した場合に、通行人の検出を行うように構成してもよい。
図2に示す一例では、車両Vは、道路Rを走行している。車両Vの前方の歩道Wには、2人の通行人P1,P2が歩行している。通行人P1は、車両Vの前方で道路Rに向かって歩道Wを歩行している。通行人P1の視線情報Eは、車両Vに向かっている。通行人P2は、車両Vの進行方向と同一の方向に向かって、歩道Wを歩行している。通行人P2の視線情報は、車両Vに向かっていない。ここで、視線情報Eとは、通行人P1,P2の視線の方向を識別可能な情報である。例えば、視線情報Eは、通行人の視線の方向を示す情報を含む。図2に示す場面では、車載システム1の外部カメラ12dが車両Vの前方を撮像した画像には、通行人P1,P2が含まれる。第1検出部15C2は、車両Vの前方を撮像した映像(画像)に基づいて、対象とすべき通行人として、道路Rに向かって歩行している通行人P1を対象の通行人として検出する。よって、第1検出部15C2は、車両Vの前方に存在する複数の通行人のうち、注意が必要な通行人を検出することができる。
図1に戻り、第2検出部15C3は、車両Vの前方を撮像した映像(画像)に基づいて、第1検出部15C2が検出した通行人の視線情報を検出する処理を実行可能な機能を有する部分である。第2検出部15C3は、例えば、画像から通行人の目頭、目尻、瞳等の目の周囲の特徴点を特定し、通行人の視線の方向を示す視線情報Eを検出する。第2検出部15C3は、例えば、画像から顔、頭部等の向きを特定し、当該向きから通行人の視線の方向を示す視線情報Eを検出してもよい。
決定部15C4は、第2検出部15C3が検出した通行人の視線情報に基づいて、車両Vの動作を決定する処理を実行可能な機能を有する部分である。決定部15C4は、例えば、種々の公知の人工知能(Artificial Intelligence)技術や深層学習(Deep Learning)技術を用いて、車両Vの動作を決定する処理を実行可能に構成される。決定部15C4は、人工知能技術や深層学習技術を用いた様々な手法によって、通行人の視線情報と通行人の行動とを学習した結果に基づくアルゴリズム、データベース等を用いて、通行人の視線情報に応じた車両Vの動作を決定する。
例えば、決定部15C4は、記憶部15Bに記憶されている行動情報150等に基づいて、通行人の視線情報Eに応じた車両Vの動作を決定する。行動情報150は、例えば、人工知能技術や深層学習技術を用いた様々な手法によって、通行人の視線情報Eと行動との関係等を学習した結果が反映された情報である。言い換えれば、行動情報150は、通行人の視線情報と行動とに応じた車両Vの動作を規定するために、人工知能技術や深層学習技術を用いた様々な手法を用いてデータベース化された情報である。なお、決定部15C4が車両Vの動作を決定する一例については、後述する。
走行制御部15C5は、決定部15C4の決定結果に基づいて車両Vの走行を制御する処理を実行可能な機能を有する部分である。走行制御部15C5は、動作部の一例である。走行制御部15C5は、取得部15C1によって取得された情報(車両状態情報、周辺状況情報等)に基づいて走行系アクチュエータ11を制御し車両Vの走行に関わる種々の処理を実行する。走行制御部15C5は、ECU(例えばボディECU等)を介して走行系アクチュエータ11を制御してもよい。本実施形態の走行制御部15C5は、車両Vの自動運転に関わる種々の処理を実行し車両Vを自動運転する。
走行制御部15C5による車両Vの自動運転は、取得部15C1によって取得された情報に基づいて、車両Vの運転者による運転操作に優先して、あるいは、運転者による運転操作によらずに自動で車両Vの挙動が制御される運転である。自動運転としては、運転者による運転操作をある程度介在させる半自動運転と、運転者による運転操作を介在させない完全自動運転とがある。半自動運転としては、例えば、車両姿勢安定制御(VSC:Vehicle Stability Control)、定速走行・車間距離制御(ACC:Adaptive Cruise Control)、車線維持支援(LKA:Lane Keeping Assist)等の運転が挙げられる。完全自動運転としては、例えば、自動で車両Vを目的地まで走行させる運転や複数の車両Vを自動で隊列走行させる運転等が挙げられる。完全自動運転の場合、車両Vに運転者自体が不在となる場合もありうる。そして、本実施形態の走行制御部15C5は、決定部15C4によって、通行人の視線情報に応じて車両Vの行動を、当該車両Vの走行に反映させた制御を行う。言い換えれば、走行制御部15C5は、決定部15C4による決定結果にも基づいて車両Vの自動運転を行う。
出力制御部15C6は、通行人に対するメッセージ、画像等を示す情報を出力する処理を実行可能な機能を有する部分である。出力制御部15C6は、動作部の一例である。出力制御部15C6は、通行人に対する第1情報を、インターフェース部15Aを介して外部表示装置14に表示させる。第1情報は、例えば、通行人に道を譲ることを示す情報を含む。出力制御部15C6は、通行人に対するお礼を示す第2情報を、インターフェース部15Aを介して外部表示装置14に表示させる。本実施形態では、出力制御部15C6は、第1情報、第2情報等を外部表示装置14に出力させる場合について説明するが、これに限定されない。出力制御部15C6は、例えば、第1情報、第2情報等を、音声出力装置から出力させてもよい。
外部表示装置14は、例えば、出力制御部15C6から入力された情報を、車両Vの外部に向けて表示する。外部表示装置14は、通行人に対して第1情報、第2情報等を表示することで、通行人と車両V側とのコミュニケーションを図ることができる。
第1判定部15C7は、対象の通行人を撮像した画像に基づいて、出力制御部15C6が出力させた第1情報を通行人が理解しているか否かを判定する処理を実行可能な機能を有する部分である。例えば、第1判定部15C7は、記憶部15Bに記憶されている行動情報150等に基づいて、対象の通行人の表情、ジェスチャ等を画像から検出できた場合、第1情報を通行人が理解していると判定する。例えば、行動情報150は、人工知能技術や深層学習技術を用いた様々な手法によって、通行人(人物)が伝達されたことを理解した場合の表情、ジェスチャ等を学習した結果が反映された情報である。すなわち、第1判定部15C7は、通行人に道を譲ることを対象の通行人に伝達できたか否かを判定することができる。この結果、決定部15C4は、通行人に道を譲ることを対象の通行人に伝達できた場合に、車両Vを停止または徐行させる動作を決定することができる。なお、以下の説明では、車載システム1は、車両Vを停止する場合について説明するが、これに限定されない。例えば、車載システム1の決定部15C4は、車両Vと通行人との距離が一定距離だけ離れているか否かをさらに判定し、一定距離だけ離れている場合に、車両Vを徐行させる動作を決定してもよい。
第2判定部15C8は、対象の通行人の視線が車両に向かっていない場合、通行人を撮像した画像に基づいて、当該通行人が道を譲る行動を行っているか否かを判定する処理を実行可能な機能を有する部分である。例えば、第2判定部15C8は、記憶部15Bに記憶されている行動情報150等に基づいて、対象の通行人の道を譲る行動を画像から検出できた場合、通行人が道を譲る行動を行っていると判定する。例えば、行動情報150は、人工知能技術や深層学習技術を用いた様々な手法によって、通行人が道を譲る場合の行動を学習した結果が反映された情報である。例えば、道を譲る行動は、通行人が手を前方に向けて伸ばしている状態を含む。また、例えば、行動情報150は、人工知能技術や深層学習技術を用いた様々な手法によって、通行人が道を譲らない場合の行動を学習した結果が反映された情報を含む。例えば、通行人がお礼の動作を行っている場合、通行人が立ち止まっていない場合、及び、通行人の重心が前に傾いている場合の少なくとも1つである場合、第2判定部15C8は、通行人が道を譲る行動を行っていないと判定する。すなわち、第1判定部15C7は、車両Vに視線を向けていない通行人が、道を譲る行動を行っているか否かを判定することができる。この結果、決定部15C4は、通行人が道を譲っている場合に、車両Vを走行させる動作を決定することができる。
次に、図3のフローチャート図を参照して、制御装置15の処理部15Cの制御の一例を説明する。図3に示すフローチャート図は、車両Vの前方の通行人に応じた車載システム1の処理手順の一例を示す。図3に示す処理手順は、処理部15Cがプログラムを実行することによって実現される。図3に示す処理手順は、処理部15Cによって繰り返し実行される。例えば、図3に示す処理手順は、処理部15Cによって数msないし数十ms毎の制御周期(クロック単位)で繰り返し実行される。
まず、車載システム1の制御装置15の処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS11)。処理部15Cは、取得した画像から車両Vの前方を横断する可能性がある通行人を検出する(ステップS12)。例えば、処理部15Cは、パターンマッチング等によって画像から通行人を検出する。そして、処理部15Cは、例えば、道路に向かっている人物、道路の路側で立ち止まっている人物等を、横断する可能性がある通行人として検出する。処理部15Cは、ステップS12の処理を実行することにより、第1検出部15C2として機能する。処理部15Cは、通行人を検出したか否かを示す検出結果を記憶部15Bに記憶すると、処理をステップS13に進める。なお、検出結果は、通行人を検出した場合、当該通行人に関する情報を含む。
処理部15Cは、記憶部15Bの検出結果を参照して、通行人を検出したか否かを判定する(ステップS13)。処理部15Cは、通行人を検出していないと判定した場合(ステップS13でNo)、図3に示す処理手順を終了させる。処理部15Cは、通行人を検出したと判定した場合(ステップS13でYes)、処理をステップS14に進める。
処理部15Cは、検出した通行人の視線情報を検出する(ステップS14)。例えば、処理部15Cは、車両Vの前方を撮像した画像に基づいて、対象の通行人の視線情報を検出する。処理部15Cは、ステップS14の処理を実行することにより、第2検出部15C3として機能する。処理部15Cは、検出した視線情報を記憶部15Bに記憶すると、処理をステップS15に進める。
処理部15Cは、記憶部15Bの視線情報を参照して、通行人の視線情報が車両Vに向かっているか否かを判定する(ステップS15)。例えば、処理部15Cは、予め定められた方向に向かう視線情報が少なくとも1つ存在する場合、通行人の視線情報が車両Vに向かっていると判定する。処理部15Cは、通行人の視線情報が車両Vに向かっていると判定した場合(ステップS15でYes)、処理をステップS16に進める。
処理部15Cは、通行人に道を譲る車両Vの第1動作を決定する第1処理を実行する(ステップS16)。第1処理は、通行人の視線情報が車両Vに向かっている場合に、対象の通行人に対応した処理を決定して実行するための処理である。例えば、第1処理は、対象の通行人に対して道を譲る意思を伝え、当該通行人の反応に応じた車両Vの第1動作を実行するための処理である。処理部15Cは、ステップS16の処理を実行することにより、決定部15C4として機能する。なお、第1処理の詳細については、後述する。処理部15Cは、第1処理の実行が終了すると、図3に示す処理手順を終了させる。
処理部15Cは、通行人の視線情報が車両Vに向かっていないと判定した場合(ステップS15でNo)、処理をステップS17に進める。処理部15Cは、画像に基づいて、通行人が道を譲る行動を行っているか否かを判定する(ステップS17)。例えば、処理部15Cは、対象の通行人の視線が車両に向かっていない場合の通行人を撮像した画像に基づいて、当該通行人の行動を特定する。処理部15Cは、例えば、通行人が道を譲る行動、通行人がお礼を行う行動、通行人が立ち止まらない行動、及び、通行人の重心が前に移動する行動等を特定する。処理部15Cは、通行人が道を譲る行動を特定した場合、通行人が道を譲る行動を行っていると判定する。例えば、処理部15Cは、通行人がお礼を行う行動、通行人が立ち止まらない行動、及び、通行人の重心が前に移動する行動のいずれかの行動を特定した場合、通行人が道を譲る行動を行っていないと判定する。処理部15Cは、ステップS17の処理を実行することにより、第2判定部15C8として機能する。処理部15Cは、通行人が道を譲る行動を行っていないと判定した場合(ステップS17でNo)、処理をステップS18に進める。
処理部15Cは、通行人に道を譲る車両Vの第2動作を決定する第2処理を実行する(ステップS18)。第2処理は、通行人の視線情報が車両Vに向かっていない場合に、対象の通行人に道を譲る処理を決定して実行するための処理である。例えば、第2処理は、車両Vを停止させ、当該通行人の行動に応じた車両Vの第2動作を実行するための処理である。処理部15Cは、ステップS18の処理を実行することにより、決定部15C4として機能する。なお、第2処理の詳細については、後述する。処理部15Cは、第2処理の実行が終了すると、図3に示す処理手順を終了させる。
処理部15Cは、通行人が道を譲る行動を行っていると判定した場合(ステップS17でYes)、処理をステップS19に進める。
処理部15Cは、通行人に対する車両Vの第3動作を決定する第3処理を実行する(ステップS19)。第3処理は、通行人の視線情報が車両Vに向かっていない場合に、対象の通行人の行動に対応した車両Vの動作を実行するための処理である。例えば、第3処理は、対象の通行人の視線が車両に向かっていない場合に、通行人の視線情報を再度確認し、対象の通行人の視線情報と行動とに基づいて、車両Vの第3動作を実行するための処理である。処理部15Cは、ステップS19の処理を実行することにより、決定部15C4として機能する。なお、第3処理の詳細については、後述する。処理部15Cは、第3処理の実行が終了すると、図3に示す処理手順を終了させる。
次に、図4のフローチャート図を参照して、制御装置15の処理部15Cが実行する第1処理の一例を説明する。図4に示すフローチャート図は、通行人に道を譲る車両Vの第1動作を決定する処理手順の一例を示す。図4に示す処理手順は、処理部15Cが図3に示すステップS16の処理を実行することで、処理部15Cによって実行される。処理部15Cは、図4に示す処理手順を終了すると、図3に示す処理手順に復帰する。
処理部15Cは、通行人に道を譲る動作を決定する(ステップS101)。処理部15Cは、通行人に道を譲ることを示す第1情報を出力する(ステップS102)。例えば、処理部15Cは、第1情報を外部表示装置14に表示させる。この結果、車載システム1は、道を譲る表示として、例えば「お先にどうぞ」等の第1情報を通行人に対して表示する。例えば、処理部15Cは、第1情報を音声出力装置から車両Vの外部に出力させてもよい。処理部15Cは、ステップS102の処理を実行することにより、出力制御部15C6として機能する。処理部15Cは、第1情報を出力すると、処理をステップS103に進める。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS103)。処理部15Cは、取得した画像に基づいて、通行人が第1情報を理解しているか否かを判定する(ステップS104)。例えば、処理部15Cは、人工知能技術や深層学習技術を用いた様々な手法によって、対象の通行人の表情、ジェスチャ等を画像から抽出できた場合、通行人が第1情報を理解していると判定する。処理部15Cは、ステップS104を実行することにより、第1判定部15C7として機能する。
処理部15Cは、ステップS104で対象の通行人が理解していないと判定した場合(ステップS104でNo)、図4に示す処理手順を終了させる。すなわち、処理部15Cは、対象の通行人が第1情報を理解していない場合、図3に示す処理手順を再度実行し、車両Vの動作を決定し直す。
また、処理部15Cは、対象の通行人が第1情報を理解していると判定した場合(ステップS104でYes)、処理をステップS105に進める。処理部15Cは、車両を停止させる動作に応じた処理を実行する(ステップS105)。例えば、処理部15Cは、車両Vを停止させる制御を行う処理を実行する。処理部15Cは、ステップS105の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを停止させると、処理をステップS106に進める。この結果、対象の通行人は、車両Vが停止すると、車両Vの前方の横断を開始することができる。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS106)。処理部15Cは、取得した画像に基づいて、対象の通行人が横断を終えたか否かを判定する(ステップS107)。例えば、処理部15Cは、取得した画像に基づいて対象の通行人の位置の変化を検出し、車両Vが走行する道路Rの一方側から他方側へ移動したことを検出できた場合に、対象の通行人が横断を終えたと判定する。
処理部15Cは、対象の通行人が横断を終えていないと判定した場合(ステップS107でNo)、処理を既に説明したステップS106に戻す。すなわち、処理部15Cは、ステップS106からステップS107の処理を繰り返すことで、対象の通行人の横断が終わるのを待つ。また、処理部15Cは、対象の通行人が横断を開始しないことを検出した場合は、図4に示す処理手順を終了し、図3に示す処理手順を再度実行してもよい。
処理部15Cは、対象の通行人が横断を終えたと判定した場合(ステップS107でYes)、処理をステップS108に進める。処理部15Cは、第1情報の出力を終了させる(ステップS108)。例えば、処理部15Cは、第1情報の出力の停止を外部表示装置14に要求する。処理部15Cは、第1情報の出力を終了させると、処理をステップS109に進める。
処理部15Cは、車両Vを走行させる動作に応じた処理を実行する(ステップS109)。例えば、処理部15Cは、停止している車両Vを走行させる制御を行う処理を実行する。処理部15Cは、ステップS109の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを走行させると、図4に示す処理手順を終了させる。
以上で説明した車載システム1は、車両Vの前方の通行人の視線情報が車両Vに向かっている場合、当該通行人に道を譲る動作を行う。よって、車載システム1は、通行人の視線情報に基づいて、通行人との意思疎通を図ることで、車両と通行人との意思疎通を改善することができる。例えば、車載システム1は、車両Vの前方を横断する可能性がある通行人の視線情報を確認することで、通行人が横断歩道のない道路を横断する場合であっても、安全性を向上させることができる。
車載システム1は、車両Vの前方の通行人の視線情報が車両Vに向かっている場合、通行人に道を譲ることを示す第1情報を通行人に対して出力する。よって、車載システム1は、通行人に道を譲ることを伝えることで、車両と通行人との意思疎通及び安全性を向上させることができる。
車載システム1は、第1情報を通行人に対して出力した場合、当該通行人が第1情報を理解している場合に、車両Vを停止することにしたので、車両Vを無闇に停止させることを回避できる。よって、車載システム1は、利便性の低下を抑制して、車両と通行人との意思疎通を改善することができる。さらに、車載システム1は、通行人が第1情報を理解している場合に車両Vを停止すると、当該通行人の横断が終了するまで、車両Vの停止を維持することができる。
次に、図5のフローチャート図を参照して、制御装置15の処理部15Cが実行する第2処理の一例を説明する。図5に示すフローチャート図は、通行人に道を譲る車両Vの第2動作を決定する処理手順の一例を示す。図5に示す処理手順は、処理部15Cが図3に示すステップS18の処理を実行することで、処理部15Cによって実行される。すなわち、図5に示す処理手順は、視線情報が車両Vに向かっていない通行人が道を譲る行動を行っていない場合に実行される。処理部15Cは、図5に示す処理手順を終了すると、図3に示す処理手順に復帰する。
処理部15Cは、通行人が道を譲る行動を行っていないことから、車両Vを停止させる動作を決定する(ステップS201)。処理部15Cは、車両Vを停止させる動作に応じた処理を実行する(ステップS202)。例えば、処理部15Cは、走行している車両Vを停止させる制御を行う処理を実行する。処理部15Cは、ステップS202の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを停止させると、処理をステップS203に進める。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS203)。処理部15Cは、取得した画像に基づいて、対象の通行人が横断を終えたか否かを判定する(ステップS204)。処理部15Cは、対象の通行人が横断を終えていないと判定した場合(ステップS204でNo)、処理を既に説明したステップS203に戻す。すなわち、処理部15Cは、ステップS203からステップS204の処理を繰り返すことで、対象の通行人の横断が終わるのを待つ。
処理部15Cは、対象の通行人が横断を終えたと判定した場合(ステップS204でYes)、処理をステップS205に進める。処理部15Cは、車両Vを走行させる動作に応じた処理を実行する(ステップS205)。例えば、処理部15Cは、停止している車両Vを走行させる制御を行う処理を実行する。処理部15Cは、ステップS205の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを走行させると、図5に示す処理手順を終了させる。
以上で説明した車載システム1は、車両Vの前方の通行人の視線情報が車両Vに向かっていない場合、かつ、通行人が道を譲る行動を行っていない場合、車両Vを停止させる動作を行う。よって、車載システム1は、通行人の視線情報と行動とに基づいて、車両Vを停止させる動作を決定することで、通行人との意思疎通を改善することができる。
車載システム1は、車両Vの前方で対象の通行人の視線情報が車両Vに向かっていない場合、車両Vを停止するようにしたので、例えば、車両Vに気付かずに道路を横断しようとしている通行人等に対する安全性を向上させることができる。
次に、図6のフローチャート図を参照して、制御装置15の処理部15Cが実行する第3処理の一例を説明する。図6に示すフローチャート図は、通行人に対する車両Vの第3動作を決定する処理手順の一例を示す。図6に示す処理手順は、処理部15Cが図3に示すステップS19の処理を実行することで、処理部15Cによって実行される。すなわち、図6に示す処理手順は、通行人が道を譲る行動を行っている場合に実行される。処理部15Cは、図6に示す処理手順を終了すると、図3に示す処理手順に復帰する。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS301)。処理部15Cは、取得した画像から対象の通行人の視線情報を検出する(ステップS302)。例えば、処理部15Cは、車両Vの前方を撮像した画像に基づいて、対象の通行人の視線情報を検出する。処理部15Cは、ステップS302の処理を実行することにより、第2検出部15C3として機能する。処理部15Cは、検出した視線情報を記憶部15Bに記憶すると、処理をステップS303に進める。
処理部15Cは、記憶部15Bの視線情報を参照して、通行人の視線情報が車両Vに向かっているか否かを判定する(ステップS303)。すなわち、処理部15Cは、視線情報が車両Vに向かっていないと判定した通行人の視線情報を再度確認する。例えば、通行人は、車両Vに視線情報が向かっていない状態から、車両Vに視線情報が向かう状態に変化した場合、車両Vに気付いて道路を横断しない傾向にある。処理部15Cは、通行人の視線情報が車両Vに向かっていると判定した場合(ステップS303でYes)、処理をステップS304に進める。
処理部15Cは、通行人へのお礼を示す第2情報を出力する(ステップS304)。例えば、処理部15Cは、第2情報を外部表示装置14に表示させる。例えば、処理部15Cは、第2情報を音声出力装置から車両Vの外部に出力してもよい。処理部15Cは、ステップS304の処理を実行することにより、出力制御部15C6として機能する。処理部15Cは、第2情報を出力すると、処理をステップS305に進める。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS305)。処理部15Cは、取得した画像に基づいて、第2情報の出力を終了するか否かを判定する(ステップS306)。例えば、処理部15Cは、車両Vの前方の画像に基づいて、第2情報を理解した通行人の表情、ジェスチャ等を検出した場合に、第2情報の出力を終了すると判定する。例えば、処理部15Cは、第2情報の表示を開始してから一定時間が経過した場合等に、第2情報の出力を終了すると判定してもよい。処理部15Cは、第2情報の出力を終了しないと判定した場合(ステップS306でNo)、処理を既に説明したステップS305に戻す。
処理部15Cは、第2情報の出力を終了すると判定した場合(ステップS306でYes)、処理をステップS307に進める。処理部15Cは、第2情報の出力を終了させる(ステップS307)。例えば、処理部15Cは、第2情報の出力の停止を外部表示装置14に要求する。処理部15Cは、第2情報の出力を終了させると、処理をステップS308に進める。
処理部15Cは、車両Vを走行させる動作に応じた処理を実行する(ステップS308)。例えば、処理部15Cは、車両Vを走行させる、あるいは、車両Vの走行を維持する制御を行う処理を実行する。処理部15Cは、ステップS308の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを走行させると、図6に示す処理手順を終了させる。
また、処理部15Cは、通行人の視線情報が車両Vに向かっていないと判定した場合(ステップS303でNo)、処理をステップS309に進める。処理部15Cは、取得した画像に基づいて、通行人が道を横断しない行動であるか否かを判定する(ステップS309)。例えば、処理部15Cは、通行人が移動していない場合、通行人が道を譲る行動をしている場合等に、通行人が道を横断しない行動であると判定する。
処理部15Cは、通行人が道を横断しない行動であると判定した場合(ステップS309でYes)、処理を既に説明したステップS308に進める。処理部15Cは、車両Vを走行させる動作に応じた処理を実行する(ステップS308)。処理部15Cは、車両Vを走行させると、図6に示す処理手順を終了させる。
処理部15Cは、通行人が道を横断しない行動ではないと判定した場合(ステップS309でNo)、すなわち、通行人が道を横断する行動である場合、処理をステップS310に進める。処理部15Cは、車両Vを停止させる動作に応じた処理を実行する(ステップS310)。例えば、処理部15Cは、走行している車両Vを停止させる、あるいは、車両Vの停止を維持する制御を行う処理を実行する。処理部15Cは、ステップS310の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを停止させると、処理をステップS311に進める。
処理部15Cは、車両Vの前方の画像を外部カメラ12dから取得する(ステップS311)。処理部15Cは、取得した画像に基づいて、対象の通行人が横断を終えたか否かを判定する(ステップS312)。処理部15Cは、対象の通行人が横断を終えていないと判定した場合(ステップS312でNo)、処理を既に説明したステップS311に戻す。すなわち、処理部15Cは、ステップS311からステップS312の処理を繰り返すことで、対象の通行人の横断が終わるのを待つ。
処理部15Cは、対象の通行人が横断を終えたと判定した場合(ステップS312でYes)、処理をステップS313に進める。処理部15Cは、車両Vを走行させる動作に応じた処理を実行する(ステップS313)。例えば、処理部15Cは、停止している車両Vを走行させる、あるいは、車両Vの走行を維持する制御を行う処理を実行する。処理部15Cは、ステップS313の処理を実行することにより、走行制御部15C5として機能する。処理部15Cは、車両Vを走行させると、図6に示す処理手順を終了させる。
以上で説明した車載システム1は、車両Vの前方の通行人の視線情報が車両Vに向かっていない場合、かつ、通行人が道を譲る行動を行っていない場合、通行人の視線情報および行動に応じた車両Vの動作を行う。よって、車載システム1は、通行人の視線情報が車両Vに向かっていない場合でも、通行人との意思疎通を図ることで、車両と通行人との意思疎通を改善することができる。
車載システム1は、車両Vの前方で対象の通行人の視線情報が車両Vに向かっていない場合、通行人が道を譲る行動を行っていると、車両Vを走行させる。よって、車載システム1は、視線情報が車両Vに向かっていなくても、通行人の視線情報を再度確認して車両Vの動作を決定することで、通行人との意思疎通をより一層改善し、事故の発生を抑制することができる。
なお、上述した本発明の実施形態に係る車載システム1は、上述した実施形態に限定されず、特許請求の範囲に記載された範囲で種々の変更が可能である。
上記の本実施形態では、車載システム1は、運転者がいない自動運転システムである場合について説明したが、これに限定されない。例えば、車載システム1は、運転者が運転する車両に搭載されてもよい。その場合、車載システム1は、通行人の視線情報に基づいて決定した車両Vの動作を示す情報を表示装置13に表示してもよい。車載システム1は、通行人が横断する可能性があることを運転者に報知してもよい。この結果、車載システム1は、決定した車両Vの動作を運転者に認識させ、安全性を向上させることができる。
上記の車載システム1の第1検出部15C2は、公知の人工知能技術や深層学習技術を用いて、車両Vの前方を撮像した画像から通行人を検出するものとすることができる。上記の車載システム1の第2検出部15C3は、公知の人工知能技術や深層学習技術を用いて、第1検出部15C2が検出した通行人の視線情報を画像から検出するものとすることができる。
以上で説明した制御装置15は、各部が別体に構成され、当該各部が各種の電気信号を相互に授受可能に接続されることで構成されてもよく、一部の機能が他の制御装置によって実現されてもよい。また、以上で説明したプログラム、アプリケーション、各種データ等は、適宜、更新されてもよいし、車載システム1に対して任意のネットワークを介して接続されたサーバに記憶されていてもよい。以上で説明したプログラム、アプリケーション、各種データ等は、例えば、必要に応じてその全部又は一部をダウンロードすることも可能である。また、例えば、制御装置15が備える処理機能については、その全部又は任意の一部を、例えば、CPU等及び当該CPU等にて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジック等によるハードウェアとして実現してもよい。
1 車載システム
12 検出装置
12a 車両状態検出部
12b 通信モジュール
12c GPS受信器
12d 外部カメラ
12e 外部レーダ/ソナー
13 表示装置
14 外部表示装置
15 制御装置
150 行動情報
15A インターフェース部
15B 記憶部
15C 処理部
15C1 取得部
15C2 第1検出部
15C3 第2検出部(検出部)
15C4 決定部
15C5 走行制御部(動作部)
15C6 出力制御部(動作部)
15C7 第1判定部
15C8 第2判定部
V 車両

Claims (4)

  1. 車両の前方を撮像した画像に基づいて通行人の視線情報を検出する検出部と、
    前記検出部が検出した前記通行人の視線情報に基づいて、前記車両の動作を決定する決定部と、
    前記決定部が決定した前記車両の動作に応じた処理を行う動作部と、
    を備え
    前記決定部は、前記通行人の視線情報が前記車両に向かっている場合、前記通行人に道を譲る前記車両の動作を決定し、
    前記動作部は、前記通行人に道を譲ることを示す第1情報を前記通行人に対して出力する処理を行うものであり、
    前記通行人を撮像した画像に基づいて、前記動作部が出力させた前記第1情報を前記通行人が理解しているか否かを判定する第1判定部をさらに備え、
    前記決定部は、前記第1判定部によって前記通行人が前記第1情報を理解していると判定された場合、前記車両を停止させる動作を決定し、
    前記動作部は、前記車両を停止させる動作に応じた処理を行う
    ことを特徴とする車載システム。
  2. 前記通行人は、前記車両の前方を横断する可能性がある人物である
    請求項1に記載の車載システム。
  3. 前記通行人の視線が前記車両に向かっていない場合、前記通行人を撮像した画像に基づいて、前記通行人が道を譲る行動を行っているか否かを判定する第2判定部をさらに備え、
    前記決定部は、前記第2判定部によって前記通行人が道を譲る行動を行っていると判定された場合、前記車両を走行させる動作を決定し、
    前記動作部は、前記車両を走行させる動作に応じた処理を行う
    請求項1または2に記載の車載システム。
  4. 前記決定部は、前記第2判定部によって前記通行人が道を譲る行動を行っていないと判定された場合、前記車両を停止または徐行する動作を決定し、
    前記動作部は、前記車両を停止または徐行する動作に応じた処理を行う
    請求項に記載の車載システム。
JP2018043903A 2018-03-12 2018-03-12 車載システム Active JP6989418B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018043903A JP6989418B2 (ja) 2018-03-12 2018-03-12 車載システム
CN201980012914.0A CN111712865B (zh) 2018-03-12 2019-01-23 车载***
PCT/JP2019/002101 WO2019176310A1 (ja) 2018-03-12 2019-01-23 車載システム
DE112019001268.1T DE112019001268T5 (de) 2018-03-12 2019-01-23 Fahrzeuginternes system
US16/988,803 US20200372266A1 (en) 2018-03-12 2020-08-10 In-vehicle system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043903A JP6989418B2 (ja) 2018-03-12 2018-03-12 車載システム

Publications (2)

Publication Number Publication Date
JP2019156087A JP2019156087A (ja) 2019-09-19
JP6989418B2 true JP6989418B2 (ja) 2022-01-05

Family

ID=67907637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043903A Active JP6989418B2 (ja) 2018-03-12 2018-03-12 車載システム

Country Status (5)

Country Link
US (1) US20200372266A1 (ja)
JP (1) JP6989418B2 (ja)
CN (1) CN111712865B (ja)
DE (1) DE112019001268T5 (ja)
WO (1) WO2019176310A1 (ja)

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052293A (ja) * 1999-08-11 2001-02-23 Hiisuto Kk 車両走行時の情報案内システム
JP4134891B2 (ja) * 2003-11-28 2008-08-20 株式会社デンソー 衝突可能性判定装置
JP2005322297A (ja) * 2004-05-07 2005-11-17 Pioneer Electronic Corp 情報記録装置及び方法、情報再生装置及び方法、並びにコンピュータプログラム
JP4443327B2 (ja) * 2004-07-01 2010-03-31 パイオニア株式会社 情報表示装置
US7924146B2 (en) * 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
US9158979B2 (en) * 2011-10-18 2015-10-13 Honda Motor Co., Ltd. Vehicle vicinity monitoring device
DE102013207223A1 (de) * 2013-04-22 2014-10-23 Ford Global Technologies, Llc Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern
KR101901962B1 (ko) * 2013-11-08 2018-11-07 한국전자통신연구원 내비게이션을 이용한 자율 주행 제어 장치 및 그 방법
JP6206668B2 (ja) * 2013-11-14 2017-10-04 マツダ株式会社 車両用歩行者検出装置
US9586585B2 (en) * 2014-11-20 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle detection of and response to traffic officer presence
JP6397934B2 (ja) * 2014-12-19 2018-09-26 株式会社日立製作所 走行制御装置
CN107924195B (zh) * 2015-09-08 2020-11-10 苹果公司 意图识别
JP6261837B2 (ja) * 2016-01-18 2018-01-17 三菱電機株式会社 運転支援装置、運転支援方法及び運転支援プログラム
US9969326B2 (en) * 2016-02-22 2018-05-15 Uber Technologies, Inc. Intention signaling for an autonomous vehicle
JP6313355B2 (ja) * 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
JP2017207859A (ja) * 2016-05-17 2017-11-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP6617651B2 (ja) * 2016-07-07 2019-12-11 株式会社デンソー 歩行者検出装置、歩行者検出方法
JP6680136B2 (ja) * 2016-08-08 2020-04-15 株式会社デンソー 車外表示処理装置及び車外表示システム
DE112016007376T5 (de) * 2016-10-25 2019-07-25 Mitsubishi Electric Corporation Vorrichtung zur Bestimmung von Peripherie-Informationen und Verfahren zur Bestimmung von Peripherie-Informationen
CN106627149B (zh) * 2016-11-25 2023-09-26 未来汽车科技(深圳)有限公司 一种汽车仪表盘及控制方法
KR102648812B1 (ko) * 2016-12-15 2024-03-19 현대자동차주식회사 차량 및 그의 보행자 감지 알림 방법
CN206287926U (zh) * 2016-12-27 2017-06-30 广州市联奥信息科技有限公司 具备情绪表达能力的交互行车装置

Also Published As

Publication number Publication date
DE112019001268T5 (de) 2020-12-03
CN111712865B (zh) 2022-05-03
US20200372266A1 (en) 2020-11-26
JP2019156087A (ja) 2019-09-19
WO2019176310A1 (ja) 2019-09-19
CN111712865A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
JP7456455B2 (ja) 運転支援システム、運転支援を提供するための方法、及び、運転支援装置
CN109515434B (zh) 车辆控制装置、车辆控制方法及存储介质
US10262629B2 (en) Display device
JP2019537530A (ja) 自律走行車の停車位置のプランニング
CN111183428A (zh) 识别自动驾驶车辆的分配的乘客
JP7005112B2 (ja) 表示システム、及び、車載システム
JP2019185211A (ja) 車両制御装置、車両制御方法、及びプログラム
JP6798906B2 (ja) 基地局装置及び通信システム
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
CN111830859A (zh) 车辆远程指示***
JPWO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
JP2018205965A (ja) 予測装置、車両、予測方法およびプログラム
CN112602124A (zh) 用于车辆调度***的通讯方法、车辆调度***以及通讯装置
CN109070799B (zh) 移动体周围显示方法及移动体周围显示装置
KR20220087429A (ko) 차량용 내비게이션의 영상 제공 방법
JP6989418B2 (ja) 車載システム
JP2022098397A (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN113044028A (zh) 自动驾驶车辆用信息提示装置
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2022113772A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2022145286A1 (ja) 情報処理装置、情報処理方法、プログラム、移動装置、及び、情報処理システム
WO2023090203A1 (ja) 自動運行装置、車両制御方法
WO2022259621A1 (ja) 情報処理装置、情報処理方法、コンピュータプログラム
US20230274316A1 (en) Information displaying apparatus, information displaying method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6989418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350