JP2019506324A - 自動運転車のためのホーンの適応検出および適用のための方法およびシステム - Google Patents

自動運転車のためのホーンの適応検出および適用のための方法およびシステム Download PDF

Info

Publication number
JP2019506324A
JP2019506324A JP2018524859A JP2018524859A JP2019506324A JP 2019506324 A JP2019506324 A JP 2019506324A JP 2018524859 A JP2018524859 A JP 2018524859A JP 2018524859 A JP2018524859 A JP 2018524859A JP 2019506324 A JP2019506324 A JP 2019506324A
Authority
JP
Japan
Prior art keywords
vehicle
sensor data
horn
captured
ecu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018524859A
Other languages
English (en)
Other versions
JP6724986B2 (ja
Inventor
マニッシュ グプタ
マニッシュ グプタ
クシュワント ペスワニ
クシュワント ペスワニ
ラメッシャ チェルア ラマチャンドラ サストリー
ラメッシャ チェルア ラマチャンドラ サストリー
プラモッド チンタラプーディ
プラモッド チンタラプーディ
奨 田中
奨 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019506324A publication Critical patent/JP2019506324A/ja
Application granted granted Critical
Publication of JP6724986B2 publication Critical patent/JP6724986B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/34Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
    • B60Q1/346Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction with automatic actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2900/00Indexing codes relating to the purpose of, or problem solved of road vehicle drive control systems not otherwise provided for in groups B60W30/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

ホーンの検出および/または適用に基づく自動運転車のためのシステムおよび方法の様々な態様が本明細書で開示される。本システムは、第1の車両で使用される電子制御ユニット(ECU)内に1つまたは複数の回路を備える。ECUの1つまたは複数の回路は、第2の車両から放射されたホーン音を検出するよう構成される。検出されたホーン音に基づいて、第1の車両に関連する第1のセンサデータを捕捉する。捕捉された第1のセンサデータは、第1の車両の近傍の第1の交通状況を示す。ホーン音の検出に先立つ経過時間の間、第1の車両に関連する第2のセンサデータを捕捉する。第1の車両の1つまたは複数の制御システムは、第1の車両に関連付けられた1つまたは複数の機能を実行するために再較正される。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づく。

Description

本開示の様々な実施形態は、自動運転車のためのシステムおよび方法に関する。より具体的には、本開示の様々な実施形態は、ホーンの検出および/または適用に基づく自動運転車のためのシステムおよび方法に関する。
自動運転車技術および/または高度運転支援システム(ADAS)は、現在、初期段階にある。自動車などの車両に使用される自動運転車技術および/またはADASの開発に関する様々な実験が行われている。現在、ADASを搭載した車両が発売され、いくつかの自動運転車または動作プロトタイプがテスト段階に入っている。
ある状況では、運転者は、自動運転車の運転におけるエラー、または自律ブレーキシステム、車線逸脱警報の機能、および/または自律走行制御システムなどを含むADASを備えた車両を観察することができる。しかし、運転者が問題を正確に理解して関連データを利用することは必ずしも可能ではない。別の状況では、別の車両ユーザが、不適切な運転をしたために自動運転車またはADASを備えた車両にクラクションを鳴らす可能性がある。後に運転する場合に不適切な運転を修正するために自動運転車またはADASを備えた車両のシステムによって機械学習が適切に実行されることが望ましいであろう。さらに別の状況では、他の道路利用者が、道路上の自動運転車またはADASを備える車両に対する何らかの妨害の原因であるかどうかを理解することが困難な場合がある。したがって、高度であるが単純化された技術が、自動運転車またはADASを備える車両の機能および適合性を改善するために必要とされ得る。
本出願の残りの部分および図面を参照して説明される本開示のいくつかの態様と記載されたシステムとの比較を通して、従来の典型的な手法のさらなる制限および欠点が、当業者に明らかになるであろう。
特許請求の範囲でより完全に説明されるように、図面の少なくとも1つで示されるような、および/または少なくとも1つの図面と関連して記載されるような、ホーンの検出および/または適用に基づく自動運転車用のシステムおよび方法を実質的に提供する。
本開示のこれらのおよび他の特徴および利点は、同様の参照番号が全体を通じて同様の部分に関する添付図面と共に、本開示の以下の詳細な説明の考察から理解されよう。
本開示の一実施形態による、自動運転車用のネットワーク環境を示すブロック図である。 本開示の一実施形態による、自動運転車の様々な例示的な構成要素またはシステムを示すブロック図である。 本開示の一実施形態による、ホーン検出に基づく、自動運転車の開示されたシステムおよび方法を実施するための第1の例示的な状況を示す図である。 本開示の一実施形態による、ホーン検出に基づく、自動運転車の開示されたシステムおよび方法を実施するための第1の例示的な状況を示す図である。 本開示の一実施形態による、ホーン検出に基づく、自動運転車の開示されたシステムおよび方法を実施するための第2の例示的な状況を示す図である。 本開示の一実施形態による、ホーン検出に基づく、自動運転車の開示されたシステムおよび方法を実施するための第2の例示的な状況を示す図である。 本開示の一実施形態による、ホーンの適用に基づく、自動運転車の開示されたシステムおよび方法を実施するための第3の例示的な状況を示す図である。 本開示の一実施形態による、ホーンの適用に基づく、自動運転車の開示されたシステムおよび方法を実施するための第3の例示的な状況を示す図である。 本開示の一実施形態による、ホーンの検出および/または適用に基づく自動運転車のための例示的な方法を示すフローチャートを図6Bと共に集合的に示した図である。 本開示の一実施形態による、ホーンの検出および/または適用に基づく自動運転車のための例示的な方法を示すフローチャートを図6Aと共に集合的に示した図である。
以下で説明する実装態様は、ホーンの検出および/または適用に基づく自動運転車のための開示されるシステムおよび方法で見ることができる。本開示の例示的な態様は、第2の車両から放射されたホーン音を検出することができる方法を備えることができる。検出されたホーン音に基づいて、第1の車両に関連する第1のセンサデータを捕捉することができる。捕捉された第1のセンサデータは、第1の車両の近傍の第1の交通状況を示すことができる。ホーン音の検出に先立つ経過時間の間、第1の車両に関連する第2のセンサデータを抽出することができる。第1の車両の1つまたは複数の制御システムは、第1の車両に関連付けられた1つまたは複数の機能を実行するために再較正することができる。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
一実施形態によれば、第1の車両および第2の車両は、自律モード、半自律モード、または手動モードで動作することができる。捕捉された第1のセンサデータに基づいて、第1の車両に対する第2の車両の位置および/または方向を判定することができる。
一実施形態によれば、1つまたは複数の機能は、車線の変更、速度の変更、車線変更指示の提供、および/または1つもしくは複数の他の車両からの安全距離の維持に対応することができる。1つまたは複数の機能は、ホーンの適用、ブレーキの適用、第1の車両の走行経路の変更、安全警告の生成、および/または交通規制の違反を回避するための1つもしくは複数の機能の実行にさらに対応することができる。
一実施形態によれば、第1のセンサデータは、第1の交通状況のビデオストリーム、第1の車両の近傍にある1つもしくは複数の接続された車両から受信された車両データ、および/または電波ベースの物体検出装置もしくはレーザベースの物体検出装置から受信したセンサデータに対応することができる。第2のセンサデータは、第1の車両の、操舵角、ヨーレート、速度値、車線情報、車両位置精度データ、ブレーキシステム状態、車両安定システムの状態、および/または速度の変化率に対応することができる。
一実施形態によれば、捕捉された第1のセンサデータおよび抽出された第2のセンサデータは、ホーン音の検出に対応するメタデータでタグ付けすることができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の車両の1つまたは複数の制御システムの再較正に利用することができる。一実施形態によれば、第1の交通状況は、第1の車両が自律モードで動作する場合に、第1の車両でホーンを自動適用するために識別することができる。
本開示の別の態様によれば、別の方法は、第1の車両におけるホーンの適用の検出を備えることができる。第1の車両に関連する第1のセンサデータは、検出されたホーンの適用に基づいて捕捉することができる。捕捉された第1のセンサデータは、第1の車両の近傍の第1の交通状況を示すことができる。第1の車両でのホーンの適用に先立つ経過時間の間、第1の車両に関連する第2のセンサデータを抽出することができる。第1の車両の1つまたは複数の制御システムは、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づいて、第1の車両に関連付けられた1つまたは複数の機能を実行するために再較正することができる。
一実施形態によれば、捕捉された第1のセンサデータおよび抽出された第2のセンサデータは、第1の車両でのホーンの適用に対応するメタデータでタグ付けすることができる。第1の車両における1つまたは複数の制御システムの再較正は、第1の車両におけるホーンの適用が検出された場合に、タグ付きの第1のセンサデータおよび抽出された第2のセンサデータにさらに基づくことができる。
図1は、本開示の一実施形態による、自動運転車用のネットワーク環境を示すブロック図である。図1を参照すると、ネットワーク環境100が示されている。ネットワーク環境100は、第1の車両102aおよび第2の車両102bなどの複数の車両102を含むことができる。ネットワーク環境100は、クラウドサーバ104、無線通信ネットワーク106、および1人または複数人のユーザをさらに含むことができる。第1の車両102aには、電子制御ユニット(ECU)108と、撮像ユニット110a〜110dと、音センサ112a〜112gとがさらに示されている。1人または複数人のユーザには、第1の車両102aと関連した運転者114と、第2の車両102bと関連した別の運転者116とを含めることができる。第1の車両102aおよび第2の車両102bを含む複数の車両102は、道路部分118に沿って移動することができる。さらに、路側ユニット(RSU)120が示されている。
ECU108は、直接的にまたは車載ネットワークを介して間接的に撮像ユニット110a〜110dおよび音センサ112a〜112gと通信可能に接続することができる。一実施形態によれば、ECU108は、無線通信ネットワーク106を介してRSU120と通信することによって、クラウドサーバ104に通信可能に結合することができる。RSU120は、インターネットまたは当技術分野で既知の適切な通信プロトコルを介してクラウドサーバ104と通信することができる。
複数の車両102は、第1の車両102a、第2の車両102b、および道路部分118に沿って移動することができる他の車両を含むことができる。一実施形態によれば、複数の車両102は、無線通信ネットワーク106に通信可能に結合することができる。複数の車両102は、車両データを第1の車両102aに通信するよう構成することができる。一実施形態によれば、無線通信ネットワーク106は、複数の車両102間の車車間(V2V)通信に使用することができる。無線通信ネットワーク106はまた、複数の車両102のうちの1つとRSU120との間の車両−インフラストラクチャ(V2I)通信に使用することができる。
第1の車両102aは、自律モード、半自律モード、または手動モードで動作することができる自動運転車を指すことができる。第1の車両102aは、無線通信ネットワーク106を介して、クラウドサーバ104および/または複数の車両102の1つまたは複数の他の車両と通信するよう構成することができるECU108を備えることができる。第2の車両102bは、非自動運転車または自律モード、半自律モード、もしくは手動モードで動作する車両を指すことができる。複数の車両102(第1の車両102aおよび第2の車両102bを含む)の例としては、限定するものではないが、自動車、ハイブリッド車両、および/または1つもしくは複数の別個の再生可能な、もしくは再生不可能な電源を使用する車両を含むことができる。再生可能または再生不可能な電源を使用する車両は、化石燃料系車両、電気推進系車両、水素燃料系車両、太陽光発電車両、および/または他の形態の代替エネルギー源により電力供給される車両を含むことができる。例えば、米国の高速道路交通安全事業団(NHTSA)は、以下のように運転システムを分類することを提案している。本開示のシステムおよび方法は、自律ブレーキ、自律走行制御、自律運転などの自律機能を備えた車両に適用することができる。以下の例では、本開示のシステムおよび方法は、レベル1からレベル4までの車両に適用することもできる。NHTSAによれば、車両の「レベル0」カテゴリでは、運転者が車両を常に完全に制御している。「レベル1」カテゴリでは、個々の車両制御は、電子安定制御または自動ブレーキなどで自動化することができる。「レベル2」カテゴリでは、少なくとも2つの制御装置を、例えば、車線維持制御装置と共に適応走行制御装置として同時に自動化することができる。「レベル3」カテゴリでは、自律制御のレベルが高まり、車両が特定の状況で安全限界機能を実行することができる。車両は、運転者が制御することを再開する必要がある状況である場合に感知することができ、運転者がそうするように「十分に快適な移行時間」を提供する。「レベル4」カテゴリでは、車両がすべての安全限界機能を実行することができ、運転者は、いかなる時点においても車両を制御する必要がない。このカテゴリの車両は、すべての機能をすべての駐車機能を含めて、最初から最後まで制御することができるため、車両が運転者を必要としない可能性がある。
クラウドサーバ104は、第1の車両102aなどの1台または複数台の車両との通信チャネルを確立するよう構成することができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。クラウドサーバ104は、第1の車両102aなどの1つまたは複数の自動運転車から受信した情報を格納するよう構成することができる。クラウドサーバ104は、ウェブサーバ、データベースサーバ、ファイルサーバ、アプリケーションサーバ、クラウドベースのサーバ、またはそれらの組み合わせとすることができる。クラウドサーバ104は、当業者に周知のいくつかの技術を用いて実装することができる。
無線通信ネットワーク106は、第1の車両102aがクラウドサーバ104および/または第2の車両102bなどの1台または複数台の他の車両と通信することができる媒体を含むことができる。無線通信ネットワーク106の例は、限定するものではないが、専用短距離通信(DSRC)ネットワーク、移動アドホックネットワーク(MANET)、車両アドホックネットワーク(VANET)、インテリジェント車両アドホックネットワーク(InVANET)、インターネットベース移動アドホックネットワーク(IMANET)、無線センサネットワーク(WSN)、無線メッシュネットワーク(WMN)、インターネット、ロングタームエボリューション(LTE)などのセルラネットワーク、クラウドネットワーク、ワイヤレスフェデリティ(Wi−Fi)ネットワーク、および/または無線ローカルエリアネットワーク(WLAN)を含むことができる。ネットワーク環境100内の様々な装置は、様々な無線通信プロトコルに従って、無線通信ネットワーク106に接続するよう動作可能とすることができる。そのような無線通信プロトコルの例には、IEEE802.11、802.11p、802.15、802.16、1609、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(Wi−MAX)、車載無線通信(WAVE)、セルラ通信プロトコル、伝送制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ロングタームエボリューション(LTE)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、赤外線(IR)、および/またはブルートゥース(BT)通信プロトコルを含むことができる。
ECU108は、第2の車両102bなどの複数の車両102のうちの1台または複数台からホーン音が放射されたことを検出するよう構成された適切なロジック、回路、インターフェース、および/またはコードを備えることができる。ECU108は、第1の車両102aが自律モードにある場合に、道路部分118などの道路上の第1の車両102aの運転精度を向上させるのに役立つ可能性があるテストECUであってもよい。ECU108は、第1の車両102aのセンサデータにアクセスし、または第1の車両102aの他のECU、構成要素、またはシステムに1つまたは複数の制御コマンドを通信するよう構成することができる。センサデータは、コントローラエリアネットワーク(CAN)バスなどの車載ネットワークを介してECU108によってアクセスすることができる。一実施形態によれば、ECU108は、無線通信システムを介して、車車間(V2V)通信で複数の車両102から1台または複数台の接続された車両からの車両データを受信するよう構成することができる。一実施形態によれば、ECU108は、インフラストラクチャ−車車間(I2V)通信でクラウドサーバ104から1台または複数台の接続された車両の車両データを受信するよう構成することができる。そのような場合、複数の車両102からの1台または複数台の接続された車両は、車両−インフラストラクチャ(V2I)通信において、対応する車両データを予めクラウドサーバ104と通信することができる。ホーン音(クラクション)を使用する代わりに、V2V通信を介して複数の車両102のうちの第1の車両102aおよび第2の車両102bなどの2台の車両間で1つまたは複数のホーン信号を通信することができる。この場合、複数の車両102は、V2V通信によりホーン信号を送受信する機能を有する。第1の車両102aは、V2V通信を介して、複数の車両102のうちの他の車両からのホーン信号を警報情報として受信および検出することができる。
撮像ユニット110a〜110dは、道路部分118などの道路部分の1つまたは複数のビデオストリームを捕捉するよう構成することができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。ビデオストリームは、撮像ユニット110a〜110dの1つまたは複数の視野域(FOV)内に複数の画像フレームを含むことができる。撮像ユニット110a〜110dは、捕捉された1つまたは複数のビデオストリーム内の複数の画像フレームの各フレームの捕捉時間を記録するよう構成することができる。撮像ユニット110a〜110dの例には、限定するものではないが、画像センサ、広角カメラ、閉回路テレビ(CCTV)カメラ、カムコーダ、スマートガラスの内蔵カメラ、および/または他のそのような車載カメラなどを挙げることができる。一実施形態によれば、撮像ユニット110aは、第1の車両102aの車体の後部に設置することができる。撮像ユニット110bおよび110dは、(図のように)第1の車両102aの外部バックミラー(ORVM)に設置することができる。撮像ユニット110cは、第1の車両102aの車体の前方に設置することができる。一実施形態によれば、撮像ユニット110a〜110dなどの複数の撮像ユニットの代わりに、第1の車両102a付近の道路部分118の360°ビューを捕捉するよう構成することができる1つの回転可能な撮像ユニットを設置してもよい。
音センサ112a〜112gは、音エネルギーを電気信号に変換するセンサまたはトランスデューサを指すことができる。音センサ112a〜112gは、ホーン音を捕捉し、ホーン音の音波などの音場の音圧、および/または音速を測定するよう構成することができる。四輪駆動車、三輪駆動車、または二輪駆動車などの自動車によって生成されたホーン音は、特定の異なるピッチおよびラウドネス値を含む可能性がある。音センサ112a〜112gは、道路部分118上の他のノイズをフィルタリングするように、ピッチ、ラウドネス、および音持続時間の所定の範囲内の音(ホーン音など)を捕捉するよう構成することができるオーディオフィルタを備えることができる。音センサ112a〜112gは、ECU108に通信可能に接続することができる。音センサ112a〜112gは、図1に示すように、第1の車両102aの1つまたは複数の位置に配置することができる。
RSU120は、道路部分118上の複数の車両102と無線通信するよう構成することができる。RSU120は、インターネットまたは当技術分野で既知の適切な通信プロトコルを介してクラウドサーバ104と通信するようさらに構成することができる。RSU120は、道路部分118に設置されたインフラストラクチャユニットまたは通信装置に対応することができる。一実施形態によれば、RSU120と同様の複数のRSUを、道路部分118または他の道路部分に沿って設置してもよい。
動作中、音センサ112a〜112gは、複数の車両102のうちの1つから放射されたホーン音を捕捉するよう構成することができる。ECU108は、複数の車両102のうちの1台(例えば、第2の車両102b)から放射され、音センサ112a〜112gによって捕捉されるホーン音および/またはホーン音の方向を検出するよう構成することができる。ECU108は、検出されたホーン音に基づいて、第1の車両102aに関連付けられた第1のセンサデータを捕捉するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。
一実施形態によれば、捕捉された第1のセンサデータは、第1の交通状況のビデオストリームに対応することができる。ビデオストリームは、撮像ユニット110a〜110dの少なくとも1つによって捕捉することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の1台もしくは複数台の接続された車両から受信された車両データ、ならびに/または無線検出および測距(RADAR)装置などの第1の車両102aに設置された1つまたは複数のセンサから受信されたセンサデータにさらに対応することができる。
一実施形態によれば、ECU108は、捕捉された第1のセンサデータに基づいて、第1の車両102aに対する第2の車両102bの位置および/または方向を判定するよう構成することができる。ECU108は、第1の車両102aに関連する第2のセンサデータを抽出するようさらに構成することができる。第2のセンサデータは、ホーン音の検出前の経過時間間隔の間に抽出することができる。第2のセンサデータは、第1の車両102aに関連する操舵角、ヨーレート、速度値、車線情報、および/または速度の変化率などの車載データに対応することができる。
一実施形態によれば、ECU108は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータをメタデータでタグ付けするよう構成することができる。メタデータは、ホーン音の検出に対応することができる。ECU108は、第1の車両102a内の1つまたは複数の制御システムを再較正し、第1の車両102aに関連する1つまたは複数の機能を実行するよう構成することができる。第1の車両102a内の1つまたは複数の制御システムの再較正は、捕捉されタグ付けされた第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
一実施形態によれば、1つまたは複数の機能は、車線の変更、速度の変更、車線変更指示の提供、1台または複数台の他の車両からの安全距離の維持、ホーンの適用、および/または第1の車両102aにおけるブレーキの適用に対応することができる。1つまたは複数の機能は、第1の車両102aの走行経路の変更ならびに表示ユニットおよび/またはオーディオインターフェース(図2に詳細に記載)を介した安全警告の生成にさらに対応することができる。一実施形態によれば、1つまたは複数の機能は、交通規制の違反を避けるために実行することができる。
一実施形態によれば、タグ付けされた第1のセンサデータおよび第2のセンサデータは、クラウドサーバ104に通信することができる。クラウドサーバ104は、タグ付けされた第1のセンサデータおよび第2のセンサデータを格納するよう構成することができる。クラウドサーバ104は、タグ付けされた第1のセンサデータおよび第2のセンサデータを解析するようさらに構成することができる。解析は、ホーン音の検出の前後の事象を判定するために、および/または第2のセンサデータと捕捉された第1のセンサデータとの間の関係を判定するために、実行することができる。
一実施形態によれば、クラウドサーバ104は、タグ付けされた第2のセンサデータなどの、第1のセンサデータとの関連関係で学習されたデータを格納することができる。クラウドサーバ104は、学習されたデータを第1の車両102aのECU108に通信するよう構成することができ、その結果、第1の車両102aが第1の交通状況などの類似の交通状況に、将来、遭遇した場合、第1の車両102aは、上述したように、1つまたは複数の機能を自動的に実行することができる。
簡略化のために、図1は路側装置(RSU)を示していないが、当業者であれば、捕捉された第1のセンサデータおよび第2のセンサデータを、無線通信ネットワーク106を介して格納および解析のためにRSUに通信することができることを理解するであろう。解析結果は、第1の車両102aおよび/または第2の車両102bなどの他の車両に通信されて自律モードでの運転を改善することができる。第1の車両102aのECU108で実行される動作は、図2、図3A、図3B、図4A、および図4Bにさらに詳細に記載されている。
図2は、本開示の一実施形態による、自動運転車の様々な例示的な構成要素またはシステムを示すブロック図である。図2は、図1の要素と関連して説明される。図2を参照すると、第1の車両102aが示される。第1の車両102aは、マイクロプロセッサ202およびメモリ204を含むことができるECU108を備えることができる。第1の車両102aは、無線通信システム206、オーディオインターフェース208、ディスプレイスクリーン210、外部リアビューミラー(ORVM)212、パワートレイン制御システム214、ステアリングシステム216、ブレーキシステム218、感知システム220、ホーン制御システム222、物体検出装置224、車載ネットワーク226、および車体228をさらに備えることができる。感知システム220は、撮像ユニット110a〜110dなどの1つまたは複数の撮像ユニット、音センサ112a〜112g、および物体検出装置224を含むことができる。
様々な構成要素またはシステムは、車両エリアネットワーク(VAN)および/または車載データバスなどの車載ネットワーク226を介して、互いに通信可能に結合することができる。マイクロプロセッサ202は、メモリ204、オーディオインターフェース208、ディスプレイスクリーン210、ORVM212、無線通信システム206、パワートレイン制御システム214、感知システム220、およびホーン制御システム222に、車載ネットワーク226を介して、通信可能に結合することができる。第1の車両102aは、他の適切な構成要素およびシステムも含むことができるが、簡潔にするために、本開示の機能および動作を記述および説明するために使用される構成要素またはシステムが本明細書に例示される。
マイクロプロセッサ202は、メモリ204に格納された命令のセットを実行するよう構成することができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。マイクロプロセッサ202の例は、X86ベースのプロセッサ、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、明示的並列命令コンピューティング(EPIC)プロセッサ、超長命令語(VLIW)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、グラフィック処理装置(GPU)、状態マシン、および/または他のプロセッサもしくは回路とすることができる。
メモリ204は、マイクロプロセッサ202によって実行可能な少なくとも1つのコードセクションを有する機械コードおよび/または命令のセットを格納するよう構成することができる適切なロジック、回路、および/またはインターフェースを備えることができる。メモリ204は、タグ付けされた第1のセンサデータおよび第2のセンサデータを格納するようさらに動作可能とすることができる。メモリ204の実装態様の例は、これらに限定するものではないが、電気的消去可能プログラマブル読み出し専用メモリ(EEPROM)、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスクドライブ(HDD)、フラッシュメモリ、セキュアデジタル(SD)カード、ソリッドステートドライブ(SSD)、および/またはCPUキャッシュメモリを含むことができる。
無線通信システム206は、マイクロプロセッサ202の制御下で、クラウドサーバ104などの1つまたは複数の外部装置と通信するよう構成することができる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。1つまたは複数の外部装置とのそのような通信は、無線通信ネットワーク106を使用することによって行うことができる。無線通信システム206は、限定するものではないが、アンテナ、テレマティクスユニット、無線周波数(RF)トランシーバ、1つもしくは複数の増幅器、1つもしくは複数の発振器、デジタル信号プロセッサ、近距離通信(NFC)回路、コーダ・デコーダ(CODEC)チップセット、および/または加入者識別モジュール(SIM)カードといった様々な構成要素を含むことができる。
無線通信システム206は、専用短距離通信(DSRC)プロトコルなどの無線通信プロトコルを介して、マイクロプロセッサ202の制御下で無線通信ネットワーク106などのネットワークと通信することができる。無線通信システム206は、汎欧州デジタル移動電話方式(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、ロングタームエボリューション(LTE)時分割多重アクセス(TDMA)、Bluetooth(BT)、ワイヤレス・フィディリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、および/またはIEEE 802.11nなど)、ボイス・オーバー・インターネット・プロトコル(VoIP)、Wi−MAX、電子メール、インスタントメッセージング、および/またはショートメッセージサービス(SMS)のためのプロトコルなどの複数の通信規格、プロトコル、および技術のいずれかを使用することができる。
オーディオインターフェース208は、スピーカ、チャイム、ブザー、または音を生成するよう動作可能とすることができる他の装置に接続することができる。オーディオインターフェース208はまた、運転者114などの第1の車両102aの乗員からの音声入力を受信するための、マイクロホンまたは他の装置に接続することができる。ディスプレイスクリーン210は、運転者114からの入力を受け取り、運転者114などの第1の車両102aの乗員に様々な種類の情報を表示するためのタッチスクリーンを意味ことができる。第1の車両102aは、マイクロプロセッサ202と通信するよう構成することができる他の入力/出力(I/O)装置を含むことができる。オーディオインターフェース208は、第1の車両102aのインフォテイメントユニットまたはヘッドユニットの一部であってもよい。一実施形態によれば、マルチメディアコンポーネントのためのオーディオ/ビデオデータの車載通信は、車載ネットワーク226のメディア指向システムトランスポート(MOST)マルチメディアネットワークプロトコルを使用することによって行うことができる。ディスプレイスクリーン210の例としては、これらに限定するものではないが、ヘッドユニットのディスプレイ、タブレットコンピュータ、電子ディスプレイを有するコンピューティングデバイス、ヘッドアップディスプレイ(HUD)、拡張現実システムを備えるヘッドアップディスプレイ(AR−HUD)、運転者情報コンソール(DIC)、投影ベースのディスプレイ、シースルーディスプレイ、スマートガラスディスプレイ、および/またはエレクトロクロミックディスプレイを含むことができる。一実施形態によれば、撮像ユニット110bおよび110dは、(図1に示すように)第1の車両102aのORVM212にインストールすることができる。
パワートレイン制御システム214は、第1の車両102aのエンジンおよび動力伝達装置の動作を制御する第1の車両102aの車載コンピュータを意味することができる。パワートレイン制御システム214は、エンジンの点火、燃料噴射、エミッションシステム、ならびに/もしくは動力伝達装置(自動動力伝達装置など)およびブレーキシステム218の動作を制御することができる。動力伝達装置は、手動変速機、同期変速機、全自動変速機、半自動変速機、無段変速機(CVT)、シーケンシャル変速機、デュアルクラッチ変速機(DCT)、または当分野で既知の他の動力伝達装置を意味することができる。
ステアリングシステム216は、パワートレイン制御システム214に関連付けることができる。ステアリングシステム216は、手動モードまたは半自律モードで第1の車両102aの動きを制御するために運転者114が使用することができるステアリングホイールおよび/または電動モータ(パワーアシストステアリングのために設けられる)を含むことができる。一実施形態によれば、第1の車両102aの動きまたはステアリングは、第1の車両102aが自律モードにある場合に自動的に制御することができる。ステアリングシステム216の例には、これらに限定するものではないが、当分野で既知である、自動ステアリング制御、パワーアシストステアリングシステム、真空/油圧ベースステアリングシステム、電気油圧パワーアシストシステム(EHPAS)、または「ステアバイワイヤ」システムを含むことができる。
ブレーキシステム218は、摩擦力を加えることによって第1の車両102aを停止または減速するために使用することができる。ブレーキシステム218は、第1の車両102aが自律モードまたは半自律モードにある場合、マイクロプロセッサ202の制御下で、パワートレイン制御システム214からコマンドを受信するよう構成することができる。
感知システム220は、撮像ユニット110a〜110d、音センサ112a〜112g、物体検出装置224、および/または第1の車両102aに設けられた1つまたは複数の他の車両センサを備えることができる。感知システム220は、車載ネットワーク226を介して、ECU108に動作可能に接続され、入力信号をマイクロプロセッサ202にもたらすことができる。車載ネットワーク226に接続するために、CANインターフェースなどの1つまたは複数の通信インターフェースを感知システム220に設けることができる。物体検出装置224は、RADAR装置ならびに/もしくは光検出および測距(LIDAR)装置などの、レーザベースの物体検出センサとすることができる。感知システム220の1つまたは複数の車両センサの例は、これらに限定するものではないが、車速センサ、オドメータセンサ、ヨーレートセンサ、速度計、全地球測位システム(GPS)、操舵角検出センサ、車両移動方向検出センサ、磁力計、画像センサ、タッチセンサ、および/または赤外線センサを含むことができる。感知システム220の1つまたは複数の車両センサは、第1の車両102aの移動方向、地理的位置、操舵角、ヨーレート、速度、および/または速度の変化率を検出するよう構成することができる。
ホーン制御システム222は、車載ネットワーク226を介してECU108に通信可能に接続することができる。ホーン制御システム222は、第1の車両102aが自律モードにある場合にマイクロプロセッサ202から受信されるコマンドに基づいてホーンを自動的に適用するよう構成することができる。ホーン制御システム222は、手動モードまたは半自律モードで第1の車両102aにホーンを適用するために、運転者114などのユーザからの入力を受信することができるホーンスイッチ(図示せず)に接続することができる。ホーンスイッチが押されると、ホーン信号が車載ネットワーク226を介してホーンに中継され得る。ホーンは、道路部分などの道路を走行中に、他のものに警報するための音を発生するために使用される自動車ホーン(通常、クラクションと呼ばれる)を意味することができる。
車載ネットワーク226は、ECU108、ホーン制御システム222、パワートレイン制御システム214、感知システム220、および/または無線通信システム206などの、第1の車両102aの様々な構成要素またなシステムが互いに通信することができる媒体を含むことができる。車載ネットワーク226は、マイクロプロセッサ202と、第1の車両102aのホーン制御システム222または車体制御モジュールなどの他のECUとの間のアクセス制御および/または通信を容易にすることができる。第1の車両102a内の様々な装置は、様々な有線および無線通信プロトコルに従って、車載ネットワークに接続するよう構成することができる。CANインターフェース、ローカル相互接続ネットワーク(LIN)インターフェース、メディア指向システムトランスポート(MOST)インターフェースなどの1つまたは複数の通信インターフェースは、車載ネットワーク226に接続するために第1の車両102aの様々な構成要素またはシステムによって使用することができる。車載ネットワークのための有線および無線通信プロトコルの例には、これらに限定するものではないが、車両エリアネットワーク(VAN)、CANバス、ドメスティックデジタルバス(D2B)、Time−Triggered Protocol(TTP)、FlexRay、IEEE 1394、キャリア・センス・マルチプル・アクセス・ウィズ・コリジョン・ディテクション(CSMA/CD)ベースのデータ通信プロトコル、アイ・スクエアド・シー(IC)、Inter Equipment Bus (IEBus)、自動車技術者協会(SAE)J1708,SAE J1939、国際標準化機構(ISO)11992、ISO 11783、Media Oriented Systems Transport (MOST)、MOST25、MOST50、MOST150、プラスチック光ファイバ(POF)、電力線通信(PLC)、シリアル・ペリフェラル・インターフェース(SPI)バス、および/または、ローカル相互接続ネットワーク(LIN)を含むことができる。
車体228は、上述の様々な構成要素およびシステムならびに第1の車両102aなどの車両の他の機械的および電気的動作部もしくは構成要素をカバーする第1の車両102aの外側シェル(例えば、シャーシ以外の外側パネルおよび/またはフレームアセンブリ)を意味することができる。車体228のボディタイプは、ユニット化されたボディ(またはユニボディ)、ボディオンフレーム、補助サブフレームを有するボディ、デュアルフレームボディ、および/または当技術分野で既知の他のボディ構造とすることができる。車体228のボディスタイルは、スポーツユーティリティビークル(SUV)、バン、トラック、セダン、クーペ、コンバーチブル、ハッチバック、スポーツカー、および/または当技術分野で既知の他のボディスタイルとすることができる。
動作中、複数の車両102のうちの1台または複数台は、道路部分118における1つまたは複数の交通状況においてホーンを適用することができる。例えば、第2の車両102bの運転者116などの運転者が、第1の車両102aなどの自動運転車の運転における不適切な運転または間違いに気付いた場合、(第2の車両102bの)運転者116は、第1の車両102aに警報するためにホーンを適用することができる。その結果、ホーン音を第2の車両102bのホーン(図示せず)から発することができる。
一実施形態によれば、音センサ112a〜112gは、第2の車両102bなどの複数の車両102のうちの1つから放射されたホーン音を捕捉するよう構成することができる。マイクロプロセッサ202は、捕捉されたホーン音が、複数の車両102のうちの、第1の車両102aのホーンから放射されたホーン音であるか、第2の車両102bなどの他の車両から放射されたホーン音であるかを確認するよう構成することができる。そのような場合、第1の車両102aのマイクロプロセッサ202は、CANバスなどの車載ネットワーク226において、ホーンの自己適用のためのホーン信号の存在をチェックすることができる。
ホーン信号が車載ネットワーク226で発見されない場合、マイクロプロセッサ202は、音センサ112a〜112gによって捕捉されたホーン音が、第1の車両102aの付近にある、第2の車両102bなどの複数の車両102のうちの1台によって放射されたと検出するよう構成することができる。マイクロプロセッサ202は、音センサ112a〜112gを用いてホーン音の方向を判定するよう構成することができる。例えば、放射されたホーン音の音場などの音場の到来時間差(TDOA)法、三角測量法、および/または音の粒子速度の測定を、ホーン音の方向を判定するために使用することができる。
一実施形態によると、マイクロプロセッサ202は、検出されたホーン音に基づいて、第1の車両102aに関連付けられた第1のセンサデータを捕捉するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。第1の交通状況は、ホーン音の検出時にある時間間隔(例えば、「20秒まで」)の間、道路部分118などの道路上での事象の発生に対応することができる。事象とは、第1の車両102aの近傍の複数の車両102の、速度の変化、車線の変更、走行経路の変更、および/または相対位置を意味することができる。事象はまた、歩行者、動物、および/または道路部分118上の他の障害物の存在または突然の出現を意味することもできる。事象はさらに、道路部分118上の第1の車両102aの近傍の1台または複数台の車両による突然の加速または減速を意味することができる。事象はさらに、複数の車両102のうちの1台または複数台に関連するブレーキの突然の適用および/または交通規則の違反を意味することもできる。事象は、複数の車両102のうちの1台または複数台がホーンを適用する可能性がある道路部分118上での第1の交通状況などの特定の交通状況につながる可能性がある。
一実施形態によれば、第1の交通状況は、第1の車両102aが複数の車両102の少なくとも1台からホーンを鳴らされる可能性のある第1の車両102aの近傍の現在の交通状況に対応することができる。一実施形態によれば、第1の交通状況は、複数の車両102の少なくとも1台に対してホーンを適用するよう第1の車両102aに促すことができる第1の車両102aの近傍の交通状況に対応することができる。第1の交通状況の例は、急な車線変更、表示のない車線変更、突然の減速、急激なまたは遅い加速、不適当な車線の走行、車線の標識の違反、車両間の適切な距離の非保守、不適当な走行速度、および/または交通規則の違反に関連する可能性のある他の交通状況とすることができる。
一実施形態によれば、捕捉された第1のセンサデータは、第1の交通状況のビデオストリームに対応することができる。マイクロプロセッサ202は、撮像ユニット110a〜110dの少なくとも1つが「オン」であるかどうかをチェックするよう構成することができる。したがって、マイクロプロセッサ202は、少なくとも判定されたホーン音の方向でビデオストリームを捕捉することができる。場合によっては、撮像ユニット110a〜110dのいずれも、ホーン音の判定された方向でビデオストリームを捕捉することができない。そのような場合、マイクロプロセッサ202は、撮像ユニット110aまたは撮像ユニット110bなどの撮像ユニットを「オン」に切り換えるか、または適切に回転させて、ホーン音の判定された方向でビデオストリームを捕捉するよう構成することができる。
一実施形態によれば、捕捉された第1のセンサデータは、第1の車両102aの近傍の1台または複数台の接続された車両から受信された車両データに対応することができる。例えば、第2の車両102bおよび複数の車両102のうちの1台または複数台の他の車両は、第1の車両102aのマイクロプロセッサ202に通信可能に結合することができる。通信結合は、複数の車両102のうちの1台または複数台の他の車両が道路部分118に沿って通過し、DSRCチャネルなどの無線通信ネットワーク106の範囲内にある場合に生じる可能性がある。第2の車両102bおよび複数の車両102のうちの1台もしくは複数台の他の車両は、無線通信ネットワーク106を介して対応する車両データをマイクロプロセッサ202に通信することができる。例えば、マイクロプロセッサ202は、無線通信システム206を介して、第2の車両102bの車両データを受信することができる。第2の車両102bから受信した車両データは、第2の車両102bの固有の車両識別子、車両の位置、車両の大きさ、移動方向、および/または車速値を含むことができる。受信された車両データは、さらに、第2の車両102bの、操舵角、車両位置精度データ、ブレーキシステム状態、車両安定性システムの状態、ヨーレート、速度変化率、車線情報、および/または他の車両パラメータを含むことができる。
一実施形態によれば、第1の車両102aの近傍の(複数の車両102の)1台または複数台の接続車両から受信された車両データは、ホーン(もしあれば)の適用に関連する情報も含むことができる。例えば、第2の車両102bが第1の車両102aに対してホーンを適用する場合、第2の車両102bから受信された車両データは、ホーン適用信号を含む可能性がある。第2の車両102bから受信した車両データは、ホーン音の方向の判定を検証するために使用することができる。これは、ホーン音の方向を判定する精度を高め、さらにホーンを適用した車両の識別を可能にする。
一実施形態によれば、捕捉された第1のセンサデータは、感知システム220の物体検出装置224(例えば、RADARまたはLIDAR)から受信されたセンサデータに対応することができる。例えば、マイクロプロセッサ202は、第1の車両102aと複数の車両102の他の車両との間の距離、速度、および/または角度を計算することができる。距離、速度、および/または角度の計算は、物体検出装置224から受信したセンサデータを使用することによって行うことができる。例えば、ホーン音の検出時に、第1の車両102aと第2の車両102bとの相対速度、直線距離、横方向距離、および/または角度を算出することができる。
一実施形態によれば、マイクロプロセッサ202は、捕捉された第1のセンサデータに基づいて、第1の車両102aに対する第2の車両102bの位置および/または方向を判定するよう構成することができる。一例では、第1の車両102aの運転者114が、第2の車両102bによるホーンの適用の理由を判定することができない可能性がある。さらに、将来の使用のためにホーンの検出に関連するデータを記録することも困難である可能性がある。したがって、第1の車両102aの視点から、第2の車両102bなどの車両の位置および方向などの上述したような様々な態様を理解して、第1の車両102aの運転精度を向上させることが重要であろう。さらに、第1の車両102aの視点から、ホーン音の方向、複数の車両102のうちどの車両がホーンを適用した(クラクションを鳴らした)か、交通状況(第1の交通状況など)の状態を理解することも重要であろう。
一実施形態によると、マイクロプロセッサ202は、第1の車両102aに関連付けられた第2のセンサデータを抽出するよう構成することができる。第2のセンサデータは、ホーン音の検出前の経過時間間隔の間に抽出することができる。例えば、第1の車両102aの第2のセンサデータは、ホーン音の検出前の「最後の10秒」の間に抽出されて、第1の車両102aの運転精度を理解し改善することができる。第2のセンサデータは、第1の車両102aに関連する車載データを参照し、CANバスなどの車載ネットワーク226から抽出することができる。
一実施形態によれば、第2のセンサデータは、第1の車両102aの操舵角、ヨーレート、速度値、および/または速度の変化率とすることができる。第2のセンサデータは、第1の車両102aの車両位置精度データ、ブレーキシステム状態、車両安定性システムの状態、パワートレイン制御システム214の状態、車線情報、および/または他の車両パラメータに対応することもできる。
一実施形態によれば、マイクロプロセッサ202は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータをメタデータでタグ付けするよう構成することができる。メタデータは、ホーン音の検出に対応することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、後述するように、第2の車両102bが第1の車両102aにホーンを適用した理由を理解するために使用することができる。
一実施形態によれば、マイクロプロセッサ202は、ホーン音の検出に先立って、「最後の10秒」などの経過時間間隔の間に抽出されたタグ付けされた第1のセンサデータおよび第2のセンサデータを解析するよう構成することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータを解析して、(第1の車両102aの)マイクロプロセッサ202によってホーン音が検出された時刻付近で、第1の車両102aの近傍で特定の交通状況を引き起こした事象を判定する。さらに、タグ付けされた第1のセンサデータおよび第2のセンサデータを解析して、ホーン音の検出に先立つ「過去10秒」などの経過時間間隔に抽出された第2のセンサデータと、捕捉された第1のセンサデータとの間の関係を判定する。例えば、マイクロプロセッサ202は、第1の車両102aが指示なしに車線を変更した場合に、第1の車両102aの操舵角は「4秒」の間に「20度」で、速度は「60マイル/時」で、次いで、第2の車両102bから放射されたホーン音が検出されたと解析することができる。
一実施形態によれば、マイクロプロセッサ202は、タグ付けされた第1のセンサデータおよび第2のセンサデータの解析に基づいて機械学習を実行するよう構成することができる。マイクロプロセッサ202は、第1のセンサデータとの関連関係で学習された、タグ付けされた第2のセンサデータなどのデータを格納することができる。第1の交通状況などの類似の交通状況が、第1の車両102aによって将来検出される場合、自律モードでは、第1の車両102aが、検出された交通状況を処理し、対応する動作を自動的に行うことができる。
一実施形態によると、マイクロプロセッサ202は、第1の車両102a内の1つまたは複数の制御システムを再較正し、第1の車両102aに関連する1つまたは複数の機能を実行するよう構成することができる。マイクロプロセッサ202は、第1の車両102aのホーン制御システム222およびパワートレイン制御システム214などの1つまたは複数の制御システムの再較正のために、タグ付けされた第1のセンサデータおよび第2のセンサデータを利用するよう構成することができる。
一実施形態によれば、1つまたは複数の機能は、第1の車両102aの車線の変更、速度の変更、車線変更指示の提供、1台または複数台の他の車両からの安全距離の維持、ホーン制御システム222のホーンの適用、および/またはブレーキシステム218のブレーキの適用に対応することができる。1つまたは複数の機能は、第1の車両102aの走行経路の変更ならびにディスプレイスクリーン210および/またはオーディオインターフェース208を介した安全警告の生成にさらに対応することができる。一実施形態によれば、1つまたは複数の機能は、交通規制の違反を避けるために実行することができる。1つまたは複数の機能は、第1の車両102aが自律モードにある場合に、第1の車両102aによって実行することができる。一実施形態によれば、マイクロプロセッサ202は、第1の車両102aが自律モードで動作する場合、第1の車両102aでホーンを自動適用するために第1の交通状況を識別するよう構成することができる。第1の交通状況と同様の後の交通状況の識別は、交通状況における第1のセンサデータの捕捉と第2のセンサデータの抽出に基づくことができる。
本開示の例示的な態様によれば、第1のセンサデータの捕捉および第2のセンサデータの抽出は、上述のように、ホーンが第1の車両102aによって適用される場合にも起こり得る。そのような場合、マイクロプロセッサ202は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに、第1の車両102aによるホーンの適用に対応するメタデータをタグ付けするよう構成することができる。したがって、タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の車両102aでホーンの適用を引き起こした、第1の車両102aの近傍の事象および/または特定の交通状況を判定するためにさらに解析することができる。
一実施形態によれば、マイクロプロセッサ202は、第1の車両102aでのホーンの適用に関するタグ付けされた第1のセンサデータおよび第2のセンサデータの解析に基づいて機械学習を実行するよう構成することができる。前述したように、第1の交通状況などの同様の交通状況は、自律モードにある第1の車両102aによって将来検出することができる。第1の車両102aのマイクロプロセッサ202は、第1の車両102aによるホーン音の検出およびホーン音の適用の一方または両方に関連して、タグ付けされた第1のセンサデータおよび第2のセンサデータから学習されたものに基づいて、検出された交通状況を容易に処理することができる。
一実施形態によれば、マイクロプロセッサ202は、複数の車両102のうちの他の車両によって通信された車両データを利用して、第1の車両102aから見えない歩行者または動物を検出することができる。第1の車両102aのマイクロプロセッサ202が、第1の車両102aの現在の走行経路に向かって移動し得る隠れた歩行者または動物を検出する場合、マイクロプロセッサ202は、第1の車両102aの付近の周辺領域を解析することができる。
この解析に基づいて、マイクロプロセッサ202は、ホーンを自動適用するために、ホーン制御システム222などの適切な制御システムに制御コマンドを送信することができる。ホーンは、歩行者または動物に警告するために適用することができる。一実施形態によれば、起こり得る危険性を回避するために、解析に基づいてホーンの適用と同時に第1の車両102aで部分ブレーキを適用することもできる。さらに、解析に基づいて、第1の車両102aの後ろに近接する1台または複数台の車両が検出された場合に、第1の車両102aでフルブレーキをかけられない可能性がある。
図3Aおよび図3Bは、本開示の一実施形態による、ホーンの検出に基づく自動運転車のための開示された適応システムおよび方法を実施するための第1の例示的状況を示す。図3Aは、図1および図2の要素と関連して説明される。図3Aは、車線変更状況などの第1の交通状況の一例を示す。図3Aを参照すると、第1の車線302、第2の車線304、第1の車両102a、および第2の車両102bが示されている。ECU108、撮像ユニット110a〜110d、音センサ112a〜112g、物体検出装置224、および感知システム220の他の車両センサなどの第1の車両102aの様々な構成要素を第1の車両102aに設けることができるが、簡潔にするために、図3Aおよび図3Bでは示していない。
第1の例示的な状況によれば、第1の車両102aおよび第2の車両102bは、道路部分118などの道路部分に沿って別々の車線を移動することができる。第2の車両102bは第1の車線302を移動し、第1の車両102aは第2の車線304を移動することができる。第1の車両102aは、そのコースを第2の車線304から第1の車線302に変更しようと試みる可能性がある。第2の車両102bの運転者116は、第1の車両102aが車線変更指示を行わずに第2の車線304に変更しようとしていることを確認すると、第2の車両102bの運転者116は、第1の車両102aに対して警告としてホーンを適用することができる。
動作中、第1の車両102aのECU108は、音センサ112a〜112gを用いて、第2の車両102bから放射されたホーン音を検出するよう構成することができる。ECU108は、(図1に示すように左ORVMに取り付けられる)撮像ユニット110aまたは撮像ユニット110dなどのリアカメラを用いて、検出されたホーン音の方向でビデオストリームを捕捉するよう構成することができる。一実施形態によれば、第1の車両102aの近傍を囲む領域を捕捉するために、ビデオストリームを360度で捕捉することもできる。一実施形態によれば、第1の車両102aのECU108は、検出されたホーン音の方向が、第1の車線302から第2の車線304などの変更された車線に対応するかどうかを判定するよう構成することができる。ECU108は、追加のセンサデータを捕捉して第2の車両102bなどの音を発した物体の位置を特定するためにサイドRADAR(物体検出装置224など)を作動させるよう構成することができる。ECU108はまた、第2の車両102bから車線情報、速度、ホーン適用信号、および/または移動方向情報などの車両データを受信することもできる。
一実施形態によれば、ECU108は、第1の車両102aと第1の車両102aに最も近い他の車両との間の距離、速度、および/または角度をさらに計算することができる。距離、速度、および/または角度の計算は、RADARなどの物体検出装置224から受信したセンサデータを使用することによって行うことができる。例えば、第1の車両102aと第2の車両102bとの間の直線距離(「9フィート」)および横方向距離(「5フィート」)を計算することができる。捕捉されたデータ(捕捉されたビデオストリームなど)、受信された車両データ、および/またはセンサデータは、集合的に第1のセンサデータと呼ぶことができる。第1のセンサデータは、第1の車両102aの近傍で、車線変更状況などの第1の交通状況を示すことができる。第1のセンサデータは、道路部分118などの道路部分で第1の車両102aを取り囲む所定の領域について捕捉することができる。第1のセンサデータは、ホーン音の検出に続く所定の時間間隔の間、捕捉することができる。
一実施形態によれば、サイドRADARからの捕捉されたセンサデータは、追加のフェールセーフチェックのために、物体検出装置224および/または撮像ユニット110a〜110dの他のセンサからの捕捉されたセンサデータと比較することができる。複数のセンサからの捕捉されたセンサデータの間に矛盾がある場合、これは少なくとも1つのセンサの故障を示し、追加のフェールセーフチェックの結果は不合格になる。一例として、追加のフェールセーフチェックの結果が不合格を示す場合、ECU108は、第1の車両102aが自律モードにある場合、運転者が制御をするよう指示を生成することができる。また、自律運転システムやADASのセンサのエラーを示す情報は、V2V通信を介して、またはV2I通信を介してRSU120を使用して、他の周辺車両に送信することができる。別の例では、追加フェールセーフチェックの結果が不合格を示す場合、ECU108は、ホーン検出事象を誤検出(誤判定)として記録することができ、第1のセンサデータを、さらなる解析のために「ホーン音が検出された、突然の車線変更交通状況」などのメタデータとタグ付けすることができない。一実施形態によれば、追加のフェールセーフチェックの結果は成功を示す。この場合、ECU108は、第2のセンサデータを抽出し、捕捉した第1のセンサデータと抽出した第2のセンサデータとを、後述するように、「ホーン音が検出された、突然の車線変更交通状況」としてタグ付けすることができる。
一実施形態によれば、マイクロプロセッサ202は、第1の車両102aに対する第2の車両102bの位置および/または方向を判定するよう構成することができる。例えば、捕捉されたビデオデータ(第2の車両102b、受信した車両データ、または物体検出装置224を備える)を使用することにより、第1の車両102aの観点からの、第2の車両102bの位置、方向、および交通状況を、容易に判定することができる。
一実施形態によると、マイクロプロセッサ202は、車載ネットワーク226から、第1の車両102aに関連付けられた第2のセンサデータを抽出することができる。第2のセンサデータは、ホーン音の検出前の、「最後の10秒」などの経過時間間隔の間に抽出することができる。捕捉された第1のセンサデータと共に、第1の車両102aの操舵角、速度値、および/または速度変化率、車線情報、位置情報(緯度経度情報)などの抽出された第2のセンサデータは、第2の車両102bによりホーンが適用された理由を理解するのに十分な情報を提供することができる。
一実施形態によれば、マイクロプロセッサ202は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータを、「ホーン音が検出された」メタデータでタグ付けするよう構成することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の車両102aの観点から、第1の交通状況中に第2の車両102bが第1の車両102aにホーンを適用した理由を理解するため使用することができる。別の例では、タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の交通状況がクラウドサーバ104で解析されるように、RSU120を介してクラウドサーバ104に送信することができる。
一実施形態によれば、ECU108は、状況から情報を学習することができる。そのような学習された情報は、第1の車両102aの操舵角が変更され、第1の車両102aが第2の車線304から第1の車線302に現在の車線を変更し、速度値が「60マイル/時」であり、車線変更指示信号が、ホーン音の検出の前に、抽出された第2のセンサデータに存在しなかった、などの事実を含むことができる。学習された情報は、第2の車両102bからのホーン音の検出時点での、第1の車両102aと第2の車両102bとの間の相対距離をさらに含むことができる。ECU108は、タグ付けされた第2センサデータの上記パラメータなどの学習された情報を第1のセンサデータとの関連関係で格納することができ、ADASにおけるパラメータまたは第1の車両102aの自律運転は、格納された学習情報を解析することによって調整することができる。将来類似の交通状況に遭遇した場合、図3Bに示され以下で説明するように、適切な動作を実行することができる。例えば、第1の車両102aが車線変更を開始した場合、他の車両との間の距離が長くなるように、学習された情報に基づいて、隣接車線を走行する他の車両に対する安全距離である閾値距離を変更することができる。あるいは、第1の車両102aは、捕捉された第1のセンサデータおよび抽出された第2のセンサデータを単独で解析することができない場合、第1の車両102aは、そのような捕捉データをクラウドサーバ104に送信することができる。次いで、第1の車両102aは、クラウドサーバ104からコマンドを受信して、自律型またはADASシステム用の1つまたは複数のパラメータを調整することができる。コマンドは、第1の車両102a、または第1の車両102aに通信可能に結合することができるRSU120から受信された捕捉された第1のセンサデータおよび抽出された第2のセンサデータの解析に基づいて、クラウドサーバ104で生成することができる。
図3Bを参照すると、第1の車線302、第2の車線304、第1の車両102a、および第2の車両102bが示されている。この場合、第1の車両102aは自律モードで第1の車線302を移動することができる。第2の車両102bは、手動モード(運転者116によって運転される)で第2の車線304を移動することができる。第2の車両102bの運転者116は、第2の車線304などの現在の車線を突然に、または車線変更指示を出すことなく変更する可能性がある。
動作中、自律モードの第1の車両102aは、1つまたは複数の撮像ユニット110a〜110dおよび物体検出装置224などの感知システム220の1つまたは複数のセンサを使用することによって、その近傍の物体を連続的に監視するよう構成することができる。第1の車両102aは、現在の交通状況を、タグ付けされた第1のセンサデータおよび第2のセンサデータなどのタグ付きデータと比較するよう構成することができる。
一実施形態によると、ECU108は、第1の車両102a内の、パワートレイン制御システム214、ブレーキシステム218、ホーン制御システム222などの、1つまたは複数の制御システムを再較正し、第1の車両102aに関連する1つまたは複数の機能を実行するよう構成することができる。1つまたは複数の制御システムの再較正は、図3Aに記載されているように、タグ付けされた第1のセンサデータおよび抽出された第2のセンサデータ、ならびに/もしくは以前の例からの学習された情報に基づくことができる。例えば、ECU108は、第2の車両102bなどの複数の車両102の最も近い車両間の直線または横方向の距離が安全か、安全ではないかを判定するよう構成することができる。ECU108は、第2の車両102bの捕捉されたビデオストリームを使用することによって、車線変更指示が第2の車両102bでアクティブか非アクティブかをチェックするよう構成することができる。
安全距離であると判定された場合、ECU108は、第1の車線302において、第2の車両102bに対応するために、速度を自動的に減速するよう構成することができる。安全でない距離であると判定された場合、車線変更指示が非アクティブとなり、または車線を急に変更したと判定された場合、ECU108は、第1の車両102aのホーン制御システム222を介して、ホーンを自動適用するために、第2の車両102bによる車線変更状況などの第1の交通状況を識別するよう構成することができる。識別は、上述のように、現在の交通状況とタグ付けされたデータとの比較、および/または以前の例から学習された情報に基づくことができる。
一実施形態によれば、自律モードのECU108は、適用されたホーンへの応答を示すことができる第2の車両102bの速度変化、走行経路の変化、および/または他の反応信号を検出するよう構成することができる。自律モードのECU108は、ブレーキシステム218からのブレーキの自動適用によって、第1の車両102aの現在の速度を低下させるために、パワートレイン制御システム214などの他のECUに1つまたは複数のコマンドをさらに送信し、第2の車両102bに対応するよう構成することができる。したがって、自律モードにおける第1の車両102aの運転の精度は、他のユーザの視点から強化される。
図4Aおよび図4Bは、本開示の一実施形態による、ホーンの検出に基づく自動運転車のための開示された適応システムおよび方法を実施するための第2の例示的状況を示す。図4Aは、図1、図2、図3A、および図3Bの要素と関連して説明される。図4Aは、突然の減速状況などの第1の交通状況の第2の例を示し、図4Aを参照すると、第1の車線302、第2の車線304、第1の車両102a、および第2の車両102bが、図3Aと同様に示されている。
第2の例示的な状況によれば、第1の車両102aおよび第2の車両102bは、道路部分118に沿って第1の車線302などの同じ車線に沿って移動することができる。第1の車両102aの運転者114は、第1の車両102aの前方の障害物を避けるためにブレーキを突然にかける可能性がある。第2の車両102bの運転者116は、(図に示すように)第2の車両102bの前方を移動する第1の車両102aの急減速を観察すると、第2の車両102bの運転者116は、第1の車両102aに対する警報としてホーンを適用することができる。
動作中、第1の車両102aのECU108は、音センサ112a〜112gを用いて、第2の車両102bから放射されたホーン音を検出するよう構成することができる。ECU108は、先に図2および図3Aで説明したように、第1の車両102aの近傍の第1のセンサデータを捕捉するよう構成することができる。マイクロプロセッサ202は、ホーン音の検出前の、「最後の15秒」などの経過時間間隔の間に第2のデータを抽出することができる。第1の車両102aの車載ネットワーク226から抽出される第2のセンサデータは、第1の車両102aの速度の変化率、操舵角、速度値、車線情報、位置情報(緯度および経度情報)とすることができる。
一実施形態によれば、マイクロプロセッサ202は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータを、「ホーン音が検出された、突然の減速交通状況」などのメタデータでタグ付けするよう構成することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の交通状況中に第2の車両102bが第1の車両102aにホーンを適用した理由を(第1の車両102aの観点から)理解するため使用することができる。
一実施形態によれば、ECU108は、機械学習に基づいて、現在の速度値「時速60マイル」から「時速40マイル」への第1の車両102aの突然の減速が、障害となり、第2の車両102bの走行経路に支障をきたす可能性があると推論し得る。同様の交通状況がECU108によって将来検出された場合、図4Bに示され以下で説明するように、類似の動作を実行することができる。
図4Bを参照すると、第1の車線302、第2の車線304、第1の車両102a、および第2の車両102bが示されている。この例では、第1の車両102aは自律モードで第1の車線302を移動する可能性がある。第2の車両102bは、手動モード(運転者116によって運転される)で、第1の車線302内で第1の車両の前方を移動する可能性がある。第2の車両102bの運転者116は、第1の車両102aの走行経路に障害を引き起こす可能性がある突然の減速をする可能性がある。
動作中、ECU108は、第1の車両102a内のパワートレイン制御システム214および/またはホーン制御システム222などの1つまたは複数の制御システムを再較正して、自動的にブレーキをかけて第1の車両102aを減速するよう構成することができる。ECU108は、第1の車両102aにおけるホーン制御システム222を介してホーンを自動適用するために、第2の車両102bによる突然の減速状況などの第1の交通状況を識別するよう構成することができる。識別は、現在の交通状況とタグ付けされたデータとの比較、および/または図4Aに示すように、以前の例から学習された情報に基づくことができる。ECU108が、適用されたホーンに対する応答を検出しない場合、ECU108は、制御信号を自動的にパワートレイン制御システム214および/またはステアリングシステム216に送信して、自律モードにある第1の車両102aの走行経路を変更することができる。したがって、自律モードにおける第1の車両102aの運転の精度は、他のユーザの視点から様々な交通状況に対して強化される。
図5Aおよび図5Bは、本開示の一実施形態による、ホーンの適用に基づく、自動運転車の開示されたシステムおよび方法を実施するための第3の例示的な状況を示す図である。図5Aは、図1、図2、図3A、図3B、図4A、および図4Bの要素と関連して説明される。図5Aは、指示のない急な車線変更状況などの、第1の交通状況の例を示す。図5Aを参照すると、第1の車線302、第2の車線304、第1の車両102a、および第2の車両102bが示されている。第1の車線302および/または第2の車線304を移動することができる1台または複数台の他の車両がさらに示されている。
第3の例示的な状況によれば、第1の車両102aは、第1の車線302などの固定された車線を移動することができる自動運転車とすることができる。第2の車両102bなどの別の非自律的車両が、第2の車線304などの隣接車線を移動する可能性がある。第2の車線304内を移動する第2の車両102bが、第2の車線304から第1の車線302へとそのコースを突然変更しようと試みる可能性がある。第1の車両102aの運転者114は、第2の車両102bが車線変更指示を出すことなく第1の車線302に向かって移動しようとしていることを観察する可能性がある。第1の車両102aの運転者114は、第2の車両102bが第1の車両102aから安全な距離にない可能性があることをさらに観察することができる。次いで、第1の車両102aの運転者114は、第2の車両102bに対する警報として、第1の車両102aにホーンを適用することができる。一実施形態によれば、運転者114は、第1の交通状況のこのような場合に第2の車両102bに適応するために速度を低下させることができる。
一実施形態によれば、音センサ112a〜112gは、第1の車両102aにおけるホーンの自己適用から放射されたホーン音を捕捉するよう構成することができる。第1の車両102aのECU108は、捕捉されたホーン音が、第1の車両102aから放射されたホーン音であるか、道路部分118上の他の車両から放射されたホーン音であるかを確認するよう構成することができる。第1の車両102aのECU108は、第1の車両102aの、CANバスなどの車載ネットワーク226において、ホーンの自己適用のためのホーン信号の存在をチェックすることができる。この場合、ホーン信号は、ホーンが第1の車両102aで適用された場合、車載ネットワーク226において検出することができる。
一実施形態によれば、ECU108は、撮像ユニット110a〜110dのうちの1つまたは複数を使用することによって、第1の車両102aを囲む領域のビデオストリームを捕捉するよう構成することができる。ECU108は、第1の車両102aの物体検出装置224からセンサデータを捕捉するようさらに構成することができる。捕捉されたビデオストリームおよびセンサデータは、捕捉された第1のセンサデータと総称することができる。第1のセンサデータは、第1の車両102aの近傍における、第2の車両102bによる車線変更指示のない急な車線変更状況などの第1の交通状況を示すことができる。第1のセンサデータは、第1の車両102aにおけるホーンの適用に続いて、「60秒」などの所定の時間間隔の間、捕捉することができる。
一実施形態によると、ECU108は、車載ネットワーク226から、第1の車両102aに関連付けられた第2のセンサデータを抽出することができる。第2のセンサデータは、ホーンの適用前の、「最後の10秒」などの経過時間間隔の間に抽出することができる。ECU108は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータを、「ホーンの適用」メタデータでタグ付けするよう構成することができる。第1の車両102aでホーンの適用を引き起こした上述の第1の交通状況の事象および/または条件は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づいてECU108で記録および解析することができる。例えば、事象および/または条件は、第1の車両102aと他の最も近い車両との間の直線方向または横方向の距離、第2の車両102bにおける車線変更指示のアクティブまたは非アクティブな状態、および/または第2の車両102bによる車線の突然の変更とすることができる。
一実施形態によれば、ホーンが適用されると、タグ付けされた第1のセンサデータおよび第2のセンサデータに基づいて、第2の車両102bからの応答を判定することができる。例えば、第2の車両102bの移動量の変化、走行経路の変化、および/または適用されたホーンへの応答を示すことができる第2の車両102bの他の信号も、解析のために記録することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、運転者114が第2の車両102bにホーンを適用した理由を理解するために解析することができる。タグ付けされた第1のセンサデータおよび第2のセンサデータは、第1の交通状況において第1の車両102aでどのような行動がとられたかを判定するために解析することができる。第1の車両102aによって行われる1つまたは複数の動作の例としては、第2の車両102bに適応するための第1の車両102aの減速、およびそのような第1の交通状況において第2の車両102bに警報するためのホーンの適用を含むことができる。第1の車両102aによって行われる1つまたは複数の動作は記録することができる。ECU108は、第1の交通状況のカテゴリを「指示のない急な車線変更状況」として識別するよう構成することができる。第1の交通状況の識別されたカテゴリは、「ホーンの適用、指示のない突然の車線変更状況」などの「ホーンの適用」のメタデータを用いて、捕捉された第1のセンサデータおよび抽出された第2のセンサデータのタグ付けと共にタグ付けすることもできる。
一実施形態によれば、マイクロプロセッサ202は、第1の車両102aのホーンの適用に関するタグ付けされた第1のセンサデータおよび第2のセンサデータの解析に基づいて機械学習を実行するよう構成することができる。ECU108は、第1の車両102a内の、パワートレイン制御システム214、ブレーキシステム218、ホーン制御システム222などの、1つまたは複数の制御システムを再較正するよう構成することができる。1つまたは複数の制御システムの再較正は、タグ付けされた第1のセンサデータおよび第2のセンサデータ、ならびに/もしくは解析からの学習された情報に基づくことができる。再較正は、図5Bに示し、以下で説明するような、自律モードにある第1の車両102aにより将来検出される可能性がある、指示なく急に車線を変更する状況の第1の交通状況などの、同様の交通状況に適応するために、第1の車両102aのECU108に能力をもたらすことができる。
図5Bを参照すると、第1の車線302、第2の車線304、第1の車両102a、第2の車両102b、および複数の車両102の他の車両が示されている。この場合、第1の車両102aは、自律モード(運転者114によって運転されない)で動作することができる。第1の車両102aは自律モードで第1の車線302を移動する可能性がある。第2の車両102bは、手動モード(運転者116によって運転される)で第2の車線304を移動する可能性がある。
動作中、自律モードの第1の車両102aは、1つまたは複数の撮像ユニット110a〜110dおよび物体検出装置224などの感知システム220の1つまたは複数のセンサを使用することによって、その近傍の物体を連続的にまたは周期的に監視するよう構成することができる。第2の車両102bの運転者116は、第2の車線304などの現在の車線を突然に、または車線変更指示を出すことなく変更する可能性がある。そのような場合、第1の車両102aのECU108は、現在の交通状況を、タグ付けされた第1のセンサデータおよび第2のセンサデータなどのタグ付けされたデータと比較するよう構成することができる。
一実施形態によれば、ECU108は、現在の交通状況を、指示のない急な車線変更状況の第1の交通状況として識別するよう構成することができる。識別は、上述のように、現在の交通状況とタグ付けされたデータとの比較、および/または以前の例から学習された情報に基づくことができる。ECU108は、ホーンを自動適用するために第1の車両102aのホーン制御システム222にコマンドを送信するよう構成することができる。自律モードのECU108は、ブレーキシステム218からのブレーキの自動適用によって、第1の車両102aの現在の速度を低下させるために、パワートレイン制御システム214などの他のECUに1つまたは複数のコマンドをさらに送信し、第2の車両102bに対応するよう構成することができる。したがって、第1の車両102aのECU108は、自律モードにおけるエラーのない人間のような運転を模倣することができる自律モードでの第1の車両102aの運転の精度を向上させるように適合することができる。
図6Aおよび図6Bは、本開示の一実施形態による、ホーンの検出に基づく自動運転車のための例示的な方法を示すフローチャートである。図6Aおよび図6Bを参照すると、フローチャート600が示される。フローチャート600は、図1、図2、図3A、図3B、図4A、図4B、図5A、および図5Bに関連して説明される。本方法は、ステップ602で開始し、ステップ604に進む。
ステップ604において、複数の車両102のうちの少なくとも1台から放射されたホーン音は、第1の車両102aの音センサ112a〜112gなどの音センサによって捕捉することができる。ステップ606において、捕捉されたホーン音が、第1の車両102aのホーンから放射されたホーン音か、または複数の車両102のうちの別の車両から放射されたホーン音であるかをチェックすることができる。CANバスなどの車載ネットワーク226にホーン信号が存在することをチェックして、第1の車両102aにおけるホーンの適用を確認することができる。ホーン信号が第1の車両102aの車載ネットワーク226に存在しない場合、制御はステップ608aに移行する。ホーン信号が第1の車両102aの車載ネットワーク226に存在する場合、制御はステップ608bに移行する。
ステップ608aにおいて、ホーン音の方向は、第1の車両102aのECU108によって検出することができる。音センサ112a〜112gによって捕捉されたホーン音が、(図3Aおよび図4Aに示すように)第2の車両102bから放射された可能性があることを検出することができる。ステップ610aで検出されたホーン音に基づいて、第1の車両102aに関連する第1のセンサデータを捕捉することができる。捕捉した第1のセンサデータは、図2、図3A、および図4Aで説明したように、第1の車両102aの近傍の第1の交通状況などの現在の交通状況のビデオストリームに対応することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の複数の車両102の1台または複数台の接続された車両から受信された車両データにさらに対応することができる。捕捉された第1のセンサデータは、感知システム220の物体検出装置224(例えば、RADAR)から受信されたセンサデータに対応することもできる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。第1の交通状況の例は、図2、図3A、図3B、図4A、および図4Bで先に説明されている。
ステップ612aでは、捕捉された第1のセンサデータに基づいて、第1の車両102aに対する第2の車両102bの位置および/または方向を判定することができる。ステップ614aにおいて、第1の車両102aに関連する第2のセンサデータが、第1の車両102aの車載ネットワーク226から抽出される可能性がある。第2のセンサデータは、ホーン音の検出前の経過時間間隔の間に車載ネットワーク226から抽出することができる。第2のセンサデータは、第1の車両102aの操舵角、ヨーレート、速度値、および/または速度変化率、車両位置精度データ、および/またはブレーキシステム状態とすることができる。第2のセンサデータはまた、車両安定性システムの状態、車線情報、および/または車載ネットワーク226から抽出することができる第1の車両102aの他の車両パラメータに対応することもできる。
ステップ616aにおいて、捕捉された第1のセンサデータおよび抽出された第2のセンサデータは、メタデータでタグ付けすることができる。メタデータは、ホーン音の検出に対応することができる。ステップ618aにおいて、ホーン音の検出に対応するタグ付けされた第1のセンサデータおよび第2のセンサデータを解析することができる。解析は、ホーン音の検出の時間の前後で、第1の車両102aの近傍で特定の交通状況を引き起こした事象を判定するために実行することができる。ステップ620aでは、解析に基づいて、ホーン音の検出に先立って抽出された第2のセンサデータと、捕捉された第1のセンサデータとの関係を判定することができる。第2のセンサデータと第1のセンサデータとの間の関係は、第1の交通状況などの類似の交通状況が、第1の車両102aによって将来検出された場合に、自律モードにおいて、第1の車両102aが、検出された交通状況を処理することができ、対応する動作を自動的に実行することができるよう判定することができる。
ステップ622では、第1の車両102aの1つまたは複数の制御システムは、第1の車両102aに関連付けられた1つまたは複数の機能を実行するために再較正することができる。1つまたは複数の機能は、図1、図2、図3B、図4B、および図5Bに詳細に記載されている。第1の車両102aにおけるパワートレイン制御システム214およびホーン制御システム222などの1つまたは複数の制御システムの再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。例えば、自律運転システムまたはADASシステムの1つまたは複数のパラメータの閾値は、ステップ618a、618b、620a、および/または620bの解析に基づいて調整または新たに設定することができる。調整されたパラメータは、車線変更またはブレーキのための他の車両との相対距離、方向信号または走行速度に基づいていつどの方向に旋回するかを表す1つまたは複数の時間パラメータとすることができる。再較正が不可能である可能性があると第1の車両102aが判定した場合、タグ付けされた第1のセンサデータおよび第2のセンサデータをクラウドサーバ104に送信して、第1の車両102aのシステムおよび第1の状況をさらに解析することができる。ステップ624において、第1の車両102aの近傍の他の車両および/または歩行者などの1つまたは複数の物体は、第1の車両102aの感知システム220を使用することによって監視することができる。1つまたは複数の物体は、再較正後の時間インスタンスの間、監視することができる。
ステップ626において、第1の車両102aが自律モードで動作している場合に、第1の車両102aによるホーンの自動適用のために、後の時間インスタンスにおける現在の交通状況などの第1の交通状況を識別することができる。ステップ628において、第1の車両102aに関連する1つまたは複数の機能は、第1の交通状況の識別の後に実行することができる。1つまたは複数の機能は、第1の車両102aの再較正された1つまたは複数の制御システムに基づいて実行することができる。例えば、図3Bおよび図5Bに図示および説明したように、第2の車両102bに対応するためのホーンの適用に加えて、第1の車両102aで自動的に速度を低下させることができる。別の例では、図4Bおよび図5Bに示されているように、第1の車両102aを減速するためにブレーキを自動的に適用することができ、および/または第1の車両102aの走行経路を変更することができる。制御は、ステップ630に進むことができる。
ホーン信号が第1の車両102aの車載ネットワーク226に存在する場合、制御はステップ608bに移行する。ステップ608bでは、第1の車両102aにおけるホーンの適用の検出を確認することができる。ステップ610bにおいて、第1の車両102aに関連する第1のセンサデータは、第1の車両102aにおける検出されたホーンの適用に基づいて捕捉することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況などの、現在の交通状況を示す。
ステップ612bでは、捕捉された第1のセンサデータに基づいて、第1の車両102aに対する複数の車両102のうちの他の車両の位置および/または距離を判定することができる。ステップ614bにおいて、第1の車両102aに関連する第2のセンサデータが、第1の車両102aの車載ネットワーク226から抽出される可能性がある。第2のセンサデータは、ホーンの適用前の経過時間間隔の間に車載ネットワーク226から抽出することができる。
ステップ616bにおいて、捕捉された第1のセンサデータおよび抽出された第2のセンサデータは、第1の車両102aでのホーンの適用を検出したことに対応するメタデータでタグ付けすることができる。ステップ618bにおいて、ホーンの適用に対応するタグ付けされた第1のセンサデータおよび第2のセンサデータを解析することができる。ステップ620bにおいて、第1の交通状況のカテゴリは、ホーンの適用に関連するタグ付けされた第1のセンサデータおよび第2のセンサデータの解析に基づいて識別することができる。カテゴリは、急な車線変更、表示のない車線変更、突然の減速、急激なまたは遅い加速、不適当な車線の走行、車線の標識の違反、車両間の適切な距離の非保守、不適当な走行速度、および/または交通規則の違反に関連する可能性のある他の交通状況などの、様々なタイプの第1の交通状況の1つに対応することができる。次に、制御はステップ622に進むことができる。
一実施形態によれば、ステップ604は、ホーン音を捕捉する例示的なステップである。あるいは、ホーン機能として他の車両に警告または通知するための(ホーン信号などの)情報が、ホーン音の代わりに、V2VまたはV2Iなどの無線通信を介して車両間でデータとして送信された場合の例として、ECU108は、無線通信を介して受信することによる情報、または車載ネットワーク226で指示されるような他の車両のホーン信号を検出することができる。
一実施形態によれば、ステップ606において、車載ネットワーク226内のホーン信号を検出する代わりに、ECU108は、第1の車両102aの乗員が押すパニックボタンまたは緊急ボタンからの信号を検出し、第1の車両102aの乗員によって誘発された危険な状況を検出することができる。さらに、一実施形態によれば、ステップ618aおよび618bにおいて、タグ付けされた第1のセンサデータおよび第2のセンサデータの解析は、そのようなデータが第1の車両102aからクラウドサーバ104に送信される場合に、クラウドサーバ104において実行することができる。この場合、クラウドサーバ104は、第1の車両102aにおける1つまたは複数の制御システムを再較正するためのコマンドを第1の車両102aに送信することができる。このようなコマンドは、ステップ622の前に送られて、第1の車両102a内の1つまたは複数の制御システムの再較正を開始することができる。
本開示の一実施形態によれば、ホーンの検出および/または適用に基づく自動運転車のためのシステムが開示される。システム(ECU108(図1)など)は、1つまたは複数の回路(以下、マイクロプロセッサ202と呼ぶ(図2))を備えることができる。マイクロプロセッサ202は、第2の車両102b(図1)から放射されたホーン音を検出するよう構成することができる。マイクロプロセッサ202は、検出されたホーン音に基づいて、第1の車両102a(図1)に関連付けられた第1のセンサデータを捕捉するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。マイクロプロセッサ202は、ホーン音の検出に先立つ経過時間の間、第1の車両102aに関連付けられた第2のセンサデータを抽出するよう構成することができる。マイクロプロセッサ202は、第1の車両102a内の1つまたは複数の制御システムを再較正し、第1の車両102aに関連する1つまたは複数の機能を実行するようさらに構成することができる。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
本開示の例示的態様によれば、ホーンの検出および/または適用に基づく自動運転車のための別のシステムが開示される。システム(ECU108(図1)など)は、1つまたは複数の回路(以下、マイクロプロセッサ202と呼ぶ(図2))を備えることができる。マイクロプロセッサ202は、第1の車両102a(図1)におけるホーンの適用を検出するよう構成することができる。マイクロプロセッサ202は、第1の車両におけるホーンの検出された適用に基づいて、第1の車両102a(図1)に関連付けられた第1のセンサデータを捕捉するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。マイクロプロセッサ202は、ホーンの適用に先立つ経過時間の間、第1の車両102aに関連付けられた第2のセンサデータを抽出するよう構成することができる。マイクロプロセッサ202は、第1の車両102a内の1つまたは複数の制御システムを再較正し、第1の車両102aに関連する1つまたは複数の機能を実行するようさらに構成することができる。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
本開示の一実施形態によれば、車両(第1の車両102a(図1および図2)など)が開示される。車両は、車体228(図2)を備えることができる。車両は、感知システム220(図2)のセンサなどの、1つまたは複数のセンサをさらに備えることができる。1つまたは複数のセンサは、第2の車両102b(図1)などの別の車両から放射されたホーン音を検出するよう構成することができる。1つまたは複数のセンサは、車両に関連する第1のセンサデータおよび第2のセンサデータを捕捉するよう構成することができる。車両は、第1の車両102aなどの車両の電子制御ユニット(例えば、ECU108(図1および図2)など)で使用することができる1つまたは複数の回路(以下、マイクロプロセッサ202(図2)と呼ぶ)をさらに備えることができる。マイクロプロセッサ202は、検出されたホーン音に基づいて、車両(第1の車両102aなど)に関連付けられた捕捉された第1のセンサデータを受信するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aなどの車両の近傍における第1の交通状況などの第1の交通状態を示すことができる。マイクロプロセッサ202は、ホーン音の検出に先立つ経過時間の間、車両(例えば、第1の車両102a)に関連する捕捉された第2のセンサデータを受信するよう構成することができる。マイクロプロセッサ202は、さらに、車両(第1の車両102aなど)内の1つまたは複数の制御システムを再較正して、車両に関連する1つまたは複数の機能を実行するよう構成することができる。再較正は、受信された第1のセンサデータおよび第2のセンサデータに基づくことができる。
本開示の例示的な態様によれば、車両(第1の車両102a(図1および図2)など)が開示される。車両は、車体228(図2)を備えることができる。車両は、感知システム220(図2)のセンサなどの、1つまたは複数のセンサをさらに備えることができる。1つまたは複数のセンサは、車両に関連する第1のセンサデータおよび第2のセンサデータを捕捉するよう構成することができる。車両は、第1の車両102aなどの車両の電子制御ユニット(例えば、ECU108(図1および図2)など)で使用することができる1つまたは複数の回路(以下、マイクロプロセッサ202(図2)と呼ぶ)をさらに備えることができる。マイクロプロセッサ202は、車両におけるホーンの適用を検出するよう構成することができる。マイクロプロセッサ202は、第1の車両におけるホーンの適用の検出に基づいて、車両(第1の車両102aなど)に関連付けられた捕捉された第1のセンサデータを受信するよう構成することができる。捕捉された第1のセンサデータは、第1の車両102aなどの車両の近傍における第1の交通状況などの第1の交通状態を示すことができる。マイクロプロセッサ202は、ホーンの適用に先立つ経過時間の間、車両(例えば、第1の車両102a)に関連する捕捉された第2のセンサデータを受信するよう構成することができる。マイクロプロセッサ202は、さらに、車両(第1の車両102aなど)内の1つまたは複数の制御システムを再較正して、車両に関連する1つまたは複数の機能を実行するよう構成することができる。再較正は、受信された第1のセンサデータおよび第2のセンサデータに基づくことができる。
本開示の様々な実施形態は、機械および/またはコンピュータにホーン音の検出に基づいて自動運転車を適応制御させるためのコンピュータ実行可能命令のセットを格納する非一時的コンピュータ可読媒体および/または格納媒体を提供することができる。ECU108(図1)などのECU内のコンピュータ実行可能命令のセットは、機械および/またはコンピュータに、第2の車両102bから放射されたホーン音の検出を備えるステップを実行させることができる。検出されたホーン音に基づいて、第1の車両102a(図1)に関連する第1のセンサデータを捕捉することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。ホーン音の検出に先立つ経過時間の間、第1の車両102aに関連する第2のセンサデータを抽出することができる。第1の車両102aの1つまたは複数の制御システムは、第1の車両102aに関連付けられた1つまたは複数の機能を実行するために再較正することができる。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
本開示の例示的態様による、機械および/またはコンピュータにホーンの適用に基づいて自動運転車を適応制御させるためのコンピュータ実行可能命令のセットを格納する別の非一時的コンピュータ可読媒体および/または格納媒体を提供することができる。ECU108(図1)などのECU内のコンピュータ実行可能命令のセットは、機械および/またはコンピュータに、第1の車両102a(図1)におけるホーンの適用の検出を備えるステップを実行させることができる。第1の車両102a(図1)に関連する第1のセンサデータは、検出されたホーンの適用に基づいて捕捉することができる。捕捉された第1のセンサデータは、第1の車両102aの近傍の第1の交通状況を示す。第1の車両でのホーンの適用に先立つ経過時間の間、第1の車両102aに関連する第2のセンサデータを抽出することができる。第1の車両102aの1つまたは複数の制御システムは、第1の車両102aに関連付けられた1つまたは複数の機能を実行するために再較正することができる。再較正は、捕捉された第1のセンサデータおよび抽出された第2のセンサデータに基づくことができる。
本開示は、ハードウェア、またはハードウェアとソフトウェアとの組み合わせで実現することができる。本開示は、少なくとも1つのコンピュータシステムにおいて集中方式で、または様々な要素をいくつかの相互接続されたコンピュータシステムにわたって分散することができる分散方式で、実現することができる。本明細書に記載の方法を実行するのに適したコンピュータシステムまたは他の装置が適している可能性がある。ハードウェアとソフトウェアの組み合わせは、ロードされ実行された場合、本明細書に記載の方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを有する汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を備えるハードウェアで実現してもよい。
本開示は、本明細書に記載された方法の実施を可能にするすべての特徴を備え、コンピュータシステムにロードされた場合にこれらの方法を実行することができる、コンピュータプログラム製品に埋め込むこともできる。本明細書において、コンピュータプログラムとは、任意の言語、コード、または表記で、情報処理能力を有するシステムに、特定の機能を直接的に、または以下、すなわち、a)別の言語、コード、または表記への変換、b)異なるマテリアル形式での複製、のいずれかまたは両方で特定の機能を実行させようとする命令のセットの任意の表現を意味する。
本開示は、特定の実施形態を参照して説明しているが、本開示の範囲から逸脱することなく、様々な変更がなされ、同等物で代用することができることは、当業者によって理解されよう。さらに、その範囲から逸脱することなく、特定の状況または材料を本開示の教示に適合させるために、多くの修正を行うことができる。したがって、本開示は、開示された特定の実施形態に限定されず、本開示は、添付の特許請求の範囲内に入るすべての実施形態を含むことが意図される。

Claims (20)

  1. 車両を制御するためのシステムであって、前記システムは、
    第1の車両において使用される電子制御ユニット(ECU)内に1つまたは複数の回路を備え、前記1つまたは複数の回路が、
    第2の車両から放射されたホーン音を検出し、
    前記検出されたホーン音に基づいて前記第1の車両に関連する、前記第1の車両の近傍の第1の交通状況を示す第1のセンサデータを捕捉し、
    前記ホーン音の前記検出に先立つ経過時間の間、前記第1の車両に関連する第2のセンサデータを抽出し、
    前記捕捉された第1のセンサデータおよび前記抽出された第2のセンサデータに基づいて、前記第1の車両と関連する1つまたは複数の機能を実行するために前記第1の車両の1つまたは複数の制御システムを再較正する、
    よう構成される、システム。
  2. 前記1つまたは複数の回路は、前記捕捉された第1のセンサデータに基づいて、前記第1の車両に対する前記第2の車両の位置および/または方向を判定するよう構成される、請求項1に記載のシステム。
  3. 前記第1の車両は、自律モード、半自律モード、または手動モードのうちの1つで動作している、請求項1に記載のシステム。
  4. 前記第2の車両は、自律モード、半自律モード、または手動モードのうちの1つで動作している、請求項1に記載のシステム。
  5. 前記1つまたは複数の機能は、車線の変更、速度の変更、車線変更指示の提供、1つまたは複数の他の車両からの安全距離の維持、ホーンの適用、ブレーキの適用、前記第1の車両の走行経路の変更、安全警報の生成、および/または交通規制の違反を回避するための前記1つまたは複数の機能の実行のうちの1つまたは複数に対応する、請求項1に記載のシステム。
  6. 前記第1のセンサデータは、前記第1の交通状況のビデオストリーム、前記第1の車両の前記近傍にある1台または複数台の接続された車両から受信された車両データ、ならびに/もしくは電波ベースの物体検出装置またはレーザベースの物体検出装置から受信されるセンサデータの1つまたは複数に対応する、請求項1に記載のシステム。
  7. 前記第2のセンサデータは、前記第1の車両の、操舵角、ヨーレート、速度値、車線情報、車両位置精度データ、ブレーキシステム状態、車両安定システムの状態、および/または速度の変化率のうちの1つまたは複数に対応する、請求項1に記載のシステム。
  8. 前記1つまたは複数の回路は、前記捕捉された第1のセンサデータおよび前記抽出された前記第2のセンサデータに、前記ホーン音の前記検出に対応するメタデータをタグ付けするよう構成される、請求項7に記載のシステム。
  9. 前記1つまたは複数の回路は、前記第1の車両の前記1つまたは複数の制御システムの前記再較正のために、前記タグ付けされた前記捕捉された第1のセンサデータおよび前記タグ付けされた前記抽出された第2のセンサデータを利用するよう構成される、請求項8に記載のシステム。
  10. 前記1つまたは複数の回路は、前記第1の車両が自律モードで動作している場合に、前記第1の車両におけるホーンの自動適用のために前記第1の交通状況を識別するよう構成される、請求項1に記載のシステム。
  11. 車両を制御するためのシステムであって、前記システムは、
    第1の車両において使用される電子制御ユニット(ECU)内に1つまたは複数の回路を備え、前記1つまたは複数の回路が、
    前記第1の車両におけるホーンの適用を検出し、
    前記ホーンの前記検出された適用に基づいて前記第1の車両に関連する、前記第1の車両の近傍の第1の交通状況を示す第1のセンサデータを捕捉し、
    前記第1の車両における前記ホーンの前記適用に先立つ経過時間の間、前記第1の車両に関連する第2のセンサデータを抽出し、
    前記捕捉された第1のセンサデータおよび前記抽出された第2のセンサデータに基づいて、前記第1の車両と関連する1つまたは複数の機能を実行するために前記第1の車両の前記1つまたは複数の制御システムを再較正する、
    よう構成される、システム。
  12. 車両を制御する方法であって、前記方法は、
    第1の車両に使用される電子制御ユニット(ECU)によって、第2の車両から放射されたホーン音を検出するステップと、
    前記ECUによって、前記検出されたホーン音に基づいて前記第1の車両に関連する第1のセンサデータを捕捉するステップであって、前記捕捉された第1のセンサデータが前記第1の車両の近傍の第1の交通状況を示す、ステップと、
    前記ECUによって、前記ホーン音の前記検出に先立つ経過時間の間、前記第1の車両に関連する第2のセンサデータを抽出するステップと、
    前記ECUによって、前記捕捉された第1のセンサデータと前記抽出された第2のセンサデータとに基づいて、前記第1の車両に関連する1つまたは複数の機能を実行するよう前記第1の車両における1つまたは複数の制御システムを再較正するステップと、
    を備える、方法。
  13. 前記捕捉された第1のセンサデータに基づいて、前記第1の車両に対する前記第2の車両の位置および/または方向を判定するステップをさらに備える、請求項12に記載の方法。
  14. 前記1つまたは複数の機能は、車線の変更、速度の変更、車線変更指示の提供、1つまたは複数の他の車両からの安全距離の維持、ホーンの適用、ブレーキの適用、前記第1の車両の走行経路の変更、安全警報の生成、および/または交通規制の違反を回避するための前記1つまたは複数の機能の実行のうちの1つまたは複数に対応する、請求項12に記載の方法。
  15. 前記第1のセンサデータは、前記第1の交通状況のビデオストリーム、前記第1の車両の前記近傍の1台または複数台の接続された車両から受信された車両データ、ならびに/または電波ベースの物体検出装置もしくはレーザベースの物体検出装置から受信されるセンサデータの1つまたは複数に対応する、請求項12に記載の方法。
  16. 前記第2のセンサデータは、前記第1の車両の、操舵角、ヨーレート、速度値、車線情報、車両位置精度データ、ブレーキシステム状態、車両安定システムの状態、および/または速度の変化率のうちの1つまたは複数に対応する、請求項12に記載の方法。
  17. 前記捕捉された第1のセンサデータおよび前記抽出された前記第2のセンサデータに、前記ホーン音の前記検出に対応するメタデータをタグ付けするステップをさらに備える、請求項16に記載の方法。
  18. 前記第1の車両の前記1つまたは複数の制御システムの前記再較正のために、前記タグ付けされた前記捕捉された第1のセンサデータおよび前記タグ付けされた前記抽出された第2のセンサデータを利用するステップをさらに備える、請求項17に記載の方法。
  19. 前記第1の車両が自律モードで動作している場合に、前記第1の車両におけるホーンの自動適用のために前記第1の交通状況を識別するステップをさらに備える、請求項12に記載の方法。
  20. 車両であって、
    車体と、
    別の車両から放射されたホーン音を検出し、
    前記車両に関連する第1のセンサデータおよび第2のセンサデータを捕捉する、
    よう構成される1つまたは複数のセンサと、
    前記検出されたホーン音に基づいて前記車両と関連する、前記車両の近傍の第1の交通状況を示す、前記捕捉された第1のセンサデータを受信し、
    前記ホーン音の前記検出に先だって経過時間の間、前記車両と関連する前記捕捉された第2のセンサデータを受信し、
    前記受信した第1のセンサデータおよび前記受信した第2のセンサデータに基づいて前記車両と関連する1つまたは複数の機能を実行するために前記車両における1つまたは複数の制御システムを再較正する、
    よう構成される電子制御ユニットで使用される1つまたは複数の回路と、
    を備える、車両。
JP2018524859A 2015-12-31 2016-12-16 自動運転車のためのホーンの適応検出および適用のための方法およびシステム Active JP6724986B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/986,140 US9840254B2 (en) 2015-12-31 2015-12-31 Method and system for adaptive detection and application of horn for an autonomous vehicle
US14/986,140 2015-12-31
PCT/JP2016/087474 WO2017115666A1 (en) 2015-12-31 2016-12-16 Method and system for adaptive detection and application of horn for an autonomous vehicle

Publications (2)

Publication Number Publication Date
JP2019506324A true JP2019506324A (ja) 2019-03-07
JP6724986B2 JP6724986B2 (ja) 2020-07-15

Family

ID=57714639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018524859A Active JP6724986B2 (ja) 2015-12-31 2016-12-16 自動運転車のためのホーンの適応検出および適用のための方法およびシステム

Country Status (3)

Country Link
US (1) US9840254B2 (ja)
JP (1) JP6724986B2 (ja)
WO (1) WO2017115666A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023075881A (ja) * 2021-11-19 2023-05-31 財團法人工業技術研究院 安全車間距離推定システム及び推定方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11465640B2 (en) * 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
EP3825886A1 (en) 2012-03-29 2021-05-26 Arilou Information Security Technologies Ltd. Protecting a vehicle electronic system
US10176524B1 (en) 2015-10-26 2019-01-08 Allstate Insurance Company Vehicle-to-vehicle incident information collection
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US10747234B1 (en) 2016-01-22 2020-08-18 State Farm Mutual Automobile Insurance Company Method and system for enhancing the functionality of a vehicle
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
EP3208786B1 (en) * 2016-02-22 2023-06-07 Volvo Car Corporation Method and system for evaluating inter-vehicle traffic gaps and time instances to perform a lane change manoeuvre
DE102016208846B4 (de) * 2016-05-23 2020-03-12 Continental Teves Ag & Co. Ohg Kommunikationssystem für ein Fahrzeug
US10403141B2 (en) * 2016-08-19 2019-09-03 Sony Corporation System and method for processing traffic sound data to provide driver assistance
US20180105182A1 (en) * 2016-10-13 2018-04-19 Toyota Jidosha Kabushiki Kaisha Method and system to improve sensor accuracy for adas systems using geographical information
JP6500887B2 (ja) * 2016-12-26 2019-04-17 トヨタ自動車株式会社 車両用注意喚起装置
US10380886B2 (en) 2017-05-17 2019-08-13 Cavh Llc Connected automated vehicle highway systems and methods
US9919560B1 (en) * 2017-01-31 2018-03-20 International Business Machines Corporation Adaptive horn honking which can learn the effectiveness of a honking action
WO2018189843A1 (ja) * 2017-04-12 2018-10-18 日産自動車株式会社 運転制御方法及び運転制御装置
US10567923B2 (en) * 2017-07-07 2020-02-18 Toyota Jidosha Kabushiki Kaisha Computation service for mobile nodes in a roadway environment
US10585433B2 (en) * 2017-08-28 2020-03-10 Ford Global Technologies, Llc Methods and apparatus for automotive drive mode selection
US10591313B2 (en) * 2017-09-29 2020-03-17 Intel Corporation Detecting mobile device sensor malfunctions
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7037980B2 (ja) * 2018-03-28 2022-03-17 フォルシアクラリオン・エレクトロニクス株式会社 自動運転制御装置
JP7107125B2 (ja) * 2018-09-19 2022-07-27 トヨタ自動車株式会社 車両制御装置
US11068724B2 (en) * 2018-10-11 2021-07-20 Baidu Usa Llc Deep learning continuous lane lines detection system for autonomous vehicles
CN109738904A (zh) * 2018-12-11 2019-05-10 北京百度网讯科技有限公司 一种障碍物检测的方法、装置、设备和计算机存储介质
CN109637148B (zh) * 2018-12-14 2021-03-02 上海集成电路研发中心有限公司 车载鸣笛监控***、方法、存储介质及设备
JP7148436B2 (ja) * 2019-02-28 2022-10-05 株式会社日立製作所 サーバ、車両管制システム
US11117591B2 (en) 2019-05-08 2021-09-14 Pony Ai Inc. System and method for recalibration of an uncalibrated sensor
KR20200143965A (ko) * 2019-06-17 2020-12-28 현대자동차주식회사 음향 통신 시스템 및 그의 데이터 송수신 방법
CN112526678B (zh) 2019-09-17 2022-05-24 华为技术有限公司 一种光谱处理装置以及可重构光分插复用器
DE102019214999A1 (de) * 2019-09-30 2021-04-01 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Unterstützungssignals und/oder eines Ansteuerungssignals für ein zumindest teilautomatisiertes Fahrzeug
WO2021076929A1 (en) * 2019-10-18 2021-04-22 Zenosol, Corp. Uni-body multimodal mobility chassis and autonomous vehicle system
US11702005B2 (en) * 2020-05-21 2023-07-18 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive vehicle horn
US11958505B2 (en) 2020-07-21 2024-04-16 Waymo Llc Identifying the position of a horn honk or other acoustical information using multiple autonomous vehicles
US11550851B1 (en) * 2022-02-10 2023-01-10 Motional Ad Llc Vehicle scenario mining for machine learning models

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
DE102013004271A1 (de) * 2013-03-13 2013-09-19 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
JP2016509971A (ja) * 2013-02-21 2016-04-04 グーグル インコーポレイテッド 運転モード調整

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8996240B2 (en) * 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
US7512487B1 (en) * 2006-11-02 2009-03-31 Google Inc. Adaptive and personalized navigation system
US7791499B2 (en) * 2008-01-15 2010-09-07 Qnx Software Systems Co. Dynamic siren detection and notification system
US8976040B2 (en) * 2012-02-16 2015-03-10 Bianca RAY AVALANI Intelligent driver assist system based on multimodal sensor fusion
US20140195071A1 (en) 2012-03-14 2014-07-10 Zonar Systems, Inc. Emergency event based vehicle data logging
US8457827B1 (en) 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
US8676427B1 (en) * 2012-10-11 2014-03-18 Google Inc. Controlling autonomous vehicle using audio data
US8849557B1 (en) * 2012-11-15 2014-09-30 Google Inc. Leveraging of behavior of vehicles to detect likely presence of an emergency vehicle
US9020696B2 (en) * 2013-06-25 2015-04-28 Create Electronic Optical Co., Ltd. Event data recorder having traffic monitoring and warning function within safe range
US9304515B2 (en) * 2014-04-24 2016-04-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Regional operation modes for autonomous vehicles
US9855890B2 (en) * 2014-12-11 2018-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle interaction with external environment
US9390452B1 (en) * 2015-01-28 2016-07-12 Allstate Insurance Company Risk unit based policies
US20160286156A1 (en) * 2015-02-12 2016-09-29 Creative Law Enforcement Resources, Inc. System for managing information related to recordings from video/audio recording devices
JP6323385B2 (ja) * 2015-04-20 2018-05-16 トヨタ自動車株式会社 車両走行制御装置
US9666067B1 (en) * 2016-08-30 2017-05-30 Allstate Insurance Company Vehicle turn detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP2016509971A (ja) * 2013-02-21 2016-04-04 グーグル インコーポレイテッド 運転モード調整
DE102013004271A1 (de) * 2013-03-13 2013-09-19 Daimler Ag Verfahren und Vorrichtung zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023075881A (ja) * 2021-11-19 2023-05-31 財團法人工業技術研究院 安全車間距離推定システム及び推定方法
JP7341214B2 (ja) 2021-11-19 2023-09-08 財團法人工業技術研究院 安全車間距離推定システム及び推定方法
US11891063B2 (en) 2021-11-19 2024-02-06 Industrial Technology Research Institute Safe following distance estimation system and estimation method thereof

Also Published As

Publication number Publication date
JP6724986B2 (ja) 2020-07-15
WO2017115666A1 (en) 2017-07-06
US9840254B2 (en) 2017-12-12
US20170190331A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6724986B2 (ja) 自動運転車のためのホーンの適応検出および適用のための方法およびシステム
US10403141B2 (en) System and method for processing traffic sound data to provide driver assistance
US11780457B2 (en) System and method for providing driving assistance to safely overtake a vehicle
US10518698B2 (en) System and method for generating a parking alert
CN106564494B (zh) 用于控制具有自动驾驶***的车辆的方法和***
JP7263233B2 (ja) 車両衝突を検出するための方法、システム及びプログラム
US10843693B2 (en) System and method for rear collision avoidance
US10347132B1 (en) Adjacent pedestrian collision mitigation
KR102492637B1 (ko) 주행 성향 분석 방법, 주행 성향 분석 장치 및 차량 제어 시스템
KR102614325B1 (ko) 차량의 사고 이벤트를 분석하기 위한 전자 장치 및 그 동작방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R151 Written notification of patent or utility model registration

Ref document number: 6724986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151