JP7316394B2 - 自律走行車両を利用するモデル訓練及び車中検証のためのオーディオロギング - Google Patents

自律走行車両を利用するモデル訓練及び車中検証のためのオーディオロギング Download PDF

Info

Publication number
JP7316394B2
JP7316394B2 JP2022002306A JP2022002306A JP7316394B2 JP 7316394 B2 JP7316394 B2 JP 7316394B2 JP 2022002306 A JP2022002306 A JP 2022002306A JP 2022002306 A JP2022002306 A JP 2022002306A JP 7316394 B2 JP7316394 B2 JP 7316394B2
Authority
JP
Japan
Prior art keywords
audio
adv
labeled
audio samples
obstacles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022002306A
Other languages
English (en)
Other versions
JP2022058556A (ja
Inventor
チー・ルオ
ケチェン・シュウ
ホンイー・スン
ウェスリー・レイノルズ
ゼジュン・リン
ウェイ・ワン
ユー・ツァオ
ウェイマン・リン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2022058556A publication Critical patent/JP2022058556A/ja
Application granted granted Critical
Publication of JP7316394B2 publication Critical patent/JP7316394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/005Sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Pure & Applied Mathematics (AREA)
  • Emergency Management (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本開示の実施形態は、一般に、自律走行車両を操作することに関する。より詳細には、本開示の実施形態は、自律走行車両を利用するモデル訓練及び車中検証(onboard validation)のためのオーディオロギング(audio logging)に関する。
自律モード(例えば、ドライバーレス)で動作する車両は、乗員、特に運転者の、運転に関連する責任の一部を軽減することができる。自律モードで動作すると、車両は、オンボードセンサを用いて様々な場所を運行することができ、人間の干渉を最小限にして、ある場合には、乗員がいない状態で、車両を走行させることができる。
動作計画及び制御は、自律走行において重要なオペレーションである。しかし、従来の動作計画オペレーションでは、各種タイプの車両についての特徴の違いを考慮せずに、所定の経路を完了させることは、主にその曲率及び速度から困難であると考えられる。同一の動作計画及び制御があらゆるタイプの車両に適用されているが、ある状況下では、正確さを欠き、スムーズでない場合がある。
更に、動作計画及び制御のオペレーションは、通常、周囲の障害物又は物体を感知すること、及び走行環境における音源を聴くこと又は検出することを必要とする。したがって、機械学習モデル用にデータを訓練及び試験するために、障害物の特定及び音源の特定は、データ(例えば、検知データ)のラベル付けを必要とする。
残念なことに、データラベリングは、人間によって手動で行われ、人間であるが故に生じる瑕疵のために、手動でラベル付けされたデータは、あまり正確でなく、このことが後に、モデルの正確度に影響を及ぼすことがある。
本開示の実施形態は、一例として記載され、添付図面の図に限定されない。添付図面において、同一の参照番号は同様の要素を示す。
本開示の一態様は、自律走行車両(ADV)が走行環境内を動作している間、前記ADVを利用して、ラベル付けされたオーディオデータと、前記ラベル付けされたオーディオデータの車中検証とを生成する方法であって、前記ADVの前記走行環境内の物体によって発せられた音を記録し、記録された前記音をオーディオサンプルに変換すること、前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングして、前記ADVの自律走行中に音源を認識する機械学習アルゴリズムを、後に訓練するために利用されるリファイニングされたラベル付け後のオーディオデータを作成することと、少なくとも前記オーディオサンプル並びに前記ADVの感知システムによってそれぞれ決定される前記物体の位置及び前記物体の相対方向に基づいて、前記リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することとを含む。
図1は、一実施形態に係るネットワークシステムを示すブロック図である。
図2は、一実施形態に係る自律走行車両(ADV)の例を示すブロック図である。
図3Aは、一実施形態に係る自律走行車両で用いられる自律走行システムの例を示すブロック図である。 図3Bは、一実施形態に係る自律走行車両で用いられる自律走行システムの例を示すブロック図である。
図4は、一実施形態に係る自律走行車両を用いるオーディオロギング及び車中検証のためのシステムを示すブロック図である。
図5は、一実施形態に係るオーディオロギング及び車中検証のためのシステムを用いた例示的な走行シナリオを示す図である。
図6は、一実施形態に係るラベル付けされたオーディオデータを生成する方法及びラベル付けされたオーディオデータの車中検証のフロー図である。
図7は、一実施形態に係るラベル付けされたオーディオデータの車中検証の方法のフロー図である。
詳細な説明
本開示の様々な実施形態及び態様は、以下で論じられる詳細を参照して説明され、添付図面は、これらの様々な実施形態を示す。以下の説明及び図面は、本開示の例示であって、本開示を限定するものと解釈されるべきではない。多くの具体的な詳細が、本開示の様々な実施形態の十分な理解を提供するために記載される。しかし、特定の例において、本開示の実施形態の簡潔な議論を提供するために、周知の又は従来の詳細は記載しない。
本明細書における「一実施形態」又は「実施形態」の表現は、実施形態に関連して説明される具体的な特徴、構造、又は特性が、本開示の少なくとも1つの実施形態に含まれ得ることを意味する。本明細書の様々な箇所にみられる「一実施形態では」という表現は、必ずしも全てが同一の実施形態を意味するとは限らない。
一態様によれば、自律走行車両(ADV)が走行環境内を動作している間、前記ADVを利用して、ラベル付けされたオーディオデータと、前記ラベル付けされたオーディオデータの車中検証とを生成する方法が記載される。前記方法は、前記ADVの前記走行環境内の物体によって発せられた音を記録することと、記録された前記音をオーディオサンプルに変換することとを含む。前記方法は、更に、前記オーディオサンプルをラベル付けすることと、ラベル付けされた前記オーディオサンプルをリファイニングして、リファイニングされたラベル付け後のオーディオデータを作成することとを含む。前記ADVの自律走行中の音源を認識する機械学習アルゴリズムを、後に訓練するために、前記リファイニングされたラベル付け後のオーディオデータが利用される。前記方法は、更に、少なくとも前記オーディオサンプル、前記物体の位置、及び前記物体の相対方向に基づいて、前記リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することを含む。前記物体の位置及び前記物体の相対方向は、前記ADVの感知システムによって決定される。
別の態様によれば、自律走行車両(ADV)が走行環境内を動作している間、前記ADVを利用して、ラベル付けされたオーディオデータの車中検証のための方法が記載される。前記方法は、前記ADVの前記走行環境内の障害物によって発せられた音を記録し、オーディオサンプルを作成することを含む。前記方法は、更に、前記ADVの視覚センサによって提供される検知データに基づいて、前記障害物の位置と、前記障害物の相対方向とを決定することを含む。前記方法は、更に、前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することを含む。前記リファイニングされたラベル付け後のオーディオデータは、前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングすることによって生成される。前記リファイニングされたラベル付け後のオーディオデータは、また、前記ADVの自律走行中の音源を認識する機械学習アルゴリズムを、後に訓練するために利用される。
図1は、本開示の一実施形態に係る自律走行ネットワーク構成を示すブロック図である。図1を参照すると、ネットワーク構成100は、ネットワーク102を介して、1以上のサーバ103~104に通信可能に接続され得る自律走行車両(ADV)101を含む。1つのADVが図示されているが、複数のADVを相互に接続することができ、及び/又はネットワーク102を介して、サーバ103~104に接続することができる。ネットワーク102は、任意のタイプのネットワークであることができ、例えば、ローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、セルラーネットワーク、サテライトネットワーク、又はそれらの有線若しくは無線での組合せが挙げられる。サーバ103~104は、任意の種類のサーバ又は一群のサーバであることができ、例えば、Web又はクラウドサーバ、アプリケーションサーバ、バックエンドサーバ、又はそれらの組合せが挙げられる。サーバ103~104は、データアナリティクスサーバ、コンテンツサーバ、交通情報サーバ、マップ及び関心のある地点(map and point of interest)(MPOI)サーバ、又はロケーションサーバなどであることができる。
ADVは、自律モードで走行するように構成することができる車両を意味し、自律モードでは、前記車両は、運転者からの入力が殆どない又は全くない状態で、環境を運行する。係るADVは、車両が走行する環境に関する情報を検出するように構成された1以上のセンサを有する検知システムを含むことができる。前記車両及びその関連するコントローラは、検出された情報を用いて、環境を運行する。ADV101は、マニュアルモード、完全自律モード、又は一部自律モードで運行することができる。
一実施形態では、ADV101は、自律走行システム(ADS)110、車両制御システム111、無線通信システム112、ユーザインターフェースシステム113、及び検知システム115を含むが、これらに限定されない。ADV101は、更に、通常車両に含まれる特定の共通コンポーネント、例えば、エンジン、ホイール、ステアリングホイール、トランミッションなどを含むことができ、これらは、各種の通信信号及び/又は命令、例えば、加速信号又は命令、減速信号又は命令、ステアリング信号又は命令、ブレーキ信号又は命令などを用いて、車両制御システム111及び/又はADS110によって制御することができる。
コンポーネント110~113及び115は、インターコネクト、バス、ネットワーク、又はそれらの組合せを介して、通信可能に相互接続できる。例えば、コンポーネント110~113及び115は、コントローラエリアネットワーク(CAN)バスを介して、通信可能に相互接続できる。CANバスは、マイクロコントローラ及びデバイスが、ホストコンピュータがない各種用途で相互通信できるように設計された車両バススタンダードである。これは、メッセージベースのプロトコルであり、元来、自動車内部の多重電気配線用に設計されたが、その他の多くの用途でも用いられる。
続いて図2を参照すると、一実施形態では、検知システム115は、1以上のカメラ211、グローバル・ポジショニング・システム(GPS)ユニット212、慣性計測ユニット(IMU)213、レーダユニット214、及び光による検知と測距(LIDAR)ユニット215を含むが、これらに限定されない。GPSシステム212は、ADVの位置に関する情報を提供するように動作可能なトランシーバを含むことができる。慣性計測ユニット(IMU)213は、慣性加速度に基づいて、ADVの位置及び向きの変化を検知することができる。レーダユニット214は、無線信号を利用して、ADVの局所環境内の物体を検知するシステムを表し得る。いくつかの実施形態では、物体を検知することに加えて、レーダユニット214は、更に、物体の速度及び/又は進行を検知することができる。LIDARユニット215は、レーザを用いて、ADVが位置する環境内の物体を検知することができる。LIDARユニット215は、他のシステムコンポーネントの中でも、1以上のレーザ源、レーザスキャナ、及び1以上の検出器を含み得る。カメラ211は、ADVの周囲環境の画像を捕捉する1以上の装置を含むことができる。カメラ211は、スチルカメラ及び/又はビデオカメラであることができる。カメラは、例えば、回転及び/又は傾斜プラットフォームに搭載することによって、機械的に可動とすることができる。
検知システム115は、更に、他のセンサ、例えば、ソナーセンサ、赤外センサ、ステアリングセンサ、スロットルセンサ、ブレーキセンサ、及びオーディオセンサ(例えば、マイクロフォン)などを含むことができる。オーディオセンサは、ADVの周囲環境の音を捕捉するように構成することができる。ステアリングセンサは、ステアリングホイールのステアリング角度、車両のホイール、又はこれらの組合せを検知するように構成することができる。スロットルセンサ及びブレーキセンサは、車両のスロットル位置及びブレーキ位置をそれぞれ検知する。いくつかの状況では、スロットルセンサ及びブレーキセンサは、一体型スロットル/ブレーキセンサとして統合することができる。
一実施形態では、車両制御システム111は、ステアリングユニット201、スロットルユニット202(加速ユニットとも称される)、及びブレーキユニット203を含むが、これらに限定されない。ステアリングユニット201は、車両の方向又は進行を調節する。スロットルユニット202は、モータ又はエンジンの速度を制御し、延いては、車両の速度及び加速度を制御する。ブレーキユニット203は、摩擦を与えて、車両のホイール又はタイヤの動きを緩めることによって、車両を減速させる。なお、図2に示される各コンポーネントは、ハードウェア、ソフトウェア、又はこれらの組合せで実行させることができる。
図1を再度参照すると、無線通信システム112は、ADV101と、外部システム、例えば、デバイス、センサ、他の車両などとの間の通信を可能にする。例えば、無線通信システム112は、1以上のデバイスと直接、又は通信ネットワーク、例えば、ネットワーク102を介するサーバ103~104などを介して無線通信することができる。無線通信システム112は、任意のセルラー通信ネットワーク、又は例えばWiFiを用いる無線ローカルエリアネットワーク(WLAN)を用いて、別のコンポーネント又はシステムと通信することができる。無線通信システム112は、例えば、赤外リンク、Bluetoothなどを用いて、装置(例えば、自律走行車両101内の乗員のモバイル装置、表示装置、スピーカ)と直接通信することができる。ユーザインターフェースシステム113は、自律走行車両101内に実装される周辺装置の一部であることができ、例えば、キーボード、タッチスクリーンディスプレイ装置、マイクロフォン、及びスピーカなどが挙げられる。
ADV101の機能の一部又は全部を、特に、自律走行モードで運行するときに、感知及びADS110によって制御又は管理することができる。ADS110は、必要なハードウェア(例えば、プロセッサ、メモリ、ストレージ)及びソフトウェア(例えば、オペレーティングシステム、計画及びルーティングプログラム)を含み、検知システム115、車両制御システム111、無線通信システム112、及び/又はユーザインターフェースシステム113から情報を受け取り、受け取った情報を処理し、出発点から目的地点までのルート又は経路を計画し、次いで、計画及び制御情報に基づいて自律走行車両101を走行させる。或いは、ADS110を、車両制御システム111と統合させてもよい。
例えば、乗員としてのユーザが、移動の出発地と目的地を、例えば、ユーザインターフェースを介して指定することができる。ADS110は、移動に関連するデータを取得する。例えば、ADS110は、サーバ103~104の一部であり得るMPOIサーバからロケーション及びルートデータを取得することができる。ロケーションサーバは、ロケーションサービスを提供し、MPOIサーバは、マップサービス及び特定の場所のPOIを提供する。或いは、係るロケーション及びMPOI情報を、ADS110の永久記憶装置にローカルで記憶させてもよい。
ADV101がルートに沿って移動している間、ADS110は、また、交通情報システム又はサーバ(TIS)からリアルタイムの交通情報を取得することができる。なお、サーバ103~104は、第三者によって操作されてもよい。或いは、サーバ103~104の機能を、ADS110と統合することができる。リアルタイムの交通情報、MPOI情報、及びロケーション情報、並びに検知システム115によって検出又は検知されるリアルタイムのローカル環境データ(例えば、障害物、物体、近くの車両)に基づいて、ADS110は、最適なルートを計画することができ、自律走行車両101を、例えば、車両制御システム111を介して、計画されたルートにしたがって走行させ、指定された目的地に安全且つ効率的に到達させることができる。
サーバ103は、様々なクライアントのためにデータアナリティクスサービスを行うデータアナリティクスシステムであることができる。一実施形態では、データアナリティクスシステム103は、機械学習エンジン122を含む。リファイニングされたラベル付け後のオーディオデータ126(以下、より詳細に記載される)に基づいて、機械学習エンジン122は、各種目的のために、例えば、動作計画及び制御のための音源の認識のために、一組のルール、アルゴリズム、及び/又は予測モデル124を生成又は訓練する。次いで、アルゴリズム124をADVにアップロードして、自律走行中にリアルタイムで利用することができる。以下、より詳細に記載されるように、リファイニングされたラベル付け後のオーディオデータ126は、音源のオーディオサンプル、前記音源の1以上の位置、前記音源の方向、オーディオサンプル識別子(ID)などを含むことができるが、これらに限定されない。
図3A及び図3Bは、一実施形態に係るADVで使用される自律走行システムの例を示すブロック図である。システム300は、図1のADV101の一部として実行させることができ、ADS110、車両制御システム111、及び検知システム115を含むが、これらに限定されない。図3A及び図3Bを参照すると、ADS110は、ローカリゼーションモジュール301、感知モジュール302、予測モジュール303、決定モジュール304、計画モジュール305、制御モジュール306、ルート決定モジュール307、オーディオレコーダ308、オーディオデータラベリングモジュール309、自動リファイニングモジュール310、及びプロファイリングモジュール311を含むが、これらに限定されない。
モジュール301~311の一部又は全部を、ソフトウェア、ハードウェア、又はこれらの組合せで実行させることができる。例えば、これらのモジュールを、永久記憶装置352にインストールし、メモリ351にロードし、1以上のプロセッサ(図示せず)によって実行させることができる。なお、これらのモジュールの一部又は全部を、図2の車両制御システム111の一部又は全部のモジュールに通信可能に接続又は統合することができる。モジュール301~311の一部は、統合モジュールとして互いに統合することができる。
ローカリゼーションモジュール301は、ADV300の現在地を特定し(例えば、レバレッジングGPSユニット212)、ユーザの移動又はルートに関連するデータを管理する。ローカリゼーションモジュール301(マップ及びルートモジュールとも称される)は、ユーザの移動又はルートに関連するデータを管理する。ユーザは、ログインし、例えば、ユーザインターフェースを介して、移動の出発地と目的地を指定することができる。ローカリゼーションモジュール301は、ADV300の他のコンポーネント、例えば、マップ及びルートデータ311と通信して、移動に関連するデータを取得する。例えば、ローカリゼーションモジュール301は、ロケーションサーバ、並びにマップ及びPOI(MPOI)サーバからロケーション及びルートデータを取得することができる。ロケーションサーバは、ロケーションサービスを提供し、MPOIサーバは、マップサービス及び特定の場所のPOIを提供し、これらを、マップ及びルートデータ311の一部として記憶させてもよい。ADV300がルートに沿って移動している間、ローカリゼーションモジュール301は、また、交通情報システム又はサーバからリアルタイムの交通情報を取得することができる。
検知システム115によって提供された検知データ及びローカリゼーションモジュール301によって得られたローカリゼーション情報に基づき、周囲環境の感知が、感知モジュール302によって決定される。感知情報は、通常の運転者が感知するであろう、運転車両の周囲のものを表し得る。感知は、車線構成、交通信号機、別車両の相対位置、歩行者、建造物、横断歩道、又は他の交通に関する標識(例えば、停止の標識、道を譲れの標識)などを、例えば、物体の形態で含むことができる。車線構成は、1以上の車線を記述する情報、例えば、車線の形状(例えば、直線又は曲率)、車線の幅、1つの道路にいくつの車線があるか、一方通行又は対面通行の車線、合流又は分岐車線、出口車線などを含む。
感知モジュール302は、ADV101の環境における物体及び/又は特徴を特定するために、コンピュータビジョンシステム又はコンピュータビジョンシステムの機能を含み、1以上のカメラによって捕捉された画像を処理及び分析することができる。前記物体は、交通信号、車道の境界、他の車両、歩行者、及び/又は障害物などを含むことができる。コンピュータビジョンシステムは、物体認識アルゴリズム、ビデオトラッキング、及び他のコンピュータビジョン技術を用いることができる。いくつかの実施形態では、コンピュータビジョンシステムは、環境のマッピング、物体の追跡、物体の速度の推定などを行うことができる。感知モジュール302は、また、レーダ及び/又はLIDARなどの他のセンサによって提供された他の検知データに基づき、物体を検出することができる。
各物体について、予測モジュール303は、状況下で、物体がどのように振る舞うかを予測する。予測は、感知データに基づいて行われ、一組のマップ/ルート情報311及び交通ルール312を考慮して、特定の時点における走行環境を感知する。例えば、物体が対向方向の車両であり、現在の走行環境が交差点を含む場合、予測モジュール303は、その車両が、直進するか曲がるかを予測する。感知データが、交差点に交通信号機がないことを示す場合、予測モジュール303は、その車両が、交差点の前で完全に停止する必要があり得ることを予測することができる。感知データが、その車両が、現在、左折のみの車線又は右折のみの車線を走行していることを示す場合、予測モジュール303は、その車両が、左折するか右折するかを予測することができる。
各物体について、決定モジュール304は、物体の扱い方に関する決定を行う。例えば、特定の物体(例えば、交差ルートにおける別車両)及び物体を記述するそのメタデータ(例えば、速度、方向、曲がり角度)について、決定モジュール304は、物体との遭遇の仕方(例えば、追い越し、道路の譲り、停止、通過)を決定する。決定モジュール304は、係る決定を一組のルール、例えば、交通ルール又は走行ルール312にしたがって行うことができ、これらを、永久記憶装置352に記憶することができる。
ルート決定モジュール307は、出発地点から目的地点までの1以上のルート又は経路を提供するように構成される。例えば、ユーザから受け取った出発地から目的地までの所定の移動について、ルート決定モジュール307は、ルート及びマップ情報311を取得し、出発地から目的地に到達するまでの全ての可能なルート又は経路を決定する。ルート決定モジュール307は、出発地から目的地に到達するまでの、ルート決定モジュール307が決定するルートのそれぞれについて、地形図の形態で参照線を生成することができる。参照線は、他の車両、障害物、又は交通状況などの他のものからの干渉がない理想的なルート又は経路を意味する。即ち、他の車両、歩行者、又は障害物が道路上にない場合、ADVは、参照線に対して正確に又は参照線の近くを沿って走行する。次いで、地形図は、決定モジュール304及び/又は計画モジュール305に提供される。決定モジュール304及び/又は計画モジュール305は、可能なルートの全てを調べ、他のモジュールによって提供される他のデータ、例えば、ローカリゼーションモジュール301からの交通状況、感知モジュール302によって感知される走行環境、及び予測モジュール303によって予測される交通状況などを考慮して、最も適切なルートのうちの1つを選択且つ修正する。ADVを制御するための実際の経路又はルートは、特定の時点での具体的な走行環境に応じて、ルート決定モジュール307によって提供される参照線に近くてもよいし、それと異なっていてもよい。
感知された物体のそれぞれについての決定に基づいて、計画モジュール305は、ルート決定モジュール307によって提供された参照線を基準として用いて、ADVの経路又はルート、及び走行パラメータ(例えば、距離、速度、及び/又は曲がり角度)を計画する。即ち、所定の物体について、決定モジュール304は、物体に対してすべきことを決定し、一方、計画モジュール305は、それをどのようにすべきかを決定する。例えば、所定の物体について、決定モジュール304は、物体を通り過ぎることを決定することができ、一方、計画モジュール305は、物体の左右いずれの側で通り過ぎるべきかを決定することができる。計画及び制御データは、計画モジュール305によって生成され、車両300が、どのように次の移動サイクル(例えば、次のルート/経路セグメント)に移るかを記述する情報を含む。例えば、計画及び制御データは、車両300に対して、1時間当たり30マイル(mph)の速度で10メートル移動し、次いで、25mphの速度で右側車線に変更するように命令できる。
計画及び制御データに基づき、制御モジュール306は、適切な命令又は信号を車両制御システム111に送信することにより、計画及び制御データによって決められたルート又は経路にしたがって、ADVを制御し走行させる。計画及び制御データは、ルート又は経路に沿った様々な時点での適切な車両条件又は走行パラメータ(例えば、スロットル、ブレーキ、ステアリングの各命令)を用いて、ルート又は経路の第1の地点から第2の地点に車両を走行させるのに十分な情報を含む。
一実施形態では、計画フェーズは、走行サイクルとも称されるいくつかの計画サイクルで行われ、例えば、100ミリ秒(ms)間隔で毎回行われる。計画サイクル又は走行サイクルのそれぞれについて、1以上の制御命令が、計画及び制御データに基づいて発せられる。即ち、100msごとに、計画モジュール305は、次のルートセグメント又は経路セグメントを計画する。これは、例えば、目的位置、及びADVが前記目的位置に到達するのに要する時間を含む。或いは、計画モジュール305は、更に、具体的な速度、方向、及び/又はステアリング角度などを特定することができる。一実施形態では、計画モジュール305は、次の所定時間、例えば5秒間で、ルートセグメント又は経路セグメントを計画する。各計画サイクルについて、計画モジュール305は、現在のサイクル(例えば、次の5秒間)の目的位置を、前回のサイクルで計画された目的位置に基づいて計画する。次いで、制御モジュール306は、現在のサイクルの計画及び制御データに基づいて、1以上の制御命令(例えば、スロットル、ブレーキ、ステアリングの各制御命令)を生成する。
なお、決定モジュール304及び計画モジュール305は、統合モジュールとして統合することができる。決定モジュール304/計画モジュール305は、運行システム又は運行システムの機能を含み、ADV用の走行経路を決定することができる。例えば、運行システムは、感知された障害物を実質的に回避する経路に沿ったADVの移動に影響する一連の速度及び進行方向を決定することができ、一般に、最終目的地に至る車道ベースの経路に沿ってADVを進める。目的地は、ユーザインターフェースシステム113を介するユーザの入力にしたがって設定することができる。運行システムは、ADVの動作中に、走行経路を動的にアップデートすることができる。運行システムは、ADV用の走行経路を決定するように、GPSシステム及び1以上のマップからのデータを取り込むことができる。
一実施形態に係る自律走行車両を用いるオーディオロギング及び車中検証のためのシステムを示すブロック図である図4を更に参照すると、オーディオレコーダ308は、検知システム115からのオーディオセンサ411(例えば、マイクロフォン)と通信し、ADVを取り巻く環境から音を記録又は捕捉することができる。例えば、ADVのユーザは、ユーザインターフェースシステム113を介してオーディオレコーダ308を起動する(電源を入れる)ことができ、オーディオレコーダ308を起動するユーザの入力に応答して、オーディオレコーダ308は、ADVの走行環境内の障害物(例えば、警察車両、救急車、消防車などの緊急車両)によって発せられた音(例えば、サイレン音)を記録し、それを、オーディオサンプル/イベント313(例えば、好適なフォーマットのオーディオファイル)に変換することができる。十分なオーディオデータが記録される(例えば、特定のデータサイズ又は経過時間に到達する)と、ユーザは、オーディオレコーダ308を停止する(電源を切る)ことができ、オーディオサンプル/イベント313を永久記憶装置352に記憶させることができる。
捕捉又は記録されたオーディオサンプル313を用いて、ユーザは、オーディオデータラベリングモジュール309(例えば、データラベリングツールアプリケーション)を呼び出して、オーディオサンプル313を手動でラベル付けすることができる。例えば、オーディオデータラベリングモジュール309を用いて、オーディオサンプル313に、オーディオサンプルID、オーディオサンプル313に関連する1以上の位置(例えば、音源又は障害物の位置)、オーディオサンプル313に関連する方向(例えば、音源又は障害物の相対方向)などでタグを付ける又はラベル付けして、ラベル付けされたオーディオデータ314を作成することができ、これを、永久記憶装置352又はリモートサーバ(例えば、サーバ103)に記憶することができる。したがって、ラベル付けされたオーディオデータ314は、オーディオサンプル313、オーディオサンプルID、オーディオサンプル313に関連する1以上の位置、オーディオサンプル313に関連する方向などを含むことができる。自動リファイニングモジュール310は、機械学習用のラベル付けされたオーディオデータ314を自動的にリファイニングすることができる。即ち、ラベル付けされたオーディオデータ314は、機械学習モデルに入れることができるようになる前に、リファイニングし、使用可能なフォーマットに規格化する必要がある場合がある。例えば、モジュール310は、音源の位置及び/又は方向をリファイニングするために、障害物のクロッピング及び/又は回転を行い、リファイニングされたラベル付け後のオーディオデータ126を作成することができ、これを、永久記憶装置352にローカルで記憶させる及び/又はリモートサーバ(例えば、サーバ103)にアップロードすることができる。したがって、リファイニングされたラベル付け後のオーディオデータ126は、オーディオサンプル313、オーディオサンプルID、オーディオサンプル313に関連するリファイニングされた位置、及び/又はオーディオサンプル313に関連するリファイニングされた方向を含むことができる。オーディオデータ126は、移動計画及び制御のためなど各種目的のために、ルール、アルゴリズム、及び/又は予測モデル124を生成又は訓練する機械学習エンジン122への入力として用いることができる。
同時に、オーディオサンプル/イベント313及びリファイニングされたラベル付け後のオーディオデータ126を、プロファイリングモジュール311に与えて、オンライン性能用の性能プロファイル315を生成することができる。例えば、プロファイリングモジュール311は、感知モジュール302と通信及び/又は動作して、音源(又は障害物)の1以上の位置及び相対方向を決定及び捕捉することができる。図4に示されるように、感知モジュール302は、検知システム115からの1以上の視覚センサ(例えば、レーダ、カメラ、及び/又はLIDAR)と通信して、様々な時点で視覚センサ412によって提供されるセンサに基づき、物体又は障害物を検出することができる。これらの検知データを用いて、感知モジュール302は、任意の時点で物体のリアルタイムでの相対位置及び方向を決定することができる。物体の相対位置及び方向並びに入力されたオーディオサンプル313に基づいて、プロファイリングモジュール311は、リファイニングされたラベル付け後のオーディオデータ126のオンライン性能を、感知モジュール302によって感知される走行環境に関連するリアルタイム情報(例えば、障害物の位置及び方向)に対してプロファイリング又は検証し、性能プロファイル315を生成することができる。即ち、プロファイリングモジュール311は、物体の相対位置及び方向並びに入力されたオーディオサンプル313を、リファイニングされたラベル付け後のオーディオデータ126を比較及び評価するための参照情報として用いることができる。リファイニングされたラベル付け後のオーディオデータ126のプロファイリングされた性能は、性能プロファイル315の一部として記憶させることができ、これを、永久記憶装置352にローカルで記憶させることができる。
図5は、一実施形態に係るオーディオロギング及び車中検証のためのシステムを用いた例示的な走行シナリオを示す図である。図5を参照すると、ADV101がロートを沿って走行している間、オーディオセンサ411(例えば、マイクロフォン)が、緊急車両501(例えば、警察車両、救急車、消防車など)からのサイレン音511を検出し、サイレン音511をオーディオサンプル/イベントとして記録することができる。したがって、緊急車両501は、サイレン音511を発する音源である。
記録されたオーディオサンプル/イベントを、オーディオサンプルID、オーディオサンプルに関連する1以上の位置(例えば、緊急車両501の位置)、オーディオサンプルに関連する方向(例えば、緊急車両501の相対方向)などで、(例えば、データラベリングアプリケーションを用いて)手動でラベル付けすることができる。前記したように、次いで、ラベル付けされたオーディオデータを、機械学習モデルに入れることができるようになる前に、リファイニングし、使用可能なフォーマットに規格化することができる。例えば、ラベル付けされたオーディオデータをリファイニングするために、障害物クロッピング及び/又は回転を行い、オーディオサンプルに関連する位置及び/又は方向をリファイニングすることができる。続いて、リファイニングされたラベル付け後のオーディオデータを、移動計画及び制御のためなど各種目的のために、一組のルール、アルゴリズム、及び/又は予測モデル124を生成又は訓練する機械学習エンジンに入れることができる。
同時に、記録されたオーディオサンプル/イベントは、プロファイリングシステム(例えば、図4のプロファイリングモジュール311)に提供され、リファイニングされたラベル付け後のオーディオデータの性能をリアルタイムの視覚検知データに対してpロファイリング又は分析することができる。例えば、ADV101がルートに沿って走行している間、視覚センサ412(例えば、カメラ、レーダ、LIDAR)は、ADV101の走行環境内の緊急車両501を検出することができる。走行環境における緊急車両501の検出に応答して、視覚センサ412は、様々な時点における緊急車両501の位置(例えば、x、y、z座標)を提供することができる。ADV101の提供された位置及び参照軸(x軸)に基づいて、ADV101の感知システムは、更に、ADV101から緊急車両501に描かれる方向ベクトルを決定することができる。ADV101の方向ベクトル及び参照軸に基づいて、方向角を決定することができ、この方向角は、緊急車両501の相対方向を表す。次いで、リファイニングされたラベル付け後のオーディオデータのオンライン性能を、緊急車両501の位置及び相対方向並びに記録されたオーディオサンプル/イベントに対して生成させることができる。
図5には1台の緊急車両501が図示されるが、他のの走行シナリオでは、複数の緊急車両501を用いることができ、オーディオロギング及び車中検証のためのシステムが、これらの車両により同時に操作されることが留意される。また、緊急車両501は、静止していてもよく、ADV101に向かって動いている、又はADV101から離れて動いていてもよい。同様に、ADV101は、静止していてもよく、緊急車両501に向かって動いている、又は緊急車両501から離れて動いていてもよい。
図6は、一実施形態に係るラベル付けされたオーディオデータを生成する方法及びラベル付けされたオーディオデータの車中検証のフロー図である。いくつかの実施形態では、方法600は、感知モジュール302、オーディオレコーダ308、オーディオデータラベリングモジュール309、自動リファイニングモジュール310、プロファイリングモジュール311、及び/又は機械学習エンジン122によって行われる。
図6を参照すると、ブロック601で、ADVの走行環境内の物体(例えば、緊急車両)によって発せられた音(例えば、サイレン音)が記録され、オーディオサンプルに変換される。ブロック602で、オーディオサンプルがラベル付けされ、ラベル付けされたオーディオサンプルがリファイニングされて、リファイニングされたラベル付け後のオーディオデータを作成し、リファイニングされたラベル付け後のオーディオデータは、ADVの自律走行中に、音源を認識する機械学習アルゴリズムを、後に訓練するために利用される。ブロック603で、リファイニングされたラベル付け後のオーディオデータの性能プロファイルは、少なくとも、オーディオサンプル、物体の位置、及び物体の相対方向に基づいて生成され、物体の位置及び物体の相対方向は、ADVの感知システムによって決定される。
図7は、一実施形態に係るラベル付けされたオーディオデータの車中検証の方法のフロー図である。方法又はプロセス700は、ソフトウェア、ハードウェア、又はこれらの組合せを含み得る処理ロジックによって行うことができる。例えば、プロセス700は、図1のADS110によって行うことができる。
図7を参照すると、ブロック701で、処理ロジックは、ADVの走行環境内の障害物(例えば、緊急車両)によって発せられた音(例えば、サイレン音)を記録して、オーディオサンプルを作成する。ブロック702で、処理ロジックは、ADVの視覚センサ(例えば、カメラ、レーダ、LIDAR)によって提供される検知データに基づいて、障害物の位置、及び前記障害物の相対方向を決定する。ブロック703で、処理ロジックは、オーディオサンプル、障害物の位置、及び障害物の相対方向を用い、リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成する。前記リファイニングされたラベル付け後のオーディオデータは、オーディオサンプルをラベル付けし、ラベル付けされたオーディオサンプルをリファイニングすることによって生成され、ADVの自律走行中に、音源を認識する機械学習アルゴリズムを、後に訓練するために利用される。
なお、上に示され記載されたコンポーネントの一部又は全部は、ソフトウェア、ハードウェア、又はこれらの組合せで実行させることができる。例えば、係るコンポーネントを、永久記憶装置にインストールされ記憶されたソフトウェアとして実行させることができ、これは、プロセッサ(図示せず)によってメモリにロードされ実行され、本願を通して記載されるプロセス又はオペレーションを実行することができる。或いは、係るコンポーネントを、専用ハードウェアにプログラムされた又は埋め込まれた実行可能コードとして実装することができる。この専用ハードウェアとしては、例えば、集積回路(例えば、特定用途向けIC、即ち、ASIC)、デジタル信号プロセッサ(DSP)、又はフィールドプログラマブルゲートアレイ(FPGA)が挙げられ、これらは、対応するドライバ及び/又はアプリケーションからのオペレーティングシステムを介してアクセスすることができる。更に、係るコンポーネントは、1以上の特定の命令を介してソフトウェアコンポーネントによってアクセス可能な命令セットの一部としてのプロセッサ又はプロセッサコア内の特定のハードウェアロジックとして実装することができる。
前述した詳細な説明の一部記載は、コンピュータメモリ内のデータビットに基づくオペレーションのアルゴリズム及び記号表現を用いてなされている。これらのアルゴリズムの記載及び表現は、データ処理分野における当業者によって、自身の研究の内容を他の当業者に最も効果的に伝えるために使用される方法である。アルゴリズムは、ここでは、及び一般的に言っても、所望の結果に至るオペレーションのセルフコンシステントなシーケンスであると考えられる。オペレーションは、物理量の物理的操作を要求するものである。
しかし、これらの用語及び類似用語はいずれも、適切な物理量に関連するものであり、これらの量に与えられる便利なラベルであるに過ぎないことに留意すべきである。前述の記載と明らかに異なる具体的記載がなされない限り、以下の特許請求の範囲に示される用語などの用語を用いた記載は、明細書全体を通して、コンピュータシステムのレジスタ及びメモリ内の物理(電子)量として表されるデータを、コンピュータシステムメモリ若しくはレジスタ又は他の情報ストレージ、トランミッション、若しくは表示装置内の物理量として同様に表される他のデータに操作及び変換するコンピュータシステム又は同様の電子計算装置の動作及びプロセスを意味すると理解される。
本開示の実施形態は、また、本明細書におけるオペレーションを実行するための装置に関する。係るコンピュータプログラムは、非一過性のコンピュータ可読媒体に記憶される。マシン可読媒体としては、マシン(例えば、コンピュータ)によって読み取ることができる形態の情報を記憶するための任意の機構が挙げられる。例えば、マシン可読(例えば、コンピュータ可読)媒体としては、マシン(例えば、コンピュータ)可読記憶媒体(例えば、リードオンリーメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス)などが挙げられる。
前述した図面に示されるプロセス又は方法は、ハードウェア(例えば、回路、専用ロジックなど)、ソフトウェア(例えば、非一過性コンピュータ可読媒体で具現化される)、又は両者の組合せを含むロジックを処理することによって行うことができる。プロセス又は方法が、いくつかの順次的なオペレーションを用いて前述されるものの、記載のオペレーションのいくつかは、異なる順序で実行することができることを理解すべきである。更に、いくつかのオペレーションは、順次的にではなく並行して行うことができる。
本開示の実施形態は、コンピュータ上で動作しているときに、前述した図面に示されるプロセス又は方法を前記コンピュータに実行させるためのコンピュータプログラムに更に関する。
本開示の実施形態は、任意の特定のプログラミング言語を参照して記載されていない。
本明細書に記載される開示の実施形態の教示を実行するために、各種プログラミング言語を使用できることが理解される。
前述の明細書では、本開示の実施形態を、その具体的且つ例示的な実施形態を参照して説明している。以下の特許請求の範囲に記載される本開示のより広い精神及び範囲から逸脱することなく、それらに様々な変更を加えることが可能であることは明らかである。したがって、明細書及び図面は、限定的な意味ではなく例示的な意味とみなされるべきである。

Claims (18)

  1. 自律走行車両(ADV)が走行環境内を動作している間、前記ADVを利用して、ラベル付けされたオーディオデータと、前記ラベル付けされたオーディオデータの車中検証とを生成する方法であって、前記方法は、コンピュータによって実行され、
    前記ADVの前記走行環境内の物体によって発せられた音を記録し、記録された前記音をオーディオサンプルに変換すること、
    前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングして、前記ADVの自律走行中に音源を認識する機械学習アルゴリズムを、後に訓練するために利用されるリファイニングされたラベル付け後のオーディオデータを作成し、前記オーディオサンプルが、前記ADVのユーザによって手動でラベル付けされることと、
    少なくとも前記オーディオサンプル並びに前記ADVの感知システムによってそれぞれ決定される前記物体の位置及び前記物体の相対方向に基づいて、前記リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することと
    を含むことを特徴とする方法。
  2. 前記リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することが、前記リファイニングされたラベル付け後のオーディオデータを、前記オーディオサンプル、前記物体の前記位置、及び前記物体の前記相対方向に対してプロファイリングすることを含む請求項1に記載の方法。
  3. 前記リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することが、更に、前記ADVの視覚センサによって提供される検知データに基づいて、前記物体の前記位置及び前記物体の前記相対方向を決定することを含み、前記視覚センサが前記感知システムに接続されている請求項2に記載の方法。
  4. 前記オーディオサンプルをラベル付けすることが、前記オーディオサンプルを、オーディオサンプル識別子(ID)、前記オーディオサンプルに関連する1以上の位置、及び前記オーディオサンプルに関連する方向でタグを付けることを含む請求項1に記載の方法。
  5. 前記物体が緊急車両であり、発せられた前記音がサイレン音である請求項1に記載の方法。
  6. 自律走行車両(ADV)が走行環境内を動作している間、前記ADVを利用するラベル付けされたオーディオデータの車中検証のためのコンピュータで実行される方法であって、
    前記ADVの前記走行環境内の障害物によって発せられた音を記録し、オーディオサンプルを作成することと、
    前記ADVの視覚センサによって提供される検知データに基づいて、前記障害物の位置と、前記障害物の相対方向とを決定することと、
    前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することとを含み、前記リファイニングされたラベル付け後のオーディオデータが、前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングすることによって生成され、前記ADVの自律走行中の音源を認識する機械学習アルゴリズムを、後に訓練するために利用され、前記オーディオサンプルが、前記ADVのユーザによって手動でラベル付けされることを特徴とする方法。
  7. 前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、前記性能プロファイルを生成することが、前記リファイニングされたラベル付け後のオーディオデータを、前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向に対してプロファイリングすることを含む請求項に記載の方法。
  8. 前記ラベル付けされたオーディオサンプルが、前記オーディオサンプル、オーディオサンプル識別子(ID)、前記オーディオサンプルに関連する1以上の位置、及び前記オーディオサンプルに関連する方向を含む請求項に記載の方法。
  9. 前記障害物が緊急車両であり、発せられた前記音がサイレン音である請求項に記載の方法。
  10. ラベル付けされたオーディオデータの車中検証のためのシステムであって、
    プロセッサと、
    前記プロセッサに接続され、前記プロセッサによって実行されたときに、前記プロセッサにオペレーションを行わせる命令を記憶するメモリとを含み、前記オペレーションが、
    自律走行車両(ADV)の走行環境内の障害物によって発せられた音を記録し、オーディオサンプルを作成することと、
    前記ADVの視覚センサによって提供された検知データに基づいて、前記障害物の位置及び前記障害物の相対方向を決定することと、
    前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することとを含み、前記リファイニングされたラベル付け後のオーディオデータが、前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングすることによって生成され、前記ADVの自律走行中の音源を認識する機械学習アルゴリズムを、後に訓練するために利用され、前記オーディオサンプルが、前記ADVのユーザによって手動でラベル付けされることを特徴とするシステム。
  11. 前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、前記性能プロファイルを生成することが、前記リファイニングされたラベル付け後のオーディオデータを、前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向に対してプロファイリングすることを含む請求項10に記載のシステム。
  12. 前記ラベル付けされたオーディオサンプルが、前記オーディオサンプル、オーディオサンプル識別子(ID)、前記オーディオサンプルに関連する1以上の位置、及び前記オーディオサンプルに関連する方向を含む請求項10に記載のシステム。
  13. 前記障害物が緊急車両であり、発せられた前記音がサイレン音である請求項10に記載のシステム。
  14. プロセッサによって実行されたときに、前記プロセッサにオペレーションを行わせる命令が記憶された非一過性のマシン可読媒体であって、前記オペレーションが、
    自律走行車両(ADV)の走行環境内の障害物によって発せられた音を記録し、オーディオサンプルを作成することと、
    前記ADVの視覚センサによって提供された検知データに基づいて、前記障害物の位置及び前記障害物の相対方向を決定することと、
    前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、リファイニングされたラベル付け後のオーディオデータの性能プロファイルを生成することとを含み、前記リファイニングされたラベル付け後のオーディオデータが、前記オーディオサンプルをラベル付けし、ラベル付けされた前記オーディオサンプルをリファイニングすることによって生成され、前記ADVの自律走行中の音源を認識する機械学習アルゴリズムを、後に訓練するために利用され、前記オーディオサンプルが、前記ADVのユーザによって手動でラベル付けされることを特徴とする非一過性のマシン可読媒体。
  15. 前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向を用いて、前記性能プロファイルを生成することが、前記リファイニングされたラベル付け後のオーディオデータを、前記オーディオサンプル、前記障害物の前記位置、及び前記障害物の前記相対方向に対してプロファイリングすることを含む請求項14に記載の非一過性のマシン可読媒体。
  16. 前記ラベル付けされたオーディオサンプルが、前記オーディオサンプル、オーディオサンプル識別子(ID)、前記オーディオサンプルに関連する1以上の位置、及び前記オーディオサンプルに関連する方向を含む請求項14に記載の非一過性のマシン可読媒体。
  17. 前記障害物が緊急車両であり、発せられた前記音がサイレン音である請求項14に記載の非一過性のマシン可読媒体。
  18. コンピュータ上で動作しているときに、請求項1~のいずれかに記載の方法を前記コンピュータに実行させるためのコンピュータプログラム。
JP2022002306A 2021-01-12 2022-01-11 自律走行車両を利用するモデル訓練及び車中検証のためのオーディオロギング Active JP7316394B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/248,172 2021-01-12
US17/248,172 US11735205B2 (en) 2021-01-12 2021-01-12 Audio logging for model training and onboard validation utilizing autonomous driving vehicle

Publications (2)

Publication Number Publication Date
JP2022058556A JP2022058556A (ja) 2022-04-12
JP7316394B2 true JP7316394B2 (ja) 2023-07-27

Family

ID=80035068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022002306A Active JP7316394B2 (ja) 2021-01-12 2022-01-11 自律走行車両を利用するモデル訓練及び車中検証のためのオーディオロギング

Country Status (5)

Country Link
US (1) US11735205B2 (ja)
EP (1) EP4024365B1 (ja)
JP (1) JP7316394B2 (ja)
KR (1) KR102599790B1 (ja)
CN (1) CN114764523A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11893978B2 (en) * 2021-08-12 2024-02-06 Ford Global Technologies, Llc Speech recognition in a vehicle
JP2023149797A (ja) 2022-03-31 2023-10-16 セイコーエプソン株式会社 液体吐出装置、及び配線基板

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352993A (ja) 1999-06-14 2000-12-19 Oki Electric Ind Co Ltd 音声認識システム及びヒドン・マルコフ・モデルの学習方法
US20190228305A1 (en) 2018-01-19 2019-07-25 Zf Friedrichshafen Ag Vehicle system for identifying and localizing non-automobile road users by means of sound
JP2019182412A (ja) 2018-04-13 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車に用いられる自動データラベリング
JP2020521660A (ja) 2018-03-28 2020-07-27 ボン ウォン,キン 車両ロック状態検出器、検出システム及び検出方法
JP2020525885A (ja) 2017-06-27 2020-08-27 ウェイモ エルエルシー サイレンの検出およびサイレンに対する対応

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020131497A1 (en) * 2018-12-21 2020-06-25 Navio International, Inc. Edge intelligence powered security solutions and other applications for a smart city
US11351988B2 (en) * 2018-07-26 2022-06-07 Byton North America Corporation Use of sound with assisted or autonomous driving
JP7048465B2 (ja) 2018-09-18 2022-04-05 株式会社東芝 移動体制御装置、方法及びプログラム
US10996680B2 (en) * 2018-12-31 2021-05-04 Siemens Industry Software Inc. Environmental perception in autonomous driving using captured audio
US11567510B2 (en) * 2019-01-24 2023-01-31 Motional Ad Llc Using classified sounds and localized sound sources to operate an autonomous vehicle
KR102176098B1 (ko) * 2019-01-28 2020-11-10 김영언 음원 인식 방법 및 장치
US20210027629A1 (en) * 2019-07-25 2021-01-28 Baidu Usa Llc Blind area processing for autonomous driving vehicles
US11609576B2 (en) * 2019-12-05 2023-03-21 Baidu Usa Llc Emergency vehicle audio detection
US11485308B2 (en) * 2020-06-29 2022-11-01 Nvidia Corporation In-cabin hazard prevention and safety control system for autonomous machine applications
US11958505B2 (en) * 2020-07-21 2024-04-16 Waymo Llc Identifying the position of a horn honk or other acoustical information using multiple autonomous vehicles
KR20220026004A (ko) * 2020-08-24 2022-03-04 현대자동차주식회사 자율 주행 제어 장치 및 방법
US11816987B2 (en) * 2020-11-18 2023-11-14 Nvidia Corporation Emergency response vehicle detection for autonomous driving applications
DE102021205466A1 (de) * 2021-05-28 2022-12-01 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung zur Detektion von Schall in der Umgebung eines Automobils
US11705141B2 (en) * 2021-05-28 2023-07-18 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods to reduce audio distraction for a vehicle driver

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352993A (ja) 1999-06-14 2000-12-19 Oki Electric Ind Co Ltd 音声認識システム及びヒドン・マルコフ・モデルの学習方法
JP2020525885A (ja) 2017-06-27 2020-08-27 ウェイモ エルエルシー サイレンの検出およびサイレンに対する対応
US20190228305A1 (en) 2018-01-19 2019-07-25 Zf Friedrichshafen Ag Vehicle system for identifying and localizing non-automobile road users by means of sound
JP2020521660A (ja) 2018-03-28 2020-07-27 ボン ウォン,キン 車両ロック状態検出器、検出システム及び検出方法
JP2019182412A (ja) 2018-04-13 2019-10-24 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車に用いられる自動データラベリング

Also Published As

Publication number Publication date
KR20220012955A (ko) 2022-02-04
US20220223169A1 (en) 2022-07-14
US11735205B2 (en) 2023-08-22
KR102599790B1 (ko) 2023-11-09
EP4024365A1 (en) 2022-07-06
JP2022058556A (ja) 2022-04-12
EP4024365B1 (en) 2024-07-03
CN114764523A (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
US10915766B2 (en) Method for detecting closest in-path object (CIPO) for autonomous driving
EP3965066B1 (en) Machine learning model to detect emergency vehicles fusing audio and visual signals
JP7316394B2 (ja) 自律走行車両を利用するモデル訓練及び車中検証のためのオーディオロギング
CN114379590B (zh) 紧急车辆音频和视觉检测后融合
US11479265B2 (en) Incremental lateral control system using feedbacks for autonomous driving vehicles
EP3998609A2 (en) Automatic audio data labelling utilizing autonomous driving vehicle
US11491976B2 (en) Collision warning system for safety operators of autonomous vehicles
US12017681B2 (en) Obstacle prediction system for autonomous driving vehicles
US20210188257A1 (en) Post collision, damage reduction brake system
KR102597917B1 (ko) 자율 주행 차량을 위한 음원 검출 및 위치 측정
US11325529B2 (en) Early brake light warning system for autonomous driving vehicle
US11288528B2 (en) Differentiation-based traffic light detection
US20210370941A1 (en) Precautionary slowdown speed planning
CN113525510B (zh) 自动将自主驾驶车辆的转向返回至中心位置的***和方法
CN113799789B (zh) 融合紧急车辆音频和视觉检测的机器学习模型
US20240218911A1 (en) Brake pad wear detection and warning for autonomous driving vehicles
US20230202516A1 (en) Planning under prediction with confidence region for an autonomous driving vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220112

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230714

R150 Certificate of patent or registration of utility model

Ref document number: 7316394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150