JP2021508634A - 環境センサの挙動モデル - Google Patents

環境センサの挙動モデル Download PDF

Info

Publication number
JP2021508634A
JP2021508634A JP2020534437A JP2020534437A JP2021508634A JP 2021508634 A JP2021508634 A JP 2021508634A JP 2020534437 A JP2020534437 A JP 2020534437A JP 2020534437 A JP2020534437 A JP 2020534437A JP 2021508634 A JP2021508634 A JP 2021508634A
Authority
JP
Japan
Prior art keywords
data
sensor
environmental sensor
test run
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020534437A
Other languages
English (en)
Inventor
クマイド・サード
マイケル・ポールヴェーバー
Original Assignee
アーファオエル・リスト・ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アーファオエル・リスト・ゲーエムベーハー filed Critical アーファオエル・リスト・ゲーエムベーハー
Publication of JP2021508634A publication Critical patent/JP2021508634A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/23Pc programming
    • G05B2219/23446HIL hardware in the loop, simulates equipment to which a control module is fixed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本発明は、運転者支援システムの環境センサの挙動をシミュレーションするために人工神経回路網をトレーニングするためのコンピュータ支援式方法であって、好ましくは以下の作用ステップ、すなわちテスト走行の交通シナリオを読み込むステップと、交通シナリオからテスト走行データと、前記環境センサにより出力すべきセンサデータとを導き出すステップと、前記環境センサの視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップと、前記環境センサが前記データストリームに基づいてセンサデータを生成することができ、1つのデータインターフェースに供給することができるように、前記データストリームを出力するステップであって、前記データインターフェースに前記テスト走行データおよび前記出力すべきセンサデータも供給される、ステップと、前記供給されたデータを前記人工神経回路網に読み込むステップと、を有する方法に関する。

Description

本発明は運転者支援システムの環境センサをシミュレーションするために人工神経回路網をトレーニングするための方法に関する。本発明はまた、このような環境センサを分析するための方法と、このような環境センサをシミュレーションするための方法とに関する。
今日の自動車の複雑性に基づき、開発の際にできるだけ早期の開発段階において、自動車の構成要素を共にテスト可能とすることが求められている。様々な構成要素の相互作用のこのようなテストは試作品を提出する前に、テストスタンドにおいて構成要素のシミュレートされた動作によって行われるか、単に少なくとも部分的にモデルベース型のシミュレーション、または完全にモデルベース型のシミュレーションによって行われるかのいずれかである。このようなモデルベース型のシミュレーションにおいて少なくとも一つの構成要素の動作はモデルを用いてシミュレートされる。
モデルに基づいてシミュレートされる構成要素は一般に、物理モデルを用いてモデル化される。これについては特に構成要素が、モデルにおいて仮想センサとして写像されるべきセンサである場合、極めて高度な抽象化レベルが必要とされる。
さらにいくつかの構成要素においては、正確な仕様書を得るのが困難である。特にセンサの場合、そしてまた運転者支援システムに属するか、運転者支援システム内に組み込まれているセンサの場合、製造業者は、パラメータ化のため、あるいは物理モデルを形成すること自体のために必要であると想定される必要なデータを使用に供しないことが多い。好ましくはこのようなセンサ、特に環境センサはセンサハードウェアと、データ処理装置を有し、当該データ処理装置内で測定信号は、データ処理アルゴリズムを用いて、好ましくは運転者支援システムのためのさらなる処理を行うために準備される。
特許文献1は機械の制御システムのための方法に関する。当該方法は仮想的なセンサモデルを作成することを含み、当該仮想的なセンサモデルはセンサを用いて検知された少なくとも一つのパラメータと、機械に関して測定された多数のパラメータとの関係を特徴づける。
米国特許出願公開第2009/0112334号明細書
本発明は、運転者支援システムの環境センサのシミュレーションを改善することができる方法を提供することを課題とする。特に本発明は、シミュレーションモデルによって出力されるデータが、仮想的または現実的な運転者支援システムを試すための仮想的なテスト走行に適するように、センサの動作を正確にシミュレーション可能とすることを課題とする。
上記の課題は請求項1に記載の人工神経回路網をトレーニングするための方法、請求項2に記載の環境センサを分析するための方法、請求項4に記載の環境センサをシミュレーションするための方法、および請求項10に記載の人工神経回路網をトレーニングするための装置、請求項11に記載の運転者支援システムの環境センサを分析するための装置、請求項12に記載の運転者支援システムの環境センサをシミュレーションするための装置によって解決される。有利な構成は従属請求項に記載される。請求項に記載の理論は、明示的に詳細な説明の構成要素とされる。
本発明の第一の態様は、運転者支援システムの環境センサをシミュレーションするために人工神経回路網をトレーニングするための方法に関し、
当該方法は好ましくは以下の作用ステップ、すなわち
テスト走行の交通シナリオを読み込むステップと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すステップと、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップと、
環境センサがデータストリームに基づいてセンサデータを生成することができ、1つのデータインターフェースに供給することができるように、データストリームを出力するステップであって、データインターフェースにテスト走行データおよび出力すべきセンサデータも供給される、ステップと、
供給されたデータを人工神経回路網に読み込むステップと、を有する。
本発明の第二の態様は、運転者支援システムの環境センサをシミュレーションするために人工神経回路網をトレーニングするための相応のシステムに関し、
当該システムは好ましくは、
テスト走行の交通シナリオを読み込むためのインターフェースと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すための手段と、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段、特にグラフィックカードと、
環境センサがデータストリームに基づいてセンサデータを生成することができるように、データストリームを出力するためのインターフェース、特にディスプレイと、
生成されたセンサデータ、テスト走行データおよび出力すべきセンサデータが人工神経回路網に供給され得るデータインターフェースと、を有する。
本発明の第三の態様は、運転者支援システムの環境センサを分析するための方法に関し、
当該方法は好ましくは以下の作用ステップ、すなわち
多数のテスト走行の交通シナリオを読み込むステップと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すステップと、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップと、
データストリームに基づいてセンサデータを生成する環境センサにデータストリームを出力するステップと、
テスト走行データおよび出力すべきセンサデータおよび環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて最適化計算を実施するステップと、
最適化計算に基づくシミュレーションモデルを応用するステップであって、当該シミュレーションモデルはテスト走行のデータストリームに基づいてセンサデータをシミュレートし、出力するために構成されているステップと、を有する。
本発明の第四の態様は、運転者支援システムの環境センサを分析するための対応するシステムに関し、当該システムは好ましくは、
多数のテスト走行の交通シナリオを読み込むためのインターフェースと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すための手段と、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段、特にグラフィックカードと、
データストリームに基づいてセンサデータを生成する環境センサにデータストリームを出力するためのインターフェース、特にディスプレイと、
テスト走行シミュレーションデータ、出力すべきセンサデータ、および環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて最適化計算を実施するための手段と、
最適化計算に基づくシミュレーションモデルを用いてセンサデータを決定するための手段であって、当該シミュレーションモデルは任意のテスト走行のデータストリーム、特に画像ストリームに基づいてセンサデータをシミュレートするために構成されている手段と、
シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェースと、を有する。
本発明の第五の態様は、運転者支援システムの環境センサをシミュレーションするための方法に関し、当該方法は好ましくは以下の作用ステップ、すなわち
環境センサの視点からテスト走行を写像するデータストリームを検知するステップと、
テスト走行のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いてセンサデータを決定するステップであって、当該シミュレーションモデルは、テスト走行データおよび多数の異なるテスト走行のデータストリームおよび当該テスト走行の際に環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて行われる最適化計算に基づいているステップと、
シミュレーションモデルを用いて決定されたセンサデータを出力するステップと、を有する。
本発明の第六の態様は、運転者支援システムの環境センサをシミュレーションするための対応するシステムに関し、当該システムは好ましくは、
環境センサの視点からテスト走行を写像するデータストリームを検知するためのインターフェース、特にカメラと、
任意のテスト走行のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いて、センサデータを決定するための手段であって、当該シミュレーションモデルはテスト走行データおよび多数の異なるテスト走行のデータストリームおよび当該テスト走行(R)の際に環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて行われる最適化計算に基づいている手段と、
シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェースと、を有する。
本発明による環境センサは好ましくは、運転者支援システムを有する車両の環境に関する情報を検知するために構成されている。当該情報は好ましくは、以下に挙げる特性のグループ、すなわち温度、画像、特に光学画像、赤外線画像またはレーダ画像、距離、湿度、空気圧、動圧、電磁ビーム、放射性ビーム、明度、ビューからの少なくとも一つの特性に関する。
このとき環境センサは好ましくは、ハードウェアおよび/またはソフトウェアとして形成されている。環境センサは好ましくはデータ処理アルゴリズムを有する。代替的または付加的に環境センサは情報を検知するための装置を有する。
本発明によるテスト走行データは好ましくは、運転者支援システムを搭載している車両に関する環境データである。このとき環境データは、好ましくはシミュレートすべき環境センサによって検知されない環境の特性である。テスト走行データは代替的または付加的に車両の寸法および特性、特にまた道路の寸法を有する静的データを含む。テスト走行データは付加的または代替的にいわゆる自己データを有し、当該自己データは運転者支援システムを搭載している車両の動的特性、例えば点滅信号、速度、加速および/または傾動、偏揺れ運動、転動などを含む。
本発明によるデータストリームは好ましくは、情報を含む。データストリームはさらに好ましくは、光学信号、電磁信号、湿度値、空気圧値、動圧値、照度値、温度値、または明度値である。データストリームは好ましくは、時間および/または進んだ距離に依存する情報の値の連続である。
本発明によるデータインターフェースは好ましくは、本発明に係る方法がそれぞれ実施する人工神経回路網または装置および/またはコンピュータプログラムの部分である。このときデータインターフェースは好ましくは、それぞれハードウェアおよび/またはソフトウェアから形成されている複数の部分インターフェースからなってよい。
本発明による1つの手段は好ましくは、ハードウェアおよび/またはソフトウェア技術的に形成され、特に好ましくはストレージシステムおよび/またはバスシステムにデータもしくは信号により結合された、特にデジタル式の処理ユニット、特にマイクロプロセッサユニット(CPU)および/または一つまたは複数のプログラム、あるいはプログラムモジュールを有してよい。CPUは、ストレージシステム内に格納されたプログラムとして実施されているコマンドを実行し、データバスから入力信号を検知し、および/またはデータバスに出力信号を出力するために形成されていてよい。ストレージシステムは一つまたは複数の、特に異なる記憶媒体、特に光学媒体、磁気媒体、固体および/または他の不揮発性媒体を有してよい。プログラムは、当該プログラムが本願で説明される方法を具体化するか、もしくは実施することができ、CPUがこのような方法のステップを実施することができ、それにより特に、1つの車両型式の少なくとも1つの車両の堅牢性に関する目標量の値を決定することができるように調整されていてよい。
本発明による交通シナリオは好ましくは、走行路、特に道路の領域および周囲における交通参加者と対象物とのコンステレーションである。交通シナリオはさらに好ましくは、1つの交通シーン、または時間的に連続して起こる複数の交通シーンからなる。
本発明は特に、運転者支援システムのセンサをいわゆる挙動モデル(英語:behavioral model)を介してエミュレートするというアプローチに基づく。このような挙動モデルは一般に深層学習(英語:deep learning)の方法に基づく。
挙動モデルに基づくシミュレーションモデルを用いて特に、センサの正確な仕様書を知ることなく、センサをモデル化することが可能である。これは、センサの何らかのハードウェア構成要素に関する仕様書にも、場合により存在するデータ処理アルゴリズムにも当てはまり、当該データ処理アルゴリズムは好ましくは環境センサ、特に環境センサのデータ処理装置の部分である。センサに対する特に正確なシミュレーションの結果を得るために、シミュレーションモデルはデータストリームを用いてトレーニングされ、シミュレーションモデルはそれぞれのテスト走行をそれぞれの環境センサの視野もしくは視点から再現している。モデルにはさらに、テストデータと、実際にセンサにより出力すべきセンサデータが供給される。
シミュレートすべき環境センサにより出力すべきセンサデータも、それぞれのテスト走行の交通シナリオから得られる。シミュレートされた、もしくは仮想のテスト走行において、これらのデータはすでにシミュレーション環境から供給することができ、現実のテスト走行に基づく交通シナリオでは、評価アルゴリズムまたは人間による手動の評価を用いることができる。
人工神経回路網は、入力値(テスト走行データ、出力されたセンサデータ)と、出力すべき出力データ(出力すべきセンサデータ)を読み込むことにより、少しずつ構成することができる。
本発明に係るやり方は特に、環境センサのそれぞれの取り付け場所に関する現実的データを用いてセンサモデルが訓練され得ることを特徴とする。
人工神経回路網に基づくシミュレーションモデルはさらに、当該シミュレーションモデルが本物のセンサの実際の挙動をリアルタイムでエミュレートできるという有利点を有する。テスト走行はこれにより、運転者支援システムに関して、シミュレートされた環境センサのデータに基づいてリアルタイムで実施することができる。
人工神経回路網に基づくシミュレーションモデルはさらに、当該シミュレーションモデルが、シミュレートすべき環境センサの挙動もしくは出力の変化を、同じ交通シナリオにおいて、異なる環境条件、特に天候条件および/または環境センサ(US)のハードウェアの欠陥、例えば光学系の収差あるいはまた光学系の水濡れ、または光学系の汚染などにおいて、現実に忠実にシミュレートすることができるという有利点を有する。センサが例えば対象物リストを作成すると、このような欠陥が生じた場合の対象物リストは、このような欠陥が生じない場合に作成されると想定される対象物リストとは実質的に異なってよい。シミュレートすべき環境センサによる交通シナリオの認識のためには重要であるが、シミュレートすべき環境センサ自体によって検知されないパラメータの変化についても同様である。
上記の点は本発明により、シミュレーションモデルが1つの時点で出力すべきセンサデータ、すなわち環境センサによる走行シナリオの理想的な認識と、当該時点で出力されたセンサデータ、すなわち環境センサにより実際に行われる走行シナリオの認識と、テスト走行データとを用いて訓練されることによって実現される。
本発明の第七の態様は、運転者支援システムを分析するための方法に関し、当該運転者支援システムには、現実のテスト走行またはシミュレートされたテスト走行の間に、本発明の第一の態様、第三の態様、第五の態様による方法を用いて出力されるセンサデータと、他の仮想または現実のセンサであって、好ましくは車両のデータネットワーク、特に認識ネットワーク内部で利用可能であるセンサのデータとが供給される。当該方法を用いて、運転者支援システムおよびシミュレートされた環境センサと、および場合によりさらなるセンサとからなるシステム全体の出力をテストすることができる。シミュレートされたセンサ、およびさらなるシミュレートされた、または現実のセンサの統合は、特にセンサフュージョンを用いて行うことができる。
本発明の第一の態様、第三の態様による方法の1つの有利な形成において、作用ステップは異なるテスト走行を用いて、人工神経回路網がセンサの機能をできる限り正確に写像するまで、特に最適化計算では考慮されないテスト走行に関して、出力すべきデータが、出力されたデータと95%、好ましくは98%一致するまで繰り返される。
本発明の第五の態様による方法の1つの有利な構成において、当該方法はさらに以下の作用ステップを有する。
特に交通シナリオに基づいて、環境センサの視野からテスト走行を写像するデータストリーム、特に画像ストリームを生成するステップ。
これに応じて本発明の第六の態様による環境センサをシミュレーションするための装置は1つの有利な構成において、特にテスト走行の交通シナリオに基づいて、環境センサの視野からテスト走行を写像するデータストリーム、特に画像ストリームを生成するための手段を有する。
1つの有利な構成において本発明の態様の一つによる方法はさらに、以下の作用ステップを有する。
データストリーム、特に画像ストリームを損なう、特に歪めるステップであって、好ましくは天候条件および/または環境センサのハードウェアの欠陥が考慮されるステップ。当該有利な構成を用いて、欠陥を有するセンサデータを扱う、もしくは欠陥を有するセンサデータを動作中に補償するためのセンサのデータ処理アルゴリズムまたは運転者支援システム自体の能力をテストすることができる。
本発明の態様の一つによる方法の1つのさらなる有利な構成において一つまたは複数のテスト走行は、好ましくは上記の可能性からなる組み合わせを用いて、テストスタンドで、あるいはモデルベース型にシミュレートされて、あるいは現実に実施される。このようなやり方で環境センサもしくは運転者支援システムは開発サイクルのあらゆる段階でテストすることができる。
さらなる有利点および特徴は以下において図に関連して説明される好適な実施の形態に記載されている。
図において少なくとも部分的に概略的に示されるのは以下のとおりである。
本発明の第二の態様による装置の1つの実施の形態を示す図である。 本発明の第一の態様による方法の1つの実施の形態を示す図である。 本発明の第三の態様による装置の1つの実施の形態を示す図である。 本発明の第三の態様による方法の1つの実施の形態および本発明の第五の態様による方法の1つの実施の形態を示す図である。 本発明の第六の態様による装置の1つの実施の形態を示す図である。
図1は運転者支援システムの環境センサUSをシミュレーションするために人工神経回路網KNNをトレーニングするための本発明に係る装置の第一の実施の形態を示す。
以下において本発明は、全ての実施の形態に関して、環境センサUSとしての光学カメラに基づいて説明される。しかしながら基本的に他の構成要素、特に他の(環境)センサを、説明される方法およびシステムを用いてエミュレートおよび分析することもできる。これに関して例として最終的ではないが、ライダーセンサ、レーダセンサ、超音波センサ、温度センサ、湿度センサ、ビームセンサなどが挙げられる。
システム10によって実施され得る対応する方法100は図2に表示されている。
テスト走行Rもしくは当該テスト走行Rに該当する交通シナリオはシステム10に供給されるか、もしくはシステム10により読み込まれる101。
テスト走行はシミュレートされたテスト走行Rもしくはシミュレートされた交通シナリオであってよく、例えばIPG Automotive(登録商標)社のソフトウェアであるCarMaker(登録商標)を用いて作成されている。しかしながら代替的にテスト走行Rもしくは当該テスト走行の交通シナリオは、車両の現実の作動中に受信されていてもよい。
テスト走行Rの交通シナリオから手段11を用いて、テスト走行データおよび実際に環境センサUSにより認識および出力すべき「真の」センサデータが抽出もしくは導出される102。交通シナリオがCarMaker(登録商標)のようなシミュレーションソフトウェアにより供給されると、抽出は実質的に、システム10もしくは方法100にとって必然的なテスト走行データと、シミュレートすべき環境センサに関連するデータとを同定することから成る。
光学カメラに関して上記の同定は例えば、作成すべき対象物リストであると想定される。「真の」対象物リストは、CarMaker(登録商標)のようなシミュレーションソフトウェアから直接的に導き出すことができる102。現実のテスト走行の受信された交通シナリオにおいて、対象物の数は一般にいわゆるラベリング装置を用いて決定されなければならない。これは自動化されて行われるが、一般的にデータが正しいかどうか人間によって検査されなければならない。
やはり交通シナリオから導き出されるテスト走行データ102は例えば、環境データ、すなわち特に検査すべき環境センサUSのような他のセンサのデータと、静的データ、特に車両および道路の寸法と、自己データ、特に車両の動的データと、例えば点滅またはフェードインのような車両の他の状態データである。このとき導出は導き出すための手段12を用いて実施することができる。
同じくテスト走行Rの交通シナリオに基づいて、手段13を用いてデータストリーム、特に画像ストリームが生成され103、当該データストリームは環境センサUSの視野から交通シナリオを写像する。
このとき画像ストリームの場合、好ましくは市販のグラフィックカード13もしくはこのようなグラフィックカードのための特殊なグラフィックソフトウェアを手段13として用いることができる。
このように生成された画像ストリームは、インターフェースとしてのディスプレイ14上でカメラUSに出力される105。
任意選択的に上記の出力の前に、画像ストリームを損なう、特に天候条件を模造する可能性104−1がある。これにより環境センサUSの反応もしくはこれらの状況下で環境センサUSにより決定されるセンサデータの品質を達成もしくは検査することができる。
1つの代替的な実施の形態において、環境センサUSの視野から交通シナリオを写像するデータストリームはセンサの物理的部分のモデル、すなわちセンサハードウェアのモデルに直接的に出力される。光学カメラの場合、センサハードウェア、すなわちカメラハードウェアのモデルは、実質的に光学系および画像センサを写像する。
代替的または付加的に、カメラハードウェアまたはカメラハードウェアのモデルからのデータストリームを、環境センサUSのデータ処理アルゴリズム、本実施の形態ではカメラの対象物認識アルゴリズムによる処理の前に、損なうこと104−2,204−2、その後初めて対象物認識アルゴリズムに出力すること105’,205’も可能である。カメラハードウェアまたはカメラハードウェアのモデルにより生じさせられ得る、もしくはシミュレートされ得る画像ストリームまたはデータストリームの可能な損傷は、例えば光学系の収差、あるいは画像センサにおける欠陥または汚れである。
センサハードウェアまたはセンサハードウェアのモデルから出力された画像ストリームもしくは損なわれた画像ストリームまたはデータストリームに基づいて、対象物認識アルゴリズムはセンサデータを生じさせ、当該センサデータはさらなるインターフェース14‘を経て再びシステム10に読み込まれ、さらなるデータインターフェース15を経て、導き出されたテスト走行データおよび実際に出力すべきセンサデータと共に供給される。
これらのデータ、すなわちセンサデータ、導き出されたテスト走行データおよび実際に出力すべきセンサデータはその後、人工神経回路網KNNに当該人工神経回路網をトレーニングするために読み込むことができる106。
これらの作用ステップは好ましくは異なるテスト走行で、したがってそれぞれ別の交通シナリオで人工神経回路網KNNをトレーニングするために、人工神経回路網KNNが環境センサUSの機能をできるだけ正確に写像するまで繰り返される。
正確性は例えば、トレーニングされた人工神経回路網KNNを、トレーニングのために用いられていない未知のテスト走行R‘のデータに直面させ、これらのデータに基づいて実際に出力すべきセンサデータが人工神経回路網KNNを用いて生じさせられたセンサデータに比較されることにより、決定することができる。出力すべきセンサデータと、人工神経回路網KNNを用いて生じさせられたセンサデータとは好ましくは、方法100が終了される前に、少なくとも95%、好ましくは98%より大きい正確性で一致すべきである。
人工神経回路網KNNを用いて最適化計算が行われ、当該最適化計算の結果が環境センサUSのシミュレーションモデルである。センサハードウェア、すなわち本実施の形態ではカメラハードウェアがこのとき人工神経回路網KNNをトレーニングするために用いられたか、あるいはセンサハードウェアのモデルによってシミュレートされたかに応じて、人工神経回路網KNNは環境センサUS全体あるいは環境センサUSのデータ処理アルゴリズムのみ、特にカメラの対象物認識アルゴリズムを、センサハードウェアなしで写像する。
図3および図4に基づいて、システム20および当該システム20を用いて実施可能な方法200が説明され、これらは本発明に係る運転者支援システムの環境センサUSの分析に役立つ。
図3および図4は特に、本発明の第三の態様の方法と、本発明の第四の態様による対応するシステムに関する。
作用の仕方は実質的に、本発明の第一および第二の態様について図1および図2に関して表示された作用の仕方に対応する。
運転者支援システムの環境センサUSを分析するためのシステムにおいて、インターフェース21を経て多数のテスト走行の交通シナリオが読み込まれる201。テスト走行データおよび環境センサUSにより出力すべきセンサデータは、交通シナリオから導き出すための手段22を用いて導き出される202。
グラフィックカード23は、交通シナリオに基づいて環境センサUSの視野からテスト走行を写像する画像ストリームを生じさせる。インターフェース24,24’、特にディスプレイを用いて画像ストリームは環境センサUSに出力され、当該環境センサはデータストリームに基づいてセンサデータを生じさせる205,205’。
方法200の1つの代替的な実施の形態においても、環境センサUSの視野から交通シナリオを写像するデータストリームをセンサの物理的部分のモデル、すなわちセンサハードウェアのモデルに直接的に出力することが可能である。光学カメラUSの場合、センサハードウェア、すなわちカメラハードウェアのモデルは、実質的に光学系および画像センサを写像する。
方法200においても、画像ストリームまたはデータストリームがカメラハードウェア、もしくはカメラハードウェアのモデルにより検知される前に、シミュレートされた環境条件204−1によって、あるいはまた画像ストリームもしくはデータストリームが対象物認識アルゴリズムに供給される前に、カメラハードウェアまたはカメラハードウェアのモデル自体のシミュレートされた欠陥によって、画像ストリームまたはデータストリームを損なうことが可能である。
最終的に全てのデータ、すなわちセンサデータ、導き出されたテスト走行データおよび実際に出力すべきセンサデータは、特に人工神経回路網KNNに基づく最適化計算に供給され、当該最適化計算は好ましくは、データ処理のための対応する手段25により実施される206。このようなやり方で好ましくは人工神経回路網KNNをトレーニングすることができる。
システム10と異なり、システム20はさらにシミュレーションモデルを用いてセンサデータを決定するための手段26を有する。好ましくはトレーニングされた人工神経回路網KNNを含む当該シミュレーションモデルが応用される207と、環境センサのセンサデータはデータストリームに基づいて任意のテスト走行R‘によりシミュレートすることができる。これらのシミュレートされたセンサデータは最終的にデータインターフェース27を経て出力することができる。本実施の形態でもセンサハードウェア、すなわち本実施の形態ではカメラハードウェアが、センサデータを生じさせるために用いられたか、あるいはそのときセンサハードウェアのモデルによってシミュレーションが行われたかに応じて、シミュレーションモデルはセンサ全体あるいはデータ処理アルゴリズムのみ、特に対象物認識アルゴリズムを、センサハードウェアなしで写像する。
同じく図4および図5に基づいて最終的に、本発明の第五の態様による運転者支援システムの環境センサをシミュレーションするための方法と、本発明の第六の態様による対応するシステム30が説明される。
図5に示すように、システム30は環境センサUSの視野からテスト走行を写像する画像ストリームまたはデータストリームを生成するための手段31を含む301。
当該画像ストリームまたはデータストリームは好ましくはカメラまたはデータインターフェース32を用いて検知される302。検知された画像ストリームまたはデータストリームの情報はシミュレーションモデルに供給される。
検知された画像ストリームまたはデータストリームに基づき、データ処理のための手段33を用いてセンサデータはシミュレーションモデルによりシミュレートされ、シミュレーションモデルは好ましくは、テスト走行データおよび多数の異なるテスト走行のデータストリームと、これらのテスト走行の際に環境センサUSにより、または単に環境センサUSのデータ処理アルゴリズムにより生成されたセンサデータとに基づき、人工神経回路網KNNを用いて行われる最適化計算に基づいている303。
シミュレーションモデルは好ましくはそれぞれ、本発明の第一および第三の態様の方法を用いて生じさせられる異なるシミュレーションモデルの一つに対応する。
シミュレーションモデルを用いて決定されるセンサデータは最終的に、データインターフェース34を経て出力される304。
本発明に係るシミュレーションモデルを用いてシミュレートされたセンサデータは特に、運転者支援システムおよびまた車両をテストするためのいわゆるセンサフュージョンに適している。
このとき環境センサUSのシミュレートされたセンサデータは、異なる開発段階において運転者支援システムもしくは車両をできる限り現実的な条件下でテストできるように、さらなるシミュレートされた環境センサのセンサデータおよびまた現実のセンサの出力のセンサデータと統合される。
実施の形態は、保護範囲、応用、および構成を何ら制限すべきでない例のみを扱っていることが指摘される。むしろ上記の説明を介して、当業者には少なくとも一つの実施の形態を実施するためのガイドラインが与えられ、特に説明された構成部材の作用および構成に関して、請求項および請求項と同等の特徴の組み合わせから生じるような保護範囲を逸脱することなく、様々な変更を行うことができる。
10 システム
11 テスト走行
12 データを導き出すための手段
13 データストリームを生成するための手段
14 インターフェース
14’ インターフェース
15 データインターフェース
20 システム
21 インターフェース
22 データを導き出すための手段
23 データストリームを生成するための手段
24 インターフェース
24’ インターフェース
25 最適化計算を実施するための手段
26 シミュレーションモデルを用いてセンサデータを決定するための手段
27 データインターフェース
30 システム
31 データストリームを生成する手段
32 データストリームを検知するためのインターフェース
33 シミュレーションモデルを用いてセンサデータを決定するための手段
34 シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェース
R テスト走行
R‘ テスト走行
US 環境センサ
KNN 人工神経回路網

Claims (12)

  1. 交通シナリオにおける運転者支援システムの環境センサ(US)の挙動をシミュレーションするために人工神経回路網(KNN)をトレーニングするためのコンピュータ支援式方法(100)であって、以下の作用ステップ、すなわち
    テスト走行(R)の交通シナリオを読み込むステップ(101)と、
    前記交通シナリオからテスト走行データと、前記環境センサ(US)、特にカメラにより出力すべきセンサデータ、特に対象物リストとを導き出すステップ(102)と、
    前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(103)と、
    前記環境センサ(US)が前記データストリームに基づいてセンサデータを生成することができ、1つのデータインターフェース(15)に供給することができるように、前記データストリームを出力するステップ(105,105‘)であって、前記データインターフェースに前記テスト走行データおよび前記出力すべきセンサデータも供給される、ステップと、
    前記供給されたデータを前記人工神経回路網(KNN)に読み込むステップ(106)と、を有する方法。
  2. 運転者支援システムの環境センサ(US)を分析するためのコンピュータ支援式方法(200)であって、以下の作用ステップ、すなわち
    多数のテスト走行(R)の交通シナリオを読み込むステップ(201)と、
    前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すステップ(202)と、
    前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(203)と、
    前記データストリームに基づいてセンサデータを生成する前記環境センサ(US)に前記データストリームを出力するステップ(205,205‘)と、
    前記テスト走行データおよび前記出力すべきセンサデータおよび前記環境センサ(US)により生成される前記センサデータに基づき、人工神経回路網(KNN)を用いて最適化計算を実施するステップ(206)と、
    前記最適化計算に基づくシミュレーションモデルを応用するステップであって、前記シミュレーションモデルは任意のテスト走行(R‘)のデータストリームに基づいてセンサデータをシミュレートし、出力するために構成されているステップ(207)と、を有する方法。
  3. 前記作用ステップは異なるテスト走行を用いて、前記人工神経回路網(KNN)が前記環境センサ(US)の機能をできる限り正確に写像するまで、特に最適化計算では考慮されないテスト走行(R‘)に関して、出力すべきセンサデータが、出力されたセンサデータと95%、好ましくは98%一致するまで繰り返される、請求項1または2に記載の方法(100,200)。
  4. 交通シナリオにおける運転者支援システムの環境センサ(US)、特にカメラの挙動をシミュレーションするためのコンピュータ支援式方法(300)であって、以下の作用ステップ、すなわち
    前記環境センサ(US)の視点からテスト走行(R’)を写像するデータストリーム、特に画像ストリームを検知するステップ(302)と、
    検知された前記データストリームに基づき、前記環境センサ(US)のシミュレーションモデルを用いてセンサデータを決定するステップであって、当該シミュレーションモデルは、センサデータ、特に対象物リストを任意のテスト走行(R‘)のデータストリームに基づいてシミュレートするために構成されており、前記シミュレーションモデルは、テスト走行データおよび多数の異なるテスト走行(R)のデータストリームおよび前記テスト走行(R)の際に前記環境センサ(US)により生成されるセンサデータに基づき、人工神経回路網(KNN)を用いて行われる最適化計算に基づいているステップ(303)と、
    前記シミュレーションモデルを用いて決定された前記センサデータを出力するステップ(304)と、を有する方法。
  5. 前記センサデータはさらにシミュレーションのために用いられたテスト走行(R‘)のテスト走行データに基づいてシミュレートされる、請求項2から4のいずれか一項に記載の方法。
  6. さらに以下の作用ステップ、すなわち、
    前記環境センサ(US)の視点からテスト走行(R‘)、特に当該テスト走行の交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(301)
    を有する、請求項4または5に記載の方法(300)。
  7. 運転者支援システムを分析するためのコンピュータ支援式方法であって、当該運転者支援システムには、現実のテスト走行またはシミュレートされたテスト走行の間に、請求項2から6のいずれか一項に記載の方法(200,300)を用いて出力されるセンサデータと、他の仮想または現実のセンサであって、好ましくは車両のデータネットワーク、特にCANネットワーク内部で利用可能であるセンサのデータとが供給される方法。
  8. さらに以下の作用ステップ、すなわち、データストリーム、特に画像ストリームを損なう、特に歪めるステップであって、好ましくは天候条件および/または前記環境センサ(US)のハードウェアの欠陥が考慮されるステップ(104−1,104−2;204−1,204−2)
    を有する、請求項1から7のいずれか一項に記載の方法(100,200,300)。
  9. 一つまたは複数の前記テスト走行は、好ましくは上記の可能性からなる組み合わせを用いて、テストスタンドで、あるいはモデルベース型のシミュレーションにより、あるいは現実に実施される、請求項1から8のいずれか一項に記載の方法(100,200,300)。
  10. 運転者支援システムの環境センサ(US)をシミュレーションするために人工神経回路網(KNN)をトレーニングするためのシステム(10)であって、
    テスト走行(R)の交通シナリオを読み込むためのインターフェース(11)と、
    前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すための手段(12)と、
    前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段(13)、特にグラフィックカードと、
    前記環境センサ(US)が前記データストリームに基づいてセンサデータを生成することができるように、前記データストリームを出力するためのインターフェース(14)、特にディスプレイと、
    前記生成されたセンサデータ、前記テスト走行データおよび前記出力すべきセンサデータが前記人工神経回路網(KNN)に供給され得るデータインターフェース(15)と、を有するシステム。
  11. 運転者支援システムの環境センサ(US)を分析するためのシステム(20)であって、
    多数のテスト走行(R)の交通シナリオを読み込むためのインターフェース(21)と、
    前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すための手段(22)と、
    前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段(23)、特にグラフィックカードと、
    前記データストリームに基づいてセンサデータを生成する前記環境センサ(US)に前記データストリームを出力するためのインターフェース(24,24‘)、特にディスプレイと、
    前記テスト走行のシミュレーションデータ、前記出力すべきセンサデータ、および前記環境センサ(US)により生成される前記センサデータに基づき、人工神経回路網(KNN)を用いて最適化計算を実施するための手段(25)と、
    最適化計算に基づくシミュレーションモデルを用いてセンサデータを決定するための手段であって、当該シミュレーションモデルは任意のテスト走行(R‘)のデータストリーム、特に画像ストリームに基づいてセンサデータをシミュレートするために構成されている手段(26)と、
    前記シミュレーションモデルを用いて決定された前記センサデータを出力するためのデータインターフェース(27)と、を有するシステム。
  12. 運転者支援システムの環境センサ(US)をシミュレーションするためのシステム(30)であって、
    前記環境センサの視点からテスト走行(R‘)を写像するデータストリームを検知するためのインターフェース(32)、特にカメラUSまたはデータインターフェースと、
    任意のテスト走行(R‘)のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いて、センサデータを決定するための手段であって、当該シミュレーションモデルはテスト走行データおよび多数の異なるテスト走行(R)のデータストリームおよび当該テスト走行(R)の際に前記環境センサ(US)により生成されるセンサデータに基づき、人工神経回路網(KNN)を用いて行われる最適化計算に基づいている手段(33)と、
    前記シミュレーションモデルを用いて決定された前記センサデータを出力するためのデータインターフェース(34)と、を有するシステム。
JP2020534437A 2017-12-22 2018-12-20 環境センサの挙動モデル Pending JP2021508634A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ATA51070/2017 2017-12-22
ATA51070/2017A AT520781A2 (de) 2017-12-22 2017-12-22 Verhaltensmodell eines Umgebungssensors
PCT/AT2018/060311 WO2019119011A1 (de) 2017-12-22 2018-12-20 Verhaltensmodell eines umgebungssensors

Publications (1)

Publication Number Publication Date
JP2021508634A true JP2021508634A (ja) 2021-03-11

Family

ID=65019218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020534437A Pending JP2021508634A (ja) 2017-12-22 2018-12-20 環境センサの挙動モデル

Country Status (7)

Country Link
US (1) US11636684B2 (ja)
EP (1) EP3729213B1 (ja)
JP (1) JP2021508634A (ja)
KR (1) KR20200101441A (ja)
CN (1) CN111492320B (ja)
AT (1) AT520781A2 (ja)
WO (1) WO2019119011A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112572458B (zh) * 2020-12-21 2022-06-10 东软睿驰汽车技术(沈阳)有限公司 一种车辆速度控制器的性能估计方法和装置
CN113256976B (zh) * 2021-05-12 2022-08-05 中移智行网络科技有限公司 一种车路协同***、模拟仿真方法、车载设备和路侧设备
US20230056233A1 (en) * 2021-08-20 2023-02-23 Motional Ad Llc Sensor attack simulation system
DE102022110843A1 (de) * 2022-05-03 2023-11-09 Dspace Gmbh Verfahren und Vorrichtung zum Konfigurieren eines Moduls zur Simulation zumindest eines Sensors

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
US20170109644A1 (en) * 2015-10-19 2017-04-20 Ford Global Technologies, Llc Probabilistic Inference Using Weighted-Integrals-And-Sums-By-Hashing For Object Tracking

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593804B2 (en) 2007-10-31 2009-09-22 Caterpillar Inc. Fixed-point virtual sensor control system and method
US8606724B2 (en) * 2008-11-06 2013-12-10 International Business Machines Corporation Policy evolution with machine learning
CN103824452B (zh) * 2013-11-22 2016-06-22 银江股份有限公司 一种轻量级的基于全景视觉的违章停车检测装置
EP2950175B1 (de) * 2014-05-27 2021-03-31 dSPACE digital signal processing and control engineering GmbH Verfahren und Vorrichtung zum Testen eines Steuergerätes
DE102014012285A1 (de) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr
US10496766B2 (en) 2015-11-05 2019-12-03 Zoox, Inc. Simulation system and methods for autonomous vehicles
CN105975915B (zh) * 2016-04-28 2019-05-21 大连理工大学 一种基于多任务卷积神经网络的前方车辆参数识别方法
US10055675B2 (en) * 2016-06-15 2018-08-21 Ford Global Technologies, Llc Training algorithm for collision avoidance using auditory data
CN109643125B (zh) * 2016-06-28 2022-11-15 柯尼亚塔有限公司 用于训练自动驾驶***的逼真的3d虚拟世界创造与模拟
US20180025640A1 (en) * 2016-07-19 2018-01-25 Ford Global Technologies, Llc Using Virtual Data To Test And Train Parking Space Detection Systems
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors
DE102016218277B4 (de) * 2016-09-22 2021-08-12 Benjamin May Verfahren zur Funktionsprüfung eines Fahrassistenzsystems sowie Kontrolleinheit und Referenzeinrichtung für ein Fahrassistenzsystem
US11042155B2 (en) * 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
CN107492069B (zh) * 2017-07-01 2021-01-26 国网浙江省电力公司宁波供电公司 基于多镜头传感器的图像融合方法
US10861189B2 (en) * 2017-12-21 2020-12-08 Magna Electronics Inc. Vehicle camera model for simulation using deep neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
US20170109644A1 (en) * 2015-10-19 2017-04-20 Ford Global Technologies, Llc Probabilistic Inference Using Weighted-Integrals-And-Sums-By-Hashing For Object Tracking

Also Published As

Publication number Publication date
EP3729213B1 (de) 2022-02-09
US11636684B2 (en) 2023-04-25
EP3729213A1 (de) 2020-10-28
US20210056318A1 (en) 2021-02-25
CN111492320B (zh) 2024-05-24
KR20200101441A (ko) 2020-08-27
WO2019119011A1 (de) 2019-06-27
CN111492320A (zh) 2020-08-04
AT520781A2 (de) 2019-07-15

Similar Documents

Publication Publication Date Title
US10990854B2 (en) Method for quick estimation of a perspectival occlusion in a simulation of an imaging sensor
US11092966B2 (en) Building an artificial-intelligence system for an autonomous vehicle
JP2021508634A (ja) 環境センサの挙動モデル
CN111797526B (zh) 一种仿真测试场景构建方法及装置
CN109726426A (zh) 一种车辆自动驾驶虚拟环境构建方法
Reway et al. Test method for measuring the simulation-to-reality gap of camera-based object detection algorithms for autonomous driving
Bach et al. Reactive-replay approach for verification and validation of closed-loop control systems in early development
CN111428374A (zh) 零件缺陷检测方法、装置、设备及存储介质
Hospach et al. Simulation of falling rain for robustness testing of video-based surround sensing systems
Roth et al. Analysis and validation of perception sensor models in an integrated vehicle and environment simulation
WO2021146905A1 (zh) 基于深度学习的场景模拟器构建方法、装置和计算机设备
US11327878B2 (en) Method for rating a software component of an SiL environment
JP2020109602A (ja) モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム
CN114595738A (zh) 为识别模型生成训练数据的方法和生成识别模型的方法
CN115236997A (zh) 预测控制方法、装置、设备及计算机可读存储介质
Wagener et al. Automated scenario generation for testing advanced driver assistance systems based on post-processed reference laser scanner data
Hager et al. Raw data injection and failure testing of camera, radar, and lidar for highly automated systems
CN112097784A (zh) 一种地图传感器地图匹配结果的验证方法及装置
US20220405536A1 (en) Method and device for generating combined scenarios
US20230273047A1 (en) Method and Apparatus for Providing a High-Resolution Digital Map
US11262738B2 (en) Device and method for measuring, simulating, labeling and evaluating components and systems of vehicles
JP7365633B2 (ja) 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム
da Silva Lopes et al. Automated tests for automotive instrument panel cluster based on machine vision
US20230278589A1 (en) Autonomous driving sensor simulation
KR102601833B1 (ko) 게임 엔진에 기반한 자율주행 알고리즘 시뮬레이션 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230807