JP2021508634A - 環境センサの挙動モデル - Google Patents
環境センサの挙動モデル Download PDFInfo
- Publication number
- JP2021508634A JP2021508634A JP2020534437A JP2020534437A JP2021508634A JP 2021508634 A JP2021508634 A JP 2021508634A JP 2020534437 A JP2020534437 A JP 2020534437A JP 2020534437 A JP2020534437 A JP 2020534437A JP 2021508634 A JP2021508634 A JP 2021508634A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor
- environmental sensor
- test run
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007613 environmental effect Effects 0.000 title claims abstract description 113
- 238000012360 testing method Methods 0.000 claims abstract description 113
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000013528 artificial neural network Methods 0.000 claims abstract description 43
- 230000009471 action Effects 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000004088 simulation Methods 0.000 claims description 55
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000005457 optimization Methods 0.000 claims description 20
- 230000007547 defect Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 11
- 238000011161 development Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002285 radioactive effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 238000009736 wetting Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
- G05B19/042—Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
- G05B19/0423—Input/output
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/23—Pc programming
- G05B2219/23446—HIL hardware in the loop, simulates equipment to which a control module is fixed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
当該方法は好ましくは以下の作用ステップ、すなわち
テスト走行の交通シナリオを読み込むステップと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すステップと、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップと、
環境センサがデータストリームに基づいてセンサデータを生成することができ、1つのデータインターフェースに供給することができるように、データストリームを出力するステップであって、データインターフェースにテスト走行データおよび出力すべきセンサデータも供給される、ステップと、
供給されたデータを人工神経回路網に読み込むステップと、を有する。
当該システムは好ましくは、
テスト走行の交通シナリオを読み込むためのインターフェースと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すための手段と、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段、特にグラフィックカードと、
環境センサがデータストリームに基づいてセンサデータを生成することができるように、データストリームを出力するためのインターフェース、特にディスプレイと、
生成されたセンサデータ、テスト走行データおよび出力すべきセンサデータが人工神経回路網に供給され得るデータインターフェースと、を有する。
当該方法は好ましくは以下の作用ステップ、すなわち
多数のテスト走行の交通シナリオを読み込むステップと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すステップと、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップと、
データストリームに基づいてセンサデータを生成する環境センサにデータストリームを出力するステップと、
テスト走行データおよび出力すべきセンサデータおよび環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて最適化計算を実施するステップと、
最適化計算に基づくシミュレーションモデルを応用するステップであって、当該シミュレーションモデルはテスト走行のデータストリームに基づいてセンサデータをシミュレートし、出力するために構成されているステップと、を有する。
多数のテスト走行の交通シナリオを読み込むためのインターフェースと、
交通シナリオからテスト走行データと、環境センサにより出力すべきセンサデータとを導き出すための手段と、
環境センサの視点から交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段、特にグラフィックカードと、
データストリームに基づいてセンサデータを生成する環境センサにデータストリームを出力するためのインターフェース、特にディスプレイと、
テスト走行シミュレーションデータ、出力すべきセンサデータ、および環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて最適化計算を実施するための手段と、
最適化計算に基づくシミュレーションモデルを用いてセンサデータを決定するための手段であって、当該シミュレーションモデルは任意のテスト走行のデータストリーム、特に画像ストリームに基づいてセンサデータをシミュレートするために構成されている手段と、
シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェースと、を有する。
環境センサの視点からテスト走行を写像するデータストリームを検知するステップと、
テスト走行のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いてセンサデータを決定するステップであって、当該シミュレーションモデルは、テスト走行データおよび多数の異なるテスト走行のデータストリームおよび当該テスト走行の際に環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて行われる最適化計算に基づいているステップと、
シミュレーションモデルを用いて決定されたセンサデータを出力するステップと、を有する。
環境センサの視点からテスト走行を写像するデータストリームを検知するためのインターフェース、特にカメラと、
任意のテスト走行のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いて、センサデータを決定するための手段であって、当該シミュレーションモデルはテスト走行データおよび多数の異なるテスト走行のデータストリームおよび当該テスト走行(R)の際に環境センサにより生成されるセンサデータに基づき、人工神経回路網を用いて行われる最適化計算に基づいている手段と、
シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェースと、を有する。
11 テスト走行
12 データを導き出すための手段
13 データストリームを生成するための手段
14 インターフェース
14’ インターフェース
15 データインターフェース
20 システム
21 インターフェース
22 データを導き出すための手段
23 データストリームを生成するための手段
24 インターフェース
24’ インターフェース
25 最適化計算を実施するための手段
26 シミュレーションモデルを用いてセンサデータを決定するための手段
27 データインターフェース
30 システム
31 データストリームを生成する手段
32 データストリームを検知するためのインターフェース
33 シミュレーションモデルを用いてセンサデータを決定するための手段
34 シミュレーションモデルを用いて決定されたセンサデータを出力するためのデータインターフェース
R テスト走行
R‘ テスト走行
US 環境センサ
KNN 人工神経回路網
Claims (12)
- 交通シナリオにおける運転者支援システムの環境センサ(US)の挙動をシミュレーションするために人工神経回路網(KNN)をトレーニングするためのコンピュータ支援式方法(100)であって、以下の作用ステップ、すなわち
テスト走行(R)の交通シナリオを読み込むステップ(101)と、
前記交通シナリオからテスト走行データと、前記環境センサ(US)、特にカメラにより出力すべきセンサデータ、特に対象物リストとを導き出すステップ(102)と、
前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(103)と、
前記環境センサ(US)が前記データストリームに基づいてセンサデータを生成することができ、1つのデータインターフェース(15)に供給することができるように、前記データストリームを出力するステップ(105,105‘)であって、前記データインターフェースに前記テスト走行データおよび前記出力すべきセンサデータも供給される、ステップと、
前記供給されたデータを前記人工神経回路網(KNN)に読み込むステップ(106)と、を有する方法。 - 運転者支援システムの環境センサ(US)を分析するためのコンピュータ支援式方法(200)であって、以下の作用ステップ、すなわち
多数のテスト走行(R)の交通シナリオを読み込むステップ(201)と、
前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すステップ(202)と、
前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(203)と、
前記データストリームに基づいてセンサデータを生成する前記環境センサ(US)に前記データストリームを出力するステップ(205,205‘)と、
前記テスト走行データおよび前記出力すべきセンサデータおよび前記環境センサ(US)により生成される前記センサデータに基づき、人工神経回路網(KNN)を用いて最適化計算を実施するステップ(206)と、
前記最適化計算に基づくシミュレーションモデルを応用するステップであって、前記シミュレーションモデルは任意のテスト走行(R‘)のデータストリームに基づいてセンサデータをシミュレートし、出力するために構成されているステップ(207)と、を有する方法。 - 前記作用ステップは異なるテスト走行を用いて、前記人工神経回路網(KNN)が前記環境センサ(US)の機能をできる限り正確に写像するまで、特に最適化計算では考慮されないテスト走行(R‘)に関して、出力すべきセンサデータが、出力されたセンサデータと95%、好ましくは98%一致するまで繰り返される、請求項1または2に記載の方法(100,200)。
- 交通シナリオにおける運転者支援システムの環境センサ(US)、特にカメラの挙動をシミュレーションするためのコンピュータ支援式方法(300)であって、以下の作用ステップ、すなわち
前記環境センサ(US)の視点からテスト走行(R’)を写像するデータストリーム、特に画像ストリームを検知するステップ(302)と、
検知された前記データストリームに基づき、前記環境センサ(US)のシミュレーションモデルを用いてセンサデータを決定するステップであって、当該シミュレーションモデルは、センサデータ、特に対象物リストを任意のテスト走行(R‘)のデータストリームに基づいてシミュレートするために構成されており、前記シミュレーションモデルは、テスト走行データおよび多数の異なるテスト走行(R)のデータストリームおよび前記テスト走行(R)の際に前記環境センサ(US)により生成されるセンサデータに基づき、人工神経回路網(KNN)を用いて行われる最適化計算に基づいているステップ(303)と、
前記シミュレーションモデルを用いて決定された前記センサデータを出力するステップ(304)と、を有する方法。 - 前記センサデータはさらにシミュレーションのために用いられたテスト走行(R‘)のテスト走行データに基づいてシミュレートされる、請求項2から4のいずれか一項に記載の方法。
- さらに以下の作用ステップ、すなわち、
前記環境センサ(US)の視点からテスト走行(R‘)、特に当該テスト走行の交通シナリオを写像するデータストリーム、特に画像ストリームを生成するステップ(301)
を有する、請求項4または5に記載の方法(300)。 - 運転者支援システムを分析するためのコンピュータ支援式方法であって、当該運転者支援システムには、現実のテスト走行またはシミュレートされたテスト走行の間に、請求項2から6のいずれか一項に記載の方法(200,300)を用いて出力されるセンサデータと、他の仮想または現実のセンサであって、好ましくは車両のデータネットワーク、特にCANネットワーク内部で利用可能であるセンサのデータとが供給される方法。
- さらに以下の作用ステップ、すなわち、データストリーム、特に画像ストリームを損なう、特に歪めるステップであって、好ましくは天候条件および/または前記環境センサ(US)のハードウェアの欠陥が考慮されるステップ(104−1,104−2;204−1,204−2)
を有する、請求項1から7のいずれか一項に記載の方法(100,200,300)。 - 一つまたは複数の前記テスト走行は、好ましくは上記の可能性からなる組み合わせを用いて、テストスタンドで、あるいはモデルベース型のシミュレーションにより、あるいは現実に実施される、請求項1から8のいずれか一項に記載の方法(100,200,300)。
- 運転者支援システムの環境センサ(US)をシミュレーションするために人工神経回路網(KNN)をトレーニングするためのシステム(10)であって、
テスト走行(R)の交通シナリオを読み込むためのインターフェース(11)と、
前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すための手段(12)と、
前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段(13)、特にグラフィックカードと、
前記環境センサ(US)が前記データストリームに基づいてセンサデータを生成することができるように、前記データストリームを出力するためのインターフェース(14)、特にディスプレイと、
前記生成されたセンサデータ、前記テスト走行データおよび前記出力すべきセンサデータが前記人工神経回路網(KNN)に供給され得るデータインターフェース(15)と、を有するシステム。 - 運転者支援システムの環境センサ(US)を分析するためのシステム(20)であって、
多数のテスト走行(R)の交通シナリオを読み込むためのインターフェース(21)と、
前記交通シナリオからテスト走行データと、前記環境センサ(US)により出力すべきセンサデータとを導き出すための手段(22)と、
前記環境センサ(US)の視点から前記交通シナリオを写像するデータストリーム、特に画像ストリームを生成するための手段(23)、特にグラフィックカードと、
前記データストリームに基づいてセンサデータを生成する前記環境センサ(US)に前記データストリームを出力するためのインターフェース(24,24‘)、特にディスプレイと、
前記テスト走行のシミュレーションデータ、前記出力すべきセンサデータ、および前記環境センサ(US)により生成される前記センサデータに基づき、人工神経回路網(KNN)を用いて最適化計算を実施するための手段(25)と、
最適化計算に基づくシミュレーションモデルを用いてセンサデータを決定するための手段であって、当該シミュレーションモデルは任意のテスト走行(R‘)のデータストリーム、特に画像ストリームに基づいてセンサデータをシミュレートするために構成されている手段(26)と、
前記シミュレーションモデルを用いて決定された前記センサデータを出力するためのデータインターフェース(27)と、を有するシステム。 - 運転者支援システムの環境センサ(US)をシミュレーションするためのシステム(30)であって、
前記環境センサの視点からテスト走行(R‘)を写像するデータストリームを検知するためのインターフェース(32)、特にカメラUSまたはデータインターフェースと、
任意のテスト走行(R‘)のデータストリームに基づいてセンサデータをシミュレートするために構成されているシミュレーションモデルを用いて、センサデータを決定するための手段であって、当該シミュレーションモデルはテスト走行データおよび多数の異なるテスト走行(R)のデータストリームおよび当該テスト走行(R)の際に前記環境センサ(US)により生成されるセンサデータに基づき、人工神経回路網(KNN)を用いて行われる最適化計算に基づいている手段(33)と、
前記シミュレーションモデルを用いて決定された前記センサデータを出力するためのデータインターフェース(34)と、を有するシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA51070/2017 | 2017-12-22 | ||
ATA51070/2017A AT520781A2 (de) | 2017-12-22 | 2017-12-22 | Verhaltensmodell eines Umgebungssensors |
PCT/AT2018/060311 WO2019119011A1 (de) | 2017-12-22 | 2018-12-20 | Verhaltensmodell eines umgebungssensors |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021508634A true JP2021508634A (ja) | 2021-03-11 |
Family
ID=65019218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020534437A Pending JP2021508634A (ja) | 2017-12-22 | 2018-12-20 | 環境センサの挙動モデル |
Country Status (7)
Country | Link |
---|---|
US (1) | US11636684B2 (ja) |
EP (1) | EP3729213B1 (ja) |
JP (1) | JP2021508634A (ja) |
KR (1) | KR20200101441A (ja) |
CN (1) | CN111492320B (ja) |
AT (1) | AT520781A2 (ja) |
WO (1) | WO2019119011A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112572458B (zh) * | 2020-12-21 | 2022-06-10 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆速度控制器的性能估计方法和装置 |
CN113256976B (zh) * | 2021-05-12 | 2022-08-05 | 中移智行网络科技有限公司 | 一种车路协同***、模拟仿真方法、车载设备和路侧设备 |
US20230056233A1 (en) * | 2021-08-20 | 2023-02-23 | Motional Ad Llc | Sensor attack simulation system |
DE102022110843A1 (de) * | 2022-05-03 | 2023-11-09 | Dspace Gmbh | Verfahren und Vorrichtung zum Konfigurieren eines Moduls zur Simulation zumindest eines Sensors |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010026845A (ja) * | 2008-07-22 | 2010-02-04 | Yokogawa Electric Corp | 車載カメラ用電子ユニットの評価システム |
US20170109644A1 (en) * | 2015-10-19 | 2017-04-20 | Ford Global Technologies, Llc | Probabilistic Inference Using Weighted-Integrals-And-Sums-By-Hashing For Object Tracking |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7593804B2 (en) | 2007-10-31 | 2009-09-22 | Caterpillar Inc. | Fixed-point virtual sensor control system and method |
US8606724B2 (en) * | 2008-11-06 | 2013-12-10 | International Business Machines Corporation | Policy evolution with machine learning |
CN103824452B (zh) * | 2013-11-22 | 2016-06-22 | 银江股份有限公司 | 一种轻量级的基于全景视觉的违章停车检测装置 |
EP2950175B1 (de) * | 2014-05-27 | 2021-03-31 | dSPACE digital signal processing and control engineering GmbH | Verfahren und Vorrichtung zum Testen eines Steuergerätes |
DE102014012285A1 (de) * | 2014-08-22 | 2016-02-25 | Jenoptik Robot Gmbh | Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr |
US10496766B2 (en) | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
CN105975915B (zh) * | 2016-04-28 | 2019-05-21 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
US10055675B2 (en) * | 2016-06-15 | 2018-08-21 | Ford Global Technologies, Llc | Training algorithm for collision avoidance using auditory data |
CN109643125B (zh) * | 2016-06-28 | 2022-11-15 | 柯尼亚塔有限公司 | 用于训练自动驾驶***的逼真的3d虚拟世界创造与模拟 |
US20180025640A1 (en) * | 2016-07-19 | 2018-01-25 | Ford Global Technologies, Llc | Using Virtual Data To Test And Train Parking Space Detection Systems |
US10592805B2 (en) * | 2016-08-26 | 2020-03-17 | Ford Global Technologies, Llc | Physics modeling for radar and ultrasonic sensors |
DE102016218277B4 (de) * | 2016-09-22 | 2021-08-12 | Benjamin May | Verfahren zur Funktionsprüfung eines Fahrassistenzsystems sowie Kontrolleinheit und Referenzeinrichtung für ein Fahrassistenzsystem |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
CN107492069B (zh) * | 2017-07-01 | 2021-01-26 | 国网浙江省电力公司宁波供电公司 | 基于多镜头传感器的图像融合方法 |
US10861189B2 (en) * | 2017-12-21 | 2020-12-08 | Magna Electronics Inc. | Vehicle camera model for simulation using deep neural networks |
-
2017
- 2017-12-22 AT ATA51070/2017A patent/AT520781A2/de not_active Application Discontinuation
-
2018
- 2018-12-20 US US16/956,915 patent/US11636684B2/en active Active
- 2018-12-20 JP JP2020534437A patent/JP2021508634A/ja active Pending
- 2018-12-20 CN CN201880083021.0A patent/CN111492320B/zh active Active
- 2018-12-20 EP EP18833596.2A patent/EP3729213B1/de active Active
- 2018-12-20 KR KR1020207021403A patent/KR20200101441A/ko not_active Application Discontinuation
- 2018-12-20 WO PCT/AT2018/060311 patent/WO2019119011A1/de active Search and Examination
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010026845A (ja) * | 2008-07-22 | 2010-02-04 | Yokogawa Electric Corp | 車載カメラ用電子ユニットの評価システム |
US20170109644A1 (en) * | 2015-10-19 | 2017-04-20 | Ford Global Technologies, Llc | Probabilistic Inference Using Weighted-Integrals-And-Sums-By-Hashing For Object Tracking |
Also Published As
Publication number | Publication date |
---|---|
EP3729213B1 (de) | 2022-02-09 |
US11636684B2 (en) | 2023-04-25 |
EP3729213A1 (de) | 2020-10-28 |
US20210056318A1 (en) | 2021-02-25 |
CN111492320B (zh) | 2024-05-24 |
KR20200101441A (ko) | 2020-08-27 |
WO2019119011A1 (de) | 2019-06-27 |
CN111492320A (zh) | 2020-08-04 |
AT520781A2 (de) | 2019-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990854B2 (en) | Method for quick estimation of a perspectival occlusion in a simulation of an imaging sensor | |
US11092966B2 (en) | Building an artificial-intelligence system for an autonomous vehicle | |
JP2021508634A (ja) | 環境センサの挙動モデル | |
CN111797526B (zh) | 一种仿真测试场景构建方法及装置 | |
CN109726426A (zh) | 一种车辆自动驾驶虚拟环境构建方法 | |
Reway et al. | Test method for measuring the simulation-to-reality gap of camera-based object detection algorithms for autonomous driving | |
Bach et al. | Reactive-replay approach for verification and validation of closed-loop control systems in early development | |
CN111428374A (zh) | 零件缺陷检测方法、装置、设备及存储介质 | |
Hospach et al. | Simulation of falling rain for robustness testing of video-based surround sensing systems | |
Roth et al. | Analysis and validation of perception sensor models in an integrated vehicle and environment simulation | |
WO2021146905A1 (zh) | 基于深度学习的场景模拟器构建方法、装置和计算机设备 | |
US11327878B2 (en) | Method for rating a software component of an SiL environment | |
JP2020109602A (ja) | モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム | |
CN114595738A (zh) | 为识别模型生成训练数据的方法和生成识别模型的方法 | |
CN115236997A (zh) | 预测控制方法、装置、设备及计算机可读存储介质 | |
Wagener et al. | Automated scenario generation for testing advanced driver assistance systems based on post-processed reference laser scanner data | |
Hager et al. | Raw data injection and failure testing of camera, radar, and lidar for highly automated systems | |
CN112097784A (zh) | 一种地图传感器地图匹配结果的验证方法及装置 | |
US20220405536A1 (en) | Method and device for generating combined scenarios | |
US20230273047A1 (en) | Method and Apparatus for Providing a High-Resolution Digital Map | |
US11262738B2 (en) | Device and method for measuring, simulating, labeling and evaluating components and systems of vehicles | |
JP7365633B2 (ja) | 車両シミュレーションシステム、車両シミュレーション方法およびコンピュータプログラム | |
da Silva Lopes et al. | Automated tests for automotive instrument panel cluster based on machine vision | |
US20230278589A1 (en) | Autonomous driving sensor simulation | |
KR102601833B1 (ko) | 게임 엔진에 기반한 자율주행 알고리즘 시뮬레이션 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230508 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230807 |