JP7301245B2 - モデル幾何学学習を用いて移動物体の拡大状態を追跡するためのシステムおよび方法 - Google Patents
モデル幾何学学習を用いて移動物体の拡大状態を追跡するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7301245B2 JP7301245B2 JP2022572884A JP2022572884A JP7301245B2 JP 7301245 B2 JP7301245 B2 JP 7301245B2 JP 2022572884 A JP2022572884 A JP 2022572884A JP 2022572884 A JP2022572884 A JP 2022572884A JP 7301245 B2 JP7301245 B2 JP 7301245B2
- Authority
- JP
- Japan
- Prior art keywords
- measurements
- distribution
- model
- truncated
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- 238000005259 measurement Methods 0.000 claims description 217
- 238000009826 distribution Methods 0.000 claims description 137
- 230000033001 locomotion Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 18
- 238000005520 cutting process Methods 0.000 claims description 16
- 239000000523 sample Substances 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000008054 signal transmission Effects 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000001143 conditioned effect Effects 0.000 claims description 2
- 239000002245 particle Substances 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 8
- 230000006978 adaptation Effects 0.000 description 4
- 230000003205 diastolic effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Probability & Statistics with Applications (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本願は、2020年2月13日に出願された係属中の米国特許出願16/789,931の一部継続出願である。
階層測定モデル
拡張物体追跡(EOT)アルゴリズム
拡大状態の予測
機械学習を使用しオフライン訓練データセットを用いて測定モデルの幾何学的パラメータを推定
学習された階層切断モデルのためのランダム行列方式
Claims (15)
- 移動している物体の位置を示す運動学的状態と前記物体の寸法および方位のうちの一方または組み合わせを示す拡張状態とを含む前記物体の拡大状態を追跡するためのシステムであって、前記システムは、
複数回の信号送信を用いて、移動している物体を含むシーンを探査することにより、前記送信一回当たり前記物体の複数の測定値を生成するように構成された、少なくとも1つのセンサと、
確率分布を切断するための切断間隔の値を格納するように構成されたメモリと、
前記物体の運動モデルおよび前記物体の測定モデルによって推定された前記物体の前記拡大状態の結合確率を追跡する確率的フィルタを実行するように構成されたプロセッサとを備え、前記測定モデルは切断間隔を有する中心切断分布を含み、前記中心切断分布は、前記切断間隔の内側の前記中心切断分布の中心の前記測定値に対してより小さな確率を提供し、前記切断間隔の外側の前記測定値に対してより大きな確率を提供し、前記中心切断分布は、前記切断間隔に従い、基礎となる非切断分布を切断したものであり、前記確率的フィルタは、前記測定値にフィットする前記中心切断分布を推定し前記中心切断分布に対応する基礎となる非切断分布の平均および分散を生成するように構成され、前記基礎となる非切断分布の前記平均は、前記拡大状態の前記物体の位置を示し、前記基礎となる非切断分布の前記分散は、前記拡大状態の前記物体の寸法および方位を示し、前記システムはさらに、
前記物体の前記拡大状態を出力するように構成された出力インターフェイスを備える、システム。 - 前記測定モデルは、訓練データから学習された構造幾何学パラメータを有する階層切断ガウスモデルを含み、前記構造幾何学パラメータは前記切断間隔を含み、前記確率的フィルタは、ベイズフィルタ、カルマンフィルタ、および粒子フィルタのうちの1つまたは組み合わせであり、前記結合確率は、前記確率的フィルタの以前の繰り返し中に推定された前記拡大状態を条件とする事後確率である、請求項1に記載のシステム。
- 前記訓練データは、異なる物体の異なる運動の異なる測定値を含み、前記構造幾何学パラメータは、機械学習を用いて、前記訓練データを共通単位座標系に変換することにより、学習される、請求項2に記載のシステム。
- 前記訓練データから学習された前記構造幾何学パラメータは、前記切断間隔の範囲を規定する切断境界と、前記物体の方位に対する前記切断間隔の方位とを含む、請求項2に記載のシステム。
- 前記測定値はノイズの影響を受け、前記測定値はノイズで修正された前記測定値のソースを含み、前記階層切断ガウスモデルの前記構造幾何学パラメータは、前記ノイズの除去の後に前記測定値のソースから学習される、または
前記ノイズは、前記訓練データから学習されたノイズ共分散行列によって規定され、前記階層切断ガウスモデルは、前記ノイズ共分散行列に従う前記中心切断分布の拡がりを含む、請求項4に記載のシステム。 - 前記メモリは、前記訓練データにおける異なるアスペクト角について学習された前記切断間隔の異なる値を有する複数の測定モデルを格納し、前記確率的フィルタの実行の現在の繰り返しの中で、前記プロセッサは、前記確率的フィルタの以前の繰り返し中に収集された前記測定値に基づいて前記切断間隔の現在の値を有する現在の測定モデルを前記メモリから選択し、前記切断間隔の前記現在の値を有する前記中心切断分布を有する前記現在の測定モデルを用いて前記拡大状態を更新する、請求項3に記載のシステム。
- 前記切断間隔の前記異なる値は、前記センサに対する前記物体の遮蔽の異なる種類に対して予め定められ、前記プロセッサは、前記遮蔽の種類の変化の検出に応じて前記切断間隔の前記現在の値の選択を更新する、または
前記メモリに格納された少なくとも1つの切断間隔は、無限大で終わるオープンエンドの間隔である、請求項6に記載のシステム。 - 前記運動モデルは、前記物体の前記寸法が固定値であり前記物体の方位が変化する場合の前記物体の前記拡大状態を予測し、前記物体の前記寸法は、前記測定モデルのみによって更新され、前記物体の前記方位は、前記運動モデルおよび前記測定モデルの双方によって更新される、請求項3に記載のシステム。
- 前記測定モデルの実行により、前記測定値にフィットする共分散行列が出力され、前記共分散行列の対角要素が前記物体の前記寸法を規定し、前記共分散行列の非対角要素が前記物体の前記方位を規定する、または
前記基礎となる非切断分布はガウス分布であり、前記中心切断分布は中心切断ガウス分布である、請求項1に記載のシステム。 - 前記確率的フィルタは、繰り返し、前記運動モデルを使用して、前記拡大状態を予測し、前記測定モデルを使用して、前記運動モデルによって予測された前記拡大状態を更新し、前記更新は、前記物体の前記拡大状態のランダム行列ベースの更新を使用する、請求項1に記載のシステム。
- 前記ランダム行列ベースの更新は、前記物体の前記拡大状態を繰り返し更新することにより、前記測定値の分布の統計に収束する、請求項10に記載のシステム。
- 前記測定値は、ノイズ共分散行列によって規定されるノイズの影響を受け、前記切断間隔は前記ノイズがない前記測定値のソースについて決定され、前記確率的フィルタは、前記中心切断分布に従って前記測定値の前記ノイズなしのソースの尤度を評価する前に前記測定値から前記ノイズを除去するように構成され、前記確率的フィルタは、前記測定値の前記ノイズなしのソースにフィットする前記中心切断分布を生成する、請求項1に記載のシステム。
- 前記測定値はノイズの影響を受け、前記切断間隔は測定値について直接決定され、前記確率的フィルタは、階層制の前記中心切断分布に従って前記測定値の尤度を評価するように構成され、前記確率的フィルタは、前記測定値にフィットする前記階層制の前記中心切断分布を生成する、請求項1に記載のシステム。
- 前記物体は車両であり、前記拡大状態の更新は、グローバル座標系から前記車両のローカル座標系に変換された測定値のスキャン・アグリゲーションを含む、請求項1に記載のシステム。
- 前記メモリは前記車両のモデルを格納するように構成され、前記車両のモデルは、プロセスノイズの影響を受ける前記物体の前記運動モデルと、測定ノイズの影響を受ける前記物体の前記測定モデルとを含み、前記プロセスノイズおよび前記測定ノイズのうちの一方または組み合わせが、前記車両の前記拡大状態の不確かさを制限し、前記プロセッサは、制限された不確かさを有する前記拡大状態の前記車両の前記モデルを用いて車両のコントローラに対する制御入力を決定し、前記制御入力に従って前記車両を制御するように構成される、請求項14に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/789,931 | 2020-02-13 | ||
US16/789,931 US11619494B2 (en) | 2020-02-13 | 2020-02-13 | System and method for tracking expanded state of an object |
US16/939,250 US11879964B2 (en) | 2020-02-13 | 2020-07-27 | System and method for tracking expanded state of moving object with model geometry learning |
US16/939,250 | 2020-07-27 | ||
PCT/JP2021/004856 WO2021162018A1 (en) | 2020-02-13 | 2021-02-02 | System and method for tracking expanded state of moving object with model geometry learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023512604A JP2023512604A (ja) | 2023-03-27 |
JP7301245B2 true JP7301245B2 (ja) | 2023-06-30 |
Family
ID=74884998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022572884A Active JP7301245B2 (ja) | 2020-02-13 | 2021-02-02 | モデル幾何学学習を用いて移動物体の拡大状態を追跡するためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11879964B2 (ja) |
EP (1) | EP3942331B1 (ja) |
JP (1) | JP7301245B2 (ja) |
CN (1) | CN115066632A (ja) |
WO (1) | WO2021162018A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220129758A1 (en) * | 2020-10-27 | 2022-04-28 | Raytheon Company | Clustering autoencoder |
US11914023B2 (en) * | 2021-05-05 | 2024-02-27 | Mitsubishi Electric Research Laboratories, Inc. | System and method for tracking an expanded state of a moving object using a compound measurement model |
CN113989327B (zh) * | 2021-10-27 | 2023-04-07 | 中国矿业大学 | 一种基于卷积神经网络粒子滤波算法的单uuv目标状态估计方法 |
CN117109593B (zh) * | 2023-10-20 | 2024-01-30 | 中国石油大学(华东) | 一种基于鲁棒卡尔曼滤波的潜油机器人定位方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165421A (ja) | 2003-11-28 | 2005-06-23 | Denso Corp | センサフュージョンシステム及びそれを用いた車両制御装置 |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2019215281A (ja) | 2018-06-13 | 2019-12-19 | 株式会社デンソーテン | レーダ装置および物標データ出力方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2799902A1 (en) * | 2013-04-30 | 2014-11-05 | Baselabs GmbH | Method and apparatus for the tracking of multiple objects |
US11619494B2 (en) * | 2020-02-13 | 2023-04-04 | Mitsubishi Electric Research Laboratories, Inc. | System and method for tracking expanded state of an object |
-
2020
- 2020-07-27 US US16/939,250 patent/US11879964B2/en active Active
-
2021
- 2021-02-02 EP EP21712583.0A patent/EP3942331B1/en active Active
- 2021-02-02 WO PCT/JP2021/004856 patent/WO2021162018A1/en unknown
- 2021-02-02 JP JP2022572884A patent/JP7301245B2/ja active Active
- 2021-02-02 CN CN202180013469.7A patent/CN115066632A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165421A (ja) | 2003-11-28 | 2005-06-23 | Denso Corp | センサフュージョンシステム及びそれを用いた車両制御装置 |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2019215281A (ja) | 2018-06-13 | 2019-12-19 | 株式会社デンソーテン | レーダ装置および物標データ出力方法 |
Non-Patent Citations (2)
Title |
---|
"Truncated normal distribution over a union of intervals",INTERNETARCHIVE [online],2016年07月06日, <URL: https://stats.stackexchange.com/questions/221689/truncated-normal-distribution-over-a-union-of-intervals > |
YUAN, Ting 外4名,"Extended object tracking using IMM approach for a real-world vehicle sensor fusion system",2017 IEEE INTERNATIONAL CONFERENCE ON MULTISENSOR FUSION AND INTEGRATION FOR INTELLIGENT SYSTEMS (MFI),2017年11月,Pages 638-643,< doi: 10.1109/MFI.2017.8170394 > |
Also Published As
Publication number | Publication date |
---|---|
JP2023512604A (ja) | 2023-03-27 |
EP3942331A1 (en) | 2022-01-26 |
WO2021162018A1 (en) | 2021-08-19 |
CN115066632A (zh) | 2022-09-16 |
US20210264173A1 (en) | 2021-08-26 |
EP3942331B1 (en) | 2023-05-03 |
US11879964B2 (en) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297172B2 (ja) | 物体の拡大状態を追跡するためのシステムおよび方法 | |
JP7301245B2 (ja) | モデル幾何学学習を用いて移動物体の拡大状態を追跡するためのシステムおよび方法 | |
EP3714290B1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
EP3714285B1 (en) | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles | |
JP5539680B2 (ja) | 線形特徴を用いた対象追跡 | |
US11188089B2 (en) | Localization for autonomous vehicles using gaussian mixture models | |
US20180025640A1 (en) | Using Virtual Data To Test And Train Parking Space Detection Systems | |
EP4143604B1 (en) | System and method for tracking an expanded state of a moving object using a compound measurement model | |
CN109655814A (zh) | 车辆传感器操作 | |
EP4307244A1 (en) | Method, apparatus, electronic device and medium for target state estimation | |
EP4345417A2 (en) | Method, apparatus, electronic device and medium for target state estimation | |
CN118140154A (zh) | 用于使用在线自适应复合测量模型跟踪移动目标的扩展状态的***和方法 | |
CN113261007A (zh) | 用于自动和自主车辆的多传感器数据融合的方法和装置 | |
CN113330449A (zh) | 用于为车辆提供对象的轨迹走向的方法、装置、计算机程序和计算机程序产品 | |
WO2022239637A1 (ja) | 追跡装置、追跡方法、追跡プログラム | |
US11530933B1 (en) | Vehicle navigation | |
CN116822154A (zh) | 车辆状态的估计方法、装置、设备和存储介质 | |
CN117433797A (zh) | 在车辆辅助***中确定物理环境的空闲空间边界的方法 | |
Zhang et al. | Distributed Road-Map Monitoring Using Onboard Sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7301245 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |