JP2022003508A - 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム - Google Patents
軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022003508A JP2022003508A JP2021051797A JP2021051797A JP2022003508A JP 2022003508 A JP2022003508 A JP 2022003508A JP 2021051797 A JP2021051797 A JP 2021051797A JP 2021051797 A JP2021051797 A JP 2021051797A JP 2022003508 A JP2022003508 A JP 2022003508A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- weight
- points
- traffic tool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 title claims abstract description 37
- 238000003860 storage Methods 0.000 title claims abstract description 29
- 238000004590 computer program Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims description 23
- 230000009467 reduction Effects 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 6
- 238000011946 reduction process Methods 0.000 claims 4
- 238000010586 diagram Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
- G05D1/249—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Electromagnetism (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本開示の第9態様において、コンピュータプログラムを提供し、該コンピュータプログラムがプロセッサによって実行される際、本開示の第1と第2態様による方法を実現させる。
Claims (21)
- 軌道計画モデルの訓練方法であって、
交通工具の少なくとも1つのセンサーを使用して前記交通工具が位置する物理的環境の、前記交通工具の周辺の複数のオブジェクトを含む画像を取得するステップと、
前記画像に基づいて、前記軌道計画モデルによって、前記交通工具の前記画像における複数の初期軌道ポイントを示す特徴マップを取得するステップと、
前記画像を認識して、前記画像内の前記複数のオブジェクトのうちの道路オブジェクトに関連付けられている第1領域と、前記複数のオブジェクトのうちの非道路オブジェクトに関連付けられている第2領域を確定するステップと、
前記第1領域と前記第2領域に対する前記複数の初期軌道ポイントの位置関係に基づいて、計画軌道ポイントを確定するステップと、
前記計画軌道ポイントと前記交通工具の実際の軌道ポイントに基づいて、前記軌道計画モデルを訓練するステップと、を含む軌道計画モデルの訓練方法。 - 前記第1領域と前記第2領域を確定するステップは、
訓練された深度推定ネットワークに基づいて、前記複数のオブジェクトと前記交通工具との距離を示す深度マップを取得するステップと、
前記距離に基づいて前記第1領域と前記第2領域を確定するステップと、を含む請求項1に記載の方法。 - 計画軌道ポイントを確定するステップは、
前記位置関係に基づいて、前記複数の初期軌道ポイントのうちの初期軌道ポイントの対応する重みを確定するステップと、
前記重みと特徴マップに基づいて、前記計画軌道ポイントを確定するステップと、を含む請求項1に記載の方法。 - 重みを確定するステップは、
前記複数の初期軌道ポイントのうちの第1グループの初期軌道ポイントが前記第1領域にあるのに応答して、前記第1グループの初期軌道ポイントが第1重みを有すると確定するステップと、
前記複数の初期軌道ポイントのうちの第2グループの初期軌道ポイントが前記第2領域にあるのに応答して、前記第2グループの初期軌道ポイントが第2重みを有すると確定するステップと、を含み、
前記第1重みは前記第2重みより大きい、請求項3に記載の方法。 - 前記第1重みは1であり、前記第2重みは0.4である、請求項4に記載の方法。
- 前記第1領域と前記第2領域を含む識別マップに対して縮小処理を行うことをさらに含み、前記縮小処理は、
第1所定のフォーマットの前記識別マップと第2所定のフォーマットの前記特徴マップに基づいて縮小比率を確定すること、及び
前記縮小比率に基づいて第1所定のフォーマットの前記識別マップを第2所定のフォーマットの前記識別マップに縮小することを含む、請求項1に記載の方法。 - 非道路オブジェクトは、歩行者、交通工具、建築、植物または道路標識を含む、請求項1に記載の方法。
- 交通工具の軌道を確定する方法であって、
前記交通工具の少なくとも1つのセンサーを使用して前記交通工具が位置する物理的環境の画像を取得するステップと、
前記画像に基づいて、請求項1〜7のいずれか一項に記載の方法に従って訓練される軌道計画モデルによって前記交通工具の軌道を確定するステップと、を含む方法。 - 軌道計画モデルの訓練装置であって、
交通工具の少なくとも1つのセンサーを使用して前記交通工具が位置する物理的環境の、前記交通工具の周辺の複数のオブジェクトを含む画像を取得するように配置される画像取得モジュールと、
前記画像に基づいて、前記軌道計画モデルによって、前記交通工具の前記画像における複数の初期軌道ポイントを示す特徴マップを取得するように配置される特徴マップ確定モジュールと、
前記画像を認識して、前記画像内の前記複数のオブジェクトのうちの道路オブジェクトに関連付けられている第1領域と前記複数のオブジェクトのうちの非道路オブジェクトに関連付けられている第2領域を確定するように配置される画像認識モジュールと、
前記第1領域と前記第2領域に対する前記複数の初期軌道ポイントの位置関係に基づいて、計画軌道ポイントを確定するように配置される計画軌道確定モジュールと、
前記計画軌道ポイントと前記交通工具の実際の軌道ポイントに基づいて、前記軌道計画モデルを訓練するように配置される軌道計画訓練モジュールと、を備える、軌道計画モデルの訓練装置。 - 前記画像認識モジュールは、
訓練された深度推定ネットワークに基づいて、前記複数のオブジェクトと前記交通工具との距離を示す深度マップを取得するように配置される深度推定モジュールと、
前記距離に基づいて前記第1領域と前記第2領域を確定するように配置される領域確定モジュールと、を備える請求項9に記載の装置。 - 前記計画軌道確定モジュールは、
前記位置関係に基づいて、前記複数の初期軌道ポイントのうちの初期軌道ポイントの対応する重みを確定するように配置される重み確定モジュールと、
前記重みと特徴マップに基づいて、前記計画軌道ポイントを確定するように配置される軌道確定モジュールと、を備える請求項9に記載の装置。 - 前記重み確定モジュールは、
前記複数の初期軌道ポイントのうちの第1グループの初期軌道ポイントが前記第1領域にあるのに応答して、前記第1グループの初期軌道ポイントが第1重みを有すると確定するように配置される第1重み確定モジュールと、
前記複数の初期軌道ポイントのうちの第2グループの初期軌道ポイントが前記第2領域にあるのに応答して、前記第2グループの初期軌道ポイントが第2重みを有すると確定するように配置される第2重み確定モジュールと、を備え、
前記第1重みは前記第2重みより大きい、請求項11に記載の装置。 - 前記第1重みは1であり、前記第2重みは0.4である、請求項12に記載の装置。
- 前記第1領域と前記第2領域を含む識別マップに対して縮小処理を行うように配置される縮小処理モジュールをさらに備え、前記縮小処理モジュールは、
第1所定のフォーマットの前記識別マップと第2所定のフォーマットの前記特徴マップに基づいて縮小比率を確定するように配置される比率確定モジュールと、
前記縮小比率に基づいて第1所定のフォーマットの前記識別マップを第2所定のフォーマットの前記識別マップに縮小するように配置される縮小実行モジュールと、を備える請求項9に記載の装置。 - 非道路オブジェクトは、歩行者、交通工具、建築、植物または道路標識を含む、請求項9に記載の装置。
- 交通工具の軌道を確定する装置であって、
前記交通工具の少なくとも1つのセンサーを使用して前記交通工具が位置する物理的環境の画像を取得するように配置される画像確定モジュールと、
前記画像に基づいて、請求項9〜15のいずれか一項に記載の装置によって訓練される軌道計画モデルによって前記交通工具の軌道を確定するように配置される軌道確定モジュールと、を備える、交通工具の軌道を確定する装置。 - 電子機器であって、前記機器は、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と、を備え、当前記1つまたは複数のプログラムは前記1つまたは複数のプロセッサによって実行される際、前記1つまたは複数のプロセッサに請求項1〜7のいずれか一項に記載の方法を実現させる、電子機器。 - 電子機器であって、前記機器は、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と、を備え、前記1つまたは複数のプログラムは前記1つまたは複数のプロセッサによって実行される際、前記1つまたは複数のプロセッサに請求項8に記載の方法を実現させる、電子機器。 - コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、前記プログラムはプロセッサによって実行される際に請求項1〜7のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
- コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、前記プログラムはプロセッサによって実行される際に請求項8に記載の方法を実現する、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行される際、請求項1〜8のいずれか一項に記載の方法を実現させる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010623703.5A CN111860227B (zh) | 2020-06-30 | 2020-06-30 | 训练轨迹规划模型的方法、装置和计算机存储介质 |
CN202010623703.5 | 2020-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022003508A true JP2022003508A (ja) | 2022-01-11 |
JP7245275B2 JP7245275B2 (ja) | 2023-03-23 |
Family
ID=72988920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021051797A Active JP7245275B2 (ja) | 2020-06-30 | 2021-03-25 | 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11940803B2 (ja) |
EP (1) | EP3822852B1 (ja) |
JP (1) | JP7245275B2 (ja) |
KR (1) | KR102539942B1 (ja) |
CN (1) | CN111860227B (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112556701A (zh) * | 2020-12-23 | 2021-03-26 | 北京嘀嘀无限科技发展有限公司 | 用于定位交通工具的方法、装置、设备和存储介质 |
CN112785072B (zh) * | 2021-01-29 | 2024-04-12 | 北京百度网讯科技有限公司 | 路线规划和模型训练方法、装置、设备及存储介质 |
CN113031600B (zh) * | 2021-03-02 | 2023-09-05 | 京东鲲鹏(江苏)科技有限公司 | 一种轨迹生成方法、装置、存储介质及电子设备 |
DE102021112119A1 (de) * | 2021-05-10 | 2022-11-10 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zur Trajektorienplanung für ein Fahrzeug |
CN113506604B (zh) * | 2021-08-19 | 2022-07-12 | 遨博(北京)智能科技有限公司 | 一种按摩轨迹调整方法 |
CN114047764B (zh) * | 2021-11-16 | 2023-11-07 | 北京百度网讯科技有限公司 | 路径规划模型的训练方法和路径规划方法、装置 |
GB2619923A (en) * | 2022-06-20 | 2023-12-27 | Oxa Autonomy Ltd | A computer-implemented method of determining a trajectory of an autonomous vehicle |
CN115018182B (zh) * | 2022-06-28 | 2024-02-09 | 广东电网有限责任公司 | 一种通信电路的规划管理方法、装置、存储介质以及*** |
CN116777947B (zh) * | 2023-06-21 | 2024-02-13 | 上海汉朔信息科技有限公司 | 一种用户轨迹识别预测方法、装置及电子设备 |
CN118096835B (zh) * | 2024-04-26 | 2024-07-12 | 南京卓宇智能科技有限公司 | 高速小目标图像跟踪算法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017159882A (ja) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 認識結果提示装置、認識結果提示方法、認識対象提示装置及び認識対象提示方法 |
JP2019008796A (ja) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | 自律可能車両用衝突回避システム |
US20190034794A1 (en) * | 2017-07-27 | 2019-01-31 | Waymo Llc | Neural Networks for Vehicle Trajectory Planning |
WO2019178253A1 (en) * | 2018-03-13 | 2019-09-19 | Magic Leap, Inc. | Image-enhanced depth sensing using machine learning |
WO2019188389A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
JP2019530926A (ja) * | 2016-09-15 | 2019-10-24 | グーグル エルエルシー | イメージ深度予測ニューラルネットワーク |
JP2020507137A (ja) * | 2017-12-11 | 2020-03-05 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 車両周辺の物体を識別して測位するためのシステムおよび方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3437022A4 (en) * | 2017-06-22 | 2019-02-06 | Baidu.com Times Technology (Beijing) Co., Ltd. | TRAFFIC FORECASTS BASED ON CARDS FOR AUTONOMOUS DRIVING |
US10883844B2 (en) * | 2017-07-27 | 2021-01-05 | Waymo Llc | Neural networks for vehicle trajectory planning |
US10816992B2 (en) | 2018-04-17 | 2020-10-27 | Baidu Usa Llc | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) |
CN112204633B (zh) | 2018-05-31 | 2021-11-09 | 北美日产公司 | 概率性对象跟踪和预测框架 |
US11740630B2 (en) * | 2018-06-12 | 2023-08-29 | Skydio, Inc. | Fitness and sports applications for an autonomous unmanned aerial vehicle |
WO2019241022A1 (en) | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
CN112714913A (zh) * | 2018-09-26 | 2021-04-27 | 法弗人工智能有限公司 | 结构注释 |
US11077878B2 (en) * | 2018-11-02 | 2021-08-03 | Zoox, Inc. | Dynamic lane biasing |
CN109606384B (zh) * | 2018-12-29 | 2021-04-20 | 百度在线网络技术(北京)有限公司 | 车辆控制方法、装置、设备和存储介质 |
CN110083160B (zh) * | 2019-05-16 | 2022-04-19 | 哈尔滨工业大学(深圳) | 一种基于深度学习的机器人轨迹规划方法 |
KR20200133863A (ko) * | 2019-05-20 | 2020-12-01 | 삼성전자주식회사 | 첨단 운전자 지원 장치, 이의 캘리브레이션 방법 및 이의 객체를 검출하는 방법 |
US11227187B1 (en) * | 2019-05-23 | 2022-01-18 | Augustus Intelligence Inc. | Generating artificial intelligence solutions using raw data and simulated data |
US11625839B2 (en) * | 2020-05-18 | 2023-04-11 | Toyota Research Institute, Inc. | Bird's eye view based velocity estimation via self-supervised learning |
US11402840B2 (en) * | 2020-06-30 | 2022-08-02 | Woven Planet North America, Inc. | Independent trajectory validation system for vehicles |
-
2020
- 2020-06-30 CN CN202010623703.5A patent/CN111860227B/zh active Active
-
2021
- 2021-03-25 JP JP2021051797A patent/JP7245275B2/ja active Active
- 2021-03-29 US US17/216,208 patent/US11940803B2/en active Active
- 2021-03-31 EP EP21166377.8A patent/EP3822852B1/en active Active
- 2021-03-31 KR KR1020210042199A patent/KR102539942B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017159882A (ja) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 認識結果提示装置、認識結果提示方法、認識対象提示装置及び認識対象提示方法 |
JP2019530926A (ja) * | 2016-09-15 | 2019-10-24 | グーグル エルエルシー | イメージ深度予測ニューラルネットワーク |
JP2019008796A (ja) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | 自律可能車両用衝突回避システム |
US20190034794A1 (en) * | 2017-07-27 | 2019-01-31 | Waymo Llc | Neural Networks for Vehicle Trajectory Planning |
JP2020507137A (ja) * | 2017-12-11 | 2020-03-05 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 車両周辺の物体を識別して測位するためのシステムおよび方法 |
WO2019178253A1 (en) * | 2018-03-13 | 2019-09-19 | Magic Leap, Inc. | Image-enhanced depth sensing using machine learning |
WO2019188389A1 (ja) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Non-Patent Citations (1)
Title |
---|
WENYUAN ZENG ET AL.: "End-To-End Interpretable Neural Motion Planner", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022047430, 15 June 2019 (2019-06-15), ISSN: 0004915785 * |
Also Published As
Publication number | Publication date |
---|---|
US20210216077A1 (en) | 2021-07-15 |
CN111860227B (zh) | 2024-03-08 |
EP3822852B1 (en) | 2023-10-11 |
KR20210043516A (ko) | 2021-04-21 |
JP7245275B2 (ja) | 2023-03-23 |
CN111860227A (zh) | 2020-10-30 |
US11940803B2 (en) | 2024-03-26 |
KR102539942B1 (ko) | 2023-06-02 |
EP3822852A2 (en) | 2021-05-19 |
EP3822852A3 (en) | 2021-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022003508A (ja) | 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム | |
CN108216229B (zh) | 交通工具、道路线检测和驾驶控制方法及装置 | |
US11276230B2 (en) | Inferring locations of 3D objects in a spatial environment | |
US20220011122A1 (en) | Trajectory prediction method and device | |
WO2021249071A1 (zh) | 一种车道线的检测方法及相关设备 | |
US20210373161A1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
CN112740268B (zh) | 目标检测方法和装置 | |
CN111582189B (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
Niranjan et al. | Deep learning based object detection model for autonomous driving research using carla simulator | |
EP3690744B1 (en) | Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same | |
CN112819864B (zh) | 一种行驶状态检测方法、装置及存储介质 | |
US20200125899A1 (en) | Method and apparatus to train image recognition model, and image recognition method and apparatus | |
CN112257668A (zh) | 主辅路判断方法、装置、电子设备及存储介质 | |
CN114882457A (zh) | 一种模型的训练方法、车道线的检测方法及设备 | |
CN111079634A (zh) | 车辆行驶中检测障碍物的方法、装置、***及车辆 | |
US11796338B2 (en) | Automated semantic mapping | |
CN113012191A (zh) | 一种基于点云多视角投影图的激光里程计算法 | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及*** | |
CN113902047B (zh) | 图像元素匹配方法、装置、设备以及存储介质 | |
US20230196749A1 (en) | Training Neural Networks for Object Detection | |
US20220237402A1 (en) | Static occupancy tracking | |
CN114119757A (zh) | 图像处理方法、装置、设备、介质和计算机程序产品 | |
Perla et al. | Implementation of Autonomous Cars using Machine Learning | |
Li et al. | Segm: A novel semantic evidential grid map by fusing multiple sensors | |
Zhang et al. | PilotAttnNet: Multi-modal Attention Network for End-to-End Steering Control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7245275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |