JP2020135874A - ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 - Google Patents
ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 Download PDFInfo
- Publication number
- JP2020135874A JP2020135874A JP2020014845A JP2020014845A JP2020135874A JP 2020135874 A JP2020135874 A JP 2020135874A JP 2020014845 A JP2020014845 A JP 2020014845A JP 2020014845 A JP2020014845 A JP 2020014845A JP 2020135874 A JP2020135874 A JP 2020135874A
- Authority
- JP
- Japan
- Prior art keywords
- navigation
- mobile platform
- sensor
- map
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 109
- 230000033001 locomotion Effects 0.000 claims abstract description 15
- 230000007613 environmental effect Effects 0.000 claims description 33
- 230000009471 action Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 8
- 230000003542 behavioural effect Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 17
- 239000010410 layer Substances 0.000 description 17
- 238000013459 approach Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000004807 localization Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000000153 supplemental effect Effects 0.000 description 4
- 230000007723 transport mechanism Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000033986 Device capturing issue Diseases 0.000 description 1
- 241000283086 Equidae Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3819—Road shape data, e.g. outline of a route
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【解決手段】モバイルプラットフォームによって支持される第1のセンサからのデータに基づいて該モバイルプラットフォームの近傍内の環境を示すリアルタイムの環境情報を取得し、前記第1のセンサおよび前記モバイルプラットフォームにより支持されるおよび第2のセンサの少なくとも1つから取得されたセンサデータに基づいてナビゲーション特徴を検出し、該ナビゲーション特徴に対応する情報を少なくとも環境情報と統合して、ローカルナビゲーションマップを生成し、生成されたローカルナビゲーションマップに基づいて、前記モバイルプラットフォームの動きを制御するためのナビゲーションコマンドを生成する。
【選択図】 図2
Description
(a)自律ビークルの近傍にある環境の少なくとも一部を示す3次元(3D)環境情報と、
(b)前記自律ビークルによって支持される視覚センサおよび慣性センサから取得されたデータに少なくとも部分的に基づいて、リアルタイムでの前記3D環境情報に対する前記自律ビークルの位置および向きの少なくともいずれかと、
を決定することと、
前記自律ビークルにより支持される1つまたは複数のセンサから取得されたセンサデータに少なくとも部分的に基づいて、車線、エッジライン、ガイドライン、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または移動障害物の少なくとも1つを含むナビゲーション特徴を検出することと、
前記ナビゲーション特徴に対応する情報を少なくとも前記3D環境情報と統合してローカルナビゲーションマップを生成することと、
(a)生成されたローカルナビゲーションマップおよび(b)前記自律ビークルの決定された位置および方向の少なくともいずれかに少なくとも部分的に基づいて、前記自律ビークルのアクションを決定することと、
決定されたアクションに従って前記自律ビークルを移動させることと、
を備える。
前記モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得することと、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1および第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出することと、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成することと、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成することと、
を備える。
本発明の第4の側面によれば、モバイルプラットフォームに関連付けられた1つまたは複数のプロセッサに読み取られて以下の手順を前記プロセッサに実行させるコンピュータ実行可能命令を格納する非一時的なコンピュータ読み取り可能な記憶媒体が提供される:
モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得する手順、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1センサおよび第2センサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出する手順、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成する手順、および、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成する手順。
前記プログラムされたコントローラは、
モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得し、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1センサおよび第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出し、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成し、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成する、
ように構成される1つまたは複数のプロセッサを含む。
x’= Sx*x+Cx
y’= Sy*y+Cy
zn=w*z+(1−w)*zn−1
110…モバイルプラットフォーム
112…本体
114…センサセット
116…運搬機構
120…制御システム
122…第1のコントローラ
124…第2のコントローラ
126…コンピュータ可読媒体
128…通信リンク
140…距離測定デバイス
702…車線表示
704…制限速度
706…移動障害物
708…方向標識
802…無人航空機(UAV)
804…有人航空機
806…自律車両
808…自己平衡車両
810…地上ロボット
812…デバイス
814…仮想現実(VR)ヘッドマウントディスプレイ
816…拡張現実(AR)ヘッドマウントディスプレイ
900…コンピュータシステムまたは他の制御デバイス
905…プロセッサ
910…メモリ
915…ネットワークアダプタ
925…相互接続
930…オペレーティングシステム
1000…アーキテクチャ
1010…センサレイヤ
1020…セマンティックレイヤ
Claims (24)
- 自律ビークルを制御するためのコンピュータにより実施される方法であって、
(a)自律ビークルの近傍にある環境の少なくとも一部を示す3次元(3D)環境情報と、
(b)前記自律ビークルによって支持される視覚センサおよび慣性センサから取得されたデータに少なくとも部分的に基づいて、リアルタイムでの前記3D環境情報に対する前記自律ビークルの位置および向きの少なくともいずれかと、
を決定することと、
前記自律ビークルにより支持される1つまたは複数のセンサから取得されたセンサデータに少なくとも部分的に基づいて、車線、エッジライン、ガイドライン、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または移動障害物の少なくとも1つを含むナビゲーション特徴を検出することと、
前記ナビゲーション特徴に対応する情報を少なくとも前記3D環境情報と統合してローカルナビゲーションマップを生成することと、
(a)生成されたローカルナビゲーションマップおよび(b)前記自律ビークルの決定された位置および方向の少なくともいずれかに少なくとも部分的に基づいて、前記自律ビークルのアクションを決定することと、
決定されたアクションに従って前記自律ビークルを移動させることと、
を備える方法。 - 前記1つ以上のセンサは、視覚センサおよび慣性センサの少なくとも1つを含む、請求項1に記載の方法。
- モバイルプラットフォームを制御するためのコンピュータにより実施される方法であって、
前記モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得することと、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1および第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出することと、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成することと、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成することと、
を備える方法。 - 前記環境情報は深度情報を含む、請求項3に記載の方法。
- 前記環境情報は、前記モバイルプラットフォームの近傍内の前記環境の少なくとも一部の3D表現に対応する、請求項3に記載の方法。
- 前記第1のセンサは、LiDARセンサまたはステレオカメラのうちの少なくとも1つを含む、請求項3に記載の方法。
- 前記第2のセンサは、カメラ、LiDARセンサ、超音波センサ、およびレーダーのうちの少なくとも1つを含む、請求項3に記載の方法。
- 前記ナビゲーション特徴は、レーンマーキング、エッジライン、ガイドライン、横断歩道、信号機、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、および移動障害物のうちの少なくとも1つを含む、請求項3に記載の方法。
- ナビゲーション特徴を検出することは、少なくとも部分的に、1つ以上の人工ニューラルネットワークをセンサデータに適用することに基づく、請求項3に記載の方法。
- 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも前記ナビゲーション特徴のサブセットを前記環境情報の1つ以上の部分に関連付けることを含む、請求項3に記載の方法。
- 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、リアルタイムで実行される、請求項3に記載の方法。
- 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも部分的に、前記モバイルプラットフォームによって支持される少なくとも2つのセンサに関連付けられた参照システム間の空間的変換および時間的変換の少なくともいずれかに基づく、請求項3に記載の方法。
- 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも部分的に、前記モバイルプラットフォームの推定された位置および方向の少なくともいずれかに基づく、請求項3に記載の方法。
- 前記推定された位置および方向の少なくともいずれかは、1つまたは複数の精度基準を満たす、請求項13に記載の方法。
- 前記ナビゲーション特徴は第1のナビゲーション特徴であり、少なくとも1つの所定のナビゲーションマップに少なくとも部分的に基づいて第2のナビゲーション特徴を取得することをさらに含む、請求項3に記載の方法。
- 前記所定のナビゲーションマップに対する前記モバイルプラットフォームの位置を決定することをさらに含む、請求項15に記載の方法。
- 前記モバイルプラットフォームの前記決定された位置の近傍内の前記所定のナビゲーションマップから前記第2のナビゲーション特徴を取得することをさらに含む、請求項16に記載の方法。
- 前記第2のナビゲーション特徴を少なくとも前記環境情報と統合して、前記ローカルナビゲーションマップを生成することをさらに含む請求項15に記載の方法。
- 所定のナビゲーションマップに基づいて前記モバイルプラットフォームを制御するための行動予測を取得することをさらに含む、請求項3に記載の方法。
- 前記行動予測は、前記モバイルプラットフォームの閾値距離内での車線変更、停止、および方向転換のうちの少なくとも1つの予測を含む、請求項19に記載の方法。
- 1つ以上のナビゲーションコマンドを生成することは、前記行動予測にさらに基づく、請求項19に記載の方法。
- 前記モバイルプラットフォームは、無人航空機(UAV)、有人航空機、自律車両、自己平衡化車両、およびロボットのうちの少なくとも1つを含む、請求項3に記載の方法。
- 請求項3から請求項22のいずれか一項に記載の方法をコンピュータに実行させるためのプログラム。
- 請求項3から請求項22のいずれか一項に記載の方法に従って車両の1つまたは複数の動きを少なくとも部分的に制御するようにプログラムされたコントローラを含むビークル。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/075464 WO2020168464A1 (en) | 2019-02-19 | 2019-02-19 | Local sensing based autonomous navigation, and associated systems and methods |
CNPCT/CN2019/075464 | 2019-02-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020135874A true JP2020135874A (ja) | 2020-08-31 |
Family
ID=72143347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020014845A Pending JP2020135874A (ja) | 2019-02-19 | 2020-01-31 | ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210365038A1 (ja) |
EP (1) | EP3729333A4 (ja) |
JP (1) | JP2020135874A (ja) |
CN (1) | CN111837136A (ja) |
WO (1) | WO2020168464A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220066006A1 (en) * | 2020-08-25 | 2022-03-03 | Pony Ai Inc. | Real-time sensor calibration and calibration verification based on detected objects |
US11982772B2 (en) * | 2020-08-25 | 2024-05-14 | Pony Ai Inc. | Real-time sensor calibration and calibration verification based on statically mapped objects |
CN112347218B (zh) * | 2020-11-12 | 2024-06-04 | 珠海云洲智能科技股份有限公司 | 无人船艇的环境地图生成方法及无人船艇感知*** |
CN113899363B (zh) * | 2021-09-29 | 2022-10-21 | 北京百度网讯科技有限公司 | 车辆的定位方法、装置及自动驾驶车辆 |
US20230169780A1 (en) * | 2021-12-01 | 2023-06-01 | Motional Ad Llc | Automatically detecting traffic signals using sensor data |
FR3133357A1 (fr) * | 2022-03-14 | 2023-09-15 | Psa Automobiles Sa | Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile |
US20230303111A1 (en) * | 2022-03-22 | 2023-09-28 | Here Global B.V. | Autonomous vehicle navigation using non-connected map fragments |
CN114384920B (zh) * | 2022-03-23 | 2022-06-10 | 安徽大学 | 一种基于局部栅格地图实时构建的动态避障方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018510373A (ja) * | 2015-02-10 | 2018-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 自律車両ナビゲーションのための疎な地図 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602007003047D1 (de) * | 2006-05-30 | 2009-12-17 | Mazda Motor | Fahrassistent für ein Fahrzeug |
TWI391874B (zh) * | 2009-11-24 | 2013-04-01 | Ind Tech Res Inst | 地圖建置方法與裝置以及利用該地圖的定位方法 |
KR20160062261A (ko) * | 2014-11-24 | 2016-06-02 | 현대엠엔소프트 주식회사 | 차량용 내비게이션 시스템 및 그 제어방법 |
US9576185B1 (en) * | 2015-09-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Classifying objects detected by 3D sensors for autonomous vehicle operation |
US10203209B2 (en) * | 2016-05-25 | 2019-02-12 | Regents Of The University Of Minnesota | Resource-aware large-scale cooperative 3D mapping using multiple mobile devices |
US20180067494A1 (en) * | 2016-09-02 | 2018-03-08 | Delphi Technologies, Inc. | Automated-vehicle 3d road-model and lane-marking definition system |
US10380890B2 (en) * | 2017-02-08 | 2019-08-13 | Baidu Usa Llc | Autonomous vehicle localization based on walsh kernel projection technique |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN109100741B (zh) * | 2018-06-11 | 2020-11-20 | 长安大学 | 一种基于3d激光雷达及图像数据的目标检测方法 |
-
2019
- 2019-02-19 CN CN201980018225.0A patent/CN111837136A/zh active Pending
- 2019-02-19 EP EP19817915.2A patent/EP3729333A4/en not_active Withdrawn
- 2019-02-19 WO PCT/CN2019/075464 patent/WO2020168464A1/en unknown
-
2020
- 2020-01-31 JP JP2020014845A patent/JP2020135874A/ja active Pending
-
2021
- 2021-08-06 US US17/395,785 patent/US20210365038A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018510373A (ja) * | 2015-02-10 | 2018-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 自律車両ナビゲーションのための疎な地図 |
Also Published As
Publication number | Publication date |
---|---|
EP3729333A1 (en) | 2020-10-28 |
WO2020168464A1 (en) | 2020-08-27 |
CN111837136A (zh) | 2020-10-27 |
EP3729333A4 (en) | 2020-12-16 |
US20210365038A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020135874A (ja) | ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 | |
JP6906011B2 (ja) | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] | |
JP6878493B2 (ja) | 自動運転車両(adv)に用いるピッチ角の補正方法 | |
JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
JP6637088B2 (ja) | ウォルシュ・カーネル・投影技術に基づく自動運転車両の位置決め | |
JP6559535B2 (ja) | 障害物マップ生成装置、その方法、及び、そのプログラム | |
JP6672212B2 (ja) | 情報処理装置、車両、情報処理方法およびプログラム | |
CN112740268B (zh) | 目标检测方法和装置 | |
CN111417871A (zh) | 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理 | |
US11512975B2 (en) | Method of navigating an unmanned vehicle and system thereof | |
CN110390240B (zh) | 自动驾驶车辆中的车道后处理 | |
US20220057806A1 (en) | Systems and methods for obstacle detection using a neural network model, depth maps, and segmentation maps | |
CN111874006A (zh) | 路线规划处理方法和装置 | |
US20200103920A1 (en) | Stationary camera localization | |
US20200364883A1 (en) | Localization of a mobile unit by means of a multi-hypothesis kalman filter method | |
US11087145B2 (en) | Gradient estimation device, gradient estimation method, computer program product, and controlling system | |
JP2016157197A (ja) | 自己位置推定装置、自己位置推定方法およびプログラム | |
US20220373335A1 (en) | Position recognition method and position recognition system for vehicle | |
KR20200084446A (ko) | 전자 장치 및 그의 제어 방법 | |
JP7321035B2 (ja) | 物***置検出方法及び物***置検出装置 | |
US20190293444A1 (en) | Lane level accuracy using vision of roadway lights and particle filter | |
WO2024036984A1 (zh) | 目标定位方法及相关***、存储介质 | |
Elfring et al. | Vehicle localization using a traffic sign map | |
US20210158059A1 (en) | Systems and methods for determining the direction of an object in an image | |
JP2020204525A (ja) | 障害物検知装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |