JP2020135874A - ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 - Google Patents

ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 Download PDF

Info

Publication number
JP2020135874A
JP2020135874A JP2020014845A JP2020014845A JP2020135874A JP 2020135874 A JP2020135874 A JP 2020135874A JP 2020014845 A JP2020014845 A JP 2020014845A JP 2020014845 A JP2020014845 A JP 2020014845A JP 2020135874 A JP2020135874 A JP 2020135874A
Authority
JP
Japan
Prior art keywords
navigation
mobile platform
sensor
map
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020014845A
Other languages
English (en)
Inventor
陸 馬
Lu Ma
陸 馬
劭劼 沈
Shaojie Shen
劭劼 沈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of JP2020135874A publication Critical patent/JP2020135874A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】外部から提供されるマップのみに依存することなくモバイルプラットフォーム向けの自律ナビゲーションを実現する。
【解決手段】モバイルプラットフォームによって支持される第1のセンサからのデータに基づいて該モバイルプラットフォームの近傍内の環境を示すリアルタイムの環境情報を取得し、前記第1のセンサおよび前記モバイルプラットフォームにより支持されるおよび第2のセンサの少なくとも1つから取得されたセンサデータに基づいてナビゲーション特徴を検出し、該ナビゲーション特徴に対応する情報を少なくとも環境情報と統合して、ローカルナビゲーションマップを生成し、生成されたローカルナビゲーションマップに基づいて、前記モバイルプラットフォームの動きを制御するためのナビゲーションコマンドを生成する。
【選択図】 図2

Description

本開示は、自律ナビゲーションの技術分野に関し、より具体的には、モバイルプラットフォーム用のローカルセンシングベースの自律運動を対象とする。
通常、自動運転車は、自動運転機能を実行するために、外部から提供される高精度のマップへのアクセスに依存している。外部の高精度マップは通常、データ収集車などの他のソースによって収集されたデータから事前に生成される。たとえば、データ収集車には、事前に計画されたルートに沿って道路をスキャンして画像データを収集するステレオカメラを含めることができ、これを(位置データを含む)高精度GPSオーバーレイと組み合わせて地域、国、または世界の3次元(3D)モデルを形成することができる。3Dモデルに基づいて、レーンマーキング、ナビゲーション可能エリアなどの基本的なナビゲーション特徴に自動または半自動のラベルを付けて、自動運転の基本的な「真の値」を提供できる。外部の高精度マップに依存して、車両の自動運転システムは通常、動的な障害物の検出と追跡に計算リソースを集中させ、車両を「運転」またはそれ以外の方法でナビゲートできるようにする。
しかしながら、外部から提供されたマップへのアクセスに依存すると、さまざまな欠点が生じる上、柔軟性がなくなる場合がある。したがって、モバイルプラットフォーム向けの自律ナビゲーションの改善されたシステムが必要とされている。
特開2011−112644
本発明は、外部の高精度マップに依存することなくモバイルプラットフォーム向けの自律ナビゲーションを実現することを主な目的とする。
本発明の第1の側面によれば、自律ビークルを制御するためのコンピュータにより実施される方法が提供され、前記方法は、
(a)自律ビークルの近傍にある環境の少なくとも一部を示す3次元(3D)環境情報と、
(b)前記自律ビークルによって支持される視覚センサおよび慣性センサから取得されたデータに少なくとも部分的に基づいて、リアルタイムでの前記3D環境情報に対する前記自律ビークルの位置および向きの少なくともいずれかと、
を決定することと、
前記自律ビークルにより支持される1つまたは複数のセンサから取得されたセンサデータに少なくとも部分的に基づいて、車線、エッジライン、ガイドライン、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または移動障害物の少なくとも1つを含むナビゲーション特徴を検出することと、
前記ナビゲーション特徴に対応する情報を少なくとも前記3D環境情報と統合してローカルナビゲーションマップを生成することと、
(a)生成されたローカルナビゲーションマップおよび(b)前記自律ビークルの決定された位置および方向の少なくともいずれかに少なくとも部分的に基づいて、前記自律ビークルのアクションを決定することと、
決定されたアクションに従って前記自律ビークルを移動させることと、
を備える。
本発明の第2の側面によれば、コンピュータにより実施される、モバイルプラットフォームを制御するための方法が提供され、前記方法は、
前記モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得することと、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1および第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出することと、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成することと、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成することと、
を備える。
本発明の第3の側面によれば、上記方法をコンピュータに実行させるためのプログラムが提供される。
本発明の第4の側面によれば、モバイルプラットフォームに関連付けられた1つまたは複数のプロセッサに読み取られて以下の手順を前記プロセッサに実行させるコンピュータ実行可能命令を格納する非一時的なコンピュータ読み取り可能な記憶媒体が提供される:
モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得する手順、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1センサおよび第2センサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出する手順、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成する手順、および、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成する手順。
本発明の第5の側面によれば、上記方法に従って車両の1つまたは複数の動きを少なくとも部分的に制御するようにプログラムされたコントローラを含むビークルが提供される。
さらに、本発明の第6の側面によれば、ビークルの1つまたは複数の動きを少なくとも部分的に制御するようにプログラムされたコントローラを含むビークルが提供される。
前記プログラムされたコントローラは、
モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得し、
少なくとも部分的に、前記モバイルプラットフォームにより支持される第1センサおよび第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出し、
ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成し、
生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成する、
ように構成される1つまたは複数のプロセッサを含む。
本発明のいくつかの実施形態によれば、外部の高精度マップに依存することなく、堅牢で効率的な自律ナビゲーションを実現することができる。
本開示技術のいくつかの実施形態に従って構成された要素を有する代表的なシステムの概略図の一例である。 本開示技術のいくつかの実施形態による、ローカルナビゲーションマップに基づく自律ナビゲーションのための方法を示すフローチャートである。 本開示技術のいくつかの実施形態による、ローカルセンサデータおよび所定のナビゲーションマップに基づいてローカルナビゲーションマップを生成する方法を示すフローチャートである。 本開示技術のいくつかの実施形態による、ローカルナビゲーションマップおよび所定のナビゲーションマップに基づいてモバイルプラットフォームのアクションを決定する方法を示すフローチャートである。 本開示技術のいくつかの実施形態による、点群形式の3D環境情報の例示的表現を示す。 本開示技術のいくつかの実施形態による、モバイルプラットフォームによって支持されるセンサから取得されたセンサデータの例を示す。 図6のセンサデータから本開示技術のいくつかの実施形態に従い検出されるナビゲーション特徴の一例を示す。 本開示技術の様々な実施形態に従って構成されたモバイルプラットフォームの例を示している。 本開示技術の様々な部分を実装するために利用できるコンピュータシステムまたは他の制御デバイスのアーキテクチャの例を示すブロック図である。 図1に示すシステムに実装された、本開示技術のいくつかの実施形態による例示的なアーキテクチャを示す図である。
本明細書で紹介する技術は、添付の図面と併せて以下の詳細な説明を参照することにより、より充分に理解することができる。
図面において同一または対応する要素・部材には同一の参照符号を付し、その重複説明は適宜省略する。また、図中の各部材の形状・サイズについては、説明を容易にするため、適宜拡大・縮小・省略するために現実の縮尺・比率とは合致していない場合がある。また、図面の説明においても、紙面の上下方向に即してそれぞれ「上」「下」の用語を便宜的に用いるために、重力加速度の方向と一致しない場合がある点に留意されたい。また、「実質的に」の用語は、測定誤差をも含む趣旨で使用される。
また、以下で使用される第1、第2等のような用語は、同一又は相応する構成要素を区別するための識別記号に過ぎなく、同一又は相応する構成要素が、第1、第2等の用語によって限定されるものではない。
さらに、結合とは、各構成要素間の接触関係において、各構成要素間に物理的に直接接触される場合だけを意味するのではなく、他の構成が各構成要素間に介在され、その他の構成に構成要素がそれぞれ接触されている場合まで含む概念である。
外部の高精度マップと高精度GPSは、自動運転車両に自動運転やその他のナビゲーション用のデータを提供する場合があるが、(例えば屋内の環境など)GPS信号が弱いかまたは望ましくないなどの理由で高精度マップが利用できない場合がある。これらの状況により、自律ナビゲーションが機能しなくなったり、無効になったりする可能性がある。さらに、外部の高精度マップに依存すると、少なくとも以下の欠点がある。
1. たとえば、高精度のデータ(たとえば、誤差がセンチメートル以下に制限されている)を通常、多数のソースからの比較的高価なセンサで収集する必要があるため、オフラインで高精度のマップを作成するとコストがかかる。
2. 高精度マップの更新と維持は、たとえば、現在の環境の正確な反映を提供するためにマップを通常頻繁に更新および維持する必要があるため、コストがかかる可能性がある。
3. (たとえば、マップが時間内に更新されず、自動車両にダウンロードされず、アクセスできないなどにより)高精度マップの取り込みに失敗した場合、自動運転システムの安全性が深刻な影響を受ける可能性がある。さらに、
4. 高精度のマップを作成するには、マッププロバイダーの資格または認証が必要になる場合がある。これは、さまざまな国や地域によって施行される現地の法律や規制を考えると複雑になる場合がある。
一般的に言えば、本開示技術のいくつかの態様は、モバイルプラットフォームによってローカルに検出されたナビゲーション特徴を統合して、ローカルの高精度ナビゲーションマップを形成することに向けられている。ローカルナビゲーションマップは、モバイルプラットフォームが静止、移動、またはさまざまな自律ナビゲーション機能を実行している間にローカルに取得された高精度の姿勢情報に一部基づいて、リアルタイムで生成できる。本開示技術のいくつかの側面は、外部マップから取得した機能を(「真実」データとは対照的に)補足データまたは参照データとして使用し、ローカルで生成されたナビゲーションマップを向上したり、モバイルプラットフォームのその他の自律ナビゲーション機能を支援したりするために使用することを目的とする。
実例として、本開示技術は、モバイルプラットフォームを制御する方法を提供する。代表的な方法によれば、モバイルプラットフォームに関連付けられたコントローラは、モバイルプラットフォームの近傍にある環境の少なくとも一部を示すリアルタイム環境情報を取得する。例えば、リアルタイム環境情報は、環境の少なくとも一部の3D表現に対応する深度情報を含むことができる。リアルタイム環境情報は、モバイルプラットフォームに搭載された1つまたは複数のセンサ(ステレオカメラやLiDAR(Light Detection and Ranging)センサなど)によって生成されたセンサデータに基づくことができる。
代表的な方法によれば、コントローラは、モバイルプラットフォームに搭載された1つ以上のセンサから取得したセンサデータに基づいてナビゲーション特徴を検出できる。これらのセンサは、リアルタイムの環境情報を生成するために使用されるセンサと重複する場合と重複しない場合がある。たとえば、ナビゲーション特徴の検出に使用されるセンサには、カメラ、LiDARセンサ、超音波センサ、レーダーなどがある。実例として、検出されたナビゲーション特徴には、車線またはマーキング、エッジラインまたはマーキング、ガイドラインまたはマーキング、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または動く障害物が含まれる。ナビゲーション特徴を検出するために、コントローラは、1つ以上の人工ニューラルネットワーク(artificial neural networks;ANN)および他の適切な機械学習技術の少なくともいずれかをセンサデータに適用できる。
代表的な方法によれば、コントローラは、ナビゲーション特徴に対応する情報をリアルタイム環境情報と統合して、ローカルナビゲーションマップを生成できる。情報統合プロセスには、ナビゲーション特徴のサブセットを環境情報の1つまたは複数の部分にリアルタイムで関連付けることが含まれる。実例として、統合プロセスは、(a)環境情報の生成に使用されるセンサと(b)ナビゲーション特徴の検出のために使用されるセンサに関連する参照システム間における空間的変換および時間的変換の少なくともいずれかに基づくことができる。代替的または追加的に、情報統合プロセスは、1つまたは複数の精度基準を満たすモバイルプラットフォームの推定位置および向きの少なくともいずれかに基づくことができる。たとえば、モバイルプラットフォームのローカリゼーションエラーは、推定位置ではセンチメートル、ミリメートル、またはそれ以下の大きさ、もしくは、推定方向角では10分の1度、100分の1度、またはそれより小さいもの、またはこれらのサイズ推定位置および推定方向角に制限できる。ローカルナビゲーションマップを使用すると、コントローラは1つ以上のナビゲーションコマンドを生成して、モバイルプラットフォームの動きを少なくとも部分的に制御できる。
場合によっては、コントローラは、(外部の高精度マップなどの)事前に決定されたナビゲーションマップに基づいて、追加の(たとえば、2番目の)ナビゲーション特徴をさらに取得することができる。コントローラは、所定のナビゲーションマップに対するモバイルプラットフォームの位置を決定し、モバイルプラットフォームの決定された位置の近傍にある所定のナビゲーションマップから第2のナビゲーション特徴を取得することができる。これらの場合、コントローラはさらに、2番目のナビゲーション特徴を環境情報と統合して、ローカルナビゲーションマップを生成できる。
場合によっては、コントローラは、所定のナビゲーションマップ(たとえば、外部の低精度マップ)に基づいてモバイルプラットフォームを制御するための行動予測をさらに取得することができる。行動予測には、移動プラットフォームが向かう方向に、あるしきい値距離内で車線変更、停止、または方向転換の予測を含めることができる。これらの場合、コントローラは、ローカルナビゲーションマップに加えて、行動予測に基づいてモバイルプラットフォームの1つ以上のナビゲーションコマンドを生成できる。
具体的には、未知の環境でナビゲートするために、代表的なモバイルプラットフォームはさまざまなセンサを使用して周囲の環境を検知し、環境をモデル化する高精度の3D情報(3D深度マップ、3D点群など)を生成できる。高精度3D環境情報の測定誤差は、センチメートル(たとえば、10センチメートル以下)、ミリメートル(たとえば、10ミリメートル以下)、またはそれ以下(たとえば、1ミリメートル未満)の大きさに制限できる。モバイルプラットフォームは、ローカルセンサから取得した姿勢情報を使用して、3D環境情報内で同時に自身(たとえば、その相対的な位置および向きの少なくともいずれか)を特定することができる。ローカリゼーションエラー(たとえば、3D環境情報内でモバイルプラットフォームを特定するためのエラー)は、センチメートル、ミリメートル、またはそれ以下の大きさに制限することもできる。
モバイルプラットフォームはナビゲートしているため、新しく収集されたセンサデータ(新しいステレオ画像、新しい点群など)に基づいて3D環境情報を継続的に更新できる。モバイルプラットフォームに関連付けられた計算リソースの制限を考えると、モバイルプラットフォームは、モバイルプラットフォームの現在の場所の特定の近接を超える環境機能を反映するセンサデータを無視または無視できる。3D環境情報が更新されると、モバイルプラットフォーム(またはそのセンサの1つ)の現在位置を中心とするローカル参照システム(3D座標系など)で表現または関連付けられる。
実例として、3D環境情報内でモバイルプラットフォームの位置を特定するために、モバイルプラットフォームに関連付けられたコントローラは、モバイルプラットフォームに搭載された適用可能なセンサの姿勢を判断できる。たとえば、コントローラは、慣性測定ユニット(nertial easurement nit;以下、単に「IMU」と称する。)またはモバイルプラットフォームに搭載された車輪走行距離計によって提供される姿勢情報にアクセスできる。
別の例として、コントローラは、新しく収集されたセンサデータに基づく点群を、更新される3D環境情報と比較して、センサの姿勢を決定できる。これを達成するための2つの代表的なアプローチは、ランドマークベースのアプローチと生データアプローチです。ランドマークは、環境内で一意に識別可能なオブジェクトであり、センサで推定できる場所がある。これらは、Wi−Fiアクセスポイントなどの物理的に特徴的なオブジェクト、または他の特徴的な特性(色など)を持つ空間ポイントにすることができる。このアプローチでは、コントローラは新しく収集されたセンサデータと3D環境情報のランドマークを識別し、それらを照合して姿勢を決定できる。一方、生データのアプローチでは、ランドマークを特定できるという仮定はせず、代わりに場所の関数として直接モデル化する。オプションで、IMUおよび走行距離計の少なくともいずれかによって提供されるデータを利用して、姿勢誤差をさらに減らすことができる。コントローラは、センサの姿勢を取得した後、新しく収集されたセンサデータ(たとえば、深度画像)を、その姿勢に従って融合することにより、3D環境情報を更新することができる。
したがって、外部の高精度マップに依存することなく、本開示技術の実施形態は、例えば、(ステレオカメラなどの)ビジョンセンサ、IMU、およびモバイルプラットフォームに搭載されたホイールオドメーターを使用して、モバイルプラットフォームコントローラにリアルタイムで姿勢の変化を(例えば6自由度および高精度で)推定することを可能にすることができる。高精度の姿勢推定に基づいて、本開示技術は、モバイルプラットフォームの近傍(たとえば200から500メートル以内)で小さな姿勢誤差を提供し、検出されたナビゲーション特徴を高い精度で統合または融合できるローカルナビゲーションマップを作成できる。ローカルの高精度ナビゲーションマップには、自律ナビゲーションに必要なすべての情報を含めることができるため、外部の高精度マップに依存することなく、堅牢で効率的な自律ナビゲーションシステムを実現できる。
いくつかの実施形態によれば、モバイルプラットフォームに関連付けられたコントローラは、機能の複数の層を含むことができる。たとえば、コントローラにはセンサレイヤを含めることができる。センサレイヤでは、多くのタイプのセンサが3D環境情報を生成するための深度情報を提供できる。例えば、レーザーセンサ(例えば、LiDARセンサ)および視覚センサ(例えば、ステレオ視覚カメラまたはRGB−Dカメラ)の少なくともいずれかをセンサレイヤとともに使用することができる。これらのセンサの動作原理は異なる場合があるが、周囲の環境の一部に関する深度情報やその他の3D情報を収集することができる。モバイルプラットフォームが動いている場合、オンボードセンサは、さまざまな角度から検出された深度または3D情報を継続的に収集できる。センサレイヤを使用すると、モバイルプラットフォームコントローラは、周囲の環境の少なくとも一部をモデル化する3D環境情報(たとえば、点群の形式)を生成できる。センサレイヤは、本開示技術の様々な実施形態に従って使用できる他のセンサ(例えば、IMU、GPSセンサなど)も含むことができる。
コントローラには認識レイヤ(認識層)を含めることができる。このレイヤでは、モバイルプラットフォームに搭載されているさまざまなセンサから取得したセンサデータからナビゲーション特徴を検出または抽出することができる。前述したように、ナビゲーション特徴には、特に道路状況、交通規制、方向情報、障害物に関連する要素を含めることができる。コントローラは、認識層に畳み込みニューラルネットワーク(CNN)などの適切な機械学習手法を実装できる。いくつかの実施形態では、特定のナビゲーション特徴の検出は、センサデータの個々の単一フレームで実行することができる。いくつかの実施形態では、特定のナビゲーション特徴の検出は、一連のセンサデータフレームで実行することができる。
コントローラには、統合レイヤを含むことができ、この統合レイアで、コントローラは、検出されたナビゲーション特徴(たとえば、車線またはマーキング、エッジラインまたはマーキング、ガイドラインまたはマーキング、シマウマの交差点、信号、交通標識、ガイドボード、ナビゲート可能な表面、または空間、静止障害物、または移動障害物)を、3D環境情報を使用して、時間的もしくは空間的に、または時間的および空間的に統合し、リアルタイムのローカルナビゲーションマップを生成することができる。統合レイヤを使用すると、コントローラは、モバイルプラットフォームの近傍にあるローカル環境と比較して高精度の表現を持つ検出されたナビゲーション特徴を提供できる。いくつかの実施形態では、検出されたナビゲーション特徴のすべては、モバイルプラットフォームに関連付けられたローカル座標系で(たとえば、モバイルプラットフォームの位置および向きの少なくともいずれかに基づいて更新されるローリングバッファの形で)表現される。いくつかの他の実施形態では、検出されたナビゲーション特徴は、他の適切な座標系で表現されてもよい。上述のように、ローカルナビゲーションマップを使用して、コントローラは1つ以上のナビゲーションコマンドを生成して、モバイルプラットフォームの動きを少なくとも部分的に制御することができる。
よく知られ、モバイルプラットフォーム(自動運転車、UAV、および他のタイプのモバイルプラットフォームの少なくともいずれかなど)および対応するシステムとサブシステムに関連付けられることが多い構造およびプロセスの少なくともいずれかのいくつかの詳細を説明する、いくつかの重要な側面を不必要に曖昧にする可能性がある本開示技術については、明確化の目的のために以下の説明では述べられていない。さらに、以下の開示は、本開示技術の異なる態様のいくつかの実施形態を説明しているが、いくつかの他の実施形態は、本明細書で説明したものとは異なる構成または異なるコンポーネントを有することができる。したがって、ここで開示されている技術は、追加の要素を備えた、および図1〜図10を参照して以下に説明する要素のいくつかの少なくともいずれかを備えない他の実施形態を有し得る。
図1〜図10は、本開示技術の代表的な実施形態を示すために提供されている。別段の定めがない限り、図面は、本出願の特許請求の範囲を限定することを意図していない。
以下に説明する技術の多くの実施形態は、プログラム可能なコンピュータまたはコントローラによって実行されるルーチンを含む、コンピュータまたはコントローラにより実行可能な命令(プログラム)の形を取り得る。プログラマブルコンピュータまたはコントローラは、対応するモバイルプラットフォーム上にある場合とない場合がある。たとえば、プログラム可能なコンピュータまたはコントローラは、モバイルプラットフォームのオンボードコンピュータ、モバイルプラットフォームに関連付けられた別個の専用コンピュータ、またはネットワークまたはクラウドベースのコンピューティングサービスの一部にすることができる。当業者は、以下に示され説明されるもの以外のコンピュータまたはコントローラシステム上で本開示技術を実施できることを理解するであろう。この技術は、以下で説明する1つ以上のコンピュータ実行可能命令を実行するように特別にプログラム、構成、または構築された専用コンピュータまたはデータプロセッサで実現できる。したがって、本明細書で一般的に使用される「コンピュータ」および「コントローラ」という用語は、任意のデータプロセッサを指し、(パームトップコンピュータ、ウェアラブルコンピュータ、携帯電話または移動電話、マルチプロセッサシステム、プロセッサベースまたはプログラム可能な家庭用電化製品、ネットワークコンピュータ、ミニコンピュータなどを含む)インターネット機器およびハンドヘルドデバイスを含むことができる。これらのコンピュータとコントローラで処理される情報は、LCD(液晶ディスプレイ)などの適切なディスプレイ媒体で表示できる。コンピュータまたはコントローラの実行可能なタスクを実行するための命令は、ハードウェア、ファームウェア、またはハードウェアとファームウェアの組み合わせを含む、任意の適切なコンピュータ読み取り可能な媒体中または媒体上に保存できる。命令は、例えば、フラッシュドライブ、USB(ユニバーサルシリアルバス)デバイス、および他の適切な媒体の少なくともいずれかを含む、任意の適切なメモリデバイスに含めることができる。したがって、特定の実施形態では、命令は一時的ではない。
図1は、本開示技術のいくつかの実施形態に従って構成された要素を有する代表的なシステム100の概略図である。システム100は、モバイルプラットフォーム110(例えば、自律車両)および制御システム120を含む。モバイルプラットフォーム110は、自律車両、無人航空機、またはロボットなどの任意の適切なタイプの可動物体であり得る。
モバイルプラットフォーム110は、ペイロード(例えば、乗客および貨物の少なくともいずれか)を運ぶことができる本体112を含むことができる。本体112は、撮像装置および光電子走査装置の少なくともいずれかなどの1つまたは複数のセンサを含むセンサセット114も担持することができる。例えば、センサセット114は、ステレオカメラ、モノカメラ、ビデオカメラ、スチールカメラ、およびLiDARセンサの少なくともいずれかを含むことができる。いくつかの実施形態では、センサセット114を使用して、ナビゲーションなどの機能を実行またはサポートすることができる。さらなる実施形態では、センサセット114を使用して、他の目的、例えば、とりわけ検査、不動産写真撮影、森林火災の監視などのために画像を取得することができる。
いくつかの実施形態では、センサセット114は、運搬機構116(例えば、ジンバル、ラック、もしくはクロスバー、またはこれらの組み合わせ)で本体112に対して支持される。運搬機構116により、センサセット114を本体112に対して独立して位置決めすることができる。
モバイルプラットフォーム110は、制御システム120からの制御コマンドの受信および制御システム120へのデータ送信の少なくともいずれかを行うように構成することができる。図1に示すように、図1に示す実施形態では、制御システム120は、モバイルプラットフォーム110に搭載されたいくつかのコンポーネントと、モバイルプラットフォーム110から離れて配置された、いくつかのコンポーネントとを含む。たとえば、制御システム120は、モバイルプラットフォーム110によって支持される第1のコントローラ122と、モバイルプラットフォーム110から離隔して配置されて通信リンク128(例えば、無線周波数(RF)ベースのリンク、Wi−Fiネットワーク、セルラーネットワーク、Bluetooth(登録商標)ベースのリンク、および他の近接場の無線リンクの少なくともいずれかなど)を介して接続される第2のコントローラ124(たとえば、リモートカーキーまたはコントローラアプリを実行するスマートフォンなどの人間操作のリモートコントローラ)を含むことができる。第1のコントローラ122は、これに限定されないが、モバイルプラットフォームの動きおよびペイロード116の動作を含む、モバイルプラットフォーム110の動作を指示する命令を実行するプログラムが格納されたコンピュータ可読媒体126を含むことができる。第2のコントローラ124は、1つ以上の入力/出力デバイス、例えばディスプレイおよび制御ボタンを含むことができる。いくつかの実施形態では、オペレータは、第2のコントローラ124を少なくとも部分的に操作してモバイルプラットフォーム110を遠隔制御し、ディスプレイ上および第2のコントローラ124上の少なくともいずれかの他のインターフェースを介してモバイルプラットフォーム110からフィードバックを受信する。いくつかの実施形態では、モバイルプラットフォーム110は自律的に動作する。その場合、第2のコントローラ124は排除するか、またはオペレータオーバーライド機能のみに使用することができる。
安全で効率的な操作を提供するために、モバイルプラットフォームが障害物を自律的または半自律的に検出できるようにすること、もしくは、障害物を回避するための回避操作を行えるようにすること、またはこれらの検出および回避操作の両方を行えるようにすることが有益な場合がある。さらに、環境オブジェクトの検知は、特にモバイルプラットフォームが半自律的または完全に自律的に動作している場合、ナビゲーション、ターゲット追跡、マッピングなどのモバイルプラットフォーム機能に役立つ。
本明細書で説明するモバイルプラットフォームは、(たとえば、センサセット114とは独立して)モバイルプラットフォームを取り巻く環境内のオブジェクトを検出するように構成された1つまたは複数のセンサを含むことができる。いくつかの実施形態では、モバイルプラットフォームは、物体とモバイルプラットフォームとの間の距離を測定するように構成された1つまたは複数のセンサ(たとえば、図1の距離測定デバイス140)を含む。距離測定装置は、モバイルプラットフォームの上部、下部、側面、または本体内など、さまざまな方法でモバイルプラットフォームに搭載できる。任意で、距離測定装置は、移動プラットフォームに対する平行移動および回転の少なくともいずれかを距離測定装置に可能にさせる、ジンバルまたは他の運搬機構を介して移動プラットフォームに結合することができる。いくつかの実施形態では、距離測定装置は、光を使用して物体までの距離を測定する光学距離測定装置を含むことができる。いくつかの実施形態では、距離測定装置は、ステレオ視覚データを提供できるステレオビジョンシステムであり、そこから深度情報を決定することができる。ステレオビジョンシステムは、ステレオカメラにすることができる。いくつかの実施形態では、距離測定装置は、LiDARシステム、レーダーシステム、またはレーザー距離計を含むことができる。
図10は、図1のモバイルプラットフォーム上で実施される例示的なアーキテクチャであって、本開示技術のいくつかの実施形態によるアーキテクチャ1000を示す。実例として、アーキテクチャ1000は、複数の機能レイヤを含むことができ、そのいくつかは、コントローラ(例えば、モバイルプラットフォームのオンボードコンピュータ、関連するコンピューティングデバイス、および関連するコンピューティングサービスの少なくともいずれか)を介して実装される。
図10を参照すると、アーキテクチャ1000は、モバイルプラットフォームによって支持される様々なセンサ(例えば、LiDAR、ステレオカメラ、レーダー、走行距離計、IMU、GPSなど)へのアクセスを含むことができるセンサレイヤ1010を含むことができる。一部の実施形態では、センサレイヤは、外部マップ(例えば、外部の高精度マップ)へのアクセスも含むことができる。アーキテクチャ1000は、センサレイヤへの直接または間接的なデータアクセスに基づいて、さまざまなタイプの推定、検出、位置特定、融合、または他の分析を実行する複数の機能モジュールを含むことができる。たとえば、個別のモジュールは、マルチセンサ状態推定および/または位置特定、マルチセンサ深度推定、マップベースの位置特定、LiDARベースの3D検出、ステレオベースの3D検出、レーダーベースの検出、リアルタイム3D再構築、車線と標識の検出、地図ベースの通過可能性、車線および標識の抽出、移動物体追跡のためのマルチセンサ融合、通過可能性分析、車線観測の融合などを実行できる。実例として、ローカルナビゲーションマップの例は、移動物体の追跡、横断性解析、車線観測の融合のためのマルチセンサ融合を実行するモジュールによって生成できる。アーキテクチャ100は、セマンティックレイヤ1020をさらに含むことができ、セマンティックレイヤ1020は、(例えば、モバイルプラットフォーム操縦の意思決定および/またはルート計画のため)モジュール生成結果を、より高いレベルのナビゲーションモジュールに送ることができるセマンティック値または表現にマッピングするためのセマンティックマッピングモジュールを含むことができる。
図2は、本開示技術のいくつかの実施形態による、ローカルナビゲーションマップに基づく自律ナビゲーションのための方法200を示すフローチャートである。方法200は、コントローラ(例えば、モバイルプラットフォームのオンボードコンピュータ、関連するコンピューティングデバイス、および関連するコンピューティングサービスの少なくともいずれか)によって実装され得る。
図2を参照すると、ブロック210で、方法200は、(a)モバイルプラットフォームの近傍にある環境の少なくとも一部を示す3次元(3D)環境情報、および、(b)3D環境情報に対する自律車両の位置および方向の少なくともいずれか、を決定することを含む。いくつかの実施形態では、この決定はリアルタイムで実行される。
実例として、3D環境情報の決定は、視覚センサ(例えば、ステレオカメラ)、LiDAR、またはモバイルプラットフォームによって支持されるレーダーに基づいて行うことができる。たとえば、ステレオカメラで生成されたステレオ画像を使用して、モバイルプラットフォームを取り巻く環境の少なくとも一部(モバイルプラットフォームが向かう方向など)をモデル化する高精度の3D環境情報を生成できる。3D環境情報は、さまざまな方法で表現およびフォーマットの少なくともいずれかを行うことができる。たとえば、3D情報は、3D点群、3Dメッシュ、符号付き距離フィールドなどの形式にすることができる。高精度3D環境情報の測定誤差は、センチメートル、ミリメートル、またはそれ以下の大きさに制限できる。これは、たとえば、LiDAR、ステレオカメラ、および特定の精度要件を満たす他のセンサの少なくともいずれかを使用し、モバイルプラットフォームの特定の近接範囲内の測定に対応するセンサデータのみを3D環境情報に組み込むことで実現できる。モバイルプラットフォームはナビゲートしているため、新しく収集されたセンサデータ(つまり、新しいステレオ画像、新しい点群など)に基づいて3D環境情報を継続的に更新できる。モバイルプラットフォームに関連付けられた計算リソースの制限を考えると、コントローラは、モバイルプラットフォームの現在の場所への特定の近接を超える環境機能を反映するセンサデータをスキップまたはマージナリングできる。図5は、本開示技術のいくつかの実施形態による、点群形式の3D環境情報の少なくとも一部の例示的表現を示す。
図2に戻ると、3D環境情報の作成および更新の少なくともいずれかとほぼ同時に、コントローラは、携帯端末によって支持されるセンサから取得した姿勢情報を使用して、3D環境情報内でモバイルプラットフォーム(たとえば、その相対的位置および向きの少なくともいずれか)を特定することができる。言い換えれば、3D環境情報の作成および更新の少なくともいずれかの操作とモバイルプラットフォームの位置特定の操作とは、時間的に重複する可能性がある。このプロセスは、一般的にローカライゼーションと呼ばれる。実例として、コントローラは、IMU、車輪走行距離計、視覚センサ、およびモバイルプラットフォームによって支持される他のセンサの少なくともいずれかによって提供されるデータにアクセスすることにより、モバイルプラットフォームを特定することができる。たとえば、コントローラは、新しく収集されたセンサデータから生成された点群を、既存のまだ更新されていない3D環境情報(たとえば、以前に収集されたセンサデータに基づく点群)と比較して、センサ/モバイルプラットフォームの姿勢を決定できる。この目的を達成するための2つの代表的なアプローチには、ランドマークベースのアプローチと生データアプローチがある。ランドマークは、環境内で一意に識別可能なオブジェクトであり、その位置はセンサによって推定できる。これらは、Wi−Fiアクセスポイントなどの物理的に特徴的なオブジェクト、または他の特徴的な特性(色など)を持つ環境に存在する機能ポイントにすることができる。このアプローチでは、コントローラは、新たに収集されたセンサデータと既存の3D環境情報の両方のランドマークを(たとえば、適用可能なパターン認識技術を使用して)識別し、それらを照合して現在の姿勢(たとえば、ランドマークのマッチングを実現するために、既存の3D環境情報に関連付けられた座標系と新しく収集されたセンサデータとの間での相対回転および/または並進)を決定する。この一方、生データアプローチでは、ランドマークを特定できるという仮定はせず、代わりに、新たに収集されたセンサデータを新しい向きや位置の関数として直接モデル化する。オプションで、姿勢誤差をさらに減らすために、IMU、走行距離計、および他のセンサの少なくともいずれかによって提供されるデータを利用できる。ローカリゼーションエラー(たとえば、3D環境情報内でモバイルプラットフォームを特定するためのエラー)は、センチメートル、ミリメートル、またはそれ以下の大きさに制限することもできる。これらの精度は、3D環境情報が高精度で取得され(たとえば、誤差が数十センチメートル、センチメートル以下に制限され)、モバイルプラットフォームから特定の近接度(たとえば、数百メートル、数十メートル、数メートル、またはそれ以下)に制限される。コントローラは、センサの姿勢を取得した後、姿勢に従って新たに収集されたセンサデータ(深度データなど)を融合することにより、3D環境情報を更新できる。たとえば、新しく収集されたセンサデータに基づいて生成された新しい点群は、姿勢に基づく回転変換および並進変換の少なくともいずれかの後に、既存の3D環境情報(たとえば、点群形式)とマージできる。更新プロセスの一部として、3D環境情報は、モバイルプラットフォームの現在位置を中心とするローカル参照システム(3D座標系など)で表現または関連付けられる。
引き続き図2を参照し、ブロック220で、方法200は、少なくとも部分的には、モバイルプラットフォームに搭載された1つ以上のセンサから取得されたセンサデータに基づいて(例えば、車線、エッジ線、ガイド線、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または移動障害物などの)ナビゲーション特徴を検出することを含む。実例として、コントローラは、ナビゲーション特徴を検出するためにモバイルデバイスによって支持される様々なセンサ(例えば、LiDARセンサ、カメラ、レーダー、超音波センサなど)から取得したセンサデータにアクセスすることができる。ナビゲーション特徴の検出に使用されるセンサは、3D環境情報の決定に使用されるセンサと重複する場合と重複しない場合がある。たとえば、コストに敏感なシステムでは、ナビゲーション特徴の検出に使用されるセンサは、3D環境情報の決定に使用されるセンサと同じ(またはそのサブセット)にすることができる。別の例として、3D環境情報の決定に使用されないセンサは、ナビゲーション特徴検出用の追加データを提供できるため、自律ナビゲーションのパフォーマンスと堅牢性が向上する。
上述のように、ナビゲーション特徴には、道路状況、交通規制、方向情報、障害物などに関連する要素を含めることができる。コントローラは、適切な機械学習または他のオブジェクト検出技術を実装して、センサデータを分析し、ナビゲーション特徴(たとえば、そのタイプ、コンテンツ、サイズ、境界、場所など)を抽出できる。たとえば、選択検索オブジェクト検出器、領域ベースの畳み込みニューラルネットワーク(R−CNN)、高速R−CNNなどを使用して、ナビゲーション特徴の検出を実現できる。いくつかの実施形態では、特定のナビゲーション特徴の検出は、センサデータの個々の単一フレームで実行することができる。いくつかの実施形態では、特定のナビゲーション特徴の検出は、一連のセンサデータフレームで実行することができる。
例としてレーンマーキングを使用する。画像データ(または点群データ)の各フレームに対して、レーンマーキングに対応する画像内のピクセル(または点群内のポイント)が検出される。必要に応じて、コントローラは、検出されたマーキングの2Dから3D(または3Dから3D)の位置変換を実行できる。コントローラは、適切なレーンフィッティングのアルゴリズムをさらに実装して、レーンマーキングをリンクし、複数の平行レーンをトレースするためにレーンセグメントでそれらを表すことができる。
図6は、本開示技術のいくつかの実施形態による、モバイルプラットフォームによって担持されるセンサ(例えば、カメラ)から取得されたセンサデータ(例えば、画像のフレーム)の一例を示す。センサから取得されたセンサデータは、図5に示す3D環境情報と少なくとも部分的に重複する可能性がある。つまり、モバイルプラットフォームを取り巻く環境の同じ部分の表現を含めることができる。様々な実施形態において、センサデータのフォーマットは、3D環境情報のフォーマットと異なっていても異なっていなくてもよい。
実例として、図6に示すような画像は、モバイルプラットフォームに搭載された正面カメラでキャプチャされた単一フレームの画像であり得る。この画像は、モバイルプラットフォームに向かう環境や、ナビゲートする必要がある環境を示している。(たとえば、ステレオカメラで生f成された場合など)画像には深度情報がある場合とない場合がある。
図7は、図6のセンサデータから本開示技術のいくつかの実施形態により検出されるナビゲーション特徴(例えば、車線表示、方向案内板、制限速度標識、移動車両)の一例を示す。実例として、図6に示すように単一フレームの画像を分析することにより、コントローラは、適用可能なパターン認識および機械学習技術の少なくともいずれかを使用して、車線表示702、制限速度704、移動障害物706、および方向標識708を検出することができる。いくつかの実施形態では、コントローラは、図6のセンサデータを使用して、考えられるすべてのナビゲーション特徴を検出できない場合がある。例えば、コントローラは、検出に関連付けられた信頼レベルがしきい値よりも高い場合にのみ、ナビゲーション特徴の検出を確認することを決定する場合がある。いくつかの実施形態では、コントローラは、異なるセンサから収集されたセンサデータの組み合わせを使用して、より多くのナビゲーション特徴を検出することができる。
図2に戻ると、ブロック230で、方法200は、3D環境情報および検出されたナビゲーション特徴に少なくとも部分的に基づいてローカルナビゲーションマップを生成することを含む。実例として、コントローラは、検出されたナビゲーション特徴を、時間的および空間的の少なくともいずれかで、3D環境情報とリアルタイムで統合できる。コントローラは、検出されたナビゲーション特徴に、モバイルプラットフォームの近傍のローカル環境に関連する高精度の表現を提供できる。いくつかの実施形態では、検出されたナビゲーション特徴のすべては、(たとえば、モバイルプラットフォームの位置および向きの少なくともいずれかに基づいて更新されるローリングバッファの形で)モバイルプラットフォームに関連付けられたローカル参照システムで表される。
実例として、センサデータの各フレームについて、モバイルプラットフォーム(またはセンサ)の姿勢(例えば、位置および方向の少なくともいずれか)は、ブロック210を参照して上述したように推定することができる。姿勢情報に基づいて、コントローラは、検出されたナビゲーション特徴と現在の3D環境情報に関連付けられた参照システムとの間の変換(たとえば、並進および回転の少なくともいずれか)を決定できる。コントローラは、検出されたナビゲーション特徴を3D環境情報に投影して、ローカルナビゲーションマップを生成できる。
より具体的な例として、モバイルプラットフォームに搭載されたカメラから生成された画像の各フレームについてコントローラは、(たとえば、領域ベースの畳み込みニューラルネットワーク(R−CNN)、高速R−CNN、高速R−CNN、およびその他の適切なアルゴリズムまたは方法の少なくともいずれかに基づいて)画像内のレーンマーキングのピクセル位置を特定できる。コントローラは、適切な深度推定アルゴリズム(例えば、セミグローバルマッチングおよび相互情報メソッド、マルチスケールディープネットワークベースのメソッド、および他の適切なアルゴリズムまたはメソッドの少なくともいずれか)を使用してレーンマーキングピクセルの深度情報を計算できる。コントローラはさらに、カメラに関連して特定されたレーンマーキングピクセルの3次元(3D)座標を計算できる。
レーンマーキングの3D座標(x、y、z)を指定すると、コントローラは、次の投影式を使用してレーンマーキングを2次元(2D)鳥瞰図空間(x’、y’)に投影できる:
x’= Sx*x+Cx
y’= Sy*y+Cy
ここで、ベクトルSxおよびSyはスケールファクターであり、スカラーCxおよびCyはオフセットである。これらの定数はオプションであり、事前に設定できる。たとえば、Sx、Sy、 CxおよびCyの値は、鳥瞰図のビュースペースの視点を適切に調整する方法で設定できる。
その後、コントローラはレーンマーキングをグループ化し、異なるグループに属するレーンマーキングをカーブフィッティングして、ローカルナビゲーションマップの一部として3D環境情報に投影できる構造化されたレーンラインを取得できる。
別の特定の例として、モバイルプラットフォームに搭載されたカメラから生成された画像の各フレームについて、コントローラは、(例えば、領域ベースの畳み込みニューラルネットワーク(R−CNN)、高速R−CNN、高速R−CNN、および/またはその他の適切なアルゴリズムまたは方法に基づいて)画像から(例えば、制限速度、交通ルール、方向などを指定する)交通標識のピクセル位置を特定できる。コントローラは、適切な深度推定アルゴリズム(例えば、セミグローバルマッチングおよび相互情報メソッド、マルチスケールディープネットワークベースの方法、並びに、他の適切なアルゴリズムまたは方法の少なくともいずれか)を使用して、交通標識ピクセルの深度情報を計算できる。コントローラはさらに、カメラに対して特定されたトラフィックピクセルの3次元(3D)座標を計算できる。交通標識のピクセルの3D座標が与えられると、コントローラは上記の車線投影と同様の方法で交通標識を2次元(2D)の上面図空間に投影できる。
誤認識を排除または軽減するために、コントローラは、画像の各フレームに関連付けられたモバイルプラットフォームの位置情報および方向情報の少なくともいずれかを使用して、識別された交通標識の重み付けされた一時的な蓄積を実行できる。実例として、カルマンフィルター、八分木、確率的多仮説追跡方法、および他の適切なアルゴリズムまたは方法の少なくともいずれかを使用して、一時的蓄積と、位置で検出された兆候があるかどうかの信頼レベルを実行することができる。実例として、更新前と更新後の信頼レベルをそれぞれzn−1およびzとし、更新の重みをw、現在の観測値をzとすると、現在の位置で検出されている兆候の信頼更新式は次のようになり得る:
=w*z+(1−w)*zn−1
コントローラは、交通標識を3D環境情報に投影し、ローカルナビゲーションマップの一部としてモバイルプラットフォームが移動し続けるときに更新されるそれぞれの信頼レベルに関連付けることができる。
引き続き図2を参照すると、ブロック240において、方法200は、少なくとも部分的にローカルナビゲーションマップおよびモバイルプラットフォームの位置および向きの少なくともいずれかに基づいて、モバイルプラットフォームの次のアクションを決定することを含む。上述したように、ローカルの高精度ナビゲーションマップには、モバイルプラットフォームを自律的にナビゲートするために必要なすべての情報を含めることができるため、コントローラは、外部マップに依存することなくモバイルプラットフォームの動きを少なくとも部分的に制御する1つ以上のコマンド(例えば、停止、加速、減速、左折、右折など)を生成することができる。
たとえば、ローカルナビゲーションマップで特定された車線を考えると、モバイルプラットフォームは車線維持操作を実行できる。別の例として、ローカルナビゲーションマップで速度制限が特定されている場合、モバイルプラットフォームは速度制御操作を実行できる。さらに別の例として、ローカルナビゲーションマップで特定された静止物体および移動物体の少なくともいずれかが与えられると、モバイルプラットフォームは障害物回避操作を実行できる。
図3および図4でより詳細に説明するように、いくつかの実施形態において、コントローラは、ローカルで生成されたナビゲーションマップの強化、およびモバイルプラットフォームの他の自律ナビゲーション特徴の支援の少なくともいずれかを行うために、(「真実」データとは対照的に)補足データまたは参照データとして外部マップから特徴を取得できる。
ブロック250で、方法200は、ローカルナビゲーションマップの更新を継続するかどうかを決定し、自律ナビゲーションを実行することを含む。コントローラがプロセスを継続すると決定した場合、方法200はブロック210に戻る。そうでない場合、方法200は終了する。
図3は、本開示の技術のいくつかの実施形態による、ローカルセンサデータおよび所定のナビゲーションマップに基づいてローカルナビゲーションマップを生成するための方法300を示すフローチャートである。方法300は、コントローラ(例えば、モバイルプラットフォームのオンボードコンピュータ、関連するコンピューティングデバイス、および関連するコンピューティングサービスの少なくともいずれか)によって実施することができる。
図3を参照し、ブロック310において、方法300は、モバイルプラットフォームによって支持されるセンサから取得されたデータに少なくとも部分的に基づいて、ナビゲーション特徴の第1セットを検出することを含む。実例として、これは、図2のブロック210および220を参照して説明した方法と同様の方法で達成することができる。
ブロック320で、方法300は、所定のナビゲーションマップに対してモバイルプラットフォームを見つけることを含む。実例として、所定のナビゲーションマップは、コントローラにアクセス可能な外部の高精度マップ(精度誤差が10cm以下の高解像度(HD)マップなど)にすることができる。事前に決定されたナビゲーションマップに関連してモバイルプラットフォームを特定するために、コントローラは、グローバルローカリゼーション方法または他の適切なローカリゼーション手法を適用できる。実例として、位置特定プロセスは、二乗誤差を最小化することにより、2つの参照システム(モバイルプラットフォームに関連付けられたものと所定のナビゲーションマップに関連付けられたものなど)の間の変換を発見することを目的とする反復最接近点(ICP)アルゴリズムに基づくことができる。
ブロック330で、方法300は、マップに対するモバイルプラットフォームの位置に従って、所定のナビゲーションマップからナビゲーション特徴の第2セットを取得することを含む。実例として、モバイルプラットフォームの相対的な位置が与えられると、コントローラは、所定のナビゲーションマップに含まれてマップ上のモバイルプラットフォームの位置の近傍(たとえば、200から500メートル)にあるナビゲーション特徴を検索および取得できる。
ブロック340で、方法300は、少なくとも第1および第2のナビゲーション特徴のセットを使用してローカルナビゲーションマップを生成することを含む。実例として、モバイルプラットフォームのローカルセンサから取得したセンサデータに基づいて生成され更新される3D環境情報に、ナビゲーション特徴の第1セットと第2セットの両方を投影できる。いくつかの実施形態では、ナビゲーション特徴の第2のセットの少なくともいくつかは、第1のセットと重複しない。コントローラは、両方のセットに異なる重みを割り当て、それらの投影を結合することを決定できる。いくつかの実施形態では、ナビゲーション特徴の第1セットと第2セットの間で矛盾する情報が発生する可能性があり、コントローラは、第1セットの機能のみを使用するか、または少なくとも第2セットから時代遅れもしくは不正確であるかもしれないために特定の機能をスキップするかを決定することができる。いくつかの実施形態では、コントローラは、第1のセットからすべてのナビゲーション特徴を投影することができるが、第1のセットに相補的な(例えば、特徴タイプに関して)第2のセットからのナビゲーション特徴のサブセットのみを投影することができる。
したがって、ローカルナビゲーションマップは、自律ナビゲーションの安全性冗長メカニズムとして機能する。外部または他の所定のHDマップが利用可能な場合、HDマップをセンサデータの形式としてローカルナビゲーションマップにマージできる。外部または他の所定のHDマップがローカルナビゲーションマップの情報と競合する、または矛盾する情報を提供する場合、コントローラはローカルナビゲーションマップを自律ナビゲーション用に使用でき、それによりナビゲーションの安全性が向上する。
補足データまたは参照データ(「真実」データとは対照的に)としての外部マップの機能により、ローカルナビゲーションマップは、自律ナビゲーションにとってより包括的で信頼性の高いものになる。
図4は、本開示技術のいくつかの実施形態による、ローカルナビゲーションマップおよび所定のナビゲーションマップに基づいてモバイルプラットフォームのアクションを決定する方法400を示すフローチャートである。方法400は、コントローラ(例えば、モバイルプラットフォームのオンボードコンピュータ、関連するコンピューティングデバイス、および関連するコンピューティングサービスの少なくともいずれか)によって実施することができる。
図4を参照し、ブロック410で、方法400は、(1)モバイルプラットフォームによって支持されるセンサから取得されるセンサデータに基づいて生成されるローカルナビゲーションマップ、並びに、(2)モバイルプラットフォームの位置および向きの少なくともいずれかを取得することを含む。実例として、これは、図2のブロック210、220および230を参照して説明した方法とほぼ同様の方法で達成することができる。
ブロック420で、方法400は、所定のナビゲーションマップに対してモバイルプラットフォームを特定することを含む。実例として、所定のナビゲーションマップは、コントローラにアクセス可能な外部の低精度マップ(たとえば、精度誤差が5m以上の標準定義(SD)マップ)にすることができる。コントローラは、図3のブロック320を参照して説明したものとほぼ同様の方法で、所定のナビゲーションマップに対してモバイルプラットフォームを特定することができる。いくつかの実施形態では、コントローラは、あらかじめ決められたナビゲーションマップから特定のナビゲーション指示(例えば、「300メートルで左車線変更を行う」)を取得できる限り、所定のナビゲーションマップに関してモバイルプラットフォームの正確な位置特定を必要としない場合がある。
ブロック430で、この方法は、所定のナビゲーションマップに少なくとも部分的に基づいて行動予測を取得することを含む。実例として、モバイルプラットフォームの相対的な位置および方向の少なくともいずれか、並びに、目標目的地または方向が与えられると、コントローラは、ナビゲーション指示について所定のナビゲーションマップを検索することができる。ナビゲーション指示には、移動プラットフォームのしきい値距離内で、進行方向の車線変更、停止、または方向転換の予測を含めることができる。所定のナビゲーションマップの精度が高くない場合や、モバイルプラットフォームの相対的な位置や方向が正確でない場合があるため、ナビゲーション指示のすべてが有用な予測とは限らない。しきい値の距離または時間を超えるアクションを予測するナビゲーション指示の一部は、コントローラによって取得でき検討できる。
ブロック440で、方法400は、ローカルナビゲーションマップと、所定のナビゲーションマップから検索された行動予測とに基づいて、モバイルプラットフォームの次のアクションを決定することを含む。たとえば、所定のナビゲーションマップから取得された行動予測は「400メートルで右折します」であり、所定のナビゲーションマップには約+/−50メートルの誤差がある。この場合、コントローラは、近づく交差点を検出するため、ローカルの高精度ナビゲーションマップで関連する道路トポロジ(たとえば、予測される右折の交差点)を特定し、モバイルプラットフォームに道路の右車線を確実に走行させることができる。右折の検出が成功すると、コントローラは「右折」コマンドを発行して、モバイルプラットフォームを制御してターンを完了することができる。したがって、モバイルプラットフォームの操作の忠実度は、数十メートルではなく、センチメートル、ミリメートル、またはそれ以下のオーダーに改善できる。
したがって、(「真実」データとは対照的に)補足データまたは参照データとして外部マップから取得した機能により、コントローラはローカルで生成されたナビゲーションマップを強化したり、モバイルプラットフォームの他の自律ナビゲーション特徴を支援したりできる。
図8は、本開示技術の様々な実施形態に従って構成されたモバイルプラットフォームの例を示している。図示されるように、本明細書に開示される代表的なモバイルプラットフォームは、無人航空機(UAV)802、有人航空機804、自律車両806、自己平衡車両808、地上ロボット810、スマートウェアラブルデバイス812、仮想現実(VR)ヘッドマウントディスプレイ814、および拡張現実(AR)ヘッドマウントディスプレイ816のうちの少なくとも1つを含み得る。
図9は、本開示技術の様々な部分を実施するために利用することができるコンピュータシステムまたは他の制御デバイス900のアーキテクチャの一例を示すブロック図である。図9に示されるように、コンピュータシステム900は、相互接続925を介して接続された1つ以上のプロセッサ905およびメモリ910を含む。相互接続925は、適切なブリッジ、アダプタおよびコントローラの少なくともいずれかによって接続された、1つまたは複数の別個の物理バス、ポイントツーポイント接続、またはその両方を表してもよい。したがって、相互接続925は、例えば、システムバス、周辺機器相互接続(PCI)バス、ハイパートランスポートまたは業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインターフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、または(「Firewire」とも呼ばれる)米国電気電子学会(IEEE)標準674バスを含み得る。
プロセッサ905は、例えばホストコンピュータの全体的な動作を制御するための中央処理装置(CPU)を含むことができる。特定の実施形態では、プロセッサ905は、メモリ910に格納されたソフトウェアまたはファームウェアを実行することによりこれを達成する。プロセッサ905は、1つ以上のプログラマブル汎用または専用マイクロプロセッサ、デジタル信号プロセッサ(DSP)、プログラマブルコントローラ、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)などやそのようなデバイスの組み合わせであってもよく、またはそのようなデバイスの任意の組み合わせを含んでもよい。
メモリ910は、コンピュータシステムのメインメモリであるか、それを含むことができる。メモリ910は、任意の適切な形態のランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリなど、またはそのようなデバイスの組み合わせを表す。使用中、メモリ910は、とりわけ、プロセッサ905によって実行されると、本開示技術の実施形態を実施する動作をプロセッサ905に実行させる機械命令のセットを組み込んだプログラムを含むことができる。
プロセッサ905には、相互接続925を介して(オプションの)ネットワークアダプタ915もまた接続されている。ネットワークアダプタ915は、ストレージクライアント、および他のストレージサーバの少なくともいずれかなどのリモートデバイスと通信する能力をコンピュータシステム900に提供し、例えば、イーサネット(登録商標)アダプタまたはファイバチャネルアダプタであってもよい。
本明細書に記載の技術は、例えば、ソフトウェアおよびファームウェアの少なくともいずれかでプログラムされたプログラマブル回路(例えば、1つまたは複数のマイクロプロセッサ)によって、または完全に専用のハードワイヤード回路で、またはそのような形態の組み合わせで実施可能である。専用ハードワイヤード回路は、たとえば、1つ以上の特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などの形をとることがある。
ここで紹介する技術を実施する際に使用するソフトウェアまたはファームウェアは、機械読み取り可能な記憶媒体に保存され、1つまたは複数の汎用または専用のプログラム可能なマイクロプロセッサによって実行される。用語が本明細書で使用される「機械読み取り可能な記憶媒体」または「コンピュータ読み取り可能な記憶媒体」には、機械によってアクセス可能な形式で情報を格納できる任意のメカニズムが含まれる(機械は、たとえば、コンピュータ、ネットワークデバイス、携帯電話、個人向け携帯情報端末(PDA)、製造ツール、1つ以上のプロセッサを備えたデバイスなどであり得る)。たとえば、機械アクセス可能な記憶媒体には、記録可能/記録不可能な媒体(たとえば、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイスなど) が含まれる。
本明細書で使用される「論理」という用語は、例えば、特定のソフトウェアおよびファームウェアの少なくともいずれかでプログラムされたプログラマブル回路、専用ハードワイヤード回路、またはそれらの組み合わせを含むことができる。当業者は、添付図面に示されているコンポーネントおよびステップまたはプロセス要素が、本開示技術から逸脱することなく様々な方法で変更され得ることを理解するであろう。たとえば、ロジックの順序を並べ替えたり、サブステップを並行して実行したり、図示したロジックを省略したり、他のロジックを含めたりすることができる。いくつかの実施形態では、説明したコンポーネントの1つまたは複数が、説明したステップの1つまたは複数を実行できる。
本明細書における「実施形態」(例えば、「いくつかの実施形態」、「様々な実施形態」、「一実施形態」、「実施形態」など)への言及は、実施形態に関連して説明される特定の特徴、構造、または特性を意味する開示の少なくとも1つの実施形態または実行に含まれる。本明細書の様々な場所でのこれらの語句の出現は、必ずしもすべてが同じ実施形態を指しているわけではなく、他の実施形態と相互に排他的な、別個のまたは代替的な実施形態でもない。さらに、いくつかの実施形態によって示され、他の実施形態によって示されない可能性のあるさまざまな特徴が説明されている。同様に、いくつかの実施形態の要件であるが、他の実施形態の要件ではないことがある様々な要件が説明されている。
参照により本明細書に組み込まれている資料が本開示と矛盾する範囲では、本開示が優先する。主題は構造的特徴および方法論的行為の少なくともいずれかに特有の言語で説明されているが、添付の特許請求の範囲で定義される主題は必ずしも上述の特定の特徴または行為に限定されないことを理解されたい。本明細書では、例示の目的で特定の実施形態および実行が説明されたが、実施形態および実行の範囲から逸脱することなく様々な修正を行うことができる。上述の特定の特徴および行為は、添付の特許請求の範囲を実施する例示的な形態として開示されている。したがって、実施形態および実行は、添付の特許請求の範囲による場合を除いて限定されない。
上記から、開示された技術の特定の実施形態が例示のために本明細書に記載されたが、本発明の技術思想から逸脱することなく様々な修正がなされ得ることが理解されるであろう。例えば、図2の方法200は、図8に示されるものを含むがこれらに限定されない、任意の適切なモバイルプラットフォームに関して実施され得る。特定の実施形態の文脈で説明された本技術の特定の側面は、他の実施形態で組み合わされるか、または排除され得る。例えば、図4の方法400は、図3の方法300と組み合わせて実施することができる。さらに、開示された技術の特定の実施形態に関連する利点がそれらの実施形態の文脈で説明されたが、他の実施形態もまたそのような利点を示すことがあり、技術範囲内に入るそのような利点をすべての実施形態が必ずしも示す必要はない。したがって、本開示および関連技術は、本明細書において明示的には示されていないか説明されていない他の実施形態を包含することができる。
100…システム
110…モバイルプラットフォーム
112…本体
114…センサセット
116…運搬機構
120…制御システム
122…第1のコントローラ
124…第2のコントローラ
126…コンピュータ可読媒体
128…通信リンク
140…距離測定デバイス
702…車線表示
704…制限速度
706…移動障害物
708…方向標識
802…無人航空機(UAV)
804…有人航空機
806…自律車両
808…自己平衡車両
810…地上ロボット
812…デバイス
814…仮想現実(VR)ヘッドマウントディスプレイ
816…拡張現実(AR)ヘッドマウントディスプレイ
900…コンピュータシステムまたは他の制御デバイス
905…プロセッサ
910…メモリ
915…ネットワークアダプタ
925…相互接続
930…オペレーティングシステム
1000…アーキテクチャ
1010…センサレイヤ
1020…セマンティックレイヤ

Claims (24)

  1. 自律ビークルを制御するためのコンピュータにより実施される方法であって、
    (a)自律ビークルの近傍にある環境の少なくとも一部を示す3次元(3D)環境情報と、
    (b)前記自律ビークルによって支持される視覚センサおよび慣性センサから取得されたデータに少なくとも部分的に基づいて、リアルタイムでの前記3D環境情報に対する前記自律ビークルの位置および向きの少なくともいずれかと、
    を決定することと、
    前記自律ビークルにより支持される1つまたは複数のセンサから取得されたセンサデータに少なくとも部分的に基づいて、車線、エッジライン、ガイドライン、横断歩道、信号、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、または移動障害物の少なくとも1つを含むナビゲーション特徴を検出することと、
    前記ナビゲーション特徴に対応する情報を少なくとも前記3D環境情報と統合してローカルナビゲーションマップを生成することと、
    (a)生成されたローカルナビゲーションマップおよび(b)前記自律ビークルの決定された位置および方向の少なくともいずれかに少なくとも部分的に基づいて、前記自律ビークルのアクションを決定することと、
    決定されたアクションに従って前記自律ビークルを移動させることと、
    を備える方法。
  2. 前記1つ以上のセンサは、視覚センサおよび慣性センサの少なくとも1つを含む、請求項1に記載の方法。
  3. モバイルプラットフォームを制御するためのコンピュータにより実施される方法であって、
    前記モバイルプラットフォームによって支持される第1のセンサから受信したデータに少なくとも部分的に基づいて、前記モバイルプラットフォームの近傍内の環境の少なくとも一部を示すリアルタイムの環境情報を取得することと、
    少なくとも部分的に、前記モバイルプラットフォームにより支持される第1および第2のセンサの少なくとも1つから取得されたセンサデータに少なくとも部分的に基づいてナビゲーション特徴を検出することと、
    ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合して、ローカルナビゲーションマップを生成することと、
    生成されたローカルナビゲーションマップに少なくとも部分的に基づいて、前記モバイルプラットフォームの動きを少なくとも部分的に制御するための1つまたは複数のナビゲーションコマンドを生成することと、
    を備える方法。
  4. 前記環境情報は深度情報を含む、請求項3に記載の方法。
  5. 前記環境情報は、前記モバイルプラットフォームの近傍内の前記環境の少なくとも一部の3D表現に対応する、請求項3に記載の方法。
  6. 前記第1のセンサは、LiDARセンサまたはステレオカメラのうちの少なくとも1つを含む、請求項3に記載の方法。
  7. 前記第2のセンサは、カメラ、LiDARセンサ、超音波センサ、およびレーダーのうちの少なくとも1つを含む、請求項3に記載の方法。
  8. 前記ナビゲーション特徴は、レーンマーキング、エッジライン、ガイドライン、横断歩道、信号機、交通標識、ガイドボード、ナビゲーション可能な表面または空間、静止障害物、および移動障害物のうちの少なくとも1つを含む、請求項3に記載の方法。
  9. ナビゲーション特徴を検出することは、少なくとも部分的に、1つ以上の人工ニューラルネットワークをセンサデータに適用することに基づく、請求項3に記載の方法。
  10. 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも前記ナビゲーション特徴のサブセットを前記環境情報の1つ以上の部分に関連付けることを含む、請求項3に記載の方法。
  11. 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、リアルタイムで実行される、請求項3に記載の方法。
  12. 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも部分的に、前記モバイルプラットフォームによって支持される少なくとも2つのセンサに関連付けられた参照システム間の空間的変換および時間的変換の少なくともいずれかに基づく、請求項3に記載の方法。
  13. 前記ナビゲーション特徴に対応する情報を少なくとも前記環境情報と統合することは、少なくとも部分的に、前記モバイルプラットフォームの推定された位置および方向の少なくともいずれかに基づく、請求項3に記載の方法。
  14. 前記推定された位置および方向の少なくともいずれかは、1つまたは複数の精度基準を満たす、請求項13に記載の方法。
  15. 前記ナビゲーション特徴は第1のナビゲーション特徴であり、少なくとも1つの所定のナビゲーションマップに少なくとも部分的に基づいて第2のナビゲーション特徴を取得することをさらに含む、請求項3に記載の方法。
  16. 前記所定のナビゲーションマップに対する前記モバイルプラットフォームの位置を決定することをさらに含む、請求項15に記載の方法。
  17. 前記モバイルプラットフォームの前記決定された位置の近傍内の前記所定のナビゲーションマップから前記第2のナビゲーション特徴を取得することをさらに含む、請求項16に記載の方法。
  18. 前記第2のナビゲーション特徴を少なくとも前記環境情報と統合して、前記ローカルナビゲーションマップを生成することをさらに含む請求項15に記載の方法。
  19. 所定のナビゲーションマップに基づいて前記モバイルプラットフォームを制御するための行動予測を取得することをさらに含む、請求項3に記載の方法。
  20. 前記行動予測は、前記モバイルプラットフォームの閾値距離内での車線変更、停止、および方向転換のうちの少なくとも1つの予測を含む、請求項19に記載の方法。
  21. 1つ以上のナビゲーションコマンドを生成することは、前記行動予測にさらに基づく、請求項19に記載の方法。
  22. 前記モバイルプラットフォームは、無人航空機(UAV)、有人航空機、自律車両、自己平衡化車両、およびロボットのうちの少なくとも1つを含む、請求項3に記載の方法。
  23. 請求項3から請求項22のいずれか一項に記載の方法をコンピュータに実行させるためのプログラム。
  24. 請求項3から請求項22のいずれか一項に記載の方法に従って車両の1つまたは複数の動きを少なくとも部分的に制御するようにプログラムされたコントローラを含むビークル。
JP2020014845A 2019-02-19 2020-01-31 ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法 Pending JP2020135874A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/CN2019/075464 WO2020168464A1 (en) 2019-02-19 2019-02-19 Local sensing based autonomous navigation, and associated systems and methods
CNPCT/CN2019/075464 2019-02-19

Publications (1)

Publication Number Publication Date
JP2020135874A true JP2020135874A (ja) 2020-08-31

Family

ID=72143347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014845A Pending JP2020135874A (ja) 2019-02-19 2020-01-31 ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法

Country Status (5)

Country Link
US (1) US20210365038A1 (ja)
EP (1) EP3729333A4 (ja)
JP (1) JP2020135874A (ja)
CN (1) CN111837136A (ja)
WO (1) WO2020168464A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220066006A1 (en) * 2020-08-25 2022-03-03 Pony Ai Inc. Real-time sensor calibration and calibration verification based on detected objects
US11982772B2 (en) * 2020-08-25 2024-05-14 Pony Ai Inc. Real-time sensor calibration and calibration verification based on statically mapped objects
CN112347218B (zh) * 2020-11-12 2024-06-04 珠海云洲智能科技股份有限公司 无人船艇的环境地图生成方法及无人船艇感知***
CN113899363B (zh) * 2021-09-29 2022-10-21 北京百度网讯科技有限公司 车辆的定位方法、装置及自动驾驶车辆
US20230169780A1 (en) * 2021-12-01 2023-06-01 Motional Ad Llc Automatically detecting traffic signals using sensor data
FR3133357A1 (fr) * 2022-03-14 2023-09-15 Psa Automobiles Sa Procédé et dispositif de contrôle d’un véhicule autonome utilisant des informations de localisation d’au moins un dispositif de communication mobile
US20230303111A1 (en) * 2022-03-22 2023-09-28 Here Global B.V. Autonomous vehicle navigation using non-connected map fragments
CN114384920B (zh) * 2022-03-23 2022-06-10 安徽大学 一种基于局部栅格地图实时构建的动态避障方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510373A (ja) * 2015-02-10 2018-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602007003047D1 (de) * 2006-05-30 2009-12-17 Mazda Motor Fahrassistent für ein Fahrzeug
TWI391874B (zh) * 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
KR20160062261A (ko) * 2014-11-24 2016-06-02 현대엠엔소프트 주식회사 차량용 내비게이션 시스템 및 그 제어방법
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
US10203209B2 (en) * 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
US20180067494A1 (en) * 2016-09-02 2018-03-08 Delphi Technologies, Inc. Automated-vehicle 3d road-model and lane-marking definition system
US10380890B2 (en) * 2017-02-08 2019-08-13 Baidu Usa Llc Autonomous vehicle localization based on walsh kernel projection technique
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
CN109100741B (zh) * 2018-06-11 2020-11-20 长安大学 一种基于3d激光雷达及图像数据的目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510373A (ja) * 2015-02-10 2018-04-12 モービルアイ ビジョン テクノロジーズ リミテッド 自律車両ナビゲーションのための疎な地図

Also Published As

Publication number Publication date
EP3729333A1 (en) 2020-10-28
WO2020168464A1 (en) 2020-08-27
CN111837136A (zh) 2020-10-27
EP3729333A4 (en) 2020-12-16
US20210365038A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
JP2020135874A (ja) ローカルセンシングベースの自律ナビゲーション、並びに関連するシステムおよび方法
JP6906011B2 (ja) オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)]
JP6878493B2 (ja) 自動運転車両(adv)に用いるピッチ角の補正方法
JP6644742B2 (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
JP6637088B2 (ja) ウォルシュ・カーネル・投影技術に基づく自動運転車両の位置決め
JP6559535B2 (ja) 障害物マップ生成装置、その方法、及び、そのプログラム
JP6672212B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
CN112740268B (zh) 目标检测方法和装置
CN111417871A (zh) 基于激光雷达利用高清晰度地图的集成运动估计的迭代最近点处理
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
CN110390240B (zh) 自动驾驶车辆中的车道后处理
US20220057806A1 (en) Systems and methods for obstacle detection using a neural network model, depth maps, and segmentation maps
CN111874006A (zh) 路线规划处理方法和装置
US20200103920A1 (en) Stationary camera localization
US20200364883A1 (en) Localization of a mobile unit by means of a multi-hypothesis kalman filter method
US11087145B2 (en) Gradient estimation device, gradient estimation method, computer program product, and controlling system
JP2016157197A (ja) 自己位置推定装置、自己位置推定方法およびプログラム
US20220373335A1 (en) Position recognition method and position recognition system for vehicle
KR20200084446A (ko) 전자 장치 및 그의 제어 방법
JP7321035B2 (ja) 物***置検出方法及び物***置検出装置
US20190293444A1 (en) Lane level accuracy using vision of roadway lights and particle filter
WO2024036984A1 (zh) 目标定位方法及相关***、存储介质
Elfring et al. Vehicle localization using a traffic sign map
US20210158059A1 (en) Systems and methods for determining the direction of an object in an image
JP2020204525A (ja) 障害物検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228