CN113012187B - 用于运载工具的方法和前景提取***以及存储介质 - Google Patents

用于运载工具的方法和前景提取***以及存储介质 Download PDF

Info

Publication number
CN113012187B
CN113012187B CN202011501770.6A CN202011501770A CN113012187B CN 113012187 B CN113012187 B CN 113012187B CN 202011501770 A CN202011501770 A CN 202011501770A CN 113012187 B CN113012187 B CN 113012187B
Authority
CN
China
Prior art keywords
vehicle
points
point
foreground
processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011501770.6A
Other languages
English (en)
Other versions
CN113012187A (zh
Inventor
A·什卡里
李嘉欣
T·K·杰斯珀森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of CN113012187A publication Critical patent/CN113012187A/zh
Application granted granted Critical
Publication of CN113012187B publication Critical patent/CN113012187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope, i.e. the inclination of a road segment in the longitudinal direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

提供了用于使用曲面拟合从点云(例如,LiDAR点云)进行前景提取的技术。在实施例中,运载工具的一个或多个处理器可以从一个或多个运载工具传感器接收点云数据。该一个或多个处理器可以使用用以捕获地形的变化的空间卡尔曼滤波器来将点云数据中的点识别为前景点或地面点。可以使用所识别的前景点和地面点来生成运载工具的驾驶区域中的路线或轨迹。运载工具控制器可以在运载工具正在驾驶区域中的路线或轨迹上行驶时控制运载工具。

Description

用于运载工具的方法和前景提取***以及存储介质
技术领域
本说明书通常涉及运载工具的操作,并且具体涉及从点云的前景提取。
背景技术
LiDAR(光检测和测距)是自主运载工具所采用的技术,该技术使用光(例如,诸如红外光等的光猝发)来获得与其视线中的物理对象有关的数据。LiDAR***将LiDAR数据产生为用于构建运载工具正操作于的环境的表示的三维(3D)或二维(2D)点(也称为点云)的集合。经常期望使用LiDAR点云来检测环境中的行人和其它对象。作为该检测处理的一部分,将点云分割成“背景”和“前景”,其中“背景”是指固定的地面、建筑物和树木等,并且“前景”是指诸如骑车者以及移动的行人和运载工具等的移动对象。还期望具有可用于规划和规定路线的可驾驶区域的准确图片。提出了用于前景/背景分割(以下也称为“前景提取”)的许多解决方案。诸如2D贝叶斯线性回归(RLS)等的这些方法慢,无法在合并后的LiDAR点云上操作,并且在诸如缺失道路倾斜障碍物等的某些驾驶情景中往往产生漏报,因为RLS不能充分适应地形的变化。
发明内容
提供了用于使用曲面拟合从点云(例如,LiDAR点云)进行前景提取的技术。
在实施例中,一种方法,包括:使用运载工具的一个或多个处理器,从一个或多个运载工具传感器接收点云数据;使用所述一个或多个处理器,利用被配置为对地形的变化进行建模的空间卡尔曼滤波器来将所述点云数据中的点识别为前景点或地面点;使用所识别的前景点和地面点来生成所述运载工具的驾驶区域中的路线或轨迹;以及使用运载工具控制器,在所述运载工具正在所述驾驶区域中的路线或轨迹上行驶时,控制所述运载工具。
在实施例中,一种方法,包括:使用运载工具的一个或多个处理器,接收所述运载工具的一个或多个传感器所输出的点云数据;使用所述一个或多个处理器,将所述点云数据变换到包括多个单元格的网格中;以及针对各单元格中的各点:使用所述一个或多个处理器,计算所述网格中该点的测量高度和所述测量高度处的地形的测量坡度(slope);使用所述一个或多个处理器,利用动态模型来计算该点的预测高度和所述预测高度处的地形的预测坡度;使用所述一个或多个处理器,计算表示所述动态模型中的误差的第一统计模型以及表示所述测量高度和所述测量坡度中的测量误差的第二统计模型;使用所述一个或多个处理器,计算所述预测高度和所述测量高度之间的第一新息;利用所述一个或多个处理器,计算所述预测坡度和所述测量坡度之间的第二新息;使用所述一个或多个处理器,将所述第一新息和所述第二新息与新息协方差进行比较,其中所述新息协方差是基于所述第一统计模型和所述第二统计模型至少之一;使用所述一个或多个处理器,基于比较的结果将各单元格中的各点识别为前景点或地面点;使用所述一个或多个处理器,更新所识别的各地面点的预测高度;使用所述一个或多个处理器,基于更新后的地面点来生成驾驶区域中的路线或轨迹;以及使用所述运载工具的控制电路,沿着所述驾驶区域中的路线或轨迹来导航所述运载工具。
在实施例中,所述网格中的点是根据点离所述一个或多个传感器的相应距离来顺次处理的。
在实施例中,针对被识别为前景点的各点,确定是否存在与所述前景点相比高出阈值量或低了阈值量的其它前景点。根据确定为存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,将所述前景点识别为属于对象。根据确定为不存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,将所述前景点识别为属于路边路缘。
在实施例中,所述动态模型是恒定的一阶模型。
在实施例中,至少部分基于所述运载工具是在道路上还是偏离道路来对所述第一统计模型进行调整。
在实施例中,所述网格是包括多个径向单元格的二维极坐标网格即2D极坐标网格。
在实施例中,对于所述2D极坐标网格中的各径向方向,向运载工具原点附近的网格单元格添加幻影点(phantom point)。
在实施例中,阈值是基于所述第一统计模型和所述第二统计模型的总和的新息协方差。
在实施例中,所述第一统计模型表示在所述单元格内地形将改变的概率。
在实施例中,所述预测高度和所述预测坡度是由空间卡尔曼滤波器计算出的,所述第一统计模型是过程噪声协方差,并且所述第二统计模型是测量噪声协方差。
一种用于运载工具的前景提取***,所述前景提取***包括:一个或多个传感器;一个或多个处理器;以及存储有指令的存储器,所述指令在由所述一个或多个处理器执行时,使得所述一个或多个处理器进行上述方法中的操作。
一种存储有指令的非暂时性计算机程序产品,所述指令在由至少一个可编程处理器执行时,使得所述至少一个可编程处理器进行上述方法中的操作。
所公开的实施例中的一个或多个提供了以下优点中的一个或多个。所公开的实施例在合并点云(来自多个LiDAR的点云)上操作,并且与诸如2D贝叶斯线性回归(RLS)等的传统前景提取算法相比具有更快的运行时间(例如,约25ms)。空间卡尔曼滤波器公式提供了基于预测-测量误差(新息(innovation))的可解释剔除准则、以及基于协方差不确定性矩阵(P)、过程噪声协方差矩阵(Q)和测量噪声协方差矩阵(R)的可解释模型变化。所提出的曲面拟合方法具有较少的漏报(例如,与道路倾斜障碍物有关的遗漏),并且将路边路缘和前景对象区分开。
这些和其它方面、特征和实现可被表示为方法、设备、***、组件、程序产品、用于进行功能的方法或步骤以及其它方式。
从以下的说明书,这些和其它方面、特征和实现将变得明显。
附图说明
图1示出根据一个或多个实施例的具有自主能力的自主运载工具(AV)的示例。
图2例示根据一个或多个实施例的示例“云”计算环境。
图3例示根据一个或多个实施例的计算机***。
图4示出根据一个或多个实施例的AV的示例架构。
图5示出根据一个或多个实施例的感知模块可以使用的输入和输出的示例。
图6示出根据一个或多个实施例的LiDAR***的示例。
图7示出根据一个或多个实施例的操作中的LiDAR***。
图8示出根据一个或多个实施例的LiDAR***的操作的附加细节。
图9示出根据一个或多个实施例的规划模块的输入和输出之间的关系的框图。
图10示出根据一个或多个实施例的路径规划中所使用的有向图。
图11示出根据一个或多个实施例的控制模块的输入和输出的框图。
图12示出根据一个或多个实施例的控制器的输入、输出和组件的框图。
图13是根据一个或多个实施例的使用空间卡尔曼滤波器来进行前景提取的LiDAR数据处理管道的框图。
图14是根据一个或多个实施例的包括用于使用空间卡尔曼滤波器进行前景提取的处理的LiDAR数据处理管道的框图。
图15示出根据一个或多个实施例的用于处理LiDAR点云的2D极坐标网格。
图16是根据一个或多个实施例的使用空间卡尔曼滤波器的前景提取的一般处理的流程图。
图17是根据一个或多个实施例的使用空间卡尔曼滤波器的前景提取的处理的更详细流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,显而易见的是,本发明可以在没有这些具体细节的情况下实施。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,显示了示意要素的具体安排或次序,例如表示设备、模块、指令块和数据要素的那些要素。然而,本领域技术人员应当理解,附图中示意要素的具体排序或安排并不意味着要求特定的处理顺序或序列、或处理过程的分离。此外,在附图中包含示意性要素并不意味着在所有实施例中都需要这种要素,也不意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、例如实线或虚线或箭头用于说明两个或两个以上其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中显示,以便不掩盖本发明。此外,为了便于说明,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接元件代表信号、数据或指令的通信,本领域技术人员应理解,该元件代表影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中示出。在下面的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地掩盖实施例的方面。
下面描述的若干特征可以彼此独立地使用,也可以与其它特征的任何组合一起使用。但是,任何个别特征可能不能解决上述任何问题,或者只能解决上述问题之一。上文讨论的一些问题可能不能通过本文所述的任何一个特征得到充分解决。虽然提供了标题,但在本说明的其它地方也可以找到与某一标题有关但在该标题部分未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.***概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.使用空间卡尔曼滤波器的前景提取
总体概述
提供了用于使用曲面拟合从点云(例如,LiDAR点云)进行前景提取的技术。更特别地,为了使两个空间变量的贝叶斯均值漂移回归参数化,采用地面的几何模型,其中该几何模型的离群点被标记为前景。在实施例中,使用空间卡尔曼滤波器(SKF)来进行曲面拟合。利用运载工具下方的地面(标记为地面的所有点)来对几何模型进行初始化。然后,将LiDAR点云投影到具有多个单元格的二维极坐标网格中。对于网格中的各单元格,将点按到运载工具的距离和高度从最低到最高进行排序,其中首先处理最近且高度最低的点。对于各单元格中的各点,根据该点在2D极坐标网格中的位置来测量该点的高度。根据当前的和先前测量到的高度来计算点位置处的坡度。
贝叶斯滤波器(例如,SKF)公式用于预测点的高度和坡度。将测量高度和预测高度之间以及测量坡度和预测坡度之间的新息与包括过程噪声协方差和测量噪声协方差的总和的新息协方差进行比较,以确定几何模型的离群点。离群点被标记/分类为前景,并且非离群点被标记/分类为地面。
在SKF公式中使用点的测量高度和坡度来更新点的预测高度和坡度。将更新后的预测高度和坡度存储在存储器中,并用在下一测量SKF时期中。在实施例中,将所标记的前景点和地面点发送至跟踪对象的下游融合和跟踪应用以及其它下游应用(例如施工区检测和遮挡建模等)。在实施例中,针对路边路缘模型审查所标记的前景点,并且由该模型识别为路缘点的前景点被丢弃或被重新分类为地面点。
***概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地运行,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点操作到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物测量传感器)、发送和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(例如,模数转换器)、数据存储装置(例如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(例如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村地区的污物通道等)。因为有些运载工具(如四轮驱动的小卡车、越野车(SUV)等)能够穿越各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式界定为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木)来定义车道。
“一个或多个”包括由一个要素执行的功能,由多个要素执行的功能、例如以分布式的方式,由一个要素执行的几个功能,由几个要素执行的几个功能,或上述的任意组合。
还将理解的是,尽管在某些情况下,术语“第一”、“第二”等是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所述实施例的范围的情况下,第一触点可被称为第二触点,并且同样,第二触点可被称为第一触点。第一触点和第二触点都是触点,但这两者不是相同触点。
此处描述的各种实施例的描述中使用的术语仅用于描述特定实施例,而不是意在限制。正如在所描述的各种实施例和所附权利要求书的描述中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还应理解,本文所用的"和/或"一词是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还应理解的是,在本说明中使用的术语“包括”、“包含”、“具备”和/或“具有”具体说明存在所述的特征、整数、步骤、操作、要素和/或组成部分,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组成部分、和/或上述的组。
如本文所使用的,“如果”一词可选择地理解为在该情况下、在当时、或者响应于检测到、或响应于确定为,视上下文而定。同样,“如果已确定”或“如果[所述条件或事件]已被检测到”这一短语,视情境而定,可以理解为“在确定时”或“响应于确定为“或”在检测到[所述条件或事件]时”或“响应于检测到[所述条件或事件]”。
如本文所使用的,AV***是指AV以及实时生成的支持AV操作的硬件、软件、存储的数据和实时生成的支持AV运作的数据。在实施例中,AV***并入在AV内。在实施例中,AV***跨多个地点分布。例如,AV***的一些软件是在类似于下面结合图3描述的云计算环境300的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,如所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶***相关术语的分类和定义,通过引用将其全部内容纳入本说明,以了解运载工具自主权等级的更多详细信息)。本说明所述技术也适用于部分自主运载工具和驾驶员辅助运载工具,如所谓的2级和1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶***相关术语的分类和定义)。在实施例中,一个或多个1级、2级、3级、4级和5级运载工具***可根据对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所述的技术可以使从完全自主运载工具到人类操作的运载工具的各级运载工具受益。
参考图1,AV***120使AV 100沿着轨迹198运行,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV***120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV***120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性例如是AV的位置、线速度和加速度及角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是GNSS、以及测量运载工具线性加速度和角速率的惯性测量单元(IMU)、用于测量或估计车轮滑移率的车轮速率传感器、车轮制动压力或制动扭矩传感器、引擎扭矩或车轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、超声波传感器、飞行时间(TOF)深度传感器、速率传感器、温度传感器、湿度传感器和降水传感器。
在实施例中,AV***120包括数据存储单元142和存储器144,用于存储与计算机处理器146或由传感器121收集的数据相关的机器指令。在实施例中,数据存储单元142与以下结合图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据通过来自远程数据库134的通信通道传输到AV 100。
在实施例中,AV***120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线性和角速度、线性和角加速度以及线性和角航向等)的测量到或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者兼而有之进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声学介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV***120。在实施例中,远程数据库134嵌入云计算环境200中,如图2中所述。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与远程操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储道路和街道地点等的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速率分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息以算法方式生成控制动作,使得AV***120能够执行其自主驾驶能力。
在实施例中,AV***120包括连接到计算装置146的计算机***设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,***设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。连接是无线的或有线的。任意两个或更多的接口设备可以集成到单个设备中。
示例云计算环境
图2例示示例“云”计算环境。云计算是一种服务交付模式,可以方便、按需地在网络上访问共享的可配置计算资源池(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)。在典型的云计算***中,一个或多个大型云数据中心容纳用于递送云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机***206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。通常,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,每行都包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器根据数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)分为若干组。在实施例中,服务器节点类似于图3中描述的计算机***。数据中心204a具有许多分布在多个机架上的计算***。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算***206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路连接的网际网络的任意组合。通过网络交换的数据采用多种网络层协议(如Internet协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(FrameRelay)等)进行传输。此外,在网络代表多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络代表一个或多个互连网际网络(例如公共互联网等)。
计算***206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算***206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)设备、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算***206a-f在其它***中实现或作为其它***的一部分实现。
计算机***
图3例示计算机***300。在实现中,计算机***300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)等的被持久编程为进行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机***、便携式计算机***、手持设备、网络设备或包含硬线和/或程序逻辑以实现这些技术的任何其它设备。
在实施例中,计算机***300包括总线302或用于通信信息的其它通信机制、以及与总线302连接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机***300还包括主存储器306,例如随机存取存储器(RAM)或其它动态存储装置,连接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机***300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机***300还包括只读存储器(ROM)308或连接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器等的存储装置310,并连接到总线302以存储信息和指令。
在实施例中,计算机***300通过总线302连接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器等的显示器312。包括字母数字键和其它键的输入装置314连接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,例如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴线上的两个自由度,第一轴线(例如,x轴)和第二轴线(例如,y轴),这两个轴线允许装置指定平面上的位置。
根据一个实施例,这里的技术由计算机***300执行,以响应处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列。这些指令从诸如存储装置310等的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所述的处理步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
此处使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式运行。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310等的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306等。存储介质的常见形式包括例如软盘、软盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及向处理器304携带一个或多个指令序列以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机***300的本地调制解调器接收电话线路上的数据,并使用红外发射机将数据转换为红外信号。红外检测器接收红外信号中携带的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以任选地在处理器304执行之前或之后存储在存储装置310上。
计算机***300还包括连接到总线302的通信接口318。通信接口318提供耦合到连接至本地网络322的网络链路320多双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载代表各种信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328都使用携带数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中通信接口318承载了进出计算机***300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机***300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机***300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV***120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV 100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS(全球导航卫星***)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a是LiDAR(光检测和测距)***(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR***产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表现的3D或2D点(也称为点云)的集合。
另一输入502b是RADAR(雷达)***。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR***的视线内的对象有关的数据。RADAR***502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表现的一个或多个射频电磁信号。
另一输入502c是照相机***。照相机***使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机***产生照相机数据作为输出504c。照相机数据通常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。在一些示例中,照相机***具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机***能够感知深度。尽管照相机***所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机***可被配置为“看见”远处的(例如,AV前方的远至1公里以上的)对象。因此,照相机***可以具有为了感知遥远的对象而优化的诸如传感器和透镜等的特征。
另一输入502d是交通灯检测(TLD)***。TLD***使用一个或多个照相机来获得与交通灯、街道标志和提供视觉操作信息的其它物理对象有关的信息。TLD***产生TLD数据作为输出504d。TLD数据经常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。TLD***与包含照相机的***的不同之处在于:TLD***使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉操作信息的物理对象有关的信息,使得AV 100有权访问这些对象所提供的所有相关操作信息。例如,TLD***的视角可以为约120度以上。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它***(例如,提供至如图4所示的规划模块404),或者采用相同类型(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的单个组合输出或多个组合输出的形式,可以将组合输出提供至其它***。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:将输出组合,之后将一个或多个数据处理步骤应用到组合输出。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6示出LiDAR***602的示例(例如,图5所示的输入502a)。LiDAR***602从发光器606、610(例如,激光发射器)发射光604a-604c。LiDAR***602所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR***602。(从LiDAR***发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR***602还具有用于检测反射光的一个或多个光检测器。在实施例中,与LiDAR***相关联的一个或多个数据处理***生成表示LiDAR***602的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定AV附近的一个或多个物理对象的边界616。注意,在图6中,发光器606、610被示出为沿相同的大致方向指向。然而,在一些实施例中,发光器606、610沿不同的方向指向。也就是说,在一些实施例中,(例如,安装在AV的顶部上的)单个旋转的LiDAR可用于创建3D点云,并且在其它实施例中,多个LiDAR沿不同方向指向且各自针对不同方向产生点云。在后者配置中,如参考图13-17所述,将来自多个LiDAR的点云合并为单个非结构化点3D点云并进行处理。
图7示出操作中的LiDAR***602。在该图所示的情境中,AV 100接收采用图像702的形式的照相机***输出504c和采用LiDAR数据点704的形式的LiDAR***输出504a。在使用中,AV 100的数据处理***将图像702与数据点704进行比较。特别地,在数据点704中也识别出在图像702中识别出的物理对象706。这样,AV 100基于数据点704的轮廓和密度来感知物理对象的边界。
图8示出LiDAR***602的操作的附加细节。如上所述,AV 100基于LiDAR***602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR***602发射的光804a-804d。换句话说,由于LiDAR***602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR***602。在AV100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR***602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR***602所发射的光804e-804f将以不符合预期一致方式的方式从点810a-810b反射。根据该信息,AV 100可以确定为存在对象808。
在实施例中,AV 100包括用于提供合并为单个非结构化点云的点云的多个3D激光测距传感器(例如,多个固定LiDAR)。
路径规划
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。通常,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要行驶经过街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小型卡车等的越野运载工具,则路线902包括诸如未铺面道路或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个以上的车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素,来从这多个车道中选择某车道。同样地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。通常,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括供该有向图中的表示AV 100的视场中的物理地点的一部分用的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能驶过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边缘1010a-1010c连接。如果两个节点1006a-1006b通过边缘1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV 100在节点之间行驶时,意味着AV100在由相应节点表示的两个物理位置之间行驶。)边缘1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边缘1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV 100不能从第二节点行驶到第一节点。在边缘1010a-1010c表示例如单向街道、街道、道路或公路的单独车道、或者由于法律或物理约束因而仅能沿一个方向驶过的其它特征的情况下,边缘1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边缘组成的路径1012。
边缘1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV 100选择该边缘的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边缘1010a所表示的物理距离是另一边缘1010b所表示的物理距离的两倍,则第一边缘1010a的关联成本1014a可以是第二边缘1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边缘1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边缘1010a与另一边缘1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边缘的各个成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而工作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV 100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的多个输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达十字交叉路口时驶过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期所处的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
使用空间卡尔曼滤波器的前景提取
图13是根据一个或多个实施例的使用空间卡尔曼滤波器(SKF)来进行前景提取的LiDAR数据处理管道1300的框图。***1300包括预提取点级滤波器1303、SKF前景提取模块1305、后提取点级滤波器1306、分割模块1307、簇级滤波器1308和分类器模块1309。
将(包括来自多个LiDAR的点云的)合并点云1302输入到感知管道1300。在管道1300的第一级,在应用前景提取处理之前,使用点级滤波器1303来“清理”点云,以去除由LiDAR传感器的限制引起的离群点。点级滤波器1303查找离群点,并将这些离群点从管道1300的进一步处理中过滤或排除。一些示例滤波器包括但不限于:基于统计的滤波器、基于邻域的滤波器、基于投影的滤波器和基于PDE的滤波器,其包括但不限于:体素网格滤波器(VG)、基于法向的双边滤波器(NBF)、移动最小二乘(MLS)、加权局部最优投影(WLOP)、边缘感知重采样(EAR)和L0最小化(L0)。
接着,将“清理后的”点云输入到前景提取(FE)模块1305中,该FE模块1305使用参考图14所述的处理来将点标记为前景或背景。FE模块1305的输出是具有标记为前景或背景的点的合并点云(以下称为“合并语义点云”)。然后将标记为前景的点输入到分割模块1307中,该分割模块1307生成类似在后续处理中要分类的对象的N个簇。这些簇被输入到簇级滤波模块1308,该簇级滤波模块1308查看各簇的特征并基于这些特征来进行滤波。特征包括但不限于:物理/空间大小、点数、时间一致性、对簇内的点的直方图滤波、等等。然后将滤波后的簇输入到分类器1309中,该分类器1309对簇进行分类并向各簇提供标签(例如,小汽车、行人、自行车、通用对象)。
将如此得到的经分类的对象输入到跟踪和融合模块1310中,该跟踪和融合模块1310将LiDAR的经分类的对象与来自使用其它类型的传感器(例如,照相机、RADAR)的其它感知处理管道的经分类的对象融合,并且启动或更新同时跟踪多个对象的多对象跟踪算法(例如,一组线性卡尔曼滤波器)。然后,所跟踪的对象可以由下游客户端使用,以进行诸如规划、规定路线和碰撞避免等的其它任务。另外,合并语义点云可被发送至其它数据消费者1311以用在其它应用中,这些应用包括但不限于施工区检测1312和遮挡建模1313。
上述的处理管道1300是用于合并LiDAR点云的处理管道的一个示例。其它处理管道和***也可受益于现在将参考图14进行说明的前景提取模块1305。
图14是根据一个或多个实施例的包括用于使用空间卡尔曼滤波器(SKF)进行前景提取的处理的LiDAR数据处理管道的框图。将滤波后的点云投影到2D极坐标网格中(1401)。在图15中,示出具有源自运载工具1501的示例性径向单元格1502的2D极坐标网格1500。
在实施例中,针对各径向方向,将幻影点添加到靠近运载工具的附近的2D极坐标网格单元格(1402)。针对各径向单元格中的各点,基于假定地形的坡度缓慢地改变的恒定坡度模型来进行SKF预测步骤(1404)。基于点到LiDAR传感器的相应距离来顺次处理这些点,其中首先处理最近点,并且最后处理最远点。此外,基于点的相应高度来顺次处理这些点,其中首先处理最低点,并且最后处理最高点。该方法对零阶和一阶的地形高度(即,击中地形的LiDAR点的高度和在该点的位置处的地形的坡度)进行建模。利用径向距离rho(r)和高度z来表示2D极坐标网格中的各点测量的位置。
在实施例中,以下示出SKF的状态空间x和状态转变矩阵A,其中Δr是当前点和先前点之间的rho差:
以下示出测量z和测量矩阵H,其中z′k是点的位置处的坡度,其被计算为
通过以下给出SKF预测步骤:
其中:是预测误差协方差矩阵,并且Q是过程噪声协方差矩阵。
过程噪声协方差矩阵Q表示地形可以改变多少。使用典型的恒定坡度的一阶模型,其中对于该一阶模型,在假定坡度变化属于高斯噪声分布N(0,σh″)的情况下,如以下所示定义过程噪声:
为了导出过程噪声矩阵Q,假定地形经过根据高斯分布N(0,σh″)而分布的坡度变化(h″,类似于加速度的概念)。坡度变化对状态的影响是其中过程噪声wk=Gak,其中ak~N(0,σh″)。这样得出:
/>
注意,因而
注意,Qk的设计显式地处理遮挡。想象坡度被小汽车遮挡,在LiDAR击中地形的第一点之前将存在大而空的空间,并且该点将非常高。在这种情况下,大而空的空间将得到大的Δr和Qk。因此,允许滤波器快速地适应坡度。
再次返回到图14,在SKF预测之后,执行基于新息的离群点剔除(1405)。SKF在高斯噪声的假设下操作。注意,这里,“噪声”是前景点。显然,前景点不属于高斯分布。为了缓解该问题,提出了另一离群点剔除机制,使得进入卡尔曼更新步骤的前景点大致为高斯。离群点剔除是基于新息,并被集成到SKF公式中,并且在SKF预测步骤之后进行。
在实施例中,如以下所示,新息是SKF预测和实际测量之间的差:
并且通过以下给出新息协方差:
基于新息的离群点剔除包括高度检验和梯度检验。通过基于新息协方差Sk设置高度差和坡度差的阈值(例如,99%置信度)来剔除点。对于高度检验,将高度差阈值设置为处于根据Sk的99%置信度的如果点与估计高度hk的高度差大于阈值,则将剔除该点。类似地,对于梯度检验,将坡度差阈值设置为/>以剔除坡度与估计坡度h′k相差了大于该阈值的点。在实施例中,可以对新息协方差阈值添加附加值以考虑传感器校准误差(例如,LiDAR校准误差)。在另一实施例中,可以增强状态向量以包括一个或多个校准误差(例如,偏差和漂移误差)作为(一个或多个)附加状态,由此可以使用SKF来预测(一个或多个)校准误差并将这些校准误差添加到新息协方差阈值。
在以上的新息协方差方程中,Rk是测量噪声协方差矩阵。导出测量噪声协方差矩阵Rk以考虑路边路缘高度,使得其中0.3m是路缘的最大高度。可以如以下所示导出Cov(z′,z′):
类似地,注意假设和zk-1是独立且恒等分布(iid)的且假设运载工具在平坦表面(坡度为0,/>即平坦表面上的点线)上,并且性质则可以如以下导出Cov(z,z′):
最后,得到测量噪声协方差矩阵Rk
再次返回到图14,在进行基于新息的离群点剔除1405之后,使用地面点来进行SKF更新步骤(1407),其中地面点是在基于新息的和基于梯度的阈值测试中幸存的点,其中将前景点识别为离群点。按照如下进行SKF更新步骤,其中Kk是卡尔曼增益矩阵,xk是更新后的状态,并且Pk是更新后的误差协方差矩阵:
由于测量噪声协方差矩阵的设计,可能将路边路缘误标记为前景点。再次返回到图14,在进行SKF更新步骤(1407)之后,对前景点进行审查(1408),以确定前景点中的任何前景点是否是路边路缘,并通过将这些点重新标记为地面点来丢弃这些点。在实施例中,将通过基于新息的阈值检验所检测到的各前景点的高度与相邻的前景点进行比较,以确定该前景点与其它前景点相比是否高出阈值或低了阈值(例如,20cm)。如果前景点在所指定的半径和高度差内具有相邻的前景点,则将仅保持该前景点。如果到最近的相邻前景点的半径或高度大于所设置的阈值,则前景点被视为地面点,并且将被重新标记为地面点。注意,仅针对通过了高度新息检验但未通过梯度检验的前景点进行前景点审查。另外,前景点审查被设计用于解决两个问题:(1)上述的道路路缘问题;以及(2)用于构建合并点云的LiDAR之间的可能校准误差。
总之,公开了采用使用SKF的曲面拟合的前景提取***。建立2D极坐标网格,并将滤波后的LiDAR点投影到2D网格中。根据距离和高度来对2D网格的各径向单元格中的点进行排序,使得首先处理更近和更低的点。SKF使用对不断变化的地形建模的过程噪声协方差矩阵和对路边路缘高度进行建模的测量协方差噪声矩阵来预测各点和地形的高度。将过程噪声协方差矩阵和测量噪声矩阵的元素相加到一起以创建新息协方差,将该新息协方差与高度和/或坡度/梯度的统计自适应阈值进行比较,以确定特定点是前景点还是地面点。然后使用地面点来更新SKF,并且审查前景点以识别路边路缘。然后将任何误标记的点重新标记为地面点。该方法纯粹是基于几何的,并且没有利用任何语义信息和时间信息。特征提取模块1305的输出(前景/地面点)被发送至下游模块1401或其它消费者1311,以用于各种应用(例如,规划、施工区检测、遮挡建模等)。
图16是根据一个或多个实施例的使用空间卡尔曼滤波器的前景提取的一般处理1600的流程图。可以使用例如参考图3所述的计算机***300来实现处理1600。
处理1600从以下操作开始:从一个或多个运载工具传感器接收点云(1601)。例如,可以将来自多个LiDAR传感器的点云合并到单个合并点云中并输入到诸如参考图13所述的管道1300等的感知处理管道中。
处理1600继续以下操作:如参考图14所述,使用被配置为对地形的变化(诸如地形的高度和坡度的变化等)进行建模的SKF来将点云中的点识别为前景点或地面点(1602)。
处理1600继续以下操作:使用所识别的前景点和地面点来生成运载工具的驾驶区域中的路线或轨迹(1603),然后在运载工具正在驾驶区域中的路线或轨迹上行驶时,使用运载工具控制器(参见图11)来控制该运载工具(1604)。例如,如图13所示,所识别的前景点和地面点可以由感知管道(例如,参见图4)中的下游元素(诸如语义分割处理、施工区检测和遮挡建模等)使用。由感知管道检测到的前景对象(例如,行人、小汽车、骑车者)可以由规划模块(诸如参考图9所述的规划模块等)使用,以为运载工具生成将避免与前景对象的碰撞的计划或轨迹。
图17是根据一个或多个实施例的使用空间卡尔曼滤波器的前景提取的处理的更详细流程图。
处理1700从以下操作开始:从一个或多个运载工具传感器接收点云(1701)。例如,可以将来自多个LiDAR传感器的点云合并到单个合并点云中并输入到诸如参考图13所述的管道1300等的感知处理管道中。
处理1700继续以下操作:将点云投影到2D极坐标网格中(1702),其中在该2D极坐标网格中,用径向距离rho(r)和测量高度z表示2D极坐标网格中的各点的位置。
处理1700继续以下操作:计算2D极坐标网格中各点的高度z和高度z处的地形的坡度z′(1703)。根据当前和先前的点位置将坡度z′计算为
处理1700继续以下操作:如参考图14所述,使用SKF来计算点的预测高度和该点的位置处的地形的预测坡度(1704)。
处理1700继续以下操作:计算表示动态模型中的误差的第一统计模型、以及表示高度和坡度中的测量误差的第二统计模型(1705)。例如,第一统计模型是对地形变化进行建模的过程噪声协方差,并且第二统计模型是对路边路缘高度进行建模的测量噪声协方差。
处理1700继续以下操作:计算预测高度和测量高度之间的第一新息(1706),计算预测坡度和测量坡度之间的第二新息(1707),将第一新息和第二新息与新息协方差进行比较(1708),并且根据该比较的结果来将各单元格中的各点确定为前景或地面(1709)。将高度新息和坡度新息各自与新息协方差进行比较。如果高度新息和坡度新息其中之一超过新息协方差,则该点被视为前景点。在另一实施例中,如果高度新息和坡度新息这两者都超过新息协方差,则该点被视为前景点。
处理1700继续以下操作:如参考图14所述,使用SKF来更新所识别的各地面点的预测高度(1710)。
处理1700继续以下操作:将各前景点与相邻前景点进行比较,以确保在至少一个相邻前景点存在于给定的半径和高度差内的情况下,仅保持该前景点。在不存在其它附近的前景点的情况下,该前景点被视为地面点(例如,路边路缘),并被重新标记为地面点。
在先前描述中,已经参考许多具体细节描述了各种实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
相关申请的交叉引用
本发明要求2019年12月19日提交的标题为“FOREGROUND EXTRACTION USINGSURFACE FITTING”的美国临时专利申请序列号62/950,900的优先权,其全部内容通过引用而被包含于此。

Claims (28)

1.一种用于运载工具的方法,包括:
使用运载工具的一个或多个处理器,从所述运载工具的一个或多个传感器接收包括多维点的数据;
使用所述一个或多个处理器,利用滤波器来将所述多维点内的点识别为前景点或地面点;
使用所识别的前景点和地面点来生成所述运载工具的驾驶区域中的轨迹;以及
使用运载工具控制器,在所述运载工具正在所述驾驶区域中的轨迹上行驶时,控制所述运载工具,
所述方法还包括:
使用所述一个或多个处理器,将所述数据变换到包括多个单元格的网格中;以及
针对所述多个单元格中的至少一个单元格中的各点:
使用所述一个或多个处理器,计算所述网格中该点的测量高度和所述测量高度处的地形的测量坡度;
使用所述一个或多个处理器,利用动态模型来计算该点的预测高度和所述预测高度处的地形的预测坡度;
使用所述一个或多个处理器,计算表示所述动态模型中的误差的第一统计模型以及表示所述测量高度和所述测量坡度中的测量误差的第二统计模型;
使用所述一个或多个处理器,计算所述预测高度和所述测量高度之间的第一新息;
使用所述一个或多个处理器,计算所述预测坡度和所述测量坡度之间的第二新息;
使用所述一个或多个处理器,将所述第一新息和所述第二新息与新息协方差进行比较,其中所述新息协方差是基于所述第一统计模型和所述第二统计模型至少之一;
使用所述一个或多个处理器,基于比较的结果将所述至少一个单元格中的各点识别为前景点或地面点;以及
使用所述一个或多个处理器,更新所识别的各地面点的预测高度。
2.根据权利要求1所述的用于运载工具的方法,其中,所述滤波器是被配置为识别地形的变化的空间卡尔曼滤波器。
3.根据权利要求1所述的用于运载工具的方法,其中,所述轨迹的生成包括:
使用所述一个或多个处理器,基于更新后的地面点来生成所述驾驶区域中的轨迹。
4.根据权利要求3所述的用于运载工具的方法,其中,所述运载工具的控制包括:
使用所述运载工具的控制电路,沿着所述驾驶区域中的轨迹来导航所述运载工具。
5.根据权利要求1所述的用于运载工具的方法,还包括:将所识别的各点分类为作为对象和路边路缘其中之一的一部分的前景点。
6.根据权利要求5所述的用于运载工具的方法,其中,所述分类包括:
针对被识别为前景点的各点,使用所述一个或多个处理器来确定是否存在与所述前景点相比高出阈值量或低了阈值量的其它前景点;
根据使用所述一个或多个处理器确定为存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,使用所述一个或多个处理器将所述前景点识别为属于对象;以及
根据使用所述一个或多个处理器确定为不存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,将所述前景点识别为属于路边路缘。
7.根据权利要求1所述的用于运载工具的方法,其中,所述动态模型是恒定坡度的一阶模型。
8.根据权利要求1所述的用于运载工具的方法,其中,基于所述运载工具是否在道路上来对所述第一统计模型进行调整。
9.根据权利要求1所述的用于运载工具的方法,其中,所述网格是包括多个径向单元格的二维极坐标网格即2D极坐标网格。
10.根据权利要求9所述的用于运载工具的方法,还包括:
对于所述2D极坐标网格中的各径向方向,针对所述运载工具附近的网格单元格,向所述2D极坐标网格添加幻影点。
11.根据权利要求6所述的用于运载工具的方法,其中,所述阈值量是基于所述第一统计模型和所述第二统计模型的总和的新息协方差。
12.根据权利要求1所述的用于运载工具的方法,其中,所述第一统计模型表示在所述单元格内地形将改变的概率。
13.根据权利要求1所述的用于运载工具的方法,其中,所述预测高度和所述预测坡度是由空间卡尔曼滤波器计算出的,其中所述第一统计模型是过程噪声协方差,其中所述第二统计模型是测量噪声协方差。
14.一种用于运载工具的方法,包括:
使用运载工具的一个或多个处理器,接收所述运载工具的一个或多个传感器所输出的点云数据;
使用所述一个或多个处理器,将所述点云数据变换到包括多个单元格的网格中;以及
针对各单元格中的各点:
使用所述一个或多个处理器,计算所述网格中该点的测量高度和所述测量高度处的地形的测量坡度;
使用所述一个或多个处理器,利用动态模型来计算该点的预测高度和所述预测高度处的地形的预测坡度;
使用所述一个或多个处理器,计算表示所述动态模型中的误差的第一统计模型以及表示所述测量高度和所述测量坡度中的测量误差的第二统计模型;
使用所述一个或多个处理器,计算所述预测高度和所述测量高度之间的第一新息;
使用所述一个或多个处理器,计算所述预测坡度和所述测量坡度之间的第二新息;
使用所述一个或多个处理器,将所述第一新息和所述第二新息与新息协方差进行比较,其中所述新息协方差是基于所述第一统计模型和所述第二统计模型至少之一;
使用所述一个或多个处理器,基于比较的结果将各单元格中的各点识别为前景点或地面点;
使用所述一个或多个处理器,更新所识别的各地面点的预测高度;
使用所述一个或多个处理器,基于更新后的地面点来生成驾驶区域中的路线或轨迹;以及
使用所述运载工具的控制电路,沿着所述驾驶区域中的路线或轨迹来导航所述运载工具。
15.根据权利要求14所述的用于运载工具的方法,其中,所述网格中的点是根据点离所述一个或多个传感器的相应距离来顺次处理的。
16.根据权利要求14所述的用于运载工具的方法,还包括:
针对被识别为前景点的各点,使用所述一个或多个处理器来确定是否存在与所述前景点相比高出阈值量或低了阈值量的其它前景点;
根据使用所述一个或多个处理器确定为存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,使用所述一个或多个处理器将所述前景点识别为属于对象;以及
根据使用所述一个或多个处理器确定为不存在与所述前景点相比高出阈值量或低了阈值量的其它前景点,将所述前景点识别为属于路边路缘。
17.根据权利要求14所述的用于运载工具的方法,其中,所述动态模型是恒定坡度的一阶模型。
18.根据权利要求14所述的用于运载工具的方法,其中,至少部分基于所述运载工具是在道路上还是偏离道路来对所述第一统计模型进行调整。
19.根据权利要求14所述的用于运载工具的方法,其中,所述网格是包括多个径向单元格的二维极坐标网格即2D极坐标网格。
20.根据权利要求19所述的用于运载工具的方法,还包括:
对于所述2D极坐标网格中的各径向方向,针对所述运载工具附近的网格单元格,向所述2D极坐标网格添加幻影点。
21.根据权利要求16所述的用于运载工具的方法,其中,所述阈值量是基于所述第一统计模型和所述第二统计模型的总和的新息协方差。
22.根据权利要求14所述的用于运载工具的方法,其中,所述第一统计模型表示在所述单元格内地形将改变的概率。
23.根据权利要求14所述的用于运载工具的方法,其中,所述预测高度和所述预测坡度是由空间卡尔曼滤波器计算出的,所述第一统计模型是过程噪声协方差,并且所述第二统计模型是测量噪声协方差。
24.一种用于运载工具的前景提取***,所述前景提取***包括:
一个或多个传感器;
所述运载工具的一个或多个处理器;以及
存储有指令的存储器,所述指令在由所述一个或多个处理器执行时,使得所述一个或多个处理器进行操作,所述操作包括:
从所述运载工具的一个或多个传感器接收包括多维点的数据;
利用滤波器来将所述多维点内的点识别为前景点或地面点;
使用所识别的前景点和地面点来生成所述运载工具的驾驶区域中的轨迹;以及
在所述运载工具正在所述驾驶区域中的轨迹上行驶时,控制所述运载工具,
所述操作还包括:
将所述数据变换到包括多个单元格的网格中;以及
针对所述多个单元格中的至少一个单元格中的各点:
计算所述网格中该点的测量高度和所述测量高度处的地形的测量坡度;
利用动态模型来计算该点的预测高度和所述预测高度处的地形的预测坡度;
计算表示所述动态模型中的误差的第一统计模型以及表示所述测量高度和所述测量坡度中的测量误差的第二统计模型;
计算所述预测高度和所述测量高度之间的第一新息;
计算所述预测坡度和所述测量坡度之间的第二新息;
将所述第一新息和所述第二新息与新息协方差进行比较,其中所述新息协方差是基于所述第一统计模型和所述第二统计模型至少之一;
基于比较的结果将所述至少一个单元格中的各点识别为前景点或地面点;以及
更新所识别的各地面点的预测高度。
25.根据权利要求24所述的前景提取***,其中,所述滤波器是被配置为识别地形的变化的空间卡尔曼滤波器。
26.根据权利要求24所述的前景提取***,其中,所述轨迹的生成包括:
基于更新后的地面点来生成所述驾驶区域中的轨迹。
27.根据权利要求26所述的前景提取***,其中,所述运载工具的控制包括:
使用所述运载工具的控制电路,沿着所述驾驶区域中的轨迹来导航所述运载工具。
28.一种非暂时性计算机可读存储介质,其存储有指令,所述指令在由运载工具的至少一个可编程处理器执行时,使得所述至少一个可编程处理器进行操作,所述操作包括:
从所述运载工具的一个或多个传感器接收包括多维点的数据;
利用滤波器来将所述多维点内的点识别为前景点或地面点;
使用所识别的前景点和地面点来生成所述运载工具的驾驶区域中的轨迹;以及
在所述运载工具正在所述驾驶区域中的轨迹上行驶时,控制所述运载工具,
所述操作还包括:
将所述数据变换到包括多个单元格的网格中;以及
针对所述多个单元格中的至少一个单元格中的各点:
计算所述网格中该点的测量高度和所述测量高度处的地形的测量坡度;
利用动态模型来计算该点的预测高度和所述预测高度处的地形的预测坡度;
计算表示所述动态模型中的误差的第一统计模型以及表示所述测量高度和所述测量坡度中的测量误差的第二统计模型;
计算所述预测高度和所述测量高度之间的第一新息;
计算所述预测坡度和所述测量坡度之间的第二新息;
将所述第一新息和所述第二新息与新息协方差进行比较,其中所述新息协方差是基于所述第一统计模型和所述第二统计模型至少之一;
基于比较的结果将所述至少一个单元格中的各点识别为前景点或地面点;以及
更新所识别的各地面点的预测高度。
CN202011501770.6A 2019-12-19 2020-12-18 用于运载工具的方法和前景提取***以及存储介质 Active CN113012187B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962950900P 2019-12-19 2019-12-19
US62/950,900 2019-12-19

Publications (2)

Publication Number Publication Date
CN113012187A CN113012187A (zh) 2021-06-22
CN113012187B true CN113012187B (zh) 2024-02-06

Family

ID=74046586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011501770.6A Active CN113012187B (zh) 2019-12-19 2020-12-18 用于运载工具的方法和前景提取***以及存储介质

Country Status (5)

Country Link
US (2) US11161525B2 (zh)
KR (1) KR20210080233A (zh)
CN (1) CN113012187B (zh)
DE (1) DE102020133744A1 (zh)
GB (2) GB2591332B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2995850A1 (en) 2015-08-31 2017-03-09 Ryan Kottenstette Systems and methods for analyzing remote sensing imagery
GB2591332B (en) 2019-12-19 2024-02-14 Motional Ad Llc Foreground extraction using surface fitting
US11741620B1 (en) * 2020-01-24 2023-08-29 Apple Inc. Plane detection using depth sensor and semantic information
US11508042B1 (en) 2020-01-29 2022-11-22 State Farm Mutual Automobile Insurance Company Imputation of 3D data using generative adversarial networks
US11520009B2 (en) * 2020-02-05 2022-12-06 Caterpillar Inc. Method and system for detecting an obstacle
US11462030B2 (en) * 2020-05-11 2022-10-04 Caterpillar Inc. Method and system for detecting a pile
US11367265B2 (en) * 2020-10-15 2022-06-21 Cape Analytics, Inc. Method and system for automated debris detection
US11792644B2 (en) 2021-06-21 2023-10-17 Motional Ad Llc Session key generation for autonomous vehicle operation
WO2023283231A1 (en) 2021-07-06 2023-01-12 Cape Analytics, Inc. System and method for property condition analysis
US20230089897A1 (en) * 2021-09-23 2023-03-23 Motional Ad Llc Spatially and temporally consistent ground modelling with information fusion
CN114475650B (zh) * 2021-12-01 2022-11-01 中铁十九局集团矿业投资有限公司 一种车辆行驶行为确定方法、装置、设备及介质
CN113866743B (zh) * 2021-12-06 2022-03-15 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种用于车路协同感知的路侧激光点云精简方法和***
US11676298B1 (en) 2021-12-16 2023-06-13 Cape Analytics, Inc. System and method for change analysis
US20230230250A1 (en) 2022-01-19 2023-07-20 Cape Analytics, Inc. System and method for property detection and analysis
WO2023144983A1 (ja) * 2022-01-28 2023-08-03 日本電気株式会社 光センシング装置、光センシングシステム及び光センシング方法
CN114488073A (zh) * 2022-02-14 2022-05-13 中国第一汽车股份有限公司 激光雷达采集到的点云数据的处理方法
CN116184357B (zh) * 2023-03-07 2023-08-15 之江实验室 一种地面点云数据处理方法、装置、电子装置和存储介质
CN117351449B (zh) * 2023-12-04 2024-02-09 上海几何伙伴智能驾驶有限公司 基于极坐标加权的道路可通行区域边界优化方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273334A1 (en) * 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
GB201611027D0 (en) * 2016-06-24 2016-08-10 Jaguar Land Rover Ltd Improvements in vehicle speed control
CN106323308A (zh) * 2015-07-02 2017-01-11 集奥数字国际有限公司 用于自驾驶车辆的属性化的道路轨迹
GB2549106A (en) * 2016-04-05 2017-10-11 Jaguar Land Rover Ltd Improvements in vehicle speed control
GB201719706D0 (en) * 2017-11-28 2018-01-10 Jaguar Land Rover Ltd Terrain analysis apparatus and method
WO2018045370A1 (en) * 2016-09-02 2018-03-08 The Texas A&M University System Clay based anticorrosion coatings and methods for applying same to metal substrates
CN108089571A (zh) * 2016-11-22 2018-05-29 百度(美国)有限责任公司 用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和***
WO2018166747A1 (en) * 2017-03-15 2018-09-20 Jaguar Land Rover Limited Improvements in vehicle control

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10330011B4 (de) 2003-07-03 2005-05-12 Eads Deutschland Gmbh Verfahren zur Hinderniserkennung und Geländeklassifikation
US8224097B2 (en) * 2008-06-12 2012-07-17 Sri International Building segmentation for densely built urban regions using aerial LIDAR data
GB2471276A (en) * 2009-06-22 2010-12-29 Bae Systems Plc Terrain sensing apparatus for an autonomous vehicle
US8605998B2 (en) * 2011-05-06 2013-12-10 Toyota Motor Engineering & Manufacturing North America, Inc. Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping
US8825391B1 (en) 2011-08-04 2014-09-02 Google Inc. Building elevation maps from laser data
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
US8898016B2 (en) * 2013-03-15 2014-11-25 Applied Minds, Llc Method and apparatus for two-stage planning
US10203399B2 (en) * 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9360554B2 (en) * 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US20160379366A1 (en) * 2015-06-25 2016-12-29 Microsoft Technology Licensing, Llc Aligning 3d point clouds using loop closures
GB2576265B (en) * 2016-04-05 2020-08-19 Jaguar Land Rover Ltd Improvements in vehicle speed control
DE112017003108T5 (de) * 2016-06-24 2019-03-28 Jaguar Land Rover Limited Verbesserungen bei der fahrzeugsteuerung
US10366310B2 (en) * 2016-09-12 2019-07-30 Aptiv Technologies Limited Enhanced camera object detection for automated vehicles
US11067995B2 (en) * 2017-03-20 2021-07-20 Mobileye Vision Technologies Ltd. Navigation by augmented path prediction
JP6889005B2 (ja) * 2017-04-05 2021-06-18 株式会社Soken 道路パラメータ推定装置
US10108867B1 (en) * 2017-04-25 2018-10-23 Uber Technologies, Inc. Image-based pedestrian detection
EP3615955A4 (en) * 2017-04-28 2020-05-13 SZ DJI Technology Co., Ltd. CALIBRATION OF LASER AND VISION SENSORS
US20180349746A1 (en) * 2017-05-31 2018-12-06 Uber Technologies, Inc. Top-View Lidar-Based Object Detection
US10809361B2 (en) * 2017-05-31 2020-10-20 Uatc, Llc Hybrid-view LIDAR-based object detection
EP3631508A4 (en) * 2017-07-31 2020-06-24 SZ DJI Technology Co., Ltd. MOTION-BASED PRECISION CORRECTION IN POINT CLOUDS
US11644834B2 (en) * 2017-11-10 2023-05-09 Nvidia Corporation Systems and methods for safe and reliable autonomous vehicles
US20220261601A1 (en) * 2017-12-05 2022-08-18 Uatc, Llc Multiple Stage Image Based Object Detection and Recognition
US10514462B2 (en) * 2017-12-13 2019-12-24 Luminar Technologies, Inc. Training a machine learning based model of a vehicle perception component based on sensor settings
US10739459B2 (en) 2018-01-12 2020-08-11 Ford Global Technologies, Llc LIDAR localization
US11157527B2 (en) * 2018-02-20 2021-10-26 Zoox, Inc. Creating clean maps including semantic information
US10705220B2 (en) * 2018-04-19 2020-07-07 Faraday & Future Inc. System and method for ground and free-space detection
US11164016B2 (en) * 2018-05-17 2021-11-02 Uatc, Llc Object detection and property determination for autonomous vehicles
US10884411B1 (en) * 2018-08-03 2021-01-05 GM Global Technology Operations LLC Autonomous vehicle controlled based upon a lidar data segmentation system and an aligned heightmap
US10884131B1 (en) * 2018-08-03 2021-01-05 GM Global Technology Operations LLC Conflict resolver for a lidar data segmentation system of an autonomous vehicle
US11783707B2 (en) * 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US10699167B1 (en) * 2018-10-19 2020-06-30 Waymo Llc Perception visualization tool
US11679760B2 (en) * 2018-12-10 2023-06-20 Mobileye Vision Technologies Ltd. Navigation in vehicle crossing scenarios
KR102376709B1 (ko) * 2019-01-30 2022-03-18 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 자율 주행 차량을 위한 포인트 클라우드 등록 시스템
CN112105890B (zh) * 2019-01-30 2023-11-17 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的基于rgb点云的地图生成***
CN113785302A (zh) * 2019-04-26 2021-12-10 辉达公司 自主机器应用中的路口姿态检测
US11204417B2 (en) * 2019-05-08 2021-12-21 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
WO2020264029A1 (en) * 2019-06-25 2020-12-30 Nvidia Corporation Intersection region detection and classification for autonomous machine applications
US11703562B2 (en) * 2019-07-05 2023-07-18 Uatc, Llc Semantic segmentation of radar data
US11353592B2 (en) * 2019-09-30 2022-06-07 Zoox, Inc. Complex ground profile estimation
US11821990B2 (en) * 2019-11-07 2023-11-21 Nio Technology (Anhui) Co., Ltd. Scene perception using coherent doppler LiDAR
US10928830B1 (en) * 2019-11-23 2021-02-23 Ha Q Tran Smart vehicle
GB2591332B (en) * 2019-12-19 2024-02-14 Motional Ad Llc Foreground extraction using surface fitting
US11747468B2 (en) * 2020-09-24 2023-09-05 Eagle Technology, Llc System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods
JP2023549036A (ja) * 2020-11-16 2023-11-22 ウェイモ エルエルシー 点群からの効率的な三次元物体検出
US11807245B2 (en) * 2021-09-02 2023-11-07 Synesthesia Artificial Intelligence, LLC Vehicle safety apparatus
US20230135234A1 (en) * 2021-10-28 2023-05-04 Nvidia Corporation Using neural networks for 3d surface structure estimation based on real-world data for autonomous systems and applications
US20230135088A1 (en) * 2021-10-28 2023-05-04 Nvidia Corporation 3d surface reconstruction with point cloud densification using deep neural networks for autonomous systems and applications
US20240010225A1 (en) * 2022-07-07 2024-01-11 Toyota Research Institute, Inc. Representation learning for object detection from unlabeled point cloud sequences

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273334A1 (en) * 2009-06-22 2011-01-12 BAE Systems PLC Terrain sensing
CN106323308A (zh) * 2015-07-02 2017-01-11 集奥数字国际有限公司 用于自驾驶车辆的属性化的道路轨迹
GB2549106A (en) * 2016-04-05 2017-10-11 Jaguar Land Rover Ltd Improvements in vehicle speed control
GB201611027D0 (en) * 2016-06-24 2016-08-10 Jaguar Land Rover Ltd Improvements in vehicle speed control
WO2018045370A1 (en) * 2016-09-02 2018-03-08 The Texas A&M University System Clay based anticorrosion coatings and methods for applying same to metal substrates
CN108089571A (zh) * 2016-11-22 2018-05-29 百度(美国)有限责任公司 用于预测无人驾驶车辆的车辆交通行为以做出驾驶决策的方法和***
WO2018166747A1 (en) * 2017-03-15 2018-09-20 Jaguar Land Rover Limited Improvements in vehicle control
GB201719706D0 (en) * 2017-11-28 2018-01-10 Jaguar Land Rover Ltd Terrain analysis apparatus and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IMU/DGPS辅助车载CCD及激光扫描仪三维数据采集与建模;陈允芳;叶泽田;谢彩香;石波;王贵宾;;测绘科学(05);第78-93页 *

Also Published As

Publication number Publication date
GB202018111D0 (en) 2020-12-30
US11161525B2 (en) 2021-11-02
KR20210080233A (ko) 2021-06-30
GB2591332A (en) 2021-07-28
GB2591332B (en) 2024-02-14
US20210188312A1 (en) 2021-06-24
GB202311795D0 (en) 2023-09-13
US11976936B2 (en) 2024-05-07
US20220024481A1 (en) 2022-01-27
CN113012187A (zh) 2021-06-22
DE102020133744A1 (de) 2021-06-24

Similar Documents

Publication Publication Date Title
CN113012187B (zh) 用于运载工具的方法和前景提取***以及存储介质
KR102537412B1 (ko) Radar를 사용한 확장 대상체 추적
CN112801124B (zh) 用于运载工具的方法和***
CN111915917B (zh) 计算机实现的方法、存储介质和运载工具
US20200216064A1 (en) Classifying perceived objects based on activity
CN111121776B (zh) 用于对运载工具进行导航的最佳轨迹的生成
KR20210112293A (ko) 주석 달기를 위한 데이터 샘플의 자동 선택
US11325592B2 (en) Operation of a vehicle using multiple motion constraints
CN113654564A (zh) 用于运载工具的方法
WO2020146447A1 (en) Field theory based perception for autonomous vehicles
KR102639008B1 (ko) 도로 특징부에 대한 폐색 표현을 구현하기 위한 시스템 및 방법
CN115079687A (zh) 用于自主运载工具的***、方法和存储介质
GB2601024A (en) Identifying background features using LIDAR
KR20220012804A (ko) 이미지 시맨틱스 네트워크로부터의 단안 3d 대상체 검출
US20220357453A1 (en) Lidar point cloud segmentation using box prediction
KR102601860B1 (ko) 운전 데이터 기반 공간 계획
CN113056715B (zh) 用于操作运载工具的方法、运载工具和存储介质
CN115220439A (zh) 用于运载工具的***和方法以及存储介质
DK201970146A1 (en) Classifying perceived objects based on activity
US20230089897A1 (en) Spatially and temporally consistent ground modelling with information fusion
CN115201854A (zh) 用于运载工具的方法、运载工具和存储介质
CN116229407A (zh) 用于运载工具的方法、运载工具和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant