CN113412505B - 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法 - Google Patents

用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法 Download PDF

Info

Publication number
CN113412505B
CN113412505B CN202080013113.9A CN202080013113A CN113412505B CN 113412505 B CN113412505 B CN 113412505B CN 202080013113 A CN202080013113 A CN 202080013113A CN 113412505 B CN113412505 B CN 113412505B
Authority
CN
China
Prior art keywords
data points
data point
ordered
data
volume
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080013113.9A
Other languages
English (en)
Other versions
CN113412505A (zh
Inventor
巴勃罗·霍拉西奥·亨宁斯·约曼斯
马丁·伊万诺夫·格热夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN113412505A publication Critical patent/CN113412505A/zh
Application granted granted Critical
Publication of CN113412505B publication Critical patent/CN113412505B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9318Controlling the steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

描述了一种方法,所述方法包括接收具有多个数据点的点云,每个数据点表示3D空间中的3D位置,所述点云使用探测和测距(detection and ranging,DAR)传感器获得。对于每个数据点,将所述数据点与包含所述数据点的所述3D位置的3D体积关联,所述3D体积使用根据球坐标划分所述3D空间的3D栅格定义。对于至少一个3D体积,所述数据点根据所述3D栅格的至少一个维度在所述3D体积内排序;所述经排序的数据点作为有序数据点集合存储。所述方法还包括对所述有序数据点集合执行特征提取以生成有序特征向量集合,并提供所述有序特征向量集合以执行机器学习推理任务。

Description

用于对通过探测和测距传感器获得的点云进行有序表示和特 征提取的处理单元和方法
技术领域
本发明涉及用于生成通过探测和测距(detection and ranging,DAR)传感器提供的点云的有序表示的***和方法,这有助于从中执行相关特征提取。
背景技术
自动驾驶车辆通常包括不同类型的传感器,这些传感器可以用于感测车辆运行的环境,捕获有关环境的信息,并产生表示捕获信息的传感器数据。自动驾驶车辆上越来越流行的一种传感器是LiDAR传感器。LiDAR传感器捕获车辆运行环境中对象的三维(three-dimensional,3D)信息,并在空间中生成表示对象的数据点集合。三维(three-dimensional,3D)空间中的每个数据点集合在本领域中通常称为点云。然而,点云中的数据点集合通常是无序数据点,具有不规则构成,反映了3D空间中不均匀的采样密度。
自动驾驶车辆通常包括基于机器学习的***,该***可以执行特征提取过程,以从由LiDAR传感器获得的点云提取特征,这些特征用于基于机器学习的***的一个或多个下游推理过程,以执行如3D对象识别和语义分割等模式识别任务。然而,传统的特征提取过程可能无法考虑LiDAR传感器用于生成点云的射线扫描或测距过程。特别地,从LiDAR传感器接收的点云不是如同LiDAR传感器可以放置为从每个方向观看一样进行采样的自然3D表面。相反,LiDAR传感器通常固定在车辆上,且仅扫描有限的视野,因而只能从可以扫描的方向产生尽可能多的数据点。此外,LiDAR传感器每次扫描所产生的点云符合一种空间顺序,该空间顺序通常是针对LiDAR传感器定制的,且在用于执行下游的模式识别任务的一个或多个下游推理过程中没有被适当考虑。
发明内容
本发明涉及一种基于点云形成过程的特征提取方法和网格表示,使用球坐标将由DAR传感器感测或扫描的环境的3D空间划分为小体积(也称为“3D仓(3D bin)”),并对每个小体积(例如3D仓)内的点云的数据点进行排序,从而以有利于进行高效信号处理的方式执行相关特征提取。这种新型的表示为广泛的相关模式识别任务(包括但不限于对象检测和语义分割)定义了3D空间。这些模式识别任务的可靠执行对于自动驾驶车辆至关重要。
本发明描述了一种方法和***的示例,所述方法和***用于组织由DAR传感器(如雷达传感器或LiDAR传感器)提供的点云的数据点,以便能够从点云提取特征,这些特征可以解释边缘、角点和需要了解点云中数据点顺序的其它对象特征。对点云的数据点执行特征提取,并考虑DAR传感器生成点云的过程。
在一些示例中,使用由DAR传感器感测或扫描的环境的3D空间的3D球面网格表示,将从DAR传感器接收的点云转换为有序特征向量(或增强数据点)集合和元数据。所公开的示例可以通过基于机器学习的***(例如,自动驾驶车辆中的基于机器学习的***)的推理子模块实现更高效的模式识别,如对象检测和语义分割。
在一些方面中,点云的数据点处理基于(1)球坐标中的3D网格表示,所述3D网格表示包括网格所涵盖的每个3D仓内数据点的排序,和(2)特征提取操作,这些特征提取操作将每个3D仓中的数据点转换为使用数据点的空间排序的特征向量和相关元数据。
根据本发明的一个方面,提供了一种方法,所述方法包括接收具有多个数据点的点云,每个数据点表示3D空间中的3D位置,所述点云使用探测和测距(detection andranging,DAR)传感器获得。对于每个数据点,将所述数据点与包含所述数据点的所述3D位置的3D体积关联,所述3D体积使用根据球坐标划分所述3D空间的3D栅格定义。对于至少一个3D体积,所述方法包括:根据所述3D栅格的至少一个维度对所述3D体积内的所述数据点进行排序;将所述经排序的数据点作为有序数据点集合存储。
根据本发明的另一方面,所述3D体积包括所述3D空间的两个或更多个分区,所述两个或更多个分区是沿着所述3D栅格的一个维度相邻的分区。
根据本发明的另一方面,所述方法包括:对所述有序数据点集合执行特征提取以生成有序特征向量集合;提供所述有序特征向量集合以执行推理任务。
根据本发明的另一方面,执行特征提取包括:对于所述至少一个3D体积,通过应用至少一个特征函数,计算所述3D体积内每个数据点的至少一个特征;通过将所述至少一个计算的特征与相应的数据点关联,为每个所述相应的数据点生成特征向量;根据所述3D栅格对所述特征向量进行排序,以生成所述有序特征向量集合。
根据本发明的另一方面,执行特征提取还包括:对于所述至少一个3D体积,根据至少一个局部模式确定每个数据点的邻域信息;其中,所述邻域信息用于应用所述至少一个特征函数。
根据本发明的另一方面,所述有序特征向量集合表示为一组元组,其中,每个特征向量与所述3D空间的相应分区关联。
根据本发明的另一方面,所述3D空间划分为多个非重叠的3D体积。
根据本发明的另一方面,所述3D空间划分为多个重叠的3D体积。
根据本发明的另一方面,所述DAR传感器是射线扫描DAR传感器。
根据本发明的另一方面,提供了一种装置,所述装置包括:存储指令的存储器;处理器,所述处理器与所述存储器耦合,用于执行所述指令以:接收具有多个数据点的点云,每个数据点表示3D空间中的3D位置,所述点云使用探测和测距(detection and ranging,DAR)传感器获得;对于每个数据点,将所述数据点与包含所述数据点的所述3D位置的3D体积关联,所述3D体积使用根据极坐标划分所述3D空间的3D栅格定义;对于至少一个3D体积,根据所述3D栅格的至少一个维度对所述3D体积内的所述数据点进行排序;将所述经排序的数据点作为有序数据点集合存储。
附图说明
现在通过示例参考示出本申请的示例性实施例的附图,其中:
图1是示例性自动驾驶车辆的一些组件的框图;
图2是用于实现基于机器学习的***的示例性处理单元的一些组件的框图,所述基于机器学习的***可用于图1的自动驾驶车辆;
图3A和图3B是用于表示和预处理由DAR传感器提供的点云的传统方法的示意图;
图4是本发明的示例提供的用于表示和预处理点云的示例性方法的示意图;
图5是图1和图2的基于机器学习的***的子模块的框图;
图6是示出图5的一些子模块的额外细节的框图;
图7A-图7D是用于确定邻域信息的一些示例性局部模式的示意图,所述局部模式是指定点相对于相邻点的顺序的一种方式;
图8是用于生成点云数据的有序表示并执行特征提取的示例性方法的流程图。
不同附图中可以使用类似的附图标记来表示类似的组件。
具体实施方式
本发明描述了对从任何探测和测距传感器(如LiDAR传感器、雷达传感器、声纳传感器等)接收的3D点云生成有序表示并执行特征提取的示例。在本发明中,探测和测距(detection and ranging,DAR)传感器是指可以用于电磁信号、光信号或声学信号并捕获关于距离DAR传感器一定距离的对象的信息的任何传感器,所述信息包括关于每个对象的距离或范围的信息。DAR传感器可以是射线扫描DAR传感器,例如,可以使用DAR传感器发射的射线扫描环境。本文描述的示例利用3D栅格,通过将点分组为小体积来编码空间位置。在每个小体积内,对数据点进行排序,为每个数据点分配小体积。可以在每个小体积内计算特征,以增强数据点。点云的数据点的这些计算特征和3D栅格表示可以由执行推理任务(如模式识别任务)(即涉及对象检测或语义场景分割的任务)的基于机器学习的***的推理子模块使用。例如,使用本文公开的示例,可以根据预定义网格处理从DAR传感器接收的点云的数据点,以输出有序数据点集合和与已知空间邻域成员关系相关的元数据。可以使用与有序数据点的空间邻域成员关系相关的元数据,用提取特征增强有序数据点。然后,增强数据点集合可以作为输入提供给基于机器学习的***的推理子模块,所述增强数据点集合是保存点云的数据点顺序的特征向量。
通常,在基于机器学习的***的推理子模块处理点云之前,对点云的数据点进行排序并对点云进行特征提取有助于提高推理任务的性能,所述推理任务如对象检测(例如,检测行人,或道路分割(在自动驾驶车辆的背景下))、对象分类、语义分割等。
本发明的一些示例在自动驾驶车辆的背景下描述。然而,本文公开的方法和***也可以适用于在自主设备之外实现,例如在非车辆设备和/或半自主设备的背景下实现。例如,在操作期间对点云的数据点进行排序的能力可以使接收点云并输出推理决策的任何基于机器学习的***受益。此外,本发明的示例可用于在其它背景下生成有序点云。
虽然本文描述的示例可以将汽车称为自动驾驶车辆,但本发明的教导可以与其它形式的自主或半自主设备相关,包括有轨电车、地铁、卡车、公共汽车、水面和水下航行器及船只、飞机、无人机(也称为无人驾驶飞行器(unmanned aerial vehicle,UAV))、仓库设备、建筑设备或农场设备等,并且可以包括不载客的车辆以及载客的车辆。本文公开的方法和***也可以与非车辆设备相关,例如自主真空吸尘器和割草机。此外,尽管本文描述的示例可以参考如LiDAR和雷达等传感器,但应理解,本发明的教导可以与其它形式的DAR设备相关,包括可以在上述自主或半自主设备中发现的射线扫描设备。
图1是示例性自动驾驶车辆100的一些组件的框图。尽管车辆100被描述为自主的,但车辆100可以在完全自主、半自主或完全用户控制的模式下运行。在本发明中,车辆100在汽车的实施例中描述;然而,如上所述,本发明可以在其它车辆或非车辆机器中实现。
例如,车辆100包括传感器***110、机器学习***120、路径规划***130、车辆控制***140和机电***150。车辆100可以视情况包括其它***和组件。车辆的各种***和组件可以通过有线或无线通信等方式相互通信。例如,传感器***110可以与基于机器学习的***120、路径规划***130和车辆控制***140通信;基于机器学习的***120可以与路径规划***130和车辆控制***140通信;路径规划***130可以与车辆控制***140通信;车辆控制***140可以与机械***150通信。
传感器***110包括用于收集关于车辆100的内部环境和/或外部环境的信息的各种传感单元。在所示示例中,传感器***110包括雷达单元112、LiDAR单元114、相机116和全球定位***(global positioning system,GPS)单元118。传感器***110可以包括其它传感单元,如温度传感器、降水传感器或麦克风,等等。
在示例性实施例中,LiDAR单元114可以包括一个或多个LiDAR传感器,并且可以在车辆100周围的宽视野(例如,360°视野)中捕获数据。LiDAR数据(例如,由一个或多个LiDAR传感器获取的原始传感器数据)可以结合关于环境的三维(three-dimensional,3D)信息,并且可以进行处理以在3D空间中形成数据点集合(下文称为点云),其中,点云中的每个数据点表示3D空间中由一个或多个LiDAR传感器感测的对象的3D坐标(例如,x、y和z值)。取决于感测的环境,点云中的数据点集合可以是不规则间隔的。在一些示例中,除了3D坐标外,点云中的每个数据点还可以包含其它信息,如数据点的强度(例如反射光的强度)或数据点的检测时间。
在示例性实施例中,雷达单元112可以包括一个或多个雷达传感器,并且可以在车辆100周围的宽视野(例如,360°视野)中捕获数据。雷达数据(例如,由一个或多个雷达传感器获取的原始传感器数据)可以结合关于环境的三维(three-dimensional,3D)信息,并且还可以进行处理以形成点云,其中,点云中的每个数据点表示3D空间中由一个或多个雷达传感器感测的对象的3D坐标(例如,x、y和z值)。取决于感测的环境,点云中的数据点集合可以是不规则间隔的。在一些示例中,除了3D坐标外,点云中的每个数据点还可以包含其它信息,如数据点的强度(例如反射电磁波的强度)或数据点的检测时间。
使用各种传感单元112、114、116、118,传感器***110可以收集关于车辆100的局部环境(例如,任何附近的障碍物)的信息以及来自更远区域的信息(例如,雷达单元112和LiDAR单元114可以从车辆100周围半径达100米或更远的区域收集信息)。传感器***110还可以收集关于车辆100相对于参考系的位置和取向的信息(例如,使用GPS单元118)。
传感器***110与基于机器学习的***120通信,以向基于机器学习的***120提供点云。基于机器学习的***120的输入是从传感器***110接收的点云的数据点。基于机器学习的***120用于处理点云的数据点,进行特征提取,并执行推理任务,如对象分类、回归或分割。机器学习***120可以使用软件实现,所述软件可以包括任何数量的独立或互连的模块或功能,例如包括机器学习算法和图像处理功能。机器学习***120可以使用一个或多个专用图像处理单元来实现,也可以使用车辆100的一个或多个通用处理单元来实现。机器学习***120可以重复地(例如,以规律间隔)从传感器***110接收点云,并实时或接近实时地处理点云。基于机器学习的***120的输出是推理决策,可以包括在2D和/或3D空间中车辆周围的对象的识别和定位等,包括对象类别、对象位置以及对象边界或掩码。
在一些实施例中,由传感器***110提供的点云可以存储在离线存储器中,稍后检索,并提供给基于机器学习的***120如上所述进行处理。
由传感器***110提供的点云由基于机器学习的***120处理,所述基于机器学习的***120可以向路径规划***130提供推理输出(例如对象标签、对象类别等)。路径规划***130为车辆生成目标任务(例如,车辆的规划路径),并将目标任务提供给车辆控制***140。车辆控制***140用于根据从路径规划***130接收的目标任务控制车辆100的运行。车辆控制***140可用于对车辆100进行完全、部分或辅助控制。机电***150从车辆控制***140接收控制信号,以操作车辆100的机械和/或机电组件,如发动机、变速器、转向***和制动***。
传感器***110、机器学习***120、路径规划***130和车辆控制***140可以单独或以组合形式至少部分地在车辆100的一个或多个处理单元中实现。本发明描述了机器学习***120用于执行对象检测和定位的部分。在一些示例中,车辆100的一个或多个其它***(例如,路径规划***130和/或车辆控制***140)也可以使用机器学习来实现。为了简单起见,本发明将路径规划***130和车辆控制***140描述为与机器学习***120分开;然而,应理解,路径规划***130和/或车辆控制***140可以实现为机器学习***120的一部分。此外,在某些背景下,机器学习***120也可以描述为机器学习模块。
作为示例,图2示出了可用于实现车辆100的一个或多个组件的处理单元200的示例。例如,处理单元200可以用于实现基于机器学习的***120。处理单元200也可以在车辆100外部,例如用于不在现实环境中操作车辆100的情况下训练和/或测试基于机器学习的***。
在该示例中,处理单元200包括与电子存储220和一个或多个输入和输出接口或设备230耦合的一个或多个物理处理器210(例如,微处理器、图形处理单元、数字信号处理器或其它计算元件)。电子存储220可以包括有形存储器(例如闪存)和瞬时存储器(例如RAM)。一个或多个有形存储器可以存储指令、数据和/或软件模块,由一个或多个处理器执行以执行本文所述的示例,例如实现机器学习***120(和机器学习***120的子模块)。电子存储220可以包括一个或多个任何合适的易失性和/或非易失性存储和检索设备。电子存储220可以包括随机存取存储器(random access memory,RAM)、只读存储器(read only memory,ROM)、硬盘、光盘、用户识别模块(subscriber identity module,SIM)卡、记忆棒、安全数字(secure digital,SD)存储卡等中的一种或多种。
本发明描述了用于将从DAR传感器接收的点云的数据点处理成有序特征向量集合的示例,所述有序特征向量集合可以作为输入提供给基于机器学习的***的推理子模块等。推理子模块用于接收有序特征向量集合作为输入,并执行推理任务,例如对象检测或语义分割等模式识别任务。
为了帮助理解本发明,首先对现有技术进行了简要描述。图3A示出了一种传统方法。例如,LiDAR单元114的LiDAR传感器可以捕获形成点云的数据点集合302。通过将数据点302按包含它们的长方体(也称为体素304)分组来概括点云。通常,体素304定义形状为长方体的3D空间的体积;例如,体素可以是规则形状的或数学定义的。这些体素304填充由LiDAR单元114的LiDAR传感器扫描的预定义空间(在3D中),也称为3D网格。通常将标准化和其它函数应用于每个体素304,以聚合具有邻域或局部信息的数据点302,并且在笛卡尔坐标中生成坐标和特征向量的输出表示,从而编码这种3D网格或栅格。如VoxelNet(例如,Zhou等人,“VoxelNet-基于点云的3D对象检测的端到端学习(VoxelNet-End-to-End Learningfor Point Cloud Based 3D Object Detection),”CVPR,2018所述)等机器学习方法使用了图3A所示的方法的示例。如VoxelNet作者所述,可以使用该方法定义的示例性特征向量是:
[(x,y,z),l,(x–cx,y–cy,z–cz)]
其中,x、y、z是3D空间中给定数据点的笛卡尔坐标,l是强度,cx、cy、cz是包含给定数据点的体素中点质心的笛卡尔坐标。
图3B示出了另一种传统方法。在这种方法中,应用了变换,将点云的数据点映射到表示LiDAR单元114的LiDAR传感器的前视图(front view,FV)的2D表面(其它方法也可以使用鸟瞰图(bird’s-eye-view,BEV))。在所示示例中,数据点302映射到弯曲的2D表面306。通过将深度或其它信息附加到输出2D图中的每个数据点302,将信息添加到输出特征向量。图3B所示的方法的一个示例是作者SqueezeSeg使用的方法(例如,见Wu等人,“SqueezeSegV2:LiDAR点云的道路目标分割的改进模型结构和无监督域自适应(SqueezeSegV2:ImprovedModel Structure and Unsupervised Domain Adaptation for Road-ObjectSegmentation from a LiDAR Point Cloud),”arXiv.org,2018年9月)。可以使用该方法定义的示例性特征向量是:
[(x,y,z),l,r]
其中,r定义为:
Figure GDA0003650673180000061
另一种方法结合了图3A和图3B所示的两种方法。
与上述传统方法相比,本文描述的示例提供了(1)在3D布局上点云的数据点的有序表示;(2)所述点云根据每个数据点的球面表示及其与球面3D布局的单元的成员关系沿一个或多个维度进行排序。图4示出了数据点302如何分组到体素射线310中的自上而下视图,体素射线310是使用球坐标定义的小空间体积(也称为3D仓)。与使用图3A所示的笛卡尔坐标定义的传统体素304相比,这种用于表示的球形基础可以更好地表示DAR传感器的射线扫描特性和DAR传感器的点云形成过程。数据点由充分定义的3D网格或栅格中的体素射线310分组和排序。在共用方位角和极化通道(此处称为波束320)等的体素射线310的集合内,对数据点进行排序,以便能够使用特征提取操作提取特征,所述特征提取操作包括可以对均匀间隔的顺序数据点执行的信号处理操作。因此,特征提取操作可以执行空间有意义的信号处理操作,以利用空间域的频率信息。为了简单起见,图4示出了3D空间仅一部分的3D网格;应理解,可以针对由DAR传感器(如雷达单元112的雷达传感器或LiDAR单元114的LiDAR传感器)捕获或扫描的整个3D空间定义3D栅格,或者可以仅针对由DAR传感器捕获或扫描的3D空间的一部分定义3D栅格。
图5示出了本文公开的示例提供的机器学习***120的示例中涉及的示例性子模块。为了简单起见,图5示出了机器学习***120直接从LiDAR单元114的LiDAR传感器接收点云形式的传感器数据;在一些示例中,由LiDAR单元114中的LiDAR传感器生成的点云形式的传感器数据可以由传感器***110处理(例如,过滤),并通过传感器***110提供给机器学习***120。LiDAR单元114生成点云,该点云包含表示3D环境的3D数据点。
在图5的示例中,机器学习***120包括预处理子模块510、特征提取子模块520和推理子模块530。子模块510、520、530的功能可以实现为如图所示的三个单独的子模块,也可以使用更少或更多数量的子模块来实现。子模块510、520、530是示例性的,并且本文公开的示例性方法可以使用不同的***架构来实现,并且不意欲受到所示示例的限制。
通常,预处理子模块510使用关于DAR传感器的设计规格的信息来设计。关于DAR传感器设计的信息可以在DAR传感器制造商提供的数据表中获得。在一些实施例中,DAR传感器可以提供关于下游特征提取和推理子模块的信息。关于DAR传感器设计规格的信息可以包括DAR传感器的最小和最大范围、DAR传感器的水平和垂直分辨率(例如DAR传感器具有的通道数量),以及DAR传感器的视野。该信息用于定义用于划分DAR传感器捕获或扫描的3D空间的3D栅格或网格。预处理子模块510使用3D栅格将3D空间划分为以球坐标定义的多个小体积(例如3D仓)。如上所述,这些小体积(例如3D仓)称为体素射线。预处理子模块510还通过在必要时添加特征提取子模块520的元数据来处理从DAR传感器接收的传感器数据(例如点云)。预处理模块所添加的元数据包括与点云的数据点和3D栅格的表示有关的信息。预处理子模块510的输出是有序数据点集合610和元数据,所述元数据通常包括与数据点和3D栅格的表示有关的信息。特征提取子模块520根据有序数据点集合610计算特征,并使用元数据将有序特征向量(也称为有序增强数据点)集合620和元数据组装为输出用于推理子模块530,其中,元数据包括与特征向量和3D栅格的表示或3D网格相关的信息。如下文所详述,有序数据点集合610和有序特征向量集合620各自使用基于球面的3D空间表示进行排序。推理子模块530可以从特征提取子模块520接收输出(例如,有序特征向量集合620和元数据)作为输入,执行推理任务,并输出推理输出630。例如,推理子模块530可以是使用神经网络实现的基于机器学习的分类器,该基于机器学习的分类器接收有序特征向量集合620并输出对象标签或类别。或者,推理子模块530可以是基于机器学习的分段***,接收有序特征向量集合620并输出指定前方分段道路的掩码。由推理子模块530执行的其它类型的推理任务(包括模式识别任务)对于本领域技术人员而言是显而易见的,因此不详细描述。推理输出630可以提供给车辆100中的其它***(例如,路径规划***130)。
虽然图5示出了机器学习***120从LiDAR单元114的LiDAR传感器接收点云形式的传感器数据的示例性实施例,但在替代实施例中,机器学习***120可以直接从任何类型的DAR传感器(例如,如雷达传感器等射线扫描DAR传感器,或如声纳传感器等其它类型的DAR传感器)接收点云形式的传感器数据。在一些示例性实施例中,相比于离散的点云,DAR传感器可以产生表示测距数据的连续信号。在该实施例中,DAR传感器可以向传感器***110提供连续信号。传感器***110可以对连续信号进行采样,以获得表示点云的数据点,并将数据点提供给机器学习***120。在其它示例性实施例中,DAR传感器可以直接对连续信号进行采样以获得表示点云的数据点,并将点云输出给机器学习***120。在其它示例性实施例中,由DAR传感器提供的传感器数据可以存储在一个或多个存储设备等中,而不是将传感器数据直接提供给机器学习***120,并且机器学习***120可以从一个或多个存储设备获得传感器数据。
图6更详细地示出了由机器学习***120的预处理子模块510和特征提取子模块520执行的一些功能。虽然图6的示例将某些功能与子模块510、520的特定子模块关联,但应理解,这些功能可以使用不同的子模块来实现,或者可以使用更少或更多数量的子模块来实现。本文公开的示例性方法可以使用不同的***架构来实现,并且不意欲受到所示示例的限制。
在所示示例中,预处理子模块510执行分组和索引512以及排序514的功能;特征提取子模块520执行点增强522和输出组装524的功能。
预处理子模块在执行分组和索引512的功能之前,从存储设备加载先前定义的3D栅格或关于3D栅格定义的规范。或者,预处理模块可以使用由DAR传感器提供的关于DAR传感器规格的信息定义3D栅格,以提供由DAR传感器(如LiDAR单元114的LiDAR传感器)捕获或扫描的3D空间的基于球面的表示。3D栅格(也可以称为3D网格)用于定义3D仓集合。如上所述,每个3D仓或体积使用球坐标定义,并称为体素射线(以区分图3A所示的使用笛卡尔坐标定义的传统体素304)。
分组和索引功能512将点云中的每个数据点分配给特定体素射线,排序功能514对波束(即,定义的体素射线组,具有相关或共用的方位角和/或极化间隔和/或范围等)内的数据点进行排序。这可以通过对波束内的数据点排序来实现。在一些示例中,DAR传感器可以对数据点的排序进行编码,因此可以不对波束内的数据点执行排序功能514。而是可以将每个数据点简单地分配给波束内的索引来实现所需的排序。预处理模块510的输出是由模块514的排序产生的有序数据点集合,并且由分组和索引子模块512提取的元数据还可以包括通过在514中执行的排序提取的元数据,并可选地包括与DAR传感器相关的元数据。这是预处理子模块510输出的元数据,所述元数据可以包括点与3D栅格的空间关系,以及每个体素射线或体素射线集合(即,波束)内点的空间关系。使用有序数据点集合,点增强功能522使用预处理模块510输出的元数据对每个数据点执行一个或多个特征提取操作,从而为每个数据点生成特征向量和元数据,其中,所述元数据包括关于数据点的空间相邻数据点以及空间相邻数据点本身的信息。为每个数据点生成的元数据包括特征向量的相关索引或空间坐标,以便这些特征向量由后续子模块524适当地放置在3D栅格上,并且该元数据可以包括在模块510和520内提取的任何相关信息,这些信息可以由下游推理子模块530使用。组装功能524通过将每个特征向量分配给对应的体素射线来生成有序特征向量的输出。组装功能524可以根据原始数据点的顺序,以及定义的基于球面的3D栅格,将每个特征向量分配到对应体素射线内的特定空间位置。组装的输出也可以称为组装的波束网格。
如上所述,图4示出了示例性3D栅格的自上而下视图,该示例性3D栅格定义了由DAR传感器(例如,雷达单元112的雷达传感器、LiDAR单元114的LiDAR传感器,或其它类型的射线扫描DAR传感器)捕获或扫描的3D空间。DAR传感器生成包含3D空间中数据点302的点云。点云可以定义为:
P={pn}其中,n=0,……,N–1
其中,pn是具有N个数据点的点云P中的第n个数据点。每个数据点pn可以如下表示为用笛卡尔坐标定义的3D位置:
pn=(x,y,z)
或者,数据点pn的3D位置可以如下用极坐标表示:
pn=(r,ρ,θ)
其中,r是距DAR设备的距离,定义为:
Figure GDA0003650673180000081
其中,ρ是方位角,θ是极角或天顶角。在该示例中,坐标以DAR传感器的位置为原点。数据点的球面表示可以是由射线扫描DAR传感器(如LiDAR或雷达传感器)捕获的信息的更好表示(与笛卡尔表示相比)。此外,通过使用基于球面的3D栅格,与基于笛卡尔的方法中的正方形网格相比,通过DAR传感器获得的点云的所有数据点都被考虑在内。这是因为体素射线(即,使用基于球面的3D空间表示定义的体积)更好地表示由DAR传感器自然扫描的3D空间的一部分。
如图4所示,相比于通常具有立方体或矩形棱镜几何形状以及恒定尺寸的传统体素(例如,图3A所示的体素304),体素射线310可以具有几何上类似于截锥体的形状,并且不同体素射线310可以具有不同的尺寸。需要说明的是,波束320定义为一组体素射线310,以这样的方式,数据点302可以在每个波束320内的给定空间维度上排序。这种排序可以提取有用的特征,因为用于执行特征提取功能的信号处理操作可能需要这种排序和这种排序提供的局部(邻居)信息。这可以有助于由基于机器学习的***120的推理子模块执行的推理任务(例如,模式识别任务)。
在一些示例中,本发明定义了波束网格的数学表示。波束网格可以视为3D中直方图的仓和边缘,其中,点云中的数据点可以位于相应的3D仓(即体素射线)中。例如,典型的LiDAR传感器通过多个定义的通道扫描3D环境,其中,每个通道在2D平面(例如半径-方位面)上扫描。如上所述,图4示出了一个这种平面的自上而下视图。根据LiDAR传感器的不同,可以有8、16、32或更多个通道。因此,对于使用LiDAR传感器(例如,具有一个或多个LiDAR传感器的LiDAR单元114或雷达单元112)获得的点云数据,θ具有定义值θk,其中,k是总共K个通道中的第k个LiDAR通道的索引。在此基础上,极轴可以如下分为多个间隔:
Figure GDA0003650673180000091
其中,对于定义的
Figure GDA0003650673180000092
的集合,所有点pn=(rnnn),
Figure GDA0003650673180000093
该间隔集合表示具有K个通道的LiDAR传感器中的通道。参数
Figure GDA0003650673180000094
表示小极角,可以选择该参数以对应DAR设备的极化分辨率。参数
Figure GDA0003650673180000095
可以根据θk而变化,也可以为常数。通常,用于定义3D栅格、体素射线和波束的参数值可以根据需要选择,例如以匹配DAR设备的特征。
间隔
Figure GDA0003650673180000096
定义了跨越极轴的分区,全部或部分覆盖点云P。如果点云P被间隔
Figure GDA0003650673180000097
部分覆盖,则可能已经对间隔
Figure GDA0003650673180000098
进行定义,从而仅沿极轴覆盖感兴趣的一部分。
分区可以在径向方向r和方位角方向上ρ类似地定义。r轴可以划分为I个间隔,方位轴可以划分为J个间隔,其中,I和J的值可以根据需要选择,例如根据DAR设备的径向和方位分辨率进行选择。径向和方位间隔可以如下定义:
Figure GDA0003650673180000099
Figure GDA00036506731800000910
其中,
Figure GDA00036506731800000911
表示沿r轴的小距离,
Figure GDA00036506731800000912
表示小方位角,两者都可以沿着各自的轴变化,也可以是常数。
Figure GDA00036506731800000913
Figure GDA00036506731800000914
的值可以根据需要选择,例如根据DAR设备的径向和方位分辨率进行选择。
根据上述定义,波束网格B可以如下用球坐标中的分区形成的3D部分定义:
Figure GDA00036506731800000915
体素射线可以如下定义为通过(i,j,k)索引的3D部分:
Figure GDA00036506731800000916
需要说明的是,体素射线可以定义为非重叠的(例如,如图4所示的示例中)或重叠的。例如,具有重叠体素射线的网格是轴中两个相邻间隔中心的距离比每个中心到其相应间隔的边缘的距离两倍更近的网格。到目前为止,已知的方法(例如,上文结合图3所述的)集中在用笛卡尔坐标定义的非重叠3D仓,但是重叠的3D仓可以提供更稳定的表示,该表示可以更好地捕获在数据点集合中编码的真实对象的特征性质。本发明可适用于任何一种方法。
在定义了用于划分3D空间的3D栅格之后,预处理子模块510可以通过将所有数据点一起在由给定体素射线定义的3D部分内分组,以及使用给定体素射线的索引对数据点进行索引来执行分组和索引功能512。这在数学上的一个示例性表达式是,对于波束网格B中的每个体素射线vijk,体素射线vijk中包含的任何数据点pn都作为(pn,(i,j,k))进行索引和存储。在该示例中,所存储的是数据点本身的元组及其与3D栅格的一个或多个体素射线的成员关系。后者可以简单地用体素射线每个维度上的索引表示,但也可以用其它方式表示,只要3D栅格中数据点与3D体素射线的成员关系是明确的。
另外或或者,数据点可以分组成波束并进行索引。波束可以用m索引,其中m←(j,k),并且是具有共同方位间隔ρa和共同极性间隔θb的体素射线组。例如,波束Bm可以如下定义:
Figure GDA0003650673180000101
其中,运算符U表示体素射线的并集,粗体表示集合。
在定义了波束之后,预处理子模块510可以通过将所有数据点一起在由给定波束定义的3D部分内分组,以及使用给定波束的索引对数据点进行索引来执行分组和索引功能512。
这在数学上的一个示例性表达式是,对于波束网格B中的每个波束Bm,波束Bm中包含的任何数据点pn都作为(pn,(j,k))进行索引和存储,使得
Figure GDA0003650673180000102
在另一示例中,用伪代码如下表示:
FOR EVERY beam IN beam-grid
FOR EVERY point IN beam
Figure GDA0003650673180000103
在某些情况下,分组和索引功能512可以使用哈希表将数据点分组为波束并进行索引,其中,(j,k)作为哈希键。这在数学上的一个示例性表达式是,哈希表可以定义为具有哈希键j和k的表M,数据点可以通过以下方式赋值:
Mjk←pn如果
Figure GDA0003650673180000104
其中,赋值运算符←是指数据点pn聚合到表M中单元格Mjk的内容。
在数据点已经通过波束分组和索引之后,排序功能514对给定波束内的数据点进行排序,例如使用点本身的简单转换操作进行排序,或在必要时使用排序操作进行排序。例如,根据DAR传感器,数据点可能已经沿方位轴排序。例如,根据待确定的局部模式(下文进一步描述)的方向,排序也可以沿其它方向执行。在给定波束内对数据点进行排序通常比在整个通道或整个点云上对数据点进行排序更高效。这在数学上的一个示例性表达式是,对于波束网格B中的波束Bm,波束Bm中包含的数据点pn沿着方位角方向进行排序。有序数据点存储在有序点云SB中。如果数据点已使用哈希表M索引,则排序可以通过以下操作来执行:
Figure GDA0003650673180000105
如果使用哈希表M,则哈希表M可以作为实现有序点云SB的数据结构输出。
在另一示例中,用伪代码如下表示:
Figure GDA0003650673180000106
在一些示例中,可能没有必要沿着方位轴执行排序功能。例如,如果由LiDAR传感器扫描的方位角位置的数量是有限的(例如,如果已知LiDAR传感器在每次360°扫描时在相同的方位角位置获得扫描),则对数据点进行排序可以涉及根据方位角索引对数据点简单地分组(假设具有相同方位角索引的数据点对应于相同的方位角位置)。类似地,沿其它方向排序可能涉及基于索引的分组。
有序数据点(例如,有序点云SB的形式)可以输入给特征提取子模块520。特征提取子模块520执行点增强功能522,用特征向量增强有序数据点。特征向量可以使用一个或多个特征函数的定义集合生成。由点增强功能522应用的一个或多个特征函数可以包括执行在每个数据点的局部邻域中定义的操作的函数。这可能需要定义局部模式,该局部模式表示每个数据点的相邻数据点(就位置和待执行的操作而言)。例如,定义的局部模式集合D(也称为局部模式词典)和定义的特征函数或操作集合O(也称为操作词典)可以写成
D={du}u=0,1,……
O={fv}v=0,1,……
其中,du是局部模式,fv是特征函数。局部模式是根据定义的关系对给定数据点的一个或多个相邻位置的描述。将局部模式应用于给定数据点可以包括通过确定相邻数据点是否存在,并且(如果对于O中的给定操作有必要)可以确定相邻数据点的索引等方式,根据局部邻居关系识别数据点的一个或多个相邻数据点。图7A-图7D示出了可以在D中定义的局部模式的一些示例。例如,这些示例可以在以DAR设备的正面视图方式处理点时应用。图7A示出了在给定天顶通道处确定方位角方向上的一个前相邻数据点的局部模式;图7B类似地示出了确定方位角方向上的一个前相邻数据点和一个后相邻数据点的局部模式;图7C示出了确定在方位角方向上的两个前相邻数据点和两个后相邻数据点的局部模式;图7D示出了确定在方位角和极化方向上的一个前相邻数据点和一个后相邻数据点的局部模式。例如,可以在D中定义其它局部模式以覆盖不同的相邻距离,包括可以覆盖整个波束或波束一部分的局部模式。特征函数的一些示例包括:
质心减法:f0(pn)=pn–cm
一阶导数:f1(pn)=pn–pn-1
二阶导数:f2(pn)=pn–2*pn–1+pn–2
相对占用:f3(pn)=g(pn,D)
其中,cm是属于包含数据点pn的波束Bm或体素射线的数据点的质心,g是编码相对占用的函数(可以使用D中定义的一个或多个局部模式来定义)。需要说明的是,函数f1和f2也可以隐式使用D中定义的局部模式。其它特征函数可以在O中定义,包括可以包括使用高阶矩计算的特征函数。在一些示例中,在O中定义的特征函数可能仅限于在单个波束内操作的函数。也就是说,在O中定义的特征函数可能不包括需要关于另一个波束中相邻数据点的信息的任何函数。这种限制可以有助于限制需要考虑的数据点的数量,从而可以提高计算效率。
在D中定义的局部模式可以根据计算在O中定义的特征函数所需的信息来定义。例如,如果在O中定义的特征函数需要关于波束内所有数据点的信息,则D可以定义至少一个覆盖整个波束的局部模式。增强功能522可以首先使用D来提取有序数据点集合中所有数据点的必要元数据,然后使用应用于所有数据点的O。或者,增强功能522可以通过以下方式来一次处理一个数据点:使用D中相对于该数据点的一个或多个局部模式,然后使用应用于给定数据点的O,接着处理有序数据点集合中的下一个数据点。数据点的特征函数的计算(以及将计算结果与该数据点关联)可以称为增强数据点。
示例性特征函数可能需要关于给定数据点的前相邻数据点或后相邻数据点(例如,在方位轴、极轴或两者上)的信息。为了获得关于给定数据点的相邻数据点的所需信息,可以逐个波束处理有序数据点集合(可以存储在有序点云SB中)。这在数学上的一个示例性表达式是,局部占用词典Dpn定义为包含在局部模式中定义的每个相邻位置的二进制状态(即,存在或不存在)的数组du∈D,其中,局部模式用于识别或描述计算特征函数fv所需的一个或多个相邻数据点的状态(例如存在缺失)。该信息可以根据DAR设备的规格确定,例如DAR设备的水平和垂直分辨率,这些分辨率分别确定使用DAR设备获得的任何点云的所有可能的方位角和极角值。
考虑仅使用关于沿方位轴的相邻数据点的信息计算特征函数的示例。如果DAR设备具有水平(方位角)分辨率δρ,则计算一阶导数特征函数(这是使用数据点的前相邻数据点的操作,基于图7A所示的局部模式),这需要确定每个数据点pn的前相邻数据点pn–1的存在。在该示例中,n表示方位角方向上均匀间隔的DAR数据点样本的离散轴(其中,样本的间隔对应于DAR设备的方位分辨率δρ)。然而,需要说明的是,有序数据点集合中的数据点可能不是均匀间隔的。这在数学上的一个示例性表达式是,对于每个波束Bm,数据点pn的占用词典Dpn可以使用有序数据点集合SB中数据点pk、pk–1、pk–2……(不一定是均匀间隔的)的有序序列存储pn–1状态、存在或缺失。给定的可用数据点pn的示例性计算如下:
Figure GDA0003650673180000121
其中,pi(ρ)是第i个数据点的方位坐标,τ是考虑噪声的小阈值。如该示例中所示,局部模式可以提供占用信息(例如,占用/空模式)。可以根据特征函数使用其它计算。
点增强功能522通过将特征函数计算的结果附加到数据点pn来生成给定数据点pn的特征向量。附加信息可以包括在特征向量中。例如,LiDAR数据可以包括表示由LiDAR传感器检测到的反射光脉冲的强度的强度或亮度值l。这在数学上的一个示例性表达式是,可以如下为有序数据点集合SB中的点pn生成特征向量an
Figure GDA0003650673180000122
其中,fv的计算可以使用存储在Dpn中的信息,使用在D中定义的局部模式来执行。在级联特征向量时,“concat”运算只是将一个接一个项放置在一起,但也可以使用组装最终特征向量的其它形式。
在另一示例中,可以用伪代码如下表示:
Figure GDA0003650673180000123
特征向量an可以存储为特征向量的集合,例如存储在向量云A={an}中,其中n=0,...N–1。特征向量的集合也可以称为特征集。
在生成特征向量之后,特征提取子模块520执行输出组装功能524,该输出组装功能524通过将为给定数据点生成的特征向量与包含给定数据点的对应体素射线关联等方式对3D栅格内的特征向量进行排序。结果是有序特征向量集合。这在数学上的一个示例性表达式是,将向量云A中包含的特征向量与波束网格B中的体素射线关联,以生成有序特征向量集合C,定义为对集合:
C={(an,vijk)}
Figure GDA0003650673180000124
且vijk∈B
在某些情况下,该运算可以使用哈希表T来实现,哈希表T具有编码体素射线坐标作为哈希键的索引(i,j,k)。这在数学上的一个示例性表达式是,哈希表T(可用于实现C)可以通过以下方式生成:
Tijk←an如果an∈vijk
Figure GDA0003650673180000125
且vijk∈B
其中,运算←将an聚合到哈希表T中单元格Tijk的内容。
图8是示例性方法800的流程图,所述示例性方法800可以由基于机器学习的***(例如,使用预处理子模块510和特征提取子模块520,以及如上所述的它们各自的功能)执行。方法800可以用于实现上文结合图6所述的功能。方法800可以对从DAR传感器(例如,从在现实世界环境中运行的自动驾驶车辆的DAR传感器)接收的点云实时执行,或者可以对存储在一个或多个存储设备中的先前获得的点云执行,或可以对合成生成的点云执行,以及其它示例。方法800可以使用上文描述的一个或多个等式和/或伪代码来实现。
在动作802中,接收点云。所述点云包括多个数据点,每个数据点表示3D空间中的3D位置,以及可选地,数据点的强度和/或数据点的检测时间。点云可以使用DAR传感器生成,如自动驾驶车辆100的LiDAR单元114的LiDAR传感器。在一些示例中,接收点云可以包括使用DAR传感器获得点云。在一些实施例中,接收点云可以包括从一个或多个存储设备检索点云,所述一个或多个存储设备存储在车辆运行期间由自动驾驶车辆的DAR传感器先前获得的点云。例如,车辆100的DAR传感器可以在各种不同环境中操作车辆100时提供点云,这些点云可以存储在外部处理中用于后续处理。
在动作804中,根据数据点的球坐标,将每个数据点与相应的体素射线关联。另外,根据基于球面的3D栅格,体素射线可以是波束的一部分,该基于球面的3D栅格使用球坐标(具有预定原点,如DAR传感器作为原点)划分3D空间。在一些示例中,3D栅格的间距取决于关于DAR传感器设计规格的信息,所述信息包括DAR传感器的分辨率。如上文定义的情况,波束可以由一个体素射线或由两个或更多个相邻体素射线沿基于球面的3D栅格的一个维度(例如,沿径向轴线)形成。可以执行动作804以实现图6所示的分组和索引功能512。
在动作806中,沿3D栅格的至少一个维度(例如,在方位角方向上)对给定波束内的数据点进行排序。例如,排序可以涉及执行排序功能,或者排序可以涉及沿一个方向根据索引对数据点进行分组。可以对针对3D空间定义的所有波束执行排序。结果是3D栅格中波束内的有序数据点集合,例如,该数据点集合可以作为有序点云或以哈希表的形式存储。可以存储有序数据点集合用于进一步处理,和/或可以直接提供该有序数据点集合作为用于执行特征提取的输入。可以执行动作806以实现图6所示的排序功能514。
在动作808中,确定每个数据点的邻域信息。如上所述,确定邻域信息可以涉及根据一个或多个定义的局部模式确定一个或多个邻居位置的占用。该邻域信息可以用于计算数据点的一个或多个特征。
在动作810中,为每个数据点生成特征向量。特征向量通过以下方式生成:计算数据点的一个或多个特征(使用一个或多个定义的特征函数),并将一个或多个计算的特征与数据点关联(例如,级联或附加)。可以执行动作808和810以实现图6所示的点增强功能522。
在动作812中,根据如上所述的基于球面的3D栅格或波束网格对特征向量进行排序。排序可以涉及将给定数据点的特征向量与数据点所属的相应体素射线和/或波束关联或索引。结果是具有波束网格分区成员关系的有序特征向量集合。例如,有序特征向量集合可以作为向量云或以哈希表的形式存储。可以执行动作812以实现图6的输出组装功能524。
然后,有序特征向量集合可以提供给机器学习***120的推理子模块530,推理子模块530使用有序特征向量集合来执行推理任务。
本发明描述了用于生成点云的数据点的有序表示,以及对点云的数据点的有序表示执行的特征提取的示例性方法和***。所公开的示例使用3D空间的基于球面的表示,以提供3D栅格(也称为波束网格、球面网格或球面栅格),从而根据每个数据点在3D栅格内的位置,赋予每个数据点特定的成员关系。所公开的示例使用上文定义为体素射线和波束的3D空间的3D仓或体积,这些体素射线和波束使用球坐标定义,作为对数据点排序和分配成员关系的基础。数据点的排序可以确定相邻数据点和其它局部模式。
在本文公开的示例中,特征提取可以根据相邻点(可以在应用特征函数之前确定)执行。可以对单个体素射线或波束中包含的数据点计算特征函数。
在本文公开的示例中,排序和特征提取的结果可以作为指示体素射线成员关系的特征向量和元数据的输出元组提供。
在本文公开的示例中,哈希表可用于实现各种计算和/或数据结构。
本发明描述了在使用DAR传感器(例如,LiDAR和/或雷达)的自动驾驶车辆的背景下实现的示例。所公开的实施例也可适用于其它背景。例如,本发明可适用于模式识别任务,例如在遥感领域或使用DAR或射线扫描设备来获取可以在3D栅格中表示的数据的任何其它领域中。
本发明描述了可以提供3D数据的有序表示的示例性方法和***,这些方法和***可以用于为机器学习模块的处理(例如,执行推理任务)提供更有意义的特征。
本发明还描述了能够更有效地表示由DAR传感器(如LiDAR或雷达传感器)获得的点云的数据点集合的示例性方法和***,并且可以将更表示这种DAR传感器的能力(和限制)的信息传递给后续的机器学习推理任务。这可以在后续的机器学习推理任务(如对象检测(包括对象分类和定位))中实现更高的准确性。与使用3D体素网格的传统方法相比,本文公开的方法可以提高计算效率。
尽管本发明利用呈某种顺序的步骤描述方法和过程,但所述方法和过程的一个或多个步骤可视情况省略或更改。一个或多个步骤视情况可以按除了所描述顺序以外的顺序进行。
尽管就方法而言至少部分地描述了本发明,但本领域普通技术人员将理解,本发明还涉及用于执行所描述的方法的至少一些方面和特征的各种组件,无论是硬件组件、软件或两者的任何组合。因此,本发明的技术方案可以以软件产品的形式体现。合适的软件产品可以存储在预先记录的存储设备或其它类似的非易失性或非瞬时性计算机可读介质中,包括DVD、CD-ROM、USB闪存盘、移动硬盘或其它存储介质等。所述软件产品包括有形地存储在其上的指令,这些指令使处理设备(例如,个人计算机、服务器或网络设备)能够执行本文中所公开的方法示例。
本发明可以在不脱离权利要求书的主题的情况下以其它特定形式体现。所述示例性实施例在所有方面均被视为仅是说明性的而非限制性的。可以对上述一个或多个实施例中的选定特征进行组合,以创建未明确描述的替代实施例,适合此类组合的特征均理解为落入本发明的范围内。
另外还公开了所公开范围内的所有值和子范围。此外,虽然本文所公开和示出的***、设备和过程可以包括特定数量的元件/组件,但是可以修改这些***、设备和组件以包括更多或更少此类元件/组件。例如,虽然任何所公开的元件/组件可以为单个数量,但是可以修改本文所公开的实施例以包括多个此类元件/组件。本文所描述的主题意在涵盖和包含技术上的所有合适更改。

Claims (20)

1.一种用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的方法,其特征在于,包括:
接收具有多个数据点的点云,每个数据点表示3D空间中的3D位置,所述点云使用探测和测距DAR传感器获得;
对于每个数据点,将所述数据点与包含所述数据点的所述3D位置的3D体积关联,所述3D体积使用根据球坐标划分所述3D空间的3D栅格定义;
对于至少一个3D体积,根据所述3D栅格的至少一个维度对所述3D体积内的所述数据点进行排序;
将经排序的数据点作为有序数据点集合存储。
2.根据权利要求1所述的方法,其特征在于,所述3D体积包括所述3D空间的两个或更多个分区,所述两个或更多个分区是沿着所述3D栅格的一个维度相邻的分区。
3.根据权利要求1或2所述的方法,其特征在于,还包括:
对所述有序数据点集合进行特征提取,以生成有序特征向量集合;
提供所述有序特征向量集合以执行推理任务。
4.根据权利要求3所述的方法,其特征在于,执行特征提取包括:
对于所述至少一个3D体积,通过应用至少一个特征函数,计算所述3D体积内每个数据点的至少一个特征;
通过将至少一个计算的特征与相应的数据点关联,为每个所述相应的数据点生成特征向量;
根据所述3D栅格对所述特征向量进行排序,以生成所述有序特征向量集合。
5.根据权利要求4所述的方法,其特征在于,执行特征提取还包括:
对于所述至少一个3D体积,根据至少一个局部模式确定每个数据点的邻域信息;
其中,所述邻域信息用于应用所述至少一个特征函数。
6.根据权利要求4所述的方法,其特征在于,所述有序特征向量集合表示为一组元组,其中,每个特征向量与所述3D空间的相应分区关联。
7.根据权利要求1至2、4至6中任一项所述的方法,其特征在于,所述3D空间划分为多个非重叠的3D体积。
8.根据权利要求1至2、4至6中任一项所述的方法,其特征在于,所述3D空间划分为多个重叠的3D体积。
9.根据权利要求1至2、4至6中任一项所述的方法,其特征在于,所述DAR传感器是射线扫描DAR传感器。
10.一种处理单元,其特征在于,包括:
存储指令的存储器;
处理器,与所述存储器耦合,用于执行所述指令以:
接收具有多个数据点的点云,每个数据点表示3D空间中的3D位置,所述点云使用探测和测距DAR传感器获得;
对于每个数据点,将所述数据点与包含所述数据点的所述3D位置的3D体积关联,所述3D体积使用根据极坐标划分所述3D空间的3D栅格定义;
对于至少一个3D体积,根据所述3D栅格的至少一个维度对所述3D体积内的所述数据点进行排序;
将经排序的数据点作为有序数据点集合存储。
11.根据权利要求10所述的处理单元,其特征在于,所述3D体积包括所述3D空间的两个或更多个分区,所述两个或更多个分区是沿着所述3D栅格的一个维度相邻的分区。
12.根据权利要求10或11所述的处理单元,其特征在于,所述处理器还用于执行所述指令以:
对所述有序数据点集合进行特征提取,以生成有序特征向量集合;
提供所述有序特征向量集合以执行推理任务。
13.根据权利要求12所述的处理单元,其特征在于,所述处理器还用于执行所述指令以通过以下方式执行特征提取:
对于所述至少一个3D体积,通过应用至少一个特征函数,计算所述3D体积内每个数据点的至少一个特征;
通过将至少一个计算的特征与相应的数据点关联,为每个所述相应的数据点生成特征向量;
根据所述3D栅格对所述特征向量进行排序,以生成所述有序特征向量集合。
14.根据权利要求13所述的处理单元,其特征在于,所述处理器还用于执行所述指令以通过以下方式执行特征提取:
对于所述至少一个3D体积,根据至少一个局部模式确定每个数据点的邻域信息;
其中,所述邻域信息用于应用所述至少一个特征函数。
15.根据权利要求13所述的处理单元,其特征在于,所述有序特征向量集合表示为一组元组,其中,每个特征向量与所述3D空间的相应分区关联。
16.根据权利要求10至11、13至15中任一项所述的处理单元,其特征在于,所述3D空间划分为多个非重叠的3D体积。
17.根据权利要求10至11、13至15中任一项所述的处理单元,其特征在于,所述3D空间划分为多个重叠的3D体积。
18.根据权利要求10至11、13至15中任一项所述的处理单元,其特征在于,所述DAR传感器是射线扫描DAR传感器。
19.根据权利要求10至11、13至15中任一项所述的处理单元,其特征在于,所述处理单元是自动驾驶车辆。
20.一种包括指令的计算机可读介质,其特征在于,当所述指令由处理单元的处理器执行时,使所述处理单元执行根据权利要求1至9中任一项所述的方法。
CN202080013113.9A 2019-03-22 2020-03-12 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法 Active CN113412505B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/362,261 US11556745B2 (en) 2019-03-22 2019-03-22 System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor
US16/362,261 2019-03-22
PCT/CN2020/078913 WO2020192431A1 (en) 2019-03-22 2020-03-12 System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor

Publications (2)

Publication Number Publication Date
CN113412505A CN113412505A (zh) 2021-09-17
CN113412505B true CN113412505B (zh) 2022-09-09

Family

ID=72514532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080013113.9A Active CN113412505B (zh) 2019-03-22 2020-03-12 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法

Country Status (3)

Country Link
US (1) US11556745B2 (zh)
CN (1) CN113412505B (zh)
WO (1) WO2020192431A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11927668B2 (en) 2018-11-30 2024-03-12 Qualcomm Incorporated Radar deep learning
JPWO2020230710A1 (zh) * 2019-05-10 2020-11-19
US10977855B1 (en) * 2019-09-30 2021-04-13 Verizon Patent And Licensing Inc. Systems and methods for processing volumetric data using a modular network architecture
US11841439B2 (en) 2020-11-02 2023-12-12 Waymo Llc Point cloud segmentation using a coherent lidar for autonomous vehicle applications
US20220135074A1 (en) * 2020-11-02 2022-05-05 Waymo Llc Classification of objects based on motion patterns for autonomous vehicle applications
US11656629B1 (en) 2020-12-08 2023-05-23 Waymo Llc Detection of particulate matter in autonomous vehicle applications
CN112711034B (zh) * 2020-12-22 2022-10-14 中国第一汽车股份有限公司 物体检测方法、装置及设备
EP4020816A1 (en) * 2020-12-23 2022-06-29 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus of encoding/decoding point cloud geometry data captured by a spinning sensors head
CN113157836B (zh) * 2021-03-12 2022-07-19 广西壮族自治区中国科学院广西植物研究所 一种空间点数据集周围数据提取方法、装置及存储介质
CN113313831B (zh) * 2021-05-24 2022-12-16 华南理工大学 基于极坐标图卷积神经网络的三维模型特征提取方法
EP4113442A1 (en) * 2021-07-02 2023-01-04 Beijing Xiaomi Mobile Software Co., Ltd. Method and apparatus of encoding/decoding point cloud captured by a spinning sensors head
WO2024113078A1 (zh) * 2022-11-28 2024-06-06 中国科学院深圳先进技术研究院 用于3d点云场景语义分割的局部上下文特征提取模块

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333312A (ja) * 2001-05-09 2002-11-22 Sumitomo Rubber Ind Ltd 球体の三次元姿勢測定方法および該方法を用いた球体の回転量と回転軸方向の測定方法
CN102855663A (zh) * 2012-05-04 2013-01-02 北京建筑工程学院 一种根据激光雷达栅格点云构建csg模型的方法
CN103106632A (zh) * 2012-11-29 2013-05-15 华中科技大学 一种基于均值漂移的不同精度三维点云数据的融合方法
CN103679807A (zh) * 2013-12-24 2014-03-26 焦点科技股份有限公司 一种带边界约束的散乱点云重构方法
CN104036544A (zh) * 2014-06-25 2014-09-10 西安煤航信息产业有限公司 一种基于机载LiDAR数据的建筑物屋顶重建方法
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
CN105719249A (zh) * 2016-01-15 2016-06-29 吉林大学 一种基于三维格网的机载激光雷达点云去噪方法
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法
CN107016725A (zh) * 2017-02-27 2017-08-04 电子科技大学 一种顾及LiDAR点云数据分布差异的植被三维实景建模方法
KR101767653B1 (ko) * 2017-05-23 2017-08-14 대원항업 주식회사 항공사진과 영상에 따른 정사영상 제작장치
EP3223191A1 (en) * 2016-03-23 2017-09-27 Leica Geosystems AG Creation of a 3d city model from oblique imaging and lidar data
CN107610216A (zh) * 2017-08-16 2018-01-19 西安电子科技大学 基于粒子群优化多视角立体点云生成方法及应用的摄像机
CN108010116A (zh) * 2017-11-30 2018-05-08 西南科技大学 点云特征点检测方法和点云特征提取方法
CN108345831A (zh) * 2017-12-28 2018-07-31 新智数字科技有限公司 基于点云数据的道路图像分割的方法、装置以及电子设备
CN108564650A (zh) * 2018-01-08 2018-09-21 南京林业大学 基于车载2D LiDAR点云数据的行道树靶标识别方法
CN109086786A (zh) * 2017-05-25 2018-12-25 通用汽车有限责任公司 对lidar数据进行分类以实现目标探测的方法和装置
CN109307478A (zh) * 2017-07-28 2019-02-05 波音公司 用于执行对象的3-d测量的分辨率自适应网格

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693632B2 (en) * 2001-07-27 2004-02-17 Industrial Technology Research Institute Method of area partition in virtual environment
US8340400B2 (en) 2009-05-06 2012-12-25 Honeywell International Inc. Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US20170263052A1 (en) * 2016-03-11 2017-09-14 Indoor Reality Method for generating an ordered point cloud using mobile scanning data
DE102017203838B4 (de) * 2017-03-08 2022-03-17 Audi Ag Verfahren und System zur Umfelderfassung
US11636668B2 (en) * 2017-11-10 2023-04-25 Nvidia Corp. Bilateral convolution layer network for processing point clouds
US11676005B2 (en) * 2018-11-14 2023-06-13 Huawei Technologies Co., Ltd. Method and system for deep neural networks using dynamically selected feature-relevant points from a point cloud

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333312A (ja) * 2001-05-09 2002-11-22 Sumitomo Rubber Ind Ltd 球体の三次元姿勢測定方法および該方法を用いた球体の回転量と回転軸方向の測定方法
CN102855663A (zh) * 2012-05-04 2013-01-02 北京建筑工程学院 一种根据激光雷达栅格点云构建csg模型的方法
CN103106632A (zh) * 2012-11-29 2013-05-15 华中科技大学 一种基于均值漂移的不同精度三维点云数据的融合方法
US9315192B1 (en) * 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
CN103679807A (zh) * 2013-12-24 2014-03-26 焦点科技股份有限公司 一种带边界约束的散乱点云重构方法
CN104036544A (zh) * 2014-06-25 2014-09-10 西安煤航信息产业有限公司 一种基于机载LiDAR数据的建筑物屋顶重建方法
CN105719249A (zh) * 2016-01-15 2016-06-29 吉林大学 一种基于三维格网的机载激光雷达点云去噪方法
EP3223191A1 (en) * 2016-03-23 2017-09-27 Leica Geosystems AG Creation of a 3d city model from oblique imaging and lidar data
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法
CN107016725A (zh) * 2017-02-27 2017-08-04 电子科技大学 一种顾及LiDAR点云数据分布差异的植被三维实景建模方法
KR101767653B1 (ko) * 2017-05-23 2017-08-14 대원항업 주식회사 항공사진과 영상에 따른 정사영상 제작장치
CN109086786A (zh) * 2017-05-25 2018-12-25 通用汽车有限责任公司 对lidar数据进行分类以实现目标探测的方法和装置
CN109307478A (zh) * 2017-07-28 2019-02-05 波音公司 用于执行对象的3-d测量的分辨率自适应网格
CN107610216A (zh) * 2017-08-16 2018-01-19 西安电子科技大学 基于粒子群优化多视角立体点云生成方法及应用的摄像机
CN108010116A (zh) * 2017-11-30 2018-05-08 西南科技大学 点云特征点检测方法和点云特征提取方法
CN108345831A (zh) * 2017-12-28 2018-07-31 新智数字科技有限公司 基于点云数据的道路图像分割的方法、装置以及电子设备
CN108564650A (zh) * 2018-01-08 2018-09-21 南京林业大学 基于车载2D LiDAR点云数据的行道树靶标识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Spherical Coordinates Based Methods of Ground Extraction and Objects Segmentation Using 3-D LiDAR Sensor;Huilin Yin;《IEEE Intelligent transportation systems magazine》;20160118;第8卷(第1期);全文 *
城市机载LiDAR 测图平台研究与实现;王磊;《测绘通报》;20140430(第4期);全文 *

Also Published As

Publication number Publication date
CN113412505A (zh) 2021-09-17
WO2020192431A1 (en) 2020-10-01
US20200302237A1 (en) 2020-09-24
US11556745B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
CN113412505B (zh) 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法
CN107817496B (zh) 适用于自动车辆的对象检测***
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、***、装置
US20220130156A1 (en) Three-dimensional object detection and intelligent driving
US10915793B2 (en) Method and system for converting point cloud data for use with 2D convolutional neural networks
US20200342250A1 (en) Method for extracting uniform features from point cloud and system therefor
CN112749616B (zh) 点云数据的多域邻域嵌入和加权
CN111723721A (zh) 基于rgb-d的三维目标检测方法、***及装置
US11676005B2 (en) Method and system for deep neural networks using dynamically selected feature-relevant points from a point cloud
CN115049700A (zh) 一种目标检测方法及装置
CN113706480A (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
CN113284163A (zh) 基于车载激光雷达点云的三维目标自适应检测方法及***
CN113658257B (zh) 一种无人设备定位方法、装置、设备及存储介质
CN113267761B (zh) 激光雷达目标检测识别方法、***及计算机可读存储介质
CN115631344B (zh) 一种基于特征自适应聚合的目标检测方法
CN112528781B (zh) 一种障碍物检测方法、装置、设备和计算机可读存储介质
CN115147333A (zh) 一种目标检测方法及装置
CN114120067A (zh) 一种物体识别方法、装置、设备及介质
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
US20220171975A1 (en) Method for Determining a Semantic Free Space
CN112712066A (zh) 图像识别方法、装置、计算机设备和存储介质
CN116310368A (zh) 一种激光雷达3d目标检测方法
CN116863325A (zh) 一种用于多个目标检测的方法和相关产品
CN116964472A (zh) 用于借助于雷达传感器***的反射信号来探测环境的至少一个对象的方法
Luo et al. Object detection based on binocular vision with convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant