CN109100741B - 一种基于3d激光雷达及图像数据的目标检测方法 - Google Patents
一种基于3d激光雷达及图像数据的目标检测方法 Download PDFInfo
- Publication number
- CN109100741B CN109100741B CN201810594692.5A CN201810594692A CN109100741B CN 109100741 B CN109100741 B CN 109100741B CN 201810594692 A CN201810594692 A CN 201810594692A CN 109100741 B CN109100741 B CN 109100741B
- Authority
- CN
- China
- Prior art keywords
- point
- points
- scanning
- region
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000001914 filtration Methods 0.000 claims abstract description 17
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 4
- 230000001629 suppression Effects 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于3D激光雷达及图像数据的目标检测方法,该方法利用3D激光雷达和相机获取周围环境的3D点云数据和相机图像,并对所述的3D点云数据进行预处理;滤除3D点云数据中的地面点,对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域;对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域;利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别。本发明充分利用了3D激光雷达和相机数据中间的互补性,提高了对场景的目标定位和分类识别的精度和时效性,可用于无人车中的目标实时检测。
Description
技术领域
本发明涉及多传感器信息融合,具体涉及一种基于3D激光雷达点云目标候选区域提取与图像卷积神经网络分类的目标检测方法,用于无人车环境感知的重要组成部分,对提高车辆周围目标的检测精度,保障无人车安全行驶具有重要意义。
背景技术
自动驾驶汽车可以从根本上提高驾驶人群的安全性和舒适性,同时减少汽车对环境的影响。为了开发这样的车辆,感知***是车辆分析理解驾驶环境的不可缺少的部件之一,包括周围障碍物的位置,方向和分类。
3D激光雷达是用于自主车辆感知***的最流行的传感器之一,它具有广泛的视野,精确的深度信息以及目标识别中的远距离和夜视能力。在物体探测任务中,由于激光扫描本质上包含点云的空间坐标,所以3D激光雷达相对于获取探测到的物体的姿态和形状具有一定的优势。然而,随着与扫描中心距离的增加,3D激光雷达点云的分布变得越来越稀疏,这使得3D激光雷达很难在分类中检测到特定的物体。
相机可以为精确分类提供高分辨率图像,近年来在图像识别领域,深度学习方面得到了广泛的研究。这些方法通常首先使用目标候选区域生成方法来生成目标候选区域,如滑动窗法,选择搜索法以及多尺度组合方法,然后使用卷积神经网络模型对候选区域进行特征提取和目标定位识别。这些方法的缺点是需要生成大量的候选区域,实时性很差。此外,相机受照度变化影响,缺乏3D物体的位置,方向和几何结构,导致目标候选区域提取不精确。
发明内容
本发明的目的是提供一种基于3D激光雷达及图像数据的目标检测方法,充分利用3D激光雷达可以直接获取高精度的目标深度和目标的几何特征参数和图像目标分类的优势,实现了优势互补,克服了采用单一传感器进行目标检测存在的精度低,鲁棒性差等问题,最大程度保障了无人车在复杂条件下的安全行驶。
本发明的技术方案如下:
一种基于3D激光雷达及图像数据的目标检测方法,包括以下步骤:
步骤1,利用安装在车辆上的3D激光雷达和相机获取周围环境的3D点云数据和相机图像,并对所述的3D点云数据进行预处理;
步骤2,滤除3D点云数据中的地面点,对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域;
步骤3,对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域;
步骤4,利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别。
进一步地,步骤1中对所述的3D点云数据进行预处理,包括:
步骤1.1,将雷达获取的点云数据转换到直角坐标系下
将点云数据的点集Pr转换到直角坐标系下,计算点集中每个扫描点在直角坐标系下的坐标,得到每个扫描点pi的多参数表示形式:
pi=(γi,θi,φi,Ii,xi,yi,zi)
其中γi表示扫描点到雷达的径向距离,θi,φi表示扫描点相对于球面坐标系的水平和垂直角度,Ii表示雷达反射强度,xi,yi,zi为扫描点pi在直角坐标系下的坐标;
所述的直角坐标系是以雷达的几何中心位置为坐标原点,以雷达的垂直轴线方向为Z轴,以车辆前行方向为Y轴,而X轴由Z轴和Y轴遵循右手定则确定;转换过程如下:
步骤1.2,根据所述的直角坐标进行区域滤波,设定感兴趣区域边界,保留感兴趣区域中的扫描点,即:
Pf={pi|-X<xi<X,Y<yi<Y,Z1<zi<Z2} (2)
当扫描点pi的坐标(xi,yi,zi)满足在感兴趣区域边界-X<xi<X,Y<yi<Y,Z1<zi<Z2内时,将该扫描点pi加入点集Pf,由此得到感兴趣区域扫描点的点集Pf。
进一步地,所述的3D点云数据进行预处理,还包括:
步骤1.3,噪声点的滤除
对于点集Pf中的每一个扫描点pi,搜索在扫描点pi半径R内的近邻点,如果pi的近邻点数量少于M个,则将点pi标注为噪声点并从点集Pf中移除;遍历点集Pf,找到所有的噪声点并从点集Pf中移除,得到预处理后的点集P。
进一步地,步骤2所述的滤除3D点云数据中的地面点,包括:
步骤2.1,将点集P映射到多维矩阵中,矩阵的行号等于雷达扫描线的条数,矩阵的列数等于一条扫描线包含的点数;点集P中的扫描点pi的映射到矩阵中所在的行r和列c计算方式如下:
r=(θi+180)/Δθ (3)
c=φi/Δφ (4)
上式中,Δθ、Δφ分别表示雷达的水平角度分辨率和垂直角度分辨率,θi、φi分别表示扫描点所在扫描线的水平角度和垂直角度;
步骤2.2,用br,c表示矩阵中的第r行c列元素,计算br,c中的点pi的深度值pdepth i,计算方式如下:
上式中,xi,yi分别为br,c对应的扫描点pi在所述直角坐标系中相对于X轴、Y轴的坐标;
步骤2.3,计算矩阵元素br,c对应扫描点是地面点的概率P(br,c),如果概率超过阈值,则将br,c对应扫描点标记为地面点;
步骤2.4,遍历矩阵中每个元素,按照步骤2.3的方法标记出矩阵中所有的地面点并将地面点从点集P中移除,剩下的非地面点记为点集Po。
进一步地,步骤2.3中所述的地面点概率P(br,c)的计算步骤为:
步骤2.3.1,计算矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度测量差值Md(br-1,c,br,c),计算方法如下:
Md(br-1,c,br,c)=|pdepth r,c-pdepth r-1,c| (6)
步骤2.3.2,根据雷达点云数据在平面上的分布情况估计出矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度差值Ed(br-1,c,br,c),具体计算方法如下:
其中,h表示雷达的安装高度,Δφ表示雷达垂直角度分辨率,φr-1和φr分别表示雷达第r-1和第r条扫描线的垂直角度,γr-1表示元素br-1,c对应的扫描点距雷达中心的径向距离值;
步骤2.3.3,则元素br,c对应扫描点pi是地面点的概率P(br,c)为:
其中当概率P(br,c)大于阈值0.8时,则元素br,c对应扫描点pi标记为地面点。
进一步地,步骤2所述的对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域,包括:
步骤2.5.1,建立第一个聚类C1,将非地面点集Po中的第一个扫描点p1划分到第一个聚类C1中;
步骤2.5.2,对于点集Po中其它点pi∈Po,(i≠1),计算离它最近的聚类Cj中的扫描点与它的欧拉距离最小值,如果最小值小于阈值d,则将点pi划分到聚类Cj(j≤n)中,其中n表示当前聚类数;否则重新创建第n+1个聚类Cn+1,并将pi划分到Cn+1中,直到点集Po中所有的扫描点都被划分到聚类中;
步骤2.5.3,用Γ表示聚类集合,对于聚类集合Γ中的每一个聚类Cj,利用聚类Cj所包含的扫描点的空间分布,计算该聚类的最小3D轴对齐矩形边界框,如果边界框的尺寸大于阈值尺寸,则将该聚类标记伪目标区域,否则标记为候选目标区域;
步骤2.5.4,保留所有标记为目标候选区域的边界框作为提取的目标3D感兴趣区域。
进一步地,对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域,包括:
以棋盘格标定板为目标,在标定板上标记特征点,同时获取雷达的点云数据和相机的图像数据,然后根据标定板上的特征点在雷达和相机中的坐标对应关系计算出标定参数,即雷达坐标系和相机坐标系之间的旋转矩阵和平移向量;
最后根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D轴对齐矩形边界框作为2D感兴趣区域。
进一步地,步骤4所述的利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别,包括:
所述的深度卷积网络采用VGG16,分别将模型中‘conv3’,’conv4’和‘conv5’这三层卷积层最后输出的特征图首先进行归一化,然后进行结合,使得最终的目标特征具有不同尺度;对结合后的特征进行1×1的卷积操作,得到最后的特征向量输出给该卷积网络最后的两层全连接层以对2D感兴趣区域中的目标进行定位和识别。
进一步地,所述的方法还包括:
步骤5,使用非极大值抑制算法对步骤4的结果进行优化。
一种基于3D激光雷达及图像数据的目标检测***,包括依次连接的数据采集与预处理模块、3D感兴趣区域获取模块、2D感兴趣区域获取模块以及定位和识别模块,其中:
所述的数据采集与预处理模块利用安装在车辆上的3D激光雷达和相机获取周围环境的3D点云数据和相机图像,并对所述的3D点云数据进行预处理;
所述的3D感兴趣区域获取模块用于滤除3D点云数据中的地面点,对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域;
所述的2D感兴趣区域获取模块用于对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域;
所述的定位和识别模块用于利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别。
本发明与现有技术相比具有以下技术特点:
1.本发明利用3D激光雷达的点云数据提取目标的3D候选区域,然后根据雷达和相机的坐标外标定关系,将点云中的3D候选区域映射到图像空间中,并利用卷积神经网络对候选区域进行特征提取、目标定位与识别。本发明方法能够克服单一传感器目标检测时的精度低,环境依赖性强,鲁棒性差的缺点,可以满足无人车在环境理解时对目标检测的精度,实时性以及环境适应能力的要求。
2.本发明利用3D激光雷达和相机数据之间的互补性为无人驾驶环境中获得高度准确的物***置和分类提供了新思路;通过结合,实现了两个传感器的优势互补,增强了检测算法的鲁棒性。
附图说明
图1是本发明的方法的流程图;
图2的(a)是3D激光雷达采集的点云数据,(b)是点云数据对应的相机图像;
图3是本发明地面点云提取的几何原理图;
图4的(a)为提取的地面点云的示意图;(b)为滤除地面点云后的非地面点云的示意图;
图5是3D感兴趣区域的示意图;
图6是将3D感兴趣区域映射到相机图像中产生的的2D感兴趣区域示意图;
图7是本发明采用的卷积网络模型;
图8是本发明方法实际检测的结果示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,一下结合具体实施例,如图1所示,所述方法包括一下步骤:
步骤1,利用安装在车辆上的3D激光雷达和相机获取周围环境的3D点云数据和相机图像,并对所述的3D点云数据进行预处理。
在本发明的实施例中,选用的3D激光雷达(以下简称雷达)型号为Velodyne HDL-32E,雷达安装在车辆的顶部;本实施例中,车辆为无人车,安装高度为2.1m;在无人车行驶过程中,通过雷达扫描周围环境以获得3D点云数据,如图2的(a)所示,为通过雷达扫描环境获取的一帧原始点云数据;所述的雷达由一列上的32个单一激光器组成了32条扫描线,以10Hz的频率执行360°度扫描,扫描角度的水平分辨率为0.16°;雷达的垂直角度分辨率为1.33°,涵盖了-30.67°~10.67°的俯仰角。
在本发明的实施例中,用以获取图像数据的相机的型号为Basler acA640-100gc彩色CCD658*492相机。雷达和相机通过外标定进行统一坐标系,并且相机和雷达采用相同的帧率,且同步采集数据,即图像数据中的一帧相机图像对应3D点云数据中的一帧点云数据。
雷达扫描获取的每一帧点云数据是由扫描点的点集Pr构成的,而点集Pr中的每一个扫描点pi是通过球面坐标描述的:
Pr={pi|γi,θi,φi,Ii}
其中γi表示扫描点到雷达的径向距离,θi,φi表示扫描点相对于球面坐标系的水平和垂直角度,Ii表示雷达反射强度,i表示点集中扫描点的编号。在单次扫描(即雷达扫描一周)中产生大约70,000个点,可以描述所有周围的目标并检测距离超过70米的物体,图2的(a)和(b)是原始的雷达点云数据及其对应的相机图像。为了后续处理,需要计算每个扫描点在直角坐标系中的坐标。
由于雷达扫描产生的数据覆盖范围广,数据大,如果都进行处理无法满足无人车对算法实时性的要求。因此需要保留感兴趣区域的数据,而滤除无效区域的数据。此外,由于雷达由于物理原因返回的数据中存在一些孤立的噪声点,如果不进行滤除可能影响候选算法的精度,可以通过基于点云密度的方法将噪声点滤除。
步骤1中所示的3D点云数据进行预处理包括坐标系的转换、噪声点的滤除,具体包括以下步骤:
步骤1.1,将雷达获取的点云数据转换到直角坐标系下
将点云数据的点集Pr转换到直角坐标系下,计算点集中每个扫描点在直角坐标系下的坐标,得到每个扫描点pi的多参数表示形式:
pi=(γi,θi,φi,Ii,xi,yi,zi)
所述的直角坐标系是以雷达的几何中心位置为坐标原点,以雷达的垂直轴线方向为Z轴,以车辆前行方向为Y轴,而X轴由Z轴和Y轴遵循右手定则确定。转换过程如下:
步骤1.2,根据所述的直角坐标进行区域滤波,设定感兴趣区域边界,保留感兴趣区域中的扫描点,即:
Pf={pi|-X<xi<X,Y<yi<Y,Z1<zi<Z2} (2)
即,当扫描点pi的坐标(xi,yi,zi)满足在感兴趣区域边界-X<xi<X,Y<yi<Y,Z1<zi<Z2内时,将该扫描点pi加入点集Pf,由此得到感兴趣区域扫描点的点集Pf。
本实施例中,无人车的感兴趣区域边界的X取15m,Y取50m,Z1取-2.1,Z2取0.5m。
步骤1.3,噪声点的滤除
对于点集Pf中的每一个扫描点pi,搜索在扫描点pi半径R内的近邻点,如果pi的近邻点数量少于M个,则将点pi标注为噪声点并从点集Pf中移除。
遍历点集Pf,找到所有的噪声点并从点集Pf中移除,得到预处理后的点集P。本实施例中,半径R取0.5m,M取3个。
步骤2,滤除3D点云数据中的地面点,对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域。
在雷达的点云数据中,所有的目标上的扫描点通过地面点连接在了一起,难以分开,所以需要先筛选出扫描点中的地面点,并滤除地面点以获取非地面点。
步骤2.1,将点集P映射到多维矩阵中,矩阵的行号等于雷达扫描线的条数,矩阵的列数等于一条扫描线包含的点数;本实施例中的雷达扫描线为32条,一条扫描线包含的点为2250个。点集P中的扫描点pi的映射到矩阵中所在的行r和列c计算方式如下:
r=(θi+180)/Δθ (3)
c=φi/Δφ (4)
上式中,Δθ、Δφ分别表示雷达的水平角度分辨率和垂直角度分辨率,θi、φi分别表示扫描点所在扫描线的水平角度和垂直角度。
步骤2.2,用br,c表示矩阵中的第r行c列元素,计算br,c中的点pi的深度值pdepth i,计算方式如下:
上式中,xi,yi分别为br,c对应的扫描点pi在所述直角坐标系中相对于X轴、Y轴的坐标。
步骤2.3,计算矩阵元素br,c对应扫描点是地面点的概率P(br,c),如果概率超过阈值,则将br,c对应扫描点标记为地面点;如图3是本发明地面点云提取的几何原理图。
所述的地面点概率P(br,c)的计算步骤为:
步骤2.3.1,计算矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度测量差值Md(br-1,c,br,c),计算方法如下:
Md(br-1,c,br,c)=|pdepth r,c-pdepth r-1,c| (6)
步骤2.3.2,根据雷达点云数据在平面上的分布情况估计出矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度差值Ed(br-1,c,br,c),具体计算方法如下:
其中,h表示雷达的安装高度,Δφ表示雷达垂直角度分辨率,φr-1和φr分别表示雷达第r-1和第r条扫描线的垂直角度,γr-1表示元素br-1,c对应的扫描点距雷达中心的径向距离值。
步骤2.3.3,则元素br,c对应扫描点pi是地面点的概率P(br,c)为:
其中当概率P(br,c)大于阈值0.8时,则元素br,c对应扫描点pi标记为地面点。图4的(b)是滤除地面点云后的非地面点云。
步骤2.4,遍历矩阵中每个元素,按照步骤2.3的方法标记出矩阵中所有的地面点(如图4的(a))并将地面点从点集P中移除,剩下的非地面点记为点集Po,如图4的(b)所示。
步骤2.5,对非地面点进行空间聚类,以获取目标的几何特征信息,从而获取目标的3D感兴趣区域,具体步骤包括:
步骤2.5.1,建立第一个聚类C1,将非地面点集Po中的第一个扫描点p1划分到第一个聚类C1中;
步骤2.5.2,对于点集Po中其它点pi∈Po,(i≠1),计算离它最近的聚类Cj中的扫描点与它的欧拉距离最小值,如果最小值小于阈值d,则将点pi划分到聚类Cj(j≤n)中,其中n表示当前聚类数;否则重新创建第n+1个聚类Cn+1,并将pi划分到Cn+1中,直到点集Po中所有的扫描点都被划分到聚类中;
步骤2.5.3,用Γ表示聚类集合,对于聚类集合Γ中的每一个聚类Cj,利用聚类Cj所包含的扫描点集合的空间分布,计算该聚类的最小3D轴对齐矩形边界框OBB(orientedbounding box),如果边界框的尺寸大于阈值尺寸,则将该聚类标记伪目标区域,否则标记为候选目标区域;本实施例中阈值尺寸长度为10m,宽度为5m,高度为3m。
步骤2.5.4,保留所有标记为目标候选区域的边界框作为提取的目标3D感兴趣区域,如图5最终保留下的目标的3D感兴趣区域。
步骤3,对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应(3D感兴趣区域)的2D感兴趣区域。
本步骤的具体方法是以棋盘格标定板为目标,在标定板上标记特征点,同时获取雷达的点云数据和相机的图像数据,然后根据标定板上的特征点在雷达和相机中的坐标对应关系计算出标定参数,即雷达坐标系和相机坐标系之间的旋转矩阵和平移向量;
最后根据标定参数将步骤2获取的目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D轴对齐矩形边界框作为2D感兴趣区域;如图6是将点云映射到相机图像中产生的2D感兴趣区域。
步骤4,利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别。
本方案中采用深度卷积神经网络对相机图像中的2D感兴趣区域进行特征提取、以及对区域中的目标进行边界框回归和识别;通过回归的方式精确定位包围目标位置的边界框,以及对目标进行识别。
为了提高本方法对小目标的检测精度,如图7所示本发明采用的VGG16卷积网络模型,分别将模型中‘conv3’,’conv4’和‘conv5’这三层卷积层最后输出的特征图首先采用L2归一化方法进行归一化,然后进行结合,使得最终的目标特征具有不同尺度;对结合后的特征进行1×1的卷积操作,得到最后的特征向量输出给该卷积网络最后的两层全连接层以对2D感兴趣区域中的目标进行定位和识别,如图8所示的本发明方法检测的结果示意图。
本方案以KITTI公共目标检测训练集中的80%的行人、自行车和车辆样本对该卷积网络进行训练,得到用于检测车辆、行人和自行车的模型参数。在测试时除了使用KITTI目标检测数据集中剩下的训练集中的20%的行人、自行车和车辆样本进行测试,还利用我们利用HDL-32E 3D激光雷达和Balser相机采集的数据进行检测行人、自行车和车辆的测试,得到每个目标的2D矩形边界框的位置、类别,从而实现对目标的定位和识别。
为了进一步优化结果,本方案还包括:步骤5,使用非极大值抑制算法对步骤4的结果进行优化,得到最终的目标边框位置、类别以及目标的距离信息。
为了减少检测的伪目标,提高检测精度,使用非极大值抑制算法去除概率低于0.5的2D矩形边界框,得到最终的目标边框位置和类别以及目标的距离信息。
实验证明,在不同的交通场景内,该方法仍然可以实时有效的检测出无人车前方的每个目标。
Claims (6)
1.一种基于3D激光雷达及图像数据的目标检测方法,包括以下步骤:
步骤1,利用安装在车辆上的3D激光雷达和相机获取周围环境的3D点云数据和相机图像,并对所述的3D点云数据进行预处理;
步骤2,滤除3D点云数据中的地面点,对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域;
步骤3,对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域;
步骤4,利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别;
所述的步骤1中对所述的3D点云数据进行预处理,包括:
步骤1.1,将雷达获取的点云数据转换到直角坐标系下
将点云数据的点集Pr转换到直角坐标系下,计算点集中每个扫描点在直角坐标系下的坐标,得到每个扫描点pi的多参数表示形式:
pi=(γi,θi,φi,Ii,xi,yi,zi)
其中γi表示扫描点到雷达的径向距离,θi,φi表示扫描点相对于球面坐标系的水平和垂直角度,Ii表示雷达反射强度,xi,yi,zi为扫描点pi在直角坐标系下的坐标;
所述的直角坐标系是以雷达的几何中心位置为坐标原点,以雷达的垂直轴线方向为Z轴,以车辆前行方向为Y轴,而X轴由Z轴和Y轴遵循右手定则确定;转换过程如下:
步骤1.2,根据所述的直角坐标进行区域滤波,设定感兴趣区域边界,保留感兴趣区域中的扫描点,即:
Pf={pi|-X<xi<X,Y<yi<Y,Z1<zi<Z2} (2)
当扫描点pi的坐标(xi,yi,zi)满足在感兴趣区域边界-X<xi<X,Y<yi<Y,Z1<zi<Z2内时,将该扫描点pi加入点集Pf,由此得到感兴趣区域扫描点的点集Pf;
所述的3D点云数据进行预处理,还包括:
步骤1.3,噪声点的滤除
对于点集Pf中的每一个扫描点pi,搜索在扫描点pi半径R内的近邻点,如果pi的近邻点数量少于M个,则将点pi标注为噪声点并从点集Pf中移除;遍历点集Pf,找到所有的噪声点并从点集Pf中移除,得到预处理后的点集P;
所述的步骤2所述的滤除3D点云数据中的地面点,包括:
步骤2.1,将点集P映射到多维矩阵中,矩阵的行号等于雷达扫描线的条数,矩阵的列数等于一条扫描线包含的点数;点集P中的扫描点pi的映射到矩阵中所在的行r和列c计算方式如下:
r=(θi+180)/Δθ (3)
c=φi/Δφ (4)
上式中,Δθ、Δφ分别表示雷达的水平角度分辨率和垂直角度分辨率,θi、φi分别表示扫描点所在扫描线的水平角度和垂直角度;
步骤2.2,用br,c表示矩阵中的第r行c列元素,计算br,c中的点pi的深度值pdepth i,计算方式如下:
上式中,xi,yi分别为br,c对应的扫描点pi在所述直角坐标系中相对于X轴、Y轴的坐标;
步骤2.3,计算矩阵元素br,c对应扫描点是地面点的概率P(br,c),如果概率超过阈值,则将br,c对应扫描点标记为地面点;
步骤2.4,遍历矩阵中每个元素,按照步骤2.3的方法标记出矩阵中所有的地面点并将地面点从点集P中移除,剩下的非地面点记为点集Po。
2.如权利要求1所述的基于3D激光雷达及图像数据的目标检测方法,其特征在于,步骤2.3中所述的地面点概率P(br,c)的计算步骤为:
步骤2.3.1,计算矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度测量差值Md(br-1,c,br,c),计算方法如下:
Md(br-1,c,br,c)=|pdepth r,c-pdepth r-1,c| (6)
步骤2.3.2,根据雷达点云数据在平面上的分布情况估计出矩阵同一列的相邻元素br-1,c和br,c中的点之间的深度差值Ed(br-1,c,br,c),具体计算方法如下:
其中,h表示雷达的安装高度,Δφ表示雷达垂直角度分辨率,φr-1和φr分别表示雷达第r-1和第r条扫描线的垂直角度,γr-1表示元素br-1,c对应的扫描点距雷达中心的径向距离值;
步骤2.3.3,则元素br,c对应扫描点pi是地面点的概率P(br,c)为:
其中当概率P(br,c)大于阈值0.8时,则元素br,c对应扫描点pi标记为地面点。
3.如权利要求1所述的基于3D激光雷达及图像数据的目标检测方法,其特征在于,步骤2所述的对剩余非地面点进行空间聚类,提取目标的3D感兴趣区域,包括:
步骤2.5.1,建立第一个聚类C1,将非地面点集Po中的第一个扫描点p1划分到第一个聚类C1中;
步骤2.5.2,对于点集Po中其它点pi∈Po,(i≠1),计算离它最近的聚类Cj中的扫描点与它的欧拉距离最小值,如果最小值小于阈值d,则将点pi划分到聚类Cj(j≤n)中,其中n表示当前聚类数;否则重新创建第n+1个聚类Cn+1,并将pi划分到Cn+1中,直到点集Po中所有的扫描点都被划分到聚类中;
步骤2.5.3,用Γ表示聚类集合,对于聚类集合Γ中的每一个聚类Cj,利用聚类Cj所包含的扫描点的空间分布,计算该聚类的最小3D轴对齐矩形边界框,如果边界框的尺寸大于阈值尺寸,则将该聚类标记伪目标区域,否则标记为候选目标区域;
步骤2.5.4,保留所有标记为目标候选区域的边界框作为提取的目标3D感兴趣区域。
4.如权利要求1所述的基于3D激光雷达及图像数据的目标检测方法,其特征在于,步骤3所述的对3D激光雷达和相机的坐标的外参数进行标定,并根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D感兴趣区域,包括:
以棋盘格标定板为目标,在标定板上标记特征点,同时获取雷达的点云数据和相机的图像数据,然后根据标定板上的特征点在雷达和相机中的坐标对应关系计算出标定参数,即雷达坐标系和相机坐标系之间的旋转矩阵和平移向量;
最后根据标定参数将目标的3D感兴趣区域映射到对应的相机图像中,提取相机图像中对应的2D轴对齐矩形边界框作为2D感兴趣区域。
5.如权利要求1所述的基于3D激光雷达及图像数据的目标检测方法,其特征在于,步骤4所述的利用深度卷积网络对所述的2D感兴趣区域进行特征提取,从而对2D感兴趣区域中的目标进行定位和识别,包括:
所述的深度卷积网络采用VGG16,分别将模型中‘conv3’,’conv4’和‘conv5’这三层卷积层最后输出的特征图首先进行归一化,然后进行结合,使得最终的目标特征具有不同尺度;对结合后的特征进行1×1的卷积操作,得到最后的特征向量输出给该卷积网络最后的两层全连接层以对2D感兴趣区域中的目标进行定位和识别。
6.如权利要求1所述的基于3D激光雷达及图像数据的目标检测方法,其特征在于,所述的方法还包括:
步骤5,使用非极大值抑制算法对步骤4的结果进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810594692.5A CN109100741B (zh) | 2018-06-11 | 2018-06-11 | 一种基于3d激光雷达及图像数据的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810594692.5A CN109100741B (zh) | 2018-06-11 | 2018-06-11 | 一种基于3d激光雷达及图像数据的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109100741A CN109100741A (zh) | 2018-12-28 |
CN109100741B true CN109100741B (zh) | 2020-11-20 |
Family
ID=64796805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810594692.5A Active CN109100741B (zh) | 2018-06-11 | 2018-06-11 | 一种基于3d激光雷达及图像数据的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109100741B (zh) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978954A (zh) * | 2019-01-30 | 2019-07-05 | 杭州飞步科技有限公司 | 基于箱体的雷达和相机联合标定的方法和装置 |
CN111837136A (zh) * | 2019-02-19 | 2020-10-27 | 深圳市大疆创新科技有限公司 | 基于本地感测的自主导航以及相关联的***和方法 |
CN109948661B (zh) * | 2019-02-27 | 2023-04-07 | 江苏大学 | 一种基于多传感器融合的3d车辆检测方法 |
CN111626288B (zh) * | 2019-02-28 | 2023-12-01 | 深圳市速腾聚创科技有限公司 | 数据处理方法、装置、计算机设备和存储介质 |
CN110018470A (zh) * | 2019-03-01 | 2019-07-16 | 北京纵目安驰智能科技有限公司 | 基于多传感器前融合的实例标注方法、模型、终端和存储介质 |
CN109978955B (zh) * | 2019-03-11 | 2021-03-19 | 武汉环宇智行科技有限公司 | 一种联合激光点云与图像的高效标注方法 |
CN110033457B (zh) * | 2019-03-11 | 2021-11-30 | 北京理工大学 | 一种目标点云分割方法 |
CN109949372B (zh) * | 2019-03-18 | 2021-12-10 | 北京智行者科技有限公司 | 一种激光雷达与视觉联合标定方法 |
CN109934228B (zh) * | 2019-03-18 | 2023-02-10 | 上海盎维信息技术有限公司 | 基于人工智能的3d点云处理方法及装置 |
CN110008891B (zh) * | 2019-03-29 | 2022-07-08 | 厦门金龙旅行车有限公司 | 一种行人检测定位方法、装置、车载计算设备及存储介质 |
EP3933439A4 (en) * | 2019-04-03 | 2022-03-30 | Huawei Technologies Co., Ltd. | LOCATION METHOD AND LOCATION DEVICE |
JP6704536B1 (ja) * | 2019-04-25 | 2020-06-03 | 三菱電機株式会社 | 移動量推定装置、移動量推定方法、および移動量推定プログラム |
CN110080326B (zh) * | 2019-04-29 | 2021-11-16 | 北京拓疆者智能科技有限公司 | 一种卸料方法、控制器、挖掘机、电子设备及存储介质 |
CN111950543A (zh) * | 2019-05-14 | 2020-11-17 | 北京京东尚科信息技术有限公司 | 一种目标检测方法和装置 |
CN110146865B (zh) * | 2019-05-31 | 2023-07-14 | 创新先进技术有限公司 | 用于雷达图像的目标识别方法及装置 |
CN112034432A (zh) * | 2019-06-03 | 2020-12-04 | 华为技术有限公司 | 一种雷达目标聚类方法以及相关装置 |
CN110276793A (zh) * | 2019-06-05 | 2019-09-24 | 北京三快在线科技有限公司 | 一种标定三维物体的方法及装置 |
CN110161464B (zh) * | 2019-06-14 | 2023-03-10 | 成都纳雷科技有限公司 | 一种雷达多目标聚类方法及装置 |
CN110363158B (zh) * | 2019-07-17 | 2021-05-25 | 浙江大学 | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 |
CN110503093B (zh) * | 2019-07-24 | 2022-11-04 | 中国航空无线电电子研究所 | 基于视差图dbscan聚类的感兴趣区域提取方法 |
WO2021012245A1 (en) * | 2019-07-25 | 2021-01-28 | Beijing Voyager Technology Co., Ltd. | Systems and methods for pose determination |
CN110361717B (zh) * | 2019-07-31 | 2021-03-12 | 苏州玖物互通智能科技有限公司 | 激光雷达-摄像机联合标定靶和联合标定方法 |
CN110472553B (zh) * | 2019-08-12 | 2022-03-11 | 北京易航远智科技有限公司 | 图像和激光点云融合的目标追踪方法、计算装置和介质 |
CN110458780A (zh) * | 2019-08-14 | 2019-11-15 | 上海眼控科技股份有限公司 | 3d点云数据去噪方法、装置、计算机设备和可读存储介质 |
CN110531340B (zh) * | 2019-08-22 | 2023-01-13 | 吴文吉 | 一种激光雷达点云数据的基于深度学习的识别处理方法 |
CN110706278A (zh) * | 2019-09-20 | 2020-01-17 | 异起(上海)智能科技有限公司 | 一种基于激光雷达和摄像头的物体识别方法和装置 |
CN110632617B (zh) * | 2019-09-29 | 2021-11-02 | 北京邮电大学 | 一种激光雷达点云数据处理的方法及装置 |
CN111047901B (zh) * | 2019-11-05 | 2021-07-20 | 珠海格力电器股份有限公司 | 停车管理方法、装置、存储介质、计算机设备 |
CN110909656B (zh) * | 2019-11-18 | 2023-10-13 | 中电海康集团有限公司 | 一种雷达与摄像机融合的行人检测方法和*** |
WO2021097807A1 (zh) * | 2019-11-22 | 2021-05-27 | 深圳市大疆创新科技有限公司 | 一种探测装置的外参数标定方法、装置及可移动平台 |
CN111077506B (zh) * | 2019-12-12 | 2022-04-19 | 苏州智加科技有限公司 | 对毫米波雷达进行标定的方法、装置及*** |
CN111079652B (zh) * | 2019-12-18 | 2022-05-13 | 北京航空航天大学 | 一种基于点云数据简易编码的3d目标检测方法 |
CN111179331B (zh) * | 2019-12-31 | 2023-09-08 | 智车优行科技(上海)有限公司 | 深度估计方法、装置、电子设备及计算机可读存储介质 |
JP7501398B2 (ja) | 2020-02-18 | 2024-06-18 | 株式会社デンソー | 物体検出装置 |
CN115176175A (zh) * | 2020-02-18 | 2022-10-11 | 株式会社电装 | 物体检测装置 |
CN113359148B (zh) * | 2020-02-20 | 2024-05-28 | 百度在线网络技术(北京)有限公司 | 激光雷达点云数据处理方法、装置、设备及存储介质 |
KR20220134033A (ko) * | 2020-03-26 | 2022-10-05 | 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 | 포인트 클라우드 특징 기반 장애물 필터링 시스템 |
CN111427032B (zh) * | 2020-04-24 | 2022-02-01 | 森思泰克河北科技有限公司 | 基于毫米波雷达的房间墙体轮廓识别方法及终端设备 |
CN111638499B (zh) * | 2020-05-08 | 2024-04-09 | 上海交通大学 | 基于激光雷达反射强度点特征的相机-激光雷达相对外参标定方法 |
CN113671458A (zh) * | 2020-05-13 | 2021-11-19 | 华为技术有限公司 | 一种目标物体识别方法及装置 |
CN111598770B (zh) * | 2020-05-15 | 2023-09-19 | 汇智机器人科技(深圳)有限公司 | 一种基于三维数据和二维图像的物体检测方法和装置 |
CN112270694B (zh) * | 2020-07-07 | 2023-04-18 | 中国人民解放军61540部队 | 基于激光雷达扫描图进行城市环境动态目标检测的方法 |
CN111736114B (zh) * | 2020-08-21 | 2020-11-13 | 武汉煜炜光学科技有限公司 | 一种提高激光雷达数据传输速度的方法和激光雷达 |
CN111964673A (zh) * | 2020-08-25 | 2020-11-20 | 一汽解放汽车有限公司 | 一种无人车定位*** |
CN113761999B (zh) * | 2020-09-07 | 2024-03-05 | 北京京东乾石科技有限公司 | 一种目标检测方法、装置、电子设备和存储介质 |
CN112614189B (zh) * | 2020-12-09 | 2024-05-31 | 中国北方车辆研究所 | 一种基于摄像头和3d激光雷达的联合标定方法 |
CN113064179A (zh) * | 2021-03-22 | 2021-07-02 | 上海商汤临港智能科技有限公司 | 一种点云数据筛选方法、车辆控制方法及装置 |
CN113095324A (zh) * | 2021-04-28 | 2021-07-09 | 合肥工业大学 | 一种针对锥桶的分类与测距方法及*** |
CN113255560A (zh) * | 2021-06-09 | 2021-08-13 | 深圳朗道智通科技有限公司 | 基于图像与激光数据的自动驾驶场景下的目标检测*** |
CN113436273A (zh) * | 2021-06-28 | 2021-09-24 | 南京冲浪智行科技有限公司 | 一种3d场景定标方法、定标装置及其定标应用 |
CN113838140B (zh) * | 2021-08-16 | 2023-07-18 | 中国矿业大学(北京) | 一种基于三维地图辅助的单目视频行人三维定位方法 |
WO2023028774A1 (zh) * | 2021-08-30 | 2023-03-09 | 华为技术有限公司 | 一种激光雷达的标定方法、装置及存储介质 |
CN113947639B (zh) * | 2021-10-27 | 2023-08-18 | 北京斯年智驾科技有限公司 | 基于多雷达点云线特征的自适应在线估计标定***及方法 |
CN114782729A (zh) * | 2022-04-20 | 2022-07-22 | 重庆大学 | 一种基于激光雷达与视觉融合的实时目标检测方法 |
CN115236674B (zh) * | 2022-06-15 | 2024-06-04 | 北京踏歌智行科技有限公司 | 一种基于4d毫米波雷达的矿区环境感知方法 |
CN115423942A (zh) * | 2022-06-29 | 2022-12-02 | 深圳市镭神智能***有限公司 | 一种数据处理方法、装置、设备以及存储介质 |
CN116839499B (zh) * | 2022-11-03 | 2024-04-30 | 上海点莘技术有限公司 | 一种大视野微尺寸2d及3d测量标定方法 |
CN117008122A (zh) * | 2023-08-04 | 2023-11-07 | 江苏苏港智能装备产业创新中心有限公司 | 基于多雷达融合定位工程机械设备周围物体的方法和*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101581575A (zh) * | 2009-06-19 | 2009-11-18 | 南昌航空大学 | 基于激光和摄像机数据融合的三维重建方法 |
CN101975951A (zh) * | 2010-06-09 | 2011-02-16 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
CN102944224A (zh) * | 2012-11-09 | 2013-02-27 | 大连理工大学 | 一种无人驾驶车的自动环境感知***及其工作方法 |
CN103226833A (zh) * | 2013-05-08 | 2013-07-31 | 清华大学 | 一种基于三维激光雷达的点云数据分割方法 |
CN103455144A (zh) * | 2013-08-22 | 2013-12-18 | 深圳先进技术研究院 | 车载人机交互***及方法 |
CN104143194A (zh) * | 2014-08-20 | 2014-11-12 | 清华大学 | 一种点云分割方法及装置 |
CN106407947A (zh) * | 2016-09-29 | 2017-02-15 | 百度在线网络技术(北京)有限公司 | 用于无人驾驶车辆的目标物体识别方法和装置 |
CN106530380A (zh) * | 2016-09-20 | 2017-03-22 | 长安大学 | 一种基于三维激光雷达的地面点云分割方法 |
CN107192994A (zh) * | 2016-03-15 | 2017-09-22 | 山东理工大学 | 多线激光雷达海量点云数据快速有效提取及车辆、车道线特征识别方法 |
-
2018
- 2018-06-11 CN CN201810594692.5A patent/CN109100741B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101581575A (zh) * | 2009-06-19 | 2009-11-18 | 南昌航空大学 | 基于激光和摄像机数据融合的三维重建方法 |
CN101975951A (zh) * | 2010-06-09 | 2011-02-16 | 北京理工大学 | 一种融合距离和图像信息的野外环境障碍检测方法 |
CN102944224A (zh) * | 2012-11-09 | 2013-02-27 | 大连理工大学 | 一种无人驾驶车的自动环境感知***及其工作方法 |
CN103226833A (zh) * | 2013-05-08 | 2013-07-31 | 清华大学 | 一种基于三维激光雷达的点云数据分割方法 |
CN103455144A (zh) * | 2013-08-22 | 2013-12-18 | 深圳先进技术研究院 | 车载人机交互***及方法 |
CN104143194A (zh) * | 2014-08-20 | 2014-11-12 | 清华大学 | 一种点云分割方法及装置 |
CN107192994A (zh) * | 2016-03-15 | 2017-09-22 | 山东理工大学 | 多线激光雷达海量点云数据快速有效提取及车辆、车道线特征识别方法 |
CN106530380A (zh) * | 2016-09-20 | 2017-03-22 | 长安大学 | 一种基于三维激光雷达的地面点云分割方法 |
CN106407947A (zh) * | 2016-09-29 | 2017-02-15 | 百度在线网络技术(北京)有限公司 | 用于无人驾驶车辆的目标物体识别方法和装置 |
Non-Patent Citations (1)
Title |
---|
基于3D激光雷达城市道路边界鲁棒检测算法;孙朋朋 等;《浙江大学学报(工学版)》;20180331;第52卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109100741A (zh) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109100741B (zh) | 一种基于3d激光雷达及图像数据的目标检测方法 | |
CN109444911B (zh) | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
CN107272021B (zh) | 使用雷达和视觉定义的图像检测区域的对象检测 | |
CN107796373B (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN110781827A (zh) | 一种基于激光雷达与扇状空间分割的路沿检测***及其方法 | |
CN108828621A (zh) | 基于三维激光雷达的障碍检测和路面分割算法 | |
CN110197173B (zh) | 一种基于双目视觉的路沿检测方法 | |
CN112149550A (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
CN112740225B (zh) | 一种路面要素确定方法及装置 | |
CN115943439A (zh) | 一种基于雷视融合的多目标车辆检测及重识别方法 | |
CN108645375B (zh) | 一种用于车载双目***快速车辆测距优化方法 | |
US20200341150A1 (en) | Systems and methods for constructing a high-definition map based on landmarks | |
CN114724110A (zh) | 目标检测方法及设备 | |
CN116229408A (zh) | 一种图像信息与激光雷达点云信息融合的目标识别方法 | |
CN112597839B (zh) | 基于车载毫米波雷达的道路边界检测方法 | |
CN114782729A (zh) | 一种基于激光雷达与视觉融合的实时目标检测方法 | |
CN116109601A (zh) | 一种基于三维激光雷达点云的实时目标检测方法 | |
CN114821526A (zh) | 基于4d毫米波雷达点云的障碍物三维边框检测方法 | |
CN115546741A (zh) | 一种双目视觉和激光雷达无人艇海洋环境障碍物识别方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN115327572A (zh) | 一种车辆前方障碍物检测方法 | |
CN113219472B (zh) | 一种测距***和方法 | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231228 Address after: 100193 area a, building 12, Zhongguancun Software Park, Haidian District, Beijing Patentee after: BEIJING WANJI TECHNOLOGY Co.,Ltd. Address before: 710064 No. 126 central section of South Ring Road, Yanta District, Xi'an, Shaanxi Patentee before: CHANG'AN University |
|
TR01 | Transfer of patent right |