CN111242041B - 基于伪图像技术的激光雷达三维目标快速检测方法 - Google Patents

基于伪图像技术的激光雷达三维目标快速检测方法 Download PDF

Info

Publication number
CN111242041B
CN111242041B CN202010040820.9A CN202010040820A CN111242041B CN 111242041 B CN111242041 B CN 111242041B CN 202010040820 A CN202010040820 A CN 202010040820A CN 111242041 B CN111242041 B CN 111242041B
Authority
CN
China
Prior art keywords
point cloud
dimensional
network
layer
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010040820.9A
Other languages
English (en)
Other versions
CN111242041A (zh
Inventor
蔡英凤
栾天雨
王海
李祎承
陈小波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202010040820.9A priority Critical patent/CN111242041B/zh
Publication of CN111242041A publication Critical patent/CN111242041A/zh
Application granted granted Critical
Publication of CN111242041B publication Critical patent/CN111242041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于伪图像技术的激光雷达三维目标快速检测方法,S1,对原始点云数据中的地面点进行剔除;S2,将三维点云数据转化为具有三维特征信息的二维伪图像数据形式;S3,设定二维卷积神经网络融合特征层,捕获伪图像在三个不同尺度下的特征图;S4,基于伪图像在不同尺度下的特征图,利用SSD检测定位网络实现目标的位置回归和类别识别;S5,设定检测网络的总损失函数;S6,由网络训练,得到基于激光雷达采集点云数据进行三维目标检测的标准三维目标检测网络。本发明减少了大量的计算,保证检测过程速度的同时,准确得到被检测目标的位置、大小和形状等信息。

Description

基于伪图像技术的激光雷达三维目标快速检测方法
技术领域
本发明属于无人驾驶汽车领域,涉及无人驾驶汽车环境感知方法,尤其涉及基于激光雷达的三维目标快速检测方法。
背景技术
基于点云的三维目标检测在无人驾驶技术发展过程中是一个不可或缺的任务。无人驾驶车辆的控制***依赖传感器感知周围环境,包括车辆、行人和交通标识等。无人驾驶车辆通常会配置多种传感器设备以获取更多的信息量。不同的传感器之间可以互补,提供更丰富的信息供无人驾驶车辆的控制***进行感知。激光雷达传感器和摄像头传感器是无人驾驶车辆中最常用同时也是最主要的两种传感器设备。而激光雷达采集生成的点云数据,是目前实现无人驾驶车辆目标识别的主要输入,无论对点云数据进行处理,还是对点云与图像信息进行融合,从而实现三维目标检测,都避不开对点云数据的处理。
目前基于点云数据的三维目标检测技术基本过程是利用体素法,将点云分块,对每块中的点云手工提取特征,然后对已编码的块状点云做三维卷积操作,从而实现对图中目标的分类任务。但是三维卷积操作在大场景中是非常消耗计算量,甚至无法实现。
发明内容
针对现有技术中存在不足,本发明提供了一种基于伪图像技术的激光雷达三维目标快速检测方法,在充分考虑点云局部特征后,将三维点云数据转化为具有三维特征信息的二维伪图像数据形式,减少计算量并最终输出高精度的3D Box参数。
本发明是通过以下技术手段实现上述技术目的的。
基于伪图像技术的激光雷达三维目标快速检测方法,利用二维卷积神经网络、优化特征学习网络及基于SSD检测定位网络,构成激光雷达三维目标快速检测网络,用于快速检测三维目标。
进一步的,所述优化特征学习网络包括采样层、分组层和PointNet层。
更进一步的,所述采样层的输出为采样点集n×D,其中:n为通过最远点采样算法得到的采样点集中的点的个数,D为点的原始特征。
更进一步的,所述分组层的输出为点集n×k×D,其中:k为点云簇中所含的点的个数。
进一步的,所述PointNet层对点云簇进行特征提取,得到点云簇的全局特征,即点云柱的局部特征;将点云簇作为单位输入,迭代一次优化特征提取过程,得到点云柱的全局特征。
更进一步的,,所述优化特征学习网络将点云数据的特征张量(D,N,P)转变为伪图像形式(C,H,W),其中,C为伪图像的通道数,N为每个点云柱中的点数,P为网格总面积,H为网格的长,W为网格的宽。
进一步的,所述激光雷达三维目标快速检测网络在训练过程中采用的损失函数为:
Figure GDA0004074084040000021
其中NPOS为网络训练过程中正样本的数量,βcls、βloc、βdir分别为分类损失、回归损失和航向角损失的权重,Lcls、Lloc、Ldir分别为3D Box的分类损失、回归损失和航向角损失。
更进一步的,所述航向角损失由softmax分类损失函数定义。
本发明通过上述技术方案,具有以下有益效果:
(1)本发明通过将三维点云数据转化为带有三维信息的二维伪图像数据形式,解决了现有三维目标检测技术中计算量过大、检测速度过慢的不足,在保证一定检测精度的同时,实现了对三维目标的快速检测。
(2)本发明的优化特征学习网络包括采样层、分组层和PointNet层;采样层利用最远点采样算法在点云柱中采样得到点云簇的中心点;分组层利用kNN算法搜索点云簇中心点附近的点,得到中心点的最近邻点;将中心点及其最近邻点作为一簇点云,即实现了点云的局部划分;PointNet层利用简化的PointNet算法学习点云簇的特征,通过最大池化与迭代操作得到每个点云柱的全局特征;本发明通过设定优化特征学习网络,解决了现有点云数据转化为伪图像技术中存在的不能充分学习点云局部特征的问题,实现了对三维目标局部特征的充分提取,有效提升了检测精度。
(3)本发明的损失函数考虑3D Box的分类损失(Lcls)、回归损失(Lloc)和航向角损失(Ldir),航向角损失由softmax分类损失函数定义,通过设定包含航向角的损失函数,可以使网络很好地学习到被检测目标的朝向信息。
附图说明
图1是本发明基于伪图像技术的激光雷达三维目标快速检测方法的流程图;
图2是本发明由点云数据生成伪图像的流程图;
图3是本发明优化特征学习网络示意图;
图4是本发明二维卷积神经网络的基本结构图。
具体实施方式
下面结合附图以及具体实施例对本发明作进一步的说明,但本发明的保护范围并不限于此。
如图1所示,基于伪图像技术的激光雷达三维目标快速检测方法,具体包括如下过程:
步骤(1),点云数据预处理
激光雷达采集自车周围环境,并生成原始点云数据,对原始点云数据进行预处理,利用随机抽样一致性算法(RANSAC)对点云数据进行地面点检测,对于平坦地区,利用随机抽样一致性算法将整个点云数据进行地面点移除;对于不平坦地区,对点云数据先进行分块处理,再对每一区块中的点云数据进行地面点移除。
利用随机抽样一致性算法对地面点进行检测并将其剔除的原理是:在点云空间中不断地随机抽取三个点构建平面方程,若构建的平面中包含足够多的点,则认为此平面是地面,将地面点直接滤除。
步骤(2),点云数据转化生成伪图像(如图2所示)
步骤(2.1),首先在预处理好的点云数据俯视图所在的平面上划分网格,然后在z轴方向上进行拉伸,生成一个个的点云柱,铺满整个平面。
步骤(2.2),对于点云柱中的每一个点提取原始特征D=(x,y,z,r),其中x、y、z为每一个点在激光雷达坐标系中的坐标,r为每一个点的反射率。
步骤(2.3),构造张量(D,N,P),其中N为每个点云柱中的点数(当N大于设定阈值时,保留该点云柱),P为网格总面积,H为网格的长,W为网格的宽。
步骤(2.4),设定优化特征学习网络,依次包括采样层、分组层、PointNet层(如图3所示)
步骤(2.4.1),设定采样层,采样层的目的为选择点云簇中心
利用最远点采样算法(FPS)对每个点云柱进行采样得到采样点集,最远点采样算法的输入为有标签点集X={x1,x2,x3,......,xn},其中xi为代表点云数据的D维向量,输出的采样点集为n′×D,其中n′为通过最远点采样算法得到的采样点集中的点的个数(为现有技术),采样点集中的点均为点云簇中心。
步骤(2.4.2),设定分组层,分组层用于在每个点云柱中创建多个点云簇
给定半径,利用K最近邻分类算法(kNN算法)以采样点为中心基准寻找固定的邻近点,取半径分别为0.1、0.2、0.4,对应圈内最大点数为16、32、128;将采样点及其邻近点作为一簇点云;分组层的输入为采样点集n′×D,分组层的输出为点集n′×k×D(每个点云柱的所有点云簇),其中k为点云簇中所含的点的个数(即采样点及其邻近点)。
步骤(2.4.3),设定PointNet层,PointNet层用于获得点云柱的全局特征
设定点集n′×k×D作为PointNet层的输入,利用简化的PointNet算法学习该簇点云中每个点的特征。具体为:将一簇点云k×D输入到PointNet特征学习网络中,经过T-Net变换,使点云在空间上对齐,然后通过MLP(多层感知机)将点云映射到64维空间;循环一次上述过程,最终将该簇点云映射为一个k×1024维的特征表示,k×1024维的特征表示即为该簇点云的局部特征表示。然而对三维点云数据来说,1024维的特征表示是冗余的,因此,引入最大池化操作,将1024维的特征表示在所有通道上只保留最大的那一个特征,得到1×1024的特征向量,即为该簇点云的全局特征,同时为整个点云柱的局部特征。
上述利用PointNet算法学习点云簇的全局特征适用于每一簇点云。在学习到点云柱中每个点云簇的全局特征后,将每个点云簇作为一个输入单位,迭代步骤(2.4.1)、步骤(2.4.2)、步骤(2.4.3),最终得到点云柱的全局特征,即通过迭代,整个优化特征学习网络从点云输入中学习得到C个通道。在整个优化点云特征学习网络提取点云局部特征的过程中,在每个维度上提取得到的点云特征信息都包含着上一维度点云中点的局部特征信息,解决了以往三维目标检测方法中点云局部特征提取不充分,导致检测效果不佳的问题。
步骤(2.5),展开生成伪图像
点云数据经过步骤(2.4)的优化特征学习网络后,特征张量(D,N,P)转变为(C,N,P),对N进行最大池化操作,特征张量转化为(C,P),又因为P=H×W,于是点云数据展开成一个伪图像形式(C,H,W),C为伪图像的通道数。
步骤(3),二维卷积神经网络(CNN)融合特征层(如图4所示)
二维卷积神经网络融合特征层包括下采样层和上采样层。二维卷积神经网络的输入为步骤(2)输出的伪图像数据(C,H,W),输出为经下采样层和上采样层处理融合后的特征图(6C,H/2,W/2)。
步骤(3.1),设定下采样层,下采样层用于捕获伪图像在不同尺度下的特征图
下采样层包括三个采样层,每个采样层均包括将卷积层、BatchNorm层、ReLU层。设定卷积层的卷积核的大小为(3×3);考虑车辆的体积较大,故特征设计不应过于密集,因此为了降低计算量,提高检测效率,将卷积层的卷积步长设定为2。对行人、自行车等较小的三维目标,将卷积层的卷积步长设定为1。
下采样层的第一层卷积输出均为第二层的卷积输入,第二层卷积输出均为第三层的卷积输入;第一层的输入为步骤(2)中输出的伪图像数据(C,H,W),第一层的而输出为(C,H/2,W/2),第二层的输出为(2C,H/4,W/4),第三层的输出为(2C,H/8,W/8)。
伪图像经过下采样层的三次下采样,分别捕获了在三个不同尺度下的特征图。具体结构如图3所示。
步骤(3.2)设定上采样层,上采样层用于将三个尺度下的特征图进行融合
上采样层包括三个并行的采样层,每个采样层均包括反卷积层、BatchNorm层、ReLU层。每个采样层对接下采样层中每个采样层,即下采样层的采样层输出特征图为上采样层的采样层输入。
对应下采样层中每个采样层的卷积核和卷积步长,设定上采样层中采样层的卷积核和卷积步长,得到三个采样层的输出均为(2C,H/2,W/2)。为实现不同尺度下特征图的信息融合,将三个采样层的输出特征图在通道维度上进行拼接,最终得到整个二维卷积神经网络(CNN)融合特征层的输出特征图为(6C,H/2,W/2)。
步骤(4),基于SSD检测定位网络的目标分类和回归
在步骤(3)中经过上采样与下采样,得到了三个尺度的特征图,不同尺度下的特征图大小不同,感受野不同,对应的SSD先验框大小也不同。因此分别对不同尺度下的特征图使用两组卷积滤波器产生固定的预测集合。具体为:使用一个3×3的卷积核对不同尺度的特征图进行卷积操作,后接Softmax函数作为检测网络的输出激活函数,得到类别得分;使用一个3×3的卷积核对不同尺度的特征图进行卷积操作,后接恒等函数作为回归网络的激活函数,完成检测目标的位置回归。
步骤(5),设定考虑航向角损失的损失函数
整个目标检测网络利用随机梯度下降法进行训练,使总损失函数L下降至收敛。具体为:在目标检测网络迭代训练过程中依靠计算损失函数对整个检测模型做出惩罚,使检测模型在训练过程中逐步优化。最终学习到可以使检测模型进行实例级别目标检测的权重与参数。
因为普通的角定位损失无法对3DBox的反转起到惩罚,使得网络不能很好的学习到目标的航向角,因此在本发明引入航向角损失,航向角损失由softmax分类损失函数定义,通过设定航向角损失函数,可以使网络很好地学习到被检测目标的朝向信息。本发明损失函数考虑3D Box的分类损失(Lcls)、回归损失(Lloc)和航向角损失(Ldir)。
损失函数表达式为:
Figure GDA0004074084040000051
其中,NPOS为网络训练过程中正样本的数量,βcls、βloc、βdir分别为分类损失、回归损失和航向角损失的权重。
分类损失表达式为:
Lcls=-aα(1-pα)γlogpα
其中,a表示anchor预测,常数α=0.25,pα为目标类的概率,常数γ=2。
回归损失表达式为:
Lloc=∑b∈(X,Y,Z,w,l,h,θ)SmoothL1(Δb)
其中:
Figure GDA0004074084040000061
Figure GDA0004074084040000062
Δθ=sin(θgta),
Figure GDA0004074084040000063
Figure GDA0004074084040000064
其中,X、Y、Z为三维目标检测框在激光雷达坐标系中的位置,w、l、h为三维目标检测框的长、宽、高,θ为三维目标检测框朝向角参数;上标gt表示真实标签。
步骤(6),基于步骤(5)的损失函数,进行网络训练
使用COCO数据集对二维卷积神经网络进行预训练:初始化二维卷积神经网络;利用预训练好的二维卷积神经网络、优化特征学习网络及基于SSD检测定位网络组合形成基于伪图像技术的激光雷达三维目标快速检测网络,利用kitti数据集中的有标签点云数据对整个基于伪图像技术的激光雷达三维目标快速检测网络进行训练,调整学习率等训练参数,使损失函数达到收敛。
经过上述网络训练过程,得到标准的基于伪图像技术的激光雷达三维目标快速检测网络。实际三维目标检测过程可以设定为,经激光雷达采集自车周围环境点云数据,首先经过步骤(1)进行点云数据预处理,然后输入标准的基于伪图像技术的激光雷达三维目标快速检测网络,最终快速准确的得到被检测目标的位置、大小等各种参数。
所述实施例为本发明的优选的实施方式,但本发明并不限于上述实施方式,在不背离本发明的实质内容的情况下,本领域技术人员能够做出的任何显而易见的改进、替换或变型均属于本发明的保护范围。

Claims (2)

1.基于伪图像技术的激光雷达三维目标快速检测方法,其特征在于,利用二维卷积神经网络、优化特征学习网络及基于SSD检测定位网络,构成激光雷达三维目标快速检测网络,用于快速检测三维目标;
所述优化特征学习网络包括采样层、分组层和PointNet层;
所述采样层的输出为采样点集n′×D,其中:n′为通过最远点采样算法得到的采样点集中的点的个数,D为点的原始特征;
所述分组层的输出为点集n′×k×D,其中:k为点云簇中所含的点的个数;
所述PointNet层对点云簇进行特征提取,得到点云簇的全局特征,即点云柱的局部特征;将点云簇作为单位输入,迭代一次优化特征提取过程,得到点云柱的全局特征;
所述优化特征学习网络将点云数据的特征张量(D,N,P)转变为伪图像形式(C,H,W),其中,C为伪图像的通道数,N为每个点云柱中的点数,P为网格总面积,H为网格的长,W为网格的宽;
所述激光雷达三维目标快速检测网络在训练过程中采用的损失函数为:
Figure FDA0004074084030000011
其中NPOS为网络训练过程中正样本的数量,βcls、βloc、βdir分别为分类损失、回归损失和航向角损失的权重,Lcls、Lloc、Ldir分别为3D Box的分类损失、回归损失和航向角损失。
2.根据权利要求1所述的基于伪图像技术的激光雷达三维目标快速检测方法,其特征在于,所述航向角损失由softmax分类损失函数定义。
CN202010040820.9A 2020-01-15 2020-01-15 基于伪图像技术的激光雷达三维目标快速检测方法 Active CN111242041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010040820.9A CN111242041B (zh) 2020-01-15 2020-01-15 基于伪图像技术的激光雷达三维目标快速检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010040820.9A CN111242041B (zh) 2020-01-15 2020-01-15 基于伪图像技术的激光雷达三维目标快速检测方法

Publications (2)

Publication Number Publication Date
CN111242041A CN111242041A (zh) 2020-06-05
CN111242041B true CN111242041B (zh) 2023-05-09

Family

ID=70865663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010040820.9A Active CN111242041B (zh) 2020-01-15 2020-01-15 基于伪图像技术的激光雷达三维目标快速检测方法

Country Status (1)

Country Link
CN (1) CN111242041B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112053374A (zh) * 2020-08-12 2020-12-08 哈尔滨工程大学 一种基于GIoU的3D目标边界框的估计***
KR20220040118A (ko) * 2020-09-23 2022-03-30 현대자동차주식회사 라이다를 이용한 팔레트 적재 장치 및 그 방법
CN112183330B (zh) * 2020-09-28 2022-06-28 北京航空航天大学 基于点云的目标检测方法
CN112200303B (zh) * 2020-09-28 2022-10-21 杭州飞步科技有限公司 基于上下文相关编码器的激光雷达点云3d目标检测方法
US11462029B2 (en) * 2020-12-07 2022-10-04 Shenzhen Deeproute.Ai Co., Ltd Object detection network and method
CN113160117A (zh) * 2021-02-04 2021-07-23 成都信息工程大学 一种自动驾驶场景下的三维点云目标检测方法
CN113627434B (zh) * 2021-07-07 2024-05-28 中国科学院自动化研究所 一种应用于自然图像的处理模型的搭建方法及装置
CN113269172B (zh) * 2021-07-20 2021-10-15 天津萨瑞德科技有限公司 干涉逆合成孔径雷达三维图像分类方法、装置及存储介质
CN113506372A (zh) * 2021-07-26 2021-10-15 西北工业大学 一种环境重建方法及装置
CN113706480B (zh) * 2021-08-13 2022-12-09 重庆邮电大学 一种基于关键点多尺度特征融合的点云3d目标检测方法
CN114004978A (zh) * 2021-11-04 2022-02-01 昆明理工大学 一种基于注意力机制和可变形卷积的点云目标检测方法
CN114120115A (zh) * 2021-11-19 2022-03-01 东南大学 一种融合点特征和网格特征的点云目标检测方法
CN114792417B (zh) * 2022-02-24 2023-06-16 广州文远知行科技有限公司 模型训练方法、图像识别方法、装置、设备及存储介质
CN116071417B (zh) * 2023-01-31 2024-01-12 河北农业大学 一种基于Azure Kinect的羊只体尺体重获取***及方法
CN116343192A (zh) * 2023-02-10 2023-06-27 泉州装备制造研究所 一种室外3d目标检测方法及***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109932730B (zh) * 2019-02-22 2023-06-23 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN110032949B (zh) * 2019-03-22 2021-09-28 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110363820B (zh) * 2019-06-28 2023-05-16 东南大学 一种基于激光雷达、图像前融合的目标检测方法
CN114782729A (zh) * 2022-04-20 2022-07-22 重庆大学 一种基于激光雷达与视觉融合的实时目标检测方法

Also Published As

Publication number Publication date
CN111242041A (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
CN111242041B (zh) 基于伪图像技术的激光雷达三维目标快速检测方法
Yu et al. A real-time detection approach for bridge cracks based on YOLOv4-FPM
Fernandes et al. Point-cloud based 3D object detection and classification methods for self-driving applications: A survey and taxonomy
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
Zhang et al. Fusion of images and point clouds for the semantic segmentation of large-scale 3D scenes based on deep learning
Jiang et al. Deep neural networks-based vehicle detection in satellite images
CN113706480B (zh) 一种基于关键点多尺度特征融合的点云3d目标检测方法
CN112488210A (zh) 一种基于图卷积神经网络的三维点云自动分类方法
CN112288667B (zh) 一种基于激光雷达与摄像头融合的三维目标检测方法
Balaska et al. Enhancing satellite semantic maps with ground-level imagery
EP4174792A1 (en) Method for scene understanding and semantic analysis of objects
CN110569926B (zh) 一种基于局部边缘特征增强的点云分类方法
TWI745204B (zh) 基於深度學習之高效率光達物件偵測方法
CN113095152A (zh) 一种基于回归的车道线检测方法及***
Hayton et al. CNN-based human detection using a 3D LiDAR onboard a UAV
WO2022194035A1 (zh) 一种三维模型构建方法、神经网络训练方法以及装置
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
Luo et al. Dynamic multitarget detection algorithm of voxel point cloud fusion based on pointrcnn
Zhang et al. Efficient object detection method based on aerial optical sensors for remote sensing
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和***
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
CN117975436A (zh) 基于多模态融合和可变形注意力的三维目标检测方法
CN113378647A (zh) 基于三维点云的实时轨道障碍物检测方法
Zhao et al. DHA: Lidar and vision data fusion-based on road object classifier
CN116503602A (zh) 基于多层级边缘增强的非结构化环境三维点云语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant