CN111915746A - 一种基于弱标注的三维点云目标检测方法及标注工具 - Google Patents

一种基于弱标注的三维点云目标检测方法及标注工具 Download PDF

Info

Publication number
CN111915746A
CN111915746A CN202010822668.XA CN202010822668A CN111915746A CN 111915746 A CN111915746 A CN 111915746A CN 202010822668 A CN202010822668 A CN 202010822668A CN 111915746 A CN111915746 A CN 111915746A
Authority
CN
China
Prior art keywords
target
dimensional
point
network
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010822668.XA
Other languages
English (en)
Other versions
CN111915746B (zh
Inventor
王文冠
孟庆昊
沈建冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Publication of CN111915746A publication Critical patent/CN111915746A/zh
Application granted granted Critical
Publication of CN111915746B publication Critical patent/CN111915746B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于弱标注的三维点云目标检测方法及标注工具,属于模式识别技术领域。本发明方法可用来构筑用于弱监督算法的数据集,减少制作于三维检测的数据集所需要的人力、物力和时间,为三维数据标注降低了成本,能够在自动和半自动两种状态下进行快速的三维目标检测数据集标注。本方法有效利用获得的快速俯视图标注,完成在三维场景中对目标位置进行定位的工作,相比现有方法需要完整的三维框作为监督信息优化网络,能够使用简单快速的标注信息对网络进行优化。本发明能够有效解决点云三维目标检测对标注数据依赖度高、耗时长、成本高、实现复杂的技术问题。

Description

一种基于弱标注的三维点云目标检测方法及标注工具
技术领域
本发明涉及一种点云的弱标注方法,具体涉及一种基于弱标注的三维点云目标检测方法以及一种基于弱标注的三维点云目标标注工具,属于目标检测模式识别技术领域。
背景技术
随着人工智能和无人驾驶技术的日趋发展,基于点云的三维目标检测已成为研究热点。相比传统的基于图像的目标检测方法,点云能提供更加准确的深度信息,用于对物体进行定位和形状描绘。点云数据在深度上的精度优势,使得它在自动驾驶、家庭机器人、增强现实等领域占据十分重要的地位。
近年来,基于深度学习框架的点云数据目标检测器取得了飞速发展。然而,在检测精度不断提升的同时,检测算法对于大量标注数据的依赖度却不断提升。
现有的点云三维目标检测方法,大多是基于全监督学习框架设计。然而,这些全监督框架需要大量精细标注的三维框来进行训练,从而满足对检测器的性能需求以及避免过拟合问题。精细标注工作需要消耗大量时间和经济成本。在这种标注方法下,一小时的驾驶视频需要花费上百小时进行标注,导致高质量的三维检测数据集不仅制作开销高,而且在尺度和多样性上受到巨大限制。由此可见,要真正实现泛用的三维目标检测***,不仅需要整合各种新兴技术,还必须解决它对高成本、高数量、高质量标注数据的依赖。
因此,有必要提出一种使用少量、简单、快速标注进行训练的三维目标检测方法,以及能够自动化进行三维目标标注的工具,以解决上述技术问题。
发明内容
本发明的目的是为了解决点云三维目标检测对标注数据依赖度高、耗时长、成本高、实现复杂的技术问题,创造性地提出了一种基于弱标注的三维点云目标检测方法,以及一种基于弱标注的三维点云目标标注工具。本发明方法和工具,能够利用更廉价、更少量、更简单的标注,达到良好的检测效果,并且能够降低标注成本。
一种基于弱标注的三维点云目标检测方法,包含以下步骤:
步骤1:使用弱标注方法。设数据集中共有N个未标注场景,N0<N。对N0个未标注的自动驾驶点云场景进行标注。通过标注,获得每一个目标中心在俯视图上的坐标(x,z),存储标注信息。
具体地,所述基于俯视图的三维目标快速标注包括以下步骤:
步骤1.1:标注人员点击相机视图上需要标注的目标。
步骤1.2:程序根据点云和相机的投影关系取得距离点击位置最近的点云点,并显示一个以该点为中心的局部俯视图。
步骤1.3:标注人员在局部俯视图上选取目标较精确的中心位置,完成单个目标的快速鸟瞰标注过程。
步骤1.4:重复步骤1.1-1.3,标注该场景中所有可见目标,并切换场景将N0个场景全部进行快速俯视图标注,将标注信息进行存储,取得快速俯视图标注,最终获得快速俯视图标注的数据集。
步骤2:使用基于俯视图标注的目标定位方法,构建目标定位网络。使用步骤1存储的标注信息对网络进行训练,使网络获得目标定位能力。
具体地,所述基于俯视图标注的目标定位方法,包括以下步骤:
步骤2.1:使用快速俯视图标注确定目标中心,对每一个点云点生成前景分数标签。
步骤2.2:构建目标定位网络,以点云作为输入。
步骤2.3:以步骤1生成的俯视图标注作为训练目标,并使用步骤2.1生成的前景分数标签构建损失函数,通过损失函数强化目标定位网络对于目标的敏感程度。
步骤2.4:优化目标定位网络。
步骤3:N0个场景中共含有M个无标注的目标,M0<M。选择M0个无标注的目标,进行三维位置(x,y,z)、三维尺寸(h,w,l)、航向角θ共七个参数的三维框标注。将标注框临域内的点云以框为单位进行存储,每个点云点的特征除原有信息外,再增加目标定位网络输出的每个点的前景分数
Figure BDA0002634844370000021
并一同存储,形成局部三维检测数据集。
步骤4:使用基于少量标注的目标检测方法构建目标检测网络,使用步骤3中存储的信息进行训练,使网络获得目标检测能力。
具体地,所述基于少量标注的目标检测方法,包括以下步骤:
步骤4.1:构建一级三维目标检测网络,并将步骤3中的局部三维目标检测数据集作为输入。
步骤4.2:通过损失函数强化一级三维目标检测网络对目标的检测精度。
步骤4.3:优化一级三维目标检测网络。
步骤4.4:如果期望更高的检测精度,则构建二级三维目标检测网络,连接在训练完成的一级目标检测网络后。
步骤4.5:如果进行步骤4.4,则将步骤3中的局部三维目标检测数据集输入一级目标检测网络,并将输出送入二级目标检测网络。
步骤4.6:如果进行步骤4.5,固定除最后一级网络外的所有网络权重参数,通过损失函数强化二级三维目标检测网络对目标的检测精度。
步骤4.7:如果二级目标检测网络的输出未达到检测精度的要求,可依照步骤4.4-4.6继续级联更多检测网络。
步骤5:将目标定位网络与目标检测网络依次连接,构成基于弱监督框架的目标检测。
如果期望获得较快标注速度以控制标注成本,则使用步骤5中连接的网络对剩余未标注场景进行标注,即,作为自动化三维目标标注工具工作,能够较精确地完成数据集的三维框标注工作。
具体地,所述自动化三维目标标注工具包括以下步骤:
首先,选取一个未标注的场景,将点云输入步骤5连接的网络中,由目标定位网络生成目标的定位信息。
然后,使用定位信息根据邻域范围生成局部点云,局部点云输入目标检测网络中取得自动化三维目标标注结果。
如果期望获得高标注精度,则使用步骤1的方法,对整个数据集中剩余未标注场景进行标注,即通过人工标注直接完成目标定位,再使用步骤4训练的目标检测网络完成检测任务,即作为半自动化三维目标标注工具工作,能够更精确地完成数据集的三维框标注工作。
具体地,所述半自动化三维目标标注工具包括以下步骤:
首先,标注人员选取一个未标注的场景,进行步骤1的标注。
然后,以标注人员指示的目标中心生成临域,进行局部点云提取。
之后,使用步骤2.1计算的点云前景分数,与点云特征叠加。
最后,将叠加后的点云输入步骤4训练完成后网络生成半自动标注结果。
有益效果
1.本发明提出的快速俯视图标注方法可用来构筑用于弱监督算法的数据集,大大减少制作于三维检测的数据集所需要的人力、物力和时间,为三维数据标注降低了成本。
2.本方法有效利用获得的快速俯视图标注,完成在三维场景中对目标位置进行定位的工作,相比现有方法需要完整的三维框作为监督信息优化网络,能够使用简单快速的标注信息对网络进行优化。
3.现有三维目标检测方法,需要将训练集每一个场景的每一个目标都进行传统精细且耗时的三维框标注。而本发明只需要一部分场景进行快速标注,并选择一部分目标进行传统标注,大大降低了标注量,从而在减少了标注工作的时间消耗的同时,取得了精确的三维目标检测效果。
4.本发明能够在自动和半自动两种状态下进行快速的三维目标检测数据集标注,相比纯人工标注大大缩短了标注时间,节省了大量用于标注的人力和物力。
附图说明
图1是本发明所述方法的流程图。
图2是局部三维检测数据集制作流程图。
图3是基于俯视图的三维目标快速标注方式的流程图。
图4是基于俯视图标注的目标定位方法的流程图。
图5是目标定位网络的结构图。
图6是基于少量标注的目标检测方法的流程图。
图7是自动化三维目标标注工具的使用流程图。
图8是半自动三维目标标注工具的使用流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
本发明揭示了一种基于俯视图的三维目标快速标注方式、基于俯视图标注的目标定位、基于少量标注的目标检测器和自动化三维目标标注工具。如图1所示,本发明方法包含以下步骤:
步骤1:使用弱标注方法对N0(设数据集中共有N个未标注场景,有N0<N)个未标注的自动驾驶点云场景进行标注。该方法是一种基于俯视图的三维目标快速标注方法,通过标注能够获得每一个目标中心在俯视图上的坐标(x,z),存储标注信息。
如图3所示,所述基于俯视图的三维目标快速标注,包括以下步骤:
步骤1.1:标注人员点击相机视图上需要标注的目标。标注人员将看到一个标注程序界面,其中包括三个图片显示区:相机视图区,点云俯视图区,局部点云俯视图区。标注人员在这一步中主要关注相机视图区,在可见的车辆目标上进行单击。
步骤1.2:程序会根据点云和相机的投影关系取得距离单击位置最近的点云点,并显示一个以该点为中心的局部俯视图。程序则会根据单击的像素位置进行计算,获得距离单击像素位置最近的点云点,并以此点为中心在局部俯视图上显示一个8米×8米的点云投影。
步骤1.3:标注人员在局部俯视图上选取目标较为精确的中心位置,完成单个目标的快速鸟瞰标注过程。
步骤1.4:重复步骤1.1-1.3标注该场景中所有可见目标,并切换场景将N0个场景全部进行快速俯视图标注,将标注信息进行存储,取得快速俯视图标注,最终获得快速俯视图标注的数据集。
步骤2:使用基于弱标注的目标定位方法,构建目标定位网络,使用步骤1存储的标注信息对网络进行训练,使网络获得目标定位能力。
具体地,所述基于俯视图标注的目标定位方法,包括以下步骤:
步骤2.1:使用快速俯视图标注确定目标中心,对每一个点云点生成前景分数标签,标签是以0~1之间的一个小数来体现的,标签分数越高代表该点是前景点的可能性越高,反之则是越低,由此生成伪点云标签。每一个点云点p的前景分数将取该点对场景中所有标注
Figure BDA0002634844370000061
计算得的最大值作为最终前景分数,前景分数fp通过以下公式计算:
Figure BDA0002634844370000062
Figure BDA0002634844370000063
对于场景中任意一个点云点p,它相对于某一个标注o的前景分数为ι(p,o)。其中,
Figure BDA0002634844370000064
是一个均值为0、方差1.5的高斯分布,d(p,o)是点云点距离标注中心的加权距离,单位为米。加权距离计算公式:
Figure BDA0002634844370000065
其中,xp、xo表示点云点和标注点的x轴位置,yp、yo、zp、zo分别表示y、z轴上的对应变量。
步骤2.2:构建目标定位网络,以点云作为输入。
网络主要结构如图5所示。目标定位网络由特征提取器和特征传播器依次连接构成。二者分别由多个特征提取模块和多个特征传播模块连接构成。其中,特征提取模块负责将点云点或支持点特征抽象为对应更大范围支持点的局部特征,特征传播模块负责将支持点的局部特征传播到对应较小局部的支持点特征或点云点。
其中,特征提取模块包含多层感知器、点云/支持点采样器和特征聚合器。多层感知器由三个一维卷积层、三个批标准化层和三个非线性激活层相互穿插而成,取得每一个点云点/支持点的深度特征。点云/支持点采样器使用最远点采样策略对点云/支持点集进行下采样,生成深层的支持点集。特征聚合层根据不同的聚合半径,对范围内的点云/支持点特征进行通道方向的最大值池化操作,将本层点云点/支持点的深度特征传递到深层的支持点上。
特征传播模块包括范围插值器、特征融合器和多层感知器。其中,范围插值器使用相邻两层支持点的三维空间距离为权重,每个浅层支持点/点云点的插值特征由聚合半径内的深层支持点特征通过插值计算得出。特征融合器将对应深度的特征提取器的输入和范围插值器的插值特征堆叠在一起,再通过与前述结构相同但权重不同的多层感知器,取得浅层支持点/点云点的特征。
最终,网络将计算并输出每个点云点的特征。使用两个不同的多层感知器分别完成,其中一个多层感知器回归每个点的预测前景分数,另一个多层感知器回归每一个点向距离最近的目标中心的坐标偏移。本实施例中,选择图5内所示的网络连接级数m=4。
步骤2.3:以步骤1生成的俯视图标注作为训练目标,并使用步骤2.1生成的前景分数标签构建损失函数
Figure BDA0002634844370000071
通过损失函数强化目标定位网络对于目标的敏感程度,损失函数如下:
Figure BDA0002634844370000072
其中,
Figure BDA0002634844370000073
表示前背景分数损失函数,
Figure BDA0002634844370000074
表示目标定位能力损失函数。
前背景分数损失函数
Figure BDA0002634844370000075
使用软性focal loss训练:
Figure BDA0002634844370000076
其中,参数α=0.25,γ=2,
Figure BDA0002634844370000077
是网络预测的分数,fp是计算得到的前景分数,
Figure BDA0002634844370000078
是加权分数。
目标定位损失函数
Figure BDA0002634844370000079
是一个bin-based损失函数:
Figure BDA00026348443700000710
Figure BDA00026348443700000711
Figure BDA00026348443700000712
具体地,bin-base损失函数由两部分构成,首先将定位偏移量范围L分成多个块,每个块大小为δ,计算偏移量对应的块bu,使用交叉熵损失函数
Figure BDA00026348443700000713
优化块所属关系预测,计算块内剩余残差ru,使用L1损失函数
Figure BDA00026348443700000714
进行优化。其中,
Figure BDA00026348443700000715
Figure BDA00026348443700000716
是网络的预测值,uo表示目标中心坐标,up表示当前点云点坐标,ε是尺度缩放参数。偏移量L沿x、z两个方向对称。本实施例中,选择L=4,δ=0.8,即x、z两个方向各有10个锚点。
步骤2.4:将目标定位网络在KITTI数据集的训练集中N0个含有快速俯视图标注的场景上进行训练优化。例如,具体参数和实施方法为:在一张Tesla V100 GPU上使用随机梯度下降法和Adam Onecycle优化器来训练优化,设置目标定位网络的训练次数为8000次,初始的学习率被设置为0.002,指数衰减因子0.8。
为了验证本发明的定位效果,本实施例在车辆目标上进行了测试:
表1目标定位网络在KITTI验证集上的定位精度
Figure BDA0002634844370000081
表1显示,本方法训练的目标***具有较好的目标定位能力。在容差0.7米的条件下可以定位到90%的目标,在容差1.4米的条件下可以定位到92%的目标,能够基本完成自动驾驶场景下的目标定位任务。
步骤3:如图2所示,选择M0(上述N0个场景中共含有M个无标注的目标,M0<M)个无标注的目标使用传统方法进行三维位置(x,y,z),三维尺寸(h,w,l),航向角θ共计七个参数的三维框标注。并将标注框临域内的点云以框为单位进行存储,每个点云点的特征除原有信息外,再增加目标定位网络输出的每个点的前景分数
Figure BDA0002634844370000082
一同存储,形成局部三维检测数据集。
步骤4:使用基于少量标注的目标检测方法,构建目标检测网络,使用步骤3中存储的信息进行训练,使网络获得目标检测能力。
具体地,所述基于少量标注的目标检测方法,包括以下步骤:
步骤4.1:构建一级三维目标检测网络,并将步骤3中的局部三维目标检测数据集作为输入。
具体地,局部三维目标检测数据集中的每个实例包含:该标注中心坐标,步骤3标注的对应标注框,中心从俯视图观察半径4米内的所有点云点,每个点云点上除三维坐标外还包含步骤3网络预测的前景分数作为输入特征。
三维目标检测网路则由步骤2.2提到的4个特征提取器构成,不同的是,最后一层的支持点只有1个。之后,将支持点特征输入两个不同的多层感知器。其中一个最终输出每个点的预测该目标框的置信度分数,另一个感知器完成回归偏移以及方向预测任务,得到预测三维框(x,y,z,h,w,l,θ)。
步骤4.2:通过损失函数
Figure BDA0002634844370000083
强化一级三维目标检测网络对目标的检测精度,损失函数为:
Figure BDA0002634844370000091
Figure BDA0002634844370000092
Figure BDA0002634844370000093
Figure BDA0002634844370000094
其中,
Figure BDA0002634844370000095
表示预测置信度损失函数,
Figure BDA0002634844370000096
表示三维框回归损失函数,
Figure BDA0002634844370000097
为网络对该目标框的预测置信度,CIoU为网络预测的三维框与标注中三维框的重合率,
Figure BDA0002634844370000098
是L1损失函数。
Figure BDA0002634844370000099
损失函数由两部分构成,一是x,y,z框的三维坐标和h,w,l三维框尺寸的回归预测,其中,ruu∈(x,y,z,h,w,l)是实际的残差,
Figure BDA00026348443700000910
u∈(x,y,z,h,w,l)网络预测的残差,使用L1损失函数
Figure BDA00026348443700000911
优化;二是θ框的方向角预测,使用角度bin-base损失函数,首先将360°航向角分成n个扇区,计算框的方向角对应的扇区bθ,使用交叉熵损失函数
Figure BDA00026348443700000912
优化块所属关系预测,计算扇区内剩余残差ru,u=θ,使用L1损失函数
Figure BDA00026348443700000913
进行优化。
Figure BDA00026348443700000914
是预测方向角对应的扇区,
Figure BDA00026348443700000915
u=θ表示预测的残差分量。本实施例中,选择n=12,即每个扇区30°。
步骤4.3:将三维目标检测网络在步骤3中的局部三维目标检测数据集的实例上进行训练优化。例如,具体参数和实施方法为:在一张Tesla V100 GPU上使用随机梯度下降法和Adam One cycle优化器来训练优化,设置三维目标检测网络的训练次数为40000次,初始的学习率被设置为0.002,指数衰减因子0.8。
步骤4.4:如果期望更高的检测精度,构建二级三维目标检测网络,连接在训练完成的一级目标检测网络后。
步骤4.5:如果进行步骤4.4,则将步骤3中的局部三维目标检测数据集输入一级目标检测网络,并将输出送入二级目标检测网络。
步骤4.6:如果进行步骤4.5,通过损失函数强化二级三维目标检测网络对目标的检测精度,此时将
Figure BDA00026348443700000916
计算时的CIoU改为由上一级目标检测网络预测的结果。
步骤4.7:如果二级目标检测网络的输出未达到检测精度的要求,依照步骤4.4-4.6继续级联更多检测网络。
为了说明级联网络带来的性能提升,本发明在车辆目标上进行了测试了不同级联数的检测器的性能:
表2目标检测网络不同级联数在KITTI验证集上的性能对比
Figure BDA0002634844370000101
可见,通过增加级联网络个数,可以进一步提升本方法的目标检测精度,但是这种增益是有限的,在级联三个网络后达到最大值,过多的级联网络将出现过拟合问题,从而导致性能下降。
为了验证本发明的定位效果,本发明在车辆目标上进行了测试,并其他现有检测器性能进行对比,以下统一使用三个级联网络输出本方法的预测结果:
表3目标检测网络性能与其他方法在KITTI验证集上的性能对比
Figure BDA0002634844370000102
表4目标检测网络性能与其他方法在KITTI测试集上的性能对比
Figure BDA0002634844370000111
可见,本发明与现有基于全监督框架的方法相比,能够在使用13%快速标注场景和3%精细三维框的情况下达到85~96%的目标检测精度。证明本方法能在减少标注消耗的情况下,基本完成同等精度的目标检测任务。
步骤5:将目标定位网络与目标检测网络依次连接,即本发明提出的基于弱监督框架的目标检测器。
如果期望较快的标注速度以控制标注成本,则使用步骤5中连接的网络对剩余未标注场景进行标注,即作为自动化三维目标标注工具工作,能够较精确地完成数据集的三维框标注工作。如图7所示,自动化三维目标标注工具的步骤如下:
首先,选取一个未进行完全标注的场景,将点云输入步骤5连接的网络中。由目标定位网络生成目标的定位信息。
然后,使用定位信息根据邻域范围生成局部点云。局部点云输入目标检测网络中取得自动化三维目标标注结果。
如果期望更高的标注精度,则使用步骤1的方法对整个数据集中剩余未标注场景进行标注,即通过人工标注来直接完成目标定位,再使用步骤4训练的目标检测网络完成检测任务,即作为半自动化三维目标标注工具工作,能够更精确地完成数据集的三维框标注工作。如图8所示,半自动三维目标标注工具的步骤如下:
首先,标注人员选取一个未标注的场景,进行步骤1的标注
然后,以标注人员指示的目标中心生成临域,进行局部点云提取。
之后,使用步骤2.1计算的点云前景分数,与点云特征叠加。
最后,将叠加后的点云输入步骤4训练完成后网络生成半自动标注结果。
两种工作方式下的标注精度如下表所示:
表5使用KITTI训练集训练标注工具,在KITTI验证集上运行与其他方法在KITTI验证集上的标注精度对比(以检测性能统计衡量)
Figure BDA0002634844370000121
可见,与现有的自动、半自动标注方法相比,本方法在全自动、半自动两种模式下均具有很大的性能优势。
使用人工、自动、半自动标注的数据集作为全监督算法的训练样本进行训练的结果如下表:
表6人工、自动、半自动标注的KITTI数据集训练现有算法后在验证集的性能对比
Figure BDA0002634844370000122
可见,使用本发明标注工具标注的数据集可以作为现有目标检测方法的训练集,能够在基本不损失性能的前提下完成这些框架的训练任务。

Claims (8)

1.一种基于弱标注的三维点云目标检测方法,其特征在于,包含以下步骤:
步骤1:使用弱标注方法;设数据集中共有N个未标注场景,N0<N;对N0个未标注的自动驾驶点云场景进行标注;通过标注,获得每一个目标中心在俯视图上的坐标(x,z),存储标注信息;
步骤2:使用基于俯视图标注的目标定位方法,构建目标定位网络。使用步骤1存储的标注信息对网络进行训练,使网络获得目标定位能力;
步骤3:N0个场景中共含有M个无标注的目标,M0<M;选择M0个无标注的目标,进行三维位置(x,y,z)、三维尺寸(h,w,l)、航向角θ共七个参数的三维框标注;将标注框临域内的点云以框为单位进行存储,每个点云点的特征除原有信息外,再增加目标定位网络输出的每个点的前景分数
Figure FDA0002634844360000011
并一同存储,形成局部三维检测数据集;
步骤4:使用基于少量标注的目标检测方法构建目标检测网络,使用步骤3中存储的信息进行训练,使网络获得目标检测能力;
步骤5:将目标定位网络与目标检测网络依次连接,构成基于弱监督框架的目标检测;
如果期望获得较快标注速度以控制标注成本,则使用步骤5中连接的网络对剩余未标注场景进行标注,即,作为自动化三维目标标注工具工作,能够较精确地完成数据集的三维框标注工作;
如果期望获得高标注精度,则使用步骤1的方法,对整个数据集中剩余未标注场景进行标注,即通过人工标注直接完成目标定位,再使用步骤4训练的目标检测网络完成检测任务,即作为半自动化三维目标标注工具工作,能够更精确地完成数据集的三维框标注工作。
2.如权利要求1所述的一种基于弱标注的三维点云目标检测方法,其特征在于,步骤1所述标注方法,包括以下步骤:
步骤1.1:标注人员点击相机视图上需要标注的目标;
步骤1.2:程序根据点云和相机的投影关系取得距离点击位置最近的点云点,并显示一个以该点为中心的局部俯视图;
步骤1.3:标注人员在局部俯视图上选取目标较精确的中心位置,完成单个目标的快速鸟瞰标注过程;
步骤1.4:重复步骤1.1-1.3,标注该场景中所有可见目标,并切换场景将N0个场景全部进行快速俯视图标注,将标注信息进行存储,取得快速俯视图标注,最终获得快速俯视图标注的数据集。
3.如权利要求1所述的一种基于弱标注的三维点云目标检测方法,其特征在于,步骤2所述目标定位方法,包括以下步骤:
步骤2.1:使用快速俯视图标注确定目标中心,对每一个点云点生成前景分数标签;
步骤2.2:构建目标定位网络,以点云作为输入;
步骤2.3:以步骤1生成的俯视图标注作为训练目标,并使用步骤2.1生成的前景分数标签构建损失函数,通过损失函数强化目标定位网络对于目标的敏感程度;
步骤2.4:优化目标定位网络。
4.如权利要求1所述的一种基于弱标注的三维点云目标检测方法,其特征在于,步骤4所述基于少量标注的目标检测方法,包括以下步骤:
步骤4.1:构建一级三维目标检测网络,并将步骤3中的局部三维目标检测数据集作为输入;
步骤4.2:通过损失函数强化一级三维目标检测网络对目标的检测精度;
步骤4.3:优化一级三维目标检测网络;
步骤4.4:如果期望更高的检测精度,则构建二级三维目标检测网络,连接在训练完成的一级目标检测网络后;
步骤4.5:如果进行步骤4.4,则将步骤3中的局部三维目标检测数据集输入一级目标检测网络,并将输出送入二级目标检测网络;
步骤4.6:如果进行步骤4.5,固定除最后一级网络外的所有网络权重参数,通过损失函数强化二级三维目标检测网络对目标的检测精度;
步骤4.7:如果二级目标检测网络的输出未达到检测精度的要求,可依照步骤4.4-4.6继续级联更多检测网络。
5.如权利要求1所述的一种基于弱标注的三维点云目标检测方法,其特征在于,步骤5所述自动化三维目标标注工具实现方法,包括以下步骤:
首先,选取一个未标注的场景,将点云输入步骤5连接的网络中,由目标定位网络生成目标的定位信息;
然后,使用定位信息根据邻域范围生成局部点云,局部点云输入目标检测网络中取得自动化三维目标标注结果。
6.如权利要求1所述的一种基于弱标注的三维点云目标检测方法,其特征在于,步骤5所述所述半自动化三维目标标注工具实现方法,包括以下步骤:
首先,标注人员选取一个未标注的场景,进行步骤1的标注;
然后,以标注人员指示的目标中心生成临域,进行局部点云提取;
之后,使用步骤2计算的点云前景分数,与点云特征叠加;
最后,将叠加后的点云输入步骤4训练完成后网络生成半自动标注结果。
7.如权利要求3所述的一种基于弱标注的三维点云目标检测方法,其特征在于:
所述步骤2.1中,标签以0~1之间的一个小数来体现,标签分数越高代表该点是前景点的可能性越高,反之则是越低,由此生成伪点云标签;
每一个点云点p的前景分数将取该点对场景中所有标注
Figure FDA0002634844360000034
计算得的最大值作为最终前景分数,前景分数fp通过以下公式计算:
Figure FDA0002634844360000035
Figure FDA0002634844360000031
对于场景中任意一个点云点p,它相对于某一个标注o的前景分数为ι(p,o);其中,
Figure FDA0002634844360000032
是一个均值为0、方差1.5的高斯分布,d(p,o)是点云点距离标注中心的加权距离,单位为米;加权距离计算公式:
Figure FDA0002634844360000033
其中,xp、xo表示点云点和标注点的x轴位置,yp、yo、zp、zo分别表示y、z轴上的对应变量;
所述步骤2.2构建的目标定位网络,由特征提取器和特征传播器依次连接构成,二者分别由多个特征提取模块和多个特征传播模块连接构成,其中,特征提取模块负责将点云点或支持点特征抽象为对应更大范围支持点的局部特征,特征传播模块负责将支持点的局部特征传播到对应较小局部的支持点特征或点云点;
其中,特征提取模块包含多层感知器、点云/支持点采样器和特征聚合器;多层感知器由三个一维卷积层、三个批标准化层和三个非线性激活层相互穿插而成,取得每一个点云点/支持点的深度特征;点云/支持点采样器使用最远点采样策略对点云/支持点集进行下采样,生成深层的支持点集;特征聚合层根据不同的聚合半径,对范围内的点云/支持点特征进行通道方向的最大值池化操作,将本层点云点/支持点的深度特征传递到深层的支持点上;
特征传播模块包括范围插值器、特征融合器和多层感知器;其中,范围插值器使用相邻两层支持点的三维空间距离为权重,每个浅层支持点/点云点的插值特征由聚合半径内的深层支持点特征通过插值计算得出;特征融合器将对应深度的特征提取器的输入和范围插值器的插值特征堆叠在一起,再通过与前述结构相同但权重不同的多层感知器,取得浅层支持点/点云点的特征;
最终,网络将计算并输出每个点云点的特征;使用两个不同的多层感知器分别完成,其中一个多层感知器回归每个点的预测前景分数,另一个多层感知器回归每一个点向距离最近的目标中心的坐标偏移;
步骤2.3中,以步骤1生成的俯视图标注作为训练目标,并使用步骤2.1生成的前景分数标签构建损失函数
Figure FDA0002634844360000041
通过损失函数强化目标定位网络对于目标的敏感程度,损失函数如下:
Figure FDA0002634844360000042
其中,
Figure FDA0002634844360000043
表示前背景分数损失函数,
Figure FDA0002634844360000044
表示目标定位能力损失函数;
前背景分数损失函数
Figure FDA0002634844360000045
使用软性focal loss训练:
Figure FDA0002634844360000046
其中,参数α=0.25,γ=2,
Figure FDA0002634844360000047
是网络预测的分数,fp是计算得到的前景分数,
Figure FDA0002634844360000048
是加权分数;
目标定位损失函数
Figure FDA0002634844360000049
是一个bin-based损失函数:
Figure FDA00026348443600000410
Figure FDA00026348443600000411
Figure FDA00026348443600000412
bin-base损失函数由两部分构成,首先将定位偏移量范围L分成多个块,每个块大小为δ,计算偏移量对应的块bu,使用交叉熵损失函数
Figure FDA0002634844360000051
优化块所属关系预测,计算块内剩余残差ru,使用L1损失函数
Figure FDA0002634844360000052
进行优化;其中,
Figure FDA0002634844360000053
是网络的预测值,uo表示目标中心坐标,up表示当前点云点坐标,ε是尺度缩放参数;偏移量L沿x、z两个方向对称。
8.如权利要求4所述的一种基于弱标注的三维点云目标检测方法,其特征在于:
所述步骤4.1,具体地,局部三维目标检测数据集中的每个实例包含:该标注中心坐标,步骤3标注的对应标注框,中心从俯视图观察半径4米内的所有点云点,每个点云点上除三维坐标外还包含步骤3网络预测的前景分数作为输入特征;
三维目标检测网路由4个特征提取器构成,不同的是,最后一层的支持点只有1个;之后,将支持点特征输入两个不同的多层感知器;其中,一个最终输出每个点的预测该目标框的置信度分数,另一个感知器完成回归偏移以及方向预测任务,得到预测三维框(x,y,z,h,w,l,θ);
所述步骤4.2,通过损失函数
Figure FDA0002634844360000054
强化一级三维目标检测网络对目标的检测精度,损失函数为:
Figure FDA0002634844360000055
Figure FDA0002634844360000056
Figure FDA0002634844360000057
Figure FDA0002634844360000058
其中,
Figure FDA0002634844360000059
表示预测置信度损失函数,
Figure FDA00026348443600000510
表示三维框回归损失函数,
Figure FDA00026348443600000511
为网络对该目标框的预测置信度,CIoU为网络预测的三维框与标注中三维框的重合率,
Figure FDA00026348443600000512
是L1损失函数;
Figure FDA00026348443600000513
损失函数由两部分构成,一是x,y,z框的三维坐标和h,w,l三维框尺寸的回归预测,其中,ru,u∈(x,y,z,h,w,l)是实际的残差,
Figure FDA00026348443600000514
u∈(x,y,z,h,w,l)网络预测的残差,使用L1损失函数
Figure FDA00026348443600000515
优化;二是θ框的方向角预测,使用角度bin-base损失函数,首先将360°航向角分成n个扇区,计算框的方向角对应的扇区bθ,使用交叉熵损失函数
Figure FDA00026348443600000516
优化块所属关系预测,计算扇区内剩余残差ru,u=θ,使用L1损失函数
Figure FDA0002634844360000061
进行优化,
Figure FDA0002634844360000062
是预测方向角对应的扇区,
Figure FDA0002634844360000063
u=θ表示预测的残差分量。
CN202010822668.XA 2020-07-16 2020-08-16 一种基于弱标注的三维点云目标检测方法及标注工具 Active CN111915746B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010683844 2020-07-16
CN2020106838446 2020-07-16

Publications (2)

Publication Number Publication Date
CN111915746A true CN111915746A (zh) 2020-11-10
CN111915746B CN111915746B (zh) 2022-09-13

Family

ID=73278099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010822668.XA Active CN111915746B (zh) 2020-07-16 2020-08-16 一种基于弱标注的三维点云目标检测方法及标注工具

Country Status (1)

Country Link
CN (1) CN111915746B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734931A (zh) * 2020-12-31 2021-04-30 罗普特科技集团股份有限公司 一种辅助点云目标检测的方法及***
CN113362444A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 点云数据的生成方法、装置、电子设备及存储介质
CN113822159A (zh) * 2021-08-20 2021-12-21 杭州飞步科技有限公司 三维目标检测方法、装置和计算机
CN114067091A (zh) * 2022-01-17 2022-02-18 深圳慧拓无限科技有限公司 一种多源数据标注方法、***、电子设备和存储介质
CN114399731A (zh) * 2021-12-31 2022-04-26 中国科学院大学 一种单粗点监督下的目标定位方法
CN115880685A (zh) * 2022-12-09 2023-03-31 之江实验室 一种基于votenet模型的三维目标检测方法和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018137357A1 (zh) * 2017-01-24 2018-08-02 北京大学 一种目标检测性能优化的方法
CN110264468A (zh) * 2019-08-14 2019-09-20 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备
CN110349148A (zh) * 2019-07-11 2019-10-18 电子科技大学 一种基于弱监督学习的图像目标检测方法
CN110751090A (zh) * 2019-10-18 2020-02-04 宁波博登智能科技有限责任公司 一种三维点云标注方法、装置及电子设备
CN111028224A (zh) * 2019-12-12 2020-04-17 广西医准智能科技有限公司 数据标注、模型训练和图像处理方法、装置及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018137357A1 (zh) * 2017-01-24 2018-08-02 北京大学 一种目标检测性能优化的方法
CN110349148A (zh) * 2019-07-11 2019-10-18 电子科技大学 一种基于弱监督学习的图像目标检测方法
CN110264468A (zh) * 2019-08-14 2019-09-20 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备
CN110751090A (zh) * 2019-10-18 2020-02-04 宁波博登智能科技有限责任公司 一种三维点云标注方法、装置及电子设备
CN111028224A (zh) * 2019-12-12 2020-04-17 广西医准智能科技有限公司 数据标注、模型训练和图像处理方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郑宝玉等: "基于深度卷积神经网络的弱监督图像语义分割", 《南京邮电大学学报(自然科学版)》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112734931A (zh) * 2020-12-31 2021-04-30 罗普特科技集团股份有限公司 一种辅助点云目标检测的方法及***
CN112734931B (zh) * 2020-12-31 2021-12-07 罗普特科技集团股份有限公司 一种辅助点云目标检测的方法及***
WO2022141718A1 (zh) * 2020-12-31 2022-07-07 罗普特科技集团股份有限公司 一种辅助点云目标检测的方法及***
CN113362444A (zh) * 2021-05-21 2021-09-07 北京百度网讯科技有限公司 点云数据的生成方法、装置、电子设备及存储介质
CN113362444B (zh) * 2021-05-21 2023-06-16 北京百度网讯科技有限公司 点云数据的生成方法、装置、电子设备及存储介质
CN113822159A (zh) * 2021-08-20 2021-12-21 杭州飞步科技有限公司 三维目标检测方法、装置和计算机
CN113822159B (zh) * 2021-08-20 2023-09-22 杭州飞步科技有限公司 三维目标检测方法、装置和计算机
CN114399731A (zh) * 2021-12-31 2022-04-26 中国科学院大学 一种单粗点监督下的目标定位方法
CN114399731B (zh) * 2021-12-31 2022-12-20 中国科学院大学 一种单粗点监督下的目标定位方法
CN114067091A (zh) * 2022-01-17 2022-02-18 深圳慧拓无限科技有限公司 一种多源数据标注方法、***、电子设备和存储介质
CN115880685A (zh) * 2022-12-09 2023-03-31 之江实验室 一种基于votenet模型的三维目标检测方法和***
CN115880685B (zh) * 2022-12-09 2024-02-13 之江实验室 一种基于votenet模型的三维目标检测方法和***

Also Published As

Publication number Publication date
CN111915746B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN111915746B (zh) 一种基于弱标注的三维点云目标检测方法及标注工具
CN109508681B (zh) 生成人体关键点检测模型的方法和装置
CN110378222B (zh) 一种输电线路防震锤目标检测与缺陷识别方法及装置
Zhang et al. Detection of surface defects on solar cells by fusing Multi-channel convolution neural networks
CN103324937B (zh) 标注目标的方法和装置
Hou et al. Detecting structural components of building engineering based on deep-learning method
CN112164038A (zh) 一种基于深度卷积神经网络的光伏热斑检测方法
CN109313717A (zh) 一种在神经网络中用于对象检测的模型构建
CN114638784A (zh) 一种基于fe-yolo的铜管表面缺陷检测方法及装置
CN107481279A (zh) 一种单目视频深度图计算方法
CN110084304A (zh) 一种基于合成数据集的目标检测方法
CN111242144B (zh) 电网设备异常的检测方法和装置
CN107948586B (zh) 基于视频拼接的跨区域运动目标检测方法和装置
CN117152484B (zh) 基于改进的YOLOv5s的小目标布匹瑕疵检测方法
CN114511710A (zh) 一种基于卷积神经网络的图像目标检测方法
CN112529005A (zh) 基于语义特征一致性监督金字塔网络的目标检测方法
CN111739037B (zh) 一种针对室内场景rgb-d图像的语义分割方法
CN112669452B (zh) 一种基于卷积神经网络多分支结构的物体定位方法
Sun et al. Decoupled feature pyramid learning for multi-scale object detection in low-altitude remote sensing images
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
CN116310293B (zh) 一种基于弱监督学习的生成高质量候选框目标检测方法
CN113066074A (zh) 一种基于双目视差偏移融合的视觉显著性预测方法
CN112861867A (zh) 指针式仪表盘识别方法、***及存储介质
CN113096104A (zh) 目标分割模型的训练方法及装置和目标分割方法及装置
Hattak et al. Benchmarking YOLO Models for Automatic Reading in Smart Metering Systems: A Performance Comparison Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant