CN115880685A - 一种基于votenet模型的三维目标检测方法和*** - Google Patents

一种基于votenet模型的三维目标检测方法和*** Download PDF

Info

Publication number
CN115880685A
CN115880685A CN202211577601.XA CN202211577601A CN115880685A CN 115880685 A CN115880685 A CN 115880685A CN 202211577601 A CN202211577601 A CN 202211577601A CN 115880685 A CN115880685 A CN 115880685A
Authority
CN
China
Prior art keywords
model
point
votnet
loss function
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211577601.XA
Other languages
English (en)
Other versions
CN115880685B (zh
Inventor
杨嵘
李特
宛敏红
张春龙
朱世强
王文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202211577601.XA priority Critical patent/CN115880685B/zh
Publication of CN115880685A publication Critical patent/CN115880685A/zh
Priority to PCT/CN2023/101754 priority patent/WO2024119776A1/zh
Application granted granted Critical
Publication of CN115880685B publication Critical patent/CN115880685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于votenet模型的三维目标检测方法,包括:构建votenet模型;针对感兴趣目标构建用于训练votenet模型的点云数据集;构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;基于构建的点云数据集和损失函数训练votenet模型;使用RGB‑D相机获取待检测场景的点云数据;基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。本发明可以在不增加模型推理延时的前提下,有效降低三维目标检测结果的虚警率。

Description

一种基于votenet模型的三维目标检测方法和***
技术领域
本发明涉及室内三维目标检测领域,特别是一种基于votenet模型的三维目标检测方法。
背景技术
目标检测算法应用广泛,一直是计算机视觉领域备受关注的研究热点。近年来,随着深度学习的发展,图像的目标检测研究取得了巨大的突破,与二维目标检测技术相比,三维目标检测技术结合了深度信息,能够提供目标的位置、方向和大小等空间场景信息,在自动驾驶和机器人领域发展迅速。当前基于votenet模型的三维目标检测方法的检测召回率较高,但votenet模型生成的非目标表面的种子点在经过位移处理后容易出现在多个目标之间的区域,当目标之间距离过近时,这将导致votenet模型生成的某些聚合点所聚合的邻域点可能混杂了不同目标的特征,导致聚集到的特征的前景语义特征明显,但定位精度极差,从而生成置信度较高的虚警目标。目前已有的方法一般通过对检测结果进行精细化处理从而降低检测结果的虚警率,但额外的精细化处理不可避免地会带来额外的计算量,增加推理耗时。如何在不额外增加推理耗时的前提下抑制虚警目标的产生,是三维目标检测技术面临的一大挑战。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于votenet模型的三维目标检测方法。与其他基于votenet模型的三维目标检测方法相比,本方法不增加模型推理耗时,且检测虚警率低,检测召回率高。
本发明的目的是通过以下技术方案来实现的:一种基于votenet模型的三维目标检测方法,包括如下步骤:
步骤一:构建votenet模型;
步骤二:针对感兴趣目标构建用于训练votenet模型的点云数据集;
步骤三:构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
步骤四:基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;
步骤五:基于构建的点云数据集和损失函数训练votenet模型;
步骤六:使用RGB-D相机获取待检测场景的点云数据;
步骤七:基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。
进一步,步骤一中,按照votenet论文中描述的构建方式构建votenet模型。
进一步,步骤二中,所述的点云数据集指的是多个包含感兴趣目标的点云数据样本及样本中每个感兴趣目标的三维矩形包围框的标注信息。点云数据可以来自于多种传感器。
进一步地,所述步骤三中,对于每个训练样本,种子点位移损失函数通过以下子步骤来实现:
(3.1)将该训练样本的点云数据输入votenet模型,得到votenet模型提取的种子点坐标以及votenet模型预测的每个种子点的坐标偏移量;
(3.2)设该训练样本总共包含nt个目标,对于第i∈[1,nt]个目标,设该目标的真实三维矩形包围框Boxi=(xi,yi,zi,li,wi,hii),其中xi,yi,zi为该包围框的中心点坐标,li,wi,hi为该包围框的长度、宽度和高度,θi为该包围框的朝向角,对于每个目标的真实三维矩形包围框Boxi,生成一个与该包围框中心点坐标相同,朝向角相同,但长宽高分别扩大k倍的三维矩形框
Figure BDA0003989516210000021
Figure BDA0003989516210000022
(3.3)设种子点的总个数为ns,遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设种子点Pj在三维空间中的坐标为(xj,yj,zj),针对种子点Pj遍历全体目标的真实三维矩形包围框Boxi,i∈[1,nt],当种子点Pj的坐标(xj,yj,zj)处于某个真实三维矩形包围框Boxi的内部或者外表面上时,为该种子点生成一个对应的目标点Tj,该目标点Tj的坐标值等于真实三维矩形包围框Boxi的中心点坐标值(xi,yi,zi),如果种子点Pj的坐标(xj,yj,zj)处于多个真实三维矩形包围框的内部或者外表面,则目标点Tj的坐标值等于上述真实三维矩形包围框的中心点中距离种子点Pj最近的那个三维矩形包围框中心点坐标;
(3.4)设没有对应目标点的种子点个数为n′s,遍历全体没有对应目标点的种子点,对于第j∈[1,n′s]个种子点Pj,针对种子点Pj遍历全体膨胀后的三维矩形包围框
Figure BDA0003989516210000031
当种子点Pj的坐标(xj,yj,zj)处于某个膨胀后的三维矩形包围框/>
Figure BDA0003989516210000032
的内部或者外表面上时,为该种子点生成一个对应的目标点Vj,该目标点Vj的坐标值等于种子点Pj的坐标值(xj,yj,zj)
(3.5)遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设votenet模型为该种子点预测的坐标偏移量为(Δxj,Δyj,Δzj),如果种子点Pj存在对应的目标点Tj或者目标点Vj,则为种子点Pj生成一个对应的预测点Qj,预测点Qj的坐标值为(xj+Δxj,yj+Δyj,zj+Δzj);
(3.6)计算种子点位移损失Lvote-reg,设PTk表示存在目标点Tk的种子点Pk,PTk的总个数为nT,PVm表示存在目标点Vm的种子点Pm,PVm的总个数为nV,D(A,B)表示A点和B点在三维空间中的距离,α为平衡因子,则种子点位移损失的具体计算方式为:
Figure BDA0003989516210000033
本发明还包括一种基于votenet模型的三维目标检测***,包括:
votenet模型构建模块,用于构建votenet模型;
点云数据集构建模块,用于针对感兴趣目标构建用于训练votenet模型的点云数据集;
种子点位移损失函数构建模块,构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
其他损失函数构建模块,用于基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;
votenet模型构建模块,用于基于构建的点云数据集和损失函数训练votenet模型;
待检测场景的点云数据获取模块,用于使用RGB-D相机获取待检测场景的点云数据;
结果输出模块,用于基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。
本发明还包括一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现本发明的一种基于votenet模型的三维目标检测方法。
本发明方法针对室内目标的三维空间定位问题,可以得到相机视野内特定目标在三维空间中的位置坐标。该发明构建基于双层嵌套三维矩形框空间划分的种子点位移损失计算方法,防止votenet模型中位于目标附近背景区域的种子点在位移阶段移动到目标中心区域附近,从而避免了votenet模型在投票点聚合阶段生成置信度较高但与目标重合度较低的候选框。相对于其他基于votenent模型的三维目标检测方法,本发明可以在不增加模型推理延时的前提下,有效降低三维目标检测结果的虚警率。
本发明的有益效果是,降低了votenet模型中背景种子点位移到多个目标中间的概率,降低了检测结果的虚警率。相对于基于单层三维矩形框的种子点划分方法,本方法有效避免了因样本标注不完整而导致的错误监督信号,进一步提高了检测结果的召回率。本发明不会在votenet模型的推理阶段引入额外的计算量,在不增加模型推理耗时的前提下,解决了当前基于votenet模型的三维目标检测方法的高虚警率问题。
附图说明
图1为在一个示例性实施例中示出的本申请实施例三维目标检测方法流程图;
图2为在一个示例性实施例中示出的目标三维矩形包围框的示意图;
图3为在一个示例性实施例中示出的将深度图转换成点云数据的示意图;
图4为在一个示例性实施例中示出的基于双层嵌套三维矩形框空间划分的种子点位移损失函数实现方法;
图5是在一个示例性实施例中示出的本申请的***结构示意图。
具体实施方式
以下结合具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为本申请一个实施例中针对椅子类目标的三维目标检测方法的示意图,包括如下步骤:
步骤S101:构建votenet模型。
所述votenet模型是公开发表的votenet论文中的votenet模型,优选的,可以直接按照votenet论文中描述的构建方式构建votenet模型。
步骤S102:针对椅子类目标构建用于训练votenet模型的点云数据集;
所述的点云数据集指的是多个包含椅子类目标的点云数据样本及样本中每个椅子类目标的三维矩形包围框的标注信息,优选的,可以直接使用公开的SUN RGB-D数据集。
在一个示例性的实施例中,如图2所示,三维矩形包围框应完整包裹三维空间中的目标。
步骤S103:构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
步骤S104:构建用于训练votenet模型的其他损失函数;
所述用于训练votenet模型的其他损失函数,是指的votenet模型的前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数,优选的,可以直接按照votenet论文中描述的构建方式构建votenet模型的前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数。
步骤S105:基于构建的点云数据集和损失函数训练votenet模型;
所述训练指的是利用反向传播算法来获取经过优化的votenet模型参数,优选的,可以使用SGD算法实现votenet模型参数的更新过程。
步骤S106:使用RGB-D相机获取待检测场景的点云数据;
所述点云数据指的是根据RGB-D相机的内参将RGB-D相机生成的深度图像像素投影到三维空间所生成的点云数据。在一个示例性的实施例中,如图3所示,RGB-D相机生成的深度图像被投影到三维空间中,形成点云数据。
步骤S107:基于待检测场景的点云数据,经过votenet模型,输出椅子类目标的三维目标检测结果。
在一个示例性的实施例中,如图4所示,对于每个训练样本,基于双层嵌套三维矩形框空间划分的种子点位移损失函数的计算步骤如下:
步骤S201:将该训练样本的点云数据输入votenet模型,得到votenet模型提取的种子点坐标以及votenet模型预测的每个种子点的坐标偏移量;
步骤S202:设该训练样本总共包含nt个目标,对于第i∈[1,nt]个目标,设该目标的真实三维矩形包围框Boxi=(xi,yi,zi,li,wi,hii),其中xi,yi,zi为该包围框的中心点坐标,li,wi,hi为该包围框的长度、宽度和高度,θi为该包围框的朝向角,对于每个目标的真实三维矩形包围框Boxi,生成一个与该包围框中心点坐标相同,朝向角相同,但长宽高分别扩大k倍的三维矩形框
Figure BDA0003989516210000061
Figure BDA0003989516210000062
所述扩大k倍的三维矩形框
Figure BDA0003989516210000063
中,k一般取[1,2]之间的一个实数,优选的,可以取k=1.5。
步骤S203:设种子点的总个数为ns,遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设种子点Pj在三维空间中的坐标为(xj,yj,zj),针对种子点Pj遍历全体目标的真实三维矩形包围框Boxi,i∈[1,nt],当种子点Pj的坐标(xj,yj,zj)处于某个真实三维矩形包围框Boxi的内部或者外表面上时,为该种子点生成一个对应的目标点Tj,该目标点Tj的坐标值等于真实三维矩形包围框Boxi的中心点坐标值(xi,yi,zi),如果种子点Pj的坐标(xj,yj,zj)处于多个真实三维矩形包围框的内部或者外表面,则目标点Tj的坐标值等于上述真实三维矩形包围框的中心点中距离种子点Pj最近的那个三维矩形包围框中心点坐标;
步骤S204:设没有对应目标点的种子点个数为n′s,遍历全体没有对应目标点的种子点,对于第j∈[1,n s]个种子点Pj,针对种子点Pj遍历全体膨胀后的三维矩形包围框
Figure BDA0003989516210000064
当种子点Pj的坐标(xj,yj,zj)处于某个膨胀后的三维矩形包围框/>
Figure BDA0003989516210000065
的内部或者外表面上时,为该种子点生成一个对应的目标点Vj,该目标点Vj的坐标值等于种子点Pj的坐标值(xj,yj,zj);
步骤S205:遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设votenet模型为该种子点预测的坐标偏移量为(Δxj,Δyj,Δzj),如果种子点Pj存在对应的目标点Tj或者目标点Vj,则为种子点Pj生成一个对应的预测点Qj,预测点Qj的坐标值为(xj+Δxj,yj+Δyj,zj+Δzj);
步骤S206:计算种子点位移损失Lvote-reg,设PTk表示存在目标点Tk的种子点Pk,PTk的总个数为nT,PVm表示存在目标点Vm的种子点Pm,PVm的总个数为nV,D(A,B)表示A点和B点在三维空间中的距离,α为平衡因子,则种子点位移损失Lvote-reg的具体计算方式为:
Figure BDA0003989516210000071
所述平衡因子α用于平衡不同类型的种子点的位移损失,优选的,可以取α=0.1。
本发明还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种基于votenet模型的三维目标检测方法。
本发明还提供了图5所示的一种对应于图1的一种基于votenet模型的三维目标检测***的示意结构图。本发明的一种基于votenet模型的三维目标检测***,包括:
votenet模型构建模块,用于构建votenet模型;
点云数据集构建模块,用于针对感兴趣目标构建用于训练votenet模型的点云数据集;
种子点位移损失函数构建模块,构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
其他损失函数构建模块,用于基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;
votenet模型构建模块,用于基于构建的点云数据集和损失函数训练votenet模型;
待检测场景的点云数据获取模块,用于使用RGB-D相机获取待检测场景的点云数据;
结果输出模块,用于基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。
如图5所述,在硬件层面,该一种基于votenet模型的三维目标检测***包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的数据采集的方法。当然,除了软件实现方式之外,本发明并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device,PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logiccompiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware DescriptionLanguage,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced BooleanExpression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java HardwareDescription Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware DescriptionLanguage)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated CircuitHardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本发明的实施例可提供为方法、***或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本发明中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (10)

1.一种基于votenet模型的三维目标检测方法,包括如下步骤:
步骤一:构建votenet模型;
步骤二:针对感兴趣目标构建用于训练votenet模型的点云数据集;
步骤三:构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
步骤四:基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;
步骤五:基于构建的点云数据集和损失函数训练votenet模型;
步骤六:使用RGB-D相机获取待检测场景的点云数据;
步骤七:基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。
2.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:步骤一中,按照votenet论文中描述的构建方式构建votenet模型。
3.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:步骤二中,所述的点云数据集指的是多个包含感兴趣目标的点云数据样本及样本中每个感兴趣目标的三维矩形包围框的标注信息。
4.如权利要求3所述的一种基于votenet模型的三维目标检测方法,其特征在于:点云数据可以来自于多种传感器。
5.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:所述步骤三中,对于每个训练样本,种子点位移损失函数通过以下子步骤来实现:
(3.1)将该训练样本的点云数据输入votenet模型,得到votenet模型提取的种子点坐标以及votenet模型预测的每个种子点的坐标偏移量;
(3.2)设该训练样本总共包含nt个目标,对于第i∈[1,nt]个目标,设该目标的真实三维矩形包围框Boxi=(xi,yi,zi,li,wi,hi,θi),其中xi,yi,zi为该包围框的中心点坐标,li,wi,hi为该包围框的长度、宽度和高度,θi为该包围框的朝向角,对于每个目标的真实三维矩形包围框Boxi,生成一个与该包围框中心点坐标相同,朝向角相同,但长宽高分别扩大k倍的三维矩形框
Figure FDA0003989516200000011
Figure FDA0003989516200000012
(3.3)设种子点的总个数为ns,遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设种子点Pj在三维空间中的坐标为(xj,yj,zj),针对种子点Pj遍历全体目标的真实三维矩形包围框Boxi,i∈[1,nt],当种子点Pj的坐标(xj,yj,zj)处于某个真实三维矩形包围框Boxi的内部或者外表面上时,为该种子点生成一个对应的目标点Tj,该目标点Tj的坐标值等于真实三维矩形包围框Boxi的中心点坐标值(xi,yi,zi),如果种子点Pj的坐标(xj,yj,zj)处于多个真实三维矩形包围框的内部或者外表面,则目标点Tj的坐标值等于上述真实三维矩形包围框的中心点中距离种子点Pj最近的那个三维矩形包围框中心点坐标;
(3.4)设没有对应目标点的种子点个数为n′s,遍历全体没有对应目标点的种子点,对于第j∈[1,n′s]个种子点Pj,针对种子点Pj遍历全体膨胀后的三维矩形包围框
Figure FDA0003989516200000021
当种子点Pj的坐标(xj,yj,zj)处于某个膨胀后的三维矩形包围框/>
Figure FDA0003989516200000022
的内部或者外表面上时,为该种子点生成一个对应的目标点Vj,该目标点Vj的坐标值等于种子点Pj的坐标值(xj,yj,zj);
(3.5)遍历全体种子点,对于第j∈[1,ns]个种子点Pj,设votenet模型为该种子点预测的坐标偏移量为(Δxj,Δyj,Δzj),如果种子点Pj存在对应的目标点Tj或者目标点Vj,则为种子点Pj生成一个对应的预测点Qj,预测点Qj的坐标值为(xj+Δxj,yj+Δyj,zj+Δzj);
(3.6)计算种子点位移损失Lvote-reg,设PTk表示存在目标点Tk的种子点Pk,PTk的总个数为nT,PVm表示存在目标点Vm的种子点Pm,PVm的总个数为nV,D(A,B)表示A点和B点在三维空间中的距离,α为平衡因子,则种子点位移损失的具体计算方式为:
Figure FDA0003989516200000023
6.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:所述步骤四中,所述用于训练votenet模型的其他损失函数,是指的votenet模型的前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数,优选的,可以直接按照votenet论文中描述的构建方式构建votenet模型的前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数。
7.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:所述步骤五所述训练指的是利用反向传播算法来获取经过优化的votenet模型参数。
8.如权利要求1所述的一种基于votenet模型的三维目标检测方法,其特征在于:步骤六所述点云数据指的是根据RGB-D相机的内参将RGB-D相机生成的深度图像像素投影到三维空间所生成的点云数据。
9.一种基于votenet模型的三维目标检测***,其特征在于:包括:
votenet模型构建模块,用于构建votenet模型;
点云数据集构建模块,用于针对感兴趣目标构建用于训练votenet模型的点云数据集;
种子点位移损失函数构建模块,构建用于训练votenet模型的基于双层嵌套三维矩形框空间划分的种子点位移损失函数;
其他损失函数构建模块,用于基于votenet模型原方法构建用于训练votenet模型的其他损失函数,包括前景背景分类损失函数、中心偏移量损失函数、尺寸偏移量损失函数以及朝向角偏移量损失函数;
votenet模型构建模块,用于基于构建的点云数据集和损失函数训练votenet模型;
待检测场景的点云数据获取模块,用于使用RGB-D相机获取待检测场景的点云数据;
结果输出模块,用于基于待检测场景的点云数据,经过votenet模型,输出感兴趣目标的三维目标检测结果。
10.一种计算机可读存储介质,其特征在于,其上存储有程序,该程序被处理器执行时,实现权利要求1-8中任一项所述的一种基于votenet模型的三维目标检测方法。
CN202211577601.XA 2022-12-09 2022-12-09 一种基于votenet模型的三维目标检测方法和*** Active CN115880685B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211577601.XA CN115880685B (zh) 2022-12-09 2022-12-09 一种基于votenet模型的三维目标检测方法和***
PCT/CN2023/101754 WO2024119776A1 (zh) 2022-12-09 2023-06-21 一种基于votenet模型的三维目标检测方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211577601.XA CN115880685B (zh) 2022-12-09 2022-12-09 一种基于votenet模型的三维目标检测方法和***

Publications (2)

Publication Number Publication Date
CN115880685A true CN115880685A (zh) 2023-03-31
CN115880685B CN115880685B (zh) 2024-02-13

Family

ID=85766720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211577601.XA Active CN115880685B (zh) 2022-12-09 2022-12-09 一种基于votenet模型的三维目标检测方法和***

Country Status (2)

Country Link
CN (1) CN115880685B (zh)
WO (1) WO2024119776A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024119776A1 (zh) * 2022-12-09 2024-06-13 之江实验室 一种基于votenet模型的三维目标检测方法和***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151109A1 (zh) * 2019-01-22 2020-07-30 中国科学院自动化研究所 基于点云带权通道特征的三维目标检测方法及***
CN111915746A (zh) * 2020-07-16 2020-11-10 北京理工大学 一种基于弱标注的三维点云目标检测方法及标注工具
US20210279950A1 (en) * 2020-03-04 2021-09-09 Magic Leap, Inc. Systems and methods for efficient floorplan generation from 3d scans of indoor scenes
CN113706689A (zh) * 2021-08-04 2021-11-26 西安交通大学 一种基于Hololens深度数据的装配指导方法及***
WO2022088676A1 (zh) * 2020-10-29 2022-05-05 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN114863228A (zh) * 2022-03-24 2022-08-05 南京航空航天大学 一种基于机器视觉的机场特种车辆避障方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880685B (zh) * 2022-12-09 2024-02-13 之江实验室 一种基于votenet模型的三维目标检测方法和***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151109A1 (zh) * 2019-01-22 2020-07-30 中国科学院自动化研究所 基于点云带权通道特征的三维目标检测方法及***
US20210279950A1 (en) * 2020-03-04 2021-09-09 Magic Leap, Inc. Systems and methods for efficient floorplan generation from 3d scans of indoor scenes
CN111915746A (zh) * 2020-07-16 2020-11-10 北京理工大学 一种基于弱标注的三维点云目标检测方法及标注工具
WO2022088676A1 (zh) * 2020-10-29 2022-05-05 平安科技(深圳)有限公司 三维点云语义分割方法、装置、设备及介质
CN113706689A (zh) * 2021-08-04 2021-11-26 西安交通大学 一种基于Hololens深度数据的装配指导方法及***
CN114863228A (zh) * 2022-03-24 2022-08-05 南京航空航天大学 一种基于机器视觉的机场特种车辆避障方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QI C R, LITANY O, HE K, ET AL.: "Deep hough voting for3D object detection in point clouds", THE 2019INTERNATIONAL CONFERENCE ON COMPUTER VISION. PISCATAWAY, NJ:IEEE, pages 9276 - 9285 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024119776A1 (zh) * 2022-12-09 2024-06-13 之江实验室 一种基于votenet模型的三维目标检测方法和***

Also Published As

Publication number Publication date
CN115880685B (zh) 2024-02-13
WO2024119776A1 (zh) 2024-06-13

Similar Documents

Publication Publication Date Title
CN111062372B (zh) 一种预测障碍物轨迹的方法及装置
CN109034183A (zh) 一种目标检测方法、装置及设备
CN111797711A (zh) 一种模型训练的方法及装置
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN115880685B (zh) 一种基于votenet模型的三维目标检测方法和***
CN117197781B (zh) 一种交通标志识别的方法、装置、存储介质及电子设备
CN116757278B (zh) 一种预测模型的训练方法、装置、存储介质及电子设备
CN117008615A (zh) 一种策略切换的无人车轨迹规划方法和***
CN116385999A (zh) 一种停车位的识别方法、装置及设备
CN116149362A (zh) 一种飞行器避障轨迹任意时间优化方法和***
CN113887351B (zh) 一种用于无人驾驶的障碍物检测方法及障碍物检测装置
US20220314980A1 (en) Obstacle tracking method, storage medium and unmanned driving device
CN114863206A (zh) 一种模型训练的方法、目标检测的方法及装置
CN114332201A (zh) 一种模型训练、目标检测的方法以及装置
CN114187355A (zh) 一种图像标定方法及装置
CN112712561A (zh) 一种建图方法、装置、存储介质及电子设备
CN118053153B (zh) 一种点云数据的识别方法、装置、存储介质及电子设备
CN116740197B (zh) 一种外参的标定方法、装置、存储介质及电子设备
CN117974990B (zh) 一种基于注意力机制和特征增强结构的点云目标检测方法
CN113888611B (zh) 一种确定图像深度的方法、装置及存储介质
CN116740114B (zh) 一种基于凸包检测的目标物边界拟合方法及装置
CN116608849A (zh) 一种点云地图生成方法、装置及设备
CN116993931A (zh) 一种构建地图的方法及装置
CN117635850A (zh) 一种数据处理方法及装置
CN118334278A (zh) 一种点云数据处理方法、装置、存储介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant