CN110909623A - 三维目标检测方法及三维目标检测器 - Google Patents
三维目标检测方法及三维目标检测器 Download PDFInfo
- Publication number
- CN110909623A CN110909623A CN201911052349.9A CN201911052349A CN110909623A CN 110909623 A CN110909623 A CN 110909623A CN 201911052349 A CN201911052349 A CN 201911052349A CN 110909623 A CN110909623 A CN 110909623A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- target detection
- dimensional target
- network
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种三维目标检测方法及三维目标检测器。所述三维目标检测方法主要包括以下步骤:对三维目标检测数据集的图像数据进行语义分割,得到语义预测;将语义预测投影到点云空间中,并筛选特定类别的点形成视锥;构建三维目标检测网络,并将视锥作为三维目标检测网络的输入;通过损失函数强化三维目标检测网络对目标的敏感程度;优化三维目标检测网络。本发明大大减少了三维检测的时间并且降低了计算需求,使得输入更加简单,具有很好的实时目标检测性能,在保持实时检测的同时也能获得很好的检测效果。
Description
技术领域
本发明涉及一种三维目标检测方法及三维目标检测器,属于模式识别领域。
背景技术
基于点云的三维目标检测在现实生活中充当着重要的角色,例如自动驾驶、家庭机器人、增强现实和虚拟现实。相比较于传统的基于图像数据的目标检测方法,点云可以提供更加准确的深度信息用于定位物体和描绘物体形状。然而由于非均一化的三维空间采样、传感器的有效范围以及物体遮挡和相对位置等因素的限制,较于传统的图像数据,点云更加稀疏且各部分密度存在着较大的差异。
为了解决上述问题,目前,一般使用人工提取特征的方法使得三维点云可以被对应目标检测器检测,然而这需要将全部点云作为输入并耗费大量的计算资源,且无法做到实时检测。
有鉴于此,确有必要提出一种三维目标检测方法,以解决上述问题。
发明内容
本发明的目的在于提供一种三维目标检测方法,在保持实时检测的同时能够获得很好的检测效果。
为实现上述目的,本发明提供了一种三维目标检测方法,主要包括以下步骤:
步骤1:对三维目标检测数据集的图像数据进行语义分割,得到语义预测;
步骤2:将步骤1所得语义预测投影到点云空间中,并筛选特定类别的点形成视锥;
步骤3:构建三维目标检测网络,并将步骤2中所得视锥作为三维目标检测网络的输入;
步骤4:通过损失函数强化三维目标检测网络对目标的敏感程度;
步骤5:优化三维目标检测网络。
可选的,步骤1中使用DeepLabv3+算法对三维目标检测数据集的图像数据进行语义分割,具体包括以下步骤:
步骤11:通过DeepLabv3+算法在Cityscapes数据集上进行预训练;
步骤12:对三维目标检测数据集的图像数据进行手动标记,并通过DeepLabv3+算法在手动标记的语义标签上进行微调;
步骤13:通过语义分割对图像数据中的每一个像素进行分类,以得到语义预测。
可选的,步骤2具体包括以下步骤:
步骤21:利用已知的投影矩阵,将每个语义预测中的每个类别的区域投影到点云空间中,以使得点云空间的每个区域的类别属性与对应语义预测的每个区域的类别属性一致;
步骤22:将特定类别的点从原始点云空间中筛选并提取出来,形成视锥。
可选的,步骤3中,所述三维目标检测网络使用pytorch深度框架搭建形成,所述三维目标检测网络包括:使用网格的点云特征提取器、卷积中间提取层以及区域预选网络,且使用网格的点云特征提取器的输出作为卷积中间提取层的输入、区域预选网络的输入由卷积中间提取层提供。
可选的,使用网格的点云特征提取器由一个线形层,一个批标准化层和一个非线性激活层组成;
卷积中间提取层包括三个卷积中间模块,每个卷积中间模块由一个三维卷积层,一个批标准化层和一个非线性激活层顺序相连组成;
区域预选网络由三个全卷积模块组成。
可选的,步骤4中使用focal loss函数解决区域预选网络中存在的正负锚点的不平衡问题,所述focal loss函数为:
FL(pt)=-αt(1-pt)γlog(pt),
其中,pt是三维目标检测网络的估计概率,αt和γ为超参数调整系数。
可选的,步骤4中,所述损失函数为:
Ltotal=β1Lcls+β2(Lreg_θ+Lreg_other)+β3Ldir+β4Lcorner,
其中,Lcls为分类损失,Lreg_θ为三维候选框的角度损失,Lreg_other为三维候选框的其余参数校正损失,Ldir为方向损失,Lcorner为三维候选框的顶点坐标损失,β1,β2,β3,β4为超参数。
可选的,步骤5具体为:将三维目标检测网络在KITTI数据集上进行训练优化。
可选的,步骤5中使用随机梯度下降法和Adam优化器对所述三维目标检测网络进行训练优化。
为实现上述目的,本发明还提供了一种三维目标检测器,所述三维目标检测器应用前述三维目标检测方法。
本发明的有益效果是:本发明大大减少了三维检测的时间并且降低了计算需求,使得输入更加简单,具有很好的实时目标检测性能,在保持实时检测的同时也能获得很好的检测效果。
附图说明
图1是本发明三维目标检测方法的流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
本发明揭示了一种三维目标检测方法及应用该三维目标检测方法的三维目标检测器。因三维目标检测器的具体结构可以根据实际情况进行设置,此处不作详细描述,以下将主要对三维目标检测方法进行详细说明。
如图1所示,本发明的三维目标检测方法主要包括以下步骤:
步骤1:对三维目标检测数据集的图像数据进行语义分割,得到语义预测;
步骤2:将步骤1所得语义预测投影到点云空间中,并筛选特定类别的点形成视锥;
步骤3:构建三维目标检测网络,并将步骤2中所得视锥作为三维目标检测网络的输入;
步骤4:通过损失函数强化三维目标检测网络对目标的敏感程度;
步骤5:优化三维目标检测网络。
以下将对步骤1-步骤5做具体说明。
步骤1中,通过DeepLabv3+算法(一种语义分割算法)来对三维目标检测数据集的图像数据进行语义分割,由于三维目标检测数据集的图像数据不包含分割的标记,所以需要先对三维目标检测数据集的图像数据进行手动标记,具体包括以下步骤:
步骤11:通过DeepLabv3+算法在Cityscapes数据集上进行预训练200次迭代循环;
步骤12:对三维目标检测数据集的图像数据进行手动标记,并通过DeepLabv3+算法在手动标记的语义标签上进行50次迭代循环的微调;
步骤13:通过语义分割对图像数据中的每一个像素进行分类,以得到语义预测。
步骤2中,将步骤1所得语义预测投影到点云空间中,并筛选特定类别的点形成视锥,具体包括以下步骤:
步骤21:利用已知的投影矩阵,将每个语义预测中的每个类别的区域投影到点云空间中,以使得点云空间的每个区域的类别属性与对应语义预测的每个区域的类别属性一致;
步骤22:将特定类别的点从原始点云空间中筛选并提取出来,形成视锥。
步骤3中,使用pytorch深度框架搭建形成三维目标检测网络,该三维目标检测网络包含三个部分:使用网格的点云特征提取器,卷积中间提取层以及区域预选网络,且使用网格的点云特征提取器的输出作为卷积中间提取层的输入、区域预选网络的输入由卷积中间提取层提供。
具体来讲,使用网格的点云特征提取器由一个线形层,一个批标准化层和一个非线性激活层组成,在使用网格的点云特征提取器时,先将视锥用设定大小的三维网格对整个视锥进行有序切割,并将每一个网格中的所有点云作为使用网格的点云特征提取器的输入。
在卷积中间提取层中,为了增加感受野以获得更多的上下文,本发明使用了三个卷积中间模块,每个卷积中间模块由一个三维卷积层,一个批标准化层和一个非线性激活层顺序相连组成,它以使用网格的点云特征提取器的输出作为输入,并将这种具有三维结构的特征转化成二维的伪图特征,将其作为最终输出。
区域预选网络的输入为卷积中间提取层的输出,区域预选网络的体系结构由三个全卷积模块组成,每个全卷积模块包含一个下采样的卷积层以及若干个卷积层。在每个卷积层之后,通过应用批标准化层和非线性激活层进行操作;然后,将每个全卷积模块的输出采样到具有相同大小的特征图,并将这些特征图连接成一个整体;最后,对所需的学习目标应用三个二维卷积层来生成概率分数图、回归偏移以及方向预测。
步骤4中,由于点云的筛选过程使视锥不具有原本的上下文信息,而缺乏参考的目标点云数据使得检测任务更加困难,因此需要在三维目标检测网络中加入特殊的损失函数来强化三维目标检测网络对于目标的敏感程度,损失函数Ltotal如下所示:
Ltotal=β1Lcls+β2(Lreg_θ+Lreg_other)+β3Ldir+β4Lcorner,
其中,Lcls为分类损失,Lreg_θ为三维候选框的角度损失,Lreg_other为三维候选框的其余参数校正损失,Ldir为方向损失,Lcorner为三维候选框的顶点坐标损失;β1,β2,β3,β4为超参数,分别被设置为1.0,2.0,0.2和0.5。
对于Lreg_θ和Lreg_other,可以由以下变量求得:
Δθ=θg-θa
其中,为语义标签提供用来描述相应三维候选框的参数,为锚点的参数,锚点立方体检测框的对角线为da=(la)2+(wa)2。锚点在主流目标检测框架及扩展算法中都是重要部分,通过预设一组不同尺度、不同位置的固定检测框,覆盖几乎所有位置和尺度,每个固定检测框负责检测与其交并比大于阈值(训练预设值,常用0.5或0.7)的目标,不再需要多尺度遍历滑窗,真正实现了又好又快。
步骤4中,为了解决区域预选网络中存在的正负锚点的不平衡问题,本发明还通过focal loss函数来解决这些弊端:
FL(pt)=-αt(1-pt)γlog(pt),
其中,pt是三维目标检测网络的估计概率,αt和γ为超参调整系数,分别设置为0.5和2。
对于角度θp,三维候选框的角度损失Lreg_θ具体可以表示为:
Lreg_θ=SnoothL1(sin(θp-Δθ)),
而三维候选框的其余参数校正损失Lreg_other使用差值为Δx,Δy,Δz,Δw,Δl,Δh,Δθ的SmoothL1函数。
三维候选框的顶点坐标损失Lcorner的组成如下所示:
其中,NS,NH表示遍历所有的三维候选框,P,P*,P**分别表示三维候选框顶点、语义标签的三维候选框的顶点、将语义标签反转后的三维候选框的顶点。
步骤5中,将三维目标检测网络在KITTI数据集上进行训练优化,具体参数和实施方法为:在一张1080Ti GPU上使用随机梯度下降法和Adam优化器来训练优化,设置三维目标检测网络的训练次数为20万次(160个迭代次数),初始的学习率被设置为0.0002,指数衰减因子为0.8并且每隔15个迭代次数衰减一次。
为了验证本发明的检测效果,本发明将对车辆、行人和自行车在不同难度的情形下进行测试,同时与目前现有的几种目标检测方法进行了比较,包括多视角三维(MV三维),多视角三维-激光探测和测距(MV三维-LIDAR),视锥体点云(F-PointNet),多视图目标检测网络(AVOD),多视图目标检测网络-全卷积网络(AVOD-FCN)和体素网络(VoxelNet)。
如下表1和表2所示,本发明在不同情况下均能够获得相对较好的测试结果。
表1 在KITTI数据集上三维检测的AP值对比
表2 在KITTI数据集上鸟瞰检测的AP值对比
此外,如下表3所示,本发明虽然不是耗时最少的方法,但考虑到其自身已经使用了语义分割方法,在保持实时检测的同时也能获得很好的检测效果。
表3 在KITTI数据集上用不同的方法处理一帧场景需要的时间
综上所述,本发明大大减少了三维检测的时间并且降低了计算需求,使得输入更加简单,具有很好的实时目标检测性能,在保持实时检测的同时也能获得很好的检测效果。
以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种三维目标检测方法,其特征在于,主要包括以下步骤:
步骤1:对三维目标检测数据集的图像数据进行语义分割,得到语义预测;
步骤2:将步骤1所得语义预测投影到点云空间中,并筛选特定类别的点形成视锥;
步骤3:构建三维目标检测网络,并将步骤2中所得视锥作为三维目标检测网络的输入;
步骤4:通过损失函数强化三维目标检测网络对目标的敏感程度;
步骤5:优化三维目标检测网络。
2.根据权利要求1所述的三维目标检测方法,其特征在于:步骤1中使用DeepLabv3+算法对三维目标检测数据集的图像数据进行语义分割,具体包括以下步骤:
步骤11:通过DeepLabv3+算法在Cityscapes数据集上进行预训练;
步骤12:对三维目标检测数据集的图像数据进行手动标记,并通过DeepLabv3+算法在手动标记的语义标签上进行微调;
步骤13:通过语义分割对图像数据中的每一个像素进行分类,以得到语义预测。
3.根据权利要求1所述的三维目标检测方法,其特征在于:步骤2具体包括以下步骤:
步骤21:利用已知的投影矩阵,将每个语义预测中的每个类别的区域投影到点云空间中,以使得点云空间的每个区域的类别属性与对应语义预测的每个区域的类别属性一致;
步骤22:将特定类别的点从原始点云空间中筛选并提取出来,形成视锥。
4.根据权利要求1所述的三维目标检测方法,其特征在于:步骤3中,所述三维目标检测网络使用pytorch深度框架搭建形成,所述三维目标检测网络包括:使用网格的点云特征提取器、卷积中间提取层以及区域预选网络,且使用网格的点云特征提取器的输出作为卷积中间提取层的输入、区域预选网络的输入由卷积中间提取层提供。
5.根据权利要求4所述的三维目标检测方法,其特征在于:
使用网格的点云特征提取器由一个线形层,一个批标准化层和一个非线性激活层组成;
卷积中间提取层包括三个卷积中间模块,每个卷积中间模块由一个三维卷积层,一个批标准化层和一个非线性激活层顺序相连组成;
区域预选网络由三个全卷积模块组成。
6.根据权利要求4所述的三维目标检测方法,其特征在于,步骤4中使用focal loss函数解决区域预选网络中存在的正负锚点的不平衡问题,所述focal loss函数为:
FL(pt)=-αt(1-pt)γlog(pt),
其中,pt是三维目标检测网络的估计概率,αt和γ为超参数调整系数。
7.根据权利要求1所述的三维目标检测方法,其特征在于:步骤4中,所述损失函数为:
Ltotal=β1Lcls+β2(Lreg_θ+Lreg_other)+β3Ldir+β4Lcorner,
其中,Lcls为分类损失,Lreg_θ为三维候选框的角度损失,Lreg_other为三维候选框的其余参数校正损失,Ldir为方向损失,Lcorner为三维候选框的顶点坐标损失,β1,β2,β3,β4为超参数。
8.根据权利要求1所述的三维目标检测方法,其特征在于,步骤5具体为:将三维目标检测网络在KITTI数据集上进行训练优化。
9.根据权利要求8所述的三维目标检测方法,其特征在于:步骤5中使用随机梯度下降法和Adam优化器对所述三维目标检测网络进行训练优化。
10.一种三维目标检测器,其特征在于:所述三维目标检测器应用权利要求1-9中任一项所述的三维目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911052349.9A CN110909623B (zh) | 2019-10-31 | 2019-10-31 | 三维目标检测方法及三维目标检测器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911052349.9A CN110909623B (zh) | 2019-10-31 | 2019-10-31 | 三维目标检测方法及三维目标检测器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110909623A true CN110909623A (zh) | 2020-03-24 |
CN110909623B CN110909623B (zh) | 2022-10-04 |
Family
ID=69816198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911052349.9A Active CN110909623B (zh) | 2019-10-31 | 2019-10-31 | 三维目标检测方法及三维目标检测器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110909623B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183358A (zh) * | 2020-09-29 | 2021-01-05 | 新石器慧拓(北京)科技有限公司 | 一种目标检测模型的训练方法及装置 |
CN112740269A (zh) * | 2020-05-13 | 2021-04-30 | 华为技术有限公司 | 一种目标检测方法及装置 |
CN113887538A (zh) * | 2021-11-30 | 2022-01-04 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
CN113984037A (zh) * | 2021-09-30 | 2022-01-28 | 电子科技大学长三角研究院(湖州) | 一种基于任意方向目标候选框的语义地图构建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109145713A (zh) * | 2018-07-02 | 2019-01-04 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109784333A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及*** |
-
2019
- 2019-10-31 CN CN201911052349.9A patent/CN110909623B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564097A (zh) * | 2017-12-05 | 2018-09-21 | 华南理工大学 | 一种基于深度卷积神经网络的多尺度目标检测方法 |
CN109145713A (zh) * | 2018-07-02 | 2019-01-04 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109784333A (zh) * | 2019-01-22 | 2019-05-21 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及*** |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112740269A (zh) * | 2020-05-13 | 2021-04-30 | 华为技术有限公司 | 一种目标检测方法及装置 |
CN112740269B (zh) * | 2020-05-13 | 2022-04-08 | 华为技术有限公司 | 一种目标检测方法及装置 |
CN112183358A (zh) * | 2020-09-29 | 2021-01-05 | 新石器慧拓(北京)科技有限公司 | 一种目标检测模型的训练方法及装置 |
CN112183358B (zh) * | 2020-09-29 | 2024-04-23 | 新石器慧通(北京)科技有限公司 | 一种目标检测模型的训练方法及装置 |
CN113984037A (zh) * | 2021-09-30 | 2022-01-28 | 电子科技大学长三角研究院(湖州) | 一种基于任意方向目标候选框的语义地图构建方法 |
CN113984037B (zh) * | 2021-09-30 | 2023-09-12 | 电子科技大学长三角研究院(湖州) | 一种基于任意方向目标候选框的语义地图构建方法 |
CN113887538A (zh) * | 2021-11-30 | 2022-01-04 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
CN113887538B (zh) * | 2021-11-30 | 2022-03-25 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110909623B (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111145174B (zh) | 基于图像语义特征进行点云筛选的3d目标检测方法 | |
CN110909623B (zh) | 三维目标检测方法及三维目标检测器 | |
CN111640125B (zh) | 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN110084817B (zh) | 基于深度学习的数字高程模型生产方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN112560675B (zh) | Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法 | |
CN112884791B (zh) | 一种构建大规模遥感影像语义分割模型训练样本集的方法 | |
CN110263794B (zh) | 基于数据增强的目标识别模型的训练方法 | |
CN111027538A (zh) | 一种基于实例分割模型的集装箱检测方法 | |
CN103198479A (zh) | 基于语义信息分类的sar图像分割方法 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN115223054A (zh) | 一种基于分区聚类与卷积的遥感影像变化检测方法 | |
CN117475416A (zh) | 一种热电站指针式仪表读数识别方法、***、设备及介质 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN113657423A (zh) | 适用于小体积零件与堆叠零件的目标检测方法及其应用 | |
CN108961385A (zh) | 一种slam构图方法及装置 | |
CN106600613A (zh) | 基于嵌入式gpu的改进lbp红外目标检测方法 | |
CN116503760A (zh) | 基于自适应边缘特征语义分割的无人机巡航检测方法 | |
Li et al. | Insect detection and counting based on YOLOv3 model | |
CN113808142B (zh) | 一种地面标识的识别方法、装置、电子设备 | |
CN103093241B (zh) | 基于同质化处理的光学遥感图像非匀质云层判别方法 | |
CN113378864B (zh) | 一种锚框参数的确定方法、装置、设备及可读存储介质 | |
CN110751153B (zh) | 一种室内场景rgb-d图像的语义标注方法 | |
Shen et al. | Aircraft target type recognition technology based on deep learning and structure feature matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |