CN108597009A - 一种基于方向角信息进行三维目标检测的方法 - Google Patents

一种基于方向角信息进行三维目标检测的方法 Download PDF

Info

Publication number
CN108597009A
CN108597009A CN201810314274.6A CN201810314274A CN108597009A CN 108597009 A CN108597009 A CN 108597009A CN 201810314274 A CN201810314274 A CN 201810314274A CN 108597009 A CN108597009 A CN 108597009A
Authority
CN
China
Prior art keywords
point
points
dimension
deflection
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810314274.6A
Other languages
English (en)
Other versions
CN108597009B (zh
Inventor
方志军
赵华卿
高永彬
简佳雁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN201810314274.6A priority Critical patent/CN108597009B/zh
Publication of CN108597009A publication Critical patent/CN108597009A/zh
Application granted granted Critical
Publication of CN108597009B publication Critical patent/CN108597009B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于方向角信息进行三维目标检测的方法,其包括以下步骤:通过Depth‑RCNN对RGB‑D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;在得到的二维分割实例图上选取p1、p2、p3三个点,并根据限制条件进行优化;通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标确定初始化三维框的方向角;根据融合后的特征对初始化三维框进行回归。本发明通过深度信息与方向角信息的融合利用,在保证三维框的中心和长宽高的准确率同时提高了方向角估计的准确率,为提高三维目标的检测精度奠定了基础。

Description

一种基于方向角信息进行三维目标检测的方法
技术领域
本发明是涉及一种基于方向角信息进行三维目标检测的方法,属于计算机视觉与图像处理技术领域。
背景技术
目标检测是指利用图像处理、模式识别、人工智能等技术,通过提取场景目标的不同特征信息,对相应目标进行检测,它是计算机视觉和图像处理的一个重要分支。传统的目标检测方法的研究大多仅基于RGB相机获取的二维光学图像,而现实世界是一个三维世界,当涉及到机器人导航、机器人避障、自动驾驶等应用场景时,二维检测由于缺少深度信息,无法提供目标在三维场景下的位置、大小、方向的原因而受到限制。因此,结合深度信息进行三维目标的检测显得十分重要。
现有的三维检测分为基于2.5维信息和3维信息的两类检测方法,其中2.5维的方法是通过卷积网络分别提取颜色信息和深度信息特征或将深度信息编码为彩色信息的额外通道,然后建立模型将二维信息的结果转换到三维空间,如:Amodal3Det[1]算法,根据先验几何信息对三维框进行中心点和长宽高的初始化,并通过从卷积神经网络中提取的颜色信息和深度信息回归初始化三维框,由于该方法缺少对三维信息的数据利用,以致基于2.5维信息的检测方法均将方向角信息直接初始化为0,而从实验结果分析,在三维框的中心点和长宽高较为准确的情况下,误差较大的方向角信息将影响检测的准确率。另外,现有的基于3维信息的检测方法则注重于直接对三维信息的利用,如:Song[2]等在传统2维滑动窗的基础上提出一种新的3维滑动窗,以用于对点云空间中的目标特征进行手工提取,并输入支持向量机中进行分类,由于深度信息的噪声和稀疏性问题,导致该类方法的检测精度不高,以致局限了其在高精度领域(如:机器人导航、机器人避障、自动驾驶)的应用。
发明内容
针对现有技术存在的上述问题,本发明的目的是提供一种基于方向角信息进行三维目标检测的方法,以解决基于2.5维信息进行三维目标检测的方法中所存在的方向角信息未得到充分利用的问题,为提高三维目标的检测精度奠定基础。
为实现上述目的,本发明采用的技术方案如下:
一种基于方向角信息进行三维目标检测的方法,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
进一步说,步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
进一步说,步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值或列值。
进一步说,排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计,以避免误差较大的方向角估计影响检测精度。
进一步说,增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算,以提高深度信息的利用率,保证算法的鲁棒性;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
进一步说,修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件,对理想情况而言,在长边和短边线段向行值更大的方向中不存在目标物体的像素点,而对特殊形状的目标在长边和短边线段向行值更大的方向中存在目标物体的像素点。
进一步说,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
进一步说,步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
与现有技术相比,本发明具有如下有益效果:
本发明提供的一种基于方向角信息进行三维目标检测的方法,可解决基于2.5维信息进行三维目标检测的方法中所存在的方向角信息未得到充分利用的问题,通过深度信息与方向角信息的融合利用,在保证三维框的中心和长宽高的准确率同时提高了方向角估计的准确率,为提高三维目标的检测精度奠定了基础。
附图说明
图1为本发明实施例提供的方向角信息提取过程示意图。
具体实施方式
以下结合附图和实施例对本发明的技术方案做进一步详细描述。
实施例
本实施例提供的一种基于方向角信息进行三维目标检测的方法,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值或列值。
步骤S2中所述的排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计,以避免误差较大的方向角估计影响检测精度。
步骤S2中所述的增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算,以提高深度信息的利用率,保证算法的鲁棒性;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件,对理想情况而言,在长边和短边线段向行值更大的方向中不存在目标物体的像素点,而对特殊形状的目标在长边和短边线段向行值更大的方向中存在目标物体的像素点;以步骤S2提取的p2、p3点为例,若Cthreshold范围中行值最大的像素点pmax存在条件:
C2<Cthreshold<C3
其中:C2和C3分别代表p2点和p3点的列值;并分别对p2和pmax、p2和p3做正切计算得到θ1和θ2,若θ1小于θ2,则说明pmax点在线段向行值更大的方向中,即将pmax点作为p3点。
进一步说,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
进一步说,步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
最后有必要在此指出的是:以上所述仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (8)

1.一种基于方向角信息进行三维目标检测的方法,其特征在于,包括以下步骤:
S1:通过Depth-RCNN对RGB-D相机采集到的彩色图像和深度图像进行特征融合并经过支持向量机分类,得到2.5维检测框和对应的二维分割实例图;
S2:在得到的二维分割实例图上选取p1、p2、p3三个点,并根据排除不确定点、增加计算信息、修正误判点3个限制条件对p1、p2、p3三个点的信息进行优化;
S3:通过二维到三维的点云重建计算所提取的三个点在三维坐标系中的坐标,根据三个点的坐标确定方向角θ,并将该方向角θ作为初始化三维框的方向角;
S4:将彩色图像和深度图像分别通过VGG-16计算特征图,再通过二维候选框和上下文信息候选框从ROI pooling层中提取特征进行通道融合,并根据融合后的特征对初始化三维框进行回归。
2.根据权利要求1所述的方法,其特征在于,步骤S1中得到2.5维检测框的步骤是:先对RGB-D相机采集到的彩色图像和深度图像进行边缘检测,再通过MCG算法利用边缘检测的信息生成2.5维检测框。
3.根据权利要求1所述的方法,其特征在于,步骤S2选取的p1、p2、p3三个点分别为二维分割实例图中的:c最小中r最大的点、r最大中c最小的点、c最大中r最大的点,其中的r、c分别代表二维分割实例图中像素点的行值或列值。
4.根据权利要求1所述的方法,其特征在于:步骤S2中所述的排除不确定点是针对目标在图片中显示不全的情况所设置的条件,即:通过对p1、p2、p3三个点的行、列值进行判断,若找到的三个点中存在两个点的行值与图片的横向尺寸值相同,或列值与图片的纵向尺寸值相同,则将方向角度初始化为0,不做方向角估计。
5.根据权利要求1所述的方法,其特征在于:步骤S2中所述的增加计算信息是指对长边也进行方向角计算,并根据长边与短边垂直的关系,对长边计算的方向角进行转换后与短边计算的方向角进行均值计算;所述的长边和短边是根据p1点到p2点、p2点到p3点在三维空间中的距离长短进行的定义,且短边相对Z轴的方向角定义为所求的方向角θ。
6.根据权利要求1所述的方法,其特征在于:步骤S2中所述的修正误判点是针对步骤S2提取的p1、p2、p3三个点没能准确代表目标与接触面的方向角情况所设置的优化条件。
7.根据权利要求1所述的方法,其特征在于,将二维坐标系下的p1、p2、p3点转换到三维坐标系下的P1、P2、P3点的具体步骤如下:
a)将图像坐标系下的p(x,y)分别对应到相机坐标系下的P(XC,YC,ZC),即:
其中:(Ox,Oy)、f分别为相机内参的中心点和焦距;
b)将点云方向与重力方向对齐,即:定义一个不对Y轴做任何旋转计算且通过相机坐标系与旋转矩阵计算得到的坐标系为旋转坐标系,这个过程中物体不发生形变,仅做了旋转运动,即:
Rtilt=RX·RZ
其中:Rtilt代表旋转坐标系和相机坐标系之间的转换矩阵,RX和RZ分别代表X轴和Z轴的旋转矩阵;至此,得到旋转坐标系下的P1、P2、P3点。
8.根据权利要求1所述的方法,其特征在于:步骤S4所述的初始化三维框表示为[XC,YC,ZC,l,w,h,θ],其中:[XC,YC,ZC]是相机坐标系下三维框的中心点,[l,w,h]是倾斜坐标系下三维框的长宽高,这六个向量均由训练数据中目标的标签均值所确定,θ为步骤S3中所求的初始化方向角。
CN201810314274.6A 2018-04-10 2018-04-10 一种基于方向角信息进行三维目标检测的方法 Active CN108597009B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810314274.6A CN108597009B (zh) 2018-04-10 2018-04-10 一种基于方向角信息进行三维目标检测的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810314274.6A CN108597009B (zh) 2018-04-10 2018-04-10 一种基于方向角信息进行三维目标检测的方法

Publications (2)

Publication Number Publication Date
CN108597009A true CN108597009A (zh) 2018-09-28
CN108597009B CN108597009B (zh) 2022-03-25

Family

ID=63621445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810314274.6A Active CN108597009B (zh) 2018-04-10 2018-04-10 一种基于方向角信息进行三维目标检测的方法

Country Status (1)

Country Link
CN (1) CN108597009B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598268A (zh) * 2018-11-23 2019-04-09 安徽大学 一种基于单流深度网络的rgb-d显著目标检测方法
CN109785298A (zh) * 2018-12-25 2019-05-21 中国科学院计算技术研究所 一种多角度物体检测方法和***
CN110110722A (zh) * 2019-04-30 2019-08-09 广州华工邦元信息技术有限公司 一种基于深度学习模型识别结果的区域检测修正方法
CN110490917A (zh) * 2019-08-12 2019-11-22 北京影谱科技股份有限公司 三维重建方法及装置
CN110706288A (zh) * 2019-10-10 2020-01-17 上海眼控科技股份有限公司 目标检测的方法、装置、设备及可读存储介质
CN111179269A (zh) * 2019-11-11 2020-05-19 浙江工业大学 一种基于多视图和3维卷积融合策略的pet图像分割方法
CN112419385A (zh) * 2021-01-25 2021-02-26 国汽智控(北京)科技有限公司 一种3d深度信息估计方法、装置及计算机设备
CN113984037A (zh) * 2021-09-30 2022-01-28 电子科技大学长三角研究院(湖州) 一种基于任意方向目标候选框的语义地图构建方法
WO2022161140A1 (zh) * 2021-01-27 2022-08-04 上海商汤智能科技有限公司 目标检测方法、装置、计算机设备及存储介质
CN115829898A (zh) * 2023-02-24 2023-03-21 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及自动驾驶车辆

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194235A (zh) * 2010-03-16 2011-09-21 北京中星微电子有限公司 基于梯度方向角的运动检测***及方法
US8149268B1 (en) * 2010-11-05 2012-04-03 The United States Of America As Represented By The Secretary Of The Army System and method for determining three-dimensional information from two-dimensional images
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
CN105136064A (zh) * 2015-09-13 2015-12-09 维希艾信息科技(无锡)有限公司 一种运动目标三维尺寸检测***及其方法
CN106530328A (zh) * 2016-11-04 2017-03-22 深圳维周机器人科技有限公司 一种基于视频图像对运动目标检测和平滑跟随的方法
US20170337690A1 (en) * 2016-05-20 2017-11-23 Qualcomm Incorporated Predictor-corrector based pose detection
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194235A (zh) * 2010-03-16 2011-09-21 北京中星微电子有限公司 基于梯度方向角的运动检测***及方法
US8149268B1 (en) * 2010-11-05 2012-04-03 The United States Of America As Represented By The Secretary Of The Army System and method for determining three-dimensional information from two-dimensional images
CN104951808A (zh) * 2015-07-10 2015-09-30 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
CN105136064A (zh) * 2015-09-13 2015-12-09 维希艾信息科技(无锡)有限公司 一种运动目标三维尺寸检测***及其方法
US20170337690A1 (en) * 2016-05-20 2017-11-23 Qualcomm Incorporated Predictor-corrector based pose detection
CN106530328A (zh) * 2016-11-04 2017-03-22 深圳维周机器人科技有限公司 一种基于视频图像对运动目标检测和平滑跟随的方法
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
K KHOSHELHAM: ""Extending generalized hough transform to detect 3D objects in laser range data"", 《ISPRS WORKSHOP ON LASER SCANNING 2007 AND SILVILASER 2007》 *
沈彤: ""多运动目标检测跟踪与定位算法研究"", 《中国优秀硕士学位论文全文数据库(电子期刊)多运动目标检测跟踪与定位算法研究》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598268A (zh) * 2018-11-23 2019-04-09 安徽大学 一种基于单流深度网络的rgb-d显著目标检测方法
CN109785298A (zh) * 2018-12-25 2019-05-21 中国科学院计算技术研究所 一种多角度物体检测方法和***
CN109785298B (zh) * 2018-12-25 2021-03-05 中国科学院计算技术研究所 一种多角度物体检测方法和***
CN110110722A (zh) * 2019-04-30 2019-08-09 广州华工邦元信息技术有限公司 一种基于深度学习模型识别结果的区域检测修正方法
CN110490917A (zh) * 2019-08-12 2019-11-22 北京影谱科技股份有限公司 三维重建方法及装置
CN110706288A (zh) * 2019-10-10 2020-01-17 上海眼控科技股份有限公司 目标检测的方法、装置、设备及可读存储介质
CN111179269B (zh) * 2019-11-11 2023-07-11 浙江工业大学 一种基于多视图和三维卷积融合策略的pet图像分割方法
CN111179269A (zh) * 2019-11-11 2020-05-19 浙江工业大学 一种基于多视图和3维卷积融合策略的pet图像分割方法
CN112419385A (zh) * 2021-01-25 2021-02-26 国汽智控(北京)科技有限公司 一种3d深度信息估计方法、装置及计算机设备
CN112419385B (zh) * 2021-01-25 2021-04-09 国汽智控(北京)科技有限公司 一种3d深度信息估计方法、装置及计算机设备
WO2022161140A1 (zh) * 2021-01-27 2022-08-04 上海商汤智能科技有限公司 目标检测方法、装置、计算机设备及存储介质
CN113984037A (zh) * 2021-09-30 2022-01-28 电子科技大学长三角研究院(湖州) 一种基于任意方向目标候选框的语义地图构建方法
CN113984037B (zh) * 2021-09-30 2023-09-12 电子科技大学长三角研究院(湖州) 一种基于任意方向目标候选框的语义地图构建方法
CN115829898A (zh) * 2023-02-24 2023-03-21 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及自动驾驶车辆
CN115829898B (zh) * 2023-02-24 2023-06-02 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及自动驾驶车辆

Also Published As

Publication number Publication date
CN108597009B (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
CN108597009A (zh) 一种基于方向角信息进行三维目标检测的方法
CN109544636B (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN106127739B (zh) 一种结合单目视觉的rgb-d slam方法
CN109345588A (zh) 一种基于Tag的六自由度姿态估计方法
CN109671120A (zh) 一种基于轮式编码器的单目slam初始化方法及***
CN112001926B (zh) 基于多维语义映射rgbd多相机标定方法、***及应用
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN108776989B (zh) 基于稀疏slam框架的低纹理平面场景重建方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN109087323A (zh) 一种基于精细cad模型的图像车辆三维姿态估计方法
CN106780631A (zh) 一种基于深度学习的机器人闭环检测方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
Armagan et al. Learning to align semantic segmentation and 2.5 d maps for geolocalization
CN107677274A (zh) 基于双目视觉的无人机自主着陆导航信息实时解算方法
CN111524233A (zh) 一种静态场景动态目标的三维重建方法
CN108428249A (zh) 一种基于光流跟踪和双几何模型的初始位姿估计方法
CN111915517A (zh) 一种适用于室内光照不利环境下rgb-d相机全局定位方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
CN109443320A (zh) 基于直接法和线特征的双目视觉里程计及测量方法
CN110490903B (zh) 一种双目视觉测量中多目标快速捕获与跟踪方法
CN103617631A (zh) 一种基于中心检测的跟踪方法
CN113487631A (zh) 基于lego-loam的可调式大角度探测感知及控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant