CN108648219A - 一种基于双目的障碍物与可行区域检测方法 - Google Patents
一种基于双目的障碍物与可行区域检测方法 Download PDFInfo
- Publication number
- CN108648219A CN108648219A CN201810307418.5A CN201810307418A CN108648219A CN 108648219 A CN108648219 A CN 108648219A CN 201810307418 A CN201810307418 A CN 201810307418A CN 108648219 A CN108648219 A CN 108648219A
- Authority
- CN
- China
- Prior art keywords
- point
- binocular
- cloud
- area
- feasible solutions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004888 barrier function Effects 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 title claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 230000007613 environmental effect Effects 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 18
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 5
- 241000208340 Araliaceae Species 0.000 claims description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 235000008434 ginseng Nutrition 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于双目的障碍物与可行区域检测方法,包括:步骤1:标定双目***;步骤2:通过视觉SLAM算法构建环境地图;步骤3:进行点云拼接;步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下;步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable;步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。本发明在视觉SLAM***构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。
Description
技术领域
本发明涉及障碍物与可行区域检测技术领域,具体涉及一种基于双目的障碍物与可行区域检测方法。
背景技术
双目相机由于成本低廉,信息量大的优势在机器人构图、定位导航等应用中获得广泛应用。基于图像的构图通常使用视觉SLAM(simultaneous localization andmapping)***,得到的地图形式为一系列关键帧和空间点的集合。该地图仅包含离散可行位姿,在实际应用中具有很大的局限性。双目相机可以通过左右图像的匹配得到真实世界的点云信息。然而图像匹配得到的点云存在噪声大、精度不高等问题,同样也制约了实际应用。
本发明在视觉SLAM***构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,克服了上述两个缺点,并进一步在融合后的点云中检测障碍物与可行区域。
发明内容
本发明提供了一种基于双目的障碍物与可行区域检测方法,在视觉SLAM***得到关键帧和空间点的基础上,融合双目***得到场景稠密点云,在该点云中检测障碍物与可行区域信息。
本发明所述地图为关键帧集合Nk表示关键帧数目。所述关键帧表示为Ki,其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机***在Ki位置时得到的图像。
本发明采用的技术方案如下:
一种基于双目的障碍物与可行区域检测方法,包括以下步骤:
步骤1:标定双目***;
步骤1中,标定双目***,分别得到两个相机的内参和外参,并且标定双目***与移动底盘之间的旋转矩阵Rb和平移矩阵tb。
步骤2:通过视觉SLAM算法构建环境地图;
所述的环境地图为关键帧集合Nk表示关键帧数目,Kl、Ki、表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机***在Ki位置时得到的图像。
步骤3:进行点云拼接;
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法(opencv开源库中的代码)计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...Pip...Pmp},其中,mp为Ki形成的点云总数目,
(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标,并建立以下关系式:
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性;
I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。
步骤4中,使用PCL点云库中的VoxelGridFilter对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3。
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable。
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable,检测转换后的Setw中是否存在点Pwj,满足以下关系:
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明在视觉SLAM***构建完成环境地图的基础上,进一步结合双目匹配算法,得到大范围场景点云。该点云包含场景的连续位姿信息,同时由于多帧融合,有效提高点云精度,减少噪声,并进一步在融合后的点云中检测障碍物与可行区域,实现了基于双目的障碍物与可行区域检测。
附图说明
图1为本发明基于双目的障碍物与可行区域检测方法的流程示意图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任意方式组合。
实施例一:
步骤1:标定***。标定双目***,分别得到两个相机的内参和外参。标定双目***与移动底盘之间的旋转矩阵Rb和平移矩阵tb。
步骤2:通过视觉SLAM算法构建环境地图。所述的环境地图为关键帧集合Nk表示关键帧数目,K1、Ki、表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机***在Ki位置时得到的图像。
步骤3:进行点云拼接。构建三维点集合Setw={Pw1...Pwi...PwN},Pwi={xi,yi,zi},对于关键帧集合SetK中的每个元素Ki,执行下列操作。
步骤3.1:使用StereoBM算法(opencv开源库中的代码)算法计算双目视差图。并进一步将双目视差图转化为基于左相机的三维点云。形成点云集合SetP={P1...Pip...Pmp},其中mp为Ki形成的点云总数目。(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标。
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1。以投影到Ki-1为例。
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中RT表示对矩阵R进行转置,Ri-1 T表示对矩阵Ri-1进行转置。(x',y',z')为中间变量坐标。
步骤3.3:利用图像灰度值误差判定Pip有效性。
I(u,v)记为获取图像I在(u,v)处的灰度值。如果Ierr大于阈值ε,则Pip无效。否则判定Pip有效,将点加入到集合Setw。I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下。使用PCL点云库中的VoxelGridFilter对点云进行降采样处理,设置降采样后的点云为Setw。使用下列公式将点云转换到移动底盘坐标系下。
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。公式中右边的(xi,yi,zi)为转换前Setw中点的坐标;
步骤5:在Setw中提取地面,得到可行区域Settraversable。对于任一点Pwi∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3。
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果zi小于阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable。
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs。设置障碍物高度阈值h_thres。对于任意一点Pti∈Settraversable,检测Setw中是否存在点Pwj,满足以下关系:
则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。从而计算得到障碍物区域。
Claims (5)
1.一种基于双目的障碍物与可行区域检测方法,其特征在于,包括以下步骤:
步骤1:标定双目***;
步骤2:通过视觉SLAM算法构建环境地图;
步骤3:进行点云拼接;
步骤4:将Setw进行降采样,并将点云转到移动底盘坐标系下;
步骤5:在转换后的Setw中提取地面,得到可行区域Settraversable,对于任一点Pwi=(xi,yi,zi)∈Setw,在Setw中查找距离Pwi最近的三个点,{Pw1=(x1,y1,z1),Pw2=(x2,y2,z2),Pw3=(x3,y3,z3)},求得点Pwi法向量
同理,通过在Setw中查找距离Pw1最近的三个点,得到Pw1法向量n1,通过在Setw中查找距离Pw2最近的三个点,得到Pw2法向量n2,通过在Setw中查找距离Pw3最近的三个点,得到Pw3法向量n3;
计算法向量误差n_error:
n_error=3-|ni·n1|-|ni·n2|-|ni·n3|
如果Pwi中zi小于设定阈值z_thres,并且n_error小于阈值n_thres,则判定点Pwi为可行区域,加入Settraversable;
步骤6:在Settraversable中提取障碍物区域,得到障碍物区域Setobs,设置障碍物高度阈值h_thres,对于任意一点Pti∈Settraversable,检测转换后的Setw中是否存在点Pwj,满足以下关系:
如果存在Pwj满足上述关系,则判定Pti为障碍物区域,加入到Setobs中,并将该点在Settraversable中删除。
2.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤1中,标定双目***,分别得到两个相机的内参和外参,并且标定双目***与移动底盘之间的旋转矩阵Rb和平移矩阵tb。
3.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤2中,所述的环境地图为关键帧集合Nk表示关键帧数目,K1、Ki、表示不同的关键帧,关键帧其中ti表示关键帧Ki在世界坐标系中的位置,为3×1矩阵,Ri表示关键帧Ki的朝向,为3×3矩阵,为双目相机***在Ki位置时得到的图像。
4.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤3中,进行点云拼接,具体包括:
步骤3.1:对于关键帧集合SetK中的每个元素Ki,使用StereoBM算法计算双目视差图,并进一步将双目视差图转化为基于左相机的三维点云,形成点云集合SetP={P1...Pip...Pmp},其中,mp为Ki形成的点云总数目,(uip,vip)为三维点对应的图像坐标,为三维点相对于左相机的坐标,为该点云在世界坐标系中的坐标,并建立以下关系式:
步骤3.2:对于Pip∈SetP,将Pip投影到相邻关键帧Ki-1或者Ki+1,以投影到Ki-1为例:
R'=Ri-1 T
t'=-Ri-1 T×ti-1
其中,ρ表示相机投影函数,由相机模型决定,(u',v')即为Pip在Ki-1中的投影坐标,其中Ri-1 T表示对矩阵Ri-1进行转置;
步骤3.3:利用图像灰度值误差判定Pip有效性;
I(u,v)记为获取图像I在(u,v)处的灰度值,是指图像在(uip+i,vip+j)处的灰度值,是指图像在(u'+i,v'+j)处的灰度值,如果Ierr大于阈值ε,则Pip无效,否则判定Pip有效,将点加入到集合Setw,构建三维点集合Setw={Pw1...Pwi...PwN},wN为三维点的个数。
5.根据权利要求1所述的基于双目的障碍物与可行区域检测方法,其特征在于,步骤4中,对Setw进行降采样处理,对于任意点(xi,yi,zi)∈Setw,执行下列公式将其转换到移动底盘坐标系下:
其中,Rb为旋转矩阵,tb为平移矩阵,公式中左边的(xi,yi,zi)为转换到移动底盘坐标系下的坐标,得到转换后的Setw。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810307418.5A CN108648219B (zh) | 2018-04-08 | 2018-04-08 | 一种基于双目的障碍物与可行区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810307418.5A CN108648219B (zh) | 2018-04-08 | 2018-04-08 | 一种基于双目的障碍物与可行区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108648219A true CN108648219A (zh) | 2018-10-12 |
CN108648219B CN108648219B (zh) | 2022-02-22 |
Family
ID=63745857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810307418.5A Active CN108648219B (zh) | 2018-04-08 | 2018-04-08 | 一种基于双目的障碍物与可行区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108648219B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110864670A (zh) * | 2019-11-27 | 2020-03-06 | 苏州智加科技有限公司 | 目标障碍物位置的获取方法和*** |
CN111461981A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
CN113792583A (zh) * | 2021-08-03 | 2021-12-14 | 北京中科慧眼科技有限公司 | 基于可行驶区域的障碍物检测方法、***和智能终端 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080253613A1 (en) * | 2007-04-11 | 2008-10-16 | Christopher Vernon Jones | System and Method for Cooperative Remote Vehicle Behavior |
CN101549683A (zh) * | 2009-04-23 | 2009-10-07 | 上海交通大学 | 自动识别道路深坑与障碍物的车辆智能方法 |
CN103955920A (zh) * | 2014-04-14 | 2014-07-30 | 桂林电子科技大学 | 基于三维点云分割的双目视觉障碍物检测方法 |
CN104574376A (zh) * | 2014-12-24 | 2015-04-29 | 重庆大学 | 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法 |
CN105096386A (zh) * | 2015-07-21 | 2015-11-25 | 中国民航大学 | 大范围复杂城市环境几何地图自动生成方法 |
CN106599108A (zh) * | 2016-11-30 | 2017-04-26 | 浙江大学 | 一种三维环境中多模态环境地图构建方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN106802668A (zh) * | 2017-02-16 | 2017-06-06 | 上海交通大学 | 基于双目与超声波融合的无人机三维避撞方法及*** |
CN107169986A (zh) * | 2017-05-23 | 2017-09-15 | 北京理工大学 | 一种障碍物检测方法及*** |
CN107179768A (zh) * | 2017-05-15 | 2017-09-19 | 上海木爷机器人技术有限公司 | 一种障碍物识别方法及装置 |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
-
2018
- 2018-04-08 CN CN201810307418.5A patent/CN108648219B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080253613A1 (en) * | 2007-04-11 | 2008-10-16 | Christopher Vernon Jones | System and Method for Cooperative Remote Vehicle Behavior |
CN101549683A (zh) * | 2009-04-23 | 2009-10-07 | 上海交通大学 | 自动识别道路深坑与障碍物的车辆智能方法 |
CN103955920A (zh) * | 2014-04-14 | 2014-07-30 | 桂林电子科技大学 | 基于三维点云分割的双目视觉障碍物检测方法 |
CN104574376A (zh) * | 2014-12-24 | 2015-04-29 | 重庆大学 | 拥挤交通中基于双目视觉和激光雷达联合校验的防撞方法 |
CN105096386A (zh) * | 2015-07-21 | 2015-11-25 | 中国民航大学 | 大范围复杂城市环境几何地图自动生成方法 |
CN106599108A (zh) * | 2016-11-30 | 2017-04-26 | 浙江大学 | 一种三维环境中多模态环境地图构建方法 |
CN106650640A (zh) * | 2016-12-05 | 2017-05-10 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN106802668A (zh) * | 2017-02-16 | 2017-06-06 | 上海交通大学 | 基于双目与超声波融合的无人机三维避撞方法及*** |
CN107179768A (zh) * | 2017-05-15 | 2017-09-19 | 上海木爷机器人技术有限公司 | 一种障碍物识别方法及装置 |
CN107169986A (zh) * | 2017-05-23 | 2017-09-15 | 北京理工大学 | 一种障碍物检测方法及*** |
CN107590827A (zh) * | 2017-09-15 | 2018-01-16 | 重庆邮电大学 | 一种基于Kinect的室内移动机器人视觉SLAM方法 |
Non-Patent Citations (4)
Title |
---|
KUNSOO HUH 等: "A stereo vision-based obstacle detection system in vehicles", 《OPTICS AND LASERS IN ENGINEERING》 * |
姬长英 等: "基于点云图的农业导航中障碍物检测方法", 《农业工程学报》 * |
张世辉 等: "融合多特征基于图割实现视频遮挡区域检测", 《光学学报》 * |
王荣本 等: "基于双目视觉的智能车辆障碍物探测技术研究", 《中国图象图形学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110864670A (zh) * | 2019-11-27 | 2020-03-06 | 苏州智加科技有限公司 | 目标障碍物位置的获取方法和*** |
CN111461981A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
CN111461981B (zh) * | 2020-03-30 | 2023-09-01 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
CN113792583A (zh) * | 2021-08-03 | 2021-12-14 | 北京中科慧眼科技有限公司 | 基于可行驶区域的障碍物检测方法、***和智能终端 |
Also Published As
Publication number | Publication date |
---|---|
CN108648219B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112785702B (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN112435325B (zh) | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 | |
JP6852936B1 (ja) | 深度点線特徴に基づくドローン視覚走行距離計方法 | |
CN106940704B (zh) | 一种基于栅格地图的定位方法及装置 | |
JP6295645B2 (ja) | 物体検出方法及び物体検出装置 | |
CN109377513B (zh) | 一种针对两视图的全局三维人体姿态可信估计方法 | |
CN111899282B (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
JP2019536170A (ja) | 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法 | |
CN106873619B (zh) | 一种无人机飞行路径的处理方法 | |
CN107843251B (zh) | 移动机器人的位姿估计方法 | |
CN110598590A (zh) | 基于多视角相机的紧密交互人体姿态估计方法及装置 | |
JP7508350B2 (ja) | キャリブレーション装置およびキャリブレーション方法 | |
CN109255811A (zh) | 一种基于可信度图视差优化的立体匹配方法 | |
CN108648219A (zh) | 一种基于双目的障碍物与可行区域检测方法 | |
CN111402345B (zh) | 基于多目全景图像的模型生成方法及装置 | |
CN110375765B (zh) | 基于直接法的视觉里程计方法、***及存储介质 | |
Pirker et al. | GPSlam: Marrying Sparse Geometric and Dense Probabilistic Visual Mapping. | |
CN112802096A (zh) | 实时定位和建图的实现装置和方法 | |
CN111489392B (zh) | 多人环境下单个目标人体运动姿态捕捉方法及*** | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
CN113888629A (zh) | 一种基于rgbd相机的快速物体三维位姿估计方法 | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
CN112017259B (zh) | 一种基于深度相机与热像仪的室内定位与建图方法 | |
CN112016568B (zh) | 一种目标对象的图像特征点的跟踪方法及装置 | |
JP2005250994A (ja) | ステレオ画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |