CN116399350A - 一种融合YOLOv5的半直接法视觉里程计的确定方法 - Google Patents

一种融合YOLOv5的半直接法视觉里程计的确定方法 Download PDF

Info

Publication number
CN116399350A
CN116399350A CN202310603634.5A CN202310603634A CN116399350A CN 116399350 A CN116399350 A CN 116399350A CN 202310603634 A CN202310603634 A CN 202310603634A CN 116399350 A CN116399350 A CN 116399350A
Authority
CN
China
Prior art keywords
points
moment
static
current
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310603634.5A
Other languages
English (en)
Other versions
CN116399350B (zh
Inventor
申强
田凌蕴
邓子龙
王猛
王晗瑜
杨东晓
宋荣昌
毛瑞芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202310603634.5A priority Critical patent/CN116399350B/zh
Publication of CN116399350A publication Critical patent/CN116399350A/zh
Application granted granted Critical
Publication of CN116399350B publication Critical patent/CN116399350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合YOLOv5的半直接法视觉里程计的确定方法,属于视觉导航技术领域,特别涉及一类动态场景视觉导航技术领域。该发明能够卫星拒止环境下,于无人机边缘计算平台上实现动态场景下的视觉导航。本发明主要针对无人机机载平台算力有限与实际非室内场景高动态物体较多的情况,弥补传统视觉里程计所出现的导航精度低甚至导航失效的问题,具有轻量化、实时性较高、导航精度高的优点。

Description

一种融合YOLOv5的半直接法视觉里程计的确定方法
技术领域
本发明涉及一种融合YOLOv5的半直接法视觉里程计的确定方法,属于视觉导航技术领域,特别涉及一类动态场景视觉导航技术领域。
背景技术
视觉里程计(Visual Odometry,简称VO)是指利用相机等传感器的图像信息来估计移动的过程和姿态的技术。它是一种基于视觉信息的定位与导航技术,可以用于无人机、机器人等领域。在视觉里程计中,相邻帧之间的特征点匹配和位姿估计是关键步骤,通过对特征点运动轨迹的计算和积累,可以得到相机的运动轨迹和姿态信息。
传统的视觉里程计面向室内静态场景,其研究方法与解决方案趋向成熟。但针对室外无人机使用的导航***,面向复杂的真实场景,存在移动的行人、行驶的车辆等,而之前表现较好的算法方案在此种场景下运行,会由于视觉图像中像素移动方向不统一而导致导航定位准确度降低甚至导航***崩溃的情况。同时,传统视觉里程计大多未考虑***移植到边缘计算平台上运行的实时性问题。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提出一种融合YOLOv5的半直接法视觉里程计的确定方法,该方法针对无人机室外飞行的动态复杂场景与无人机机载平台算力有限的特点,将YOLOv5目标检测算法与半直接法视觉里程计融合,通过YOLOv5进行复杂场景内的动态物体标记,进行动态特征点剔除,提高了特征点提取质量,以此提高了里程计精度。
本发明的技术解决方案是:
一种融合YOLOv5的半直接法视觉里程计的确定方法,该方法的步骤包括:
步骤1,在当前k时刻提取挂载在无人机上的摄像传感器中的当前时刻的图像数据作为原始图像f k,并根据原始图像f k建立图像金字塔,然后利用YOLOv5算法对建立的图像金字塔底层图像即原始图像f k进行动态目标检测,检测得到动态目标锚框位置,根据检测到的动态目标锚框位置对图像金字塔进行动态区域剔除,完成动态区域剔除后得到静态区域,最后在静态区域进行基于四叉树结构的FAST静态特征点提取,获得当前k时刻的静态特征点;
步骤2,使用金字塔KLT光流算法对步骤1提取的静态特征点进行跟踪,获得特征点对,之后使用RANSAC迭代拟合出一个最优的模型甄别出内点与外点,随后使用内点集合计算单应矩阵H,再将计算得到的单应矩阵H进行SVD分解,得到相机当前时刻相对上一时刻的粗略相对姿态;
步骤3,将步骤1得到的静态特征点投影到三维空间中,在三维空间中以k-1时刻的相机位置为原点建立三维坐标系,得到静态特征点在k-1时刻相机坐标系下的坐标,进而获得原始图像f k-1中静态特征点的位置p k-1及深度d k-1
步骤4,根据步骤2得到的相机粗略相对姿态,对步骤3得到的原始图像f k-1中静态特征点的位置p k-1及深度d k-1进行坐标系转换,得到静态特征点在k时刻相机坐标系下的坐标;
步骤5,根据相机内参将步骤4得到的静态特征点在k时刻相机坐标系下的坐标投影到k时刻下的图像平面中,得到静态特征点的二维坐标;
步骤6,根据步骤5得到的静态特征点的二维坐标,使用重投影灰度误差最小化的方法进行迭代求解,得到相机当前时刻相对上一时刻精确的相对位姿;
步骤7,判断当前k时刻所跟踪的静态特征点丢失比例是否超过15%或距离上一关键帧的平移量是否超过场景深度的12%,若满足两条件之一,则将当前帧设为关键帧,被设为关键帧的当前帧中的静态特征点经过深度估计后获得静态特征点在世界坐标系下的三维坐标,该静态特征点在世界坐标系下称为地图点,进入步骤8;若两条件均不满足,则进入步骤1;
步骤8,遍历之前时刻所有的关键帧,将遍历的每个关键帧横竖分为四部分,对每一关键帧均选取距图中心最近的静态特征点以及四部分中离中心最远的静态特征点,共五点。对上述五点通过不同时间的相机的相对位姿变换投影到当前关键帧的坐标系下,若存在五点中的任意一个点能够投影到当前关键帧中,则这一关键帧为共视帧,并将得到的所有共视帧从近及远排序,提取前N帧共视帧建立局部地图;
步骤9,将地图点投影到当前关键帧中并对关键帧进行网格划分,对每个网格进行特征对齐,进行特征对齐的具体方法为:
对每个网格中的地图点在局部地图中寻找观测角度最小的共视帧I ref,之后计算当前关键帧上该地图点投影的像素点p k所在的图像块I k与被选中的共视帧上该地图点投影的像素点P ref所在的图像块I ref之间的仿射矩阵A,之后通过仿射矩阵A完成特征对齐,建立对像素点p k的目标函数:
Figure SMS_1
对目标函数进行最小二乘优化,得到地图点的投影点优化后的位置坐标p k
步骤10,使用上述优化后得到的像素点p k和在世界坐标系下的坐标P k对于世界坐标系到当前关键帧坐标系的位姿变换矩阵T k,w进行进一步优化,使用Bundle Adjustment算法最小化重投影误差,其计算函数为:
Figure SMS_2
计算完成后,得到更为精确位姿变换矩阵。
有益效果
本发明公开一种融合YOLOv5的半直接法单目视觉里程计算法,该发明能够卫星拒止环境下,于无人机边缘计算平台上实现动态场景下的视觉导航。本发明主要针对无人机机载平台算力有限与实际非室内场景高动态物体较多的情况,弥补传统视觉里程计所出现的导航精度低甚至导航失效的问题,具有轻量化、实时性较高、导航精度高的优点。
附图说明
图1为从无人机摄像传感器获取的图像数据;
图2为实施例中无人机室外飞行路线;
图3为融合YOLOv5的半直接法视觉里程计解析从飞行实验中获取的图像数据,得到的解析轨迹与无人机飞行的真实轨迹的对比图;
图4为ORB-SLAM2算法解析从飞行实验中获取的图像数据,得到的解析轨迹与无人机飞行的真实轨迹的对比图。
具体实施方式
下面结合实施例对本发明做进一步说明。
实施例
一种融合YOLOv5的半直接法视觉里程计的确定方法,该方法的步骤包括:
步骤1,在当前k时刻提取挂载在无人机上的摄像传感器中的当前时刻的图像数据如图1所示,作为原始图像
Figure SMS_3
,并根据原始图像/>
Figure SMS_4
建立图像金字塔,然后利用YOLOv5算法对建立的图像金字塔底层图像即原始图像/>
Figure SMS_5
进行动态目标检测,检测得到行人这一动态目标锚框位置,根据检测到的动态目标锚框位置对图像金字塔中锚框位置内的所有像素位置置0,其余像素位置置1并记为静态区域,完成动态区域剔除。之后仅对像素位置置1的静态区域进行基于四叉树结构的FAST静态特征点提取,获得静态特征点;
步骤2,使用金字塔KLT光流算法对步骤1提取的静态特征点进行跟踪,获得特征点对,之后使用RANSAC迭代拟合出一个最优的模型甄别出内点与外点,随后使用内点集合计算单应矩阵
Figure SMS_6
,再将计算得到的单应矩阵/>
Figure SMS_7
进行SVD分解,得到相机当前时刻相对上一时刻的粗略相对姿态;
步骤3,将步骤1得到的静态特征点投影到三维空间中,在三维空间中以k-1时刻的相机位置为原点建立三维坐标系,得到静态特征点在k-1时刻相机坐标系下的坐标,进而获得原始图像
Figure SMS_8
中静态特征点的位置/>
Figure SMS_9
及深度/>
Figure SMS_10
步骤4,根据步骤2得到的相机粗略相对姿态,对步骤3得到的原始图像
Figure SMS_11
中静态特征点的位置/>
Figure SMS_12
及深度/>
Figure SMS_13
进行坐标系转换,得到静态特征点在k时刻相机坐标系下的坐标;
步骤5,根据相机内参将步骤4得到的静态特征点在k时刻相机坐标系下的坐标投影到k时刻下的图像平面中,得到静态特征点的二维坐标;
步骤6,根据步骤5得到的静态特征点的二维坐标,使用重投影灰度误差最小化的方法进行迭代求解,得到相机当前时刻相对上一时刻精确的相对位姿;
步骤7,当前帧距离上一关键帧的平移量为场景深度的15%,超过阈值,因此将当前帧设为关键帧,被设为关键帧的当前帧中的静态特征点经过深度估计后获得静态特征点在世界坐标系下的三维坐标,该静态特征点在世界坐标系下称为地图点;
步骤8,遍历之前时刻所有的关键帧,将遍历的每个关键帧横竖分为四部分,对每一关键帧均选取距图中心最近的静态特征点以及四部分中离中心最远的静态特征点,共五点。对上述五点通过不同时间的相机的相对位姿变换投影到当前关键帧的坐标系下,若存在五点中的任意一个点能够投影到当前关键帧中,则这一关键帧为共视帧,并将得到的所有共视帧从近及远排序,提取前5帧共视帧建立局部地图;
步骤9,将地图点投影到当前关键帧中并对关键帧进行网格划分,对每个网格进行特征对齐,进行特征对齐的具体方法为:
对每个网格中的地图点在局部地图中寻找观测角度最小的共视帧
Figure SMS_16
,之后计算当前关键帧上该地图点投影的像素点/>
Figure SMS_18
所在的图像块/>
Figure SMS_20
与被选中的共视帧上该地图点投影的像素点/>
Figure SMS_15
所在的图像块/>
Figure SMS_17
之间的仿射矩阵/>
Figure SMS_19
,之后通过仿射矩阵/>
Figure SMS_21
完成特征对齐,建立对像素点/>
Figure SMS_14
的目标函数:
Figure SMS_22
进行最小二乘优化,得到地图点的投影点优化后的位置坐标
Figure SMS_23
步骤10,使用上述优化后得到的像素点
Figure SMS_24
在世界坐标系下的坐标/>
Figure SMS_25
对于世界坐标系到当前关键帧坐标系的位姿变换矩阵/>
Figure SMS_26
进行进一步优化,使用Bundle Adjustment算法最小化重投影误差,其计算函数为:
Figure SMS_27
计算完成后,得到更为精确位姿变换矩阵。
在实施例中,无人机飞行轨迹如图2所示,进行了150m的飞行实验。为了检验融合YOLOv5的半直接法视觉里程计的性能,将目前具有代表性的ORB-SLAM2算法设为对照组,将上述飞行实验获得的图像数据作为输入,在相同的机载嵌入式平台中进行运行,得到两算法解算的飞行轨迹与无人机实际飞行轨迹对比图如图3、图4所示,图3、图4两图中虚线均表示无人机实际飞行轨迹,图3中实线表示融合YOLOv5的半直接法视觉里程计解算轨迹,图4中实线表示ORB-SLAM2算法解算轨迹;
采用本发明的视觉里程计算法:解析轨迹的路径绝对误差均方根为1.03m;
采用ORB-SLAM2算法:解析轨迹的路径绝对误差均方根为1.89m。
相较于传统视觉里程计算法,采用本发明能够提高视觉里程计在室外动态场景下的定位精度。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于该方法的步骤包括:
步骤1,在当前k时刻提取挂载在无人机上的摄像传感器中的当前时刻的图像数据作为原始图像f k,并根据原始图像f k建立图像金字塔,然后利用YOLOv5算法对建立的图像金字塔底层图像即原始图像f k进行动态目标检测,检测得到动态目标锚框位置,根据检测到的动态目标锚框位置对图像金字塔进行动态区域剔除,完成动态区域剔除后得到静态区域,最后在静态区域进行基于四叉树结构的FAST静态特征点提取,获得当前k时刻的静态特征点;
步骤2,对步骤1提取的当前k时刻的静态特征点与k-1时刻的静态特征点进行跟踪比较,获得特征点对,去除获得的特征点对中的外点,使用内点计算单应矩阵H,再将计算得到的单应矩阵H进行SVD分解,得到相机当前时刻相对上一时刻的粗略相对姿态;
步骤3,将步骤1得到的静态特征点投影到三维空间中,在三维空间中以k-1时刻的相机位置为原点建立三维坐标系,得到静态特征点在k-1时刻相机坐标系下的坐标,进而获得原始图像f k-1中静态特征点的位置p k-1及深度d k-1
步骤4,根据步骤2得到的相机当前时刻相对上一时刻的粗略相对姿态,对步骤3得到的原始图像f k-1中静态特征点的位置p k-1及深度d k-1进行坐标系转换,得到静态特征点在k时刻相机坐标系下的坐标;
步骤5,根据相机内参将步骤4得到的静态特征点在k时刻相机坐标系下的坐标投影到k时刻下的图像平面中,得到静态特征点的二维坐标;
步骤6,根据步骤5得到的静态特征点的二维坐标,使用重投影灰度误差最小化的方法进行迭代求解,得到相机当前时刻相对上一时刻精确的相对位姿,完成融合YOLOv5的半直接法视觉里程计的确定。
2.根据权利要求1所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
对得到的半直接法视觉里程计进一步优化,具体方法为:判断当前k时刻所跟踪的静态特征点丢失比例是否超过15%或距离上一关键帧的平移量是否超过场景深度的12%,若两个条件均不满足,则返回步骤1,若满足两条件之一,则将当前帧设为关键帧,被设为关键帧的当前帧中的静态特征点经过深度估计后获得静态特征点在世界坐标系下的三维坐标,该静态特征点在世界坐标系下称为地图点,遍历之前时刻所有的关键帧,使用五点法判别遍历的关键帧是否为共视帧,并将判别出的所有共视帧从近及远排序,提取前N帧共视帧建立局部地图;将地图点投影到当前关键帧中并对关键帧进行网格划分,使用局部地图对每个网格进行特征对齐,得到地图点的投影点优化后的位置坐标p k,使用位置坐标p k和世界坐标系下的坐标P k对位姿变换矩阵T k,w进行进一步优化,得到更为精确位姿变换矩阵。
3.根据权利要求1或2所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
所述步骤2中,使用金字塔KLT光流算法对步骤1提取的当前k时刻的静态特征点与k-1时刻的静态特征点进行跟踪比较,获得特征点对,之后使用RANSAC迭代拟合出最优的模型甄别出获得的特征点对中的内点与外点。
4.根据权利要求2所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
所述使用五点法判别遍历的关键帧是否为共视帧的方法为:
将遍历的每个关键帧横竖分为四部分,对每一关键帧均选取距图中心最近的静态特征点以及四部分中离中心最远的静态特征点,共五点,对选取的五点通过不同时间的相机的相对位姿变换投影到当前关键帧的坐标系下,若存在五点中的任意一个点能够投影到当前关键帧中,则这一关键帧为共视帧。
5.根据权利要求4所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
所述对每个网格进行特征对齐的方法为:
对每个网格中的地图点在局部地图中寻找观测角度最小的共视帧I ref,之后计算当前关键帧上该地图点投影的像素点p k所在的图像块I k与被选中的共视帧上该地图点投影的像素点P ref所在的图像块I ref之间的仿射矩阵A,之后通过仿射矩阵A完成特征对齐,建立对像素点p k的目标函数:
Figure QLYQS_1
对目标函数进行最小二乘优化,得到地图点的投影点优化后的位置坐标p k
6.根据权利要求5所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
所述位姿变换矩阵T k,w是指在世界坐标系到当前关键帧坐标系下的位姿变换矩阵。
7.根据权利要求5所述的一种融合YOLOv5的半直接法视觉里程计的确定方法,其特征在于:
所述对位姿变换矩阵T k,w进行进一步优化时使用Bundle Adjustment算法最小化重投影误差,优化函数为:
Figure QLYQS_2
CN202310603634.5A 2023-05-26 2023-05-26 一种融合YOLOv5的半直接法视觉里程计的确定方法 Active CN116399350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310603634.5A CN116399350B (zh) 2023-05-26 2023-05-26 一种融合YOLOv5的半直接法视觉里程计的确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310603634.5A CN116399350B (zh) 2023-05-26 2023-05-26 一种融合YOLOv5的半直接法视觉里程计的确定方法

Publications (2)

Publication Number Publication Date
CN116399350A true CN116399350A (zh) 2023-07-07
CN116399350B CN116399350B (zh) 2023-09-01

Family

ID=87014434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310603634.5A Active CN116399350B (zh) 2023-05-26 2023-05-26 一种融合YOLOv5的半直接法视觉里程计的确定方法

Country Status (1)

Country Link
CN (1) CN116399350B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119732A (zh) * 2021-12-06 2022-03-01 福建工程学院 基于目标检测和K-means聚类的联合优化动态SLAM方法
CN114283198A (zh) * 2021-12-29 2022-04-05 杭州电子科技大学 一种基于rgbd传感器的去除动态目标的slam方法
JP2022523312A (ja) * 2019-01-28 2022-04-22 キューフィールテック (ベイジン) カンパニー,リミティド Vslam方法、コントローラ及び移動可能機器
CN115588133A (zh) * 2022-08-03 2023-01-10 宁波大学 适用于动态环境的视觉slam方法
CN116147618A (zh) * 2023-01-17 2023-05-23 中国科学院国家空间科学中心 一种适用动态环境的实时状态感知方法及***
CN116151320A (zh) * 2022-09-26 2023-05-23 北京眸星科技有限公司 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022523312A (ja) * 2019-01-28 2022-04-22 キューフィールテック (ベイジン) カンパニー,リミティド Vslam方法、コントローラ及び移動可能機器
CN114119732A (zh) * 2021-12-06 2022-03-01 福建工程学院 基于目标检测和K-means聚类的联合优化动态SLAM方法
CN114283198A (zh) * 2021-12-29 2022-04-05 杭州电子科技大学 一种基于rgbd传感器的去除动态目标的slam方法
CN115588133A (zh) * 2022-08-03 2023-01-10 宁波大学 适用于动态环境的视觉slam方法
CN116151320A (zh) * 2022-09-26 2023-05-23 北京眸星科技有限公司 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
CN116147618A (zh) * 2023-01-17 2023-05-23 中国科学院国家空间科学中心 一种适用动态环境的实时状态感知方法及***

Also Published As

Publication number Publication date
CN116399350B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
CN111693972B (zh) 一种基于双目序列图像的车辆位置与速度估计方法
CN111929699B (zh) 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及***
CN113269098B (zh) 一种基于无人机的多目标跟踪定位与运动状态估计方法
CN110223348B (zh) 基于rgb-d相机的机器人场景自适应位姿估计方法
US11461912B2 (en) Gaussian mixture models for temporal depth fusion
CN105809687B (zh) 一种基于图像中边沿点信息的单目视觉测程方法
CN108734103B (zh) 卫星视频中运动目标的检测与跟踪方法
CN106780560B (zh) 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法
US8503730B2 (en) System and method of extracting plane features
CN103149939A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN110487286B (zh) 基于点特征投影与激光点云融合的机器人位姿判断方法
CN110570453A (zh) 一种基于双目视觉的闭环式跟踪特征的视觉里程计方法
CN112115980A (zh) 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法
CN114018236A (zh) 一种基于自适应因子图的激光视觉强耦合slam方法
CN114004977A (zh) 一种基于深度学习的航拍数据目标定位方法及***
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
CN117036404A (zh) 一种单目热成像同时定位与建图方法和***
KR20210095925A (ko) 카메라 측위
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Cigla et al. Image-based visual perception and representation for collision avoidance
CN116399350B (zh) 一种融合YOLOv5的半直接法视觉里程计的确定方法
CN111239761B (zh) 一种用于室内实时建立二维地图的方法
Wang et al. Online drone-based moving target detection system in dense-obstructer environment
CN115018883A (zh) 一种基于光流和卡尔曼滤波的输电线路无人机红外自主巡检方法
CN111383354B (zh) 一种基于sfm的三维点云朝向修正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant