CN117671505A - 一种基于仿射信息的动态环境下实时视觉slam方法 - Google Patents
一种基于仿射信息的动态环境下实时视觉slam方法 Download PDFInfo
- Publication number
- CN117671505A CN117671505A CN202311710990.3A CN202311710990A CN117671505A CN 117671505 A CN117671505 A CN 117671505A CN 202311710990 A CN202311710990 A CN 202311710990A CN 117671505 A CN117671505 A CN 117671505A
- Authority
- CN
- China
- Prior art keywords
- points
- real
- affine
- frame
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 title claims abstract description 61
- 230000000007 visual effect Effects 0.000 title claims abstract description 28
- 230000002159 abnormal effect Effects 0.000 claims abstract description 29
- 230000011218 segmentation Effects 0.000 claims abstract description 26
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 8
- 230000000717 retained effect Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 11
- 238000005457 optimization Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000005855 radiation Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013450 outlier detection Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
一种基于仿射信息的动态环境下实时视觉SLAM方法,包括:S1、根据图像采集传感器的输出特征,构建基于匹配点间仿射关系的仿射一致性约束条件;S2、逐帧解析图像采集传感器采集到的实时图像,基于当前帧生成实际匹配点集;S3、通过仿射一致性约束条件检测实际匹配点集中的异常点得到异常占比,根据异常占比设置语义分割先验值;S4、若前一帧对应的语义分割先验值达到预设的识别阈值,则将当前帧作为关键帧,利用实时语义分割模型从关键帧中提取出动态对象;S5、基于异常点的信息和动态对象更新地图;S6、基于关键帧的选择结果和动态对象实时建图。本发明能够解决现有技术中的vSLAM在动态环境下定位速度慢、定位精度低以及建图效果差的问题不足。
Description
技术领域
本发明涉及同时定位与建图技术领域,具体的说是一种基于仿射信息的动态环境下实时视觉SLAM方法。
背景技术
同时定位与建图(Simultaneous Localization and Mapping,SLAM)技术是自主机器人无人导航的关键技术,它可以在未知环境中同时估计位姿和构建3D稠密点云地图,因此其在自动驾驶、无人机(Unmanned Aerial Vehicle,UAV)、虚拟现实(AugmentedReality,AR)及无人水下自主航行器(Autonomous Underwater Vehicles,AUV)等领域有着广泛的应用。
视觉SLAM(vSLAM)***因其传感器单一、低成本和轻量的特性,是SLAM***研究的重要领域。然而,静态环境是大多数视觉同时定位与地图构建***的先决条件。这样一个强大的假设限制了大多数现有SLAM***的实际应用。
当运动物体进入相机视域时,动态匹配点会直接中断相机定位,运动物体形成的噪声块也会污染构建的地图。为了确保vSLAM在真实场景中的长期应用,如何克服由于动态环境中的移动物体(如行人、车辆)对定位精度和建图效果的负面影响成为了研究焦点。在vSLAM***中,通常通过引入基于学习的方法分割动态对象或基于几何的方法稀疏检测动态特征,从而打破这种限制,克服动态对象的负面影响。然而,基于几何的方法缺乏构造有效地图的能力,而基于学习的方法往往实时性较差。
发明内容
为了解决现有技术中的vSLAM在动态环境下定位速度慢、定位精度低以及建图效果差的问题不足,本发明提供一种基于仿射信息的动态环境下实时视觉SLAM方法。
为了实现上述目的,本发明采用的具体方案为:一种基于仿射信息的动态环境下实时视觉SLAM方法,包括如下步骤:
S1、根据图像采集传感器的输出特征,构建基于匹配点间仿射关系的仿射一致性约束条件;S2、逐帧解析图像采集传感器采集到的实时图像,并且基于当前帧生成实际匹配点集;
S3、通过仿射一致性约束条件检测实际匹配点集中的异常点得到异常占比,并且根据异常占比设置语义分割先验值;
S4、若前一帧对应的语义分割先验值达到预设的识别阈值,则将当前帧作为关键帧,并且利用实时语义分割模型从关键帧中提取出动态对象;
S5、基于异常点的信息和动态对象更新地图;
S6、基于关键帧的选择结果和动态对象实时建图。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S1的具体方法包括:
S11、将图像采集传感器的输出图像转为灰度图,并且提取出至少两个特征点集,特征点集中包括多个特征点;
S12、对所有特征点进行特征匹配,并且利用旋转一致性约束条件获得若干个包含多对匹配点的基本匹配点集;
S13、根据基本匹配点集内部的约束关系构建仿射一致性约束条件。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S12中,获得基本匹配点集的具体方法包括:
S121、将特征点作为待判断点,计算其它特征点集中特征点与待判断点之间的像素距离,计算方法为:
dis=(px-qx)2+(py-qy)2,其中,dis是像素点p和q之间的简易像素距离,角标x和y分别是像素点的横纵坐标;
S122、根据像素距离对其它特征点进行筛选,具体方法为:
其中,set()表示集合,n是集合中元素的数量,disi是其他特征点i离待判断点的距离,f()是筛选函数,并且有/>
S123、将待判断点和筛选出的与待判断点距离较近的前U个组合为基本匹配点集;
S124、重复S121至S123,获得若干个基本匹配点集。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S123中,U=k*Nm,其中Nm为从特征点集中像素点的数量,k为比例参数。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:仿射一致性约束条件表示为:当基本匹配点集中的U对匹配点中一一匹配的数量Nc满足Nc>(U-2)时,一对匹配点被判断为正确匹配。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S3中,异常点的异常占比的计算方式为r=No/Nm,其中No为检测出的异常点的数量,并且将异常占比作为语义分割先验值。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S4中,实时语义分割模型设置为YOLOv5s-seg模型,YOLOv5s-seg模型基于仿射信息的语义分割方法为:
其中,set()表示集合,ini_mask是由YOLOv5s-seg模型分割的初始掩码矩阵,YOLOv5s-seg()是YOLOv5s-seg模型的实时推理函数,frame是输入的当前帧,fin_mask是经由仿射信息共同判断后的剩下的掩码矩阵,k是初始分割区域的数量,即初始识别的对象的数量,g()是联合仿射信息判断当前对象是否为动态的函数,并且有
其中,Nl_o和Nl_m分别是落在待判断的对象中的异常值和匹配点的数量。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S5中,基于异常点的信息和动态对象更新地图的方法包括对实际匹配点集进行筛选,从地图中去除异常点和动态对象,具体方法为:
tracking_matching_points是用于更新地图的地图点,matching_points是实际匹配点集,OA是实际匹配点集中的异常点,DS是识别出的动态对象,h()表示地图点的筛选函数,表示从前者中删除后者并且保留余项。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S6中,当确定新的关键帧时增加地图点,具体方法为:
其中,creat表示新增的地图点,drop表示不新增地图点。
作为上述基于仿射信息的动态环境下实时视觉SLAM方法的进一步优化:S6中,实时建图的方法为:
mappint_thread(key_frame,depth_frame);
其中,mappint_thread是建图函数,key_frame是关键帧的RGB图,depth_frame是当前的深度帧。
有益效果:本发明利用视觉传感器作为输入对象,视觉传感器可以是单目相机、双目相机以及RGB-D相机等常用设备,适用范围广泛;进而设计用于检测匹配点集中异常值的基于仿射原理的仿射一致性约束,通过高效检测异常值,减少动态特征对于***跟踪的影响,从而改善视觉SLAM***在动态环境中的定位精度与鲁棒性;在此基础上,设计基于异常值先验的语义方法,改进***实时性能与跟踪精度,这主要包括两个方面:其一,基于异常值在匹配集中的比率,设计语义方法使用的先验值,稀疏的使用语义方法,实现对于有利***跟踪特征点的保留和语义方法使用的时间的减少;其二,使用实时语义分割模型分割当前帧,获得所有在训练环中的对象掩码,结合从放射约束获得的异常值信息,基于异常值在每一个掩码中相对于掩码区域中所有匹配点的比率,构建有效的语义方法,实现对于动态对象的检测;基于异常值和动态对象检测结果,设计改进式的地图更新方法,确保在用于长期跟踪的地图中不存在动态特征,从而进一步改进***跟踪精度;基于关键帧选择结果与语义分割结果,针对RGB-D传感器易获取深度图的特性,设计实时建图方法,实现动态环境下的针对RGB-D传感器的有效建图。
附图说明
图1是本发明的流程图;
图2是在改进式仿射一致性约束下的一对错误匹配点之间的仿射关系图;
图3是本发明的原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1至3,一种基于仿射信息的动态环境下实时视觉SLAM方法,包括S1至S6。
S1、根据图像采集传感器的输出特征,构建基于匹配点间仿射关系的仿射一致性约束条件。S1的具体方法包括S11至S13。
S11、将图像采集传感器的输出图像转为灰度图,并且提取出至少两个特征点集,特征点集中包括多个特征点。提取特征可以采用ORB(Oriented FAST and Rotated BRIEF,定向快速旋转简报)特征法,属于本领域的常用方法,在此不再赘述。
S12、对所有特征点进行特征匹配,并且利用旋转一致性约束条件获得若干个包含多对匹配点的基本匹配点集。S12中,获得基本匹配点集的具体方法包括S121至S124。
S121、将特征点作为待判断点,计算其它特征点集中特征点与待判断点之间的像素距离,计算方法为:
dis=(px-qx)2+(py-qy)2,其中,dis是像素点p和q之间的简易像素距离,角标x和y分别是像素点的横纵坐标,即一个像素点在图像中的横纵坐标。
S122、根据像素距离对其它特征点进行筛选,具体方法为:
其中,set()表示集合,dis_points_ini是用于判断某一特征点是否匹配正确的初始集合,其中的每一个特征点都包括了特征点的索引信息和与待判断点之间的距离两个参数,n是集合中元素的数量,disi是其他特征点i离待判断点的距离,f()是筛选函数,并且有/>ε在本发明中被设置为400,与待判断点距离较大的特征点相比,距离较近的特征点之间的相关性更有利于提高仿射一致性约束的效果。
S123、将待判断点和筛选出的与待判断点距离较近的前U个组合为基本匹配点集。具体方法为sort_indices=sort(dis_points_ini.dis,U),其中,sort_indices是排序的特征点的索引信息,用于判断周围有多少特征点与待判断点一一匹配,或满足仿射定理,sort()是排序函数,并且返回特征点的索引信息,“.”操作表示取对象的某一参数。S123中,U=k*Nm,其中Nm为从特征点集中像素点的数量,k为比例参数。在本实施例中,k取0.01。
S124、重复S121至S123,获得若干个基本匹配点集。
S13、根据基本匹配点集内部的约束关系构建仿射一致性约束条件Scope-Affine。仿射一致性约束条件表示为:当基本匹配点集中的U对匹配点中一一匹配的数量Nc满足Nc>(U-2)时,一对匹配点被判断为正确匹配。
S2、逐帧解析图像采集传感器采集到的实时图像,并且基于当前帧生成实际匹配点集。
S3、通过仿射一致性约束条件检测实际匹配点集中的异常点得到异常占比,并且根据异常占比设置语义分割先验值。S3中,异常点的异常占比的计算方式为r=No/Nm,其中No为检测出的异常点的数量,并且将异常占比作为语义分割先验值。从而能高效检测动态特征,节省语义方法在***中的使用时间,并且适当的提高***跟踪精度,即保留有利于***跟踪的特征。
S4、若前一帧对应的语义分割先验值达到预设的识别阈值,则将当前帧作为关键帧,并且利用实时语义分割模型从关键帧中提取出动态对象。具体地说,先对语义分割先验值进行判断,方法为:
其中,Scope-Affine和Semantic分别表示Scope-Affine方法和语义方法,&符号表示方法的共同使用,当异常占比r不小于ξ时语义方法作用于当前帧,当异常占比r小于ξ时,仅Scope-Affine作用于***跟踪过程。随着ξ的增加,需要Scope-Affine对异常值检测的效果更好,因为更多的帧只使用Scope-Affine检测***跟踪的异常值。增加作用域仿射的约束范围是一种有效的方法,即增加ò或U,然而,由于约束范围的增加,动态特征被迫进入静态特征的检测过程,因此更多的静态特征也被检测为异常值。因此,出于综合考虑,ξ设置为0.6。
S4中,实时语义分割模型设置为YOLOv5s-seg模型,YOLOv5s-seg模型基于仿射信息的语义分割方法为:
其中,set()表示集合,ini_mask是由YOLOv5s-seg模型分割的初始掩码矩阵,包括了所有的对象掩码,YOLOv5s-seg()是YOLOv5s-seg模型的实时推理函数,用于分割输入的图像,frame是输入的当前帧,fin_mask是经由仿射信息共同判断后的剩下的掩码矩阵,即属于动态对象的掩码矩阵,k是初始分割区域的数量,即初始识别的动态对象的数量,g()是联合仿射信息判断当前对象是否为动态的函数,并且有
其中,Nl_o和Nl_m分别是落在待判断的对象中的异常值和匹配点的数量,即分别是落在待判断的掩码中的异常值和匹配点的数量。
对于一个分割对象来说,如果分割区域中的异常值相对这个区域中所有匹配点的比率大于另一阈值,认为这个对象是动态的;基于动态特征检测结果,获得最终的特征匹配点集。
更进一步的,在确定动态对象之后,设计动态特征检测方法进一步优化:
其中,mask()是对象掩码矩阵的索引方法,由所有的fin_mask组成,p.x和p.y分别表示一对匹配的特征点中在时序上位于后面的一个点在图像矩阵中横纵坐标,drop表示这个点被识别为动态对象,其他时候表示这个点被保留并用于之后的跟踪。
S5、基于异常点的信息和动态对象更新地图。S5中,基于异常点的信息和动态对象更新地图的方法包括对实际匹配点集进行筛选,从地图中去除异常点和动态对象,具体方法为:
tracking_matching_points是用于更新地图的地图点,matching_points是实际匹配点集,OA是实际匹配点集中的异常点,DS是识别出的动态对象,h()表示地图点的筛选函数,表示从前者中删除后者并且保留余项。
S6、基于关键帧的选择结果和动态对象实时建图。S6中,当确定新的关键帧时增加地图点,具体方法为:
其中,creat表示新增的地图点,drop表示不新增地图点。
S6中,实时建图的方法为:
mappint_thread(key_frame,depth_frame);
其中,mappint_thread是建图函数,key_frame是关键帧的RGB图,depth_frame是当前的深度帧。
本发明利用视觉传感器作为输入对象,视觉传感器可以是单目相机、双目相机以及RGB-D相机等常用设备,进而设计用于检测匹配点集中异常值的基于仿射原理的仿射一致性约束,通过高效检测异常值,减少动态特征对于***跟踪的影响,从而改善视觉SLAM***在动态环境中的定位精度与鲁棒性;在此基础上,设计基于异常值先验的语义方法,改进***实时性能与跟踪精度,这主要包括两个方面:其一,基于异常值在匹配集中的比率,设计语义方法使用的先验值,稀疏的使用语义方法,实现对于有利***跟踪特征点的保留和语义方法使用的时间的减少;其二,使用实时语义分割模型分割当前帧,获得所有在训练环中的对象掩码,结合从放射约束获得的异常值信息,基于异常值在每一个掩码中相对于掩码区域中所有匹配点的比率,构建有效的语义方法,实现对于动态对象的检测;基于异常值和动态对象检测结果,设计改进式的地图更新方法,确保在用于长期跟踪的地图中不存在动态特征,从而进一步改进***跟踪精度;基于关键帧选择结果与语义分割结果,针对RGB-D传感器易获取深度图的特性,设计实时建图方法,实现动态环境下的针对RGB-D传感器的有效建图。
综上本发明在打破现有vSLAM***由于环境的静态假设而带来的在真实场景中长期应用的局限性的同时,达到***在跟踪实时性、跟踪精度和建图效果上的整体提升目的。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,包括如下步骤:
S1、根据图像采集传感器的输出特征,构建基于匹配点间仿射关系的仿射一致性约束条件;
S2、逐帧解析图像采集传感器采集到的实时图像,并且基于当前帧生成实际匹配点集;
S3、通过仿射一致性约束条件检测实际匹配点集中的异常点得到异常占比,并且根据异常占比设置语义分割先验值;
S4、若前一帧对应的语义分割先验值达到预设的识别阈值,则将当前帧作为关键帧,并且利用实时语义分割模型从关键帧中提取出动态对象;
S5、基于异常点的信息和动态对象更新地图;
S6、基于关键帧的选择结果和动态对象实时建图。
2.如权利要求1所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S1的具体方法包括:
S11、将图像采集传感器的输出图像转为灰度图,并且提取出至少两个特征点集,特征点集中包括多个特征点;
S12、对所有特征点进行特征匹配,并且利用旋转一致性约束条件获得若干个包含多对匹配点的基本匹配点集;
S13、根据基本匹配点集内部的约束关系构建仿射一致性约束条件。
3.如权利要求2所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S12中,获得基本匹配点集的具体方法包括:
S121、将特征点作为待判断点,计算其它特征点集中特征点与待判断点之间的像素距离,计算方法为:
dis=(px-qx)2+(py-qy)2,其中,dis是像素点p和q之间的简易像素距离,角标x和y分别是像素点的横纵坐标;
S122、根据像素距离对其它特征点进行筛选,具体方法为:
其中,set()表示集合,n是集合中元素的数量,disi是其他特征点i离待判断点的距离,f()是筛选函数,并且有/>
S123、将待判断点和筛选出的与待判断点距离较近的前U个组合为基本匹配点集;
S124、重复S121至S123,获得若干个基本匹配点集。
4.如权利要求3所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S123中,U=k*Nm,其中Nm为从特征点集中像素点的数量,k为比例参数。
5.如权利要求4所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,仿射一致性约束条件表示为:当基本匹配点集中的U对匹配点中一一匹配的数量Nc满足Nc>(U-2)时,一对匹配点被判断为正确匹配。
6.如权利要求4所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S3中,异常点的异常占比的计算方式为r=No/Nm,其中No为检测出的异常点的数量,并且将异常占比作为语义分割先验值。
7.如权利要求1所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S4中,实时语义分割模型设置为YOLOv5s-seg模型,YOLOv5s-seg模型基于仿射信息的语义分割方法为:
其中,set()表示集合,ini_mask是由YOLOv5s-seg模型分割的初始掩码矩阵,YOLOv5s-seg()是YOLOv5s-seg模型的实时推理函数,frame是输入的当前帧,fin_mask是经由仿射信息共同判断后的剩下的掩码矩阵,k是初始分割区域的数量,即初始识别的对象的数量,g()是联合仿射信息判断当前对象是否为动态的函数,并且有
其中,Nl_o和Nl_m分别是落在待判断的对象中的异常值和匹配点的数量。
8.如权利要求7所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S5中,基于异常点的信息和动态对象更新地图的方法包括对实际匹配点集进行筛选,从地图中去除异常点和动态对象,具体方法为:
tracking_matching_points是用于更新地图的地图点,matching_points是实际匹配点集,OA是实际匹配点集中的异常点,DS是识别出的动态对象,h()表示地图点的筛选函数,表示从前者中删除后者并且保留余项。
9.如权利要求8所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,S6中,当确定新的关键帧时增加地图点,具体方法为:
其中,creat表示新增的地图点,drop表示不新增地图点。
10.如权利要求9所述的一种基于仿射信息的动态环境下实时视觉SLAM方法,其特征在于,
S6中,实时建图的方法为:
mappint_thread(key_frame,depth_frame);
其中,mappint_thread是建图函数,key_frame是关键帧的RGB图,depth_frame是当前的深度帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311710990.3A CN117671505A (zh) | 2023-12-13 | 2023-12-13 | 一种基于仿射信息的动态环境下实时视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311710990.3A CN117671505A (zh) | 2023-12-13 | 2023-12-13 | 一种基于仿射信息的动态环境下实时视觉slam方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117671505A true CN117671505A (zh) | 2024-03-08 |
Family
ID=90076841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311710990.3A Pending CN117671505A (zh) | 2023-12-13 | 2023-12-13 | 一种基于仿射信息的动态环境下实时视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117671505A (zh) |
-
2023
- 2023-12-13 CN CN202311710990.3A patent/CN117671505A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264416B (zh) | 稀疏点云分割方法及装置 | |
CN111462135B (zh) | 基于视觉slam与二维语义分割的语义建图方法 | |
CN110942449B (zh) | 一种基于激光与视觉融合的车辆检测方法 | |
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图*** | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及*** | |
CN110766002B (zh) | 一种基于深度学习的船名字符区域检测方法 | |
CN114359181B (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及*** | |
CN109543634B (zh) | 定位过程中的数据处理方法、装置、电子设备和存储介质 | |
CN115619826A (zh) | 一种基于重投影误差和深度估计的动态slam方法 | |
CN113012197A (zh) | 一种适用于动态交通场景的双目视觉里程计定位方法 | |
CN115147328A (zh) | 三维目标检测方法及装置 | |
CN114662587A (zh) | 一种基于激光雷达的三维目标感知方法、装置及*** | |
CN114140527A (zh) | 一种基于语义分割的动态环境双目视觉slam方法 | |
CN113808203A (zh) | 一种基于lk光流法与orb-slam2的导航定位方法 | |
CN117496401A (zh) | 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法 | |
CN113096016A (zh) | 一种低空航拍图像拼接方法和*** | |
CN115235493B (zh) | 一种基于矢量地图进行自动驾驶定位的方法及装置 | |
CN116310902A (zh) | 一种基于轻量级神经网络的无人机目标检测方法及*** | |
CN117671505A (zh) | 一种基于仿射信息的动态环境下实时视觉slam方法 | |
CN116052120A (zh) | 基于图像增强和多传感器融合的挖掘机夜间物体检测方法 | |
WO2023283929A1 (zh) | 双目相机外参标定的方法及装置 | |
Mao et al. | Power transmission line image segmentation method based on binocular vision and feature pyramid network | |
CN113011212B (zh) | 图像识别方法、装置及车辆 | |
CN116740477B (zh) | 基于稀疏光流的动态像素点分布识别方法、***及设备 | |
Li et al. | A Dynamic SLAM Algorithm Based on Lidar-Vision Fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |