CN110930519B - 基于环境理解的语义orb-slam感知方法及装置 - Google Patents

基于环境理解的语义orb-slam感知方法及装置 Download PDF

Info

Publication number
CN110930519B
CN110930519B CN201911113708.7A CN201911113708A CN110930519B CN 110930519 B CN110930519 B CN 110930519B CN 201911113708 A CN201911113708 A CN 201911113708A CN 110930519 B CN110930519 B CN 110930519B
Authority
CN
China
Prior art keywords
sequence
frame
frames
orb
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911113708.7A
Other languages
English (en)
Other versions
CN110930519A (zh
Inventor
柯晶晶
周广兵
蒙仕格
郑辉
林飞堞
陈惠纲
王珏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Robotics Innovation Research Institute
Original Assignee
South China Robotics Innovation Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Robotics Innovation Research Institute filed Critical South China Robotics Innovation Research Institute
Priority to CN201911113708.7A priority Critical patent/CN110930519B/zh
Publication of CN110930519A publication Critical patent/CN110930519A/zh
Application granted granted Critical
Publication of CN110930519B publication Critical patent/CN110930519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于环境理解的语义ORB‑SLAM感知方法及装置,其中,所述方法包括:将序列帧输入ORB‑SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建。在本发明实施例中,提高机器人对环境感知具有显著效果,同时可使机器得到对场景的更高层认知信息,为包括机器人导航、增强现实和自动驾驶在内的应用邻域提供更加自然的应用方式。

Description

基于环境理解的语义ORB-SLAM感知方法及装置
技术领域
本发明涉及智能机器人感知技术领域,尤其涉及一种基于环境理解的语义ORB-SLAM感知方法及装置。
背景技术
同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)是移动机器人实现未知环境中自主导航的基础,也是其实现自主化和智能化的前提条件之一;当前,视觉SLAM已经可以在一定范围内的静态环境下做到实时定位和三维地图的构建,然而,传统视觉SLAM生成的地图仅仅包含简单的几何信息(点、线等)或低层次的像素级别信息(颜色、亮度等),而不包含语义信息。虽然这些简单的几何信息和像素级别信息可以满足机器人在某种单一环境下进行自主导航,但不能满足移动机器人完成更高级别的任务需求。
专利CN201811514700公布了一种基于ORB特征的视觉SLAM方法,该方法在前端环节仅采用基于ORB特征替代传统SIFT特征提取,利用汉明距离进行特征匹配判断,在一定程度上可以减少计算量,提高了视觉SLAM的实时性;在后端模块,采用图优化思想,基于局部回环和全局回环相结合的点云融合优化思想,能够很好提高回环检测的精确性。
但是基于ORB特征的视觉SLAM方法,虽然用ORB特征替代传统SIFT特征提取,有效提高计算速度,但其还只能在一个静态或者在一个拥有少量动态物体的场景下工作,如果有大量的特征点落在动态物体上,SLAM跟踪定位的结果会随着动态物体的移动而发生偏移,极大影响机器人建图与定位精确性,甚至会出现计算位姿失败;基于ORB特征的视觉SLAM方法特征点的生成过程会丢弃原始图片中大部分像素信息,并缺少有效的语义信息,严重影响机器人对环境感知的进一步理解。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于环境理解的语义ORB-SLAM感知方法及装置,提高机器人对环境感知具有显著效果,同时可使机器得到对场景的更高层认知信息,为包括机器人导航、增强现实和自动驾驶在内的应用领域提供更加自然的应用方式。
为了解决上述技术问题,本发明实施例提供了一种基于环境理解的语义ORB-SLAM感知方法,所述方法包括:
将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建。
可选的,所述将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据,包括:
ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧;
将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧;
对与物体特征点映射关系的序列帧进行ORB特征提取处理,获取序列帧ORB特征;
将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配,获得匹配特征点对;
基于所述匹配特征点对进行位姿估计和重定位处理,获取位姿估计和重定位结果;
根据相匹配的邻近序列帧进行位姿估计和重定位结果进行优化处理,获得相邻帧的位姿优化,基于所述相邻帧的位姿优化获取关键帧序列。
可选的,所述ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧,包括:
在所述序列帧中连续时间间隔内的相邻帧做差分运算,并利用所述序列帧中相邻帧的强相关性做变化检测,获得运动目标;
基于选取阈值剔除序列帧中的运动目标的动态背景,获取去除动态背景的序列帧。
可选的,所述将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧,包括:
根据当前帧的去除动态背景的序列帧观察到的图点,并基于所述图点观察下一帧的去除动态背景的序列帧,作为当前帧的去除动态背景的序列帧的相邻序列帧;
以当前帧的去除动态背景的序列帧作为根节点,以相邻序列帧作为子节点生成节点树;
基于所述节点树构建所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧。
可选的,所述基于所述匹配特征点对进行位姿估计和重定位处理,包括:
根据所述匹配特征点对利用最小化重投影误差计算当前帧的序列帧与上一帧的序列帧的相对位移。
可选的,所述方法还包括:
当基于所述匹配特征点对进行位姿估计和重定位处理失败之后,基于与物体特征点映射关系获得当前帧的序列帧之间最相近的序列帧;
获得最相近的序列帧ORB特征,利用将当前帧的序列帧ORB特征与最相近的序列帧ORB特征进行匹配,获得第一匹配特征点对;
利用第一匹配特征点对重新进行位姿估计和重定位计算,获得位姿估计和重定位结果。
可选的,所述基于所述相邻帧的位姿优化获取关键帧序列,包括:
计算所述相邻帧之间的最小重投影误差,并基于最小重投影误差建立共视图;
提取所述共视图内的序列帧为关键序列帧。
可选的,所述将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据,包括:
将所述关键帧数据输入相邻关键帧图优化线程后依次进行关键帧数据的冗余点剔除处理、语义提取处理、创建新图点处理以及邻近帧优化处理,获得图优化后的关键帧数据。
可选的,所述冗余点剔除处理后的关键帧数据进行语义提取处理,包括:
基于YOLO-v3算法对冗余点剔除处理后的关键帧数据进行物体检测,获得物体检测结果;
利用条件随机场对所述物体检测结果进行语义关联处理,获得结合物体类别概率及场景上下文信息;
对所述结合物体类别概率及场景上下文信息进行纠正与优化处理,生成临时物体信息候选集;
判断所述临时物体信息候选集内的临时物体信息是新物体还是已存在的物体,并对所述临时物体信息候选集内每个临时物体信息的每个点信息在其对应的邻域内进行搜索,获取该点最近的一个三维点;
计算该点与所述三维点之间的欧拉距离,若所述欧拉距离小于预设阈值,则认为该点与所述三维点为同一个点。
另外,本发明实施例还提供了一种基于环境理解的语义ORB-SLAM感知装置,所述装置包括:
关键帧提取模块:用于将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
关键帧优化模块:用于将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
误差计算模块:用于计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
同步定位与地图构建模块:用于基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建。
在本发明实施例中,针对传统视觉ORB-SLAM在特征提取过程中易受动态目标干扰,提取特征点仅包含色彩亮度、几何信息,缺少物体环境语义信息的缺点,在ORB-SLAM前端Tracking线程中,先利用帧间差分法序列帧中相邻帧做差分运算,设置阈值,剔除动态物体,再构建序列帧和物体特征点之间的映射关系,进行ORB特征提取,实现将基于深度学习语义提取的物体环境信息融入到ORB-SLAM***中,实现对环境“理解”的语义ORB-SLAM感知方法,具有性能稳定、不易受环境干扰、匹配准确、对环境理解更深层次的优势;提高机器人对环境感知具有显著效果,同时可使机器得到对场景的更高层认知信息,为包括机器人导航、增强现实和自动驾驶在内的应用领域提供更加自然的应用方式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于环境理解的语义ORB-SLAM感知方法的流程示意图;
图2是本发明实施例中的基于环境理解的语义ORB-SLAM感知装置的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于环境理解的语义ORB-SLAM感知方法的流程示意图。
如图1所示,一种基于环境理解的语义ORB-SLAM感知方法,所述方法包括:
S11将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
在本发明具体实施过程中,所述将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据,包括:ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧;将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧;对与物体特征点映射关系的序列帧进行ORB特征提取处理,获取序列帧ORB特征;将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配,获得匹配特征点对;基于所述匹配特征点对进行位姿估计和重定位处理,获取位姿估计和重定位结果;根据相匹配的邻近序列帧进行位姿估计和重定位结果进行优化处理,获得相邻帧的位姿优化,基于所述相邻帧的位姿优化获取关键帧序列。
进一步的,所述ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧,包括:在所述序列帧中连续时间间隔内的相邻帧做差分运算,并利用所述序列帧中相邻帧的强相关性做变化检测,获得运动目标;基于选取阈值剔除序列帧中的运动目标的动态背景,获取去除动态背景的序列帧。
进一步的,所述将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧,包括:根据当前帧的去除动态背景的序列帧观察到的图点,并基于所述图点观察下一帧的去除动态背景的序列帧,作为当前帧的去除动态背景的序列帧的相邻序列帧;以当前帧的去除动态背景的序列帧作为根节点,以相邻序列帧作为子节点生成节点树;基于所述节点树构建所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧。
进一步的,所述基于所述匹配特征点对进行位姿估计和重定位处理,包括:根据所述匹配特征点对利用最小化重投影误差计算当前帧的序列帧与上一帧的序列帧的相对位移。
进一步的,所述方法还包括:当基于所述匹配特征点对进行位姿估计和重定位处理失败之后,基于与物体特征点映射关系获得当前帧的序列帧之间最相近的序列帧;获得最相近的序列帧ORB特征,利用将当前帧的序列帧ORB特征与最相近的序列帧ORB特征进行匹配,获得第一匹配特征点对;利用第一匹配特征点对重新进行位姿估计和重定位计算,获得位姿估计和重定位结果。
进一步的,所述基于所述相邻帧的位姿优化获取关键帧序列,包括:计算所述相邻帧之间的最小重投影误差,并基于最小重投影误差建立共视图;提取所述共视图内的序列帧最为关键序列帧。
具体的,在ORB-SLAM前端Tracking线程,通过将序列帧输入ORB-SLAM前端Tracking线程中,首先做动态背景去除,消除动态物体对后续特征点提取与匹配过程中的噪声干扰和影响,在这里采用帧间差分法,提取序列帧中连续时间间隔内的相邻帧做差分运算,利用序列帧中相邻帧的强相关性做变化检测,从而检测运动目标,然后通过选取阈值来剔除序列帧中的运动区域;在序列帧中,第k帧fk(x,y)和k+1帧fk+1(x,y)之间的变化可以用二值化差分值D(x,y)表示,如下:
Figure BDA0002273484180000071
其中,T为设定的二值差分阈值;二值差分中“1”的部分由前后两帧对应像素灰度值发生变化的部分组成,通常包含运动目标和噪声;为“0”的部分由前后两帧对应像素灰度值不发生变化的部分组成。
在前端Tracking线程中,为了将提取的语义信息融入到ORB-SLAM框架中,需要建立去除动态背景的序列帧与物体特征点之间的映射关系;在ORB-SLAM中,每个去除动态背景的序列帧均存储有该帧观察到的图点,同时,每个图点也存储着观察到该图点的去除动态背景的序列帧;根据去除动态背景的序列帧和图点之间的关系,建立ORB-SLAM的生成树;为了构建生成树,首先根据当前的去除动态背景的序列帧观察到的图点,找到观察该图点的去除动态背景的序列帧,这些去除动态背景的序列帧就是当前的去除动态背景的序列帧的相邻序列帧,其与当前的去除动态背景的序列帧拥有大量相同图点;同时这些当前的去除动态背景的序列帧之间的图点,每个图点有相关联的去除动态背景的序列帧;由此,可以生成一个以当前的去除动态背景的序列帧为根节点,相邻序列帧为子节点的生成树;在生成树中,子节点与父节点的关系是由其共同图点的数量所决定的;根据该生成树可以方便当前的去除动态背景的序列帧找其相邻序列帧,从而找到更多的相关联的图点;去除动态背景的序列帧和物体的映射关系按以下方式建立:
每一个物体Oi包含:
世界坐标系下物体所包含的根据相机投影计算得到的点云数据;物体类别的数量和对应物体类别的概率,该概率通过迭代的贝叶斯过程迭代更新;观察到该物体的关键帧集合;该物体所属的类别,对应概率最高的物体类别;该物体被观察的次数。
该去除动态背景的序列帧对应的彩色图像,用于物体检测;该去除动态背景的序列帧对应的深度图像,用于生成物体点云数据;该去除动态背景的序列帧观察到是物体信息。基于图点和去除动态背景的序列帧的映射,完成物体和去除动态背景的序列帧之间的关系构建操作之后,去除动态背景的序列帧即可根据找到其相关联的物体,物体也可以找到相关联的去除动态背景的序列帧。
对于与物体特征点映射关系的序列帧进行ORB特征提取,提取ORB特征点,替代SIFT特征点,这样可以有效的检索运算量,加快运算效率。
在ORB-SLAM前端Tracking线程中,根据上一帧去除动态背景的序列帧进行位姿估计和重定位,是将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配得到匹配特征点对,然后将当前匹配的特征点对,利用最小化重投影误差去计算当前帧与上一帧的相对位移;如果其跟踪定位失败,则会利用场景失败模式找到与当前帧最相近的序列帧,并将当前帧与其匹配得到匹配的图点,利用匹配的图点去重新计算当前帧的位姿。
一般两个相邻帧都能够同时观测到一部分相同的图点,通过计算两个相邻帧之间的最小重投影误差,在重投影误差越小,则这两个相邻序列帧之间的相关性越大,因此设置相应的预设阈值,利用投影误差与预设阈值相比较,需要投影误差小于或者等于预设阈值,不然去除相应的相邻序列帧,这样的前提下就可以建立一个共视图,形成邻近帧间的位姿优化,获得共视图内的序列帧最为关键序列帧。
S12:将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
在本发明具体实施过程中,所述将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据,包括:将所述关键帧数据输入相邻关键帧图优化线程后依次进行关键帧数据的冗余点剔除处理、语义提取处理、创建新图点处理以及邻近帧优化处理,获得图优化后的关键帧数据。
进一步的,所述冗余点剔除处理后的关键帧数据进行语义提取处理,包括:基于YOLO-v3算法对冗余点剔除处理后的关键帧数据进行物体检测,获得物体检测结果;利用条件随机场对所述物体检测结果进行语义关联处理,获得结合物体类别概率及场景上下文信息;对所述结合物体类别概率及场景上下文信息进行纠正与优化处理,生成临时物体信息候选集;判断所述临时物体信息候选集内的临时物体信息时新物体还是已存在的物体,并对所述临时物体信息候选集内每个临时物体信息的每个点信息在其对应的邻域内进行搜索,获取该点最近的一个三维点;计算该点与所述三维点之间的欧拉距离,若所述欧拉距离小于预设阈值,则认为该点与所述三维点为同一个点。
具体的,在获得关键帧之后,将关键帧输入相邻关键帧图优化线程中,剔除冗余点,设计语义提取算法,实现关键帧之间相邻帧的图优化过程,设计的创建语义提取算法,该算法包括物体检测、物体语义关联、临时物体生成、物体关联和物体模型更新等功能,物体检测负责使用深度学习网络对图片进行物体信息的提取,并将提取的物体信息,进行语义关联,经过语义关联进行纠正和优化后使提取出的检测物体更加准确可靠,并存储到临时物体信息集中;物体关联和更新负责根据关键帧、物体信息和图点的映射关系,关联临时物体信息和物体数据库中已经存在的物体信息,并将临时物体信息更新融合到对应的物体信息。
在此,采用基于YOLO-v3算法用于物体检测,其将每个图片分成N*N个方格,然后对每个方格只进行一次物体检测操作,最后将检测结果融合一起。
利用YOLO-v3算法对关键帧进行语义检测,更进一步使用条件随机场对经过深度学习检测提取出的物体进行语义关联,结合物体类别概率及场景上下文信息,提高检测分类精确度,其中设计的结合物体类别概率和上下文信息的条件随机场对应的能量方程如下所示:
Figure BDA0002273484180000102
E(x)=∑iψμ(xi)+∑i<jψP(xi,yi);
其中x代表的是物体类别的随机变量,i,j的范围是从1到k,其中k为图像中检测出来的物体数量,Z是归一化因子,确保计算结果为概率,E(x)是条件随机场的能量函数,一元势函数ψu刻画随机场图节点标注类别的概率,二元势函数ψP是刻画随机场图节点之间的相关性。
一元势函数ψu如下所示:
ψμ=-log p(xi);
二元势函数ψP如下所示:
Figure BDA0002273484180000101
其中,p(xi)表示YOLO-v3模型给出的第i个物体所属类别的概率分布,ωm是线性组合权重,μ是标记兼容性函数,表示邻域内不同类别同时出现的可能性。
通过条件随机场对检测物体语义关联,实现对检测结果进行纠正和优化,生成临时物体信息候选集,对临时物体进行判断,决定其是新物体还是候选集中已存在物体;针对每个候选物体的数据,临时物体的每个点信息在其邻域内进行搜索,从候选物体的点云数据中找出距离该点最近的一个三维点,计算两点之间的欧拉距离,如果两点之间的欧拉距离小于设定的阈值,则认为这两个点是同一个点。
S13:计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
在本发明具体实施过程中,通过计算图优化后的关键帧数据之间的误差值,并根据误差值即可生成候选集。
S14:基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建。
在本发明具体实施过程中,通过全局地图优化和回环融合对候选集进行闭环纠正处理;实现闭环检测,提高定位精度,减少误差;并基于纠正结果进行同步定位与地图构建。
在本发明实施例中,针对传统视觉ORB-SLAM在特征提取过程中易受动态目标干扰,提取特征点仅包含色彩亮度、几何信息,缺少物体环境语义信息的缺点,在ORB-SLAM前端Tracking线程中,先利用帧间差分法序列帧中相邻帧做差分运算,设置阈值,剔除动态物体,再构建序列帧和物体特征点之间的映射关系,进行ORB特征提取,实现将基于深度学习语义提取的物体环境信息融入到ORB-SLAM***中,实现对环境“理解”的语义ORB-SLAM感知方法,具有性能稳定、不易受环境干扰、匹配准确、对环境理解更深层次的优势;提高机器人对环境感知具有显著效果,同时可使机器得到对场景的更高层认知信息,为包括机器人导航、增强现实和自动驾驶在内的应用领域提供更加自然的应用方式。
实施例
请参阅图2,图2是本发明实施例中的基于环境理解的语义ORB-SLAM感知装置的结构组成示意图。
如图2所示,一种基于环境理解的语义ORB-SLAM感知装置,所述装置包括:
关键帧提取模块21:用于将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
在本发明具体实施过程中,所述将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据,包括:ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧;将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧;对与物体特征点映射关系的序列帧进行ORB特征提取处理,获取序列帧ORB特征;将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配,获得匹配特征点对;基于所述匹配特征点对进行位姿估计和重定位处理,获取位姿估计和重定位结果;根据相匹配的邻近序列帧进行位姿估计和重定位结果进行优化处理,获得相邻帧的位姿优化,基于所述相邻帧的位姿优化获取关键帧序列。
进一步的,所述ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧,包括:在所述序列帧中连续时间间隔内的相邻帧做差分运算,并利用所述序列帧中相邻帧的强相关性做变化检测,获得运动目标;基于选取阈值剔除序列帧中的运动目标的动态背景,获取去除动态背景的序列帧。
进一步的,所述将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧,包括:根据当前帧的去除动态背景的序列帧观察到的图点,并基于所述图点观察下一帧的去除动态背景的序列帧,作为当前帧的去除动态背景的序列帧的相邻序列帧;以当前帧的去除动态背景的序列帧作为根节点,以相邻序列帧作为子节点生成节点树;基于所述节点树构建所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧。
进一步的,所述基于所述匹配特征点对进行位姿估计和重定位处理,包括:根据所述匹配特征点对利用最小化重投影误差计算当前帧的序列帧与上一帧的序列帧的相对位移。
进一步的,所述方法还包括:当基于所述匹配特征点对进行位姿估计和重定位处理失败之后,基于与物体特征点映射关系获得前帧的序列帧之间最相近的序列帧;获得最相近的序列帧ORB特征,利用将当前帧的序列帧ORB特征与最相近的序列帧ORB特征进行匹配,获得第一匹配特征点对;利用第一匹配特征点对重新进行位姿估计和重定位计算,获得位姿估计和重定位结果。
进一步的,所述基于所述相邻帧的位姿优化获取关键帧序列,包括:计算所述相邻帧之间的最小重投影误差,并基于最小重投影误差建立共视图;提取所述共视图内的序列帧最为关键序列帧。
具体的,在ORB-SLAM前端Tracking线程,通过将序列帧输入ORB-SLAM前端Tracking线程中,首先做动态背景去除,消除动态物体对后续特征点提取与匹配过程中的噪声干扰和影响,在这里采用帧间差分法,提取序列帧中连续时间间隔内的相邻帧做差分运算,利用序列帧中相邻帧的强相关性做变化检测,从而检测运动目标,然后通过选取阈值来剔除序列帧中的运动区域;在序列帧中,第k帧fk(x,y)和k+1帧fk+1(x,y)之间的变化可以用二值化差分值D(x,y)表示,如下:
Figure BDA0002273484180000131
其中,T为设定的二值差分阈值;二值差分中“1”的部分由前后两帧对应像素灰度值发生变化的部分组成,通常包含运动目标和噪声;为“0”的部分由前后两帧对应像素灰度值不发生变化的部分组成。
在前端Tracking线程中,为了将提取的语义信息融入到ORB-SLAM框架中,需要建立去除动态背景的序列帧与物体特征点之间的映射关系;在ORB-SLAM中,每个去除动态背景的序列帧均存储有该帧观察到的图点,同时,每个图点也存储着观察到该图点的去除动态背景的序列帧;根据去除动态背景的序列帧和图点之间的关系,建立ORB-SLAM的生成树;为了构建生成树,首先根据当前的去除动态背景的序列帧观察到的图点,找到观察该图点的去除动态背景的序列帧,这些去除动态背景的序列帧就是当前的去除动态背景的序列帧的相邻序列帧,其与当前的去除动态背景的序列帧拥有大量相同图点;同时这些当前的去除动态背景的序列帧又有之间的图点,每个图点有有相关联的去除动态背景的序列帧;由此,可以生成一个以当前的去除动态背景的序列帧为根节点,相邻序列帧为子节点的生成树;在生成树中,子节点与父节点的关系是由其共同图点的数量所决定的;根据该生成树可以方便当前的去除动态背景的序列帧找其相邻序列帧,从而找到更多的相关联的图点;去除动态背景的序列帧和物体的映射关系按一下方式建立:
每一个物体Oi包含:
世界坐标系下物体所包含的根据相机投影计算得到的点云数据;物体类别的数量和对应物体类别的概率,该概率通过迭代的贝叶斯过程迭代更新;观察到该物体的关键帧集合;该物体所属的类别,对应概率最高的物体类别;该物体被观察的次数。
该去除动态背景的序列帧对应的彩色图像,用于物体检测;该去除动态背景的序列帧对应的深度图像,用于生成物体点云数据;该去除动态背景的序列帧观察到是物体信息。基于图点和去除动态背景的序列帧的映射,完成物体和去除动态背景的序列帧之间的关系构建操作之后,去除动态背景的序列帧即可根据找到其相关联的物体,物体也可以找到相关联的去除动态背景的序列帧。
对于与物体特征点映射关系的序列帧进行ORB特征提取,提取ORB特征点,替代SIFT特征点,这样可以有效的检索运算量,加快运算效率。
在ORB-SLAM前端Tracking线程中,根据上一帧去除动态背景的序列帧进行位姿估计和重定位,是将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配得到匹配特征点对,然后感觉当前匹配的特征点对,利用最小化重投影误差去计算当前帧与上一帧的相对位移;如果其跟踪定位失败,则会利用场景失败模式找到与当前帧最相近的序列帧,并将当前帧与其匹配得到匹配的图点,利用匹配的土地去重新计算当前帧的位姿。
一般两个相邻帧都能够同时观测到一部分相同的图点,通过计算两个相邻帧之间的最小重投影误差,在重投影误差越小,则这两个相邻序列帧之间的相关性越大,因此设置相应的预设阈值,利用投影误差与预设阈值相比较,需要投影误差小于或者等于预设阈值,不然去除相应的相邻序列帧,这样的前提下就可以建立一个共视图,形成邻近帧间的位姿优化,获得共视图内的序列帧最为关键序列帧。
关键帧优化模块22:用于将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
在本发明具体实施过程中,所述将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据,包括:将所述关键帧数据输入相邻关键帧图优化线程后依次进行关键帧数据的冗余点剔除处理、语义提取处理、创建新图点处理意见邻近帧优化处理,获得图优化后的关键帧数据。
进一步的,所述冗余点剔除处理后的关键帧数据进行语义提取处理,包括:基于YOLO-v3算法对冗余点剔除处理后的关键帧数据进行物体检测,获得物体检测结果;利用条件随机场对所述物体检测结果进行语义关联处理,获得结合物体类别概率及场景上下文信息;对所述结合物体类别概率及场景上下文信息进行纠正与优化处理,生成临时物体信息候选集;判断所述临时物体信息候选集内的临时物体信息是新物体还是已存在的物体,并对所述临时物体信息候选集内每个临时物体信息的每个点信息在其对应的邻域内进行搜索,获取该点最近的一个三维点;计算该点与所述三维点之间的欧拉距离,若所述欧拉距离小于预设阈值,则认为该点与所述三维点为同一个点。
具体的,在获得关键帧之后,将关键帧输入相邻关键帧图优化线程中,剔除冗余点,设计语义提取算法,实现关键帧之间相邻帧的图优化过程,设计的创建语义提取算法,该算法包括物体检测、物体语义关联、临时物体生成、物体关联和物体模型更新等功能,物体检测负责使用深度学习网络对图片进行物体信息的提取,并将提取的物体信息,进行语义标签进行物体与对应语义进行关联,然后经过语义关联进行纠正和优化,使提取出的检测物体更加准确可靠,并存储到临时物体信息集中;物体关联和更新负责根据关键帧、物体信息和图点的映射关系,关联临时物体信息和物体数据库中已经存在的物体信息,并将临时物体信息更新融合到对应的物体信息。
在此,采用基于YOLO算法用于物体检测,其将每个图片分成N*N个方格,然后对每个方格只进行一次物体检测操作,最后将检测结果融合一起;YOLO的设计解决了重复检测的问题。
利用YOLO算法对关键帧进行语义检测,更进一步使用条件随机场对经过深度学习检测提取出的物体进行语义关联,结合物体类别概率及场景上下文信息,提高检测分类精确度,其中设计的结合物体类别概率和上下文信息的条件随机场对应的能量方程如下所示:
Figure BDA0002273484180000161
E(x)=∑iψμ(xi)+∑i<jψP(xi,yi);
其中x代表的是物体类别的随机变量,i,j的范围是从1到k,其中k为图像中检测出来的物体数量,Z是归一化因子,确保计算结果为概率,E(x)是条件随机场的能量函数,一元势函数ψu刻画随机场图节点标注类别的概率,二元势函数ψP是刻画随机场图节点之间的相关性。
一元势函数ψu如下所示:
ψμ=-log p(xi);
二元势函数ψP如下所示:
Figure BDA0002273484180000162
其中,p(xi)表示YOLO模型给出的第i个物体所属类别的概率分布,ωm是线性组合权重,μ是标记兼容性函数,表示邻域内不同类别同时出现的可能性。
通过条件随机场对检测物体语义关联,实现对检测结果进行纠正和优化,生成临时物体信息候选集,对临时物体进行判断,决定其是新物体还是候选集中已存在物体;针对每个候选物体的数据,临时物体的每个点信息在其邻域内进行搜索,从候选物体的点云数据中找出距离该点最近的一个三维点,计算两点之间的欧拉距离,如果两点之间的欧拉距离小于设定的阈值,则认为这两个点是同一个点。
误差计算模块23:用于计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
在本发明具体实施过程中,通过计算图优化后的关键帧数据之间的误差值,并根据误差值即可生成候选集。
同步定位与地图构建模块24:用于基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建。
在本发明具体实施过程中,通过全局地图优化和回环融合对候选集进行闭环纠正处理;实现闭环检测,提高定位精度,减少误差;并基于纠正结果进行同步定位与地图构建。
在本发明实施例中,针对传统视觉ORB-SLAM在特征提取过程中易受动态目标干扰,提取特征点仅包含色彩亮度、几何信息,缺少物体环境语义信息的缺点,在ORB-SLAM前端Tracking线程中,先利用帧间差分法序列帧中相邻帧做差分运算,设置阈值,剔除动态物体,再构建序列帧和物体特征点之间的映射关系,进行ORB特征提取,实现将基于深度学习语义提取的物体环境信息融入到ORB-SLAM***中,实现对环境“理解”的语义ORB-SLAM感知方法,具有性能稳定、不易受环境干扰、匹配准确、对环境理解更深层次的优势;提高机器人对环境感知具有显著效果,同时可使机器得到对场景的更高层认知信息,为包括机器人导航、增强现实和自动驾驶在内的应用领域提供更加自然的应用方式。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的基于环境理解的语义ORB-SLAM感知方法及装置进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于环境理解的语义ORB-SLAM感知方法,其特征在于,所述方法包括:
将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建;
所述将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据,包括:
ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧;
将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧;
对与物体特征点映射关系的序列帧进行ORB特征提取处理,获取序列帧ORB特征;
将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配,获得匹配特征点对;
基于所述匹配特征点对进行位姿估计和重定位处理,获取位姿估计和重定位结果;
根据相匹配的邻近序列帧进行位姿估计和重定位结果进行优化处理,获得相邻帧的位姿优化,基于所述相邻帧的位姿优化获取关键帧序列;
所述ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧,包括:
在所述序列帧中连续时间间隔内的相邻帧做差分运算,并利用所述序列帧中相邻帧的强相关性做变化检测,获得运动目标;
基于选取阈值剔除序列帧中的运动目标的动态背景,获取去除动态背景的序列帧;
在序列帧中,第k帧
Figure QLYQS_1
和k+1帧/>
Figure QLYQS_2
之间的变化用二值化差分值/>
Figure QLYQS_3
表示,如下:
Figure QLYQS_4
其中,T为设定的二值差分阈值;二值差分中“1”的部分由前后两帧对应像素灰度值发生变化的部分组成,通常包含运动目标和噪声;为“0”的部分由前后两帧对应像素灰度值不发生变化的部分组成。
2.根据权利要求1所述的语义ORB-SLAM感知方法,其特征在于,所述将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧,包括:
根据当前帧的去除动态背景的序列帧观察到的图点,并基于所述图点观察下一帧的去除动态背景的序列帧,作为当前帧的去除动态背景的序列帧的相邻序列帧;
以当前帧的去除动态背景的序列帧作为根节点,以相邻序列帧作为子节点生成节点树;
基于所述节点树构建所述去除动态背景的序列帧与物体特征点之间的映射关系,获取与物体特征点映射关系的序列帧。
3.根据权利要求1所述的语义ORB-SLAM感知方法,其特征在于,所述基于所述匹配特征点对进行位姿估计和重定位处理,包括:
根据所述匹配特征点对利用最小化重投影误差计算当前帧的序列帧与上一帧的序列帧的相对位移。
4.根据权利要求1所述的语义ORB-SLAM感知方法,其特征在于,所述方法还包括:
当基于所述匹配特征点对进行位姿估计和重定位处理失败之后,基于与物体特征点映射关系获得当前帧的序列帧之间最相近的序列帧;
获得最相近的序列帧ORB特征,利用将当前帧的序列帧ORB特征与最相近的序列帧ORB特征进行匹配,获得第一匹配特征点对;
利用第一匹配特征点对重新进行位姿估计和重定位计算,获得位姿估计和重定位结果。
5.根据权利要求1所述的语义ORB-SLAM感知方法,其特征在于,所述基于所述相邻帧的位姿优化获取关键帧序列,包括:
计算所述相邻帧之间的最小重投影误差,并基于最小重投影误差建立共视图;
提取所述共视图内的序列帧为关键序列帧。
6.根据权利要求1所述的语义ORB-SLAM感知方法,其特征在于,所述将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据,包括:
将所述关键帧数据输入相邻关键帧图优化线程后依次进行关键帧数据的冗余点剔除处理、语义提取处理、创建新图点处理以及邻近帧优化处理,获得图优化后的关键帧数据。
7.根据权利要求6所述的语义ORB-SLAM感知方法,其特征在于,所述冗余点剔除处理后的关键帧数据进行语义提取处理,包括:
基于YOLO-v3算法对冗余点剔除处理后的关键帧数据进行物体检测,获得物体检测结果;
利用条件随机场对所述物体检测结果进行语义关联处理,获得结合物体类别概率及场景上下文信息;
对所述结合物体类别概率及场景上下文信息进行纠正与优化处理,生成临时物体信息候选集;
判断所述临时物体信息候选集内的临时物体信息是新物体还是已存在的物体,并对所述临时物体信息候选集内每个临时物体信息的每个点信息在其对应的邻域内进行搜索,获取该点最近的一个三维点;
计算该点与所述三维点之间的欧拉距离,若所述欧拉距离小于预设阈值,则认为该点与所述三维点为同一个点。
8.一种基于环境理解的语义ORB-SLAM感知装置,其特征在于,所述装置包括:
关键帧提取模块:用于将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据;
关键帧优化模块:用于将所述关键帧数据输入相邻关键帧图优化线程进行关键帧数据优化处理,获取图优化后的关键帧数据;
误差计算模块:用于计算所述图优化后的关键帧数据之间的误差值,基于所述误差值生成候选集;
同步定位与地图构建模块:用于基于全局地图优化和回环融合对所述候选集进行闭环纠正处理,并基于纠正结果进行同步定位与地图构建;
所述将序列帧输入ORB-SLAM前端Tracking线程中进行关键帧提取处理,获取关键帧数据,包括:
ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧;
将所述去除动态背景的序列帧与物体特征点之间建立映射关系,获取与物体特征点映射关系的序列帧;
对与物体特征点映射关系的序列帧进行ORB特征提取处理,获取序列帧ORB特征;
将当前帧的序列帧ORB特征与上一帧的序列帧ORB特征进行匹配,获得匹配特征点对;
基于所述匹配特征点对进行位姿估计和重定位处理,获取位姿估计和重定位结果;
根据相匹配的邻近序列帧进行位姿估计和重定位结果进行优化处理,获得相邻帧的位姿优化,基于所述相邻帧的位姿优化获取关键帧序列;
所述ORB-SLAM前端Tracking线程采用帧间差分法对输入的序列帧进行动态背景去除处理,获取去除动态背景的序列帧,包括:
在所述序列帧中连续时间间隔内的相邻帧做差分运算,并利用所述序列帧中相邻帧的强相关性做变化检测,获得运动目标;
基于选取阈值剔除序列帧中的运动目标的动态背景,获取去除动态背景的序列帧;
在序列帧中,第k帧
Figure QLYQS_5
和k+1帧/>
Figure QLYQS_6
之间的变化用二值化差分值/>
Figure QLYQS_7
表示,如下:
Figure QLYQS_8
其中,T为设定的二值差分阈值;二值差分中“1”的部分由前后两帧对应像素灰度值发生变化的部分组成,通常包含运动目标和噪声;为“0”的部分由前后两帧对应像素灰度值不发生变化的部分组成。
CN201911113708.7A 2019-11-14 2019-11-14 基于环境理解的语义orb-slam感知方法及装置 Active CN110930519B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911113708.7A CN110930519B (zh) 2019-11-14 2019-11-14 基于环境理解的语义orb-slam感知方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911113708.7A CN110930519B (zh) 2019-11-14 2019-11-14 基于环境理解的语义orb-slam感知方法及装置

Publications (2)

Publication Number Publication Date
CN110930519A CN110930519A (zh) 2020-03-27
CN110930519B true CN110930519B (zh) 2023-06-20

Family

ID=69852948

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911113708.7A Active CN110930519B (zh) 2019-11-14 2019-11-14 基于环境理解的语义orb-slam感知方法及装置

Country Status (1)

Country Link
CN (1) CN110930519B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115375869B (zh) * 2022-10-25 2023-02-10 杭州华橙软件技术有限公司 一种机器人重定位方法、机器人和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373141A (zh) * 2016-09-14 2017-02-01 上海航天控制技术研究所 空间慢旋碎片相对运动角度和角速度的跟踪***和跟踪方法
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam***
CN110363816A (zh) * 2019-06-25 2019-10-22 广东工业大学 一种基于深度学习的移动机器人环境语义建图方法
CN110378997A (zh) * 2019-06-04 2019-10-25 广东工业大学 一种基于orb-slam2的动态场景建图与定位方法
CN110378345A (zh) * 2019-06-04 2019-10-25 广东工业大学 基于yolact实例分割模型的动态场景slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019057179A1 (zh) * 2017-09-22 2019-03-28 华为技术有限公司 一种基于点线特征的视觉slam方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106373141A (zh) * 2016-09-14 2017-02-01 上海航天控制技术研究所 空间慢旋碎片相对运动角度和角速度的跟踪***和跟踪方法
CN110125928A (zh) * 2019-03-27 2019-08-16 浙江工业大学 一种基于前后帧进行特征匹配的双目惯导slam***
CN110378997A (zh) * 2019-06-04 2019-10-25 广东工业大学 一种基于orb-slam2的动态场景建图与定位方法
CN110378345A (zh) * 2019-06-04 2019-10-25 广东工业大学 基于yolact实例分割模型的动态场景slam方法
CN110363816A (zh) * 2019-06-25 2019-10-22 广东工业大学 一种基于深度学习的移动机器人环境语义建图方法

Also Published As

Publication number Publication date
CN110930519A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
CN110335319B (zh) 一种语义驱动的相机定位与地图重建方法和***
CN106909877B (zh) 一种基于点线综合特征的视觉同时建图与定位方法
CN108682027A (zh) 基于点、线特征融合的vSLAM实现方法及***
CN111724439B (zh) 一种动态场景下的视觉定位方法及装置
CN105844669B (zh) 一种基于局部哈希特征的视频目标实时跟踪方法
CN103646391B (zh) 一种针对动态变化场景的实时摄像机跟踪方法
CN111696118B (zh) 动态场景下基于语义分割与图像修复的视觉回环检测方法
CN109974743B (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计
CN111462210B (zh) 一种基于极线约束的单目线特征地图构建方法
CN107369183A (zh) 面向mar的基于图优化slam的跟踪注册方法及***
CN111899334A (zh) 一种基于点线特征的视觉同步定位与地图构建方法及装置
CN112733711B (zh) 基于多尺度场景变化检测的遥感影像损毁建筑物提取方法
CN111311708A (zh) 一种基于语义光流和逆深度滤波的视觉slam方法
Xue et al. Boundary-induced and scene-aggregated network for monocular depth prediction
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及***
CN111709317B (zh) 一种基于显著性模型下多尺度特征的行人重识别方法
JP2022082493A (ja) ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法
CN110930519B (zh) 基于环境理解的语义orb-slam感知方法及装置
CN117541652A (zh) 一种基于深度lk光流法与d-prosac采样策略的动态slam方法
CN113129332A (zh) 执行目标对象跟踪的方法和装置
CN113570713B (zh) 一种面向动态环境的语义地图构建方法及装置
Guo et al. Image saliency detection based on geodesic‐like and boundary contrast maps
CN112200850B (zh) 一种基于成熟特征点的orb提取方法
CN110059651B (zh) 一种相机实时跟踪注册方法
Sun et al. Kinect depth recovery via the cooperative profit random forest algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A semantic ORB-SLAM perception method and device based on environmental understanding

Effective date of registration: 20231130

Granted publication date: 20230620

Pledgee: Guangdong Shunde Rural Commercial Bank Co.,Ltd. science and technology innovation sub branch

Pledgor: SOUTH CHINA ROBOTICS INNOVATION Research Institute

Registration number: Y2023980068232