CN111735446B - 一种激光、视觉定位融合的方法及设备 - Google Patents
一种激光、视觉定位融合的方法及设备 Download PDFInfo
- Publication number
- CN111735446B CN111735446B CN202010656372.5A CN202010656372A CN111735446B CN 111735446 B CN111735446 B CN 111735446B CN 202010656372 A CN202010656372 A CN 202010656372A CN 111735446 B CN111735446 B CN 111735446B
- Authority
- CN
- China
- Prior art keywords
- visual
- positioning
- mapping
- map
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请的目的是提供一种激光、视觉定位融合的方法及设备,本申请通过获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;计算每一视觉标签子图与对应第一地图的三维变换关系;当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。从而通过激光建图引擎和视觉建图引擎的协同工作,使得可以保持定位的稳定性以及扩展了适用的应用场景范围。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种激光、视觉定位融合的方法及设备。
背景技术
激光同步定位和地图构建(SLAM)起步较早,在理论、技术和产品落地上都相对成熟,是目前最稳定/最成熟的定位导航方法。激光SLAM建图得到的栅格地图,可直接用于路径规划和导航。但当地图与实际环境差别较大时或存在较多玻璃墙时,激光SLAM就难以保持定位的稳定性。
VSLAM有着部署成本低、信息量大、适用范围广等优点,是未来发展的一个主流方向,但也有受光照影响大、构建的地图无法用于路径规划等缺点。视觉标签SLAM(TagSLAM)与常规VSLAM的原理基本相同,不过采用可解码的视觉标签来代替图像特征点,利用视觉标签的几何形状约束和编码值的唯一性来进行精准定位。TagSLAM可以将标签贴在不会轻易变化的区域如天花板,这样的话即使环境产生很大的变化,TagSLAM依然可以保持定位的稳定性。TagSLAM的缺点在于需要侵入式部署来修改环境,无法应用于所有场景,对于一些可部署标签的场所,也难以覆盖整个环境。
发明内容
本申请的一个目的是提供一种激光、视觉定位融合的方法及设备,解决现有技术中现有的定位方式定位的稳定性难以保持以及无法应用于所有场景的问题。
根据本申请的一个方面,提供了一种激光、视觉定位融合的方法,该方法包括:
获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;
计算每一视觉标签子图与对应第一地图的三维变换关系;
当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;
根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。
进一步地,计算每一视觉标签子图与对应第一地图的三维变换关系,包括:
根据时间戳记录所述第二地图中视觉建图关键帧与所述第一地图中激光建图关键帧的对应关系;
根据所述对应关系计算每一视觉标签子图与对应第一地图的三维变换关系。
进一步地,当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,包括:
获取所述视觉建图引擎处于定位模式时观测到的所有视觉标签;
解码所述所有视觉标签得到合法的编码值,判断所述所有视觉标签子图中是否存在一个视觉标签子图含有所述编码值,若是,则将含有所述编码值的视觉标签子图作为筛选后的视觉标签子图。
进一步地,根据所述对应关系计算每一视觉标签子图与对应第一地图的三维变换关系,包括:
根据所述对应关系计算每一视觉标签子图的位置;
计算每一视觉标签子图的位置到对应第一地图的三维变换,得到三维变换关系。
进一步地,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量,包括:
根据所述筛选后的视觉标签子图以及所述三维变换关系确定变换后的对应关键帧之间的平均距离;
对所述平均距离进行归一化处理,得到视觉建图的建图质量;
根据所述视觉建图的建图质量确定定位质量。
进一步地,根据所述视觉建图的建图质量确定定位质量,包括:
根据所述视觉建图的建图质量、视觉标签数量以及视觉标签数量阈值确定定位质量。
进一步地,根据所述筛选后的视觉标签子图以及所述三维变换关系确定变换后的对应关键帧之间的平均距离,包括:
获取所述筛选后的视觉标签子图中视觉建图关键帧的位姿、所述筛选后的视觉标签子图对应的第一地图中激光建图关键帧的位姿;
根据所述视觉建图关键帧的位姿、所述激光建图关键帧的位姿以及所述三维变换关系,计算变换后的所述视觉建图关键帧与对应的激光建图关键帧之间的平均距离。
进一步地,根据所述定位质量确定视觉定位观测输入信息,包括:
确定所述视觉建图引擎所在设备的当前位姿;
将激光建图作为主***,通过进程通信轮询所述视觉建图引擎所在设备的当前位姿,判断所述当前位姿是否为有效位姿;
当所述当前位姿为有效位姿时,根据所述定位质量对所述当前位姿进行预处理,根据预处理结果确定视觉定位观测输入信息。
根据本申请又一个方面,还提供了一种激光、视觉定位融合的设备,该设备包括:
获取装置,用于获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;
计算装置,用于计算每一视觉标签子图与对应第一地图的三维变换关系;
确定装置,用于当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的有效视觉标签子图以及所述三维变换关系确定定位质量;
融合装置,用于根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。
根据本申请再一个方面,还提供了一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现如前述所述的方法。
与现有技术相比,本申请通过获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;计算每一视觉标签子图与对应第一地图的三维变换关系;当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。从而通过激光建图引擎和视觉建图引擎的协同工作,使得可以保持定位的稳定性以及扩展了适用的应用场景范围。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出根据本申请的一个方面提供的一种激光、视觉定位融合的方法流程示意图;
图2示出本申请一具体实施例中建图的流程示意图;
图3示出本申请一具体实施例中基于扩展卡尔曼滤波器的激光、视觉定位融合的方法流程示意图;
图4示出本申请又一个方面提供的一种激光、视觉定位融合的设备的结构示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本申请作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器 (例如中央处理器(Central Processing Unit,CPU))、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RandomAccess Memory,RAM) 和/或非易失性内存等形式,如只读存储器 (Read Only Memory,ROM) 或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (Phase-Change RAM,PRAM)、静态随机存取存储器 (Static Random Access Memory,SRAM)、动态随机存取存储器 (DynamicRandom Access Memory,DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (Electrically Erasable Programmable Read-Only Memory,EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器 (Compact Disc Read-OnlyMemory,CD-ROM)、数字多功能光盘 (Digital Versatile Disk,DVD) 或其他光学存储、 磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
图1示出根据本申请的一个方面提供的一种激光、视觉定位融合的方法流程示意图,该方法包括:步骤S11~步骤S14,
在步骤S11中,获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;在此,激光建图引擎建图为激光SLAM建图,建立的地图为第一地图,第一地图为栅格地图,视觉建图引擎建图为TagSLAM建图,建立的地图为第二地图,在建立该第二地图时只在有标签的区域建图,标签所在区域为一个子图,在整体建图完成后,得到若干个视觉标签子图。通过子图可以极大的扩展了视觉标签SLAM的应用范围。
在步骤S12中,计算每一视觉标签子图与对应第一地图的三维变换关系;在此,TagSLAM是以子图形式进行建图,每一个视觉标签子图完成后计算其和对应的第一地图的三维变换关系,该变换关系为旋转矩阵r和平移向量t。
在步骤S13中,当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;在此,开启TagSLAM的定位模式,当TagSLAM在定位模式时,对所有观测到的视觉标签进行筛选,筛选出有效的视觉标签,即若观测得到有效的视觉标签,则根据有效视觉标签所在的子图和上述计算得到的三维变换关系确定出定位质量,该定位质量用于描述定位的可信度,视觉的定位质量在0~1之间,数值越大表示越可靠。
在步骤S14中,根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。在此,根据定位质量确定视觉定位观测输入信息为当前的位姿,还是需要重新定位得到新的位姿,又或当前的位姿不进行融合;将确定出的视觉定位观测输入信息与激光定位还有里程计进行融合,该融合可使用扩展卡尔曼滤波器(EKF),当然,还可以接入其他定位信息,如GPS、第三方VSLAM定位,EKF可处理非线性***,从而对各来源不同的定位信息可进行很好的融合。
在本申请一实施例中,在步骤S12中,根据时间戳记录所述第二地图中视觉建图关键帧与所述第一地图中激光建图关键帧的对应关系;根据所述对应关系计算每一视觉标签子图与对应第一地图的三维变换关系。在此,激光SLAM和TagSLAM各自独立建图,同时激光SLAM将关键帧实时推送到TagSLAM中,TagSLAM在建图时根据时间戳记录两种地图中关键帧的一一对应关系。其中,激光建图时若产生关键帧,则在此之后的第一帧为视觉的关键帧;若观测到的标签的位置与前一帧相比,距离大于预设像素(如18个像素),则选出来的关键帧会参与建图,但没有对应的激光关键帧,不参与后续计算子图的三维变换的过程。建图结束时,根据关键帧坐标值的匹配关系,通过ICP(Iterative Closest Point,迭代最近点)算法计算TagSLAM地图到激光SALM地图的三维变换。在本申请实施例中,视觉标签子图指通过视觉建图引擎建立的局部地图,第二地图中的若干视觉标签子图相互独立,通过计算每一视觉标签子图与对应第一地图的三维变换关系,得到每个视觉标签子图在世界坐标系下的位姿。
具体地,可以根据所述对应关系计算每一视觉标签子图的位置;计算每一视觉标签子图的位置到对应第一地图的三维变换,得到三维变换关系。在此,根据关键帧一一对应关系,通过点云匹配算法得到每个视觉标签子图到对应第一地图的三维变换。
在本申请一实施例中,在步骤S13中,获取所述视觉建图引擎处于定位模式时观测到的所有视觉标签;解码所述所有视觉标签得到合法的编码值,判断所有视觉标签子图中是否存在一个视觉标签子图含有所述编码值,若是,则将含有所述编码值的视觉标签子图作为筛选后的视觉标签子图。在此,一个视觉标签只属于一个子图,一个子图中包含多个视觉标签;TagSLAM在定位模式时,对观测到的所有视觉标签进行筛选,筛选出有效的视觉标签,即若观测到有效的视觉标签,则根据对应的视觉标签子图和三维变换关系计算当前的位姿。其中,有效的视觉标签的判定如下:若视觉标签解码得到一个合法的编码值,该编码值在某个视觉标签子图中,则该视觉标签为有效的视觉标签,参与到定位中,根据该有效的视觉标签所在的子图和三维变换关系进行定位。
在本申请一实施例中,在步骤S13中,根据所述筛选后的视觉标签子图以及所述三维变换关系确定变换后的对应关键帧之间的平均距离;对所述平均距离进行归一化处理,得到视觉建图的建图质量;根据所述视觉建图的建图质量确定定位质量。在此,筛选后的视觉标签子图为有效的视觉标签子图,计算转换后的对应关键帧之间的平均距离,再对该平均距离进行归一化处理,用于评价建图质量,根据该建图质量得到定位质量。其中,可以获取所述有效视觉标签子图中视觉建图关键帧的位姿、所述有效视觉标签子图对应的第一地图中激光建图关键帧的位姿;根据所述视觉建图关键帧的位姿、所述激光建图关键帧的位姿以及所述三维变换关系,计算变换后的所述视觉建图关键帧与对应的激光建图关键帧之间的平均距离。在此,根据以下公式计算变换后的对应关键帧之间的绝对平均误差(meanabsolute error):
其中,TKi为TagSLAM第i个关键帧的位姿,LKi为激光SLAM第i个关键帧的位姿。再通过以下公式对mae进行归一化处理:
其中,q为建图质量,值越接近1表示误差越小。
具体地,可以根据所述视觉建图的建图质量、视觉标签数量以及视觉标签数量阈值确定定位质量。在此,定位质量用于描述定位的可信度,视觉的定位质量在0~1之间,越大表示越可靠,定位质量由建图质量以及观测到的视觉标签数量和标签数量阈值可确定,计算公式如下:定位质量=建图质量*观测到的标签数量/标签数量阈值,其中,标签数量阈值可配置。
在本申请一实施例中,在步骤S14中,确定所述视觉建图引擎所在设备的当前位姿;将激光建图作为主***,通过进程通信轮询所述视觉建图引擎所在设备的当前位姿,判断所述当前位姿是否为有效位姿;当所述当前位姿为有效位姿时,根据所述定位质量对所述当前位姿进行预处理,根据预处理结果确定视觉定位观测输入信息。在此,激光SLAM通过算法进行定位,将定位结果和里程计值均作为观测值输入扩展卡尔曼滤波器;TagSLAM根据观测到的结果独立进行定位,其中,观测结果为根据摄像头拍摄的图像解码得到多干个视觉标签,根据解码得到的标签找到对应的视觉标签子图,找到的视觉标签子图为有效的视觉标签子图,获取视觉标签在世界坐标系下的位姿,并通过PNP算法得到当前的相机位姿,根据相机外参和子图的位姿得到当前机器的位姿,当前机器的位姿为有效位姿。激光SLAM作为主***,通过进程间通信轮询TagSLAM定位结果,若失败则忽略并通过扩展卡尔曼滤波算法融合各个定位结果,输出最终定位;若成功,则预处理TagSLAM定位信息,作为观测值输入扩展卡尔曼滤波器。
具体地,TagSlAM定位质量和激光SLAM定位质量均低于质量阈值时,由于前者提供了可信的粗略定位信息,因此会进行用户环境变化大导致低定位质量的提示信息。TagSLAM定位质量高,激光SLAM定位质量低,且与当前位姿距离大时,以TagSLAM的视觉定位为准,直接纠正当前位姿,得到最终定位。其中,视觉定位质量的缺省值可为0.6,当大于0.6时认为定位质量高,参与到扩展卡尔曼滤波器的融合过程。
在本申请一具体实施例中,如图2所示的建图流程示意图,本申请使用TagSLAM建图和激光SLAM建图,激光SLAM将得到的地图的激光关键帧推送至TagSLAM建图中,将TagSLAM的关键帧和激光的关键帧根据时间戳进行一一对应,当子图结束或暂停建图时,进行全局BundleAdjustment(光束平差法),在机器人导航中,2D的图像特征点重投影回三维域内,和真正3D点的位置会有偏差,而BundleAdjustment作用为通过最小二乘法等算法去最小化这个偏差,从而得到机器人位姿的精确值。全局BundleAdjustment针对一个视觉标签子图整体作优化,在建图过程中,针对滑动窗口,会有一个局部的BundleAdjustment。在对子图进行BundleAdjustment后,根据关键帧对应关系计算视觉标签子图到激光SLAM地图的三维变换关系。
在本申请一具体实施例中,如图3所示,为基于扩展卡尔曼滤波器的激光、视觉定位融合的方法流程示意图,TagSLAM获取图像判断是否观测到有效的标签,若否,则清空位姿;若是,则计算当前的位姿并保存时间戳,激光SLAM通过进程间通信轮询TagSLAM位姿,判断轮询到的位姿是否为有效定位,若否则忽略不进行后续的融合,若是,则判断定位质量是否高于阈值,若否,则产生低定位告警并该当前位姿不进行融合,若是,则判断是否与当前位姿距离大且激光定位质量低,从而确定是否需要直接纠正最终定位,若否,则作为扩展卡尔曼滤波器的观测输入信息,和SLAM定位得到的定位结果以及里程计的值一起在扩展卡尔曼滤波器中进行融合,得到最终的定位结果。
此外,本申请实施例还提供了一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现前述一种激光、视觉定位融合的方法。
与上文所述的方法相对应的,本申请还提供一种终端,其包括能够执行上述图1或图2或图3或各个实施例所述的方法步骤的模块或单元,这些模块或单元可以通过硬件、软件或软硬结合的方式来实现,本申请并不限定。例如,在本申请一实施例中,还提供了一种激光、视觉定位融合的设备,所述设备包括:
一个或多个处理器;以及
存储有计算机可读指令的存储器,所述计算机可读指令在被执行时使所述处理器执行如前述所述方法的操作。
例如,计算机可读指令在被执行时使所述一个或多个处理器:
一种激光、视觉定位融合的方法,其特征在于,所述方法包括:
获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;
计算每一视觉标签子图与对应第一地图的三维变换关系;
当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;
根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。
图4示出本申请又一个方面提供的一种激光、视觉定位融合的设备的结构示意图,该设备包括:获取装置11、计算装置12、确定装置13和融合装置14,其中,获取装置11用于获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;计算装置12用于计算每一视觉标签子图与对应第一地图的三维变换关系;确定装置13用于当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;融合装置14用于根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合。
需要说明的是,获取装置11、计算装置12、确定装置13和融合装置14执行的内容分别与上述步骤S11、S12、S13和S14中的内容相同或相应相同,为简明起见,在此不再赘述。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本申请的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本申请的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本申请的方法和/或技术方案。而调用本申请的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本申请的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本申请的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (9)
1.一种激光、视觉定位融合的方法,其特征在于,所述方法包括:
获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;
计算每一视觉标签子图与对应第一地图的三维变换关系;
当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量;
根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合;
其中,当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,包括:
获取所述视觉建图引擎处于定位模式时观测到的所有视觉标签;
解码所述所有视觉标签得到合法的编码值,判断所述所有视觉标签子图中是否存在一个视觉标签子图含有所述编码值,若是,则将含有所述编码值的视觉标签子图作为筛选后的视觉标签子图。
2.根据权利要求1所述的方法,其特征在于,计算每一视觉标签子图与对应第一地图的三维变换关系,包括:
根据时间戳记录所述第二地图中视觉建图关键帧与所述第一地图中激光建图关键帧的对应关系;
根据所述对应关系计算每一视觉标签子图与对应第一地图的三维变换关系。
3.根据权利要求2所述的方法,其特征在于,根据所述对应关系计算每一视觉标签子图与对应第一地图的三维变换关系,包括:
根据所述对应关系计算每一视觉标签子图的位置;
计算每一视觉标签子图的位置到对应第一地图的三维变换,得到三维变换关系。
4.根据权利要求1所述的方法,其特征在于,根据筛选后的视觉标签子图以及所述三维变换关系确定定位质量,包括:
根据所述筛选后的视觉标签子图以及所述三维变换关系确定变换后的对应关键帧之间的平均距离;
对所述平均距离进行归一化处理,得到视觉建图的建图质量;
根据所述视觉建图的建图质量确定定位质量。
5.根据权利要求4所述的方法,其特征在于,根据所述视觉建图的建图质量确定定位质量,包括:
根据所述视觉建图的建图质量、视觉标签数量以及视觉标签数量阈值确定定位质量。
6.根据权利要求4所述的方法,其特征在于,根据所述筛选后的视觉标签子图以及所述三维变换关系确定变换后的对应关键帧之间的平均距离,包括:
获取所述筛选后的视觉标签子图中视觉建图关键帧的位姿、所述筛选后的视觉标签子图对应的第一地图中激光建图关键帧的位姿;
根据所述视觉建图关键帧的位姿、所述激光建图关键帧的位姿以及所述三维变换关系,计算变换后的所述视觉建图关键帧与对应的激光建图关键帧之间的平均距离。
7.根据权利要求1所述的方法,其特征在于,根据所述定位质量确定视觉定位观测输入信息,包括:
确定所述视觉建图引擎所在设备的当前位姿;
将激光建图作为主***,通过进程通信轮询所述视觉建图引擎所在设备的当前位姿,判断所述当前位姿是否为有效位姿;
当所述当前位姿为有效位姿时,根据所述定位质量对所述当前位姿进行预处理,根据预处理结果确定视觉定位观测输入信息。
8.一种激光、视觉定位融合的设备,其特征在于,所述设备包括:
获取装置,用于获取通过激光建图引擎建立的第一地图和通过视觉建图引擎建立的第二地图,其中,所述第二地图包括多个视觉标签子图;
计算装置,用于计算每一视觉标签子图与对应第一地图的三维变换关系;
确定装置,用于当所述视觉建图引擎处于定位模式时,对所有视觉标签子图进行筛选,根据所述筛选后的视觉标签子图以及所述三维变换关系确定定位质量;
融合装置,用于根据所述定位质量确定视觉定位观测输入信息,将所述视觉定位观测输入信息与激光定位信息、里程计信息进行融合;
其中,所述确定装置用于:
获取所述视觉建图引擎处于定位模式时观测到的所有视觉标签;
解码所述所有视觉标签得到合法的编码值,判断所述所有视觉标签子图中是否存在一个视觉标签子图含有所述编码值,若是,则将含有所述编码值的视觉标签子图作为筛选后的视觉标签子图。
9.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现如权利要求1至7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010656372.5A CN111735446B (zh) | 2020-07-09 | 2020-07-09 | 一种激光、视觉定位融合的方法及设备 |
PCT/CN2021/072510 WO2022007385A1 (zh) | 2020-07-09 | 2021-01-18 | 一种激光、视觉定位融合的方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010656372.5A CN111735446B (zh) | 2020-07-09 | 2020-07-09 | 一种激光、视觉定位融合的方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111735446A CN111735446A (zh) | 2020-10-02 |
CN111735446B true CN111735446B (zh) | 2020-11-13 |
Family
ID=72655844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010656372.5A Active CN111735446B (zh) | 2020-07-09 | 2020-07-09 | 一种激光、视觉定位融合的方法及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111735446B (zh) |
WO (1) | WO2022007385A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111735446B (zh) * | 2020-07-09 | 2020-11-13 | 上海思岚科技有限公司 | 一种激光、视觉定位融合的方法及设备 |
CN112596070B (zh) * | 2020-12-29 | 2024-04-19 | 四叶草(苏州)智能科技有限公司 | 一种基于激光及视觉融合的机器人定位方法 |
CN113777615B (zh) * | 2021-07-19 | 2024-03-29 | 派特纳(上海)机器人科技有限公司 | 室内机器人的定位方法、***及清洁机器人 |
CN113932814B (zh) * | 2021-09-30 | 2024-04-02 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN114279434B (zh) * | 2021-12-27 | 2024-06-14 | 驭势科技(北京)有限公司 | 一种建图方法、装置、电子设备和存储介质 |
CN115267796B (zh) * | 2022-08-17 | 2024-04-09 | 深圳市普渡科技有限公司 | 定位方法、装置、机器人和存储介质 |
CN115546348B (zh) * | 2022-11-24 | 2023-03-24 | 上海擎朗智能科技有限公司 | 一种机器人建图方法、装置、机器人及存储介质 |
CN117044478B (zh) * | 2023-08-31 | 2024-03-19 | 未岚大陆(北京)科技有限公司 | 割草机控制方法、装置、割草机、电子设备及存储介质 |
CN117392347B (zh) * | 2023-10-13 | 2024-04-30 | 苏州煋海图科技有限公司 | 一种地图构建方法、装置、计算机设备及可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN108919811A (zh) * | 2018-07-27 | 2018-11-30 | 东北大学 | 一种基于tag标签的室内移动机器人SLAM方法 |
CN109186606A (zh) * | 2018-09-07 | 2019-01-11 | 南京理工大学 | 一种基于slam和图像信息的机器人构图及导航方法 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN110187375A (zh) * | 2019-06-27 | 2019-08-30 | 武汉中海庭数据技术有限公司 | 一种基于slam定位结果提高定位精度的方法及装置 |
CN110458863A (zh) * | 2019-06-25 | 2019-11-15 | 广东工业大学 | 一种基于rgbd与编码器融合的动态slam*** |
CN110726409A (zh) * | 2019-09-09 | 2020-01-24 | 杭州电子科技大学 | 一种基于激光slam和视觉slam地图融合方法 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN111242996A (zh) * | 2020-01-08 | 2020-06-05 | 郭轩 | 一种基于Apriltag标签与因子图的SLAM方法 |
CN111380535A (zh) * | 2020-05-13 | 2020-07-07 | 广东星舆科技有限公司 | 基于视觉标签的导航方法、装置、移动式机器及可读介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110098924A1 (en) * | 2009-10-28 | 2011-04-28 | Callaway Golf Company | Method and device for determining a distance |
CN106352870B (zh) * | 2016-08-26 | 2019-06-28 | 深圳微服机器人科技有限公司 | 一种目标的定位方法及装置 |
CN107478214A (zh) * | 2017-07-24 | 2017-12-15 | 杨华军 | 一种基于多传感器融合的室内定位方法及*** |
WO2019202806A1 (ja) * | 2018-04-20 | 2019-10-24 | 本田技研工業株式会社 | 自己位置推定方法 |
CN110243358B (zh) * | 2019-04-29 | 2023-01-03 | 武汉理工大学 | 多源融合的无人车室内外定位方法及*** |
CN111044069B (zh) * | 2019-12-16 | 2022-04-29 | 驭势科技(北京)有限公司 | 一种车辆定位方法、车载设备及存储介质 |
CN111735446B (zh) * | 2020-07-09 | 2020-11-13 | 上海思岚科技有限公司 | 一种激光、视觉定位融合的方法及设备 |
-
2020
- 2020-07-09 CN CN202010656372.5A patent/CN111735446B/zh active Active
-
2021
- 2021-01-18 WO PCT/CN2021/072510 patent/WO2022007385A1/zh active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN108919811A (zh) * | 2018-07-27 | 2018-11-30 | 东北大学 | 一种基于tag标签的室内移动机器人SLAM方法 |
CN109186606A (zh) * | 2018-09-07 | 2019-01-11 | 南京理工大学 | 一种基于slam和图像信息的机器人构图及导航方法 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN110458863A (zh) * | 2019-06-25 | 2019-11-15 | 广东工业大学 | 一种基于rgbd与编码器融合的动态slam*** |
CN110187375A (zh) * | 2019-06-27 | 2019-08-30 | 武汉中海庭数据技术有限公司 | 一种基于slam定位结果提高定位精度的方法及装置 |
CN110726409A (zh) * | 2019-09-09 | 2020-01-24 | 杭州电子科技大学 | 一种基于激光slam和视觉slam地图融合方法 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN111242996A (zh) * | 2020-01-08 | 2020-06-05 | 郭轩 | 一种基于Apriltag标签与因子图的SLAM方法 |
CN111380535A (zh) * | 2020-05-13 | 2020-07-07 | 广东星舆科技有限公司 | 基于视觉标签的导航方法、装置、移动式机器及可读介质 |
Non-Patent Citations (2)
Title |
---|
A Simultaneous Localization and Mapping (SLAM) Framework for 2.5D Map Building Based on Low-Cost LiDAR and Vision Fusion;Guolai Jiang 等;《APPLIED SCIENCES》;20190522;第1-17页 * |
TagSLAM: Robust SLAM with Fiducial Markers;Bernd Pfrommer 等;《arXiv preprint arXiv:1910.00679》;20181231;第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111735446A (zh) | 2020-10-02 |
WO2022007385A1 (zh) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111735446B (zh) | 一种激光、视觉定位融合的方法及设备 | |
CN109285220B (zh) | 一种三维场景地图的生成方法、装置、设备及存储介质 | |
Wang et al. | Vision-based framework for automatic progress monitoring of precast walls by using surveillance videos during the construction phase | |
CN107677279B (zh) | 一种定位建图的方法及*** | |
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
Wang et al. | Automated road sign inventory system based on stereo vision and tracking | |
Coelho et al. | OSGAR: A scene graph with uncertain transformations | |
KR101965878B1 (ko) | 시각적 피처들을 이용한 이미지들의 자동 연결 | |
US10235800B2 (en) | Smoothing 3D models of objects to mitigate artifacts | |
CN112383746A (zh) | 一种三维场景中的视频监控方法、装置、电子设备和存储介质 | |
CN115376109B (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
CN114972490B (zh) | 一种数据自动标注方法、装置、设备及存储介质 | |
CN115375870B (zh) | 回环检测优化方法、电子设备及计算机可读存储装置 | |
CN111105695A (zh) | 地图制作方法、装置、电子设备及计算机可读存储介质 | |
CN114445565A (zh) | 数据处理方法、装置、电子设备和计算机可读介质 | |
CN113838129B (zh) | 一种获得位姿信息的方法、装置以及*** | |
CN115638787A (zh) | 一种数字地图生成方法、计算机可读存储介质及电子设备 | |
WO2020135326A1 (zh) | 一种基于图片的方向标注方法及装置 | |
CN113808142B (zh) | 一种地面标识的识别方法、装置、电子设备 | |
CN110148205B (zh) | 一种基于众包影像的三维重建的方法和装置 | |
CN115014324A (zh) | 定位方法、装置、介质、设备及车辆 | |
CN116642511A (zh) | Ar导航图像渲染方法、装置、电子设备及存储介质 | |
CN114399549A (zh) | 全景叠加图斑渲染方法、地理国情监测方法及装置 | |
Wang et al. | An improved method of refining relative orientation in global structure from motion with a focus on repetitive structure and very short baselines | |
CN113223079A (zh) | 视觉定位方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |