CN104374395A - 基于图的视觉slam方法 - Google Patents

基于图的视觉slam方法 Download PDF

Info

Publication number
CN104374395A
CN104374395A CN201410125956.4A CN201410125956A CN104374395A CN 104374395 A CN104374395 A CN 104374395A CN 201410125956 A CN201410125956 A CN 201410125956A CN 104374395 A CN104374395 A CN 104374395A
Authority
CN
China
Prior art keywords
pose
camera
map
image
constraint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410125956.4A
Other languages
English (en)
Inventor
梁志伟
徐小根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201410125956.4A priority Critical patent/CN104374395A/zh
Publication of CN104374395A publication Critical patent/CN104374395A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图的视觉SLAM方法,基于图像的自然特征概率向量表示可以得到图像视觉特征间的匹配关系,利用图像间的空间几何关系计算两帧间的相对位姿。利用连续图像之间的对应关系获得视觉里程计的数据关联,由此得到图像序列中的所有约束。将摄像头相对位姿看作地图中的节点,图像帧间的空间约束关系表示为边,构建基于摄像头相对位姿估计的轨迹地图。最后采用最大似然法优化地图,通过随机梯度下降法得到最优化位姿估计。在实验室环境下对本发明提出的方法进行了相关实验,并展示了机器人的运行轨迹,证明了本发明算法的有效性。

Description

基于图的视觉SLAM方法
技术领域
本发明涉及一种基于图的视觉SLAM方法。 
背景技术
大多数视觉SLAM算法采用特征跟踪的方法,将视觉特征作为自然路标构建环境特征地图,并同时通过与之前已创建的环境地图(自然路标库)中的路标进行匹配,对机器人当前位姿进行估计实现机器人定位。由于地图构建与位姿估计两个过程都有噪声,因此整个SLAM过程具有不确定性。 
目前最流行的两大算法EKF-SLAM和PF-SLAM以概率描述信息的不确定性,Siegwart等提出了一种基于单摄像机的EKF-SLAM算法,通过多特征匹配来定位并减少定位误差,算法的不足之处在于需要建立运动模型和观测模型,计算复杂度很高,并且缺乏闭环能力,数据一旦关联错误会带入到整个SLAM状态估计中,可能使整个预测过程发散。Murphy和Russel等提出了一种PF-SLAM算法,它的复杂度随特征数目对数地增长,不像EKF-SLAM那样平方地增长,并且不需要运动模型线性化。 
发明内容
本发明采用基于图(graph-based),也称为基于网络(network-based)的SLAM方法,不同于EKF-SLAM和PF-SLAM,不需要建立严格的运动模型和观测模型,只需要通过所有的观测信息以及帧间的空间约束关系,最终构建一个完整的机器人位姿路径地图。地图中的点代表机器人位姿,边代表位姿之间的约束。机器人不同时刻的位姿之间存在关联,关联其实是一种约束,约束用边来表示形成了点的结构图。 
本发明将利用连续图像帧间的对应关系解决局部数据关联问题。本发明的环境为自然特征环境,自然特征通过对获取的图像序列进行视觉特征提取得到。基于图的SLAM方法不需要明确的摄像机运动模型,只需要批量处理顺序获取的所有图像,利用图像间内在的多视角几何约束即可同时估计特征位置和摄像机位姿。地图创建部分利用观测信息和帧间的空间约束关系构建摄像机位姿地图,地图优化部分基于极大似然法最小化约束误差得到最优位姿估计,本发明通过随机梯度下降法最小化约束误差得到极大似然地图。 
本发明的技术解决方案是: 
一种基于图的视觉SLAM方法, 
对摄像头获取的每一帧图像进行视觉特征提取,基于自然视觉单词的概率模型表示每帧图像,基于图像的概率向量表示得到匹配的特征点对,利用同一个特征点在不同时刻的图像坐标得到机器人在这两个时刻的相对位姿关系,通过立体视距技术计算每帧图像代表的相对位姿; 
机器人不同时刻的位姿之间存在关联,基于图像序列中连续图像之间的位姿转换得到视觉里程计的数据关联,得到图像帧间的空间约束关系; 
将摄像头相对位姿看作地图中的节点,图像帧间的空间约束关系表示为边,构建基于摄像机相对位姿估计的轨迹地图; 
通过调整图中节点的位置进行最优位姿序列估计,通过随机梯度下降法最小化约束误差得到最优位姿地图。 
优选地,为得到当前时刻所有相机的位姿集合x0:m={x0,…,xn}每个当前位姿需要计算相对于初始时刻k=0相机局部坐标系的运动估计; 
由于不同时刻转换矩阵Tk(k=1…n)之间存在连接关系,当前位姿xn=xn-1Tn,x0为初始时刻的相机位姿,由此通过计算图像Ik-1与Ik之间的转换关系Tk把所有转换关系连接起来即可增量得到相机序列运动轨迹X1:n。 
优选地,计算摄像机相对运动Tk: 
首先估计相对位姿和两帧摄像机的运动方向,然后恢复这两帧中观测到的特征点的位姿,最后通过路标位姿的匹配计算这些路标的正确尺度,进行估计相机运动。 
优选地,由本质矩阵E进行分解可以得到旋转矩阵R和平移矢量 与实际平移矢量t相差一个比例系数,最终可以得到k-1时刻摄像头局部坐标系下,k时刻的摄像头位姿表示为:得到每个时刻的相对位姿后,将所有时刻的这些相对转换放到一个结构中,以表示连续图像节点间的关联。 
优选地,假设第j时刻成功检测到当前图像与第i时刻的图像形成闭环,则两个图像间的相对位姿表示为:信息矩阵为将该闭环数据关联加入到连续帧的数据结构中,形成一个新的结构
优选地,假设节点i和节点j之间已经存在约束而某一时刻又得到两个节点间的另一个约束如此两个约束可以融入到一个约束中,融合的标准如下: 
优选地,将图像帧看作顶点集V,图像帧之间的位姿关联作为边的集合E,连接两帧图像的每条路径代表一个相关位姿估计,由此构建摄像头位姿轨迹地图G=(V,E)。 
优选地,采用随机梯度下降法进行地图优化,通过迭代地选择约束并移动图中的节点来实现,节点的更新如下: 
其中,x是图中摄像头的位姿变量集合;m为迭代次数;Jij的雅可比矩阵,是观测值的不确定信息矩阵,rij为约束误差的余;H-1是一个先验矩阵,H是***的Hessian矩阵,代表约束误差函数的曲率,使用H的近似值: H个可逆矩阵,
优选地,找到一个变量使代价函数Fij(x)最小,通过迭代选择初始值x1计算得到新的节点序列,序列在一定条件下收敛使Fij(x)最小从而求得解x*;函数Fij(x)对变量的梯度为 为一个负向量,梯度方向是Fij(x)减少最快的方向;由此得到:其中,将定义为m表示前迭代的次数,参数
优选地,地图优化过程的迭代步骤为: 
步骤1:选取初始节点x1,给定允许约束误差a>0,b>0,并令m=0; 
步骤2:计算梯度下降方向向量
步骤3:判断是否满足约束条件满足则转向步骤8,否则继续; 
步骤4:计算最佳学习速率得到新节点xm+1; 
步骤5:所有节点组成一个位姿序列x=(x1,x2…,xk,xk+1); 
步骤6:判断代价函数是否满足满足则转向步骤8,否则继续; 
步骤7:迭代次数加1,令m=m+1,转向步骤2; 
步骤8:输出结果,结束。 
本发明的有益效果是:本发明提供一种自然特征环境的单目视觉SLAM算法。基于图像的自然特征概率向量表示可以很容易得到图像视觉特征间的匹配关系,利用图像间的空间几何关系计算两帧间的相对位姿。利用连续图像之间的对应关系获得视觉里程计的数据关联,由此得到图像序列中的所有约束。将摄像头相对位姿看作地图中的节点,图像帧间的空间约束关系表示为边,构建基于摄像头相对位姿估计的轨迹地图。最后采用最大似然法优化地图,通过随机梯度下降法得到最优化位姿估计。在实验室环境下对本发明提出的方法进行了相关实验,并展示了机器人的运行轨迹,实验结果证明了本发明算法的有效性。 
附图说明
图1是实施例图形结构的图解说明示意图; 
图2是自然特征环境的单目视觉SLAM算法整体框架示意图; 
图3是摄像机的相对位姿表示为一个旋转矩阵R和一个平移向量t的说明示意图; 
图4是闭环检测的数据关联及位姿调整图; 
图5是对初始节点结构进行优化得到最大似然结构 
图6是实施例的实验室场景示意图; 
图7是机器人运行前两圈后运动轨迹图; 
图8是机器人最终位姿估计地图; 
图9是实验室环境下连续图像帧间的数据关联说明示意图; 
图10是实验室环境闭环检测的数据关联说明示意图; 
图11是走廊环境下机器人运动过程图; 
图12是图11中(a)第369帧运动轨迹的放大示意图; 
图13是图11中(b)第670帧运动轨迹的放大示意图; 
图14是图11中(c)第890帧运动轨迹的放大示意图; 
图15是图11中(d)第1050帧运动轨迹的放大示意图; 
图16是图11中(e)第1550帧运动轨迹的放大示意图; 
图17是图11中(f)第2150帧运动轨迹的放大示意图。 
具体实施方式
下面结合附图详细说明本发明的优选实施例。 
基于图的SLAM方法,Grisetti提出基于图的SLAM方法分为两个部分:图的构建和图的优化。图的构建通过数据关联即图节点间的约束关系而建立,数据关联包括局部数据关联和全局数据关联,局部数据关联是指连续图像帧间的匹配,用以解决相对姿态估计问题,全局数据关联通过闭环检测得到。基于图的SLAM可以被理解为节点和节点间约束的稀疏图形。图形的节点是机器人的位置x0,x1,…,xT地图里n个特征m0,m1,…,mn-1。约束是相继机器人姿态xi,xi-1之间的相对位置和机器人位置之间相对位置以及从那些位置观测到的特征。基于图的SLAM算法其中约束是一个软约束,如图1,图形中节点之间的约束为“软”约束。放松这些约束,即可得到机器人路径和环境地图的最好估计。然后使用最大似然估计对所生成的地图进行优化。 
本实施例采用基于图的SLAM方法,设计了一种自然特征环境的单目视觉SLAM算法。整个算法以图像帧为主线,输入为摄像头获取的每帧图像,输出为一个全局摄像头位姿地图,算法整体框架表示如图2所示。 
对摄像头获取的每一帧图像进行视觉特征提取,基于自然视觉单词的概率模型表示每帧图像,基于图像的概率向量表示可以很容易得到匹配的特征点对,利用同一个特征点在不同时刻的图像坐标可以得到机器人在这两个时刻的相对位 姿关系,通过立体视距技术计算每帧图像代表的相对位姿。机器人不同时刻的位姿之间存在关联,关联其实是一种约束,本发明基于图像序列中连续图像之间的位姿转换得到视觉里程计的数据关联,由此得到图像帧间的空间约束关系。将摄像头相对位姿看作地图中的节点,图像帧间的空间约束关系表示为边,构建基于摄像机相对位姿估计的轨迹地图。通过调整图中节点的位置进行最优位姿序列估计,通过随机梯度下降法最小化约束误差得到一个最优位姿地图。 
图像帧间的数据关联 
机器人不同时刻的位姿之间存在关联,制约着位姿之间的转换关系,通过摄像头相对位姿计算获得。在基于图的视觉SLAM算法中,图像间的数据关联包括两类:一类是基于视觉里程计的数据关联,另一类是基于闭环检测的数据关联。 
视觉里程计的数据关联 
在进行摄像头相对位姿计算之前,需要对摄像头进行标定,从而得到摄像头的内部参数,包括焦距、特征比、畸变因子和主点等,为此,首先离线采用张正友的标定方法对摄像头进行标定。具体方法和步骤已经很成熟,这里不再详细描述。 
摄像头相对位姿计算的目的是为了估计相机增量式运动从而得到相机轨迹。假设当前时刻k获取的图像序列为I0:n={I0,…,In},而且机器人在平面中运动,由此任何两个相邻时刻k-1和k之间的相机相对位姿可表示为一个转换矩阵Tk,k-1∈R3×3: 
T k , k - 1 = R k , k - 1 t k , k - 1 0 1 - - - ( 1 )
其中Rk,k-1为含有一个参数的旋转矩阵,tk,k-1∈R2×1为平移向量。集合 包含了所有子序列的相机运动。为了简化表示,下面用Tk代替Tk,k-1。我们最终的目的是得到当前时刻所有相机的位姿集合x0:n={x0,…,xn},每个当前位姿需要计算相对于初始时刻k=0相机局部坐标系的运动估计。由于不同时刻转换矩阵Tk(k=1…n)之间存在连接关系,当前位姿xn=xn-1Tn,x0为初 始时刻的相机位姿,由此通过计算图像Ik-1与Ik之间的转换关系Tk,把所有转换关系连接起来即可增量得到相机序列运动轨迹X1:n。 
接下来的重点任务是计算摄像机相对运动Tk,本发明采用特征点匹配的方法,利用从图像提取的若干个特征点,以及这些点在图像中的像点,计算得到表示摄像头运动的位姿参数,并实时更新摄像头位姿。算法首先估计相对位姿和两帧摄像机的运动方向,然后恢复这两帧中观测到的特征点的位姿,最后通过路标位姿的匹配计算这些路标的正确尺度,从而估计相机运动。路标的三维坐标必须对两个不同时刻匹配的特征对进行三维重建才能获得,与基于立体视觉的地图相比,精度存在差距。为了提高定位精度,需要充分利用特征的图像坐标,即通过摄像头k时刻观测的特征图像坐标与地图中的特征在某j时刻的图像坐标,可以计算出摄像头在这两个时刻的相对位姿关系,实现相对定位。 
令P=[u,v]T为特征点在像平面的齐次坐标,X=[x,y,z]T为特征点在摄像机坐标系下的坐标,根据相机投影模型则有: 
其中,M1为摄像机内部参数矩阵,包括αx=f/dx,αy=f/dy,u0,v0四个内部参数,上面已经给出了本章的标定结果。令为特征点的归一化像平面坐标。已知k时刻与k-1时刻间隔内的匹配特征对pk与pk-1,可以计算得到两帧图像Ik与Ik-1之间的转换关系Tk,如图3,转换关系即为摄像头相对位姿,包含一个旋转矩阵Rk和平移失向量tk,这种几何关系被称为本质矩阵Ek。本质矩阵Ek由一个3维矩阵Rk组成,是一个具有5个自由度、秩为2的矩阵: 
其中tk=[tx,ty,1]T为k-1时刻摄像头坐标系Ck-1到k时刻摄像头坐标系Ck的平移矢量,为tk的反对称矩阵,实质上与真实平移向量相差一个比例系数。 
给定两幅图像中的匹配点对对应点在两幅图像中的归一化像坐标分别为则本质矩阵E可以通过计算得到。经典的算法是Longuet-Higgins提出的八个点算法,每个匹配对代表了一种极线约束,根据极限约束建立一个方程AE=0,其中 
AE=0是一个含有9个未知数的齐次线性方程组,因此至少需要8个对应匹配点就可以求出带有比例系数的本质矩阵E。 
得到本质矩阵E后,对E进行分解可以得到旋转矩阵R和平移矢量 与实际平移矢量t相差一个比例系数。R和有四种分解方式。最终可以得到k-1时刻摄像头局部坐标系下,k时刻的摄像头位姿,也即机器人的位姿,表示为: 求解相对位姿的信息矩阵Ωk-1,k。得到每个时刻的相对位姿后,将所有时刻的这些相对转换放到一个结构 中,以此表示连续图像节点间的关联。 
闭环检测的数据关联 
当检测到闭环时,当前位姿与更早一帧的位姿产生全局关联,这种关联称为revisiting约束,在图的构建中表现为增加了一条边。检测到的闭环图像对之间的数据关联的计算方法与连续图像帧间的局部约束相同,在此不再赘述。假设第j时刻成功检测到当前图像与第i时刻的图像形成闭环,则两个图像间的相对位姿表示为:信息矩阵为将该闭环数据关联加入到连续帧的数据结构中,形成一个新的结构
另外,为了避免过多相似约束融入到该结构,设计一种更新标准。假设节点i和节点j之间已经存在约束而某一时刻又得到两个节点间的另一个约束 如此两个约束可以融入到一个约束中,融合的标准如下: 
Ω ij = Ω ‾ ij + Ω ^ ij - - - ( 5 )
由此结构的约束数量可以维持在一定的范围内,不会随着相同的闭环检测而导致约束数量的增加,这种减少约束的技术能够加速优化算法的收敛速度。 
闭环约束加上相邻图像帧之间的局部约束,这两种约束同时制约着点的结构,如图4所示。基于全局数据关联带来的当前位姿与特定帧位姿之间的约束关系,当前帧位姿得到更新,与当前帧关联的其他帧位姿也随之得到更新。 
在得到了图像帧间的相对空间约束关系后,可以创建一个完整的摄像头位姿轨迹地图。在基于图的形式化表示中,机器人的位姿xi被看作是随机变量,位姿间的约束则是与随机变量相关的观测。将图像帧看作顶点集V,图像帧之间的位姿关联作为边的集合E,连接两帧图像的每条路径代表一个相关位姿估计,由此构建摄像头位姿轨迹地图G=(V,E)。 
地图优化 
由于观测噪声及约束误差的存在,仅仅依靠视觉里程计创建的位姿图通常不具备一致性,需要后期对图中节点进行位置调整,使节点能更好地满足约束关系,最终得到一个最优位姿地图。为了能够生成一个全局一致的地图,对每加入一个约束和更新一个约束后的整个结构进行优化。 
地图优化部分不考虑观测信息,只对整个序列位姿作最大似然估计,不需要知道摄像头的绝对位姿,只利用位姿间的相对变换关系最小化约束误差,得到位姿相对变换的最优估计,算法实质是个最大似然估计问题。目前大多数研究通过最大似然方法寻找最优地图,本发明也采用最大似然法进行地图优化,根据已建立的约束关系求解最优的位姿序列,得到一个最大可能的节点结构。 
本实施例采用随机梯度下降法进行地图优化,通过迭代地选择约束并移动图中的节点来实现,移动节点是为了减小所选择的约束产生的误差。与标准随机下降梯度公式不同,这些约束看作是独立的而不是整体得到优化。节点的更新如下: 
其中x是图中摄像头的位姿变量集合;m为迭代次数;H-1是一个先验矩阵;Jij的雅可比矩阵,是观测值的不确定信息矩阵,rij为约束误差的余。 
算法的最终目的是找到一个变量使代价函数Fij(x)最小,通过迭代选择初始值x1计算得到新的节点序列,序列在一定条件下收敛使Fij(x)最小从而求得解x*。函数Fij(x)对变量的梯度为 为一个负向量,梯度方向是Fij(x)减少最快的方向。由此可以得到:
H是***的Hessian矩阵,代表约束误差函数的曲率,考虑到H的计算比较复杂,一般使用H的近似值:H个可逆矩阵,可以近似计算为H-1=|diag(H)|-1。 
算法的关键问题是如何计算λ,λ为学习速率,控制着SGD的收敛速度。如果选得太小,则算法收敛速度慢;如果选得太会导致最终结果发散。这里采用Robbins和Monro的方法,将定义为:λij=1/(κijm),m表示前迭代的次数,参数
整个优化过程的迭代步骤为: 
步骤1:选取初始节点x1,给定允许约束误差a>0,b>0,并令m=0; 
步骤2:计算梯度下降方向向量
步骤3:判断是否满足约束条件满足则转向步骤8,否则继续; 
步骤4:计算最佳学习速率得到新节点xm-1; 
步骤5:所有节点组成一个位姿序列x=(x1,x2,…,xk,xk+1)T; 
步骤6:判断代价函数是否满足满足则转向步骤8,否则继续; 
步骤7:迭代次数加1,令m=m+1,转向步骤2; 
步骤8:输出结果,结束; 
整个算法在已知约束的情况下通过迭代减少约束误差得到极大似然地图,从而得到点的极大似然结构,构建全局范围内的精确地图,如图5。 
实验结果 
对本实施例提出的自然特征环境的单目视觉SLAM算法通过对实验室和走廊环境进行相应实验。实验室场景如图6所示,实验所用机器人为p3dx自主移动机器人,携带Logiteh QuickCam单目视觉传感器。除了视觉传感器,机器人还配有激光、声纳、红外等传感器。实验中采用无线以太网远程监控的方式来控制机器人的运行轨迹,由机器人上装载的摄像机进行实时图像采集,算法验证采用离线的方式进行,图像处理单元为Intel4核处理器i7-26003.4G,内存4G。每个实验分别就图像帧间的数据关联和摄像头运动轨迹进行实验结果数据分析,从不同环境下验证本发明算法的有效性。 
机器人首先在沿室内环境行走一圈后再继续前行,在第1000帧的位置准确检测到了闭环,如图7所示。机器人在实验室环境中行走两圈之后继续向前行走,由于闭环检测产生全局图像帧间的数据关联,同时进行了潜在的闭环候选,因此得到与当前帧匹配的历史帧后,当前帧的关联帧存在短时记忆内存中,利用这些帧之间的关联可以调整机器当前位姿序列,从而得到最终位姿估计地图,如图8所示。 
接下来在实验室走廊环境中进行实验,由于走廊范围较大且为结构化环境,基于本发明算法对2200多帧图像进行实验得到了较好的结果,整个运动过程如图11所示,具体图示如图12、图13、图14、图15、图16、图17所示。图中, 蓝色箭头表示机器人不同时刻的相对位姿,当前时刻位姿用红色箭头表示,位姿之间的关联用绿色线连接。 
实验中机器人从一个起始点行走了一段距离后继续前行,由于运动速度平稳,没有拐弯时机器人走的基本是直线,从图11(c)、图17中可以看出,机器人在四个拐弯处的运动轨迹也比较平滑,这是由于我们在拐摄像头获取的图像中检测到的特征点足够多,因此有利于准确计算相对位姿。在检测到闭环之前机器人运动轨迹没有闭合,在行走1000帧左右才开始检测到闭环。从图11(d)、图15中不难看出,检测到闭环后机器人得到了全局数据关联,当前位姿与起始处的历史位姿相匹配,之后的运动轨迹又重新沿第一个起始位置的路径开始。第一圈的运动轨迹虽然还没有与真实轨迹相一致,但是各个时刻位姿之间的关联是准确的,有利于之后的位姿调整。在行驶了1200多帧之后轨迹已经开始形成闭环,之后基于闭环检测带来的全局数据关联,机器人序列位姿得到了相应调整,地图越来越接近真实轨迹。在2000多帧之后基于本发明算法得到的机器人运动轨迹已与环境结构基本相一致,机器人在走廊环境中的最终位姿地图如图11(f)、图17所示,整个位姿序列较为平滑,数据关联准确,构建的位姿轨迹地图得到了很好优化。 
由于地图优化的计算复杂度取决于位姿长度而非环境大小,因此有利于得到图像序列间的数据关联。机器人不断向前运行时基于图像帧间的数据关联即约束关系进行地图优化,地图创建与地图优化同时进行。图像帧间的约束关系包括视觉里程计的数据关联和闭环检测的数据关联两部分,分别如图9和图10所示。连续图像帧间的共同特征点代表着图像间的对应关系,用来计算摄像头相对位姿,从而恢复相机的运动过程。当相机运动速度平稳的情况下,重新回到历史位置的时候不用计算新的位姿估计,直到相机运动有效才开始更新位姿,这样使访问到相同地点时保持地图解析,有利于结构化的环境中的长时间导航。图构建后通过最小化约束误差进行地图优化,最终得到了一个全局最优的最大似然地图,如图8所示。实验结果表明准确的数据关联有利于位姿地图创建的完整性与一致性。 

Claims (10)

1.一种基于图的视觉SLAM方法,其特征在于:
对摄像头获取的每一帧图像进行视觉特征提取,基于自然视觉单词的概率模型表示每帧图像,基于图像的概率向量表示得到匹配的特征点对,利用同一个特征点在不同时刻的图像坐标得到机器人在这两个时刻的相对位姿关系,通过立体视距技术计算每帧图像代表的相对位姿;
机器人不同时刻的位姿之间存在关联,基于图像序列中连续图像之间的位姿转换得到视觉里程计的数据关联,得到图像帧间的空间约束关系;
将摄像头相对位姿看作地图中的节点,图像帧间的空间约束关系表示为边,构建基于摄像机相对位姿估计的轨迹地图;
通过调整图中节点的位置进行最优位姿序列估计,通过随机梯度下降法最小化约束误差得到最优位姿地图。
2.如权利要求1所述的基于图的视觉SLAM方法,其特征在于:为得到当前时刻所有相机的位姿集合x0:n={x0,…,xn},每个当前位姿需要计算相对于初始时刻k=0相机局部坐标系的运动估计;
由于不同时刻转换矩阵Tk(k=1…n)之间存在连接关系,当前位姿xn=xn-1Tn,x0为初始时刻的相机位姿,由此通过计算图像Ik-1与Ik之间的转换关系Tk,把所有转换关系连接起来即可增量得到相机序列运动轨迹X1:n
3.如权利要求2所述的基于图的视觉SLAM方法,其特征在于,计算摄像机相对运动Tk
首先估计相对位姿和两帧摄像机的运动方向,然后恢复这两帧中观测到的特征点的位姿,最后通过路标位姿的匹配计算这些路标的正确尺度,进行估计相机运动。
4.如权利要求1所述的基于图的视觉SLAM方法,其特征在于:由本质矩阵E进行分解得到旋转矩阵R和平移矢量 与实际平移矢量t相差一个比例系数,最终可得到k-1时刻摄像头局部坐标系下,k时刻的摄像头位姿表示为:得到每个时刻的相对位姿后,将所有时刻的这些相对转换放到一个结构中,以表示连续图像节点间的关联。
5.如权利要求1所述的基于图的视觉SLAM方法,其特征在于,假设第j时刻成功检测到当前图像与第i时刻的图像形成闭环,则两个图像间的相对位姿表示为:信息矩阵为Ωij.,将该闭环数据关联加入到连续帧的数据结构中,形成一个新的结构
6.如权利要求5所述的基于图的视觉SLAM方法,其特征在于,假设节点i和节点j之间已经存在约束而某一时刻又得到两个节点间的另一个约束如此两个约束可以融入到一个约束中,融合的标准如下:
Ω ij = Ω ‾ ij + Ω ^ ij - - - ( 5 )
x i j = Ω ij - 1 ( Ω ‾ ij x ‾ i j + Ω ^ ij x ^ i j ) - - - ( 6 )
7.如权利要求6所述的基于图的视觉SLAM方法,其特征在于,将图像帧看作顶点集V,图像帧之间的位姿关联作为边的集合E,连接两帧图像的每条路径代表一个相关位姿估计,由此构建摄像头位姿轨迹地图G=(V,E)。
8.如权利要求1-7任一项所述的基于图的视觉SLAM方法,其特征在于:采用随机梯度下降法进行地图优化,通过迭代地选择约束并移动图中的节点来实现,节点的更新如下:
其中,x是图中摄像头的位姿变量集合;m为迭代次数;Jij.是fij的雅可比矩阵,Ωij.是观测值的不确定信息矩阵,rij.为约束误差的余;H-1是一个先验矩阵,H是***的Hessian矩阵,代表约束误差函数的曲率,使用H的近似值: H = Σ J ij Ω ij J ij T ; H个可逆矩阵,
9.如权利要求8所述的基于图的视觉SLAM方法,其特征在于:找到一个变量使代价函数Fij(x)最小,通过迭代选择初始值x1计算得到新的节点序列,序列在一定条件下收敛使Fij(x)最小从而求得解x*;函数Fij(x)对变量的梯度为 为一个负向量,梯度方向是Fij(x)减少最快的方向;由此得到:其中,将λij定义为λij=1/(κijm),m表示前迭代的次数,参数κij=diag|(j-i)Ωij|。
10.如权利要求1-7任一项所述的基于图的视觉SLAM方法,其特征在于:地图优化过程的迭代步骤为:
步骤1:选取初始节点x1,给定允许约束误差a>0,b>0,并令m=0;
步骤2:计算梯度下降方向向量
步骤3:判断是否满足约束条件满足则转向步骤8,否则继续;
步骤4:计算最佳学习速率λij,得到新节点xm+1
步骤5:所有节点组成一个位姿序列x=(x1,x2,…,xk,xk+1)T
步骤6:判断代价函数是否满足Fij(xk+1)-Fij(xk)≤b,满足则转向步骤8,否则继续;
步骤7:迭代次数加1,令m=m+1,转向步骤2;
步骤8:输出结果,结束。
CN201410125956.4A 2014-03-31 2014-03-31 基于图的视觉slam方法 Pending CN104374395A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410125956.4A CN104374395A (zh) 2014-03-31 2014-03-31 基于图的视觉slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410125956.4A CN104374395A (zh) 2014-03-31 2014-03-31 基于图的视觉slam方法

Publications (1)

Publication Number Publication Date
CN104374395A true CN104374395A (zh) 2015-02-25

Family

ID=52553450

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410125956.4A Pending CN104374395A (zh) 2014-03-31 2014-03-31 基于图的视觉slam方法

Country Status (1)

Country Link
CN (1) CN104374395A (zh)

Cited By (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631017A (zh) * 2015-12-29 2016-06-01 福州华鹰重工机械有限公司 离线坐标校准和地图创建的方法及装置
CN106154287A (zh) * 2016-09-28 2016-11-23 深圳市普渡科技有限公司 一种基于双轮里程计与激光雷达的地图构建方法
CN106289181A (zh) * 2015-05-22 2017-01-04 北京雷动云合智能技术有限公司 一种基于视觉测量的实时slam方法
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106780699A (zh) * 2017-01-09 2017-05-31 东南大学 一种基于sins/gps和里程计辅助的视觉slam方法
CN107036594A (zh) * 2017-05-07 2017-08-11 郑州大学 智能电站巡检智能体的定位与多粒度环境感知技术
CN107063190A (zh) * 2017-03-02 2017-08-18 辽宁工程技术大学 面向定标面阵相机影像的位姿高精度直接估计方法
CN107160395A (zh) * 2017-06-07 2017-09-15 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制***
CN107291093A (zh) * 2017-07-04 2017-10-24 西北工业大学 基于视觉slam的复杂环境下无人机自主降落区域选择方法
CN107515891A (zh) * 2017-07-06 2017-12-26 杭州南江机器人股份有限公司 一种机器人地图制作方法、装置和存储介质
CN107516326A (zh) * 2017-07-14 2017-12-26 中国科学院计算技术研究所 融合单目视觉和编码器信息的机器人定位方法和***
CN107562660A (zh) * 2017-08-29 2018-01-09 深圳普思英察科技有限公司 一种视觉slam的片上***及数据处理方法
CN107607111A (zh) * 2017-09-07 2018-01-19 驭势科技(北京)有限公司 加速度偏置估计方法和装置、视觉惯性里程计及其应用
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN107735797A (zh) * 2015-06-30 2018-02-23 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN108229416A (zh) * 2018-01-17 2018-06-29 苏州科技大学 基于语义分割技术的机器人slam方法
CN108256060A (zh) * 2018-01-16 2018-07-06 广州视源电子科技股份有限公司 一种闭环检测方法、装置、终端及存储介质
CN108279670A (zh) * 2017-12-29 2018-07-13 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN108291813A (zh) * 2015-10-09 2018-07-17 大众汽车有限公司 借助姿态图的位置数据融合
CN108332752A (zh) * 2018-01-09 2018-07-27 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN108363387A (zh) * 2018-01-11 2018-08-03 驭势科技(北京)有限公司 传感器控制方法及装置
CN108564625A (zh) * 2018-04-27 2018-09-21 百度在线网络技术(北京)有限公司 图优化方法、装置、电子设备及存储介质
CN109389645A (zh) * 2017-08-02 2019-02-26 珊口(上海)智能科技有限公司 相机自校准方法、***、相机、机器人及云端服务器
CN109389127A (zh) * 2017-08-14 2019-02-26 华北理工大学 结构化多视图Hessian正则化稀疏特征选择方法
CN109426832A (zh) * 2017-08-30 2019-03-05 湖南拓视觉信息技术有限公司 场景三维建模中的闭环检测方法、存储介质及电子设备
CN109478330A (zh) * 2016-06-24 2019-03-15 罗伯特·博世有限公司 基于rgb-d照相机的跟踪***及其方法
CN109540148A (zh) * 2018-12-04 2019-03-29 广州小鹏汽车科技有限公司 基于slam地图的定位方法及***
CN109544629A (zh) * 2018-11-29 2019-03-29 南京人工智能高等研究院有限公司 摄像头位姿确定方法和装置以及电子设备
CN109583604A (zh) * 2018-12-10 2019-04-05 国网浙江义乌市供电有限公司 一种基于slam技术的变电设备故障标记方法
CN109771950A (zh) * 2019-01-31 2019-05-21 腾讯科技(深圳)有限公司 节点地图的设置方法、设备及存储介质
CN109798897A (zh) * 2019-01-22 2019-05-24 广东工业大学 一种通过环境模型完整度评估以提高单目视觉定位可靠性的方法
CN109848996A (zh) * 2019-03-19 2019-06-07 西安交通大学 基于图优化理论的大规模三维环境地图创建方法
CN110044358A (zh) * 2019-04-29 2019-07-23 清华大学 基于现场场线特征的移动机器人定位方法
CN110097045A (zh) * 2018-01-31 2019-08-06 株式会社理光 一种定位方法、定位装置及可读存储介质
CN110160522A (zh) * 2019-04-16 2019-08-23 浙江大学 一种基于稀疏特征法的视觉惯导里程计的位姿估计方法
CN110260866A (zh) * 2019-07-19 2019-09-20 闪电(昆山)智能科技有限公司 一种基于视觉传感器的机器人定位与避障方法
CN110310333A (zh) * 2019-06-27 2019-10-08 Oppo广东移动通信有限公司 定位方法及电子设备、可读存储介质
CN110322549A (zh) * 2019-06-12 2019-10-11 清华大学 一种基于图像的三维重建的方法及***
CN110320520A (zh) * 2019-06-26 2019-10-11 哈尔滨工程大学 一种测深信息同步定位与建图的鲁棒后端图优化方法
CN110443854A (zh) * 2019-08-05 2019-11-12 兰州交通大学 基于固定靶标的无公共视场相机间相对位姿标定方法
CN110458897A (zh) * 2019-08-13 2019-11-15 北京积加科技有限公司 多摄像头自动标定方法及***、监控方法及***
CN110520694A (zh) * 2017-10-31 2019-11-29 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
WO2019233299A1 (zh) * 2018-06-05 2019-12-12 杭州海康机器人技术有限公司 地图构建方法、装置及计算机可读存储介质
CN110570449A (zh) * 2019-09-16 2019-12-13 电子科技大学 一种基于毫米波雷达与视觉slam的定位与建图方法
WO2019242628A1 (en) * 2018-06-19 2019-12-26 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for pose determination
CN110702111A (zh) * 2018-07-09 2020-01-17 三星电子株式会社 使用双事件相机的同时定位与地图创建(slam)
CN110945565A (zh) * 2017-07-20 2020-03-31 罗伯特·博世有限公司 利用概率面元地图的密集视觉slam
CN111089579A (zh) * 2018-10-22 2020-05-01 北京地平线机器人技术研发有限公司 异构双目slam方法、装置及电子设备
CN111126304A (zh) * 2019-12-25 2020-05-08 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
CN111279391A (zh) * 2017-07-31 2020-06-12 牛津大学科技创新有限公司 一种构建移动设备运动模型的方法及相关***
CN111292420A (zh) * 2020-02-28 2020-06-16 北京百度网讯科技有限公司 用于构建地图的方法和装置
CN111366165A (zh) * 2018-12-26 2020-07-03 长安大学 一种基于网络地理信息***和机器视觉的道路视距检测方法
CN111461998A (zh) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 一种环境重建方法及装置
CN111476842A (zh) * 2020-04-10 2020-07-31 中国人民解放军国防科技大学 一种像机相对位姿估计方法及***
CN111712811A (zh) * 2018-02-23 2020-09-25 罗伯特·博世有限公司 Hd地图的可扩展图形slam
CN111796600A (zh) * 2020-07-22 2020-10-20 中北大学 一种基于四足机器人的物体识别与跟踪***
CN111833402A (zh) * 2020-06-30 2020-10-27 天津大学 基于暂停信息补充机制的视觉里程计旋转运动处理方法
CN112183171A (zh) * 2019-07-05 2021-01-05 杭州海康机器人技术有限公司 一种基于视觉信标建立信标地图方法、装置
CN112219087A (zh) * 2019-08-30 2021-01-12 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
CN112304321A (zh) * 2019-07-26 2021-02-02 北京初速度科技有限公司 一种基于视觉和imu的车辆融合定位方法及车载终端
CN112465021A (zh) * 2020-11-27 2021-03-09 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112487234A (zh) * 2020-11-25 2021-03-12 北京集光通达科技股份有限公司 基于***型层次聚类的轨迹分析方法、设备及存储介质
CN112698315A (zh) * 2019-10-23 2021-04-23 阿里巴巴集团控股有限公司 移动设备定位***、方法及设备
CN112697156A (zh) * 2020-12-04 2021-04-23 深圳市优必选科技股份有限公司 地图库建立方法、机器人、计算机设备及存储介质
CN112902953A (zh) * 2021-01-26 2021-06-04 中国科学院国家空间科学中心 一种基于slam技术的自主位姿测量方法
CN113034584A (zh) * 2021-04-16 2021-06-25 广东工业大学 一种基于物体语义路标的移动机器人视觉定位方法
WO2021233452A1 (zh) * 2020-05-22 2021-11-25 杭州海康机器人技术有限公司 一种地图更新方法以及装置
CN113709441A (zh) * 2020-05-22 2021-11-26 杭州海康威视数字技术股份有限公司 一种扫描设备、相机的位姿确定方法、装置及电子设备
CN113891251A (zh) * 2021-09-01 2022-01-04 厦门大学 一种基于AGV的惯导-WiFi信号融合定位算法
CN113902862A (zh) * 2021-10-12 2022-01-07 华东理工大学 一种基于一致性集群的视觉slam回环验证***
CN114286924A (zh) * 2019-09-03 2022-04-05 宝马汽车股份有限公司 用于确定车辆轨迹的方法和装置
CN114742884A (zh) * 2022-06-09 2022-07-12 杭州迦智科技有限公司 一种基于纹理的建图、里程计算、定位方法及***
CN115115669A (zh) * 2022-06-28 2022-09-27 深圳市神州云海智能科技有限公司 基于边缘设备自监督学习的终端感知定位方法及***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
梁志伟等: "基于分布式感知的移动机器人同时定位与地图创建", 《机器人》 *
陈燕燕: "混合人工自然特征环境的单目视觉SLAM", 《中国优秀硕士论文全文数据库信息科技辑》 *

Cited By (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106289181B (zh) * 2015-05-22 2018-12-18 北京雷动云合智能技术有限公司 一种基于视觉测量的实时slam方法
CN106289181A (zh) * 2015-05-22 2017-01-04 北京雷动云合智能技术有限公司 一种基于视觉测量的实时slam方法
CN107735797A (zh) * 2015-06-30 2018-02-23 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN107735797B (zh) * 2015-06-30 2021-03-19 三菱电机株式会社 用于确定第一坐标系与第二坐标系之间的运动的方法
CN108291813A (zh) * 2015-10-09 2018-07-17 大众汽车有限公司 借助姿态图的位置数据融合
CN105631017A (zh) * 2015-12-29 2016-06-01 福州华鹰重工机械有限公司 离线坐标校准和地图创建的方法及装置
CN109478330B (zh) * 2016-06-24 2022-03-29 罗伯特·博世有限公司 基于rgb-d照相机的跟踪***及其方法
CN109478330A (zh) * 2016-06-24 2019-03-15 罗伯特·博世有限公司 基于rgb-d照相机的跟踪***及其方法
CN106352877A (zh) * 2016-08-10 2017-01-25 纳恩博(北京)科技有限公司 一种移动装置及其定位方法
CN106154287A (zh) * 2016-09-28 2016-11-23 深圳市普渡科技有限公司 一种基于双轮里程计与激光雷达的地图构建方法
CN106780699A (zh) * 2017-01-09 2017-05-31 东南大学 一种基于sins/gps和里程计辅助的视觉slam方法
CN106780699B (zh) * 2017-01-09 2020-10-16 东南大学 一种基于sins/gps和里程计辅助的视觉slam方法
CN107063190A (zh) * 2017-03-02 2017-08-18 辽宁工程技术大学 面向定标面阵相机影像的位姿高精度直接估计方法
CN107063190B (zh) * 2017-03-02 2019-07-30 辽宁工程技术大学 面向定标面阵相机影像的位姿高精度直接估计方法
CN107036594A (zh) * 2017-05-07 2017-08-11 郑州大学 智能电站巡检智能体的定位与多粒度环境感知技术
CN107160395A (zh) * 2017-06-07 2017-09-15 中国人民解放军装甲兵工程学院 地图构建方法及机器人控制***
CN107291093A (zh) * 2017-07-04 2017-10-24 西北工业大学 基于视觉slam的复杂环境下无人机自主降落区域选择方法
CN107515891A (zh) * 2017-07-06 2017-12-26 杭州南江机器人股份有限公司 一种机器人地图制作方法、装置和存储介质
CN107516326A (zh) * 2017-07-14 2017-12-26 中国科学院计算技术研究所 融合单目视觉和编码器信息的机器人定位方法和***
CN107516326B (zh) * 2017-07-14 2020-04-03 中国科学院计算技术研究所 融合单目视觉和编码器信息的机器人定位方法和***
CN110945565B (zh) * 2017-07-20 2024-04-30 罗伯特·博世有限公司 利用概率面元地图的密集视觉slam
CN110945565A (zh) * 2017-07-20 2020-03-31 罗伯特·博世有限公司 利用概率面元地图的密集视觉slam
CN111279391A (zh) * 2017-07-31 2020-06-12 牛津大学科技创新有限公司 一种构建移动设备运动模型的方法及相关***
CN111279391B (zh) * 2017-07-31 2023-08-18 牛津大学科技创新有限公司 一种构建移动设备运动模型的方法及相关***
CN109389645B (zh) * 2017-08-02 2021-01-01 珊口(上海)智能科技有限公司 相机自校准方法、***、相机、机器人及云端服务器
CN109389645A (zh) * 2017-08-02 2019-02-26 珊口(上海)智能科技有限公司 相机自校准方法、***、相机、机器人及云端服务器
CN109389127A (zh) * 2017-08-14 2019-02-26 华北理工大学 结构化多视图Hessian正则化稀疏特征选择方法
CN107562660B (zh) * 2017-08-29 2020-07-17 深圳普思英察科技有限公司 一种视觉slam的片上***及数据处理方法
CN107562660A (zh) * 2017-08-29 2018-01-09 深圳普思英察科技有限公司 一种视觉slam的片上***及数据处理方法
CN109426832A (zh) * 2017-08-30 2019-03-05 湖南拓视觉信息技术有限公司 场景三维建模中的闭环检测方法、存储介质及电子设备
CN107607111A (zh) * 2017-09-07 2018-01-19 驭势科技(北京)有限公司 加速度偏置估计方法和装置、视觉惯性里程计及其应用
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN110520694A (zh) * 2017-10-31 2019-11-29 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
US11067669B2 (en) 2017-12-29 2021-07-20 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for adjusting point cloud data acquisition trajectory, and computer readable medium
CN108279670A (zh) * 2017-12-29 2018-07-13 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN108279670B (zh) * 2017-12-29 2021-12-10 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
CN108332752A (zh) * 2018-01-09 2018-07-27 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN108363387A (zh) * 2018-01-11 2018-08-03 驭势科技(北京)有限公司 传感器控制方法及装置
CN108256060A (zh) * 2018-01-16 2018-07-06 广州视源电子科技股份有限公司 一种闭环检测方法、装置、终端及存储介质
CN108256060B (zh) * 2018-01-16 2021-02-09 广州视源电子科技股份有限公司 一种闭环检测方法、装置、终端及存储介质
CN108229416B (zh) * 2018-01-17 2021-09-10 苏州科技大学 基于语义分割技术的机器人slam方法
CN108229416A (zh) * 2018-01-17 2018-06-29 苏州科技大学 基于语义分割技术的机器人slam方法
CN110097045A (zh) * 2018-01-31 2019-08-06 株式会社理光 一种定位方法、定位装置及可读存储介质
CN111712811A (zh) * 2018-02-23 2020-09-25 罗伯特·博世有限公司 Hd地图的可扩展图形slam
CN108564625A (zh) * 2018-04-27 2018-09-21 百度在线网络技术(北京)有限公司 图优化方法、装置、电子设备及存储介质
WO2019233299A1 (zh) * 2018-06-05 2019-12-12 杭州海康机器人技术有限公司 地图构建方法、装置及计算机可读存储介质
US11781863B2 (en) 2018-06-19 2023-10-10 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for pose determination
WO2019242628A1 (en) * 2018-06-19 2019-12-26 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for pose determination
CN110702111A (zh) * 2018-07-09 2020-01-17 三星电子株式会社 使用双事件相机的同时定位与地图创建(slam)
CN110702111B (zh) * 2018-07-09 2024-05-17 三星电子株式会社 使用双事件相机的同时定位与地图创建(slam)
CN111089579A (zh) * 2018-10-22 2020-05-01 北京地平线机器人技术研发有限公司 异构双目slam方法、装置及电子设备
CN109544629A (zh) * 2018-11-29 2019-03-29 南京人工智能高等研究院有限公司 摄像头位姿确定方法和装置以及电子设备
CN109544629B (zh) * 2018-11-29 2021-03-23 南京人工智能高等研究院有限公司 摄像头位姿确定方法和装置以及电子设备
CN109540148B (zh) * 2018-12-04 2020-10-16 广州小鹏汽车科技有限公司 基于slam地图的定位方法及***
CN109540148A (zh) * 2018-12-04 2019-03-29 广州小鹏汽车科技有限公司 基于slam地图的定位方法及***
CN109583604B (zh) * 2018-12-10 2021-08-24 国网浙江义乌市供电有限公司 一种基于slam技术的变电设备故障标记方法
CN109583604A (zh) * 2018-12-10 2019-04-05 国网浙江义乌市供电有限公司 一种基于slam技术的变电设备故障标记方法
CN111366165A (zh) * 2018-12-26 2020-07-03 长安大学 一种基于网络地理信息***和机器视觉的道路视距检测方法
CN109798897A (zh) * 2019-01-22 2019-05-24 广东工业大学 一种通过环境模型完整度评估以提高单目视觉定位可靠性的方法
CN109798897B (zh) * 2019-01-22 2022-07-01 广东工业大学 一种通过环境模型完整度评估以提高单目视觉定位可靠性的方法
CN109771950A (zh) * 2019-01-31 2019-05-21 腾讯科技(深圳)有限公司 节点地图的设置方法、设备及存储介质
CN109771950B (zh) * 2019-01-31 2021-08-10 腾讯科技(深圳)有限公司 节点地图的设置方法、设备及存储介质
CN109848996A (zh) * 2019-03-19 2019-06-07 西安交通大学 基于图优化理论的大规模三维环境地图创建方法
CN110160522A (zh) * 2019-04-16 2019-08-23 浙江大学 一种基于稀疏特征法的视觉惯导里程计的位姿估计方法
CN110044358A (zh) * 2019-04-29 2019-07-23 清华大学 基于现场场线特征的移动机器人定位方法
CN110322549A (zh) * 2019-06-12 2019-10-11 清华大学 一种基于图像的三维重建的方法及***
CN110320520B (zh) * 2019-06-26 2022-08-02 哈尔滨工程大学 一种测深信息同步定位与建图的鲁棒后端图优化方法
CN110320520A (zh) * 2019-06-26 2019-10-11 哈尔滨工程大学 一种测深信息同步定位与建图的鲁棒后端图优化方法
CN110310333A (zh) * 2019-06-27 2019-10-08 Oppo广东移动通信有限公司 定位方法及电子设备、可读存储介质
CN112183171A (zh) * 2019-07-05 2021-01-05 杭州海康机器人技术有限公司 一种基于视觉信标建立信标地图方法、装置
CN110260866A (zh) * 2019-07-19 2019-09-20 闪电(昆山)智能科技有限公司 一种基于视觉传感器的机器人定位与避障方法
CN112304321A (zh) * 2019-07-26 2021-02-02 北京初速度科技有限公司 一种基于视觉和imu的车辆融合定位方法及车载终端
CN110443854A (zh) * 2019-08-05 2019-11-12 兰州交通大学 基于固定靶标的无公共视场相机间相对位姿标定方法
CN110458897A (zh) * 2019-08-13 2019-11-15 北京积加科技有限公司 多摄像头自动标定方法及***、监控方法及***
CN112219087A (zh) * 2019-08-30 2021-01-12 深圳市大疆创新科技有限公司 位姿预测方法、地图构建方法、可移动平台及存储介质
CN114286924B (zh) * 2019-09-03 2024-04-23 宝马汽车股份有限公司 用于确定车辆轨迹的方法和装置
CN114286924A (zh) * 2019-09-03 2022-04-05 宝马汽车股份有限公司 用于确定车辆轨迹的方法和装置
CN110570449A (zh) * 2019-09-16 2019-12-13 电子科技大学 一种基于毫米波雷达与视觉slam的定位与建图方法
CN112698315B (zh) * 2019-10-23 2024-04-09 浙江菜鸟供应链管理有限公司 移动设备定位***、方法及设备
CN112698315A (zh) * 2019-10-23 2021-04-23 阿里巴巴集团控股有限公司 移动设备定位***、方法及设备
CN111126304A (zh) * 2019-12-25 2020-05-08 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
CN111126304B (zh) * 2019-12-25 2023-07-07 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
CN111292420A (zh) * 2020-02-28 2020-06-16 北京百度网讯科技有限公司 用于构建地图的方法和装置
CN111461998A (zh) * 2020-03-11 2020-07-28 中国科学院深圳先进技术研究院 一种环境重建方法及装置
CN111476842A (zh) * 2020-04-10 2020-07-31 中国人民解放军国防科技大学 一种像机相对位姿估计方法及***
CN111476842B (zh) * 2020-04-10 2023-06-20 中国人民解放军国防科技大学 一种像机相对位姿估计方法及***
CN113709441A (zh) * 2020-05-22 2021-11-26 杭州海康威视数字技术股份有限公司 一种扫描设备、相机的位姿确定方法、装置及电子设备
WO2021233452A1 (zh) * 2020-05-22 2021-11-25 杭州海康机器人技术有限公司 一种地图更新方法以及装置
CN111833402B (zh) * 2020-06-30 2023-06-06 天津大学 基于暂停信息补充机制的视觉里程计旋转运动处理方法
CN111833402A (zh) * 2020-06-30 2020-10-27 天津大学 基于暂停信息补充机制的视觉里程计旋转运动处理方法
CN111796600A (zh) * 2020-07-22 2020-10-20 中北大学 一种基于四足机器人的物体识别与跟踪***
CN112487234B (zh) * 2020-11-25 2024-03-29 北京集光通达科技股份有限公司 基于***型层次聚类的轨迹分析方法、设备及存储介质
CN112487234A (zh) * 2020-11-25 2021-03-12 北京集光通达科技股份有限公司 基于***型层次聚类的轨迹分析方法、设备及存储介质
CN112465021A (zh) * 2020-11-27 2021-03-09 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112465021B (zh) * 2020-11-27 2022-08-05 南京邮电大学 基于图像插帧法的位姿轨迹估计方法
CN112697156A (zh) * 2020-12-04 2021-04-23 深圳市优必选科技股份有限公司 地图库建立方法、机器人、计算机设备及存储介质
CN112902953A (zh) * 2021-01-26 2021-06-04 中国科学院国家空间科学中心 一种基于slam技术的自主位姿测量方法
CN113034584B (zh) * 2021-04-16 2022-08-30 广东工业大学 一种基于物体语义路标的移动机器人视觉定位方法
CN113034584A (zh) * 2021-04-16 2021-06-25 广东工业大学 一种基于物体语义路标的移动机器人视觉定位方法
CN113891251A (zh) * 2021-09-01 2022-01-04 厦门大学 一种基于AGV的惯导-WiFi信号融合定位算法
CN113902862A (zh) * 2021-10-12 2022-01-07 华东理工大学 一种基于一致性集群的视觉slam回环验证***
CN113902862B (zh) * 2021-10-12 2024-04-16 华东理工大学 一种基于一致性集群的视觉slam回环验证***
CN114742884A (zh) * 2022-06-09 2022-07-12 杭州迦智科技有限公司 一种基于纹理的建图、里程计算、定位方法及***
CN115115669A (zh) * 2022-06-28 2022-09-27 深圳市神州云海智能科技有限公司 基于边缘设备自监督学习的终端感知定位方法及***

Similar Documents

Publication Publication Date Title
CN104374395A (zh) 基于图的视觉slam方法
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
US10953545B2 (en) System and method for autonomous navigation using visual sparse map
CN104732518B (zh) 一种基于智能机器人地面特征的ptam改进方法
Paton et al. Bridging the appearance gap: Multi-experience localization for long-term visual teach and repeat
CN106780631B (zh) 一种基于深度学习的机器人闭环检测方法
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
KR101286135B1 (ko) 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법
CN111899280B (zh) 采用深度学习和混合型位姿估计的单目视觉里程计方法
Dinnissen et al. Map merging of multi-robot slam using reinforcement learning
Otsu et al. Where to look? Predictive perception with applications to planetary exploration
Murali et al. Utilizing semantic visual landmarks for precise vehicle navigation
Yang et al. Asynchronous multi-view SLAM
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
CN111161334B (zh) 一种基于深度学习的语义地图构建方法
Ye et al. Deflowslam: Self-supervised scene motion decomposition for dynamic dense slam
Hsiao et al. Aras: Ambiguity-aware robust active slam based on multi-hypothesis state and map estimations
CN115311538A (zh) 一种基于场景先验的智能体目标搜索的方法
Lategahn et al. Motion-without-structure: Real-time multipose optimization for accurate visual odometry
Fan et al. A nonlinear optimization-based monocular dense mapping system of visual-inertial odometry
Jo et al. Mixture density-PoseNet and its application to monocular camera-based global localization
Dang et al. Real-time semantic plane reconstruction on a monocular drone using sparse fusion
CN112857373B (zh) 一种最小化无用动作的节能性无人车路径导航方法
Valente et al. Grid matching localization on evidential SLAM
Oishi et al. LC*: Visual-inertial Loose Coupling for Resilient and Lightweight Direct Visual Localization

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20150225