CN109543694A - 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 - Google Patents
一种基于点特征稀疏策略的视觉同步定位与地图构建方法 Download PDFInfo
- Publication number
- CN109543694A CN109543694A CN201811138347.7A CN201811138347A CN109543694A CN 109543694 A CN109543694 A CN 109543694A CN 201811138347 A CN201811138347 A CN 201811138347A CN 109543694 A CN109543694 A CN 109543694A
- Authority
- CN
- China
- Prior art keywords
- road sign
- feature
- constraint
- moment
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于点特征稀疏策略的视觉同步定位与地图构建方法,首先对通过传感器获得的水下图像进行特征提取处理,采用传统的SIFT算法对声呐图像进行点特征提取,然后通过多项匹配约束进行SIFT特征点的匹配,提高匹配精确度。在EKF‑SLAM过程中,对路标进行稀疏性约束,控制路标的位置空间和特征空间的分布,有效防止路标匹配混淆,从而提高数据关联的准确性。本发明引入路标库的稀疏型策略,针对路标在位置空间和特征空间的分布密度同时进行限制,既能合理限制路标的上升速度,减少计算量、缩短定位时间,又能维持路标特征的多样性,提高数据关联的准确性。
Description
技术领域
本发明涉及水下定位与导航领域,特别涉及一种基于点特征稀疏策略的视觉同步定位与地图构建方法。
背景技术
同步定位与地图构建(Simultaneous Localization and Mapping—SLAM)问题已成为当前导航定位领域研究的热点问题。SLAM问题可以描述为:在一个没有先验地图的二维平面内,已知运动模型的一个运动体从一个未知初始点出发,在一个有若干环境特征的空间中运动,根据运动体通过传感器获得的数据确定特征空间的二维坐标以及自身的三维坐标。
目前解决SLAM问题比较常用的一种方法是EKF-SLAM(Extended Kalman Filter-Simultaneous Localization and Mapping)——基于扩展卡尔曼滤波器的移动同步定位与地图构建算法。现有的EKF-SLAM算法是一种最优循环迭代估计,但是由于空间中点较多,造成运算量较大,进而使得EKF-SLAM算法的实时性较差,无法满足目前需要实时定位的需求。
发明内容
本发明的目的是解决在水下环境中路标干扰因素较大的情况下缩短定位时间,减少计算复杂度并提高数据关联精确度,提供一种基于点特征稀疏策略的视觉同步定位与地图构建方法,本发明方法针对水下航行器作业于小范围空间且特征点数较多以及环境复杂的海域时,会产生计算量过大的问题,引入路标库的稀疏性策略,针对路标在位置空间和特征空间的分步特征的多样性,提高数据关联的准确性。
本发明所采用的技术方案是:一种基于点特征稀疏策略的视觉同步定位与地图构建方法,包括以下步骤:
步骤1,采用传统的SIFT算法对声呐图像进行点特征提取,通过极线约束、视差约束、方向约束、尺度约束、唯一匹配约束进行SIFT特征点的匹配;
步骤2,对路标进行稀疏性约束,并根据EKF-SLAM算法进行定位与构图。
进一步的,步骤1具体包括以下步骤:
步骤1-1,尺度空间SIFT特征检测
首先,利用高斯核G(x,y,σ)建立高斯金字塔图像,图像的尺度空间L(x,y,σ)由一个变化尺度的高斯函数G(x,y,σ)与原图像I(x,y)卷积生成:
其中,(x,y)是空间坐标,代表图像的像素位置;表示尺度可变高斯函数;表示卷积;σ表示尺度空间因子;
然后,通过对两个相邻高斯尺度空间图像相减,得到一个DOG的响应的高斯差分图像D(x,y,σ),高斯差分图像函数D(x,y,σ)则表示为:
其中,k为正整数;
步骤2-2,SIFT特征点矢量生成
SIFT算法以检测到的特征点为中心取16*16的窗口,并将其等间距分成4*4个子区域;在每个子区域计算8个方向上的梯度方向直方图,绘制每个梯度方向的累加值;每个子区域的直方图将0°~360°划分为8个方向范围,每个范围为45度,生成4*4*8=128个数据,最终生成128维特征向量,再对128维特征向量进行归一化处理;
步骤2-3,SIFT特征点矢量距离
采用欧氏距离计算特征点矢量距离d(x,y):
其中,128为生成的128维特征向量;
步骤2-4,SIFT特征点匹配
引入多项匹配约束,以减少误匹配点数,其中,多项匹配约束包括:
极线约束:特征点在垂直方向上的坐标差值小于1个像素;
视差约束:特征点在水平方向上的坐标差值小于20个像素;
方向约束:特征点方向的差值小于20°;
尺度约束:左右特征点尺度差值小于1.5;
唯一匹配约束:如果一个特征点有多个特征点满足约束条件与其匹配,则认为该特征点失效;
基于上述约束条件进行图像特征匹配,提高了匹配精确度,减少误匹配特征点的个数。
进一步的,步骤2具体包括以下步骤:
步骤2-1,对路标进行稀疏性约束
EKF-SLAM算法将机器人的位姿与地图信息放在一个状态向量里同时进行更新,其状态向量为:
其中,Xr(k)=[xr,k,yr,k,θr,k]T,表示在全局坐标系下对机器人的位姿估计,Xl(k)=[x1,y1,....,xn,yn]T,为地图中路标的坐标信息;
对于地图库中任一路标设路标对应的两个空间邻域分别为A和B,其中,B以外的区域定义为C,对路标的位置空间和特征空间进行稀疏性限制:在路标的A区域内,不允许存在任何其他路标;在路标的B内A外的区域中,不允许存在与路标形状相同的路标;
遍历地图库中路标点,对于所有路标均符合***条件时,该点才允许被***,即对于任何新发现的路标满足式(5)(6)其中之一:
其中,为地图库的路标与新发现的之间的距离,为距离的阈值常量;
步骤2-2,机器人位置预测
根据第k步机器人位姿和控制输入来预测第k+1步的机器人状态和误差协方差矩阵P(k+1):
其中,为k+1时刻的状态估计;为k时刻的状态估计;u(k)为输入控制;为k+1时刻方差估计;F(k)为f对X(k)的偏导;Qk为协方差矩阵;
步骤2-3,观测:在k+1时刻,机器人通过运动模型控制运动到预设路径点处,利用自身携带传感器感知环境,获取数据;
步骤2-4,数据关联:完成观测之后,运用混合自适应的数据关联方法执行匹配搜索;
步骤2-5,状态更新:
其中,z(k+1)表示k+1时刻的实际测量值;表示k+1时刻的预测测量值;K(k+1)表示k+1时刻的卡尔曼增益;Jh(k+1)表示k+1时刻的雅可比矩阵;
在k+1时刻,直到所有关联成功的特征对都完成了对预测状态X(k+1)和P(k+1)的校正,这时,基于当前观测的一次EKF-SLAM“预测-校正”完成;
步骤2-6,地图更新,生成增量式地图。
本发明的有益效果是:本发明一种基于点特征稀疏策略的视觉同步定位与地图构建方法,引入路标库的稀疏型策略,针对路标在位置空间和特征空间的分布密度同时进行限制,既能合理限制路标的上升速度,减少计算量、缩短定位时间,又能维持路标特征的多样性,提高数据关联的准确性。
附图说明
图1:本发明一种基于点特征稀疏策略的视觉同步定位与地图构建方法流程图;
图2:同步定位与构图方法的工作原理图;
图3:特征点稀疏约束图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹例举以下实施例,并配合附图详细说明如下:
本发明一种基于点特征稀疏策略的视觉同步定位与地图构建方法,首先对通过传感器获得的水下图像进行特征提取处理,我们采用传统的SIFT(Scale-invariant featuretransform,尺度不变特征变换)算法对声呐图像进行点特征提取,然后通过多项匹配约束进行SIFT特征点的匹配,提高匹配精确度。在EKF-SLAM过程中,对路标进行稀疏性约束,控制路标的位置空间和特征空间的分布,有效防止路标匹配混淆,从而提高数据关联的准确性,这种改进方式不但降低了计算量同时缩短了定位时间。具体如下:
如附图1所示,一种基于点特征稀疏策略的视觉同步定位与地图构建方法,包括以下步骤:
步骤1,采用传统的SIFT算法对声呐图像进行点特征提取,通过极线约束、视差约束、方向约束、尺度约束、唯一匹配约束进行SIFT特征点的匹配。
步骤1-1,尺度空间SIFT特征检测
首先,利用高斯核G(x,y,σ)建立高斯金字塔图像,图像的尺度空间L(x,y,σ)由一个变化尺度的高斯函数G(x,y,σ)与原图像I(x,y)卷积生成:
其中,(x,y)是空间坐标,代表图像的像素位置;表示尺度可变高斯函数;表示卷积;σ表示尺度空间因子,值越小表示图像被平滑的越少,相应的尺度也越小。
在尺度空间上,为了有效检测到关键点的位置,可以通过对两个相邻高斯尺度空间图像相减,得到一个DOG(Difference of Gaussians,高斯差分)的响应的高斯差分图像D(x,y,σ),高斯差分图像函数D(x,y,σ)则表示为:
其中,k为正整数。
步骤2-2,SIFT特征点矢量生成
SIFT算法以检测到的特征点为中心取16*16的窗口,并将其等间距分成4*4个子区域。在每个子区域计算8个方向上的梯度方向直方图,绘制每个梯度方向的累加值。每个子区域的直方图将0°~360°划分为8个方向范围,每个范围为45度,这样一共生成4*4*8=128个数据,最终生成128维特征向量,再对128维特征向量进行归一化处理。
步骤2-3,SIFT特征点矢量距离
为了减少计算复杂度,本发明采用欧式距离计算特征点矢量距离d(x,y):
其中,128为生成的128维特征向量。
步骤2-4,SIFT特征点匹配
引入多项匹配约束,以减少误匹配点数。其中,多项匹配约束包括:
极线约束:特征点在垂直方向上的坐标差值小于1个像素;
视差约束:特征点在水平方向上的坐标差值小于20个像素;
方向约束:特征点方向的差值小于20°;
尺度约束:左右特征点尺度差值小于1.5;
唯一匹配约束:如果一个特征点有多个特征点满足约束条件与其匹配,则认为该特征点失效。
基于上述约束条件进行图像特征匹配,提高了匹配精确度,减少误匹配特征点的个数。
步骤2,对路标进行稀疏性约束,并根据EKF-SLAM算法进行定位与构图。其中,基于EKF的同步定位与构图方法的工作原理图如图2所示,图中,白色标志为实际工作的水下航行器,黑色标志为估计的水下航行器,白色“o”表示水下航行器的实际路标,黑色“o”表示依据算法估计得到的路标,X0是水下航行器0时刻的实际位置,X1是水下航行器1时刻的实际位置,u1是估计和更新的过程,X1'是水下航行器第一次估计和更新后的位置,X1”是水下航行器第二次估计和更新的位置,mi是地图库中的路标,分别是观测的路标。
步骤2-1,对路标进行稀疏性约束(即,进行***路标状态构建)
EKF-SLAM算法将机器人的位姿与地图信息放在一个状态向量里同时进行更新,其状态向量为:
其中,Xr(k)=[xr,k,yr,k,θr,k]T,表示在全局坐标系下对机器人的位姿估计,Xl(k)=[x1,y1,....,xn,yn]T,为地图中路标的坐标信息。
对于地图库中任一路标为了合理控制路标的数量和分布密度,此处引入路标的稀疏性限制,如图3所示,图中,浅灰色圆形标记和浅灰色三角形标记分别代表两种地图库中已有的路标,深灰色三角形标记代表新发现的第m个路标Lvm,深灰色圆形标记代表新发现的第n个路标Lvn,设路标对应的两个空间邻域分别为A和B(其中),B以外的区域定义为C,对路标的位置空间和特征空间进行稀疏性限制(在路标的A区域内,不允许存在任何其他路标;在路标的B内A外的区域中,不允许存在与路标形状相同的路标)。实际操作时,需要遍历地图库中路标点,对于所有路标均符合***条件时,该点才允许被***,即对于任何新发现的路标满足式(5)(6)其中之一:
其中,为地图库的路标与新发现的之间的距离,为距离的阈值常量。
步骤2-2,机器人位置预测
根据第k步机器人位姿和控制输入来预测第k+1步的机器人状态和误差协方差矩阵P(k+1):
其中,为k+1时刻的状态估计;为k时刻的状态估计;u(k)为输入控制;为k+1时刻方差估计;F(k)为f对X(k)的偏导;Qk为协方差矩阵。
步骤2-3,观测:在k+1时刻,机器人通过运动模型控制运动到预设路径点处,利用自身携带传感器感知环境,获取数据。
步骤2-4,数据关联:完成观测之后,运用混合自适应的数据关联方法执行匹配搜索。
步骤2-5,状态更新:
其中,z(k+1)表示k+1时刻的实际测量值;表示k+1时刻的预测测量值;K(k+1)表示k+1时刻的卡尔曼增益;Jh(k+1)表示k+1时刻的雅可比矩阵。
在k+1时刻,直到所有关联成功的特征对都完成了对预测状态X(k+1)和P(k+1)的校正,这时,基于当前观测的一次EKF-SLAM“预测-校正”完成。
步骤2-6,地图更新,生成增量式地图。
本发明为一种特征点密集环境下基于点特征稀疏性控制的视觉同步定位与地图构建算法改进,该机制对地图库中的特征点同时在位置空间和特征空间进行分布密度限制,克服了因特征点快速上升而导致的庞大计算量问题,实现特征点的分布均匀性问题,提高了数据关联的准确性,本发明方法主要解决在满足定位精度要求的前提下缩短定位时间的问题。
尽管上面结合附图对本发明的优选实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,并不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可以做出很多形式,这些均属于本发明的保护范围之内。
Claims (3)
1.一种基于点特征稀疏策略的视觉同步定位与地图构建方法,其特征在于,包括以下步骤:
步骤1,采用传统的SIFT算法对声呐图像进行点特征提取,通过极线约束、视差约束、方向约束、尺度约束、唯一匹配约束进行SIFT特征点的匹配;
步骤2,对路标进行稀疏性约束,并根据EKF-SLAM算法进行定位与构图。
2.根据权利要求1所述的一种基于点特征稀疏策略的视觉同步定位与地图构建方法,其特征在于,步骤1具体包括以下步骤:
步骤1-1,尺度空间SIFT特征检测
首先,利用高斯核G(x,y,σ)建立高斯金字塔图像,图像的尺度空间L(x,y,σ)由一个变化尺度的高斯函数G(x,y,σ)与原图像I(x,y)卷积生成:
其中,(x,y)是空间坐标,代表图像的像素位置;表示尺度可变高斯函数;表示卷积;σ表示尺度空间因子;
然后,通过对两个相邻高斯尺度空间图像相减,得到一个DOG的响应的高斯差分图像D(x,y,σ),高斯差分图像函数D(x,y,σ)则表示为:
其中,k为正整数;
步骤2-2,SIFT特征点矢量生成
SIFT算法以检测到的特征点为中心取16*16的窗口,并将其等间距分成4*4个子区域;在每个子区域计算8个方向上的梯度方向直方图,绘制每个梯度方向的累加值;每个子区域的直方图将0°~360°划分为8个方向范围,每个范围为45度,生成4*4*8=128个数据,最终生成128维特征向量,再对128维特征向量进行归一化处理;
步骤2-3,SIFT特征点矢量距离
采用欧氏距离计算特征点矢量距离d(x,y):
其中,128为生成的128维特征向量;
步骤2-4,SIFT特征点匹配
引入多项匹配约束,以减少误匹配点数,其中,多项匹配约束包括:
极线约束:特征点在垂直方向上的坐标差值小于1个像素;
视差约束:特征点在水平方向上的坐标差值小于20个像素;
方向约束:特征点方向的差值小于20°;
尺度约束:左右特征点尺度差值小于1.5;
唯一匹配约束:如果一个特征点有多个特征点满足约束条件与其匹配,则认为该特征点失效;
基于上述约束条件进行图像特征匹配,提高了匹配精确度,减少误匹配特征点的个数。
3.根据权利要求1所述的一种基于点特征稀疏策略的视觉同步定位与地图构建方法,其特征在于,步骤2具体包括以下步骤:
步骤2-1,对路标进行稀疏性约束
EKF-SLAM算法将机器人的位姿与地图信息放在一个状态向量里同时进行更新,其状态向量为:
其中,Xr(k)=[xr,k,yr,k,θr,k]T,表示在全局坐标系下对机器人的位姿估计,Xl(k)=[x1,y1,....,xn,yn]T,为地图中路标的坐标信息;
对于地图库中任一路标设路标对应的两个空间邻域分别为A和B,其中,B以外的区域定义为C,对路标的位置空间和特征空间进行稀疏性限制:在路标的A区域内,不允许存在任何其他路标;在路标的B内A外的区域中,不允许存在与路标形状相同的路标;
遍历地图库中路标点,对于所有路标均符合***条件时,该点才允许被***,即对于任何新发现的路标满足式(5)(6)其中之一:
其中,为地图库的路标与新发现的之间的距离,为距离的阈值常量;
步骤2-2,机器人位置预测
根据第k步机器人位姿和控制输入来预测第k+1步的机器人状态和误差协方差矩阵P(k+1):
其中,时刻的状态估计;为k时刻的状态估计;u(k)为输入控制;为k+1时刻方差估计;F(k)为f对X(k)的偏导;Qk为协方差矩阵;
步骤2-3,观测:在k+1时刻,机器人通过运动模型控制运动到预设路径点处,利用自身携带传感器感知环境,获取数据;
步骤2-4,数据关联:完成观测之后,运用混合自适应的数据关联方法执行匹配搜索;
步骤2-5,状态更新:
其中,z(k+1)表示k+1时刻的实际测量值;表示k+1时刻的预测测量值;K(k+1)表示k+1时刻的卡尔曼增益;Jh(k+1)表示k+1时刻的雅可比矩阵;
在k+1时刻,直到所有关联成功的特征对都完成了对预测状态X(k+1)和P(k+1)的校正,这时,基于当前观测的一次EKF-SLAM“预测-校正”完成;
步骤2-6,地图更新,生成增量式地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811138347.7A CN109543694A (zh) | 2018-09-28 | 2018-09-28 | 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811138347.7A CN109543694A (zh) | 2018-09-28 | 2018-09-28 | 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109543694A true CN109543694A (zh) | 2019-03-29 |
Family
ID=65843645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811138347.7A Pending CN109543694A (zh) | 2018-09-28 | 2018-09-28 | 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543694A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175654A (zh) * | 2019-05-29 | 2019-08-27 | 广州小鹏汽车科技有限公司 | 一种轨迹路标的更新方法及*** |
CN112581610A (zh) * | 2020-10-16 | 2021-03-30 | 武汉理工大学 | 从多波束声呐数据中建立地图的鲁棒优化方法和*** |
CN112665584A (zh) * | 2020-12-30 | 2021-04-16 | 哈尔滨工程大学 | 一种基于多传感器融合的水下机器人定位与构图方法 |
CN113052940A (zh) * | 2021-03-14 | 2021-06-29 | 西北工业大学 | 一种基于声呐的时空关联地图实时构建方法 |
CN114228959A (zh) * | 2021-12-29 | 2022-03-25 | 中国科学院沈阳自动化研究所 | 一种基于声学路标与光学路标组合辅助导航的水下机器人极地冰下回收方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010013236A1 (en) * | 2008-07-29 | 2010-02-04 | Superfish Ltd | Increasing interest point coverage in an image |
KR20110116609A (ko) * | 2010-04-19 | 2011-10-26 | 인하대학교 산학협력단 | 그래픽 가속기 기반 고속 slam 시스템 및 방법 |
CN104574387A (zh) * | 2014-12-29 | 2015-04-29 | 张家港江苏科技大学产业技术研究院 | 水下视觉slam***中的图像处理方法 |
CN105469405A (zh) * | 2015-11-26 | 2016-04-06 | 清华大学 | 基于视觉测程的同时定位与地图构建方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN106910229A (zh) * | 2015-12-23 | 2017-06-30 | 韩华泰科株式会社 | 图像处理设备和方法 |
CN106931962A (zh) * | 2017-03-29 | 2017-07-07 | 武汉大学 | 一种基于gpu‑sift的实时双目视觉定位方法 |
CN107742276A (zh) * | 2017-03-27 | 2018-02-27 | 苏州星宇测绘科技有限公司 | 一种基于无人机遥感图像机载一体化快速处理***和方法 |
-
2018
- 2018-09-28 CN CN201811138347.7A patent/CN109543694A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010013236A1 (en) * | 2008-07-29 | 2010-02-04 | Superfish Ltd | Increasing interest point coverage in an image |
KR20110116609A (ko) * | 2010-04-19 | 2011-10-26 | 인하대학교 산학협력단 | 그래픽 가속기 기반 고속 slam 시스템 및 방법 |
CN104574387A (zh) * | 2014-12-29 | 2015-04-29 | 张家港江苏科技大学产业技术研究院 | 水下视觉slam***中的图像处理方法 |
CN105469405A (zh) * | 2015-11-26 | 2016-04-06 | 清华大学 | 基于视觉测程的同时定位与地图构建方法 |
CN106910229A (zh) * | 2015-12-23 | 2017-06-30 | 韩华泰科株式会社 | 图像处理设备和方法 |
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN107742276A (zh) * | 2017-03-27 | 2018-02-27 | 苏州星宇测绘科技有限公司 | 一种基于无人机遥感图像机载一体化快速处理***和方法 |
CN106931962A (zh) * | 2017-03-29 | 2017-07-07 | 武汉大学 | 一种基于gpu‑sift的实时双目视觉定位方法 |
Non-Patent Citations (1)
Title |
---|
郭文县等: "基于特征稀疏策略的室内机器人SLAM研究", 《计算机工程与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175654A (zh) * | 2019-05-29 | 2019-08-27 | 广州小鹏汽车科技有限公司 | 一种轨迹路标的更新方法及*** |
CN110175654B (zh) * | 2019-05-29 | 2021-06-01 | 广州小鹏自动驾驶科技有限公司 | 一种轨迹路标的更新方法及*** |
CN112581610A (zh) * | 2020-10-16 | 2021-03-30 | 武汉理工大学 | 从多波束声呐数据中建立地图的鲁棒优化方法和*** |
CN112581610B (zh) * | 2020-10-16 | 2023-06-13 | 武汉理工大学 | 从多波束声呐数据中建立地图的鲁棒优化方法和*** |
CN112665584A (zh) * | 2020-12-30 | 2021-04-16 | 哈尔滨工程大学 | 一种基于多传感器融合的水下机器人定位与构图方法 |
CN112665584B (zh) * | 2020-12-30 | 2022-07-15 | 哈尔滨工程大学 | 一种基于多传感器融合的水下机器人定位与构图方法 |
CN113052940A (zh) * | 2021-03-14 | 2021-06-29 | 西北工业大学 | 一种基于声呐的时空关联地图实时构建方法 |
CN113052940B (zh) * | 2021-03-14 | 2024-03-15 | 西北工业大学 | 一种基于声呐的时空关联地图实时构建方法 |
CN114228959A (zh) * | 2021-12-29 | 2022-03-25 | 中国科学院沈阳自动化研究所 | 一种基于声学路标与光学路标组合辅助导航的水下机器人极地冰下回收方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN109543694A (zh) | 一种基于点特征稀疏策略的视觉同步定位与地图构建方法 | |
US20220028163A1 (en) | Computer Vision Systems and Methods for Detecting and Modeling Features of Structures in Images | |
EP3309751B1 (en) | Image processing device, method, and program | |
JP4677046B2 (ja) | 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定 | |
CN107677274B (zh) | 基于双目视觉的无人机自主着陆导航信息实时解算方法 | |
CN106529538A (zh) | 一种飞行器的定位方法和装置 | |
CN104392228A (zh) | 基于条件随机场模型的无人机图像目标类检测方法 | |
WO2012084703A1 (en) | Detection and tracking of moving objects | |
CN108615246A (zh) | 提高视觉里程计***鲁棒性和降低算法计算消耗的方法 | |
Chen et al. | Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework | |
WO2021021862A1 (en) | Mapping and localization system for autonomous vehicles | |
CN109214254B (zh) | 一种确定机器人位移的方法及装置 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
Civera et al. | Dimensionless monocular SLAM | |
CN108573280A (zh) | 一种无人船自主通过桥梁的方法 | |
CN108369739A (zh) | 物体检测装置和物体检测方法 | |
CN114358133A (zh) | 一种基于语义辅助双目视觉slam检测回环帧的方法 | |
Kumar et al. | Template matching application in geo-referencing of remote sensing temporal image | |
CN116128919A (zh) | 基于极线约束的多时相图像异动目标检测方法及*** | |
CN115830116A (zh) | 一种鲁棒视觉里程计方法 | |
CN115170621A (zh) | 一种基于相关滤波框架的动态背景下目标跟踪方法及*** | |
JP2022080303A (ja) | オプティカルフローを用いたライダー位置推定 | |
Abratkiewicz et al. | The concept of applying a SIFT algorithm and orthophotomaps in SAR-based augmented integrity navigation systems | |
Liu et al. | An unsupervised automatic change detection approach based on visual attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190329 |