CN106931962A - 一种基于gpu‑sift的实时双目视觉定位方法 - Google Patents

一种基于gpu‑sift的实时双目视觉定位方法 Download PDF

Info

Publication number
CN106931962A
CN106931962A CN201710197839.2A CN201710197839A CN106931962A CN 106931962 A CN106931962 A CN 106931962A CN 201710197839 A CN201710197839 A CN 201710197839A CN 106931962 A CN106931962 A CN 106931962A
Authority
CN
China
Prior art keywords
sub
point
sift
frame
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710197839.2A
Other languages
English (en)
Inventor
罗斌
张云
林国华
刘军
赵青
王伟
陈警
张良培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Chang'e Medical Anti - Aging Robot Ltd By Share Ltd
Wuhan University WHU
Original Assignee
Wuhan Chang'e Medical Anti - Aging Robot Ltd By Share Ltd
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Chang'e Medical Anti - Aging Robot Ltd By Share Ltd, Wuhan University WHU filed Critical Wuhan Chang'e Medical Anti - Aging Robot Ltd By Share Ltd
Priority to CN201710197839.2A priority Critical patent/CN106931962A/zh
Publication of CN106931962A publication Critical patent/CN106931962A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于GPU‑SIFT的实时双目视觉定位方法,包括以下步骤:步骤一、采用平行双目相机获取机器人或者移动平台移动过程中的左右眼图像的立体图像视频;步骤二、采用特征点匹配获得运动过程中拍摄视频的前后两帧中对应的匹配点;步骤三、通过匹配点在成像空间坐标变化或者建立三维坐标来求解运动方程从而估计出相机的位移;步骤四、获得相机行进的各个时刻的位置、旋转角后,结合kalman滤波即可获得整个过程中相机的行进路线,即可实现对机器人或者移动平台的实时双目视觉定位。本发明采用GPU‑SIFT对SIFT特征匹配过程进行加速,配合双目视觉定位,能够实现机器人或者移动平台实时视觉定位,获得较高的定位精度,可扩展性、实用性强和环境适用性强。

Description

一种基于GPU-SIFT的实时双目视觉定位方法
技术领域:
本发明涉及机器人视觉定位与导航技术领域,具体是一种基于GPU-SIFT实时双目视觉里程计***。
背景技术:
随着机器人和计算机视觉的不断发展,相机被越来越多的用于机器人的视觉定位与导航之中。机器人定位主要是码盘、声呐、IMU、GPS、北斗、激光扫描仪、RGBD相机以及双目相机进行视觉定位等方法,其中码盘根据电机转动的圈数换算成轮子转动的圈数进而对机器人的行程进行推导实现定位,但是这种定位方式在沙地、草地或者轮子打滑等情况下误差较大,定位不准。声呐定位主要靠超声传感器发射与返回信号分析判断障碍物进行定位与导航,但是声呐的分辨率较低,信号中存在较多的噪声,容易对定位造成干扰。机器人采用IMU进行定位往往会存在累积误差,机器人进行长时间长距离的定位与导航过程中往往需要矫正才能实现准确定位。采用GPS或者北斗等卫星进行定位方式,精度往往很差,要获得高精度定位往往成本较高难以实现,并且GPS或者北斗定位往往仅适用于室外卫星信号较好的环境之中,对于室内定位或者卫星信号较差的环境往往无能为力。激光扫描仪虽然具备高精度的在任何环境下的定位能力,但是其成本高昂,数据量大,处理复杂,并且功耗较大。目前较为常用的是采用单线的激光进行定位,但是应用环境比较受限,仅适用于平面环境,对于起伏地形环境无法使用。采用RGBD相机进行定位虽然能获得障碍物与图像信息,但是由于红外激光发射强度受环境限制,基本只适用于室内环境,并且有效距离有限。采用普通单相机进行定位只能实现相对定位,并且定位精度受到极大限制,然而采用平行双目相机可进行绝对定位,并且定位精度在一定的情况下可达到激光定位的精度,并且在光照允许的情况下在通常环境中均可使用,但是基于双目相机的视觉定位数据计算复杂度高,计算量大,往往难以达到实时的定位要求。而为了达到实时的视觉定位效果,往往采用较为简单的图像处理算法,尤其是在视觉里程计中。
视觉里程计是仅采用移动车辆或者机器人上的相机所获得的视觉信息来实现车辆或者机器人移动的定位,即通过移动车体或者机器人车载相机拍摄运行过程中的周围场景的图像或者视频中提取出车体或者机器人运行的情况和运行环境信息对移动车体或者机器人进行实时定位。为了实现实时的视觉里程计,基本上时间消耗都出现在图像匹配部分,而而图像匹配之中80%的时间消耗出现在特征提取及特征描述上,所以为了减少视觉里程计的时间消耗,基本上都是采用简单的局部特征和特征描述方法,来实现实时的视觉里程计定位功能。较为常用的有Harri s、Fast、CenSurE以及简单的边缘特征点,但是这些简单的特征描述是难以实现尺度和旋转不变性的,而这些情况往往在相机运行过程中普遍存在的,所以这些简单的特征难以实现准确的图像匹配,继而达到较高精度的视觉定位效果。而SIFT特征专为解决尺度和旋转的不变性而设计,能够很好的克服图像的尺度和旋转变化,实现准确的图像匹配,获得较高精度的视觉定位效果。但是SIFT特征提取和描述时间消耗较大难以实现实时的图像匹配,采用GPU对SIFT特征提取、描述和匹配过程进行加速处理的GPU-SIFT能极大地加速SIFT特征匹配过程,实现实时的SIFT特征匹配。本发明采用GPU-SIFT配合双目视觉定位,实现实时的视觉里程计***,用于机器人的实时定位与导航。
发明内容:
本发明为了克服现有技术中存在的上述缺陷,提供了一种基于GPU-SIFT的实时双目视觉定位方法,对SIFT特征匹配过程进行加速,使之达到实时的匹配速度,配合双目视觉定位,实现实时的视觉里程计***,用于机器人或者移动平台的实时视觉定位与导航。
为解决上述问题,本发明提出的基于GPU-SIFT的实时双目视觉定位方法,包括以下步骤:
步骤一、采用平行双目相机获取机器人或者移动平台移动过程中的左右眼图像的立体图像视频;
步骤二、采用特征点匹配的方法获得运动过程中拍摄视频的前后两帧中对应的匹配点;
步骤三、通过匹配点在成像空间坐标变化或者建立三维坐标来求解运动方程从而估计出相机的位移;
步骤四、获得相机行进的各个时刻的位置、旋转角后,结合kalman滤波即可获得整个过程中相机的行进路线,即可实现对机器人或者移动平台的实时双目视觉定位。
上述技术方案中,所述步骤二中特征点匹配采用GPU-SIFT特征匹配算法,GPU-SIFT是指采用图像处理器进行加速的尺度不变特征转换。
上述技术方案中,所述步骤二中特征点匹配具体包括以下子步骤:
子步骤S21、提取两帧双目图像左右四幅图像的SIFT特征点,并对SIFT特征点生成SIFT特征描述;
子步骤S22、匹配第一帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL1,PR1);
子步骤S23、匹配第二帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL2,PR2);
子步骤S24、匹配第一帧左相机图像和第二帧左相机图像的SIFT特征点(LL1,LL2);
子步骤S25、找出步骤S24中得到的第一帧左相机图像匹配点LL1与子步骤S22中得到的第一帧左相机图像匹配点PL1相同的特征点作为第一帧左相机图像最终的匹配点;同理得到第二帧左相机图像的匹配点;
子步骤S26、根据子步骤S25中得到的左相机图像匹配点,由子步骤S22中的匹配点对找到对应的右相机图像匹配点;同理找到第二帧右相机图像匹配点,即完成两帧四幅图像的匹配过程。
上述技术方案中,所述步骤三具体包括以下子步骤:
子步骤S31、建立一像空间辅助坐标系,由得到的前后两帧四幅图像中的对应匹配点,根据三角测量的方法通过公式计算同一时刻对应匹配点在像空间辅助坐标系下的三维坐标点Pi
子步骤S32、将得到三维坐标Pi代入到运动方程Pi=RPi'+T中求解,得出左相机和右相机的自由度参数分别为T(Tx,Ty,Tz)和R(Rx,Ry,Rz);
子步骤S33、采用RANSAC方法每次随机选择三个坐标点Pi,将所有点代入误差公式中计算;
子步骤S34、统计E(R,T)值小于某一阈值的点的个数,经过若干次选择后取内点数最多的那一组结果为最终的计算结果;
子步骤S35、将最终的计算结果代入到运动方程Pi=RPi'+T即得到相机的运动方程从而估计出相机的位移。
上述技术方案中,所述步骤四具体包括:将绘制点作为矢量点,矢量方向为前一帧的旋转角的累加和,得出下一点时在当前点方向上平移T,确定其坐标,旋转角是前一帧的方向乘以旋转矩阵R,根据公式确定具体的路径反演中点,其中Po为初始时刻相机在XOZ平面的位置坐标,设为(0,0);Pi为第i时刻相机在XOZ平面的位置坐标,Ti是第i时刻在当前点方向上的平移距离。
本发明与现有技术方案相比具有以下有益效果和优点:
本发明提出的基于GPU-SIFT的实时双目视觉定位方法采用GPU-SIFT对SIFT特征匹配过程进行加速,使之达到实时的匹配速度,配合双目视觉定位,能够实现机器人或者移动平台实时视觉定位,获得较高的定位精度,可扩展性和实用性强,环境适用性强。
附图说明
图1是本发明中像空间辅助坐标系的示意图。
图2是本发明中三角测量原理图。
图中编号说明:1、左相机;2、右相机。
具体实施方式
以下结合附图和具体实施例对本发明作进一步的详细描述:
本实施例中,本发明提出的基于GPU-SIFT的实时双目视觉定位方法,包括以下步骤:
步骤一、采用平行双目相机获取机器人或者移动平台移动过程中的左右眼图像的立体图像视频;
步骤二、采用GPU-SIFT特征匹配算法获得运动过程中拍摄视频的前后两帧中对应的匹配点;
步骤三、通过匹配点在成像空间坐标变化或者建立三维坐标来求解运动方程从而估计出相机的位移;
步骤四、获得相机行进的各个时刻的位置、旋转角后,结合kalman滤波即可获得整个过程中相机的行进路线,即可实现对机器人或者移动平台的实时双目视觉定位。
步骤二中特征点匹配具体包括以下子步骤:
子步骤S21、提取两帧双目图像左右四幅图像的SIFT特征点,并对SIFT特征点生成SIFT特征描述;
子步骤S22、匹配第一帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL1,PR1);
子步骤S23、匹配第二帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL2,PR2);
子步骤S24、匹配第一帧左相机图像和第二帧左相机图像的SIFT特征点(LL1,LL2);
子步骤S25、找出步骤S24中得到的第一帧左相机图像匹配点LL1与子步骤S22中得到的第一帧左相机图像匹配点PL1相同的特征点作为第一帧左相机图像最终的匹配点;同理得到第二帧左相机图像的匹配点;
子步骤S26、根据子步骤S25中得到的左相机图像匹配点,由子步骤S22中的匹配点对找到对应的右相机图像匹配点;同理找到第二帧右相机图像匹配点,即完成两帧四幅图像的匹配过程。
步骤三具体包括以下子步骤:
子步骤S31、采用一像空间辅助坐标系,由得到的前后两帧四幅图像中的对应匹配点,根据三角测量的方法计算同一时刻对应匹配点在像空间辅助坐标系下的三维坐标点Pi,其中采用的像空间辅助坐标系S-XYZ如图1所示,以左相机的后侧端面中心点为坐标原点,X轴位于左相机和右相机的后侧端面的两个中心点连线上,Z轴位于左相机的中心轴线上,三角测量的原理如图2所示,由图2中的三角形S1与S2的相似以及S1’与S2’的相似得出以下计算公式:
其中,(xl,yl)、(xr,yr)为同一帧左右图像匹配点相对于图像中心的坐标,d为双目相机的基线,f为相机焦距;
子步骤S32、将得到三维坐标Pi代入到运动方程Pi=RPi'+T中求解,得出左相机和右相机的自由度参数分别为T(Tx,Ty,Tz)和R(Rx,Ry,Rz);
子步骤S33、采用RANSAC方法每次随机选择三个坐标点Pi,将所有点代入误差公式中计算误差值E(R,T);
子步骤S34、统计E(R,T)值小于某一阈值的点的个数,经过若干次选择后取小于某一阈值的点的个数最多的那一组结果为最终的计算结果,这样就在很大程度上避免了匹配误差较大的点的干扰,提高了计算结果精度;
子步骤S35、将最终的计算结果代入到运动方程Pi=RPi'+T即得到相机的运动方程从而估计出相机的位移。
步骤四具体包括:将绘制点作为矢量点,矢量方向为前一帧的旋转角的累加和,得出下一点时在当前点方向上平移T,确定其坐标,旋转角是前一帧的方向乘以旋转矩阵R,根据公式确定具体的路径反演中点,其中Po为初始时刻相机在XOZ平面的位置坐标,设为(0,0);Pi为第i时刻相机在XOZ平面的位置坐标,Ti是第i时刻在当前点方向上的平移距离。
由于提取特征点精度的限制、车体行进过程中的抖动、场景光线的变化等因素造成运动估计结果存在误差,或者计算得出的R、T存在偶然性的跳变误差,造成最终绘制路径的误差较大、路径不连续,所以一般运动估计得到每相邻两帧之间的运动估计后一般需要对运动估计结果进行平滑处理,通常使用到的限制条件是车体运动过程中旋转和平移速度或者加速度的连续性、限制性,将误差较大的估计结果使用邻域均值或者中值代替,较为复杂的可以使用卡尔曼滤波或者扩展卡尔曼滤波进行平滑,使得到的路径连续平滑。本文中为了尽量减少整个过程的时间消耗,使用的是前者较为简单的滤波处理,即剔除误差较大的R、T并用邻域中值代替,平滑效果较为理想。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围中。

Claims (5)

1.一种基于GPU-SIFT的实时双目视觉定位方法,其特征在于,包括以下步骤:
步骤一、采用平行双目相机获取机器人或者移动平台移动过程中的左右眼图像的立体图像视频;
步骤二、采用特征点匹配的方法获得运动过程中拍摄视频的前后两帧中对应的匹配点;
步骤三、通过匹配点在成像空间坐标变化或者建立三维坐标来求解运动方程从而估计出相机的位移;
步骤四、获得相机行进的各个时刻的位置、旋转角后,结合kalman滤波即可获得整个过程中相机的行进路线,即可实现对机器人或者移动平台的实时双目视觉定位。
2.根据权利要求1所述的基于GPU-SIFT的实时双目视觉定位方法,其特征在于,所述步骤二中特征点匹配采用GPU-SIFT特征匹配算法。
3.根据权利要求2所述的基于GPU-SIFT的实时双目视觉定位方法,其特征在于,所述步骤二中特征点匹配具体包括以下子步骤:
子步骤S21、提取两帧双目图像左右四幅图像的SIFT特征点,并对SIFT特征点生成SIFT特征描述;
子步骤S22、匹配第一帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL1,PR1);
子步骤S23、匹配第二帧左相机图像和右相机图像的SIFT特征点,得到立体匹配点(PL2,PR2);
子步骤S24、匹配第一帧左相机图像和第二帧左相机图像的SIFT特征点(LL1,LL2);
子步骤S25、找出步骤S24中得到的第一帧左相机图像匹配点LL1与子步骤S22中得到的第一帧左相机图像匹配点PL1相同的特征点作为第一帧左相机图像最终的匹配点;同理得到第二帧左相机图像的匹配点;
子步骤S26、根据子步骤S25中得到的左相机图像匹配点,由子步骤S22中的匹配点对找到对应的右相机图像匹配点;同理找到第二帧右相机图像匹配点,即完成两帧四幅图像的匹配过程。
4.根据权利要求3所述的基于GPU-SIFT的实时双目视觉定位方法,其特征在于,所述步骤三具体包括以下子步骤:
子步骤S31、建立一像空间辅助坐标系,由得到的前后两帧四幅图像中的对应匹配点,根据三角测量的方法通过公式计算同一时刻对应匹配点在像空间辅助坐标系下的三维坐标点Pi
子步骤S32、将得到三维坐标Pi代入到运动方程Pi=RPi'+T中求解,得出左相机和右相机的自由度参数分别为T(Tx,Ty,Tz)和R(Rx,Ry,Rz);
子步骤S33、采用RANSAC方法每次随机选择三个坐标点Pi,将所有点代入误差公式中计算;
子步骤S34、统计E(R,T)值小于某一阈值的点的个数,经过若干次选择后取小于某一阈值的点的个数最多的那一组结果为最终的计算结果;
子步骤S35、将最终的计算结果代入到运动方程Pi=RPi'+T即得到相机的运动方程从而估计出相机的位移。
5.根据权利要求4所述的基于GPU-SIFT的实时双目视觉定位方法,其特征在于,所述步骤四具体包括:将绘制点作为矢量点,矢量方向为前一帧的旋转角的累加和,得出下一点时在当前点方向上平移T,确定其坐标,旋转角是前一帧的方向乘以旋转矩阵R,
根据公式确定具体的路径反演中点,其中Po为初始时刻相机在XOZ平面的位置坐标,设为(0,0);Pi为第i时刻相机在XOZ平面的位置坐标,Ti是第i时刻在当前点方向上的平移距离。
CN201710197839.2A 2017-03-29 2017-03-29 一种基于gpu‑sift的实时双目视觉定位方法 Pending CN106931962A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710197839.2A CN106931962A (zh) 2017-03-29 2017-03-29 一种基于gpu‑sift的实时双目视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710197839.2A CN106931962A (zh) 2017-03-29 2017-03-29 一种基于gpu‑sift的实时双目视觉定位方法

Publications (1)

Publication Number Publication Date
CN106931962A true CN106931962A (zh) 2017-07-07

Family

ID=59425636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710197839.2A Pending CN106931962A (zh) 2017-03-29 2017-03-29 一种基于gpu‑sift的实时双目视觉定位方法

Country Status (1)

Country Link
CN (1) CN106931962A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN108734175A (zh) * 2018-04-28 2018-11-02 北京猎户星空科技有限公司 一种图像特征的提取方法、装置及电子设备
CN109084778A (zh) * 2018-09-19 2018-12-25 大连维德智能视觉技术创新中心有限公司 一种基于双目视觉和寻路缘技术的导航***及导航方法
CN109459023A (zh) * 2018-09-18 2019-03-12 武汉三体机器人有限公司 一种基于无人机视觉slam的辅助地面机器人导航方法及装置
CN109470216A (zh) * 2018-11-19 2019-03-15 国网四川省电力公司电力科学研究院 机械人双目视觉特征点定位方法
CN109543694A (zh) * 2018-09-28 2019-03-29 天津大学 一种基于点特征稀疏策略的视觉同步定位与地图构建方法
CN109741372A (zh) * 2019-01-10 2019-05-10 哈尔滨工业大学 一种基于双目视觉的里程计运动估计方法
CN111768437A (zh) * 2020-06-30 2020-10-13 中国矿业大学 一种用于矿井巡检机器人的图像立体匹配方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102221884A (zh) * 2011-06-15 2011-10-19 山东大学 一种基于摄像机实时定标的可视遥在装置及其工作方法
CN104915965A (zh) * 2014-03-14 2015-09-16 华为技术有限公司 一种摄像机跟踪方法及装置
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN106408531A (zh) * 2016-09-09 2017-02-15 四川大学 基于gpu加速的层次化自适应三维重建方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102221884A (zh) * 2011-06-15 2011-10-19 山东大学 一种基于摄像机实时定标的可视遥在装置及其工作方法
CN104915965A (zh) * 2014-03-14 2015-09-16 华为技术有限公司 一种摄像机跟踪方法及装置
US20160379375A1 (en) * 2014-03-14 2016-12-29 Huawei Technologies Co., Ltd. Camera Tracking Method and Apparatus
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN106408531A (zh) * 2016-09-09 2017-02-15 四川大学 基于gpu加速的层次化自适应三维重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
吴功伟 等: "基于视差空间的双目视觉里程计", 传感技术学报, vol. 20, no. 6, pages 1432 - 1436 *
申镇: "基于双目视觉的车辆运动估计技术研究", 万方学术论文, pages 1 - 71 *
邢龙龙: "基于SURF特征点的立体视觉里程计研究", 2013年北京汽车工程学会学术年会论文集, pages 269 - 277 *
马玉娇 等: "基于最小平方中值定理的立体视觉里程计", 计算机工程与应用, vol. 46, no. 11, pages 60 - 62 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN108734175A (zh) * 2018-04-28 2018-11-02 北京猎户星空科技有限公司 一种图像特征的提取方法、装置及电子设备
CN109459023A (zh) * 2018-09-18 2019-03-12 武汉三体机器人有限公司 一种基于无人机视觉slam的辅助地面机器人导航方法及装置
CN109459023B (zh) * 2018-09-18 2021-07-16 武汉三体机器人有限公司 一种基于无人机视觉slam的辅助地面机器人导航方法及装置
CN109084778A (zh) * 2018-09-19 2018-12-25 大连维德智能视觉技术创新中心有限公司 一种基于双目视觉和寻路缘技术的导航***及导航方法
CN109084778B (zh) * 2018-09-19 2022-11-25 大连维德智能视觉技术创新中心有限公司 一种基于双目视觉和寻路缘技术的导航***及导航方法
CN109543694A (zh) * 2018-09-28 2019-03-29 天津大学 一种基于点特征稀疏策略的视觉同步定位与地图构建方法
CN109470216A (zh) * 2018-11-19 2019-03-15 国网四川省电力公司电力科学研究院 机械人双目视觉特征点定位方法
CN109741372A (zh) * 2019-01-10 2019-05-10 哈尔滨工业大学 一种基于双目视觉的里程计运动估计方法
CN111768437A (zh) * 2020-06-30 2020-10-13 中国矿业大学 一种用于矿井巡检机器人的图像立体匹配方法及装置
CN111768437B (zh) * 2020-06-30 2023-09-05 中国矿业大学 一种用于矿井巡检机器人的图像立体匹配方法及装置

Similar Documents

Publication Publication Date Title
CN106931962A (zh) 一种基于gpu‑sift的实时双目视觉定位方法
CN107945220B (zh) 一种基于双目视觉的重建方法
CN110582798B (zh) 用于虚拟增强视觉同时定位和地图构建的***和方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN107590827A (zh) 一种基于Kinect的室内移动机器人视觉SLAM方法
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及***
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位***及方法
CN108398139B (zh) 一种融合鱼眼图像与深度图像的动态环境视觉里程计方法
CN105300403B (zh) 一种基于双目视觉的车辆里程计算法
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
WO2021196941A1 (zh) 三维目标检测方法及装置
WO2021138989A1 (zh) 多波段立体相机的深度估计加速方法
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
CN104318561A (zh) 基于双目立体视觉与光流融合的车辆运动信息检测方法
CN113781562B (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN102607535B (zh) 一种利用视差空间集束调整的高精度实时立体视觉定位方法
CN113223045B (zh) 基于动态物体语义分割的视觉与imu传感器融合定位***
CN114001733B (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN110349249B (zh) 基于rgb-d数据的实时稠密重建方法及***
CN105844692A (zh) 基于双目立体视觉的三维重建装置、方法、***及无人机
CN114693754A (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与***
CN115406447A (zh) 拒止环境下基于视觉惯性的四旋翼无人机自主定位方法
CN114638897B (zh) 基于无重叠视域的多相机***的初始化方法、***及装置
CN115015956A (zh) 一种室内无人车的激光与视觉slam***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170707