CN113776523B - 一种机器人低成本导航定位方法、***及应用 - Google Patents

一种机器人低成本导航定位方法、***及应用 Download PDF

Info

Publication number
CN113776523B
CN113776523B CN202110973006.7A CN202110973006A CN113776523B CN 113776523 B CN113776523 B CN 113776523B CN 202110973006 A CN202110973006 A CN 202110973006A CN 113776523 B CN113776523 B CN 113776523B
Authority
CN
China
Prior art keywords
robot
marker
markers
upper computer
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110973006.7A
Other languages
English (en)
Other versions
CN113776523A (zh
Inventor
罗友高
陈宏轩
孙涛
黄燕民
刘捷
唐国元
卫勇
赵帆
王晓曦
黄辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WUHAN SECOND SHIP DESIGN AND RESEARCH INSTITUTE
Huazhong University of Science and Technology
Original Assignee
WUHAN SECOND SHIP DESIGN AND RESEARCH INSTITUTE
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WUHAN SECOND SHIP DESIGN AND RESEARCH INSTITUTE, Huazhong University of Science and Technology filed Critical WUHAN SECOND SHIP DESIGN AND RESEARCH INSTITUTE
Priority to CN202110973006.7A priority Critical patent/CN113776523B/zh
Publication of CN113776523A publication Critical patent/CN113776523A/zh
Application granted granted Critical
Publication of CN113776523B publication Critical patent/CN113776523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明属于机器人导航相关技术领域,其公开了一种机器人低成本导航定位方法、***及应用,方法包括:在机器人的工作环境中设置多个标志物并对标志物进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,上位机根据图片上存储的编码信息提取标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;采用位置和姿态对惯性导航***的位置和姿态进行校正。本申请采用视觉算法精确计算机器人的位置和姿态,实现对惯性导航***的定期校正,避免了惯性导航***的误差累积和扩散。

Description

一种机器人低成本导航定位方法、***及应用
技术领域
本发明属于机器人导航相关技术领域,更具体地,涉及一种机器人低成本导航定位方法、***及应用。
背景技术
随着科学技术的发展,人类越来越重视海洋资源的开发,水产养殖是全球增长最快的食品行业之一,其产量超过全世界鱼类消费的50%,目前,水产养殖多采用深海网箱的形式,为了提高养殖效率,对网箱的定期清洗、检查工作必不可少,若长时间得不到清洗,深海网箱的网衣在海水中经长时间浸泡后,大量的藻类、贝类等容易附着在网衣上,导致网眼堵塞,不仅影响水体交换还会污染水体,不利于鱼类的生长。水下清洗机器人可以在设定深度下重复地进行清洗、检查工作,不仅有着极高的清洗效率,还不受环境的影响,因此,如何实现清洗机器人在养殖网箱内的定位与导航成为了关键问题。
目前水下机器人常用的定位方法有:惯性导航、GPS全球导航、声学导航等,惯性导航是一种自主式导航***,基本原理是利用角速度、加速度,通过积分运算得到载体的角度、位置,由于惯性器件存在误差会导致惯导***在更新计算的过程中误差随时间累积的问题。GPS导航***具有实时、准确的特点,但是信号无法在水下传播,不适用于进行深海作业。声波可以在水中长距离的传输,因此声学导航广泛应用于水下机器人的导航中。但是声学基阵的布置成本高昂,实际应用时维护较为困难。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种机器人低成本导航定位方法、***及应用,本申请采用视觉算法精确计算机器人的位置和姿态,实现对惯性导航***的定期校正,避免了惯性导航***的误差累积和扩散。且本方法成本低廉,适合在水下结构化环境中布置使用。
为实现上述目的,按照本发明的一个方面,提供了一种机器人低成本导航定位方法,所述机器人上设有惯性导航***以及摄像头,所述方法包括:S1:在机器人的工作环境中设置多个标志物并对其进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;S2:摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;S3:采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。
优选地,步骤S1中对标志物进行编码具体包括:记录标志物颜色的H、S、V分量范围以及标志物各个角点的绝对坐标值,并在标志物上设置编号。
优选地,步骤S2中所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态具体包括:S21:上位机根据图片上像素的H、S、V分量将标志物与背景进行分割,得到二值图;S22:采用图像算法获取标志物的外轮廓并采用多边形近似拟合算法获得标志物外轮廓各个角点的图像坐标pi;S23:将各个角点的图像坐标与通过编号获取的绝对坐标进行一一对应;S24:将所述图像坐标与绝对坐标采用正交迭代计算获得机器人当前的位置和姿态。
优选地,步骤S24具体为:获取最优平移矩阵Tbest,其计算公式如下:
其中,n为角点个数,I为单位矩阵,Vi为根据所述图像坐标计算得到的投影矩阵,其计算公式为pi为第i个角点的图像坐标,R为惯性导航***返回的起始旋转矩阵,PWi为角点的绝对坐标;
获取绝对坐标的投影矩阵Qi,Qi=Vi(RPWi+Tbest),并使用SVD分解法计算的左奇异矩阵U和右奇异矩阵V,获得迭代中的最优旋转矩阵Rbest
Rbest=VUT
其中,为各个角点图像坐标的平均值,/>为各个角点绝对坐标的平均值;
根据所述最优平移矩阵Tbest和最优旋转矩阵Rbest获得摄像头的位置和姿态,进而获得机器人的位置和姿态:
位置:
[x y z]T=-RbestTbest
其中,x,y,z为机器人的在xyz方向的位置坐标;
姿态:
θ=arcsin(-R(3,1))
其中,θ,ψ分别为机器人的横滚角,俯仰角和艏向角,R(*,&)矩阵R的第*行第&列。
优选地,正交迭代过程中还包括计算空间共线性误差E,若计算的误差与上次误差的差值小于预设值则停止迭代输出结果,其中,
优选地,所述上位机与所述机器人通过以太网电缆连接。
优选地,所述机器人上还设有探照灯,用于对工作环境进行照射。
优选地,所述编码为二维码。
按照本发明的另一个方面,提供了一种所述的机器人低成本导航定位方法的应用,所述方法应用于水下结构化环境中。
按照本发明的再一个方面,提供了一种机器人低成本导航定位***,所述***包括:标志物设置模块:用于在机器人的工作环境中设置多个标志物并对其进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;位姿获取模块:用于摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;位姿校正模块:用于采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,本发明提供的一种机器人低成本导航定位方法、***及应用具有如下有益效果:
1.采用视觉算法精确计算机器人的位置和姿态,实现对惯性导航***的定期校正,避免了惯性导航***的误差累积和扩散。
2.通过设置标志物并对其进行编码,进而后续可以通过图像准确获知标志物的位置,操作简单并且非常准确,易于实现。
3.通过一根电缆与上位机通讯,不存在信号孱弱,无法在水中传播等问题。
4.可以通过控制标志物的位置和数量实现对惯性导航***校正的周期,可控性好,自由度高。
5.实施本方法,总体成本低廉。其中,达到相同的导航精度,相较于采用高性能惯导几十万甚至上百万的成本来说,本申请设置的标志物成本低廉,容易制作和布置;而且可采用机器人本身的摄像***即可实现对标志物的视觉定位,不用额外设置摄像***。
附图说明
图1是本实施例的一种机器人低成本导航定位方法的步骤图;
图2是本实施例的一种标志物的示意图;
图3是本实施例机器人的工作环境示意图;
图4是本实施例的一种机器人低成本导航定位方法的流程原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
请参阅图1,本发明提供了一种机器人低成本导航定位方法,所述机器人上设有惯性导航***以及摄像机,所述方法包括以下步骤S1~S3。以下将以机器人在水下工作为例对该方法进行详细介绍。
S1:在机器人的工作环境中设置多个标志物并对其进行编码,将标志物的编码与位置信息进行绑定并存储于上位机。
当机器人在水下工作时为了提高工作环境的亮度,机器人上还可以设置探照灯。机器人上摄像机的数量可以为一个也可以为多个。并使用支持TCP/IP通讯的以太网电缆将机器人与上位机连接,使用电缆将摄像头的照片或视频以及惯导***的信息输出。
当机器人用于清洗水下网箱时,首先在网箱上设置与网箱环境有着明显差异的标志物,如设置标志物的颜色为绿色,并记录标志物颜色的H、S、V分量范围以及标志物各个角点的绝对坐标值,并在标志物上设置编号。编号的形式优选为二维码,编号的位置优选为标志物的几何中心。预先将这些标志物设置在机器人的工作环境中,测量标志物各个角点的绝对坐标值,将编号、坐标值对应保存在数据库中,用于后续图像定位导航计算。
S2:摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态。
工作过程中,摄像头不断对环境进行扫描,但捕捉到标志物时将标志物的图片或视频发送至上位机。
S21:上位机根据图片上像素的H、S、V分量将标志物与背景进行分割,得到二值图;
S22:采用图像算法获取标志物的外轮廓并采用多边形近似拟合算法获得标志物外轮廓各个角点的图像坐标;其中,图像算法可以为使用Opencv的FindContours算法。
S23:将各个角点的图像坐标与通过编号获取的绝对坐标进行一一对应。如图2所示,A1为二维码的定位点,计算标志物的六个角点与A1的距离,找出距离最短的点,该点即为P1的图像坐标,由于图像坐标以逆时针的顺序存储,便可以按照顺序分别获取P2~P6的图像坐标,将他们与实际坐标对应。
S24:将所述图像坐标与绝对坐标采用正交迭代计算获得机器人当前的位置和姿态,具体为:
获取最优平移矩阵Tbest,其计算公式如下:
其中,n为角点个数,I为单位矩阵,Vi为根据所述图像坐标计算得到的投影矩阵,其计算公式为pi为第i个角点的图像坐标,R为惯性导航***返回的起始旋转矩阵,PWi为角点的绝对坐标;
获取绝对坐标的投影矩阵Qi,Qi=Vi(RPWi+Tbest),并使用SVD分解法计算的左奇异矩阵U和右奇异矩阵V,获得迭代中的最优旋转矩阵Rbest
Rbest=VUT
其中,为各个角点图像坐标的平均值,/>为各个角点绝对坐标的平均值;
根据所述最优平移矩阵Tbest和最优旋转矩阵Rbest获得摄像头的位置和姿态,进而获得机器人的位置和姿态:
位置:
[x y z]T=-RbestTbest
其中,x,y,z为机器人的在xyz方向的位置坐标;
姿态:
θ=arcsin(-R(3,1))
其中,θ,ψ分别为机器人的横滚角,俯仰角和艏向角,R(*,&)矩阵R的第*行第&列。
正交迭代过程中还包括计算空间共线性误差E,若计算的误差与上次误差的差值小于预设值则停止迭代输出结果,其中,
S3:采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。在松散的组合定位模式下,直接使用所述位姿替代惯导***的位姿,而在紧密组合模式下,则可通过卡尔曼融合滤波算法对二者进行计算并替代惯导输出。
实施例
本申请的视觉算法基于颜色将标志物与背景分开,从而获得标志物的外轮廓,进而根据多边形拟合,对于图2则是进行六边形拟合,计算出各个角点图像坐标。此外,标志物中心的二维码存储编号,用以在数据表中查询各个角点的实际坐标值。
图3是本发明的结构化环境实例,该实例将结构化环境具体为一个六面体,以该六面体的底面清洗为例。从图3可以看出,在该六面体的侧面底部以及中间的圆柱上均设置了如图2所示的标志物,机器人在圆柱以及侧面底部间来回运动,使用视觉算法识别标志物以矫正惯导。
图4是本发明的总体框架。加速度计、角陀螺仪周期性地输出比力、角速度,经过补偿算法补偿有害加速度、有害角速度后,由惯性导航算法对机器人进行位姿解算,实时的输出位置、姿态。由于无法完全补偿,且数字积分存在一定的误差,惯导输出位姿的误差将会越来越大,从而导致发散,因此需要额外的算法对其进行矫正,本发明使用视觉算法解决这一问题。视觉算法通过识别如图2所示的标志物,获得其各个角点的实际坐标值,再根据图像处理获得角点的图像坐标值,进而根据正交迭代算法计算机器人的位姿。通过对视频流中的连续两帧进行解算,使用数字微分计算机器人的速度、角速度。进而使用视觉算法计算结果矫正惯性导航的输出,既保证了实时性,又保证了准确性。
本申请另一方面提供了一种机器人低成本导航定位***,所述***包括:
标志物设置模块:例如可以执行图1中的步骤S1,用于在机器人的工作环境中设置多个标志物并对标志物进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;
位姿获取模块:例如可以执行图1中的步骤S2,用于摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;
位姿校正模块:例如可以执行图1中的步骤S3,用于采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。
以上机器人导航定位方法和***尤其适用于水下结构化环境中。
使用视觉算法计算出的位姿准确,然而非常耗费时间,惯性导航***可以实时获取位姿,但误差累积严重,本申请采用视觉算法精确计算机器人的位置和姿态,实现对惯性导航***的定期校正,避免了惯性导航***的误差累积和扩散。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种机器人低成本导航定位方法,其特征在于,所述机器人上设有惯性导航***以及摄像头,所述方法包括:
S1:在机器人的工作环境中设置多个标志物并对其进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;其中,对标志物进行编码具体包括:记录标志物颜色的H、S、V分量范围以及标志物各个角点的绝对坐标值,并在标志物上设置编号;
S2:摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;
其中,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态具体包括:
S21:上位机根据图片上像素的H、S、V分量将标志物与背景进行分割,得到二值图;
S22:采用图像算法获取标志物的外轮廓并采用多边形近似拟合算法获得标志物外轮廓各个角点的图像坐标pi
S23:将各个角点的图像坐标与通过编号获取的绝对坐标进行一一对应;
S24:将所述图像坐标与绝对坐标采用正交迭代计算获得机器人当前的位置和姿态,具体为:获取最优平移矩阵Tbest,其计算公式如下:
其中,n为角点个数,I为单位矩阵,Vi为根据所述图像坐标计算得到的投影矩阵,其计算公式为pi为第i个角点的图像坐标,R为惯性导航***返回的起始旋转矩阵,PWi为角点的绝对坐标;
获取绝对坐标的投影矩阵Qi,Qi=Vi(RPWi+Tbest),并使用SVD分解法计算的左奇异矩阵U和右奇异矩阵V,获得迭代中的最优旋转矩阵Rbest
Rbest=VUT
其中,为各个角点图像坐标的平均值,/>为各个角点绝对坐标的平均值;
根据所述最优平移矩阵Tbest和最优旋转矩阵Rbest获得摄像头的位置和姿态,进而获得机器人的位置和姿态:
位置:
[x y z]T=-RbestTbest
其中,x,y,z为机器人的在xyz方向的位置坐标;
姿态:
θ=arcsin(-R(3,1))
其中,θ,ψ分别为机器人的横滚角,俯仰角和艏向角,R(*,&)矩阵R的第*行第&列;
S3:采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。
2.根据权利要求1所述的方法,其特征在于,正交迭代过程中还包括计算空间共线性误差E,若计算的误差与上次误差的差值小于预设值则停止迭代输出结果,其中,
3.根据权利要求1所述的方法,其特征在于,所述上位机与所述机器人通过以太网电缆连接。
4.根据权利要求1所述的方法,其特征在于,所述机器人上还设有探照灯,用于对工作环境进行照射。
5.根据权利要求1所述的方法,其特征在于,所述编码为二维码。
6.一种权利要求1~5任意一项所述的机器人低成本导航定位方法的应用,其特征在于,所述方法应用于水下结构化环境中。
7.一种用于实现上述权利要求1~5任意一项所述的机器人低成本导航定位方法的机器人低成本导航定位***,其特征在于,所述***包括:
标志物设置模块:用于在机器人的工作环境中设置多个标志物并对标志物进行编码,将标志物的编码与位置信息进行绑定并存储于上位机;
位姿获取模块:用于摄像头对环境中的标志物进行捕捉,将捕捉的标志物的图片发送至上位机,所述上位机根据图片上存储的编码信息提取所述标志物的位置信息,并使用视觉算法得到机器人当前的位置和姿态;
位姿校正模块:用于采用所述位置和姿态对所述惯性导航***的位置和姿态进行校正。
CN202110973006.7A 2021-08-24 2021-08-24 一种机器人低成本导航定位方法、***及应用 Active CN113776523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110973006.7A CN113776523B (zh) 2021-08-24 2021-08-24 一种机器人低成本导航定位方法、***及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110973006.7A CN113776523B (zh) 2021-08-24 2021-08-24 一种机器人低成本导航定位方法、***及应用

Publications (2)

Publication Number Publication Date
CN113776523A CN113776523A (zh) 2021-12-10
CN113776523B true CN113776523B (zh) 2024-03-19

Family

ID=78838710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110973006.7A Active CN113776523B (zh) 2021-08-24 2021-08-24 一种机器人低成本导航定位方法、***及应用

Country Status (1)

Country Link
CN (1) CN113776523B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893610B (zh) * 2024-03-14 2024-05-28 四川大学 基于变焦单目视觉的航空装配机器人姿态测量***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130143228A (ko) * 2012-06-21 2013-12-31 에스티엑스조선해양 주식회사 메모리 매핑을 이용한 선박 수중 청소 로봇 및 그 청소 방법
CN105700532A (zh) * 2016-04-19 2016-06-22 长沙理工大学 基于视觉的变电站巡检机器人导航定位控制方法
CN106647814A (zh) * 2016-12-01 2017-05-10 华中科技大学 一种基于二维码地标识别的无人机视觉辅助定位与飞控***及方法
CN109556616A (zh) * 2018-11-09 2019-04-02 同济大学 一种基于视觉标记的自动建图机器人建图修整方法
CN111091587A (zh) * 2019-11-25 2020-05-01 武汉大学 一种基于视觉标志物的低成本动作捕捉方法
CN112214028A (zh) * 2020-09-02 2021-01-12 上海电机学院 一种基于OpenMV的水下机器人位姿控制方法
CN112484722A (zh) * 2020-11-19 2021-03-12 易思维(杭州)科技有限公司 结合惯性导航***的视觉传感器全局定位方法
CN112652001A (zh) * 2020-11-13 2021-04-13 山东交通学院 基于扩展卡尔曼滤波的水下机器人多传感器融合定位***

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8301318B2 (en) * 2008-03-05 2012-10-30 Robotic Research Llc Robotic vehicle remote control system having a virtual operator environment
US10012504B2 (en) * 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130143228A (ko) * 2012-06-21 2013-12-31 에스티엑스조선해양 주식회사 메모리 매핑을 이용한 선박 수중 청소 로봇 및 그 청소 방법
CN105700532A (zh) * 2016-04-19 2016-06-22 长沙理工大学 基于视觉的变电站巡检机器人导航定位控制方法
CN106647814A (zh) * 2016-12-01 2017-05-10 华中科技大学 一种基于二维码地标识别的无人机视觉辅助定位与飞控***及方法
CN109556616A (zh) * 2018-11-09 2019-04-02 同济大学 一种基于视觉标记的自动建图机器人建图修整方法
CN111091587A (zh) * 2019-11-25 2020-05-01 武汉大学 一种基于视觉标志物的低成本动作捕捉方法
CN112214028A (zh) * 2020-09-02 2021-01-12 上海电机学院 一种基于OpenMV的水下机器人位姿控制方法
CN112652001A (zh) * 2020-11-13 2021-04-13 山东交通学院 基于扩展卡尔曼滤波的水下机器人多传感器融合定位***
CN112484722A (zh) * 2020-11-19 2021-03-12 易思维(杭州)科技有限公司 结合惯性导航***的视觉传感器全局定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
单目视觉人工路标辅助INS的组合导航定位方法;李传立;尚俊娜;李芳;;传感技术学报(第01期);33-35 *
水下清洗机器人总体方案及实现;邢瑶;谢颖;蒋绍博;;昆明冶金高等专科学校学报(第05期);43-50 *

Also Published As

Publication number Publication date
CN113776523A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
CN111721259B (zh) 基于双目视觉的水下机器人回收定位方法
CN110246177B (zh) 一种基于视觉的自动测波方法
CN110853037A (zh) 一种基于球面投影的轻量化彩色点云分割方法
CN110815213A (zh) 一种基于多维度特征融合的零件识别装配方法和装置
CN113379849B (zh) 基于深度相机的机器人自主识别智能抓取方法及***
Boochs et al. Increasing the accuracy of untaught robot positions by means of a multi-camera system
CN111801198A (zh) 一种手眼标定方法、***及计算机存储介质
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN109118577B (zh) 基于载人潜水器的水下激光扫描重构***及其方法
US20200082616A1 (en) System and method for processing captured images
CN107358632B (zh) 应用于水下双目立体视觉的水下摄像机标定方法
CN113776523B (zh) 一种机器人低成本导航定位方法、***及应用
CN114519738A (zh) 一种基于icp算法的手眼标定误差修正方法
Schneider et al. Incremental real-time bundle adjustment for multi-camera systems with points at infinity
CN110695982A (zh) 一种基于三维视觉的机械臂手眼标定方法和装置
WO2021065265A1 (ja) 大きさ推定装置、大きさ推定方法および記憶媒体
CN111768449A (zh) 一种双目视觉结合深度学习的物体抓取方法
CN112507755B (zh) 最小化二维码角点重投影误差的目标物体六自由度定位方法及***
CN107123135B (zh) 一种无序三维点云的无畸变成像方法
CN111145267B (zh) 基于imu辅助的360度全景视图多相机标定方法
CN112556681B (zh) 一种基于视觉的果园机械导航定位方法
Horgan et al. Computer vision applications in the navigation of unmanned underwater vehicles
CN111699445B (zh) 机器人运动学模型优化方法、***和存储装置
He et al. A low cost visual positioning system for small scale tracking experiments on underwater vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant