CN109540140A - 一种融合ssd目标识别和里程计信息的移动机器人定位方法 - Google Patents

一种融合ssd目标识别和里程计信息的移动机器人定位方法 Download PDF

Info

Publication number
CN109540140A
CN109540140A CN201811408501.8A CN201811408501A CN109540140A CN 109540140 A CN109540140 A CN 109540140A CN 201811408501 A CN201811408501 A CN 201811408501A CN 109540140 A CN109540140 A CN 109540140A
Authority
CN
China
Prior art keywords
mobile robot
undetermined
variable
ssd
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811408501.8A
Other languages
English (en)
Other versions
CN109540140B (zh
Inventor
于兴虎
何宇喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Intelligent Equipment Research Institute Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201811408501.8A priority Critical patent/CN109540140B/zh
Publication of CN109540140A publication Critical patent/CN109540140A/zh
Application granted granted Critical
Publication of CN109540140B publication Critical patent/CN109540140B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种融合SSD目标识别和里程计信息的移动机器人定位方法,它属于移动机器人视觉定位领域。本发明解决了SSD识别标志物位置存在噪声、以及移动机器人运动打滑影响移动机器人定位结果的鲁棒性和精确度的问题。本发明构建的在H‑infinite滤波框架下融合SSD的定位信息和里程计的运动信息的方法,利用需要的标志物对SSD网络进行训练,进而通过USB相机获得标志物的位置,在滤波框架下融合里程计信息后输出的移动机器人位姿更加具有鲁棒性,在USB相机未识别出来目标的情况下,可以通过里程计信息估计出位姿状态,滤波算法滤除了USB相机的噪声,使定位误差在1.5cm以内,角度误差在4度以内。本发明可以应用于移动机器人视觉定位领域用。

Description

一种融合SSD目标识别和里程计信息的移动机器人定位方法
技术领域
本发明属于移动机器人视觉定位领域,具体涉及一种移动机器人定位方法。
背景技术
随着机器人领域的研究与发展,室内移动机器人视觉定位在工业,服务业应用越来越广泛,移动机器人的鲁棒,快速,高精度定位是移动机器人控制,避障,任务规划的基础,同时视觉定位具有信息量大,成本低的特点而被广泛应用在服务机器人,仓储机器人,工业移动机器人。将相机安装在室内的棚顶处可以对室内环境进行观测,将标志物固定到移动机器人上,移动机器人在运动过程中标志物与环境融为一体,需要通过SSD对图像中机器人上的标志物进行快速识别进而获得机器人的位姿,但是由于SSD识别标志物位置存在噪声,单纯的运用视觉定位的结果不具有鲁棒性,而且移动机器人携带的里程计由于机器人运动打滑等因素会存在积累误差,因此,这些因素将会影响移动机器人定位结果的鲁棒性和精确度。
发明内容
本发明的目的是为解决SSD识别标志物位置存在噪声、以及移动机器人运动打滑影响移动机器人定位结果的鲁棒性和精确度的问题。
本发明为解决上述技术问题采取的技术方案是:
一种融合SSD目标识别和里程计信息的移动机器人定位方法,该方法包括以下步骤:
步骤一、将用于定位的ArUco标志物固定在移动机器人上,控制移动机器人在室内地面行走,并在室内棚顶安装USB相机用来采集移动机器人的运动图像;
步骤二、利用开源视觉库opencv识别采集的图像上的ArUco标志,得到ArUco标志的矩形包络框,根据矩形包络框位置做出采集图像的标签,对打标签后的图像进行增广,并将增广结果分为训练集和测试集两部分;
步骤三、将训练集输入到SSD网络进行训练,测试集用于验证训练的SSD网络,直至测试集上的定位准确率不低于Q时,得到训练好的SSD网络;
步骤四、采集待定位移动机器人的运动图像,求出用于修正图像透视畸变的修正矩阵N,并利用修正矩阵N来修正图像透视畸变;
步骤五、将修正透视畸变后的运动图像输入训练好的SSD网络进行处理,得到USB相机测量出的标志物位姿,再根据标志物和待定位移动机器人的几何关系求出USB相机测量出的待定位移动机器人位姿;
步骤六、对齐USB相机采集的待定位移动机器人的运动图像信息和PC端读取的里程计信息;
步骤七、在H-infinity滤波框架下融合USB相机测量出的待定位移动机器人位姿和PC端读取的里程计信息,得到待定位移动机器人位姿的估计值。
本发明的有益效果是:本发明提供了一种融合SSD目标识别和里程计信息的移动机器人定位方法,本发明构建的在H-infinite滤波框架下融合SSD的定位信息和里程计的运动信息的方法,利用需要的标志物对SSD网络进行训练,进而通过USB相机获得标志物的位置,在滤波框架下融合里程计信息后输出的移动机器人位姿更加具有鲁棒性,在USB相机未识别出来目标的情况下,可以通过里程计信息估计出位姿状态,滤波算法滤除了USB相机的噪声,使定位误差在1.5cm以内,角度误差在4度以内。
附图说明
图1为本发明的视觉定位执行框图;
图2为本发明对齐移动机器人的运动图像信息和里程计信息的示意图;
图3为本发明的标志物和移动机器人的几何关系示意图;
其中:Marker H代表标志物H,Marker S代表标志物S;O代表坐标原点,X和Y分别代表X轴和Y轴;
具体实施方式
具体实施方式一:本实施方式所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,该方法具体包括以下步骤:
步骤一、将用于定位的ArUco标志物固定在移动机器人上,控制移动机器人在室内地面行走,并在室内棚顶安装USB相机用来采集移动机器人的运动图像;
步骤二、利用开源视觉库opencv识别采集的图像上的ArUco标志物,得到ArUco标志物的矩形包络框,根据矩形包络框位置做出采集图像的标签,对打标签后的图像进行增广,并将增广结果分为训练集和测试集两部分;
步骤三、将训练集输入到SSD网络进行训练,测试集用于验证训练的SSD网络,直至测试集上的定位准确率不低于Q时,得到训练好的SSD网络;
步骤四、求出用于修正图像透视畸变的修正矩阵N,并利用USB相机采集待定位移动机器人的运动图像;
步骤五、将采集的待定位移动机器人的运动图像输入训练好的SSD网络进行处理,得到ArUco标志物在运动图像中的位置,利用修正矩阵N求出ArUco标志物在地面坐标系中的坐标;
再根据ArUco标志物和待定位移动机器人的几何关系求出USB相机测量出的待定位移动机器人位姿;
步骤六、对齐USB相机采集的待定位移动机器人的运动图像和PC端读取的里程计信息;
步骤七、在H-infinity滤波框架下融合USB相机测量出的待定位移动机器人位姿和PC端读取的里程计信息,得到待定位移动机器人位姿的估计值。
具体实施方式二:本实施方式与具体实施方式一不同的是:步骤一的具体过程为:
将两种用于定位的ArUco标志物H和S固定在移动机器人上,控制移动机器人在室内地面行走,并在室内棚顶安装USB相机用来采集移动机器人的运动图像,PC端记录采集的图像,记录W张图像。
具体实施方式三:本实施方式与具体实施方式二不同的是:所述步骤二中对打标签后的图像进行增广,其具体方法包括:在图像中添加随机椒盐噪声、在图像中添加高斯噪声或将带有ArUco标志物的局部图像放大和旋转。
具体实施方式四:本实施方式与具体实施方式三不同的是:步骤三的具体过程为:
SSD网络的前端是基础的VGG-16分类网络,后端接有5个不同尺度的特征层(特征层的尺度不是固定的,可以根据实际需要调整),本文中需要训练SSD识别用于定位的两种ArUco标志物,SSD网络前端的VGG-16分类网络导入已经预训练好的参数,后端的特征层的训练利用步骤二制作好的训练集;
利用步骤二制作好的训练集训练SSD网络,设置学习率为0.001,动量参数为0.9,batch_size为32,权重衰减为0.0005,不断进行迭代训练,调整SSD网络的卷积层的权重值以及偏置值,直到loss小于1.6时,用测试集验证训练的SSD网络,直至测试集上的定位准确率不低于Q时停止训练,得到训练好的SSD网络。其中:Q的值不小于95%。
具体实施方式五:本实施方式与具体实施方式四不同的是:步骤四中求出用于修正图像透视畸变的修正矩阵N的具体过程为:
在室内棚顶安装摄像头,由于安装问题导致地面的图像出现透视畸变,通过一个3×3大小的矩阵N修正透视畸变;
在地面放置两个正方形板,两个正方形板的八个顶点坐标分别为[Xi Yi 1]T,i=1,2...8,八个顶点在图像平面内的投影点坐标分别为[ui vi 1]T,i=1,2...8,世界坐标系中点和图像坐标系中点的关系为:
即估计出用于修正图像透视畸变的修正矩阵N的8个值,得到修正矩阵n11、n12、n13、n21、n22、n23、n31和n32均是矩阵中的元素。
具体实施方式六:本实施方式与具体实施方式五不同的是:所述步骤五的具体过程为:将采集的待定位移动机器人的运动图像输入训练好的SSD网络进行处理,根据输出的矩形包络框得到待定位移动机器人上的H和S两个ArUco标志物在运动图像中的位置分别为其中:分别为H和S两个ArUco标志物在图像中的位置坐标;
根据修正矩阵N求出待定位移动机器人的H和S两个ArUco标志物在地面坐标系中的坐标为:
根据待定位移动机器人上的H和S两个ArUco标志物与中心相对位置关系计算出待定位移动机器人中心位姿,如图3所示,P是两个ArUco标志物H和S连线的中点,设PM=L1,HS=L2,PM和PS夹角为θ0,点P坐标为(xp,yp),M点坐标为(xm,ym),根据几何关系可以得到:
其中:L1和L2分别代表PM和HS的长度;
则旋转角θr表示为:θr=arctan(ysc-yhc,xsc-xhc)+θ0
得到USB相机测量出的待定位移动机器人位姿为Yk=[xm ym θr]T
具体实施方式七:本实施方式与具体实施方式六不同的是:所述步骤六的具体过程为:
PC端接收USB相机传送的待定位移动机器人的运动图像,利用ROS***,在PC端读取HUSKY传送的里程计信息,选取时间戳最近的信息作为同一时刻采集的待定位移动机器人的信息。
如图2所示,USB相机采集的运动图像与PC端通过USB连接,PC端读取HUSKY传送的里程计信息,将USB相机采集的运动图像与HUSKY传送的里程计信息进行匹配,得到待定位移动机器人每一时刻对应的USB相机采集的运动图像和HUSKY传送的里程计信息。
具体实施方式八:本实施方式与具体实施方式七不同的是:所述步骤七的具体过程为:
根据运动模型构建待定位移动机器人的运动方程和观测方程为:
其中:Xk=[xk yk θk]T是待定位移动机器人的位姿变量,且位姿变量的三个元素分别为移动机器人的X轴坐标,Y轴坐标,待定位移动机器人轴线与x坐标轴的夹角;
Xk-1=[xk-1 yk-1 θk-1]T是上一时刻的待定位移动机器人的位姿变量,为里程计的测量信息,为里程计的测量噪声,Yk为USB相机测量出的待定位移动机器人位姿,为USB相机的测量噪声;
则待估计的目标:即待定位移动机器人的位姿变量本身,即:
Zk=IXk
其中:Zk为待估计量,I为单位矩阵;在H-infinite滤波框架下求解出Zk的估计值,即得到待定位移动机器人位姿的估计值。
当步骤六中获得待定位移动机器人每一时刻对应的USB相机采集的运动图像和HUSKY传送的里程计信息后,将运动图像对应的位姿与同一时刻的里程计信息在H-infinity滤波框架下融合,得到该时刻下的待定位移动机器人位姿的估计值。
如图1所示,定位出移动机器人的当前位置后,判断移动机器人是否到达目的地,若到达目的地,则停止移动机器人,若未到达目的地,则继续进行路径规划,生成控制指令控制移动机器人移动,直至判断移动机器人到达目的地。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (8)

1.一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,该方法包括以下步骤:
步骤一、将用于定位的ArUco标志物固定在移动机器人上,控制移动机器人在室内地面行走,并在室内棚顶安装USB相机用来采集移动机器人的运动图像;
步骤二、利用开源视觉库opencv识别采集的图像上的ArUco标志物,得到ArUco标志物的矩形包络框,根据矩形包络框位置做出采集图像的标签,对打标签后的图像进行增广,并将增广结果分为训练集和测试集两部分;
步骤三、将训练集输入到SSD网络进行训练,测试集用于验证训练的SSD网络,直至测试集上的定位准确率不低于Q时,得到训练好的SSD网络;
步骤四、求出用于修正图像透视畸变的修正矩阵N,并利用USB相机采集待定位移动机器人的运动图像;
步骤五、将采集的待定位移动机器人的运动图像输入训练好的SSD网络进行处理,得到ArUco标志物在运动图像中的位置,利用修正矩阵N求出ArUco标志物在地面坐标系中的坐标;
再根据ArUco标志物和待定位移动机器人的几何关系求出USB相机测量出的待定位移动机器人位姿;
步骤六、对齐USB相机采集的待定位移动机器人的运动图像和PC端读取的里程计信息;
步骤七、在H-infinity滤波框架下融合USB相机测量出的待定位移动机器人位姿和PC端读取的里程计信息,得到待定位移动机器人位姿的估计值。
2.根据权利要求1所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤一的具体过程为:
将两种用于定位的ArUco标志物H和S固定在移动机器人上,控制移动机器人在室内地面行走,并在室内棚顶安装USB相机用来采集移动机器人的运动图像,PC端记录采集的图像,记录W张图像。
3.根据权利要求2所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤二中对打标签后的图像进行增广,其具体方法包括:在图像中添加随机椒盐噪声、在图像中添加高斯噪声或将带有ArUco标志物的局部图像放大和旋转。
4.根据权利要求3所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤三的具体过程为:
SSD网络的前端是基础的VGG-16分类网络,后端接有5个特征层;
利用步骤二制作好的训练集训练SSD网络,设置学习率为0.001,动量参数为0.9,batch_size为32,权重衰减为0.0005,不断进行迭代训练,调整SSD网络的卷积层的权重值以及偏置值,直到loss小于1.6时,用测试集验证训练的SSD网络,直至测试集上的定位准确率不低于Q时停止训练,得到训练好的SSD网络。
5.根据权利要求4所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤四中求出用于修正图像透视畸变的修正矩阵N的具体过程为:
在地面放置两个正方形板,两个正方形板的八个顶点坐标分别为[Xi Yi 1]T,i=1,2…8,八个顶点在图像平面内的投影点坐标分别为[ui vi 1]T,i=1,2…8,世界坐标系中点和图像坐标系中点的关系为:
即估计出用于修正图像透视畸变的修正矩阵N的8个值,得到修正矩阵n11是矩阵中的元素。
6.根据权利要求5所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤五的具体过程为:
将采集的待定位移动机器人的运动图像输入训练好的SSD网络进行处理,根据输出的矩形包络框得到待定位移动机器人上的H和S两个ArUco标志物在运动图像中的位置分别为其中:分别为H和S两个ArUco标志物在图像中的位置坐标;
根据修正矩阵N求出待定位移动机器人的H和S两个ArUco标志物在地面坐标系中的坐标为:
根据待定位移动机器人上的H和S两个ArUco标志物与中心相对位置关系计算出待定位移动机器人中心位姿,P是两个ArUco标志物H和S连线的中点,设PM=L1,HS=L2,PM和PS夹角为θ0,点P坐标为(xp,yp),M点坐标为(xm,ym),根据几何关系可以得到:
其中:L1和L2分别代表PM和HS的长度;
则旋转角θr表示为:θr=arctan(ysc-yhc,xsc-xhc)+θ0
得到USB相机测量出的待定位移动机器人位姿为Yk=[xm ym θr]T
7.根据权利要求6所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤六的具体过程为:
PC端接收USB相机传送的待定位移动机器人的运动图像,利用ROS***,在PC端读取HUSKY传送的里程计信息,选取时间戳最近的信息作为同一时刻采集的待定位移动机器人的信息。
8.根据权利要求7所述的一种融合SSD目标识别和里程计信息的移动机器人定位方法,其特征在于,所述步骤七的具体过程为:
根据运动模型构建待定位移动机器人的运动方程和观测方程为:
其中:Xk=[xk yk θk]T是待定位移动机器人的位姿变量,且位姿变量的三个元素分别为移动机器人的X轴坐标,Y轴坐标,待定位移动机器人轴线与X坐标轴的夹角;
Xk-1=[xk-1 yk-1 θk-1]T是上一时刻的待定位移动机器人的位姿变量,为里程计的测量信息,为里程计的测量噪声,Yk为USB相机测量出的待定位移动机器人位姿,为USB相机的测量噪声;
则待估计的目标:即待定位移动机器人的位姿变量本身,即:
Zk=IXk
其中:Zk为待估计量,I为单位矩阵;在H-infinite滤波框架下求解出Zk的估计值,即得到待定位移动机器人位姿的估计值。
CN201811408501.8A 2018-11-23 2018-11-23 一种融合ssd目标识别和里程计信息的移动机器人定位方法 Active CN109540140B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811408501.8A CN109540140B (zh) 2018-11-23 2018-11-23 一种融合ssd目标识别和里程计信息的移动机器人定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811408501.8A CN109540140B (zh) 2018-11-23 2018-11-23 一种融合ssd目标识别和里程计信息的移动机器人定位方法

Publications (2)

Publication Number Publication Date
CN109540140A true CN109540140A (zh) 2019-03-29
CN109540140B CN109540140B (zh) 2021-08-10

Family

ID=65850125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811408501.8A Active CN109540140B (zh) 2018-11-23 2018-11-23 一种融合ssd目标识别和里程计信息的移动机器人定位方法

Country Status (1)

Country Link
CN (1) CN109540140B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186459A (zh) * 2019-05-27 2019-08-30 深圳市海柔创新科技有限公司 导航方法、移动载体及导航***
CN110450157A (zh) * 2019-08-07 2019-11-15 安徽延达智能科技有限公司 一种机器人自动避障***
CN110542429A (zh) * 2019-07-15 2019-12-06 大连大华中天科技有限公司 一种全向移动机器人误差补偿方法
CN112880681A (zh) * 2021-01-12 2021-06-01 桂林慧谷人工智能产业技术研究院 一种基于ssd的视觉室内定位***技术方法
CN113203419A (zh) * 2021-04-25 2021-08-03 重庆大学 基于神经网络的室内巡检机器人校正定位方法
WO2023126725A1 (en) * 2021-12-29 2023-07-06 Midea Group Co., Ltd. Joint visual localization and orientation detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101576384A (zh) * 2009-06-18 2009-11-11 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
JP2014235021A (ja) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド 経路決定装置、経路決定方法、及び経路決定プログラム
CN106485699A (zh) * 2016-09-22 2017-03-08 哈尔滨工业大学 一种基于点匹配的基准标志定位方法
CN107516326A (zh) * 2017-07-14 2017-12-26 中国科学院计算技术研究所 融合单目视觉和编码器信息的机器人定位方法和***
CN107589758A (zh) * 2017-08-30 2018-01-16 武汉大学 一种基于双源视频分析的智能化野外无人机搜救方法与***
CN107741231A (zh) * 2017-10-11 2018-02-27 福州大学 一种基于机器视觉的多运动目标快速测距方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101576384A (zh) * 2009-06-18 2009-11-11 北京航空航天大学 一种基于视觉信息校正的室内移动机器人实时导航方法
JP2014235021A (ja) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド 経路決定装置、経路決定方法、及び経路決定プログラム
CN106485699A (zh) * 2016-09-22 2017-03-08 哈尔滨工业大学 一种基于点匹配的基准标志定位方法
CN107516326A (zh) * 2017-07-14 2017-12-26 中国科学院计算技术研究所 融合单目视觉和编码器信息的机器人定位方法和***
CN107589758A (zh) * 2017-08-30 2018-01-16 武汉大学 一种基于双源视频分析的智能化野外无人机搜救方法与***
CN107741231A (zh) * 2017-10-11 2018-02-27 福州大学 一种基于机器视觉的多运动目标快速测距方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LIN W , REN X , HU J , ET AL: "Fast,robust and accurate posture detection algorithm based on Kalman filter and SSD for AGV", 《NEUROCOMPUTING》 *
LIU W, ANGUELOV D, ERHAN D,ET AL: "SSD:Single shot Multibox Detector", 《PROCEEDINGS OF THE EUROPEAN CONFERENCE ON COMPUTER VISION, SPRINGER》 *
岳建海等: "《轨道交通安全智能融合技术》", 31 January 2017, 北京交通大学出版社 *
颜志国等: "《多摄像机协同关注目标检测跟踪技术》", 30 June 2017, 东南大学出版社 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110186459A (zh) * 2019-05-27 2019-08-30 深圳市海柔创新科技有限公司 导航方法、移动载体及导航***
CN110542429A (zh) * 2019-07-15 2019-12-06 大连大华中天科技有限公司 一种全向移动机器人误差补偿方法
CN110542429B (zh) * 2019-07-15 2022-09-20 大连大华中天科技有限公司 一种全向移动机器人误差补偿方法
CN110450157A (zh) * 2019-08-07 2019-11-15 安徽延达智能科技有限公司 一种机器人自动避障***
CN112880681A (zh) * 2021-01-12 2021-06-01 桂林慧谷人工智能产业技术研究院 一种基于ssd的视觉室内定位***技术方法
CN113203419A (zh) * 2021-04-25 2021-08-03 重庆大学 基于神经网络的室内巡检机器人校正定位方法
CN113203419B (zh) * 2021-04-25 2023-11-10 重庆大学 基于神经网络的室内巡检机器人校正定位方法
WO2023126725A1 (en) * 2021-12-29 2023-07-06 Midea Group Co., Ltd. Joint visual localization and orientation detection method

Also Published As

Publication number Publication date
CN109540140B (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
CN109540140A (zh) 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN110296691B (zh) 融合imu标定的双目立体视觉测量方法与***
US11441899B2 (en) Real time position and orientation tracker
CN105091744B (zh) 一种基于视觉传感器和激光测距仪的位姿检测装置与方法
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
Bengtsson et al. Robot localization based on scan-matching—estimating the covariance matrix for the IDC algorithm
US8744133B1 (en) Methods and systems for locating visible differences on an object
CN106600627A (zh) 一种基于标志点的刚体运动捕捉方法及***
CN107101582A (zh) 基于结构光视觉的轴类零件径向跳动误差在线测量方法
CN111091587B (zh) 一种基于视觉标志物的低成本动作捕捉方法
JP2012128661A (ja) 情報処理装置、情報処理方法及びプログラム
CN106803270A (zh) 无人机平台基于单目slam的多关键帧协同地面目标定位方法
CN103793936A (zh) 用于增强现实的自动化参考框架校准
CN104552341B (zh) 移动工业机器人单点多视角挂表位姿误差检测方法
CN108225327A (zh) 一种顶标地图的构建与定位方法
US20220230348A1 (en) Method and apparatus for determining a three-dimensional position and pose of a fiducial marker
Yang et al. Accurate calibration approach for non-overlapping multi-camera system
CN112045655B (zh) 用于大尺度多站点场景的移动机器人位姿测量方法及***
Wang et al. An improved measurement model of binocular vision using geometrical approximation
Mariottini et al. An accurate and robust visual-compass algorithm for robot-mounted omnidirectional cameras
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
CN105046691A (zh) 一种基于正交消失点的相机自标定方法
CN117095002A (zh) 轮毂缺陷的检测方法及装置、存储介质
CN109489658B (zh) 一种运动目标定位方法、装置及终端设备
CN111199576A (zh) 一种基于移动平台的室外大范围人体姿态重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 150001 Harbin, Nangang, West District, large straight street, No. 92

Applicant after: Yu Xinghu

Address before: 264006 No. 32, Yantai economic and Technological Development Zone, Shandong, Zhujianglu Road

Applicant before: Yu Xinghu

CB02 Change of applicant information
TA01 Transfer of patent application right

Effective date of registration: 20210720

Address after: 315000 No.189 Guangming Road, Zhuangshi street, Zhenhai District, Ningbo City, Zhejiang Province

Applicant after: Ningbo Intelligent Equipment Research Institute Co.,Ltd.

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Applicant before: Yu Xinghu

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant