CN110738706B - 一种基于航迹推测的快速机器人视觉定位方法 - Google Patents

一种基于航迹推测的快速机器人视觉定位方法 Download PDF

Info

Publication number
CN110738706B
CN110738706B CN201910877211.6A CN201910877211A CN110738706B CN 110738706 B CN110738706 B CN 110738706B CN 201910877211 A CN201910877211 A CN 201910877211A CN 110738706 B CN110738706 B CN 110738706B
Authority
CN
China
Prior art keywords
image
target
positioning
mobile robot
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910877211.6A
Other languages
English (en)
Other versions
CN110738706A (zh
Inventor
柏建军
耿新
尚文武
邹洪波
陈云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910877211.6A priority Critical patent/CN110738706B/zh
Publication of CN110738706A publication Critical patent/CN110738706A/zh
Application granted granted Critical
Publication of CN110738706B publication Critical patent/CN110738706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于航迹推测的快速机器人视觉定位方法,该方法在处理图像特征时采用了网格化的处理方法,获取了目标机器人在图像中的位置坐标,再利用坐标转化将图像坐标转化为实际坐标,最后针对运动状态下的移动机器人,通过无线通讯模块进行数据传输,利用移动机器人的角速度和角度,完成移动机器人的动态定位;本发明减小了图像处理的数据量,在保证了定位精度的同时,减小了目标识别所需要的图像处理时间;同样,运动状态下的处理方法也对缩短图像处理时间起到了重要作用。

Description

一种基于航迹推测的快速机器人视觉定位方法
技术领域
本发明属于移动机器人定位领域,具体涉及一种移动机器人的视觉定位方法。
背景技术
随着科技的发展和社会的进步,作为战略性新兴产业,机器人已经广泛的应用于军事、民事等方方面面,人们对于机器人的需求有了极大的提高,这也使得机器人有很大的市场空间与前景。如何让机器人能够在未知的环境情形里快速、高效地实现给定的目标任务也就成了机器人发展研究的重大挑战。同时,作为机器人的典型代表,无论是反馈控制,还是有效地避开各种静态和动态障碍物,都需要精确的知道自身的当前位姿,这就是移动机器人的定位问题。
对于室外的定位需求,全球定位***(GPS)基本能够满足,但在室内环境中,由于较多的限制使得定位精度不足以实现定位。惯性导航是指使用陀螺仪、加速度计和电磁罗盘等惯性传感器来实现移动机器人定位和导航的方法,然而,加速度计和陀螺仪对漂移很敏感,电磁罗盘依赖于磁场,这些问题的存在影响了定位精度。采用红外、超声波和射频识等无线技术来实现室内定位,超声波传播速度低,测量精度较高,对外界光线和磁场不敏感,被广泛应用,但是容易受到多径效应、非视距传播以及温度变化的影响。红外具有成本低,结构简单等特点,但容易受到外界的干扰,影响定位精度。而且需要设置大量的硬件设备辅助定位,不利于维护。基于视觉的定位方法能够避开上述技术因信号传输产生的影响,从而得到较高的定位精度,还可以通过增加硬件成本提高定位精度。在这里选择的是单目视觉定位,具有成本低,结构简单以及实时性高的特点,采用固定单目摄像头的方式实现对移动机器人的定位。
发明内容
本发明提出一种基于航迹推测的快速机器人视觉定位方法。
本发明是采用固定的单目摄像机对定位区域的移动机器人进行定位操作,提供了一种网格化的处理方法对图像作目标识别,获取移动机器人在定位区域内的位置坐标,并提供了针对运动状态机器人的定位方法。减小了图像处理的数据量,实现了对移动机器人较为精确、快速的定位。
一种基于航迹推测的快速机器人视觉定位方法,其特征在于,该方法具体包括以下步骤:
步骤一、将摄像机固定悬挂安装在一定高度,使相机镜头与定位区域保持水平,连接好电源以及网线,进行拍摄,获取定位区域的原始色彩图像;
步骤二、将标定板放置在定位区域,获取不同位姿下的标定板图像并保存。
步骤三、利用MATLAB处理标定板图像,进行相机标定,获取相机参数。
步骤四、在移动机器人上方设置矩形颜色区域作为定位目标。利用摄像机获取带有矩形颜色标识的机器人图像,再根据相机标定的参数,对图像做矫正处理。
步骤五、先对矫正后的图像作预处理操作,再利用网格化的方法处理,获取目标机器人在图像中的位置坐标;
其中先对矫正后的图像作预处理操作是指:
1、获取待处理图像,选出感兴趣区域做下一步处理。
2、将图像由RGB转化为HSV颜色空间。
3、对图像作开闭操作,消除干扰,填充物体,使目标识别更精确。
其中利用网格化的方法处理,获取目标机器人在图像中的位置坐标,具体为:
将定位图像分割为规则的网格形式,利用像素把目标机器人的图像分割成大小相同的方格;
选取方格中心点作为采样点,获取每个中心点处的像素信息,并与已知矩形颜色标识的像素信息作比对;当方格中心的像素信息与已知矩形颜色标识的像素信息一致时,将该位置的小方格作为矩形颜色标识占据的网格,记为目标区域,反之,记为非目标区域;将定位图像的所有方格中心处的像素信息比对后,记录下所有目标区域的像素坐标,利用目标区域的像素坐标获取目标区域的质心坐标,即矩形颜色标识的像素坐标。
质心的坐标(Cx,Cy)通过求解所有目标区域的中心点坐标的加权平均得到,即
Figure BDA0002204689190000021
其中n为目标区域的个数,xi表示目标区域的中心点横坐标,yi表示目标区域的中心点纵坐标;
步骤六、利用坐标转化将图像坐标转化为实际坐标。
步骤七、针对运动状态下的移动机器人,通过无线通讯模块进行数据传输,利用移动机器人的角速度和角度,完成移动机器人的动态定位;
具体为:将步骤五中采用的网格化图像处理方法虽然简化了图像颜色特征的获取,但对于采集到的整个图像来说,仍然要处理大量的像素点数据。若预处理得到的图像大小为530pixel*530pixel,为了提高动态处理的实时性,进一步加快颜色特征的获取过程,减少数据的处理量,我们将预处理图像中不包含有效目标特征的数据量排除掉,故使用动态窗口的方法来处理预处理图像,颜色矩形标记为15cm*18cm的长方形,需要在像平面内设置100pixels*100pixels的窗口,对应运动平面上的窗口大小为33cm*33cm,动态窗口的中心位置由前一时刻获取的移动机器人的坐标、移动机器人的航向角和速度决定。
利用移动机器人上各种传感器设备,获取需要角速度、角度;通过无线通信模块将传感器测得的数据传输给上位机;上位机通过当前时刻的角速度、角度,预测出下一时刻的移动机器人位置,并对该位置进行目标识别,获取移动机器人的位置坐标,实现移动机器人的定位。
其中,预测出下一时刻的移动机器人位置,具体为:
若当前时刻的移动机器人位置为P1(x1,y1),获取到的角速度为wr和wl,车轮半径为d,与水平方向的夹角为θ;则下一时刻的移动机器人位置为P2(x2,y2),x2=x1-(r-r*cos(wT+θ-π/2)),y2=y1+r*sin(wT+θ-π/2),其中vr=wr*d,
Figure BDA0002204689190000031
以该位置作为动态窗口的中心,对图像作网格化处理,得到移动机器人的位置坐标。若在新的窗口中没有找到目标,则以当前时刻的目标坐标P1(x1,y1)为中心,2*v*T为长度的窗口中寻找目标,重新定位目标。不断循环操作,实现对动态目标的定位。
作为优选,所述步骤三中,利用MATLAB处理标定板图像,进行相机标定,获取相机参数是指:利用已知长度的黑白标定板放置于定位区域,拍摄图像,获取多张不同位姿下的标定板图像并保存,利用MATLAB中的Camera Calibrator进行相机标定,获取摄像机的内外参数。
本发明与现有技术相比的优点在于:本发明提出了一种基于视觉的移动机器人定位方法,该方法在处理图像特征时采用了网格化的处理方法,减小了图像处理的数据量,在保证了定位精度的同时,减小了目标识别所需要的图像处理时间;同样,运动状态下的处理方法也对缩短图像处理时间起到了重要作用。
附图说明
图1是定位***结构图;
图2是网格分割图;
图3是目标判定图;
图4是动态定位图1;
图5是动态定位图2;
图6是移动机器人运动模型图。
具体实施方式
下面结合附图和实例对本发明作进一步的详细说明。可以理解的是,此处所说明的具体实例仅仅用于解释本发明,而非对本发明的限定。附图中展示的是与本发明相关的部分,并非全部的内容。
以下举例说明本发明整个过程的具体实施方式如下:
步骤一、将摄像机安装在R型支架上,固定在一定高度,并确保摄像机镜面与定位区域水平,然后连接电源以及网线,进行拍摄,利用台式电脑端的上位机软件获取定位区域的原始色彩图像,如图1所示。
步骤二、调节好镜头光圈以及聚好焦并保持不变,将标定板放置在定位区域,接着在镜头前不断变换标定板位姿,采集多幅图像,获取不同位姿下的标定板图像并保存。
步骤三、当采集完成后,利用MATLAB处理标定板图像,进行相机标定,获取相机参数。
步骤四、一般情况下,移动机器人自身由于外观不同,大小不一,不适合作为图像定位的目标,并且当移动机器人处于不同位置时,得到图形也不同,不具有不变性,需要通过矫正才能实现定位,这样既增加了处理的时间,还增添了矫正误差,不利于定位。所以在移动机器人上方设置矩形颜色区域作为定位目标。利用摄像机获取带有矩形颜色标识的机器人图像,再根据相机标定的参数,对图像做矫正处理。
步骤五、先对矫正后的图像作预处理操作,再利用网格化的方法处理,获取目标机器人在图像中的位置坐标。
步骤六、利用坐标转化将图像坐标转化为实际坐标。
步骤七、针对运动状态下的移动机器人,通过无线通讯模块进行数据传输,利用移动机器人的速度、角度等位姿信息,完成移动机器人的动态定位,如图4所示。
所述步骤三中,利用MATLAB处理标定板图像,进行相机标定,获取相机参数是指:
利用已知长度的黑白标定板放置于定位区域,拍摄图像,获取多张不同位姿下的标定板图像并保存,利用MATLAB中的Camera Calibrator进行相机标定,获取摄像机的内外参数。
所述步骤五中,先对矫正后的图像作预处理操作是指:
1、获取待处理图像,选出感兴趣区域做下一步处理。
2、将图像由RGB转化为HSV颜色空间。
3、对图像作开闭操作,消除干扰,填充物体,使目标识别更精确。
所述步骤五中,再利用网格化的方法处理,获取目标机器人在图像中的位置坐标是指:
将图像分割为规则的网格形式,利用像素把目标机器人的图像分割成规则的方格。
其中,i=1,...,M,J=1,...,N,M为水平分割线条数,N为竖直分割线条数。分割线之间的距离为等间隔的,长度为d,分割线之间的长度d由矩形颜色区域的像素大小决定。这样就将定位区域分割成了大小相同的小方格,如图2所示。
1、将定位图像做网格化处理后,选取网格的中心点作为采样点,获取每个中心点处的像素信息,并与已知矩形颜色标识的像素信息作比对。
2、当方格中心的像素信息与已知矩形颜色标识的像素信息一致时,我们就将该位置的小方格作为矩形颜色标识占据的网格,记为目标区域,反之,记为非目标区域,如图3所示。
3、将定位区域的所有网格中心处的像素信息比对后,记录下所有目标区域的像素坐标,利用目标区域的像素坐标获取目标区域的质心坐标,即矩形颜色标识的像素坐标。
质心的坐标(Cx,Cy)可以通过求解所有目标区域的中心点坐标的加权平均得到,即
Figure BDA0002204689190000051
其中n为目标区域的个数,xi表示目标区域的中心点横坐标,yi表示目标区域的中心点纵坐标;
所述步骤七中,针对运动状态下的移动机器人,通过无线通讯模块进行数据传输,利用移动机器人的速度、角度等位姿信息,完成移动机器人的动态定位是指:
步骤五中采用的网格化图像处理方法虽然简化了图像颜色特征的获取,但对于采集到的整个图像来说,仍然要处理大量的像素点数据。若预处理得到的图像大小为530pixel*530pixel,为了提高动态处理的实时性,进一步加快颜色特征的获取过程,减少数据的处理量,我们将预处理图像中不包含有效目标特征的数据量排除掉,故使用动态窗口的方法来处理预处理图像,颜色矩形标记为15cm*18cm的长方形,需要在像平面内设置100pixels*100pixels的窗口,对应运动平面上的窗口大小为33cm*33cm,动态窗口的中心位置由前一时刻获取的移动机器人的坐标、移动机器人的航向角和速度决定。
利用移动机器人上各种传感器设备,获取需要的数据信息,如速度、方位角等信息;通过无线通信模块将传感器测得的数据传输给上位机;上位机通过当前时刻的速度、角度等位姿信息,预测出下一时刻的移动机器人位置,并对该位置进行目标识别,获取移动机器人的位置坐标,实现移动机器人的定位。
其中,预测出下一时刻的移动机器人位置,是指为了提高动态处理的实时性,减小颜色特征的处理时间,提高数据量的处理速度,将不包含目标颜色特征的数据删减掉,设置合适大小的动态窗口进行目标识别,从而获取移动机器人的位置坐标。
1、以t1、t2、t3时刻图像为例,利用网格化的方法获取t1、t2时刻图像的目标机器人坐标P1(x1,y1)、P2(x2,y2),(/区域为t1时刻的目标区域,\区域为t2时刻的目标区域),如图4所示。
再根据t2时刻目标机器人的角速度w,角度θ,车轮半径d,图像采集周期T,推算出下一时刻t3的位置坐标P3(x3,y3)为:
x3=x2+w*d*T*cosθ
y3=y2+w*d*T*sinθ
以该位置坐标为动态窗口的中心,对图像进行网格化处理,得到目标机器人的新坐标。
2、以T1、T2、T3时刻两幅图像为例,先利用网格化的方法,获取目标机器人在图像中的坐标P1(x1,y1)、P2(x2,y2),(/区域为T1时刻的目标区域,\区域为T2时刻的目标区域),如图5所示。
再通过无线模块获取T2时刻目标机器人的航向角θ以及左右轮的角速度wl、wr。推算出下一时刻T3的位置坐标,并以该位置坐标为动态窗口的中心,对图像进行网格化处理,得到目标机器人的新坐标。
一般的轮式移动机器人的运动模型如图6所示。
其中,左右轮速度和线速度角速度的关系如下:
vr=wr*d,vl=wl*d
Figure BDA0002204689190000061
Figure BDA0002204689190000062
Figure BDA0002204689190000063
推算出的T3时刻的P3(x3,y3)应满足:
x3=x2-(r-r*cos(wT+θ-π/2))
y3=y2+r*sin(wT+θ-π/2)
若在新的窗口中没有找到目标,则以T2时刻的目标坐标为中心,2*v*T为长度的窗口中寻找目标,重新跟踪目标。
不断循环操作,实现对动态目标的定位。

Claims (2)

1.一种基于航迹推测的快速机器人视觉定位方法,其特征在于,该方法具体包括以下步骤:
步骤一、将摄像机固定悬挂安装在一定高度,使相机镜头与定位区域保持水平,连接好电源以及网线,进行拍摄,获取定位区域的原始色彩图像;
步骤二、将标定板放置在定位区域,获取不同位姿下的标定板图像并保存;
步骤三、利用MATLAB处理标定板图像,进行相机标定,获取相机参数;
步骤四、在移动机器人上方设置矩形颜色区域作为定位目标;利用摄像机获取带有矩形颜色标识的机器人图像,再根据相机标定的参数,对图像做矫正处理;
步骤五、先对矫正后的图像作预处理操作,再利用网格化的方法处理,获取目标机器人在图像中的位置坐标;
其中先对矫正后的图像作预处理操作是指:
①、获取待处理图像,选出感兴趣区域做下一步处理;
②、将图像由RGB转化为HSV颜色空间;
③、对图像作开闭操作,消除干扰,填充物体,使目标识别更精确;
其中利用网格化的方法处理,获取目标机器人在图像中的位置坐标,具体为:
将定位图像分割为规则的网格形式,利用像素把目标机器人的图像分割成大小相同的方格;
选取方格中心点作为采样点,获取每个中心点处的像素信息,并与已知矩形颜色标识的像素信息作比对;当方格中心的像素信息与已知矩形颜色标识的像素信息一致时,将该位置的小方格作为矩形颜色标识占据的网格,记为目标区域,反之,记为非目标区域;将定位图像的所有方格中心处的像素信息比对后,记录下所有目标区域的像素坐标,利用目标区域的像素坐标获取目标区域的质心坐标,即矩形颜色标识的像素坐标;
质心的坐标(Cx,Cy)通过求解所有目标区域的中心点坐标的加权平均得到,即
Figure FDA0002204689180000011
其中n为目标区域的个数,xi表示目标区域的中心点横坐标,yi表示目标区域的中心点纵坐标;
步骤六、利用坐标转化将图像坐标转化为实际坐标;
步骤七、针对运动状态下的移动机器人,通过无线通讯模块进行数据传输,利用移动机器人的角速度和角度,完成移动机器人的动态定位;
具体为:利用移动机器人上各种传感器设备,获取需要角速度、角度;通过无线通信模块将传感器测得的数据传输给上位机;上位机通过当前时刻的角速度、角度,预测出下一时刻的移动机器人位置,并对该位置进行目标识别,获取移动机器人的位置坐标,实现移动机器人的定位;
其中,预测出下一时刻的移动机器人位置,具体为:
若当前时刻的移动机器人位置为P1(x1,y1),获取到的角速度为wr和wl,车轮半径为d,与水平方向的夹角为θ;则下一时刻的移动机器人位置为P2(x2,y2),x2=x1-(r-r*cos(wT+θ-π/2)),y2=y1+r*sin(wT+θ-π/2),其中vr=wr*d,vl=wl*d,
Figure FDA0002204689180000021
以该位置作为动态窗口的中心,对图像作网格化处理,得到移动机器人的位置坐标;若在新的窗口中没有找到目标,则以当前时刻的目标坐标P1(x1,y1)为中心,2*v*T为长度的窗口中寻找目标,重新定位目标;不断循环操作,实现对动态目标的定位。
2.根据权利要求1所述的一种基于航迹推测的快速机器人视觉定位方法,其特征在于:所述步骤三中,利用MATLAB处理标定板图像,进行相机标定,获取相机参数是指:利用已知长度的黑白标定板放置于定位区域,拍摄图像,获取多张不同位姿下的标定板图像并保存,利用MATLAB中的Camera Calibrator进行相机标定,获取摄像机的内外参数。
CN201910877211.6A 2019-09-17 2019-09-17 一种基于航迹推测的快速机器人视觉定位方法 Active CN110738706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910877211.6A CN110738706B (zh) 2019-09-17 2019-09-17 一种基于航迹推测的快速机器人视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910877211.6A CN110738706B (zh) 2019-09-17 2019-09-17 一种基于航迹推测的快速机器人视觉定位方法

Publications (2)

Publication Number Publication Date
CN110738706A CN110738706A (zh) 2020-01-31
CN110738706B true CN110738706B (zh) 2022-03-29

Family

ID=69267973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910877211.6A Active CN110738706B (zh) 2019-09-17 2019-09-17 一种基于航迹推测的快速机器人视觉定位方法

Country Status (1)

Country Link
CN (1) CN110738706B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2880626A1 (en) * 2012-07-30 2015-06-10 Sony Computer Entertainment Europe Limited Localisation and mapping
CN108972565A (zh) * 2018-09-27 2018-12-11 安徽昱康智能科技有限公司 机器人指令动作控制方法及其***
CN109902374A (zh) * 2019-02-22 2019-06-18 同济大学 一种基于飞行传感器巡逻轨迹优化的突发污染溯源方法
CN109931940A (zh) * 2019-01-22 2019-06-25 广东工业大学 一种基于单目视觉的机器人定位置信度评估方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2880626A1 (en) * 2012-07-30 2015-06-10 Sony Computer Entertainment Europe Limited Localisation and mapping
CN108972565A (zh) * 2018-09-27 2018-12-11 安徽昱康智能科技有限公司 机器人指令动作控制方法及其***
CN109931940A (zh) * 2019-01-22 2019-06-25 广东工业大学 一种基于单目视觉的机器人定位置信度评估方法
CN109902374A (zh) * 2019-02-22 2019-06-18 同济大学 一种基于飞行传感器巡逻轨迹优化的突发污染溯源方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
An Approach for 2D Visual Occupancy Grid Map Using Monocular Vision;Andre M. Santana et al.;《Electronic Notes in Theoretical Computer Science》;20111231;第175-191页 *
关节型工业机器人轨迹规划研究综述;李黎等;《计算机工程与应用》;20181231;第36-50页 *

Also Published As

Publication number Publication date
CN110738706A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN112567201B (zh) 距离测量方法以及设备
CN111436216B (zh) 用于彩色点云生成的方法和***
CN108419446B (zh) 用于激光深度图取样的***及方法
CN106529587B (zh) 基于目标点识别的视觉航向识别方法
CN105352509B (zh) 地理信息时空约束下的无人机运动目标跟踪与定位方法
CN107289910B (zh) 一种基于tof的光流定位***
US20190243376A1 (en) Actively Complementing Exposure Settings for Autonomous Navigation
CN107357286A (zh) 视觉定位导航装置及其方法
CN106197422A (zh) 一种基于二维标签的无人机定位及目标跟踪方法
CN109483507B (zh) 一种多个轮式机器人行走的室内视觉定位方法
CN110503687B (zh) 一种空中光电测量平台目标定位方法
CN108775901B (zh) 一种实时slam场景地图构建***、导航***及方法
CN107449444A (zh) 一种多星图姿态关联的星敏感器内参数标定方法及其装置
CN108549376A (zh) 一种基于信标的导航定位方法及***
CN101750017A (zh) 大视场中多移动目标位姿的视觉检测方法
CN112197766B (zh) 一种针对系留旋翼平台的视觉测姿装置
WO2015066560A1 (en) Systems and methods for optical sensor navigation
CN106370160A (zh) 一种机器人室内定位***和方法
CN111811502B (zh) 一种运动载体多源信息融合导航方法及***
CN105607760A (zh) 一种基于微惯性传感器的轨迹还原方法及***
CN115451948A (zh) 一种基于多传感器融合的农业无人车定位里程计方法及***
CN112611361A (zh) 一种无人机机载测绘吊舱的摄像头安装误差测定方法
CN115717867A (zh) 一种基于机载双相机和目标追踪的桥梁变形测量方法
CN110738706B (zh) 一种基于航迹推测的快速机器人视觉定位方法
WO2021166845A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant