CN105865438A - 基于机器视觉的移动机器人的自主精确定位*** - Google Patents
基于机器视觉的移动机器人的自主精确定位*** Download PDFInfo
- Publication number
- CN105865438A CN105865438A CN201510033871.8A CN201510033871A CN105865438A CN 105865438 A CN105865438 A CN 105865438A CN 201510033871 A CN201510033871 A CN 201510033871A CN 105865438 A CN105865438 A CN 105865438A
- Authority
- CN
- China
- Prior art keywords
- image
- ceiling
- robot
- mobile robot
- light pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供基于机器视觉的室内移动机器人的自主精确定位***,包括安装在移动机器人内部的定位控制器、光轴垂直于天花板平面的图像采集摄像头以及激光发生器,所述激光发生器设置于天花板下方,用于在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;所述图像采集摄像头通过通讯接口与微处理器连接,用于实时采集机器人所处位置正上方的天花板光线图案并上传至微处理器;本发明在不改变天花板原貌的前提下,利用激光发生器将具有识别特征的光线图案投射到天花板,增加天花板的可识别特征,并通过图像处理与图像匹配方式实现定位,适用范围广,定位精度高。
Description
技术领域
本发明属于移动机器人定位领域,尤其涉及基于机器视觉的移动机器人的自主精确定位***。
背景技术
室内定位的实用性和必要性在一些特定场合已经日趋显著,其应用前景广阔,具有较大的拓展空间,其应用范围广泛,在复杂环境下,如图书馆,体育馆,地下车库,货品仓库等都可以实现对人员以及物品的快速定位,例如,在自动化生产和仓储管理中应用移动机器人,室内移动机器人精确识别当前位置,从而精确地组装产品、传输和搬运产品。目前,室内移动机器人定位方法一般有几种:超声波定位、红外线定位、超宽带定位、测距法、二维码/条形码定位方法。
超声波定位目前大多数采用反射式测距法。***由一个主测距器和若干个电子标签组成,主测距器可放置于移动机器人本体上,各个电子标签放置于室内空间的固定位置。定位过程如下:先由上位机发送同频率的信号给各个电子标签,电子标签接收到后又反射传输给主测距器,从而可以确定各个电子标签到主测距器之间的距离,并得到定位坐标。目前,比较流行的基于超声波室内定位的技术为在移动机器人身上4个朝向安装4个超声波传感器,将待定位空间分区,由超声波传感器测距形成坐标,总体把握数据,抗干扰性强,精度高,而且可以解决机器人迷路问题。定位精度:超声波定位精度可达厘米级,精度比较高。缺陷:超声波在传输过程中衰减明显从而影响其定位有效范围。
红外线是一种波长间于无线电波和可见光波之间的电磁波。典型的红外线室内定位***Activebadges使待测物体附上一个电子标识,该标识通过红外发射机向室内固定放置的红外接收机周期发送该待测物唯一ID,接收机再通过有线网络将数据传输给数据库。这个定位技术功耗较大且常常会受到室内墙体或物体的阻隔,实用性较低。如果将红外线与超声波技术相结合也可方便地实现定位功能。用红外线触发定位信号使参考点的超声波发射器向待测点射超声波,应用TOA基本算法,通过计时器测距定位。一方面降低了功耗,另一方面避免了超声波反射式定位技术传输距离短的缺陷。使得红外技术与超声波技术优势互补。定位精度:5至10m。缺陷:红外线在传输过程中易于受物体或墙体阻隔且传输距离较短,定位***复杂度较高,有效性和实用性较其它技术仍有差距。
测距法也称推算法,其通过两个轮子加装的编码器测出微小距离,计算出移动机器人位置和姿态的变化量,通过累加,实现移动机器人的自动定位。但是,一旦车轮行进过程中出现打滑空转现象,由于编码器的输出不能修正这一误差,所以,随着时间的推移,将会加大误差累计,导致定位精度的降低,因此,测距法只适应于一段相当短的距离。
二维码/条形码移动机器人定位方法通常是在每个二维码/条形码标签上印制若干个二维码/条形码,每个条形码数据由两部分组成:绝对地址码和位置偏移码,绝对地址码用于定位该标签在室内环境中的实际地理位置,位置偏移码用于确定该标签上各个二维码/条形码之间的偏移量,每个标签上各个二维码/条形码上的绝对地址码是相同的,代表整个标签在室内的地理位置,各个二维码/条形码之间的相对位置用各自的偏移量表示。条码扫描枪每次扫描得到一个完整的条码,当扫描范围出现空白区时,通过对第1个空白区左右两侧的数据信息进行拼接而获得一个完整的条码数据。当用以上方法定位移动机器人位置时,是将标签的位置(绝对位置)、条码的位置(相对位置)、条码扫描枪位置(相对位置)这三个数据叠加,最终得到移动机器人在室内实际地理位置。但是,该方法仍然有以下不足:二维码/条形码识读速度低,不适合于高效率的移动机器人领域;二维码/条形码布局结构难以实现全方位识读;容错能力差,对环境要求高、成本高,不利于推广使用。由于一维码没有纠错码字并且添加在数据码字序列后,使得符号在遇到损坏时丢失数据,当二维码/条形码长期使用后出现磨损,或由于地面凹凸不平,二维码/条形码弯曲时,都不能正常识读数据。
本发明的目的在于克服现有技术的不足,利用激光发生器将具有识别特征的光线图案投射到天花板,利用图像识别技术进行定位,提供一种高速读取、全方位识读、且定位精确的定位***及方法。
发明内容
本发明的目的在于克服现有技术的不足,提供一种定位准确、稳定性强且便于实施的基于机器视觉的移动机器人的自主精确定位***。
基于机器视觉的移动机器人的自主精确定位***,包括安装在移动机器人内部的定位控制器、光轴垂直于天花板平面的图像采集摄像头以及激光发生器,其中:
所述定位控制器包括微处理器与通讯接口,所述的微处理器设置数字地图模块、图像处理模块、图像匹配模块;
通讯接口与图像采集摄像头相连接,微处理器通过通讯接口控制图像采集摄像头进行图像采集、接收图像数据并通过图像处理模块与图像匹配模块实现移动机器人的精确定位;
所述激光发生器设置于天花板下方,用于在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;
所述图像采集摄像头通过通讯接口与微处理器连接,用于实时采集机器人所处位置正上方的天花板光线图案并上传至微处理器;
还包括定位显示模块,所述定位显示模块与微处理器连接,用于在数字地图中实时显示机器人所处位置。
进一步地,所述激光发生器在机器人预设活动区域对应的天花板上投射的光线为可见光。
进一步地,所述激光发生器在机器人预设活动区域对应的天花板上投射的光线为不可见光。
进一步地,当投射的光线为不可见光时,所述图像采集摄像头镜头包含滤光片,用于过滤非激光器发射波长的光。
作为优选方案,所述的通讯接口为网络接口、USB接口或者1394接口。
基于机器视觉的室内移动机器人的自主精确定位方法,包括以下步骤:
步骤a:***初始化:
S1:激光发生器在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;
S2:数字地图模块建立上述光线图案的含有物理坐标信息的数字地图;
步骤b:定位:
S3:图像采集摄像头实时采集机器人所在位置对应的天花板的光线图案图像;
S4:图像处理模块对采集的图像进行预处理;
S5:图像匹配模块提取图像的特征,并在数字地图中搜索符合其图像特征的物理坐标;
S6:图像显示模块实时显示机器人在数字地图中所处位置。
其中,步骤S2中,按如下步骤进行:
A:图像采集摄像头按一定次序采集机器人预设活动区域的多幅光线图案图像,并标记其采集图像时地面的物理坐标,将上述数据通过通讯接口上传至数字地图模块;
B:数字地图模块将多幅光线图案图像拼接成完整的图像;
C:设定坐标原点,在图像中标记采集图像时地面的物理坐标;
D:生成机器人预设活动区域含有物理坐标信息的数字地图的格式化数据。
本发明的优点和积极效果是:
第一、利用激光发生器将具有识别特征的光线图案投射到天花板,光线图案识别更方便清楚,通过移动机器人上安装的图像采集摄像头,采集移动机器人预设活动区域的图像并建立含有物理坐标信息的数字地图,并通过图像处理与图像匹配方式实现定位,适用范围广,定位精度高;
第二、本定位方法不依赖于二维码、条形码、电子标签等辅助设备,依靠对天花板图像的采集与识别即完成定位,增强了移动机器人室内定位技术的普及性、易用性和使用效果;
第三、本发明设计合理,通过与运动控制***配合使用,使机器人运行平稳,不再出现以前运行过程中的大幅度抖动现象,运行方向明确,取得了移动机器人定位的突出效果和显著进步。
附图说明
图1为本发明基于机器视觉的移动机器人的自主精确定位***的结构示意图;
图2为实施例1的结构示意图;
图3为实施例1中采集的位置A的图像;
图4为实施例1中采集的位置B的图像。
其中:
1:图像采集摄像头;2:天花板全景光线图像;3:采集的位置A的图像;4:采集的位置B的图像;5:激光发生器。
具体实施方式
以下结合附图对本发明做进一步详述:
如图1所示,基于机器视觉的移动机器人的自主精确定位***,包括安装在移动机器人内部的定位控制器、光轴垂直于天花板平面的图像采集摄像头以及激光发生器,其中:所述定位控制器包括微处理器与通讯接口,所述的微处理器设置数字地图模块、图像处理模块、图像匹配模块;通讯接口为网络接口、USB接口或者1394接口。通讯接口与图像采集摄像头相连接,微处理器通过通讯接口控制图像采集摄像头进行图像采集、接收图像数据并通过图像处理模块与图像匹配模块实现移动机器人的精确定位;所述激光发生器设置于天花板下方,用于在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;所述激光发生器在机器人预设活动区域对应的天花板上投射的光线为可见光或不可见光。如,发射红外线,形成具有识别特征的光线图案。当投射的光线为不可见光时,所述图像采集摄像头镜头包含滤光片,用于过滤非激光发生器发射波长的光,图像采集摄像头采集激光发生器发出的不可见光图案。
所述图像采集摄像头通过通讯接口与微处理器连接,用于实时采集机器人所处位置正上方的天花板光线图案并上传至微处理器;还包括定位显示模块,所述定位显示模块与微处理器连接,用于在数字地图中实时显示机器人所处位置。
微处理器与运动控制模块连接,运动控制模块根据定位信息控制机器人移动的方向与速度,实现导航。
实施例1:
下面以本实施例说明基于机器视觉的移动机器人的自主精确定位***的定位过程,如图2所示,按下述步骤进行:
S1:激光发生器5在机器人预设活动区域对应的天花板上投射可见光光线图案2;
S2:图像采集摄像头1采集机器人预设活动区域的光线图案图像通过通讯接口上传至数字地图模块,数字地图模块建立含有坐标信息的数字地图;包括:A:图像采集模块采集天花板上光线图案的完整图像;B:提取图像的特征点;C:设定坐标原点,并标记特征点对应的室内二维物理坐标;D:生成机器人预设活动区域的数字地图的格式化数据。
图像采集摄像头,实时采集机器人所在位置对应的光线图像,如:图像采集摄像头1在位置A实时采集光线图像3,在位置B实时采集图像4,分别如图3、图4所示。
B:图像处理模块对采集的图像进行灰度化、除噪处理、特征点提取,其处理过程如下,
1:灰度化
将图像进行灰度化处理,获取灰度图像,可以在最大限度保留原有图像信息的基础上减小图像的数据量,提高图像处理速度。使用加权平均法进行灰度化处理
根据重要性及其它指标,将三个分量以不同的权值进行加权平均。按下式对RGB三分量进行加权平均能得到较合理的灰度图像。
f(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j))
2:图像去噪,纹理增强
对地面纹理进行分析,采用Canny边缘检测算法。Canny检测算法基于Sobel算子,核心是使用两个不同阈值确定哪些点属于轮廓:一个低值和一个高值。通过良好的边缘检测,可以在图像中清晰的描绘出地面的纹理边缘线。
3、特征点提取
在不同图像之间匹配特征时,我们采用SURF(Speed Up Robust Features)——加速鲁棒特征。
SURF的实现如下,首先对每个像素计算Hessian矩阵以得到特征,该矩阵测量一个函数的局部曲率,定义如下:
该矩阵的行列式给出曲率的强度,定义角点为具有较高局部曲率的图像点(即在多个方向具有高曲率)。由于该矩阵是二阶导数组成的,它可以使用不同σ尺度的LaplacianGaussian核进行计算,因此Hessian变成了三个变量的函数:H(x,y,σ)。当Hessian值同时在空间域和尺度域上达到局部极大值时,即为该点的尺度不变特征。
S4:图像匹配模块提取图像的特征,并在数字地图中搜索符合其图像特征的物理坐标;先检测和提取图像的特征点,然后在数字地图中进行匹配。
平面上的点模式匹配的一般问题是确定仿射变换下两个点集是否匹配。现设第一个点集为模型点,一共有n个点,第二个点集为图象点,有m个点。设第二个点集是第一个点集经过某个仿射变换得到的,但由于噪声的作用,点的相对位置有微小的变化,而且第一个点集中可能有部分点(称为缺少点)在第二个点集中找不到对应点,第二个点集中可能随机出现一些新的点(称为伪)。
Hausdorff距离是描述两组点集之间相似程度的一种量度,它是两个点集之间距离的一种定义形式:假设有两组集合A={a1,…,ap},B={b1,…,bq},则这两个点集合之间的Hausdorff距离定义为H(A,B)=max(h(A,B),h(B,A)) (1)
其中,
h(A,B)=max(a∈A)min(b∈B)‖a-b‖ (2)
h(B,A)=max(b∈B)min(a∈A)‖b-a‖ (3)
‖·‖是点集A和B点集间的距离范式
这里,式(1)称为双向Hausdorff距离,是Hausdorff距离的最基本形式;式(2)中的h(A,B)和h(B,A)分别称为从A集合到B集合和从B集合到A集合的单向Hausdorff距离.即h(A,B)实际上首先对点集A中的每个点ai到距离此点ai最近的B集合中点bj之间的距离‖ai-bj‖进行排序,然后取该距离中的最大值作为h(A,B)的值.h(B,A)同理可得.
由式(1)知,双向Hausdorff距离H(A,B)是单向距离h(A,B)和h(B,A)两者中的较大者,它度量了两个点集间的最大不匹配程度。
使用SURF特征和描述子,可以实现尺度不变匹配。该算法为每个检测到的特征定义了位置和尺度,尺度值可用于定义围绕特征点的窗口大小,不论物体的尺度如何,窗口中都将包含相同的视觉信息,这些信息将用来进行特征点匹配,来确定采集的位置A的图像3;及采集的位置B的图像4的物理坐标。
S5:图像显示模块显示位置A、位置B在数字地图中所处位置,其它位置的处理过程与上述过程相同,这样图像显示模块可以实时显示移动机器人在数字地图中的坐标与位置,为运动控制***对移动机器人的移动导航提供方位支持。
实施例2
本实施例与实施1的不同之处在于,激光发生器5投射的光线为不可见光,图像采集摄像头设置滤光片,将其它波长的光过滤掉,保留激光发生器发出的不可见光。
以上所述者,仅为本发明的较佳实施例而已,不能以此限定本发明实施的范围,即但凡依本发明申请专利范围及发明说明内容所作的简单的等效变化与修饰,皆仍属本发明专利涵盖的范围内。
Claims (7)
1.基于机器视觉的移动机器人的自主精确定位***,其特征在于:包括安装在移动机器人内部的定位控制器、光轴垂直于天花板平面的图像采集摄像头以及激光发生器,其中:
所述定位控制器包括微处理器与通讯接口,所述的微处理器设置数字地图模块、图像处理模块、图像匹配模块;
通讯接口与图像采集摄像头相连接,微处理器通过通讯接口控制图像采集摄像头进行图像采集、接收图像数据并通过图像处理模块与图像匹配模块实现移动机器人的精确定位;
所述激光发生器设置于天花板下方,用于在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;
所述图像采集摄像头通过通讯接口与微处理器连接,用于实时采集机器人所处位置正上方的天花板光线图案并上传至微处理器;
还包括定位显示模块,所述定位显示模块与微处理器连接,用于在数字地图中实时显示机器人所处位置。
2.根据权利要求1所述的基于机器视觉的移动机器人的自主精确定位***,其特征在于:所述激光发生器在机器人预设活动区域对应的天花板上投射的光线为可见光。
3.根据权利要求1所述的基于机器视觉的移动机器人的自主精确定位***,其特征在于:所述激光发生器在机器人预设活动区域对应的天花板上投射的光线为不可见光。
4.根据权利要求3所述的基于机器视觉的移动机器人的自主精确定位***,其特征在于:所述图像采集摄像头镜头包含滤光片,用于过滤非激光器发射波长的光。
5.根据权利要求1所述的基于地面特征的室内移动机器人的自主精确定位***,其特征在于:所述的通讯接口为网络接口、USB接口或者1394接口。
6.基于机器视觉的移动机器人的自主精确定位方法,其特征在于:包括以下步骤:
步骤a:***初始化:
S1:激光发生器在机器人预设活动区域对应的天花板上投射具有特定特征的光线图案;
S2:数字地图模块建立上述光线图案的含有物理坐标信息的数字地图;
步骤b :定位:
S3:图像采集摄像头实时采集机器人所在位置对应的天花板的光线图案图像;
S4:图像处理模块对采集的图像进行预处理;
S5:图像匹配模块提取图像的特征,并在数字地图中搜索符合其图像特征的物理坐标;
S6:图像显示模块实时显示机器人在数字地图中所处位置。
7.基于机器视觉的室内移动机器人的自主精确定位方法,其特征在于:步骤S2中,按如下步骤进行:
A:图像采集摄像头按一定次序采集机器人预设活动区域的多幅光线图案图像,并标记其采集图像时地面的物理坐标,将上述数据通过通讯接口上传至数字地图模块;
B:数字地图模块将多幅光线图案图像拼接成完整的图像;
C:设定坐标原点,在图像中标记采集图像时地面的物理坐标;
D:生成机器人预设活动区域含有物理坐标信息的数字地图的格式化数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510033871.8A CN105865438A (zh) | 2015-01-22 | 2015-01-22 | 基于机器视觉的移动机器人的自主精确定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510033871.8A CN105865438A (zh) | 2015-01-22 | 2015-01-22 | 基于机器视觉的移动机器人的自主精确定位*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105865438A true CN105865438A (zh) | 2016-08-17 |
Family
ID=56623404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510033871.8A Pending CN105865438A (zh) | 2015-01-22 | 2015-01-22 | 基于机器视觉的移动机器人的自主精确定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105865438A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106370188A (zh) * | 2016-09-21 | 2017-02-01 | 旗瀚科技有限公司 | 一种基于3d摄像机的机器人室内定位与导航方法 |
CN106444774A (zh) * | 2016-11-01 | 2017-02-22 | 西安理工大学 | 基于室内照明灯的移动机器人视觉导航方法 |
CN107843258A (zh) * | 2017-10-17 | 2018-03-27 | 深圳悉罗机器人有限公司 | 室内定位***及方法 |
CN108115722A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 移动机器人精度检测***及方法 |
CN108181610A (zh) * | 2017-12-22 | 2018-06-19 | 鲁东大学 | 室内机器人定位方法和*** |
CN108414980A (zh) * | 2018-02-12 | 2018-08-17 | 东南大学 | 一种基于点状红外激光的室内定位装置 |
CN109269477A (zh) * | 2018-10-08 | 2019-01-25 | 塔米智能科技(北京)有限公司 | 一种视觉定位方法、装置、设备和存储介质 |
CN109827575A (zh) * | 2019-01-28 | 2019-05-31 | 深圳市普渡科技有限公司 | 基于定位标识的机器人定位方法 |
CN110450167A (zh) * | 2019-08-27 | 2019-11-15 | 南京涵曦月自动化科技有限公司 | 一种机器人红外激光定位运动轨迹规划方法 |
CN112468736A (zh) * | 2020-10-26 | 2021-03-09 | 珠海市一微半导体有限公司 | 一种智能补光的天花板视觉机器人及其控制方法 |
CN113124850A (zh) * | 2019-12-30 | 2021-07-16 | 北京极智嘉科技股份有限公司 | 机器人、地图生成方法、电子设备及存储介质 |
CN114947652A (zh) * | 2019-03-21 | 2022-08-30 | 深圳阿科伯特机器人有限公司 | 导航、划分清洁区域方法及***、移动及清洁机器人 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082912A (zh) * | 2006-06-01 | 2007-12-05 | 上海杰图软件技术有限公司 | 通过具有位置信息的图片集对电子地图进行标注的方法 |
US20090323121A1 (en) * | 2005-09-09 | 2009-12-31 | Robert Jan Valkenburg | A 3D Scene Scanner and a Position and Orientation System |
CN101957194A (zh) * | 2009-07-16 | 2011-01-26 | 北京石油化工学院 | 基于嵌入式的移动机器人快速视觉定位及远程监控***及方法 |
CN102818568A (zh) * | 2012-08-24 | 2012-12-12 | 中国科学院深圳先进技术研究院 | 室内机器人的定位与导航***及方法 |
CN103197679A (zh) * | 2013-03-22 | 2013-07-10 | 长沙理工大学 | 一种轨道式巡检机器人的精确定位方法 |
-
2015
- 2015-01-22 CN CN201510033871.8A patent/CN105865438A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090323121A1 (en) * | 2005-09-09 | 2009-12-31 | Robert Jan Valkenburg | A 3D Scene Scanner and a Position and Orientation System |
CN101082912A (zh) * | 2006-06-01 | 2007-12-05 | 上海杰图软件技术有限公司 | 通过具有位置信息的图片集对电子地图进行标注的方法 |
CN101957194A (zh) * | 2009-07-16 | 2011-01-26 | 北京石油化工学院 | 基于嵌入式的移动机器人快速视觉定位及远程监控***及方法 |
CN102818568A (zh) * | 2012-08-24 | 2012-12-12 | 中国科学院深圳先进技术研究院 | 室内机器人的定位与导航***及方法 |
CN103197679A (zh) * | 2013-03-22 | 2013-07-10 | 长沙理工大学 | 一种轨道式巡检机器人的精确定位方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106370188A (zh) * | 2016-09-21 | 2017-02-01 | 旗瀚科技有限公司 | 一种基于3d摄像机的机器人室内定位与导航方法 |
CN106444774B (zh) * | 2016-11-01 | 2019-06-18 | 西安理工大学 | 基于室内照明灯的移动机器人视觉导航方法 |
CN106444774A (zh) * | 2016-11-01 | 2017-02-22 | 西安理工大学 | 基于室内照明灯的移动机器人视觉导航方法 |
CN108115722A (zh) * | 2016-11-28 | 2018-06-05 | 沈阳新松机器人自动化股份有限公司 | 移动机器人精度检测***及方法 |
CN107843258A (zh) * | 2017-10-17 | 2018-03-27 | 深圳悉罗机器人有限公司 | 室内定位***及方法 |
CN107843258B (zh) * | 2017-10-17 | 2020-01-17 | 深圳悉罗机器人有限公司 | 室内定位***及方法 |
CN108181610A (zh) * | 2017-12-22 | 2018-06-19 | 鲁东大学 | 室内机器人定位方法和*** |
CN108414980A (zh) * | 2018-02-12 | 2018-08-17 | 东南大学 | 一种基于点状红外激光的室内定位装置 |
CN109269477A (zh) * | 2018-10-08 | 2019-01-25 | 塔米智能科技(北京)有限公司 | 一种视觉定位方法、装置、设备和存储介质 |
CN109827575A (zh) * | 2019-01-28 | 2019-05-31 | 深圳市普渡科技有限公司 | 基于定位标识的机器人定位方法 |
CN114947652A (zh) * | 2019-03-21 | 2022-08-30 | 深圳阿科伯特机器人有限公司 | 导航、划分清洁区域方法及***、移动及清洁机器人 |
CN110450167A (zh) * | 2019-08-27 | 2019-11-15 | 南京涵曦月自动化科技有限公司 | 一种机器人红外激光定位运动轨迹规划方法 |
CN113124850A (zh) * | 2019-12-30 | 2021-07-16 | 北京极智嘉科技股份有限公司 | 机器人、地图生成方法、电子设备及存储介质 |
CN113124850B (zh) * | 2019-12-30 | 2023-07-28 | 北京极智嘉科技股份有限公司 | 机器人、地图生成方法、电子设备及存储介质 |
CN112468736A (zh) * | 2020-10-26 | 2021-03-09 | 珠海市一微半导体有限公司 | 一种智能补光的天花板视觉机器人及其控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105865438A (zh) | 基于机器视觉的移动机器人的自主精确定位*** | |
CN105865419A (zh) | 基于地面特征的移动机器人的自主精确定位***及方法 | |
Nissimov et al. | Obstacle detection in a greenhouse environment using the Kinect sensor | |
CN102773862B (zh) | 用于室内移动机器人的快速精确定位***及其工作方法 | |
CN202702247U (zh) | 用于室内移动机器人的快速精确定位*** | |
CN102735235B (zh) | 基于二维码的室内移动机器人定位*** | |
Alismail et al. | Automatic calibration of a range sensor and camera system | |
CN110415342A (zh) | 一种基于多融合传感器的三维点云重建装置与方法 | |
Yu et al. | An autonomous restaurant service robot with high positioning accuracy | |
US11614743B2 (en) | System and method for navigating a sensor-equipped mobile platform through an environment to a destination | |
CN109472831A (zh) | 面向压路机施工过程的障碍物识别测距***及方法 | |
CN105469418A (zh) | 基于摄影测量的大视场双目视觉标定装置及方法 | |
CN103512579A (zh) | 一种基于热红外摄像机和激光测距仪的地图构建方法 | |
CN106646474A (zh) | 一种非结构化道路凹凸障碍物检测装置 | |
CN101726741A (zh) | 提取特征信息的设备和方法及创建特征地图的设备和方法 | |
CN105865437A (zh) | 基于射频识别的移动机器人的自主精确定位***及方法 | |
CN104751119A (zh) | 基于信息融合的行人快速检测跟踪方法 | |
CN113052903A (zh) | 一种用于移动机器人的视觉与雷达融合定位方法 | |
CN108459597A (zh) | 一种用于处理任务区域的任务的移动电子设备以及方法 | |
CN102788572A (zh) | 一种工程机械吊钩姿态的测量方法、装置及*** | |
Yuan et al. | An automated 3D scanning algorithm using depth cameras for door detection | |
CN103136525A (zh) | 一种利用广义Hough变换的异型扩展目标高精度定位方法 | |
CN111964680A (zh) | 一种巡检机器人的实时定位方法 | |
CN103679087B (zh) | 基于射频技术的定位方法 | |
Liu et al. | Intensity image-based LiDAR fiducial marker system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160817 |