CN111337011A - 一种基于激光和二维码融合的室内定位方法 - Google Patents

一种基于激光和二维码融合的室内定位方法 Download PDF

Info

Publication number
CN111337011A
CN111337011A CN201911257092.0A CN201911257092A CN111337011A CN 111337011 A CN111337011 A CN 111337011A CN 201911257092 A CN201911257092 A CN 201911257092A CN 111337011 A CN111337011 A CN 111337011A
Authority
CN
China
Prior art keywords
robot
dimensional code
pose
binary image
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911257092.0A
Other languages
English (en)
Inventor
林欢
李栗
张利平
程敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yijiahe Technology Co Ltd
Original Assignee
Yijiahe Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yijiahe Technology Co Ltd filed Critical Yijiahe Technology Co Ltd
Priority to CN201911257092.0A priority Critical patent/CN111337011A/zh
Publication of CN111337011A publication Critical patent/CN111337011A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Toxicology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于激光和二维码融合的室内定位方法,包括以下步骤:利用激光传感器获取激光定位数据计算机器人的第一位姿ht;利用二维码室内定位数据计算机器人的第二位姿kt;利用粒子滤波,对第一位姿ht和第二位姿kt进行融合,获得机器人的最终位姿;生成粒子;利用位姿预测方程更新生成的粒子状态;利用观测模型更新粒子权值;计算状态变量估计值,最终的状态变量估计值即为机器人的最终位姿。本发明克服了光照变化的影响,大大提高了机器人的定位精度,有效避免了机器人的定位丢失问题。

Description

一种基于激光和二维码融合的室内定位方法
技术领域
本发明涉及巡检机器人领域,具体涉及一种基于激光和二维码融合的室内定位方法。
背景技术
定位是机器人通过感知自身和周围环境信息,经过一定的数据处理得到自身位姿的过程。 自主移动机器人的室内定位作为机器人研究领域中最基本的问题已经被广泛研究。目前室内 移动机器人的定位方法主要包括导航信标定位和基于激光的概率地图定位。信标定位利用人 工路标或自然路标和三角原理进行定位,依赖于一系列环境中已知特征的信标,并需要在移 动机器人上安装视觉传感器对信标进行观测。基于信标的定位***可以提供快速、稳定、精 确的绝对位置信息,但是容易受到室内光照强度变化的影响。基于激光的概率地图定位,利 用概率论来表示不确定性,将机器人方位表示为对所有可能的机器人位姿的一个概率分布, 概率最大的位置就是机器人的位置,该方法定位精度高,但由于实际运行中,室内真实环境 变化等因素的影响,机器人容易出现迷路的情况,并且有一定几率丢失定位的情况发生。
粒子滤波(PF:Particle Filter)的思想基于蒙特卡洛方法(Monte Carlomethods),它 是利用粒子集来表示概率,可以用在任何形式的状态空间模型上。其核心思想是通过从后验 概率中抽取的随机状态粒子来表达其分布,是一种顺序重要性采样法(Sequential Importance Sampling)。简单来说,粒子滤波法是指通过寻找一组在状态空间传播的随机样 本对概率密度函数进行近似,以样本均值代替积分运算,从而获得状态最小方差分布的过程。 这里的样本即指粒子,当样本数量N→∝时可以逼近任何形式的概率密度分布。粒子滤波技术 在非线性、非高斯***表现出来的优越性,决定了它的应用范围非常广泛。另外,粒子滤波 器的多模态处理能力,也是它应用广泛的原因之一。国际上,粒子滤波已被应用于各个领域。 在经济学领域,它被应用在经济数据预测;在军事领域已经被应用于雷达跟踪空中飞行物, 空对空、空对地的被动式跟踪;在交通管制领域它被应用在对车或人视频监控;它还用于机 器人的地图定位。
发明内容
为了解决上述问题,本发明提出了一种基于激光和二维码融合的室内定位方法,包括以 下步骤:
S1利用激光传感器获取激光定位数据计算机器人的第一位姿ht,包括:
计算机器人的预测位姿初值;
以预测位姿初值为中心,基于定位扫描参数确定各扫描角度,获取不同扫描角度的离散 扫描数据,计算不同扫描角度下机器人的位姿构成预测位姿初值的所有的候选位姿;
计算每个候选位姿的置信度和置信度分值,选择置信度分值最高的候选位姿作为第一位 姿ht,所述最高的置信度分值为scoremax
S2利用二维码室内定位数据计算机器人的第二位姿kt,包括:
拍摄含有位于室内的二维码的图像;
对图像进行二值化处理得到二值图像;
获得二值图像中的二维码的目标区域;
根据二值图像中的二维码的目标区域确定机器人的位姿,即机器人的第二位姿kt
S3利用粒子滤波,对第一位姿ht和第二位姿kt进行融合,获得机器人的最终位姿,包括:
建立机器人的位姿预测方程,整合最新的激光定位数据和二维码定位数据建立观测模型, 观测模型的建立公式为:
ht=(xht,yht,γht)
kt=(xkt,ykt,γkt)
zt=λ1ht2kt=(xt,yt,γt)
其中,ht为t时刻激光传感器对机器人位姿的观测值即第一位姿,xht为t时刻激光传感器 观测到的机器人的横坐标,
yht为t时刻激光传感器观测到的机器人的纵坐标,γht为t时刻激光传感器观测到的机器人的 姿态;kt为t时刻基于二维码对机器人位姿的观测值即第二位姿,xkt为t时刻基于二维码观 测到的机器人的横坐标,
ykt为t时刻基于二维码观测到的机器人的纵坐标,γkt为t时刻基于二维码观测到的机器人的 姿态;xt为t时刻整合激光传感器和基于二维码的观测数据后机器人的横坐标,
ykt为t时刻整合激光传感器和基于二维码的观测数据后机器人的纵坐标,γt为t时刻整合激 光传感器和基于二维码的观测数据后机器人的姿态;λ1为第一位姿的权重,λ2为第二位姿的 权重,λ12=1,λ1=scoremax
生成粒子;
利用位姿预测方程更新生成的粒子状态;
利用观测模型更新粒子权值;
计算状态变量估计值,最终的状态变量估计值即为机器人的最终位姿。
进一步地,所述拍摄含有位于室内顶部的二维码的图像具体为包括:
拍摄二维码的摄像头设置于机器人的顶端,二维码以I为间隔,贴于天花板上,摄像头竖 直向上拍摄,I的计算公式如下:
I=wL/f
其中,w是镜头的成像宽度,L是天花板到摄像头的距离,f是镜头焦距。
进一步地,所述对图像进行二值化处理具体包括:
采用加权平均法对图像进行灰度化处理,得到灰度图像,采用最大类间方差法对灰度图像进 行二值化处理,得到二值图像。
进一步地,所述获得二值图像中的二维码的目标区域具体为:
利用二维码的实际尺寸,计算二维码在二值图像中的像素尺寸;然后按行和列扫描二值 图像,根据二维码的像素尺寸对扫描到的目标区域进行过滤,最终得到二值图像中二维码的 目标区域,具体为:
二维码在图像中的像素尺寸计算方式如下:
Figure BDA0002310571560000031
其中,d为二值图像对应的实际图像的实际物理长度,m为二值图像的像素长度,L0为 二维码目标区域的像素长度,W0为二维码目标区域的像素宽度,L为二维码的实际物理长度, W为二维码的实际物理宽度;
逐行扫描二值图像,记录左右边界点在二值图像中的位置,确定左右边界点之间的形成 的目标区域的像素长度l的范围,当l∈(L0-5,L0+5),且左右边界点分别位于二值图像中 的同一列时,逐列扫描二值图像,记录左右边界点在二值图像中的位置,确定该目标区域(逐 行扫描时和逐列扫描时左右边界点之间共同形成的目标区域)的像素长度w的范围,当w∈ (W0-5,W0+5)且上下边界点分别位于图像中的同一行时,将该目标区域标记为二维码的目 标区域。
进一步地,所述第二位姿kt的具体计算公式为:
Figure BDA0002310571560000032
其中,xq和yq分别为二维码的目标区域中任一点的横坐标和纵坐标;假设二值图像的中 心点为O,摄像头在二维空间中的位置即机器人的位置点为O′,二值图像中二维码的中心点 为Q,由于摄像头为竖直向上拍摄,因此点O′在地图坐标系中的x值即为图像中心点O的x 值,点O′在地图坐标系中的y值即为二值图像中心点0的y值,因此ΔX为机器人的位置点O′和 实际空间中二维码的中心点的x轴方向上的位移差,ΔY为机器人的位置点O′和实际空间中二 维码的中心点的y轴方向上的位移差,具体地:
Figure BDA0002310571560000041
Figure BDA0002310571560000042
其中,m为二值图像的像素长度,n为二值图像的像素宽度,m/2为二值图像的中心点O 到二值图像左右两边的距离,u为二值图像中的二维码的左边界所在的像素行数,v为二值图 像中的二维码的右边界所在的像素行数,u+(v-u)/2为二值图像中二维码的中心点所在的像 素列数;n/2为二值图像的中心点O到上下边界的距离,r为二维码的上边界所在的像素行数, s为二维码的下边界所在的像素行数,r+(s-r)/2为二值图像中二维码的中心点所在的像素 行数。
进一步地,所述建立机器人的位姿预测方程具体为:
通过来自机器人的激光传感器的两帧激光中的位姿,确定机器人初始位姿P0(x0,y0,θ0)以 及初始速度
Figure BDA0002310571560000043
其中,x0,y0分别为激光传感器观测到的机器人初始的横坐标和 纵坐标,θ0为激光传感器观测到的机器人初始的姿态;
Figure BDA0002310571560000044
分别为激光传感器观测到的机 器人初始速度的横坐标的分量和纵坐标分量,
Figure BDA0002310571560000045
为激光传感器观测到的机器人初始速度的姿 态分量;根据最新接收的惯性导航数据得到的机器人的加速度信息
Figure BDA0002310571560000046
更新机器人 的运动速度,其中
Figure BDA0002310571560000047
为t时刻机器人在X轴方向的加速度、
Figure BDA0002310571560000048
为t时刻机器人在y轴方向的 加速度,
Figure BDA0002310571560000049
为t时刻机器人角加速度。假设t时刻机器人的速度为
Figure BDA00023105715600000410
则机器人的 位姿预测方程可以表示为:
Pt T=PT t-1+[(Vt-1+At-1)Δt]T+ut-1
其中,Pt、Pt-1分别为机器人分别在t时刻、t-1时刻接收连续两帧激光数据对应的位姿,
Figure BDA00023105715600000411
为t-1时刻机器人的速度,
Figure BDA00023105715600000412
为t-1时刻机器人在x轴方向的速度,
Figure BDA00023105715600000413
为t-1时刻机器人在y轴方向的速度,
Figure BDA00023105715600000414
为t-1时刻机器人的角速度,ut-1为t-1时刻的*** 噪声。
进一步地,所述利用观测模型更新粒子权值具体为:
使用基于激光传感器和基于二维码的室内定位得到的观测值更新粒子的权重,随着观测 值的依次到达,为每个粒子计算相应的权重;该权重代表了预测的位姿取每个粒子时获得观 测的概率;对所有粒子都进行这样的评价,越接近观测值的粒子,获得的权重越高;权重的 计算方式如下:
ωi=1/di
其中ωi为第i个粒子的权重,di为第i粒子距离观测模型取值的欧式距离。
进一步地,所述计算状态变量估计值具体为:
通过计算所有粒子的加权平均值计算状态变量的估计值
Figure BDA0002310571560000051
即机器人接收第k帧激光数 据时机器人位姿的估计值。
进一步地,还包括,当有效粒子数Neff小于指定值时,进行重采样,反之返回到利用位姿 预测方程更新生成的粒子状态步骤进行迭代,所述有效粒子数Neff的计算公式为:
Figure BDA0002310571560000052
其中ωi为第i个粒子的权重。
与现有技术相比,本发明具有以下有益效果:
本发明克服了因室内环境光照变化对机器人定位精度的影响和机器人容易出现定位丢失 的问题,大大提高了机器人的定位精度,有效避免了机器人的定位丢失问题。
附图说明
图1为基于激光与二维码融合的机器人室内定位方法流程图。
图2为基于激光的室内定位算法流程图。
图3为扫描窗口示意图。
图4为激光点的选取示意图。
图5为基于二维码的机器人室内定位方法流程图。
图6为二维码定位示意图。
具体实施方式
下面结合附图,对本发明提出的基于激光和二维码相融合的室内定位算法进行详细描述。
本实施例中使用的坐标系包括地图坐标系、机器人坐标系和激光传感器坐标系。
机器人坐标系是以机器人为原点的坐标系,二维导航中,一般以机器人的中心点位原点。
激光传感器坐标系是以激光传感器的中心位置为原点的坐标系,激光数据的位姿使用的 是激光传感器坐标系。
位姿的比较和计算需要把不同坐标系下的数据转换到同一坐标系中,不同坐标系的转换 可以通过ROS***中的TF模块(坐标转换模块)实现。
基于激光和二维码相融合的室内定位算法分别利用激光和二维码获得的机器人的室内定 位结果,并利用粒子滤波对激光与二维码结果进行融合,最终获得机器人的位姿信息,具体 流程如下:
一、基于激光的机器人室内定位
1.计算机器人的预测位姿
如图2所示,利用里程计和惯性导航单元获得当前时刻机器人在地图坐标系下的位姿, 假定机器人在t-1时刻的位姿是(xt-1,yt-1,γt-1),上一个计算位姿的时间点为t-2,相应的 位姿是(xt-2,yt-2,γt-2),下一个计算位姿的时间点为t,相应的位姿是(xt,yt,γt)。时间点t-2 和t-1之间的时间间隔为Δt,估算机器人的运动速度V(vx,vy,vγ),vx为x轴的线速度,vy为 y轴的线速度,vγ为角速度,估算公式如下:
Figure BDA0002310571560000061
使用vx,vy,vγ来计算机器人在时间点t时刻的预测位姿初值(xt,yt,γt),由于激光传感器是均 匀采样,时间点t-1和t之间的时间间隔为Δt。
Figure BDA0002310571560000062
由于实际硬件的误差,机器人在时间点t的准确位姿与该预测位姿初值之间会有偏差。 下面通过激光测量数据和预测位姿初值对应地图数据之间符合的程度来优化预测位姿初值 (xt,yt,γt),最终获得最接近准确位姿的最优位置。
2.获取不同扫描角度的离散扫描数据
机器人以预测位姿初值为中心,基于扫描参数确定不同的扫描角度,将各扫描角度的位 姿作为预测位姿初值的所有的候选位姿;扫描参数包括位移扫描参数和角度扫描参数,如图 3所示,位移扫描参数用于限定机器人进行定位扫描时的位移范围,即在地图坐标系中,以 预测位姿初值为中心,前后左右各偏离Lcm,形成边长为2Lcm的正方形,所述正方形的边 和地图坐标系的一条坐标轴平行或垂直,所述正方形的边即为位移扫描参数。角度扫描参数 用于限定机器人进行定位扫描时的角度范围,即在地图坐标系中,以预测位姿初值的预测角 度初值γt为中心角度,左右各偏离W度的角度。不同的扫描角度下的机器人的位姿构成预测 位姿初值(xt,yt,γt)的所有的候选位姿。所述构成候选位姿的定位扫描为虚拟定位扫描,是一 个实际定位扫描的模拟,而不需要机器人实际的运动。
根据机器人的定位扫描得到的激光数据计算各扫描角度下各激光反射点对应的地图栅格 位置(即计算每个地图栅格在地图坐标系中的坐标),作为各扫描角度的离散扫描数据。对某 个扫描角度的离散扫描数据而言,若其中有重复落在同一地图栅格位置的多个激光反射点, 仅取其中一个激光反射点对应的地图栅格在地图坐标系中的坐标,如图4所示,灰色栅格为 多个激光反射点落入同一地图栅格的情况,只取灰色栅格中的一个激光反射点的坐标,用于 后续步骤的置信度的计算。
3.计算置信度
根据每个候选位姿对应的各个地图栅格的置信度(地图栅格的置信度值与地图构建过程 相关,在定位过程中为已经确定的值),计算每个候选位姿的置信度σ,公式如下:
Figure BDA0002310571560000071
Figure BDA0002310571560000072
其中,M为某个候选位姿对应的离散扫描数据中的地图栅格的总数,其中第n个地图栅格的 在地图坐标系中的坐标为(xn,yn),该地图栅格的置信度是
Figure BDA0002310571560000073
的取值范围为[0,1]。
根据每个候选位姿与预测位姿的位姿差来计算每个候选位姿对应的置信度权重ω,公式 如下:
Figure BDA0002310571560000074
其中,Δx是每个候选位姿与预测位姿之间沿x轴的位移,Δy是每个候选位姿与预测位姿 之间沿y轴的位移,ωxy是位移权重,Δr是候选位姿与预测位姿之间旋转角度,ωr是旋转角 度权重,一般ωxy和ωr取1,表示位移和旋转角度所占权重相同。
将每个候选位姿的置信度σ与置信度权重ω的乘积作为候选位姿当前的置信度分值score, 其计算公式如下:
score=σ·ω
选择置信度分值最高的位姿更新预测位姿,作为最优的预测位姿,即t时刻的第一位姿为 (xht,yht,γht)。所述第一位姿即基于三维激光传感器获得的t时刻最优的机器人的预测位姿。 所述最高的置信度分值为scoremax
二、基于二维码的机器人室内定位算法
如图5所示,基于二维码的室内定位算法首先对拍摄到的图像进行二值化处理,依次按 行和列扫描二值图像,得到图像中目标的位置和尺寸,然后根据目标的尺寸标记出二维码目 标,最后根据二维码在图像中的位置,确定机器人的位置。本发明中用于观测二维码的摄像 头位于机器人的顶端,二维码以I为间隔,贴于天花板上,摄像头竖直向上拍摄。I的计算公 式如下:
I=wL/f
其中,w是镜头的成像宽度,L是天花板到摄像头的距离,f是镜头焦距。
1.将图像进行二值化处理
首先采用加权平均的方法对图像进行灰度化处理,灰度化就是使彩色图像的R、G、B分 量值相等的过程,给R、G、B赋予不同的权值,使得R、G、B的值加权平均,即 R=G=B=(ωrR+ωgG+ωbB)/3
其中ωr、ωg、ωb分别为R、G、B的权值,在本实施例中,ωr=0.9,ωg=1.77,ωb=0.33 时,能得到最合理的灰度图像。
然后对得到的灰度图像采用最大类间方差法进行二值化处理,把灰度图像用某一灰度值 分割为前景区域和背景区域,当两个区域间的方差最大时,即代表两部分的差距最大,该灰 度值即为二值化的最小阈值,表达式如下:
G=ω1212)2
其中,前景区域像素点个数所占比例为ω1,平均灰度为μ1,背景区域像素点个数所占比 例为ω2,平均灰度为μ2,类间方差为G。在0~255的范围内遍历,找到使G最大的灰度值, 作为二值化的最小阈值T。
二值化后图像为二值图像,二值图像的表达式为:
Figure BDA0002310571560000081
其中f(a,b)为输入图像,g(a,b)为输出图像,(a,b)表示图像中的像素点,a表示像素点的 行,b表示像素点的列。
2.二维码目标的提取
首先利用二维码的实际尺寸,计算二维码在二值图像中的像素尺寸,然后按行和列扫描 二值图像,根据二维码的像素尺寸对扫描到的目标区域进行过滤,最终得到二维码的目标区 域。二维码在二值图像中的像素尺寸计算方式如下:
Figure BDA0002310571560000091
其中,d为二值图像对应的实际图像的实际物理长度,m为二值图像的像素长度,L0为 二维码目标区域的像素长度,W0为二维码目标区域的像素宽度,L为二维码的实际物理长度, W为二维码的实际物理宽度;
逐行扫描二值图像,记录左右边界点在二值图像中的位置,确定左右边界点之间的形成 的目标区域的像素长度l的范围,当l∈(L0-5,L0+5),且左右边界点分别位于二值图像中 的同一列时,逐列扫描二值图像,记录左右边界点在二值图像中的位置,确定该目标区域(逐 行扫描时和逐列扫描时左右边界点之间共同形成的目标区域)的像素长度w的范围,当w∈ (W0-5,W0+5)且上下边界点分别位于图像中的同一行时,将该目标区域标记为二维码的目 标区域。
3.对机器人进行定位
如图6所示,摄像头拍摄的图像对应的二值图像的像素尺寸为m×n,m为二值图像的像 素长度,n为二值图像的像素宽度,则二值图像的中心点O到二值图像左右两边的距离为m/2, 中心点O到上下边界的距离为n/2,逐行扫描二值图像,二维码上边界所在的像素行数为r, 下边界所在的像素行数为s,则点p所在的像素行数为r+(s-r)/2,同理逐列扫描二值图像, 二维码左边界所在的像素行数为u,右边界所在的像素行数为v,则点p所在的像素列数为 u+(v-u)/2,则ON=u+(v-u)/2-m/2,PN=n/2-[r+(s-r)/2],ON的在实际空间中对应的长度为ΔX,PN的在实际空间中对应的长度为ΔY,对应的计算方式如下:
Figure BDA0002310571560000092
Figure BDA0002310571560000093
点O′为摄像机在二维空间中的位置,也就是机器人的位置,由于实际中二维码在地图坐 标系中的位置是已知的,摄像头是竖直向上拍摄的,因此点O′在地图坐标系中的x值即为图 像中心点O的x值,点O′在地图坐标系中的y值即为图像中心点O的y值,假设t时刻,Q 点的坐标为(xq,yq),则O′点的位姿为O′(xkt,ykt,γkt),计算方法如下:
Figure BDA0002310571560000101
其中,xq和yq分别为二维码的目标区域中任一点的横坐标和纵坐标;位姿(xkt,ykt,γkt)即 为t时刻的第二位姿,所述第二位姿即基于二维码的室内定位获得的t时刻机器人的位姿。
三、基于激光与二维码融合的机器人室内定位算法
如图1所示,利用粒子滤波,对激光传感器的定位结果和二维码的定位结果进行融合, 获得机器人最终的定位结果。
1、建立机器人的位姿预测方程:
1-1、通过来自机器人的激光传感器的两帧激光中的位姿,确定机器人初始位姿P0(x0,y0,θ0)以及初始速度
Figure BDA0002310571560000102
其中,x0,y0分别为激光传感器观测到的机器人初始 的横坐标和纵坐标,θ0为激光传感器观测到的机器人初始的姿态;
Figure BDA0002310571560000103
分别为激光传感器 观测到的机器人初始速度的横坐标的分量和纵坐标分量,
Figure BDA00023105715600001013
为激光传感器观测到的机器人初 始速度的姿态分量。
1-2、根据IMU(Inertial measurement unit,惯性测量单元)得到最新的机器人的加速度信息
Figure BDA0002310571560000104
更新机器人的运动速度,其中
Figure BDA0002310571560000105
为t时刻机器人在X轴方向的加速度、
Figure BDA0002310571560000106
为t 时刻机器人在y轴方向的加速度,
Figure BDA0002310571560000107
为t时刻机器人角加速度。假设t时刻机器人的速度为
Figure BDA0002310571560000108
则机器人的位姿预测方程可以表示为:
Pt T=PT t-1+[(Vt-1+At-1)Δt]T+ut-1
其中,Pt、Pt-1分别为机器人分别在t时刻、t-1时刻接收连续两帧激光数据对应的位姿,
Figure BDA0002310571560000109
为t-1时刻机器人的速度,
Figure BDA00023105715600001010
为t-1时刻机器人在x轴方向的速度,
Figure BDA00023105715600001011
为t-1时刻机器人在y轴方向的速度,
Figure BDA00023105715600001012
为t-1时刻机器人的角速度,ut-1为t-1时刻的*** 噪声。
将最新的激光定位数据和二维码定位数据进行合理的整合,建立观测模型:
ht=(xht,yht,γht)
kt=(xkt,ykt,γkt)
zt=λ1ht2kt=(xt,yt,γt)
其中,ht为t时刻激光传感器对机器人位姿的观测值即第一位姿,xht为t时刻激光传感器 观测到的机器人的横坐标,yht为t时刻激光传感器观测到的机器人的纵坐标,γht为t时刻激 光传感器观测到的机器人的姿态;kt为t时刻基于二维码对机器人位姿的观测值即第二位姿, xkt为t时刻基于二维码观测到的机器人的横坐标,ykt为t时刻基于二维码观测到的机器人的 纵坐标,γkt为t时刻基于二维码观测到的机器人的姿态;xt为t时刻整合激光传感器和基于 二维码的观测数据后机器人的横坐标,ykt为t时刻整合激光传感器和基于二维码的观测数据 后机器人的纵坐标,γt为t时刻整合激光传感器和基于二维码的观测数据后机器人的姿态;λ1为第一位姿的权重,λ2为第二位姿的权重,λ12=,λ1=scoremax
2.生成粒子:根据预先确定机器人的初始位姿P0=(x0,y0,θ0),初始时刻在机器人的运动 范围内随机生成N个均匀分布的粒子,且粒子具有
Figure BDA0002310571560000111
三个特征。
3.利用机器人运动模型更新粒子状态:根据步骤1中求取的机器人的运动位姿预测方程, 更新步骤2中每一个粒子的状态。
4.更新粒子权值:使用基于激光传感器和基于二维码的室内定位得到的观测值更新粒子的 权重,随着观测值的依次到达,为每个粒子计算相应的权重;该权重代表了预测的位姿取每 个粒子时获得观测的概率;对所有粒子都进行这样的评价,越接近观测值的粒子,获得的权 重越高;权重的计算方式如下:
ωi=1/di
其中ωi为第i个粒子的权重,di为第i粒子距离观测模型取值的欧式距离。
5.计算状态变量估计值:通过计算所有粒子的加权平均值计算状态变量的估计值
Figure BDA0002310571560000112
即 机器人接收第k帧激光数据时机器人位姿的估计值。
6.重采样:为了解决计算过程中的权值退化问题,采用有效粒子数Neff衡量粒子的退化程 度:
Figure BDA0002310571560000113
其中ωi为第i个粒子的权重,有效粒子数Neff越小,表明权值退化越严重。当Neff的值小 于阈值Nth时,进行重采样;反之则返回步骤3。重采样的具体方法为:根据粒子的权重对粒 子进行筛选,筛选过程中,既要大量保留权重大的粒子,舍弃一小部分权重小的粒子,代之 以权重较大的粒子,重复步骤3-6,直到机器人停止运动。
本发明克服了因室内环境光照变化对机器人定位精度的影响和机器人容易出现定位丢失 的问题,大大提高了机器人的定位精度,有效避免了机器人的定位丢失问题。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之 内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于激光和二维码融合的室内定位方法,其特征在于,包括以下步骤:
S1利用激光传感器获取激光定位数据计算机器人的第一位姿ht,包括:
计算机器人的预测位姿初值;
以预测位姿初值为中心,基于定位扫描参数确定各扫描角度,获取不同扫描角度的离散扫描数据,计算不同扫描角度下机器人的位姿构成预测位姿初值的所有的候选位姿;
计算每个候选位姿的置信度和置信度分值,选择置信度分值最高的候选位姿作为第一位姿ht,所述最高的置信度分值为scoremax
S2利用二维码室内定位数据计算机器人的第二位姿kt,包括:
拍摄含有位于室内的二维码的图像;
对图像进行二值化处理得到二值图像;
获得二值图像中的二维码的目标区域;
根据二值图像中的二维码的目标区域确定机器人的位姿,即机器人的第二位姿kt
S3利用粒子滤波,对第一位姿ht和第二位姿kt进行融合,获得机器人的最终位姿zt,包括:建立机器人的位姿预测方程,整合最新的激光定位数据和二维码定位数据建立观测模型,观测模型的建立公式为:
ht=(xht,yht,γht)
kt=(xkt,ykt,γkt)
zt=λ1ht2kt=(xt,yt,γt)
其中,ht为t时刻激光传感器对机器人位姿的观测值即第一位姿,xht为t时刻激光传感器观测到的机器人的横坐标,yht为t时刻激光传感器观测到的机器人的纵坐标,γht为t时刻激光传感器观测到的机器人的姿态;kt为t时刻基于二维码对机器人位姿的观测值即第二位姿,xkt为t时刻基于二维码观测到的机器人的横坐标,ykt为t时刻基于二维码观测到的机器人的纵坐标,γkt为t时刻基于二维码观测到的机器人的姿态;xt为t时刻整合激光传感器和基于二维码的观测数据后机器人的横坐标,ykt为t时刻整合激光传感器和基于二维码的观测数据后机器人的纵坐标,γt为t时刻整合激光传感器和基于二维码的观测数据后机器人的姿态;λ1为第一位姿的权重,λ2为第二位姿的权重,λ12=1,λ1=scoremax
生成粒子;
利用位姿预测方程更新生成的粒子状态;
利用观测模型更新粒子权值;
计算状态变量估计值,最终的状态变量估计值即为机器人的最终位姿。
2.根据权利要求1所述的基于激光和二维码融合的室内定位方法,其特征在于,所述拍摄含有位于室内顶部的二维码的图像具体为包括:
拍摄二维码的摄像头设置于机器人的顶端,二维码以I为间隔,贴于天花板上,摄像头竖直向上拍摄,I的计算公式如下:
I=wL/f
其中,w是镜头的成像宽度,L是天花板到摄像头的距离,f是镜头焦距。
3.根据权利要求2所述的基于激光和二维码融合的室内定位方法,其特征在于,所述对图像进行二值化处理具体包括:
采用加权平均法对图像进行灰度化处理,得到灰度图像,采用最大类间方差法对灰度图像进行二值化处理,得到二值图像。
4.根据权利要求3所述的基于激光和二维码融合的室内定位方法,其特征在于,所述获得二值图像中的二维码的目标区域具体为:
利用二维码的实际尺寸,计算二维码在二值图像中的像素尺寸;然后按行和列扫描二值图像,根据二维码的像素尺寸对扫描到的目标区域进行过滤,最终得到二值图像中二维码的目标区域,具体为:
二维码在图像中的像素尺寸计算方式如下:
Figure FDA0002310571550000021
其中,d为二值图像对应的实际图像的实际物理长度,m为二值图像的像素长度,L0为二维码目标区域的像素长度,W0为二维码目标区域的像素宽度,L为二维码的实际物理长度,W为二维码的实际物理宽度;
逐行扫描二值图像,记录左右边界点在二值图像中的位置,确定左右边界点之间的形成的目标区域的像素长度l的范围,当l∈(L0-5,L0+5),且左右边界点分别位于二值图像中的同一列时,逐列扫描二值图像,记录左右边界点在二值图像中的位置,确定该目标区域(逐行扫描时和逐列扫描时左右边界点之间共同形成的目标区域)的像素长度w的范围,当w∈(W0-5,W0+5)且上下边界点分别位于图像中的同一行时,将该目标区域标记为二维码的目标区域。
5.根据权利要求4所述的基于激光和二维码融合的室内定位方法,其特征在于,所述第二位姿kt的具体计算公式为:
Figure FDA0002310571550000031
其中,xa和yq分别为二维码的目标区域中任一点的横坐标和纵坐标;假设二值图像的中心点为O,摄像头在二维空间中的位置即机器人的位置点为O′,二值图像中二维码的中心点为Q,由于摄像头为竖直向上拍摄,因此点O′在地图坐标系中的x值即为图像中心点O的x值,点O′在地图坐标系中的y值即为二值图像中心点O的y值,因此ΔX为机器人的位置点O′和实际空间中二维码的中心点的x轴方向上的位移差,ΔY为机器人的位置点O′和实际空间中二维码的中心点的y轴方向上的位移差,具体地:
Figure FDA0002310571550000032
Figure FDA0002310571550000033
其中,m为二值图像的像素长度,n为二值图像的像素宽度,m/2为二值图像的中心点O到二值图像左右两边的距离,u为二值图像中的二维码的左边界所在的像素行数,v为二值图像中的二维码的右边界所在的像素行数,u+(v-u)/2为二值图像中二维码的中心点所在的像素列数;n/2为二值图像的中心点O到上下边界的距离,r为二维码的上边界所在的像素行数,s为二维码的下边界所在的像素行数,r+(s-r)/2为二值图像中二维码的中心点所在的像素行数。
6.根据权利要求5所述的基于激光和二维码融合的室内定位方法,其特征在于,所述建立机器人的位姿预测方程具体为:
通过来自机器人的激光传感器的两帧激光中的位姿,确定机器人初始位姿P0(x0,y0,θ0)以及初始速度
Figure FDA0002310571550000034
其中,x0,y0分别为激光传感器观测到的机器人初始的横坐标和纵坐标,θ0为激光传感器观测到的机器人初始的姿态;
Figure FDA0002310571550000035
分别为激光传感器观测到的机器人初始速度的横坐标的分量和纵坐标分量,
Figure FDA0002310571550000036
为激光传感器观测到的机器人初始速度的姿态分量;根据最新接收的惯性导航数据得到的机器人的加速度信息
Figure FDA0002310571550000037
更新机器人的运动速度,其中
Figure FDA0002310571550000038
为t时刻机器人在X轴方向的加速度、
Figure FDA0002310571550000039
为t时刻机器人在y轴方向的加速度,
Figure FDA00023105715500000310
为t时刻机器人角加速度。假设t时刻机器人的速度为
Figure FDA00023105715500000311
则机器人的位姿预测方程可以表示为:
Pt T=PT t-1+[(Vt-1+At-1)Δt]T+ut-1
其中,Pt、Pt-1分别为机器人分别在t时刻、t-1时刻接收连续两帧激光数据对应的位姿,
Figure FDA0002310571550000041
为t-1时刻机器人的速度,
Figure FDA0002310571550000042
为t-1时刻机器人在x轴方向的速度,
Figure FDA0002310571550000043
为t-1时刻机器人在y轴方向的速度,
Figure FDA0002310571550000044
为t-1时刻机器人的角速度,ut-1为t-1时刻的***噪声。
7.根据权利要求6所述的基于激光和二维码融合的室内定位方法,其特征在于,所述利用观测模型更新粒子权值具体为:
使用基于激光传感器和基于二维码的室内定位得到的观测值更新粒子的权重,随着观测值的依次到达,为每个粒子计算相应的权重;该权重代表了预测的位姿取每个粒子时获得观测的概率;对所有粒子都进行这样的评价,越接近观测值的粒子,获得的权重越高;权重的计算方式如下:
ωi=1/di
其中ωi为第i个粒子的权重,di为第i粒子距离观测模型取值的欧式距离。
8.根据权利要求7所述的基于激光和二维码融合的室内定位方法,其特征在于,所述计算状态变量估计值具体为:
通过计算所有粒子的加权平均值计算状态变量的估计值
Figure FDA0002310571550000046
即机器人接收第k帧激光数据时机器人位姿的估计值。
9.根据权利要求8所述的基于激光和二维码融合的室内定位方法,其特征在于,还包括,当有效粒子数Neff小于指定值时,进行重采样,反之返回到利用位姿预测方程更新生成的粒子状态步骤进行迭代,所述有效粒子数Neff的计算公式为:
Figure FDA0002310571550000045
其中ωi为第i个粒子的权重。
CN201911257092.0A 2019-12-10 2019-12-10 一种基于激光和二维码融合的室内定位方法 Pending CN111337011A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911257092.0A CN111337011A (zh) 2019-12-10 2019-12-10 一种基于激光和二维码融合的室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911257092.0A CN111337011A (zh) 2019-12-10 2019-12-10 一种基于激光和二维码融合的室内定位方法

Publications (1)

Publication Number Publication Date
CN111337011A true CN111337011A (zh) 2020-06-26

Family

ID=71185741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911257092.0A Pending CN111337011A (zh) 2019-12-10 2019-12-10 一种基于激光和二维码融合的室内定位方法

Country Status (1)

Country Link
CN (1) CN111337011A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111947647A (zh) * 2020-08-26 2020-11-17 四川阿泰因机器人智能装备有限公司 一种视觉与激光雷达融合的机器人精准定位方法
CN113405544A (zh) * 2021-05-08 2021-09-17 中电海康集团有限公司 一种移动机器人的建图与定位方法及***
CN113432533A (zh) * 2021-06-18 2021-09-24 北京盈迪曼德科技有限公司 一种机器人定位方法、装置、机器人及存储介质
WO2024001339A1 (zh) * 2022-07-01 2024-01-04 华为云计算技术有限公司 确定位姿的方法、装置以及计算设备
CN117824666A (zh) * 2024-03-06 2024-04-05 成都睿芯行科技有限公司 融合定位用二维码对、二维码标定方法及融合定位方法
CN117824667A (zh) * 2024-03-06 2024-04-05 成都睿芯行科技有限公司 一种基于二维码和激光的融合定位方法及介质

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197899A (zh) * 2014-09-24 2014-12-10 中国科学院宁波材料技术与工程研究所 移动机器人定位方法及***
CN104424457A (zh) * 2013-08-20 2015-03-18 复旦大学 一种非线性扭曲情况下的二维码识别方法
CN104933387A (zh) * 2015-06-24 2015-09-23 上海快仓智能科技有限公司 一种基于二维码解码的快速定位识别的方法
CN105184208A (zh) * 2015-09-02 2015-12-23 福建联迪商用设备有限公司 一种二维码初步定位方法及***
CN105651286A (zh) * 2016-02-26 2016-06-08 中国科学院宁波材料技术与工程研究所 一种移动机器人视觉导航方法与***、以及仓库***
CN105701434A (zh) * 2015-12-30 2016-06-22 广州卓德信息科技有限公司 二维码扭曲图像的图像校正方法
CN106123908A (zh) * 2016-09-08 2016-11-16 北京京东尚科信息技术有限公司 车辆导航方法和***
CN106323294A (zh) * 2016-11-04 2017-01-11 新疆大学 变电站巡检机器人定位方法及定位装置
CN106485183A (zh) * 2016-07-14 2017-03-08 深圳市华汉伟业科技有限公司 一种二维码定位方法及***
CN107451508A (zh) * 2017-09-20 2017-12-08 天津通信广播集团有限公司 一种自定义二维码定位和定向***及实现方法
CN108225303A (zh) * 2018-01-18 2018-06-29 水岩智能科技(宁波)有限公司 二维码定位标签、基于二维码的定位导航***和方法
CN108253958A (zh) * 2018-01-18 2018-07-06 亿嘉和科技股份有限公司 一种稀疏环境下的机器人实时定位方法
CN108458715A (zh) * 2018-01-18 2018-08-28 亿嘉和科技股份有限公司 一种基于激光地图的机器人定位初始化方法
CN109002046A (zh) * 2018-09-21 2018-12-14 中国石油大学(北京) 一种移动机器人导航***及导航方法
CN109029418A (zh) * 2018-05-29 2018-12-18 威马智慧出行科技(上海)有限公司 一种在封闭区域内对车辆进行定位的方法
CN109211251A (zh) * 2018-09-21 2019-01-15 北京理工大学 一种基于激光和二维码融合的即时定位与地图构建方法
EP3438698A1 (de) * 2017-08-01 2019-02-06 Ford Global Technologies, LLC Verfahren zum betrieb eines kraftfahrzeugs mit einem lidar-sensor
CN109443351A (zh) * 2019-01-02 2019-03-08 亿嘉和科技股份有限公司 一种稀疏环境下的机器人三维激光定位方法
CN109579824A (zh) * 2018-10-31 2019-04-05 重庆邮电大学 一种融入二维码信息的自适应蒙特卡诺定位方法
CN109753838A (zh) * 2018-12-12 2019-05-14 深圳市三宝创新智能有限公司 二维码识别方法、装置、计算机设备及存储介质
CN110196044A (zh) * 2019-05-28 2019-09-03 广东亿嘉和科技有限公司 一种基于gps闭环检测的变电站巡检机器人建图方法
CN110309687A (zh) * 2019-07-05 2019-10-08 华中科技大学 一种二维码图像的校正方法及校正装置
CN110319834A (zh) * 2018-03-30 2019-10-11 深圳市神州云海智能科技有限公司 一种室内机器人定位的方法及机器人

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104424457A (zh) * 2013-08-20 2015-03-18 复旦大学 一种非线性扭曲情况下的二维码识别方法
CN104197899A (zh) * 2014-09-24 2014-12-10 中国科学院宁波材料技术与工程研究所 移动机器人定位方法及***
CN104933387A (zh) * 2015-06-24 2015-09-23 上海快仓智能科技有限公司 一种基于二维码解码的快速定位识别的方法
CN105184208A (zh) * 2015-09-02 2015-12-23 福建联迪商用设备有限公司 一种二维码初步定位方法及***
CN105701434A (zh) * 2015-12-30 2016-06-22 广州卓德信息科技有限公司 二维码扭曲图像的图像校正方法
CN105651286A (zh) * 2016-02-26 2016-06-08 中国科学院宁波材料技术与工程研究所 一种移动机器人视觉导航方法与***、以及仓库***
CN106485183A (zh) * 2016-07-14 2017-03-08 深圳市华汉伟业科技有限公司 一种二维码定位方法及***
CN106123908A (zh) * 2016-09-08 2016-11-16 北京京东尚科信息技术有限公司 车辆导航方法和***
CN106323294A (zh) * 2016-11-04 2017-01-11 新疆大学 变电站巡检机器人定位方法及定位装置
EP3438698A1 (de) * 2017-08-01 2019-02-06 Ford Global Technologies, LLC Verfahren zum betrieb eines kraftfahrzeugs mit einem lidar-sensor
CN107451508A (zh) * 2017-09-20 2017-12-08 天津通信广播集团有限公司 一种自定义二维码定位和定向***及实现方法
CN108225303A (zh) * 2018-01-18 2018-06-29 水岩智能科技(宁波)有限公司 二维码定位标签、基于二维码的定位导航***和方法
CN108458715A (zh) * 2018-01-18 2018-08-28 亿嘉和科技股份有限公司 一种基于激光地图的机器人定位初始化方法
CN108253958A (zh) * 2018-01-18 2018-07-06 亿嘉和科技股份有限公司 一种稀疏环境下的机器人实时定位方法
CN110319834A (zh) * 2018-03-30 2019-10-11 深圳市神州云海智能科技有限公司 一种室内机器人定位的方法及机器人
CN109029418A (zh) * 2018-05-29 2018-12-18 威马智慧出行科技(上海)有限公司 一种在封闭区域内对车辆进行定位的方法
CN109002046A (zh) * 2018-09-21 2018-12-14 中国石油大学(北京) 一种移动机器人导航***及导航方法
CN109211251A (zh) * 2018-09-21 2019-01-15 北京理工大学 一种基于激光和二维码融合的即时定位与地图构建方法
CN109579824A (zh) * 2018-10-31 2019-04-05 重庆邮电大学 一种融入二维码信息的自适应蒙特卡诺定位方法
CN109753838A (zh) * 2018-12-12 2019-05-14 深圳市三宝创新智能有限公司 二维码识别方法、装置、计算机设备及存储介质
CN109443351A (zh) * 2019-01-02 2019-03-08 亿嘉和科技股份有限公司 一种稀疏环境下的机器人三维激光定位方法
CN110196044A (zh) * 2019-05-28 2019-09-03 广东亿嘉和科技有限公司 一种基于gps闭环检测的变电站巡检机器人建图方法
CN110309687A (zh) * 2019-07-05 2019-10-08 华中科技大学 一种二维码图像的校正方法及校正装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111947647A (zh) * 2020-08-26 2020-11-17 四川阿泰因机器人智能装备有限公司 一种视觉与激光雷达融合的机器人精准定位方法
CN111947647B (zh) * 2020-08-26 2024-05-17 四川阿泰因机器人智能装备有限公司 一种视觉与激光雷达融合的机器人精准定位方法
CN113405544A (zh) * 2021-05-08 2021-09-17 中电海康集团有限公司 一种移动机器人的建图与定位方法及***
CN113405544B (zh) * 2021-05-08 2024-02-09 中电海康集团有限公司 一种移动机器人的建图与定位方法及***
CN113432533A (zh) * 2021-06-18 2021-09-24 北京盈迪曼德科技有限公司 一种机器人定位方法、装置、机器人及存储介质
CN113432533B (zh) * 2021-06-18 2023-08-15 北京盈迪曼德科技有限公司 一种机器人定位方法、装置、机器人及存储介质
WO2024001339A1 (zh) * 2022-07-01 2024-01-04 华为云计算技术有限公司 确定位姿的方法、装置以及计算设备
CN117824666A (zh) * 2024-03-06 2024-04-05 成都睿芯行科技有限公司 融合定位用二维码对、二维码标定方法及融合定位方法
CN117824667A (zh) * 2024-03-06 2024-04-05 成都睿芯行科技有限公司 一种基于二维码和激光的融合定位方法及介质
CN117824666B (zh) * 2024-03-06 2024-05-10 成都睿芯行科技有限公司 融合定位用二维码对、二维码标定方法及融合定位方法
CN117824667B (zh) * 2024-03-06 2024-05-10 成都睿芯行科技有限公司 一种基于二维码和激光的融合定位方法及介质

Similar Documents

Publication Publication Date Title
CN110221603B (zh) 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN111337011A (zh) 一种基于激光和二维码融合的室内定位方法
CN109345588B (zh) 一种基于Tag的六自由度姿态估计方法
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
Veľas et al. Calibration of rgb camera with velodyne lidar
CN110825101B (zh) 一种基于深度卷积神经网络的无人机自主降落方法
Dong et al. Plenoptic cameras in real-time robotics
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP3880702B2 (ja) 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム
CN105700525B (zh) 基于Kinect传感器深度图机器人工作环境不确定性地图构建法
CN111076733A (zh) 一种基于视觉与激光slam的机器人室内建图方法及***
WO2022217988A1 (zh) 传感器配置方案确定方法、装置、计算机设备、存储介质及程序
Nagy et al. SFM and semantic information based online targetless camera-LIDAR self-calibration
Wang et al. Autonomous landing of multi-rotors UAV with monocular gimbaled camera on moving vehicle
CN111292369A (zh) 激光雷达的伪点云数据生成方法
CN111160280B (zh) 基于rgbd相机的目标物体识别与定位方法及移动机器人
CN116619358A (zh) 一种矿山自主探测机器人自适应定位优化与建图方法
Zhou et al. Comparative analysis of SLAM algorithms for mechanical LiDAR and solid-state LiDAR
CN114529585A (zh) 基于深度视觉和惯性测量的移动设备自主定位方法
CN107093187A (zh) 一种无人机飞行速度的测量方法及装置
CN111553342B (zh) 一种视觉定位方法、装置、计算机设备和存储介质
CN116879870A (zh) 一种适用于低线束3d激光雷达的动态障碍物去除方法
RU2583756C2 (ru) Способ определения местоположения на основе сигнатур изображений городской застройки в видимом и инфракрасном диапазонах
Lim et al. MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks
Li et al. Fast and robust mapping with low-cost Kinect V2 for photovoltaic panel cleaning robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200626