CN113203419A - 基于神经网络的室内巡检机器人校正定位方法 - Google Patents

基于神经网络的室内巡检机器人校正定位方法 Download PDF

Info

Publication number
CN113203419A
CN113203419A CN202110448691.1A CN202110448691A CN113203419A CN 113203419 A CN113203419 A CN 113203419A CN 202110448691 A CN202110448691 A CN 202110448691A CN 113203419 A CN113203419 A CN 113203419A
Authority
CN
China
Prior art keywords
robot
follows
path
neural network
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110448691.1A
Other languages
English (en)
Other versions
CN113203419B (zh
Inventor
宋永端
张�杰
赖俊峰
刘欢
蒋自强
黄力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110448691.1A priority Critical patent/CN113203419B/zh
Publication of CN113203419A publication Critical patent/CN113203419A/zh
Priority to US17/589,179 priority patent/US11953903B2/en
Application granted granted Critical
Publication of CN113203419B publication Critical patent/CN113203419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/227Handing over between remote control and on-board control; Handing over between remote control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/644Optimisation of travel parameters, e.g. of energy consumption, journey time or distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • H04B17/318Received signal strength

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及一种基于神经网络的室内巡检机器人校正定位方法。包括如下步骤:预设N个可发射射频信号的标签信号源位置;根据不同时刻接收到的信号标签数量计算机器人实际路径;计算机器人在t时刻的运动位置信息,并根据该位置信息计算t时刻的预测路径;利用神经网络建立里程误差模型并进行训练;将t时刻的预测路径输入到训练好的里程误差模型得到优化后的预测路径。本发明所使用的里程计校正方法,通过最大限度地减小里程计误差,进而最大限度地提高对室内机器人定位的精准度。

Description

基于神经网络的室内巡检机器人校正定位方法
技术领域
本发明涉及巡检机器人领域,特别涉及基于神经网络的室内巡检机器人校正定位方法。
背景技术
当前安全生产是企业稳定发展的前提和重要保证,安全事故不仅会造成人员伤亡,还会带来财产损失,严重制约着企业快速健康的发展,尤其是在核电站、钢铁厂、化工厂、油库、变电站等危险作业环境下,保障各个设备仪器安全平稳的运行,是企业安全生产的有效手段,定时、不间断的巡检工作是十分有必要的。目前,在变电站、油库等危险作业环境下,主要的巡检方式是人工巡检,依靠工人运动感官、抄表、记录以及使用一些相配套的检测仪器对工厂的仪器设备进行检查,但是这种人工巡检方式,由于各种外界因素的影响,导致其巡检质量难以得到保证,并且巡检效率很低。为了提高巡检工作效率,保证各个仪器设备安全可靠运行,使用自动巡检机器人部分替代人工巡检工作已经成为一种趋势。
然而在工厂中由于各种原因导致巡检机器人的定位成为难点,在如今普遍应用视觉的基础上,里程计作为机器人本体感受传感器,不可避免地存在随时间、距离增加而增加地累计航机误差,现有技术针对室内巡检机器人采用的里程计定位方法,由于受室内复杂环境因素条件的影响,以及***和非***因素的影响,造成了里程计在计算时会产生较大的误差。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:现有技术中室内巡检机器人所采用的里程计定位方法,在室内环境因素较为复杂的条件下,里程计会产生较大误差的问题。
为解决上述技术问题,本发明采用如下技术方案:基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
Figure BDA0003037785290000021
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
Figure BDA0003037785290000022
其中,
Figure BDA0003037785290000023
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
Figure BDA0003037785290000031
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
作为优选,所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
Figure BDA0003037785290000041
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
Figure BDA0003037785290000042
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
Figure BDA0003037785290000043
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
Figure BDA0003037785290000044
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,将式(2-8)对
Figure BDA0003037785290000045
求导,因为
Figure BDA0003037785290000046
得到:
Figure BDA0003037785290000047
得到巡检机器人在读取到n个标签时的预测坐标为:
Figure BDA0003037785290000051
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
Figure BDA0003037785290000052
其中,t表示第t时刻,
Figure BDA0003037785290000053
表示t-1时刻到t时刻的时间均值;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
在某一个时刻,当机器人上的射频读写器获得不同的标签信号数量时,一般会使用不同的定位算法,这样可以更准确的采集到机器人运行的实际路径;一般情况下,当获得两个及其以下的标签信号时,采用概率定位法,当获得三个标签信号时使用三边定位法,当获得四个及其以上的标签信号时,则使用极大似然定位法。根据不同数量采用不同的定位算法,可以有效的减小因输入数据量不同而带来的误差影响。
作为优选,所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
Figure BDA0003037785290000054
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
Figure BDA0003037785290000055
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
作为优选,所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
Figure BDA0003037785290000061
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1};
神经网络输出层的结果为:
Figure BDA0003037785290000062
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
该部分主要通过神经网络构建里程误差模型,神经网络的过程主要分为两个阶段:第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,神经网络利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,实现获得所有神经网络层的误差估计,并最终通过损失函数E依次得到神经网络的各个参数。
相对于现有技术,本发明至少具有如下优点:
1.本发明基于神经网络的室内巡检机器人里程计校正方法最大限度地减小里程计误差,从而最大限度地提高定位精度。
2.神经网络方法的主要优点是它可以适用于任何里程计模型和高速工作幻境,另一个优点是该方法与平台无关,在建模之前不需要配置里程计误差变量。
3.本发明适用于一般室内环境中的地图绘制等任务,在复杂的环境中也能很好的工作。
附图说明
图1为射频识别室内定位技术定位算法流程图。
图2为BP神经网络结构图。
图3-a为机器人在线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
图3-b为机器人在非线性运动中机器人实际路径、广义线性模型处理的预测路径、神经网络训练中的优化路径1与神经网络训练后的优化路径2对比图。
具体实施方式
下面对本发明作进一步详细说明。
由于环境复杂的因素,巡检机器人的定位是一个急需攻克的研究难点,在如今普遍应用视觉的基础上,里程计具有自包含的优点,它能够依据运动学模型来自我推测机器人的航机,在短距离、短时间内能获得较好的定位性能。所以可以通过优化里程计误差达到机器人的精确定位,而射频识别的室内定位技术具有无须人工干预,抗干扰性强的特点,可工作于各种恶劣环境,所以此方法将作为室内巡检机器人里程计优化的辅助定位设备。
参见图1,基于神经网络的室内巡检机器人校正定位方法,包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,每个标签发出的信号强度都是一个定值,但是当阅读器与标签的间距不同时,接受标签发送的信号强度也就不一样。这种强度的衰减,称为信号的传播损耗,利用理论和经验传播损耗模型,可将传输损耗转化为距离,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,所有标签的初始发送信号强度相同;α表示路径长度和路径损耗之间的比例因子,依赖于障碍物的结构和使用的材料;Xσ表示平均值为0的高斯分布随机变数,也就是信号穿过障碍物的衰减;d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
Figure BDA0003037785290000081
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;由式(2-2)可以看出常数P(d)和α的数值决定了接收信号强度和信号传输距离的关系,当使用环境确定后,它们都可以当作常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
Figure BDA0003037785290000082
其中,
Figure BDA0003037785290000083
其中,E、K、M、N表示计算过程参数,无实际意义。
具体实施时,计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
Figure BDA0003037785290000091
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
Figure BDA0003037785290000092
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
Figure BDA0003037785290000093
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
Figure BDA0003037785290000094
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,将式(2-8)对
Figure BDA0003037785290000095
求导,因为
Figure BDA0003037785290000096
得到:
Figure BDA0003037785290000097
得到巡检机器人在读取到n个标签时的预测坐标为:
Figure BDA0003037785290000098
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
Figure BDA0003037785290000101
其中,t表示第t时刻,
Figure BDA0003037785290000102
表示t-1时刻到t时刻的时间均值;因为机器人在实时行走的,而传感器获得无线信号和定位程序计算机器人位置需要有个Δt时间,所以在t时刻计算出来的位置实际上是t-1时刻传感器获得的信息计算出来的坐标(xt-1,yt-1),但实际上t时刻机器人的位置坐标是(xt,yt),所以在Δt时间内,机器人行走的距离就为移动机器人实时定位的定位误差;
在实际定位中,传感器所获得的定位信息存在一定波动,这种信号的变化主要是因为所处环境不同所导致的,为了减少无线信号波动带来的误差,采用在单位时间内取已获得的信号强度平均值的方法来提高精度,如下式:
Figure BDA0003037785290000103
其中,j表示单位时间内计算得到的坐标个数,
Figure BDA0003037785290000104
即为单位平均时间内得到坐标点;
在机器人行走的过程中,由于采取了取平均值的方法,所以机器人在Δt时间内从P(t-1)点运动到P(t)点,定位***计算位置坐标近似估计为
Figure BDA0003037785290000105
时刻
Figure BDA0003037785290000106
所对应的
Figure BDA0003037785290000107
点;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点;
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,该实际路径是根据射频定位技术得到的坐标点再经过建模得到的,是神经网络的目标集;RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到1个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
Figure BDA0003037785290000111
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
具体实施时,计算机器人运动的位置信息的具体步骤为:
S310:采用360PPR的增量式光电编码器,具有相差为90°的双路脉冲输出,可以通过双路脉冲的相位变化来判断车轮的旋转方向。光电编码器安装在驱动电动机的轴伸上,直接测量电动机的转动。电动机通过15倍的减速器驱动车轮,这意味着车轮旋转一周,电动机将旋转15周,采用车轮直径为250mm,计算理论上的里程计分辨率为:
Figure BDA0003037785290000112
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:机器人从t-1时刻的姿态St-1=(xt-1,yt-1,θt-1)运动到t时刻的St=(xt,yt,θt),通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
Figure BDA0003037785290000113
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络,神经网络为现有技术,建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径,即预测路径经过神经网络训练后,得到的优化输出结果;
参见图2,具体实施时,建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
Figure BDA0003037785290000121
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,1},本实例中的激励函数为sigmoid函数,具体表示为:
Figure BDA0003037785290000122
因为神经网络的隐含层节点数对最终得到的结果有一定影响,故给出隐含层节点数量的优化公式:
Figure BDA0003037785290000123
其中l表示隐含层中的神经元个数,对于本实例,隐含层节点数l=13会有最佳的性能;
神经网络输出层的结果为:
Figure BDA0003037785290000131
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;机器人的里程计误差模型是非线性的,神经网络作为一种非线性建模工具被广泛认可,将两层前馈神经网络应用于机器人里程误差模型,采用反向传播算法对这两层进行感知训练;反向传播的工作原理是将下降规则应用于前馈网络,并用于优化网络参数。
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
根据以上实施例可知,通过与广义线性模型处理得到的预测路径对比,参见图3-a和图3-b所示,可以发现用神经网络方法估计机器人的最终位置与用射频识别定位计算机器人的实际位置几乎相同,故通过神经网络对于室内巡检机器人里程计的校正方法能够最大限度地减小里程计误差。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (4)

1.基于神经网络的室内巡检机器人校正定位方法,其特征在于:包括如下步骤:
S100:在室内预设N个标签信号源位置,该标签信号源可发射射频信号;
S200:将用于接受标签信号源信号的读写器设置在室内机器人上,机器人在室内行进过程中,根据读写器在不同时刻接收到的信号标签数量,计算机器人实际路径,具体步骤如下:
S210:根据接收到的标签信号强度,建立对数-常态分布传播损耗模型,具体表达式如下:
P(d)=P(d0)-10αlog(d/d0)-Xσ (2-1)
其中,P(d)表示阅读器接收到标签发送的信号强度,P(d0)表示阅读器在参考点d0接受到标签发送的信号强度,α表示路径长度和路径损耗之间的比例因子,Xσ表示平均值为0的高斯分布随机变数,d0表示参考点和标签之间的距离,d表示需要计算的标签和阅读器之间的距离;
S220:利用公式(2-1)通过等式变换求得标签信号源到读写器的距离d,具体表达式如下:
Figure FDA0003037785280000011
其中,P(d0)表示在1m处所得到的信号强度,α表示信号传播常量;
S230:在一定时间区间T内,随机选取I个时刻,设第t个时刻读写器接收到的标签信号数量为n,则计算第t时刻机器人的实际坐标点为:
Figure FDA0003037785280000012
其中,
Figure FDA0003037785280000021
S240:利用I个时刻的机器人坐标进行建模,计算得到机器人的实际路径,具体表达式如下:
RSSI={RSSIx,RSSIy}={x1′,x2′,...,xn′,y1′,y2′,...,yn′} (2-4)
其中,RSSI={RSSIx,RSSIy}表示机器人的实际路径,RSSIx和RSSIy表示通过射频识别定位计算得到的x坐标位置和y坐标位置;
S250:采用S210-S240的方法得到I个时刻的机器人运行的实际路径;
S300:计算所述的第t个时刻计算机器人运动的位置信息,机器人位置信息计算表达式如下:
Figure FDA0003037785280000022
其中,ut=(ΔDt,Δθt)T表示位姿增量,St=(xt,yt,θt)表示机器人t时刻的姿态,(x,y)表示t时刻机器人的坐标,θ表示t时刻的方向角,ΔDt是机器人在Δt时间内运动所经过的弧长,Δθt是机器人Δt时间内的位姿方向角的变化;
S400:应用广义线性模型处理步骤S300得到的机器人t时刻的位置信息,计算得到机器人t时刻的预测路径,具体表达式如下:
GLM={x1,x2,...,xn,y1,y2,...,yn} (4-1)
其中,x1...n是广义线性模型估计的预测路径的x坐标位置,y1...n是广义线性模型估计的预测路径的y坐标位置,得到每个时刻所对应的预测路径;
S500:利用神经网络建立里程误差模型,具体表达式如下:
E=∑n|O-RSSI|2 (5-1)
其中,O表示优化后的预测路径;
S600:预设最大迭代次数,将所述I个时刻的实际路径和对应的预测路径作为神经网络模型输入,对误差模型E进行训练,训练过程中通过反向传播更新该模型参数,当E≤e-5时候停止训练,得到训练好的里程误差模型;
S700:重复步骤S300-S400,得到待预测机器人R’的预测行进路径,将该预测行进路径输入到步骤S600训练好的里程误差模型得到优化后的预测行进路径,该优化后的预测行进路径即为机器人R’的行进路径预测值。
2.如权利要求1所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S230中计算第t时刻机器人的实际坐标点的具体步骤如下:
S231:设装有读写巡检机器人R的坐标为(x,y),n个标签信号源的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、…、(xn,yn),具体表达式如下:
Figure FDA0003037785280000031
其中,d1、d2、d3、…、dn表示标签信号源到巡检机器人R的距离;
S232:将公式(2-4)代入到公式(2-5)中,得到表达式如下:
Figure FDA0003037785280000032
将公式(2-6)用线性方程表示为:
AX=b (2-7)
其中:
Figure FDA0003037785280000041
S233:使用标准的最小二乘估计方法处理公式(2-7),得到如下表达式:
Figure FDA0003037785280000042
其中,A是非奇异矩阵,且M>2,则方程数大于未知量数目的超定方程组,
将式(2-8)对
Figure FDA0003037785280000043
求导,因为
Figure FDA0003037785280000044
得到:
Figure FDA0003037785280000045
得到巡检机器人在读取到n个标签时的预测坐标为:
Figure FDA0003037785280000046
S234:计算巡检机器人在读取到n个标签时的实际坐标,实际坐标的具体表达式如下:
Figure FDA0003037785280000047
其中,t表示第t时刻,
Figure FDA0003037785280000048
表示t-1时刻到t时刻的时间均值;
S235:将公式(2-7)代入公式(2-11)得到公式(2-3),公式(2-3)即第t时刻机器人的实际坐标点。
3.如权利要求2所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述S300中计算机器人运动的位置信息的具体步骤为:
S310:计算理论上的里程计分辨率为:
Figure FDA0003037785280000049
其中,δ表示里程计的分辨率,D表示车轮直径(mm),η表示驱动电动机的减速比,P表示编码器的精度;
S320:设采样间隔时间Δt,计算左(右)车轮的增量位移ΔdL(ΔdR),具体表达式如下:
ΔdL=δ·NL (3-3)
其中,NL(NR)表示左(右)驱动车轮的光电编码器输出的脉冲增量;
S330:通过车轮的增量位移计算机器人的位姿增量,具体表达式如下:
Figure FDA0003037785280000051
其中,β表示左驱动车轮与右驱动车轮之间的间距;
S340:当机器人终止位姿和起始位姿的方向角的差值|Δθt|>0时,计算得到机器人的位置信息。
4.如权利要求3所述的基于神经网络的室内巡检机器人校正定位方法,其特征在于:所述500中建立里程误差模型E的具体步骤为:
S510:设神经网络结构中输入层有q个神经元,隐含层有l个神经元,输出层有m个神经元;输入层与隐含层神经元之间的连接权重值为wij,隐含层和输出层神经元之间的连接权重值为wjk,隐含层偏置项为a,输出层偏置项为b;
S520:将GLM作为神经网络的输入,得到隐含层的输出结果为:
Figure FDA0003037785280000052
其中,pi代表输入GLM坐标点(xn-1,yn-1)与(xn,yn)的坐标向量,f表示激励函数,i={1,2,……,q},j={1,2,……,l};
神经网络输出层的结果为:
Figure FDA0003037785280000053
S530:将t时刻的神经网络输出层的结果和该时刻的实际路径作为损失函数的输入,以此建立里程误差模型E。
CN202110448691.1A 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法 Active CN113203419B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110448691.1A CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法
US17/589,179 US11953903B2 (en) 2021-04-25 2022-01-31 Neural network-based method for calibration and localization of indoor inspection robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110448691.1A CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法

Publications (2)

Publication Number Publication Date
CN113203419A true CN113203419A (zh) 2021-08-03
CN113203419B CN113203419B (zh) 2023-11-10

Family

ID=77028584

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110448691.1A Active CN113203419B (zh) 2021-04-25 2021-04-25 基于神经网络的室内巡检机器人校正定位方法

Country Status (2)

Country Link
US (1) US11953903B2 (zh)
CN (1) CN113203419B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117498931A (zh) * 2023-10-31 2024-02-02 国网山东省电力公司德州供电公司 一种高效的光缆巡检核查***

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116026368B (zh) * 2023-03-29 2023-07-04 上海仙工智能科技有限公司 移动机器人的参数联合标定方法及***、设备、存储介质
CN117241376B (zh) * 2023-09-14 2024-04-19 兰州理工大学 一种多策略改进bp神经网络的wsn节点定位方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028653A1 (zh) * 2015-08-14 2017-02-23 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和***
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN108036792A (zh) * 2017-12-11 2018-05-15 苏州中德睿博智能科技有限公司 一种用于移动机器人的里程计与测量位姿的数据融合方法
CN108549877A (zh) * 2018-04-23 2018-09-18 重庆大学 一种基于神经网络的循迹机器人轨迹识别方法
CN109444813A (zh) * 2018-10-26 2019-03-08 南京邮电大学 一种基于bp和dnn双神经网络的rfid室内定位方法
CN109540140A (zh) * 2018-11-23 2019-03-29 于兴虎 一种融合ssd目标识别和里程计信息的移动机器人定位方法
US20190195631A1 (en) * 2017-12-22 2019-06-27 Ubtech Robotics Corp Positioning method, positioning device, and robot
WO2019136613A1 (zh) * 2018-01-09 2019-07-18 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN110285806A (zh) * 2019-07-05 2019-09-27 电子科技大学 基于多次位姿校正的移动机器人快速精确定位算法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN110702091A (zh) * 2019-07-24 2020-01-17 武汉大学 一种沿地铁轨道移动机器人的高精度定位方法
CN111624992A (zh) * 2020-04-28 2020-09-04 北京科技大学 一种基于神经网络的搬运机器人的路径跟踪控制方法
CN112113568A (zh) * 2020-08-21 2020-12-22 华南农业大学 一种畜禽养殖场巡检机器人的位姿校正方法
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN112454359A (zh) * 2020-11-18 2021-03-09 重庆大学 基于神经网络自适应的机器人关节跟踪控制方法
CN112450820A (zh) * 2020-11-23 2021-03-09 深圳市银星智能科技股份有限公司 位姿优化方法、移动机器人及存储介质
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4079792B2 (ja) * 2003-02-06 2008-04-23 松下電器産業株式会社 ロボットの教示方法と教示機能付きロボット
US9927814B2 (en) * 2016-03-28 2018-03-27 Fetch Robotics, Inc. System and method for localization of robots
US11675359B2 (en) * 2018-06-13 2023-06-13 Nvidia Corporation Path detection for autonomous machines using deep neural networks
US11592573B2 (en) * 2020-09-15 2023-02-28 Irobot Corporation Particle filters and WiFi robot localization and mapping

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028653A1 (zh) * 2015-08-14 2017-02-23 北京进化者机器人科技有限公司 一种移动机器人室内自建地图的方法和***
CN107356252A (zh) * 2017-06-02 2017-11-17 青岛克路德机器人有限公司 一种融合视觉里程计与物理里程计的室内机器人定位方法
CN108036792A (zh) * 2017-12-11 2018-05-15 苏州中德睿博智能科技有限公司 一种用于移动机器人的里程计与测量位姿的数据融合方法
US20190195631A1 (en) * 2017-12-22 2019-06-27 Ubtech Robotics Corp Positioning method, positioning device, and robot
WO2019136613A1 (zh) * 2018-01-09 2019-07-18 深圳市沃特沃德股份有限公司 机器人室内定位的方法及装置
CN108549877A (zh) * 2018-04-23 2018-09-18 重庆大学 一种基于神经网络的循迹机器人轨迹识别方法
CN109444813A (zh) * 2018-10-26 2019-03-08 南京邮电大学 一种基于bp和dnn双神经网络的rfid室内定位方法
CN109540140A (zh) * 2018-11-23 2019-03-29 于兴虎 一种融合ssd目标识别和里程计信息的移动机器人定位方法
CN110285806A (zh) * 2019-07-05 2019-09-27 电子科技大学 基于多次位姿校正的移动机器人快速精确定位算法
CN110702091A (zh) * 2019-07-24 2020-01-17 武汉大学 一种沿地铁轨道移动机器人的高精度定位方法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN111624992A (zh) * 2020-04-28 2020-09-04 北京科技大学 一种基于神经网络的搬运机器人的路径跟踪控制方法
CN112113568A (zh) * 2020-08-21 2020-12-22 华南农业大学 一种畜禽养殖场巡检机器人的位姿校正方法
CN112129297A (zh) * 2020-09-25 2020-12-25 重庆大学 一种多传感器信息融合的自适应校正室内定位方法
CN112230243A (zh) * 2020-10-28 2021-01-15 西南科技大学 一种移动机器人室内地图构建方法
CN112454359A (zh) * 2020-11-18 2021-03-09 重庆大学 基于神经网络自适应的机器人关节跟踪控制方法
CN112450820A (zh) * 2020-11-23 2021-03-09 深圳市银星智能科技股份有限公司 位姿优化方法、移动机器人及存储介质
CN112528817A (zh) * 2020-12-04 2021-03-19 重庆大学 一种基于神经网络的巡检机器人视觉检测及跟踪方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
LI, Q. L., SONG, Y., & HOU, Z. G: "Neural network based FastSLAM for autonomous robots in unknown environments", 《NEUROCOMPUTING》, no. 165, pages 99 - 110, XP029139661, DOI: 10.1016/j.neucom.2014.06.095 *
XU, H., & COLLINS, J. J: "Estimating the odometry error of a mobile robot by neural networks", 《2009 INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND APPLICATIONS》, pages 378 - 385 *
YUZHEN, P., QUANDE, Y., & BENFA, Z: "The application of adaptive extended Kalman filter in mobile robot localization", 《2016 CHINESE CONTROL AND DECISION CONFERENCE》, pages 5337 - 5342 *
刘振;陈万米;熊奇: "移动机器人测程法定位误差分析与校正", 《电子测量技术》, no. 12, pages 82 - 88 *
苏健鹏;黄影平;赵柏淦;胡兴;: "基于深度卷积神经网络的视觉里程计研究", 《光学仪器》, no. 04, pages 36 - 43 *
闫德立等: "基于矩阵李群表示及容积卡尔曼滤波的视觉惯导里程计新方法", 《控制与决策》, vol. 35, no. 8, pages 1824 - 1827 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117498931A (zh) * 2023-10-31 2024-02-02 国网山东省电力公司德州供电公司 一种高效的光缆巡检核查***
CN117498931B (zh) * 2023-10-31 2024-06-11 国网山东省电力公司德州供电公司 一种高效的光缆巡检核查***

Also Published As

Publication number Publication date
CN113203419B (zh) 2023-11-10
US20220350329A1 (en) 2022-11-03
US11953903B2 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
CN113203419A (zh) 基于神经网络的室内巡检机器人校正定位方法
CN107239076B (zh) 基于虚拟扫描与测距匹配的agv激光slam方法
CN109358340B (zh) 一种基于激光雷达的agv室内地图构建方法及***
Meng et al. Iterative-learning error compensation for autonomous parking of mobile manipulator in harsh industrial environment
CN112882053B (zh) 一种主动标定激光雷达和编码器外参的方法
CN110032965B (zh) 基于遥感图像的视觉定位方法
CN112965063B (zh) 一种机器人建图定位方法
CN110702091A (zh) 一种沿地铁轨道移动机器人的高精度定位方法
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN110763224A (zh) 一种自动导引运输车导航方法及导航***
CN116337045A (zh) 一种基于karto和teb的高速建图导航方法
CN114474003A (zh) 一种基于参数辨识的车载建筑机器人误差补偿方法
Basiuk et al. Mobile Robot Position Determining Using Odometry Method
CN114559992A (zh) 一种列车安全防护方法、模型训练方法、装置及电子设备
KR101106265B1 (ko) Rfid를 이용한 이동 로봇의 위치측정 장치 및 위치측정 방법
CN111761583B (zh) 一种智能机器人运动定位方法及***
CN111811503B (zh) 基于超宽带和二维码的无迹卡尔曼滤波融合定位方法
CN115103299B (zh) 一种基于rfid的多传感器融合定位方法
Font et al. Mobile robot localization. Revisiting the triangulation methods
CN115981314A (zh) 基于二维激光雷达定位的机器人导航自动避障方法和***
CN114489036B (zh) 一种基于slam的室内机器人导航控制方法
CN117007045A (zh) 一种基于卡尔曼观测器的agv小车控制***及方法
Xu et al. Estimating the odometry error of a mobile robot by neural networks
Ma et al. Obstacle Avoidance for Unmanned Vehicle based on a 2D LIDAR
CN115950414A (zh) 一种不同传感器数据的自适应多重融合slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant