CN112497216B - 一种基于深度学习的工业机器人位姿精度补偿方法 - Google Patents

一种基于深度学习的工业机器人位姿精度补偿方法 Download PDF

Info

Publication number
CN112497216B
CN112497216B CN202011381879.0A CN202011381879A CN112497216B CN 112497216 B CN112497216 B CN 112497216B CN 202011381879 A CN202011381879 A CN 202011381879A CN 112497216 B CN112497216 B CN 112497216B
Authority
CN
China
Prior art keywords
industrial robot
error
robot
pose
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011381879.0A
Other languages
English (en)
Other versions
CN112497216A (zh
Inventor
田威
王伟
廖文和
李波
李鹏程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202011381879.0A priority Critical patent/CN112497216B/zh
Publication of CN112497216A publication Critical patent/CN112497216A/zh
Application granted granted Critical
Publication of CN112497216B publication Critical patent/CN112497216B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明公开一种基于深度学习的工业机器人位姿精度补偿方法,本发明结合工业机器人的误差相似性,提出了一种用于工业机器人位姿误差补偿的深度学习模型,包括构建两个深度信念网络相并联的模型架构,以工业机器人的状态特征及其对应的位姿误差参数为样本数据,采用组合对比的方式对深度学习模型进行训练,并将工业机器人的误差相似性作为到网络模型监督学习的附加特征,训练后的深度学习模型可以更精准的实现工业机器人位姿误差的预测和补偿;本发明结合了深度学习特征表达能力强和统计学可解释强的优点,以机器人误差相似性作为监督学习附加特征,引入了除机器人状态特征本身之外的对比信息,提升了深度学习模型的预测精度。

Description

一种基于深度学习的工业机器人位姿精度补偿方法
技术领域
本发明涉及工业机器人位姿误差补偿技术领域,具体涉及一种基于深度学习的工业机器人位姿精度补偿方法。
背景技术
随着智能制造战略的落实推进,工业机器人因其高效率、高灵活性、自动化程度高等特点已被逐渐应用于高端制造领域,但工业机器人绝对位姿精度远低于重复位姿精度的特点,导致工业机器人无法满足高端制造产品精度要求,特别是结合离线编程的大尺寸复杂结构的应用场景,绝对位姿精度低成为制约工业机器人在智能制造应用的主要障碍。精度补偿技术
有着低成本和通用性强的优势,是解决这一问题的有效途径。
专利CN104535027B公开了一种变参数误差辨识的机器人精度补偿方法,通过构建机器人在不同空间下的位姿点误差,根据机器人目标位姿点所在的空间,依据目标位姿点周围已知误差的位姿点,通过L-M算法来拟合目标位姿误差,该方法需要依据机器人参数运动学模型,受已经误差位姿点数和空间范围的影响。专利CN102607552A公开了一种基于神经网络的工业机器人的空间网格精度补偿方法,通过粒子群优化的BP神经网络来训练机器人在不同温度下的定位误差规律,并结合已知误差样本点的空间插值来实现机器人定位误差的预测与补偿,该方法的补偿精度与效果受插值样本精度与数量的影响,且神经网络只是用于考虑温度对机器人的影响。专利CN110385720A公开了一种基于深度神经网络的机器人定位误差补偿方法,构建了神经网络模型,以机器人理论位姿与对应的位置误差为训练样本,训练的神经网络模型可以预测机器人目标点的位置误差,该方法不需要构建复杂的运动误差模型,同时考虑了机器人定位姿态对定位误差的影响,但是误差预测过程的可解释性较弱,另外无法实现机器人姿态误差的预测与补偿。文献“周炜,廖文和,田威.基于空间插值的工业机器人精度补偿方法理论与试验[J],机械工程学报,2013(3).42-48”,“Yanfa n Zeng,WeiTian,Wenhe Liao.Positional error similarity analysis forerror co mpensation of industrial robots[J],Robotics and Computer-IntegratedManufactu ring,2016(42)113-120.”提出工业机器人的误差相似性概念,当工业机器人两组关节转角之间偏差越小时,工业机器人末端对应的位姿之间差异也越小,对应的位姿误差也越相似,并对机器人的误差相似性进行了分析与应用验证。但依据机器人误差相似性的精度补偿方法只能补偿位置误差,而且还没有将机器人误差相似性与深度学习相结合的精度补偿方法。现有的机器人精度补偿方法大致可以概括为以下不足:只实现了机器人目标位姿的位置误差补偿,姿态误差没有得到补偿;采样步长和分布对精度补偿的准确性有较大影响;误差预测模型的可解释性弱。
发明内容
(一)解决的技术问题
本发明的目的在于提供一种基于深度学习的工业机器人位姿精度补偿方法,结合工业机器人误差相似性,构件了一种用于工业机器人位姿误差补偿的深度学习模型,以工业机器人的状态特征及其对应的位姿误差参数为样本数据,训练后的深度学习模型可以更精准的实现工业机器人位姿误差的预测和补偿。本发明结合了深度学习特征表达能力强和统计学可解释强的优点,以机器人误差相似性作为监督学习附加特征,引入了除机器人状态特征本身之外的对比信息,提升了深度学习模型的预测精度。本发明可以更显著的提升工业机器人的位姿精度,拓展了工业机器人的高精度加工能力。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:一种基于深度学习的工业机器人位姿精度补偿方法,包括步骤如下:
步骤1.在工业机器人工作空间规划不同构型下的机器人状态特征数据,采集每个状态特征下所对应的机器人位姿误差参数,将形成样本数据分为训练集和验证集;
步骤2.构建两个深度信念网络相并联的深度学习网络模型架构,通过预训练、优化和微调来确定网络模型结构和参数;
步骤3.将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,进一步优化网络模型预测的准确性;
步骤4.用训练完成后深度学习模型预测工业机器人目标状态特征下的位姿误差,用预测的位姿误差来修正目标位姿的控制指令,实现工业机器人位姿精度的补偿与提高,所述用训练完成后深度学习模型预测工业机器人目标状态特征下的位姿误差,是将需要预测的机器人状态特征与已知误差的样本数据以组合对比的方式输入到训练完成后的网络模型,最终预测的位姿误差也将满足机器人的误差相似性。
进一步的,步骤1所述机器人状态特征数据包括机器人末端执行器的理论位姿坐标、机器人的速度、载荷、方向和温度特征,所述机器人状态特征,在增加了除理论位姿之外的其他特征时,需要重复步骤1-4,采集增加特征的数据,并对网络模型重新训练。
进一步的,步骤1中所述机器人位姿误差参数,为在不同机器人状态特征数据下对应测量计算得到的机器人末端执行器的位置和姿态误差;所述训练集和所述验证集为分别在所述样本数据中随机选取的90%和10%的样本。
进一步的,步骤2所述的两个深度信念网络,结构相同,均包含输入层、输出层和多层隐含层,网络的训练方式相同,通过训练样本组合对比的方式作为输入来完成网络的训练。
进一步的,步骤2所述的预训练,所述网络模型的预训练是将训练集数据以成对的方式输入到两个深度信念网络,在N组训练样本数据中随机选择2组作为网络输入,共有
Figure BDA0002809669650000031
对训练样本,通过无监督贪婪逐层预训练得到网络模型的初始化参数;来得到网络模型的初始权值,用v表示工业机器人状态特征,用h表示工业机器人位姿误差参数,用θ表示网络模型的初始化参数,建立工业机器人位姿误差预测能量函数:
Figure BDA0002809669650000041
其中v表示工业机器人状态特征,用h表示工业机器人位姿误差参数,用θ表示网络模型的初始参数,n和m分别表示工业机器人状态特征和位姿误差参数的神经元节点数,vi表示可见层在第i个神经元的工业机器人状态特征,hj表示隐含层在第j个神经元的工业机器人位姿误差参数,
Figure BDA0002809669650000042
是第i个神经元的工业机器人状态特征偏置,
Figure BDA0002809669650000043
是第j个神经元的工业机器人位姿误差参数偏置,
Figure BDA0002809669650000044
为第i个神经元的工业机器人状态特征与第j个神经元的工业机器人位姿误差参数之间的连接权重;工业机器人状态特征v和工业机器人位姿误差参数h的联合概率分布函数为:
Figure BDA0002809669650000045
其中
Figure BDA0002809669650000046
是归一化因子
在给定工业机器人状态特征的情况下,工业机器人位姿误差参数的第i个神经元开启时的条件概率表示为:
Figure BDA0002809669650000047
其中δ为介于0.5到1之间的常数,训练过程中采用对比散度来求解更新初始化参数θ:
Figure BDA0002809669650000048
式中η为学习率,τ为迭代次数,
Figure BDA0002809669650000051
表示训练数据的期望值,
Figure BDA0002809669650000052
表示可视层和隐含层之间需要来回进行k步吉布斯采样后分布的期望值;
进一步的,步骤2所述的优化,所述采用粒子群优化算法对优化预训练后的网络结构和部分参数,是在深度信念网络预训练之后,采用粒子群优化算法确定深度信念网络的隐含层节点数、动量因子和学习率;所述粒子群优化算法是通过不断更新粒子位置与速度来更新适应度,在不断的搜索过程中寻找个体极值与群体极值,最终获得群体极值便是满足条件的最优解;在工业机器人状态特征与位姿误差参数组成的搜索空间中,以D个粒子构成的粒子群X={X1,X2,X3,…,XD},其中第i个粒子的位置和速度分别为Xi={x1,x2,x3,…,xD},Vi={v1,v2,v3,…,vD};设粒子个体最佳极值为
Figure BDA0002809669650000053
最佳粒子群体极值为
Figure BDA0002809669650000054
粒子的位置和速度更新:
Xi(τ+1)=Xi(τ)+Vi(τ+1)
Vi(τ+1)=ωVi(τ)+c1r1[Xlbest(τ)-Xi(τ)]+c2r2[Xgbest(τ)-Xi(τ)]
其中,τ为迭代次数;i=1,2,3,…,D,表示第i个粒子;ω为惯性权重,c1和c2为加速度因子,r1和r2为惯性因子,是分布在[0,1]之间的随机数。Xi(τ)为第i个粒子在第τ次迭代时的位置,Vi(τ)为第i个粒子在第τ次迭代时的速度,在粒子群优化过程中以深度信念网络期望输出与实际输出之间的均方误差为适应度函数:
Figure BDA0002809669650000055
式中,N表示训练集样本数,m为网络模型输出的维数,
Figure BDA0002809669650000056
表示样本的网络期望输出值,yij表示样本的网络实际输出值;当达到粒子迭代次数达到最大迭代次数或设定适应度值达时,输出深度信念网网络的最优隐含层节点数、动量因子和学习率。
进一步的,所述采用微调来确定网络模型参数,是通过反向传播算法以监督训练的方式对粒子群优化算法优化后的深度信念网络参数进行反向微调;将最后一层的输出作为反向传播算法的输入,通过反向传播进行有监督的训练,来优化预训练所得到的初始化网络参数,设网络的实际输出和期望输出分别为y’,y,则网络的输出层对应的代价函数为:
Figure BDA0002809669650000061
其中τ为迭代次数,N为样本数量;网络输出层与最后一层隐含层之间的权值更新方式:
Figure BDA0002809669650000062
η′为反向传播算法微调时的学习率;采用同样的方式,从网络输出层开始自上而下逐层利用反向传播算法对网络参数进行微调,得到整个网络最终的权值W=(w1,w2,…,wl,wout)。
进一步的,步骤3所述将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,是将机器人误差相似性用于机器人位置误差预测的监督优化,通过设定允许的最大定位误差为ε,来设置定位误差相似性的判定条件,对于满足相似性条件的s个样本,其对应的位置误差为
Figure BDA0002809669650000063
那么网络模型预测的目标点的位置误差eP应该满足以下条件:
Figure BDA0002809669650000064
进一步的,步骤3所述的将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,对于满足误差相似条件的样本点,采用反距离加权法来对目标点的位置误差进行插值,所得位置误差值来进一步的对对应点的网络模型预测值进行优化,根据距离的大小反向求取相似性权值qi
Figure BDA0002809669650000071
Figure BDA0002809669650000072
为理论位置与相似样本点实际位置之间的距离;通过反距离加权求得的目标点P的位置误差为:
Figure BDA0002809669650000073
其中
Figure BDA0002809669650000074
是样本点Pi(i=1,2,3,…,s)的位置误差;
Figure BDA0002809669650000075
为网络模型位置误差预测监督训练的另一个误差相似性特征。
进一步的,步骤1所述机器人位姿误差参数采集,是基于工业机器人基坐标系,需要通过测量装置来构建机器人基坐标系并配置到在测量软件中,基坐标系的构建是基于机器人关节转动和右手法则。
进一步的,机器人位姿精度的补偿,是用深度学习网络模型预测的目标机器人状态特征对应的位姿误差e来校正目标位姿的理论坐标P,以修正后的位姿坐标P’(P’=P+e)作为目标位姿的工业机器人控制指令,从而实现工业机器人的绝对位姿精度的补偿与提高。
(三)有益效果
(1)可以同时实现工业机器人位置误差和姿态精度的补偿,而且机器人状态特征不仅可以为理论位姿坐标,还可以增加运行速度、末端载荷、运行方向和环境温度状态特征,用以实现综合非线性状态特征下的机器人位姿误差预测;
(2)将基于工业机器人误差相似性的统计学方法与具有强大特征表达能力的深度学习相结合,增加了误差预测可解释性;
(3)以交叉对比的方式实现深度学习模型的训练,增加了除工业机器人理论位姿与误差数据之外的对比特征,提升了模型预测的准确性;
(4)组合对比的训练方式,将样本数据集的数量从N提升到了N2,克服了深度学习需要大量样本数据的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的基于工业机器人深度学习的工业机器人位姿精度补偿方法的流程图;
图2为本发明的工业机器人位姿误差预测深度学习网络模型拓扑结构示意图;
图3为本发明的工业机器人基坐标建立示意图;
图4为本发明验证样本位置误差补偿前后对比图;
图5为本发明验证样本姿态误差补偿前后对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1-5,为了更了解本发明的技术内容,特举具体实施例并配合所附图式说明如下:
步骤1:在工业机器人末端执行器的工作空间0.4mx0.8mx0.5m范围内,规划2000个不同工业机器人构型的理论位姿样本数据,采用双目视觉测量设备同时测量工业机器人末端的实际位置和姿态坐标,计算出样本点理论位姿对应的实际位姿误差,随机将1800组样本数据作为训练集,将剩余的200组样本数据作为验证集。
本发明的工业机器人位姿精度测量是基于工业机器人基座框架的,因此,在双目视觉测量软件中需要构建工业机器人基座架,以测量工业机器人末端执行器的位姿误差。工业机器人基坐标系的构建方法如下:
将靶标点粘贴至工业机器人基座处,建立靶标点群与工业机器人基坐标系的相对位置关系。由工业机器人机械结构可知,基坐标系z轴方向与A1关节轴重合,原点为安装平面与z轴的交点,y轴为A2关节轴方向,通过旋转A1,A2轴可建立工业机器人基坐标系,步骤如下:
(1)将视觉靶标固定在工业机器人末端,同时工业机器人初始位置设为Home点位置,;
(2)分别转动关节A1,A2,由C-Track采集工业机器人圆弧运动时的点位信息,拟合成圆,记为C1,C2;
(3)以C2圆心为平面上一点,C1为法向构建平面P1,并向工业机器人基坐标系方向平移1045mm(名义尺寸),记为PB,其法向为工业机器人z轴方向;
(4)以C1圆心为平面上一点,C2为法向构建平面P2,与PB相交,交线即为基坐标系x轴,并根据工业机器人当前位置确定x轴方向;
(5)根据右手法则,确定工业机器人基坐标系y轴方向。
步骤2.构建两个深度信念网络并联结构的深度学习模型,两个深度信念网络结构相同,训练方式相同,均由4个受限玻尔兹曼机堆叠而成,隐含层为4层,隐含层节点数范围[6,54],初始化学习率为0.01。
步骤3.在1800组训练样本数据中随机选择2组作为两个深度信念网络的输入,共有1619100
Figure BDA0002809669650000091
对训练样本。通过受限玻尔兹曼机逐层预训练得到网络模型的初始化参数。
步骤3.在深度信念网络预训练之后,采用粒子群优化算法确定深度信念网络的隐含层节点数、动量因子和学习率。粒子群优化算法通过不断更新粒子位置与速度来更新适应度,在不断的搜索过程中寻找个体极值与群体极值,最终获得群体极值便是满足条件的最优解。在工业机器人理论位姿与位姿误差组成的搜索空间中,以20个粒子构成的粒子群,惯性权重ω为[0.5,1],加速度因子c1和c2为1.4965,惯性因子r1和r2是分布在[0,1]之间的随机数,粒子位置范围[-2,2],粒子速度范围[-1,1]。在粒子群优化过程中以深度信念网络期望输出与实际输出之间的均方误差为适应度函数:
Figure BDA0002809669650000101
式中,
Figure BDA0002809669650000102
表示样本的网络期望输出值,y表示样本的网络实际输出值。当达到粒子迭代次数达到150或适应度值达到0.001时。得到网络模型的隐含层1至4的最优节点数分别为28、40、28、18,动量因子为0.685,学习率为0.001。
步骤4.通过反向传播算法以监督训练的方式对粒子群优化算法优化后的深度信念网络参数进行反向微调;将最后一层首先受限玻尔兹曼机的输出作为反向传播算法的输入,通过反向传播进行有监督的训练,来优化预训练所得到的初始化网络参数,设网络的实际输出和期望输出分别为y’,y,则网络的输出层对应的代价函数为:
Figure BDA0002809669650000103
其中τ为迭代次数。
步骤5.将工业机器人误差相似性作为网络模型监督训练的附加特征。根据飞机装配机器人自动钻铆对精度的要求,设定允许的最大定位误差ε为0.3mm,对于满足相似性条件的s个样本,其对应的位置误差为
Figure BDA0002809669650000104
那么网络模型预测的目标点的位置误差eP应该满足以下条件:
Figure BDA0002809669650000105
对于满足误差相似条件的样本点,采用反距离加权法来对目标点的位置误差进行插值,所得位置误差值来进一步的对对应点的网络模型预测值进行优化,根据距离的大小反向求取相似性权值qi
Figure BDA0002809669650000111
Figure BDA0002809669650000112
为理论位置与相似样本点实际位置之间的距离;通过反距离加权求得的目标点P的位置误差为:
Figure BDA0002809669650000113
其中
Figure BDA0002809669650000114
是样本点Pi(i=1,2,3,…,s)的位置误差;
Figure BDA0002809669650000115
为网络模型位置误差预测监督训练的另一个误差相似性特征;
步骤6.用验证数据集的200个样本对训练完成的网络模型进行验证,验证样本与训练样本组成样本对输入到网络模型中,深度信念网络的输出端采用误差相似性条件计算验证样本与训练样本的相似性,使得网络模型对验证样本位置误差的预测值也满足工业机器人误差相似性;
步骤7.用网络模型预测的目标位姿误差e来校正目标位姿的理论坐标P,以修正后的位姿坐标P’(P’=P+e)作为目标位姿的工业机器人控制指令,从而实现工业机器人的绝对位姿精度的补偿与提高。经过本方法进行补偿之后,机器人末端执行器的最大位置误差由1.524mm减小到0.244mm,减小了83.99%。机器人末端执行器的最大姿态误差由0.082deg减小到0.037deg,减小了54.88%。补偿前后机器人位置误差和姿态误差结果如图4和表1所示。
表1工业机器人位置和姿态误差补偿前后对比
Figure BDA0002809669650000121
验证结果表明,所提出的基于深度学习的工业机器人位姿精度补偿方案能显著提高机器人的绝对位姿精度。通过比较定位误差的补偿效果,由表2可以看出,所提出的深度学习方案优于其他神经网络方法。除了深度学习强大的特征学习和表达能力外,它还得益于机器人误差相似度的统计方法。
表2对比其他精度补偿方法
Figure BDA0002809669650000122
综述所述,所提方案将基于工业机器人误差相似度的统计方法与具有较强特征表达能力的深度学习相结合,提高了误差预测的可解释性。交叉对比的方式除了增加了样本数据本身的特征外,还增加了机器人状态的比较特征。同时,这种组合比较训练方法也将数据集从N增加到N2,克服了难以获得大量样本数据的问题。另外,工业机器人状态特征不仅可以为理论位姿坐标,还可以增加运行速度、末端载荷、运行方向和环境温度状态特征,用以实现不同运行速度、末端载荷、运行方向和环境温度状态特征下的机器人位姿误差预测。该方案可以同时补偿位置误差和方向误差,且不要求机器人控制***具有足够高的开放权限,也不需要对机器人进行昂贵的编码器改造,因此具有较好的通用性。
在本公开中参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本公开的实施例不必定义在包括本发明的所有方面。应当理解,上面介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。

Claims (7)

1.一种基于深度学习的工业机器人位姿精度补偿方法,其特征在于,包括步骤如下:
步骤1.在工业机器人工作空间规划不同构型下的机器人状态特征数据,采集每个状态特征下所对应的机器人位姿误差参数,将形成样本数据分为训练集和验证集;所述机器人状态特征数据包括机器人末端执行器的理论位姿坐标、机器人的速度、载荷、方向和温度特征;
步骤2.构建两个深度信念网络相并联的深度学习网络模型架构,通过预训练、优化和微调来确定网络模型结构和参数;所述的两个深度信念网络结构相同,均包含输入层、输出层和多层隐含层,网络的训练方式相同,通过训练样本组合对比的方式作为输入来完成网络的训练;所述的预训练为用无监督贪婪逐层对网络进行训练,来得到网络模型的初始权值;所述的优化为采用粒子群优化算法优化预训练后的网络参数,确定网络模型的隐含层节点数、动量因子和学习率;所述的微调具体包括通过反向传播算法对优化后的网络模型进行反向微调,以工业机器人状态特征所对应的位姿误差参数为监督特征进行有监督的训练,来优化初始化的网络参数;
步骤3.将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,进一步优化网络模型预测的准确性;
步骤4.用训练完成后深度学习模型预测工业机器人目标状态特征下的位姿误差,用预测的位姿误差来修正目标位姿的控制指令,实现工业机器人位姿精度的补偿与提高。
2.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤1中所述机器人位姿误差参数,为在不同机器人状态特征数据下对应测量计算得到的机器人末端执行器的位置和姿态误差;所述训练集和所述验证集为分别在所述样本数据中随机选取的90%和10%的样本。
3.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤2所述的预训练,用v表示工业机器人状态特征,用h表示工业机器人位姿误差参数,用θ表示网络模型的初始化参数,建立工业机器人位姿误差预测能量函数:
Figure FDA0003331794180000011
其中v表示工业机器人状态特征,用h表示工业机器人位姿误差参数,用θ表示网络模型的初始参数,n和m分别表示工业机器人状态特征和位姿误差参数的神经元节点数,vi表示可见层在第i个神经元的工业机器人状态特征,hj表示隐含层在第j个神经元的工业机器人位姿误差参数,
Figure FDA0003331794180000012
是第i个神经元的工业机器人状态特征偏置,
Figure FDA0003331794180000013
是第j个神经元的工业机器人位姿误差参数偏置,
Figure FDA0003331794180000014
为第i个神经元的工业机器人状态特征与第j个神经元的工业机器人位姿误差参数之间的连接权重;工业机器人状态特征v和工业机器人位姿误差参数h的联合概率分布函数为:
Figure FDA0003331794180000021
其中
Figure FDA0003331794180000022
是归一化因子,
在给定工业机器人状态特征的情况下,工业机器人位姿误差参数的第i个神经元开启时的条件概率表示为:
Figure FDA0003331794180000023
其中δ为介于0.5到1之间的常数,训练过程中采用对比散度来求解更新初始化参数θ:
Figure FDA0003331794180000024
式中η为学习率,τ为迭代次数,<·>0表示训练数据的期望值,<·>k表示可视层和隐含层之间需要来回进行k步吉布斯采样后分布的期望值。
4.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤2所述的优化,在粒子群优化过程中以网络模型期望输出与实际输出之间的均方误差为适应度函数:
Figure FDA0003331794180000025
式中,N表示训练集样本数,m为网络模型输出的维数,
Figure FDA0003331794180000026
表示样本的网络期望输出值,yij表示样本的网络实际输出值;当达到粒子迭代次数达到最大迭代次数或设定适应度值达时,输出深度信念网络的最优隐含层节点数、动量因子和学习率。
5.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤3所述的将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,是将机器人误差相似性用于机器人位置误差预测的监督优化,通过设定允许的最大定位误差为ε,来设置定位误差相似性的判定条件,对于满足相似性条件的s个样本,其对应的位置误差为
Figure FDA0003331794180000031
那么网络模型预测的目标点的位置误差eP应该满足以下条件:
Figure FDA0003331794180000032
6.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤3所述的将工业机器人误差相似性作为深度学习网络模型监督学习的附加特征,对于满足误差相似条件的样本点,采用反距离加权法来对目标点的位置误差进行插值,所得位置误差值来进一步的对对应点的网络模型预测值进行优化,根据距离的大小反向求取相似性权值qi
Figure FDA0003331794180000033
Figure FDA0003331794180000034
为理论位置与相似样本点实际位置之间的距离;通过反距离加权求得的目标点P的位置误差为:
Figure FDA0003331794180000035
其中
Figure FDA0003331794180000036
是样本点Pi(i=1,2,3,…,s)的位置误差;
Figure FDA0003331794180000037
为网络模型位置误差预测监督训练的另一个误差相似性特征。
7.根据权利要求1所述的基于深度学习的工业机器人位姿精度补偿方法,其特征在于,步骤1所述机器人位姿误差参数采集,是基于工业机器人基坐标系,需要通过测量装置来构建机器人基坐标系并配置到在测量软件中,基坐标系的构建是基于机器人关节转动和右手法则。
CN202011381879.0A 2020-12-01 2020-12-01 一种基于深度学习的工业机器人位姿精度补偿方法 Active CN112497216B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011381879.0A CN112497216B (zh) 2020-12-01 2020-12-01 一种基于深度学习的工业机器人位姿精度补偿方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011381879.0A CN112497216B (zh) 2020-12-01 2020-12-01 一种基于深度学习的工业机器人位姿精度补偿方法

Publications (2)

Publication Number Publication Date
CN112497216A CN112497216A (zh) 2021-03-16
CN112497216B true CN112497216B (zh) 2022-02-11

Family

ID=74968848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011381879.0A Active CN112497216B (zh) 2020-12-01 2020-12-01 一种基于深度学习的工业机器人位姿精度补偿方法

Country Status (1)

Country Link
CN (1) CN112497216B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113156900B (zh) * 2021-03-30 2022-06-28 南京航空航天大学 一种基于元强化学习的加工变形控制方法
CN113510709B (zh) * 2021-07-28 2022-08-19 北京航空航天大学 基于深度强化学习的工业机器人位姿精度在线补偿方法
CN114131611B (zh) * 2021-12-16 2023-10-24 华中科技大学 机器人重力位姿分解的关节误差离线补偿方法、***及终端
CN115556110A (zh) * 2022-10-25 2023-01-03 华中科技大学 基于主动半监督迁移学习的机器人位姿误差感知方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170003254A (ko) * 2015-06-30 2017-01-09 김슬기 인공지능 알고리즘을 이용한 실시간 적응 제어 시스템 및 방법
CN107818333A (zh) * 2017-09-29 2018-03-20 爱极智(苏州)机器人科技有限公司 基于深度信念网络的机器人避障行为学习和目标搜索方法
CN110352432A (zh) * 2017-04-07 2019-10-18 英特尔公司 使用用于深度神经网络的改进的训练和学习的方法和***
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法
CN110874603A (zh) * 2018-08-30 2020-03-10 沈阳航空航天大学 一种认知信息对抗中深度置信网络情报提取装置及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170003254A (ko) * 2015-06-30 2017-01-09 김슬기 인공지능 알고리즘을 이용한 실시간 적응 제어 시스템 및 방법
CN110352432A (zh) * 2017-04-07 2019-10-18 英特尔公司 使用用于深度神经网络的改进的训练和学习的方法和***
CN107818333A (zh) * 2017-09-29 2018-03-20 爱极智(苏州)机器人科技有限公司 基于深度信念网络的机器人避障行为学习和目标搜索方法
CN110874603A (zh) * 2018-08-30 2020-03-10 沈阳航空航天大学 一种认知信息对抗中深度置信网络情报提取装置及方法
CN110385720A (zh) * 2019-07-26 2019-10-29 南京航空航天大学 一种基于深度神经网络的机器人定位误差补偿方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于深度学习的机会网络拓扑预测机制研究;罗序燕;《中国优秀硕士论文电子期刊网》;20170228;第二、三、四章 *
基于误差相似性的移动机器人定位误差补偿;石章虎等;《航空学报》;20201125;第41卷(第11期);第424105-1至424105-10页 *

Also Published As

Publication number Publication date
CN112497216A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
CN112497216B (zh) 一种基于深度学习的工业机器人位姿精度补偿方法
CN111240319B (zh) 室外多机器人协同作业***及其方法
CN112536797A (zh) 一种工业机器人的位置与姿态误差综合补偿方法
CN112605996B (zh) 一种面向冗余机械臂的无模型碰撞避免控制方法
CN111522341A (zh) 网络异构机器人***的多时变编队跟踪控制方法及***
Wang et al. Pose accuracy compensation of mobile industry robot with binocular vision measurement and deep belief network
CN110737195A (zh) 基于速度控制的双足机器人行走落脚点规划方法及装置
CN111707274B (zh) 能量最优的航天器连续动态避障轨迹规划方法
Hu et al. Robot positioning error compensation method based on deep neural network
CN114932549A (zh) 空间冗余机械臂的运动规划方法与装置
CN113910218A (zh) 基于运动学与深度神经网络融合的机器人标定方法和装置
CN115716264A (zh) 一种基于机器人轨迹优化的涂装生产线优化方法
Chen et al. Optimizing the obstacle avoidance trajectory and positioning error of robotic manipulators using multigroup ant colony and quantum behaved particle swarm optimization algorithms
CN113601499A (zh) 一种单关节锁定失效下的空间机械臂逆运动学方法
CN112207800B (zh) 三自由度转动曲柄连杆并联平台位姿控制方法
CN116872197A (zh) 单杆机械臂的自适应神经网络反演控制方法及其控制***
CN109895097B (zh) 一种焊接机器人运动模型次梯度方法
CN115431267A (zh) 一种基于区域划分的工业机器人曲面加工方法
CN109794939B (zh) 一种焊接机器人运动规划并行束方法
CN112380655B (zh) 一种基于rs-cmsa算法的机器人逆运动学求解方法
CN114012733A (zh) 一种用于pc构件模具划线的机械臂控制方法
CN109807893B (zh) 一种焊接机器人运动模型光滑化方法
Bidokhti et al. Direct kinematics solution of 3-rrr robot by using two different artificial neural networks
CN109807892B (zh) 一种汽车焊接机器人运动规划模型
Zhang et al. Selection of inspection path optimization scheme based on analytic hierarchy process and inspection experimental study

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant